如何在Windows本地运行Microsoft Phi-3 AI

Microsoft 的 Phi-3 系列语言模型终于来了。就它们的尺寸而言,它们绝对是一个级别的差异,并且已经证明在许多方面比其他最近发布的型号(如 Llama 3 和 Mistral)要好得多。由于其小巧的尺寸,Phi-3 可以轻松地在本地运行在您的 Windows PC 上。以下是使用 Ollama 和 LM Studio 执行此操作的方法。

如何使用Ollama在Windows上运行Microsoft的Phi-3

Ollama 是一个软件框架,可让您运行和试验 LLM。以下是如何使用它在Windows本地运行Microsoft的Phi-3。

第 1 步:下载并安装 Ollama

首先,让我们下载并安装 Ollama。方法如下:

  1. 使用上面提到的链接,然后单击“下载 Windows(预览版)”。
    ms-phi3-windows-locally-1
  2. 下载后,运行安装文件。
    ms-phi3-windows-locally-2
  3. 单击“安装”并安装 Ollama。
    ms-phi3-windows-locally-3

第 2 步:运行 Phi-3 命令并下载 LLM

接下来,让我们使用 Ollama 下载 Phi-3 模型。

  1. 打开 Ollama.com,然后单击模型
    ms-phi3-windows-locally-5
  2. 向下滚动并单击 phi3。如果您一开始没有看到它,您也可以搜索它。
    ms-phi3-windows-locally-6
  3. 在这里,复制命令以下载 phi3。
    ms-phi3-windows-locally-7
  4. 接下来,从“开始”菜单打开命令提示符(或您选择的任何终端应用)。
    ms-phi3-windows-locally-8
  5. 在这里,粘贴复制的命令。
    ms-phi3-windows-locally-9
  6. 按 Enter 键并等待 Phi-3 下载到您的机器上。
    ms-phi3-windows-locally-11
  7. 看到“发送消息”消息后,您就可以开始在本地与模型聊天了。
    ms-phi3-windows-locally-12

第 3 步:开始与 Microsoft 的 Phi-3 LLM 聊天

您可以在终端应用程序本身中开始聊天。只需输入提示并按 Enter。以下是我们测试模型的几个方面。

测试抗审查性
ms-phi3-windows-locally-15

测试对复杂主题
ms-phi3-windows-locally-16
的理解

幻觉
ms-phi3-windows-locally-18
检测

测试创造力
ms-phi3-windows-locally-14

如何使用 LM Studio 在 Windows 上运行 Microsoft 的 Phi-3

如果您不喜欢使用终端应用程序在 Windows 上与 Microsoft 的 Phi-3 聊天,而宁愿拥有专用界面,那么没有什么比 LM Studio 更好的了。以下是在 LM Studio 上设置 Phi-3 并开始在本地与模型聊天的方法。

第 1 步:安装 LM Studio

  1. 使用上面的链接,然后单击 LM Studio for Windows 进行下载。
    meta-llama-3-locally-1
  2. 下载后,运行安装程序并让 LM Studio 安装。
    meta-llama-3-locally-3

第 2 步:下载 Phi-3 gguf 文件

您将无法从 LM Studio 本身搜索和下载 Phi-3。您需要单独获取 Phi-3 guff 文件。方法如下:

  1. 使用上面给出的链接,然后单击“文件”
    ms-phi3-windows-locally-19
  2. 在这里,您将找到 Phi-3 模型的两个版本。选择一项。出于我们的目的,我们选择较小的版本。
    ms-phi3-windows-locally-20
  3. 点击下载
    ms-phi3-windows-locally-21
  4. 然后将其保存在方便的位置。
    ms-phi3-windows-locally-22

第 3 步:加载 Phi-3 模型

接下来,我们将加载下载的 Phi-3 模型。请按照以下步骤操作:

  1. 打开 LM Studio,然后单击左侧的“我的模型”。
    ms-phi3-windows-locally-23
  2. 记下“本地模型文件夹”。这是我们需要移动下载的 Phi-3 guff 文件的地方。单击“在文件资源管理器中显示”以打开目录。
    ms-phi3-windows-locally-24
  3. 在这里,创建一个名为 Microsoft 的新文件夹。
    ms-phi3-windows-locally-25
  4. 在 Microsoft 文件夹中,创建另一个标题为 Phi-3 的文件夹。
    ms-phi3-windows-locally-26
  5. 将下载的 Phi-3 guff 文件粘贴到 Phi-3 文件夹中。
    ms-phi3-windows-locally-27
  6. 移动 Phi-3 guff 文件后,它也会出现在 LM Studio 中。
    ms-phi3-windows-locally-28
    您可能需要重新启动 LM Studio 才能识别其目录中的 Phi-3。
  7. 要加载 Phi-3 模型,请单击左侧的 AI 聊天选项。
    ms-phi3-windows-locally-29
  8. 单击“选择要加载的模型”。
    ms-phi3-windows-locally-30
  9. 并选择 Phi-3 型号。
    ms-phi3-windows-locally-31
  10. 等待它加载。完成后,您可以开始与 Phi-3 聊天。但是,我们建议将模型卸载到 GPU,这样您的 CPU 就不会承受过大的压力。为此,请在右侧的“系统提示符”下,单击“高级配置”>“硬件设置”。
    ms-phi3-windows-locally-33
  11. 在“GPU 加速”下,单击 Max
    ms-phi3-windows-locally-34
  12. 单击“重新加载模型”以应用配置
    ms-phi3-windows-locally-35
  13. 模型加载后,您可以开始与 Phi-3 聊天。
    ms-phi3-windows-locally-39

第 4 步:开始与 Microsoft 的 Phi-3 LLM 聊天

仅此而已。继续并输入提示。无论您是否有互联网连接,您现在都可以在本地Windows PC上与Microsoft的Phi-3型号聊天。

常见问题

让我们考虑一些有关在Windows PC上本地运行Microsoft的Phi-3的常见问题。

如何修复 Ollama 卡在下载 Phi-3 时?

如果您在命令提示符下通过 Ollama 下载 Phi-3 时遇到问题,只需再次输入命令即可。下载将从之前点击的位置恢复。ollama run phi3

原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun295020.html

(0)
打赏 微信扫一扫不于多少! 微信扫一扫不于多少! 支付宝扫一扫礼轻情意重 支付宝扫一扫礼轻情意重
上一篇 2024年4月26日 下午1:32
下一篇 2024年5月10日 上午9:10

相关推荐