如何使用Ollama在Windows上本地运行 AI 模型
您可以在没有互联网连接的情况下,在计算机上本地运行像 ChatGPT 这样的 AI 模型。有许多服务可以帮助您实现这一过程。本文将展示如何使用 Ollama 来运行 AI 模型。
下载并安装 Ollama
步骤 1:访问 Ollama 网站并点击“下载”按钮。
步骤 2:选择您的操作系统并点击下载。
步骤 3:双击下载的文件 > 点击“安装” > 按照安装说明进行操作。
安装完成后,您应该会看到一个弹窗,提示 Ollama 正在运行。
步骤 4:启动终端。在 Windows 中,按下 Windows + R 键,输入 cmd,然后按回车。
步骤 5:使用以下命令下载您的第一个 AI 模型。确保您将“model”替换为 Ollama 上的实际模型名称,这些模型可以是 Llama 3、Phi 3、Mistral、Gemma 等。请耐心等待,下载可能需要一些时间。
Ollama pull model
如何与下载的模型进行交互
现在您已经安装了 AI 模型,可以开始与其进行交互。这与通过网页界面与 Gemini 或 ChatGPT AI 进行交互类似。请按照以下步骤操作:
步骤 1:启动您的计算机终端。
步骤 2:输入以下命令。您可以将命令中的“llama3”替换为您下载的模型名称。
Ollama run llama3
步骤 3:最后,输入您的提示词并按回车,就像在 ChatGPT 或 Gemini 中一样。您应该可以与 AI 进行交互了。
可以在本地运行生成性 AI 吗?
是的,您可以,目前,Stable Diffusion 是最可靠的方式。像 Stable Diffusion WebUI 和 InvokeAI 这样的工具提供了对 Stable Diffusion 的访问,可以在本地生成图像。