文章目录
- Open Interpreter简介
- 安装
- 运行本地模型
- 运行model i
- 退出
Open Interpreter简介
相比于其他的模型,Open Interpreter最大的亮点就是能够在模型上直接自动运行和调试代码。而其他的模型则需要在生成代码之后,复制到对应的本地IDE上运行、调试。如果代码运行报错或者没有满足用户提出的需求,Open Interpreter会自动修改、调试直到得出满意的结果。
另外,Open Interpreter支持本地部署,也就是说没有网络也可以运行。
而且,Open Interpreter还可以直接分析网页。
安装
Open Interpreter支持多种安装方式。在Windows环境下,可以在安装了Python的前提下直接使用pip安装,就像安装其他的Python package一样。
下面是在Anaconda环境下的安装步骤:
-
安装Anaconda后打开Anaconda Prompt,创建Python环境(建议新建一个Python环境)
注意:一定要用3.10或3.11版本的Python来创建环境,不然后面安装会出错

-
激活环境

可以看到工作环境从base变成了我们刚创建的Interpreter -
用pip直接安装open-interpreter(如果提示)
pip install open-interpreter
大概要30分钟,安装成功的话会显示以下信息:

- 安装完成之后,输入
interpreter按回车键,打开Open Interpreter。接下来会有输入OpenAI API key的提示。输入key就可以使用gpt-4o模型。

运行本地模型
除了Open AI的模型之外,Open Interpreter还可以运行本地模型,就不需要OpenAI API key了。
如果你安装了本地模型供应方,比如Ollama、Llamafile、Jan以及LM Studio。就可以直接在Open Interpreter中使用这些模型供应方中的模型了。关于如何安装Ollama,可以参考我的另一篇博文《Windows环境下安装和使用Ollama》
在终端输入interpreter --local命令,并根据提示选择本地模型提供者及其中已安装的模型:

问题记录:
如果某个模型加载不成功,可以试试其他的本地模型,或者用Ollama拉取新的模型。我电脑上的Open Interpreter加载llama3.2的时候总是不成功,而换成GLM4或者Code Llama就可以
运行model i
除了本地模型,另一个不需要OpenAI key就能在Open Interpreter中运行的模型就是model i。可以输入以下命令开启:

可以看到,模型运行成功之后,立马给了一行代码来试运行。输入y按回车即可运行,不需要复制代码到Python IDE。

退出
按Ctrl + D键退出Open Interpreter