文章目录
- Open Interpreter简介
- 安装
- 运行本地模型
- 运行model i
- 退出
Open Interpreter简介
相比于其他的模型,Open Interpreter最大的亮点就是能够在模型上直接自动运行和调试代码。而其他的模型则需要在生成代码之后,复制到对应的本地IDE上运行、调试。如果代码运行报错或者没有满足用户提出的需求,Open Interpreter会自动修改、调试直到得出满意的结果。
另外,Open Interpreter支持本地部署,也就是说没有网络也可以运行。
而且,Open Interpreter还可以直接分析网页。
安装
Open Interpreter支持多种安装方式。在Windows环境下,可以在安装了Python的前提下直接使用pip
安装,就像安装其他的Python package一样。
下面是在Anaconda环境下的安装步骤:
-
安装Anaconda后打开Anaconda Prompt,创建Python环境(建议新建一个Python环境)
注意:一定要用3.10或3.11版本的Python来创建环境,不然后面安装会出错
-
激活环境
可以看到工作环境从base变成了我们刚创建的Interpreter -
用pip直接安装open-interpreter(如果提示)
pip install open-interpreter
大概要30分钟,安装成功的话会显示以下信息:
- 安装完成之后,输入
interpreter
按回车键,打开Open Interpreter。接下来会有输入OpenAI API key的提示。输入key就可以使用gpt-4o模型。
运行本地模型
除了Open AI的模型之外,Open Interpreter还可以运行本地模型,就不需要OpenAI API key了。
如果你安装了本地模型供应方,比如Ollama、Llamafile、Jan以及LM Studio。就可以直接在Open Interpreter中使用这些模型供应方中的模型了。关于如何安装Ollama,可以参考我的另一篇博文《Windows环境下安装和使用Ollama》
在终端输入interpreter --local
命令,并根据提示选择本地模型提供者及其中已安装的模型:
问题记录:
如果某个模型加载不成功,可以试试其他的本地模型,或者用Ollama拉取新的模型。我电脑上的Open Interpreter加载llama3.2的时候总是不成功,而换成GLM4或者Code Llama就可以
运行model i
除了本地模型,另一个不需要OpenAI key就能在Open Interpreter中运行的模型就是model i
。可以输入以下命令开启:
可以看到,模型运行成功之后,立马给了一行代码来试运行。输入y
按回车即可运行,不需要复制代码到Python IDE。
退出
按Ctrl + D
键退出Open Interpreter