本文主要介绍如何使用 llama 的 server 部署离线大模型,并通过反射技术修改 Semantic Kernel 的 OpenAIClient 类,从而实现指定端点的功能。最后也推荐了一些学习 Semantic Kernel 的资料,希望能对你有所帮助。
封面图片: Dalle3 - 反射狐
1. 引言
随着 AI 技术的快速发展,越来越多的开发者和企业开始利用 Semantic Kernel 来接入离线大模型,以此获取更精准的自然语言处理能力。SK 框架提供了一种解决方案,可以在编程中更加有效地利用大语言模型来解决复杂的问题。然而,许多开发者在使用过程中都遇到了一个共同的问题:无法将 Semantic Kernel 的 OpenAIClient 配置为连接到自定义端点。
2. 问题背景
在默认情况下,Semantic Kernel的OpenAIClient类被配置为连接到Azure OpenAI的官方端点。这对于大部分用户来说是没有问题的,但对于某些特殊场景的用户来说,这成了一个难题。比如,某些企业或个人无法直接访问OpenAI的官方端点,他们需要使用一个中间服务器进行过滤(如安全审计,内部令牌使用成本分配等),然后将请求转发到OpenAI。对于这些用户来说,能够指定OpenAIClient的端点是非常重要的。
另外,许多开发者希望能够使用像 vLLM, llama.cpp 等技术的托管开源模型,这些模型的端点与 Azure OpenAI 的端点不同,因此也需要能够指定端点的功能。
3. llama 的 server 服务部署与问题复现
其实前面的问题由来已久,作为一个饕餮,虽然早早的 start 了 Semantic Kernel 库,但是我也是养了很久才开始食用的。在使用的过程中,我很自然的从文档的快速开始尝试跑第一个示例。示例中使用的是 Azure OpenAI 的服务,虽然在去年四月份我就有了 GPT-4 的访问权限,但如果用作测试和折腾的话还是离线的更有性价比呀,然后就造成了我第一步就遇到了些许麻烦。
3.1 llama 的 server 服务部署
在 llama.cpp 项目中,有一个示例的 server 服务,可以用来部署离线大模型。在项目的 README 中,有详细的部署步骤,这里就不再赘述了。如果你不想自行编译,或过程中遇到各种问题,可以直接在 releases 中找到编译好的二进制文件。下载或编译成功后,我们可以通过以下命令来启动 server 服务:
./server.exe -m models/qwen1_8b-gguf.bin -c 2048 -ngl 20 --port 8000 -a qwen
其中,-m
参数指定了模型的路径,-c
参数指定了模型的上下文长度,-ngl
参数表示你想让多少个层的计算在GPU上进行,在使用CLBlast或cuBLAS编译的二进制文件时,通常可以提高性能,--port
参数指定了服务的端口,-a
参数指定了模型的名称。启动成功后,我们就可以打开浏览器,访问 http://localhost:8000
来测试服务是否正常运行。
server 服务提供的API是类似于 OpenAI 的 API 的,可以在 READNE 中找到详细的说明。
3.2 问题复现
在启动 server 服务后,我们就可以在 Semantic Kernel 中使用了。在 Semantic Kernel 的文档中,有一个示例,可以用来测试是否可以正常连接到 Azure OpenAI 的服务。我们可以将这个示例稍作修改,来测试是否可以连接到我们自己的 server 服务。以下是修改后的示例代码:
var builder = Kernel.CreateBuilder();
var aiclietn = new OpenAIClient(new Uri("http://127.0.0.1:8000/v1"),new Azure.AzureKeyCredential("empty"));
builder.AddOpenAIChatCompletion("qwen",aiclietn);
var kernel = builder.Build();
// ... 省略部分代码
在修改后的示例代码中,我们将 OpenAIClient 的端点指定为了我们自己的 server 服务的端点。但是事情并没有像我们想象的那样顺利,我们在运行示例代码时,会遇到以下错误:
Unhandled exception. Microsoft.SemanticKernel.HttpOperationException: Service request failed.
Status: 404 (Not Found)Content:
File Not Found
...
通过服务端的控制台日志,我们可以看到,服务端收到了请求,但是却返回了 404 错误。这是因为 OpenAIClient 的默认端点是 Azure OpenAI 的端点,而我们的 server 服务并不是 Azure OpenAI 的端点,因此会返回 404 错误。
{"timestamp":1705215286,"level":"INFO","function":"log_server_request","line":2731,"message":"request","remote_addr":"127.0.0.1","remote_port":6274,"status":404,"method":"POST","path":"/v1/openai/deployments/qwen/chat/completions","params":{"api-version":"2023-12-01-preview"}}
4. 解决方案
4.1 问题分析
OpenAIClient
是 Azure.AI.OpenAI
库提供的,通过其源码我们不难发现,其 OpenAI 的服务地址是固定的我们无法修改,如果指定了endpoint
,那么也就是意味着我们默认使用了 Azure OpenAI 的服务,其私有的变量_isConfiguredForAzureOpenAI
将为true
。下面的代码,则是该库中请求路径拼接的相关函数:
internal RequestUriBuilder GetUri(string deploymentOrModelName, string operationPath)
{RawRequestUriBuilder rawRequestUriBuilder = new RawRequestUriBuilder();rawRequestUriBuilder.Reset(_endpoint);if (_isConfiguredForAzureOpenAI){rawRequestUriBuilder.AppendRaw("/openai", escape: false);rawRequestUriBuilder.AppendPath("/deployments/", escape: false);rawRequestUriBuilder.AppendPath(deploymentOrModelName, escape: true);rawRequestUriBuilder.AppendPath("/" + operationPath, escape: false);rawRequestUriBuilder.AppendQuery("api-version", _apiVersion, escapeValue: true);}else{rawRequestUriBuilder.AppendPath("/" + operationPath, escape: false);}return rawRequestUriBuilder;
}
问题的根源找到了,那么解决方案也就呼之欲出了,我们只需要将_isConfiguredForAzureOpenAI
设置为false
,就可以指定端点了。但是这个事情并没有那么简单,因为_isConfiguredForAzureOpenAI
是一个私有的变量,我们无法直接修改它的值。虽然项目是开源的,但是我们也不可能去修改源码,然后自己编译一个库,这样做的事情有些复杂了。
4.2 解决方案:反射
那么有没有什么办法可以修改私有变量的值呢?答案是肯定的,那就是反射。虽然通过源码我们可以发现这个OpenAIClient
类使用了partial
关键字,partial
关键字允许你将一个类、结构或方法的定义分散在多个文件中。然而,要注意的是,partial
关键字只能在同一个程序集(即同一个DLL或EXE)中的文件之间使用。
要修改私有变量的值,使用反射就没有这种限制了。反射是.NET框架提供的一种强大的技术,它允许我们在运行时获取类型的信息,并操作这些类型的成员(如类的字段和方法)。具体来说,我们可以使用反射来修改OpenAIClient
类的私有字段_isConfiguredForAzureOpenAI
的值。当这个字段的值被设置为false
时,OpenAIClient
将能够连接到任何端点,从而解决了我们的问题。关于反射的更多信息可以参考官方文档的高级主题:反射。
在.NET中,我们可以使用System.Reflection
命名空间中的类来进行反射操作。以下是一个简单的例子,演示了如何使用反射修改_isConfiguredForAzureOpenAI
的值:
using Azure.AI.OpenAI;
using Microsoft.SemanticKernel;
using Microsoft.SemanticKernel.Connectors.OpenAI;
using System.Reflection;var builder = Kernel.CreateBuilder();
var aiclietn = new OpenAIClient(new Uri("http://127.0.0.1:8000/v1"),new Azure.AzureKeyCredential("empty"));
// 获取_isConfiguredForAzureOpenAI字段的引用
var field = typeof(OpenAIClient).GetField("_isConfiguredForAzureOpenAI", BindingFlags.NonPublic | BindingFlags.Instance);
// 修改_isConfiguredForAzureOpenAI字段的值
if (field != null)
{field.SetValue(aiclietn, false);
}builder.AddOpenAIChatCompletion("qwen",aiclietn);
// ... 省略部分代码
修改完成后,我们使用 dotnet run
命令运行示例代码,就可以看到我们的示例代码终于跑起来了。
4.3 更好的解决方案:修改源码
虽然反射可以解决我们的问题,但它并不是最佳的解决方案。反射操作可能会引入一些额外的复杂性和性能开销,而且它依赖于私有字段的名称,如果未来这个名称发生改变,我们的代码就可能会失效。
一个更好的解决方案是直接在OpenAIClient类的源码中添加一个公共方法,用于设置_isConfiguredForAzureOpenAI
的值。这样,我们就可以直接调用这个方法来修改字段的值,而不需要使用反射。我已经在GitHub上提交了一个修改,添加了这样一个方法:
public void SetIsConfiguredForAzureOpenAI(bool value)
{_isConfiguredForAzureOpenAI = value;
}
5. 最后
通过反射和源码修改,我们成功解决了Semantic Kernel接入离线大模型的问题。这个解决方案将使Semantic Kernel能够与像vLLM, llama.cpp等技术的托管开源模型进行交互,同时也允许应用程序指定端点,满足了大家迫切的需求,希望这篇文章能对你有所帮助。
最后推荐一些学习Semantic Kernel的资料:
- Semantic Kernel 官方文档:https://learn.microsoft.com/zh-cn/semantic-kernel/overview/?wt.mc_id=DT-MVP-5005195
- Semantic Kernel 仓库:https://github.com/microsoft/semantic-kernel?wt.mc_id=DT-MVP-5005195
- Semantic Kernel CookBook:https://github.com/kinfey/SemanticKernelCookBook?wt.mc_id=DT-MVP-5005195
- LLM-Server:https://github.com/kinfey/SemanticKernel-Local-LLM-Server?wt.mc_id=DT-MVP-5005195