Skip to content

Latest commit

 

History

History
27 lines (19 loc) · 2.29 KB

Local_Server_Inference.md

File metadata and controls

27 lines (19 loc) · 2.29 KB

在本地服务器上推理 Phi-3

我们可以在本地服务器上部署 Phi-3。用户可以选择 OllamaLM Studio 的解决方案,或者编写自己的代码。您可以通过 Semantic KernelLangchain 连接 Phi-3 的本地服务,从而构建 Copilot 应用程序。

使用 Semantic Kernel 访问 Phi-3-mini

在 Copilot 应用程序中,我们通过 Semantic Kernel 或 LangChain 创建应用程序。这类应用程序框架通常兼容 Azure OpenAI Service / OpenAI 模型,同时也支持 Hugging Face 上的开源模型以及本地模型。如果我们想使用 Semantic Kernel 来访问 Phi-3-mini,该怎么做呢?以 .NET 为例,我们可以将其与 Semantic Kernel 中的 Hugging Face Connector 结合使用。默认情况下,它可以对应 Hugging Face 上的模型 ID(首次使用时,模型会从 Hugging Face 下载,这个过程较耗时)。您也可以连接到自建的本地服务。相比之下,我们推荐使用后者,因为它在企业应用中具有更高的自主性。

sk

从图中可以看出,通过 Semantic Kernel 访问本地服务,可以轻松连接到自建的 Phi-3-mini 模型服务器。以下是运行结果:

skrun

示例代码 https://github.com/kinfey/Phi3MiniSamples/tree/main/semantickernel

免责声明:
本文档使用 AI 翻译服务 Co-op Translator 进行翻译。尽管我们努力确保准确性,但请注意,自动翻译可能包含错误或不准确之处。应以原始语言的原始文档为权威来源。对于关键信息,建议使用专业人工翻译。我们对因使用此翻译而产生的任何误解或错误解释不承担责任。