开发喵星球

Xorbits Inference:Ollama最强竞品

Xorbits Inference:Ollama最强竞品

Xorbits Inference(Xinference)是一个性能强大且功能全面的分布式推理框架。可用于大语言模型(LLM),语音识别模型,多模态模型等各种模型的推理。通过 Xorbits Inference,你可以轻松地一键部署你自己的模型或内置的前沿开源模型。其特点是部署快捷、使用简单、推理高效,并且支持多种形式的开源模型,还提供了 WebGUI 界面和 API 接口,方便用户进行模型部署和推理。

下面是 Xinference 与其他模型部署推理工具的对比:

图片

集成知识库

它不仅仅支持大模型的部署和使用,还集成了知识库:

主要功能

image-20240707143232869

Xinference 部署

Docker部署

Nvidia GPU 用户可以使用Xinference Docker 镜像 启动 Xinference 服务器。在执行安装命令之前,确保你的系统中已经安装了 DockerCUDA

本地部署

使用 pip 安装 Xinference,操作如下:

pip install "xinference[all]"

要启动一个本地的 Xinference 实例,请运行以下命令:

$ xinference-local

一旦 Xinference 运行起来,你可以通过多种方式尝试它:通过网络界面、通过 cURL、通过命令行或通过 Xinference 的 Python 客户端。

这里通过网络界面来访问:http://localhost:9777

image-20240707143656134

   
分类:玩技术 作者:荡荡, 浩浩 发表于:2024-07-07 14:39:39 阅读量:333
<<   >>


powered by kaifamiao