开发喵星球

接入 Hugging Face 上的开源模型

接入 Hugging Face 上的开源模型

Dify 支持 Text-Generation 和 Embeddings,以下是与之对应的 Hugging Face 模型类型:

具体步骤如下:

  1. 你需要有 Hugging Face 账号(注册地址)。
  2. 设置 Hugging Face 的 API key(获取地址)。
  3. 进入 Hugging Face 模型列表页,选择对应的模型类型。

img

Dify 支持用两种方式接入 Hugging Face 上的模型:

  1. Hosted Inference API。这种方式是用的 Hugging Face 官方部署的模型。不需要付费。但缺点是,只有少量模型支持这种方式。
  2. Inference Endpoint。这种方式是用 Hugging Face 接入的 AWS 等资源来部署模型,需要付费。

接入 Hosted Inference API 的模型

1 选择模型

模型详情页右侧有包含 Hosted inference API 的 区域才支持 Hosted inference API 。如下图所:

img

在模型详情页,可以获得模型的名称。

img

2 在 Dify 中使用接入模型

设置 > 模型供应商 > Hugging Face > 模型类型 的 Endpoint Type 选择 Hosted Inference API。如下图所示:

img

API Token 为文章开头设置的 API Key。模型名字为上一步获得的模型名字。

方式 2: Inference Endpoint

1 选择要部署模型

模型详情页右侧的 Deploy 按钮下有 Inference Endpoints 选项的模型才支持 Inference Endpoint。如下图所示:

img

2 部署模型

点击模型的部署按钮,选择 Inference Endpoint 选项。如果之前没绑过银行卡的,会需要绑卡。按流程走即可。绑过卡后,会出现下面的界面:按需求修改配置,点击左下角的 Create Endpoint 来创建 Inference Endpoint。

img

模型部署好后,就可以看到 Endpoint URL。

img

3 在 Dify 中使用接入模型

设置 > 模型供应商 > Hugging Face > 模型类型 的 Endpoint Type 选择 Inference Endpoints。如下图所示:

img接入 Hugging Face 上的开源模型

Dify 支持 Text-Generation 和 Embeddings,以下是与之对应的 Hugging Face 模型类型:

具体步骤如下:

  1. 你需要有 Hugging Face 账号(注册地址)。
  2. 设置 Hugging Face 的 API key(获取地址)。
  3. 进入 Hugging Face 模型列表页,选择对应的模型类型。

img

Dify 支持用两种方式接入 Hugging Face 上的模型:

  1. Hosted Inference API。这种方式是用的 Hugging Face 官方部署的模型。不需要付费。但缺点是,只有少量模型支持这种方式。
  2. Inference Endpoint。这种方式是用 Hugging Face 接入的 AWS 等资源来部署模型,需要付费。
   
分类:玩技术 作者:荡荡, 浩浩 发表于:2024-07-22 14:30:01 阅读量:107
<<   >>


powered by kaifamiao