Dify 支持 Text-Generation 和 Embeddings,以下是与之对应的 Hugging Face 模型类型:
具体步骤如下:
Dify 支持用两种方式接入 Hugging Face 上的模型:
模型详情页右侧有包含 Hosted inference API 的 区域才支持 Hosted inference API 。如下图所:
在模型详情页,可以获得模型的名称。
在 设置 > 模型供应商 > Hugging Face > 模型类型
的 Endpoint Type 选择 Hosted Inference API。如下图所示:
API Token 为文章开头设置的 API Key。模型名字为上一步获得的模型名字。
模型详情页右侧的 Deploy
按钮下有 Inference Endpoints 选项的模型才支持 Inference Endpoint。如下图所示:
点击模型的部署按钮,选择 Inference Endpoint 选项。如果之前没绑过银行卡的,会需要绑卡。按流程走即可。绑过卡后,会出现下面的界面:按需求修改配置,点击左下角的 Create Endpoint 来创建 Inference Endpoint。
模型部署好后,就可以看到 Endpoint URL。
在 设置 > 模型供应商 > Hugging Face > 模型类型
的 Endpoint Type 选择 Inference Endpoints。如下图所示:
接入 Hugging Face 上的开源模型
Dify 支持 Text-Generation 和 Embeddings,以下是与之对应的 Hugging Face 模型类型:
具体步骤如下:
Dify 支持用两种方式接入 Hugging Face 上的模型:
powered by kaifamiao