DifyからHugging Faceモデルを利用する

Difyは、AIアプリケーションを容易に開発できるプラットフォームとして人気を集めています。コーディングスキルが不要な直感的なインターフェースを備え、ビジネスユーザーからエンジニアまで、幅広い層に利用されています。利用可能なAIモデルはOpenAIをはじめ、Anthropic、Azure OpenAI、Gemini、Google Cloudなど有名どころはもちろん多種多様にサポートしています。利用可能なモデルプロバイダーはここをクリックしてください。

今回は「Hugging Face Model」を使ったところ

  1. Hosted Inference APIの意味
  2. Model Name指定の仕方
  3. API Tokenの権限設定

などが分からなかったので共有いたします。

1.Hosted Inference APIの意味

今回の目的は、Hugging Faceに登録されているAIモデルを、下図のようにHugging Faceの画面からではなく、外部のDifyから活用することです。逆に言うと、下図のようにHugging Face画面から操作可能なモデルは「Hosted Inference API」としてDifyから活用できるAIモデルを意味しているようです。

2.Model Name指定の仕方

上図のように例えばgoogle/gemma-2-2b-itを利用する場合、単純に「google/gemma-2-2b-it」と書くだけでした。間違いのないようにコピーアイコンを用いると確実でした。

3.API Tokenの権限設定

Hugging Face側でトークン作成時、「Fine-grained」「Read」「Write」の3種類から選択できますが、デフォルトの「Fine-grained」では詳細な設定が必要で、最初はうまく設定できませんでした。結局、「Write」を選択すると、設定項目はなく、トークン名を指定するだけでした。「Write」権限は、おそらく最も強力な権限のようで、Dify側でのモデル設定もうまくいきました。