OpenAI Connector と Ollama を使用してオープンソース LLM をローカルで実行する方法 | Mendix

メインコンテンツへスキップ

OpenAI Connector と Ollama を使用してオープンソース LLM をローカルで実行する方法 

このブログ記事では、ローカルマシン上で実行されているLLMを Mendix アプリ。そのためには、OpenAIコネクタを活用します。 Mendix スマートなGenAI機能をユースケースに導入するためのマーケットプレイス。多くのGenAIプロバイダーがOpenAIと互換性のあるAPIを提供しているため、以下に説明する同様のアプローチを使用して、これらのプロバイダーを統合することもできます。 Mendix.

オラマとは何ですか?

Ollama は、DeepSeek-R1、Llama 3.3、Phi-4、Mistral、Gemma 2 などのオープンソースの大規模言語モデル (LLM) をローカル マシンで実行できるフレームワークです。LLM をローカルで実行すると、ユーザーの環境にデータを保持してレイテンシを削減することで、プライバシー、制御、パフォーマンスが向上します。また、ネットワークの独立性も確保され、信頼性と規制要件への準拠が向上する可能性があります。

前提条件

Mendix Studio Pro 9.24.2 以上。

1 – Ollamaをダウンロードしてインストールする

Ollama をダウンロードしてインストールします。

Macユーザーへの注意: Mendix Parallels を搭載した Mac 上の Studio Pro、 Mendix ポート転送を設定する必要がないように、Windows に Ollama をインストールすることをお勧めします。

2 – 最初のモデルをダウンロードする

チェックアウトします Ollama モデルライブラリ ターミナルを開いて次のように入力して、モデルの1つをダウンロードします。 ollama pull model-id. モデルIDトークンをモデルライブラリから使用したいモデルに置き換えます。このチュートリアルでは、DeepSeek-R1を使用して実行しました。 ollama pull deepseek-r1 ターミナルで。

モデルのサイズによっては、ダウンロードに時間がかかる場合があります。待っている間に、次のステップに進み、セットアップを開始できます。 Mendix アプリ。

ダウンロードが完了したら、コンソールで直接モデルをテストすることができます。 ollama run deepseek-r1 (再度、 deepseek-r1 (選択したモデル ID を使用)を入力し、プロンプトを入力して会話を開始します。

3 – セットアップ Mendix アプリ

Ollamaのセットアップとテストが成功したので、切り替える準備ができました。 Mendix Studio Pro を使用すると、OpenAI コネクタを Ollama と互換性のあるものにできます。多くの AI プロバイダーとプラットフォームが、OpenAI の API 仕様と互換性のある REST API を提供しているため、OpenAI コネクタは実装の理想的な出発点となります。

あなたがすでに Mendix Studio Proバージョン9.24.2以降のプロジェクトをダウンロードして使用してください。 GenAIの MendixOpenAIコネクタ Mendix マーケットプレイスで依存関係を設定します。または、GenAIスターターアプリの1つから始めることもできます。 AIボットスターターアプリには必要なモジュールがすべて含まれており、ChatGPT のようなカスタム チャットボットを独自に構築する場合に最適なテンプレートです。

4 – OpenAIコネクタを構成する

  1. 手順に従って暗号化キーを設定します MxDocsで言及されている.
  2. その後、モジュールロールを追加します OpenAIConnector.Administrator アプリのセキュリティ設定で管理者ユーザー ロールに追加します。
  3. 最後に、 Configuration_Overview ページ(USE_ME > Configuration)をナビゲーションに追加するか、 Snippet_Configurations すでにナビゲーションの一部となっているページに移動します。

5 – アプリを実行し、Ollamaモデル構成を追加する

次に、アプリを実行し、管理者としてログインして、ナビゲーションに追加された OpenAI 構成ページを開きます。[新規] ボタンをクリックして、新しい構成を作成します。

表示名を選択し、APIタイプをOpenAIに設定します。エンドポイントを http://localhost:11434/v1 最後に、 1 または、保存時に検証エラーを回避するために、トークンとして他の文字列を使用します。ローカル Ollama サーバーは認証方法によって保護されていないため、トークン文字列の内容は完全に任意です。

Ollamaモデルの構成

設定を保存すると、デフォルトのOpenAIモデルがすべて表示された新しいポップアップが表示されます。これらはOllama設定では機能しないため、削除できます。その後、ローカルのOllamaモデルをデプロイ済みモデルとして追加します。 Mendix アプリ。

表示名を選択し、モデル名をOllamaのモデルライブラリのモデルIDに設定します。 Ollamaのウェブサイトのモデル概要 モデルの出力形式と追加機能を決定するのに役立ちます。DeepSeek-R1 の場合、以下のスクリーンショットのようになります。

Ollamaの概要

「保存」をクリックします。デプロイされたモデルのポップアップを閉じます。

6 – Ollamaモデルをテストする Mendix

新しいモデルをテストするには、Ollama 構成行の 3 つのドットにマウスを移動し、ポップアップ メニューで [テスト] オプションを選択します。デプロイされたモデルのドロップダウン リストから、作成したモデルを選択し、[テスト] ボタンをクリックします。すべてが正しく設定されている場合は、成功メッセージが表示されます。

テストが成功しなかった場合は、Studio Pro のコンソールでログをチェックして詳細を表示し、次のトラブルシューティングのヒントを実行してください。

  1. エンドポイントとモデル名が正しく入力されていることを確認します。両方に空白が含まれていないことを確認します。
  2. Ollamaサーバーにアクセスできない場合は、新しいターミナルを開いて次のコマンドを実行して再起動してみてください。 ollama serve.

モデルは、 Mendix アプリ。AIボットスターターアプリを使い始めた場合は、 ハウツードキュメント セットアップを完了してチャットを開始します。

スマートアプリの詳細を読む

GenAIを初めてご利用の方は、 GenAI ショーケース アプリでは、GenAIを実装するための10以上の異なるユースケースを実演し、説明しています。 Mendix アプリ。AI拡張アプリの開発を始めるには、AIボットスターターアプリに加えて、 Mendix は、必要なモデル、構成ロジック、基本的な実装をすべて備えているため、スマートアプリの開発を開始できるさまざまなスターターアプリを提供しています。利用可能なスターターアプリには、 サポートアシスタントは、ユーザーがナレッジベースを検索してサポートチケットを作成するのに役立ちます。 RFPアシスタント繰り返しの質問があるアンケートに回答するのに使用できます。 Mendix 概要に関する文書 利用可能なすべてのGenAIコンポーネントとアプリ.

すべてのスターターアプリは、このブログ記事で説明されているように、実行しているモデルがビジョンや関数呼び出しなどの必要な機能をサポートしている場合、OpenAIコネクタで設定されたOllamaモデルと互換性があります。 Ollamaのウェブサイトのモデル概要 特定の機能を持つモデルを絞り込むことができます。最後に、追加の スマートアプリを構築するためのリソース Mendix.

私達と接続

GenAIのユースケースに取り組んでいて、サポートが必要な場合やフィードバックを提供したい場合は、ぜひご連絡ください。カスタマーサクセスマネージャーにお問い合わせください。 私たちにメールを送って または、 #genai-connectors チャンネル Mendix コミュニティSlack。 ここでサインアップ!

言語を選択してください