Mendix とAI
Mendix エンタープライズアプリケーション向けのAI強化アプリ開発にダイナミックな導入を行いました。当社のプラットフォームは、スマートで直感的でパーソナライズされたアプリの提供を可能にします。 AI機能.
最高のものを見つける旅の中で Mendix アプリ開発者の皆様のために、AWS の最も直感的な AI サービスを統合し、スマートなエンタープライズ アプリケーション開発を公園を散歩するかのように簡単に行えるようにしました。
私たちの旅を追うには、以下をご覧ください。
- その Mendix コミュニティ YouTube チャンネル
- その 開発者ブログ
- 現在入手可能な Mendix AWS コネクタ
- しかし、独自のコネクタを構築する方法を学びたい場合は、これに従う必要があります アカデミー学習パス.
私たちのチームの目的は、開発者が開発業務で役立つツールを提供することです。また、動的で使いやすいスマートな機能の調査と強調にも時間を費やしています。
最近、AWSから新しくリリースされたサービスについて調べてみました。 アマゾンの岩盤 –そこから私たちは Mendix Amazon Bedrock コネクタ と 実装例.

Amazon Bedrock とは何ですか?
アマゾンの岩盤 は、Amazon と主要な AI スタートアップの基盤モデル (FM) を API を通じて利用できるようにする、完全に管理されたサービスです。
これにより、さまざまな FM から選択して、ユースケースに最適なモデルを見つけることができます。基礎モデルを使用したサーバーレス エクスペリエンスをすぐに開始できます。
Foundation モデルとは何ですか?
最初の定義は 基礎モデル スタンフォード大学によって与えられたものです。この論文では、これら (BERT、GPT-3、Claude、Amazon Titan など) を、幅広い下流タスクに適応できる規模で広範なデータでトレーニングされたモデルとして説明しています。
Amazon Bedrock への早期アクセスが可能になったため、次の基盤モデルの最新バージョンが利用可能になりました。
テキスト
- アマゾンタイタンラージv.1.01
- AI21 ラボ ジュラシック 2 ウルトラ
- 人間性クロード 2
画像
- 安定性 AI 安定拡散 XL v2.2.2
私たちのチームがこのサービスについて学びながら、より刺激的な体験をするために、「私たち対 Amazon Bedrock」ハッカソン デーを開催することにしました。
トライアル アプリでどれだけ迅速に進歩できたかは驚くべきものでした。15 分以内に、Amazon Bedrock で利用可能なすべてのモデルを統合し、リストを取得することに成功しました。
さらに驚くべきことに、わずか 1 時間足らずで、Amazon Titan を試し、Stability AI の Stable Diffusion XL を使用して画像を生成していました。
この投稿の後半では、テスト アプリケーション内で基本モデルを実装したさまざまなチーム メンバーの個人的な体験 (苦労したことも、興奮したことも) を共有します。
安定拡散XL
生成 AI の世界では、Stability AI は注目すべき企業です。このオープンソース企業は 2021 年に AI イニシアチブを立ち上げ、現在では 200,000 万人を超えるクリエイター、開発者、研究者を擁するコミュニティを擁しています。
Stability AI は、強力な Ezra-1 UltraCluster スーパーコンピューターを使用して Stable Diffusion XL モデルを作成し、ユーザーにユニークなエクスペリエンスを提供します。
Stable Diffusion XL 2.0は2022年XNUMX月にリリースされましたが、Stable Diffusion XLはまだ ベータ版Stable Diffusion XL は、テキストから画像を生成する AI です。つまり、短いプロンプトで説明的な画像を作成したり、画像内に単語を生成したりすることができます。たとえば、このブログのすべての写真は Stable Diffusion XL で作成されました。
Agapi Karafoulidou による Stable Diffusion XL の実装について
「『Us against Amazon Bedrock』ハッカソン中に、私は Stable Diffusion XL の実装に突入しました。最初は少し悲観的でしたが、それで諦めることはできませんでした。
「Amazon Bedrockのテストページで、JSON形式のAPIリクエストを見つけることができました。それを入手したら、 Mendix アプリをインストールし、エクスポート マッピングを作成しました。
「その後、POST API 呼び出しを含むマイクロフローが追加され、もちろん必要なヘッダーを追加する必要がありました。ありがたいことに、それらは API リクエストで表示されました。アプリを実行し、「完璧な写真を見せてください」というプロンプトを追加してクリックしました。」
結果はこうなりました。

アマゾンタイタン
Amazon Titan は、ブログ投稿の作成などのテキスト生成タスク用の生成型大規模言語モデルです。最後の文を読んで疑問に思われたかもしれませんが、このブログの要約部分は AI の助けを借りて作成されましたが、残りの部分は AI の助けを借りて作成されていません。🙂
Amazon Titanは、もちろん、多くのデータセットでトレーニングされており、汎用モデルに分類されます。 アマゾンタイタン.

Daan Van Otterloo が Amazon Titan の実装について語る
「新しい Mendix AWSチームメンバーとして、Amazon Bedrockコネクタで仕事を始めることができてとても嬉しく思っています。ジェネレーティブAIはここ数年で大きな進歩を遂げており、ChatGPTのリリース以来話題になっています。これにより、 Mendix 開発者はこれらのモデルをアプリケーションに簡単に統合できます。これにより、多くのアプリケーションにさまざまな方法で価値が追加されます。
「個人的に、Amazon Bedrock コネクタのサンプル実装の一部を開発する機会に恵まれました。そのため、ほとんどのモデル、特に Amazon Titan Text Large モデルを試してみることができました。
「これは、次のような点でユーザーを支援できる汎用生成 LLM (大規模言語モデル) です。
- テキスト生成
- コード生成
- アイデアのブレインストーミングなど、さまざまなユースケース
「Amazon Titan のようなモデルを私が最もよく使う方法は、モデルにレシピやプレゼントのアイデアを聞いたり、単に映画や音楽のおすすめを聞いたりして、インスピレーションを得ることです。
「REST API 呼び出しを使用して Amazon Bedrock サービスに接続することにしました。その方法は次のとおりです。
- まず、AWS アカウントにログインし、Amazon Bedrock プレイグラウンドに移動しました。
- Amazon Titan Text Largeモデルを選択して、試し始めました。 (このページには、コピーして使用できるリクエストJSONの例も掲載されています。 Mendix Amazon Titan を呼び出す REST 呼び出しに使用されるエクスポート マッピングを作成します。
- In Mendixデバッガーを使用して応答をチェックおよびコピーし、応答のインポートに使用するデータ モデルとマイクロフロー ロジックを作成しました。
「モデルを活用するために私がやらなければならなかったことはこれだけです。あとは私たちのクリエイティブにかかっています。 Mendix コミュニティがこれらのモデルを使用して価値を生み出すことを目指します!」
ジュラシック2 ウルトラ
イスラエルを拠点とする AI21 Labs は、自然言語を理解し作成する能力を備えた AI システムを構築するという使命を掲げて 2018 年に設立されました。同社の製品には、基礎モデルである Jurassic-2 Ultra が含まれています。
Hubspot AI21 LabsのドキュメントJurassic-2 モデルを使用すると、次のことが可能になります。
「…Python SDK を使用するか、使用する言語モデルに対応する完全なエンドポイントに HTTP リクエストを送信して、特定のテキスト プロンプトのテキスト補完を生成します。リクエストには、プロンプトと呼ばれる入力テキストと、生成を制御するさまざまなパラメータが含まれます。認証のために、リクエスト ヘッダーに API キーを含める必要があります。完全な応答には、トークン化されたプロンプト、補完と呼ばれる生成されたテキスト、およびさまざまなメタデータが含まれます。」

ニコラス・クンツ・ベガがジュラシック2ウルトラの実装について語る
「名前から想像されるのとは異なり、Jurassic-2 Ultra 基礎モデルは先史時代とはまったく関係がなく、最先端の LLM です。Jurassic-2 Ultra モデルを操作しているときに本当に驚いたのは、リクエストを微調整してモデルから返される応答を操作できる方法の数々でした。
「Amazon Bedrock で利用できるさまざまなモデルに見られる、返されるトークンの最大数や、応答でモデルがどの程度創造的 (または反復的) になるかを制御する温度などの一般的な入力パラメータの他に、Jurassic-2 Ultra はいくつかの高度な入力を提供します。
「例えば、以下の基準に基づいてトークンの使用にペナルティを課すオプションがあります。
- 与えられたプロンプト上での存在
- 使用頻度、そして
- 生成された回答におけるその数
「これを拡張して、空白、絵文字、数字なども考慮に入れることもできます。この多様な入力により、特定のプロンプトに対する応答を生成する際にモデルに何が影響するかをより深く理解できるようになりました。また、ほとんどの人にとって生成 AI がブラック ボックスであることを理解するのにも役立ちました。」
「応答を実装する段階になって、Jurassic-2 Ultra モデルは、これまで Amazon Bedrock で見てきた他のモデルよりも詳細な応答を返すことがわかりました。生成されたテキストと一部のメタデータの他に、生成されたすべてのトークンとその確率スコアも提供されます。また、選択したプロンプトに対する最適な代替案を取得することもできます。これは、モデルが出力を生成するときに実行する「AI 思考プロセス」と見なすことができると思います。
「全体として、ジュラシック2ウルトラモデルを実装するのは楽しい実践的な経験でした。 Mendix 特に、あらゆる種類のリクエストを構築し、それがサーバーに送信される応答にどのような影響を与えるかを確認してみてください。 Mendix アプリ!"
クラウディア2
アントロピックは ミッション 「変革的なAIが人々と社会の繁栄に役立つようにする」ことを目指しています。サンフランシスコを拠点とするこの企業は、人々が信頼できるシステムを構築するというビジョンを掲げ、2021年に元OpenAIメンバーによって設立されました。
Anthropic の製品 Claude 2 は、ブランドリスクを軽減するように設計されています (Constitutional AI が組み込まれています)。大量のコンテンツを処理でき、ユースケースごとにパーソナライズできます。詳細はこちらをご覧ください。 こちら.
Casper Spronk 氏による Anthropic Claude 2 の実装について
「Anthropic Claude 2 の実装は非常に簡単でした。AWS はすでに XNUMX つのモデルすべてに正しい構文を提供しているため (モデル化されたフィールドを除いて同じです)、同じリクエストとレスポンスの構造を使用してモデルを実装できます。
「リクエストにバージョン列挙を追加し、これを対応するモデル ID 文字列にマッピングすることで、1 つのマイクロフローを 3 つのモデルすべてに使用できます。その後、モデルを実装する開発者は、エンド ユーザーがモデルを選択できるようにするか、モデルを常に同じにするかを選択できます。
- リクエストの本文は、単純なエクスポート マッピングを使用してマッピングできます。
- 次に、エクスポート マッピングの出力を汎用リクエストの本文として設定します。
- Invoke Model Generic マイクロフロー アクションを呼び出した後、レスポンス ボディ属性に対してインポート マッピングが実行されます。
- InvokeModelResponseAthropicClaude エンティティの完了属性には、Claude 2 が生成した応答が含まれます。
「Claude 2 と完全な会話をしたい場合、開発者はすべての (以前の) 人間の入力の前に「Human:」タグを追加し、Claude 2 によって生成されたすべての以前の出力に「Assistant:」タグを追加する必要があります。
「モデルが特定のフレーズより後のものを返さないようにしたい場合は、リクエストに停止シーケンスを追加できます。モデルがその単語またはフレーズを生成する場合、モデルはその時点までに生成したすべてのものを返します。」

Casper Spronk が Lambda 経由で Amazon Bedrock を呼び出す
「Amazon Bedrock ハッカソンの目的の 1 つは、AWS Lambda 関数からも Amazon Bedrock を呼び出すことができるかどうかをテストすることでした。Amazon Bedrock はまだデフォルトで AWS Lambda から利用できなかったため、これにはいくつかの課題がありました。Amazon Bedrock、または一般的な AWS 機能を Python で呼び出すために必要なパッケージを把握する必要がありました。
「Python で AWS にアクセスするには、少なくとも boto3 と botocore の XNUMX つのパッケージが必要です。通常、パッケージを呼び出すときは、レイヤーをアップロードしてそれを Lambda 関数に追加する必要があります。しかし、私たちが遭遇した問題は次のとおりです。
- boto3およびbotocoreパッケージは、ラムダ関数のレイヤーとしてすでに利用可能であり、
- これらのデフォルトレイヤーは、追加するカスタムレイヤーの前に呼び出されます。
「何度もデバッグして苦労した後、AWS のデフォルトの boto パッケージではなく、最新バージョンの boto3 と botocore が呼び出されることを期待して、動作する Python 関数全体をそのすべての依存関係とともに Lambda 関数としてアップロードすることにしました。これは最終的に機能し、動作する Lambda 関数が得られました。」
要約(AI)
冒頭で述べたように、私たちは AI モデルにこの投稿の要約を作成するように依頼しました。
安定拡散XL v2.2.2

ジュラシック2 ウルトラ
Amazon Bedrock は、API を通じて最新の基盤モデルを提供する完全マネージド型サービスであり、開発者がアプリケーションでこれらのモデルをより迅速かつ容易に使用できるようにします。チームとして、Amazon Bedrock への早期アクセスを得られたことに興奮し、利用可能なすべてのモデルのリストを統合して取得する速度に感銘を受けました。
私たちは「私たち対Amazon Bedrock」というハッカソンデーを開催し、Stable Diffusion XL、Amazon Titan、Jurassic-2 Ultra、Anthropic Claude 2など、利用可能なさまざまなモデルを試しました。私たちは短期間で達成できた結果に感銘を受け、Amazon Bedrockは私たちにとって価値のあるツールだと信じています。 Mendix スマートで直感的なアプリケーションを作成したい開発者。
結論として、Amazon Bedrockは、 Mendix AI機能を備えたスマートで直感的なアプリケーションを作成したい開発者にとって、これは高速で使いやすいツールであり、 Mendix 生態系。
クラウディア2
ブログ投稿の要点を以下にまとめます。
- この投稿では、APIを通じて基盤モデルへのアクセスを提供する新しいサービスであるAmazon Bedrockを使用して、AIを搭載したアプリを迅速に構築する方法について説明します。 Mendix.
- チームはサービスをテストするために「Us against Amazon Bedrock」ハッカソンを開催しました。画像生成用の Stable Diffusion XL やテキスト生成用の Amazon Titan などのモデルを 1 時間以内に統合して結果を得ることができました。
- チームメンバーは、Stable Diffusion XL、Amazon Titan、Jurassic-2 Ultra、Anthropic Claude 2などのさまざまな基盤モデルを実装した経験を共有します。 Mendix 概念実証を作成します。
- 彼らは、このサービスが分かりやすいドキュメントで使いやすいと感じました。JSONベースのAPIは、 Mendix エクスポート マッピングを使用します。
- 1 つの課題は、AWS Lambda から Amazon Bedrock を呼び出すことでしたが、すべての依存関係を Lambda 関数にバンドルすることで、これを機能させることに成功しました。
- 全体的に、Amazon Bedrockは、 Mendix 開発者は、強力な基盤モデルを活用して、スマートな AI 搭載アプリを迅速に構築できます。この記事では、その使い始め方を実際に見ていきます。
アマゾンタイタンラージ v1.01
概要
Amazon BedrockはAWSのフルマネージドサービスで、Amazonや大手AIスタートアップの基盤モデルをAPI経由で利用できるようにします。基盤モデルを使ったサーバーレス体験をすぐに開始できます。 Mendix は、AWS の最も直感的な AI サービスを統合して、スマートなエンタープライズ アプリケーション開発を公園を散歩するかのように簡単に行えるようにしました。チームはこのサービスについて学ぶためにハッカソンを開催し、わずか 15 分で Amazon Bedrock で利用可能なすべてのモデルを統合してリストを取得することに成功しました。わずか XNUMX 時間足らずで、Amazon Titan を試し、Stability AI の Stable Diffusion XL を使用してイメージを生成しました。チーム メンバーは、テスト アプリケーション内で基礎モデルを実装した際の個人的な体験を、苦労した点や興奮した点なども含めて共有しました。
著者
アガピ・カラフォリドゥ、キャスパー・スプロンク、ダーン・ヴァン・オッテルロー、ニコラス・クンツ・ベガ