Comment configurer les modèles Azure OpenAI dans Mendix

Récemment, j'ai passé du temps travailler avec le Gen AI pour Mendix module. J'ai remarqué qu'il prend également en charge les modèles d'IA autres qu'OpenAI, in en fait, il peut prendre en charge Azure, Unsubstrat rocheux de Mazon et avec un peu d'ingéniosité – adapté pour s'adapter à n'importe quel grand modèle de langage. J'ai été impressionné par le module et sa simplicité d'utilisation. J'ai décidé à expérimenter et découvrez à quel point le processus peut être différent quand j'échange le LLM contre un autre – dans ce cas, j’ai choisi d’utiliser Azure.
Avant de commencer
Ppré-requis :
Si vous n'êtes pas familier avec l'IA Gen pour Mendix module, jetez un œil à mon article précédent sur ce que c'est et comment l'utiliser :
Je vais sauter la configuration de base du module Marketplace cette fois-ci, comme je l'ai déjà dit. Je ferais plutôt concentration
sur les différences, en commençant par l’ajout d’une connexion Azure et la configuration d’un modèle déployé.
Configuration d'un compte Azure
La configuration de votre compte Azure est simple et rapide; vous pouvez choisir entre un gratuit compte ou Payez à l'utilisation. Le compte gratuit commence avec un crédit de 200 $ à utiliser lorsque vous Créez votre compte. Vous pouvez en savoir plus sur le guide tarifaire d'Azure pour les services Open AI ici.
Créer et demployer un Azure Open AI rressource
Si vous n'avez pas créé votre ressource, vous devrez demander l'accès au propriétaire à afficher et accéder à certains détails (s(comme la clé API) sinon vous ne pourrez peut-être pas l'afficher par défaut.

Configuration d'un demployé modèle
Après avoir déployé votre ressource sur le Portail Azure, il»c'est une simple question d'ajout et de configuration du dmodèle employé dans Mendix. Run votre application et accédez à l' admin page « Configuration_Aperçu » ou vers une page qui comprend l'extrait « Snippet_Configurations » pour configurer les modèles déployés.
Choisissez d'ajouter une nouvelle configuration. Dans la fenêtre contextuelle qui apparaît,, entrez un "Dinom d'affichage » (peut être n'importe quelle chaîne/uniquement pour l'affichage), définissez votre « type d'API » sur « Azure OpenAI » et sous « Point de terminaison », saisissez l'URL de votre ressource sur Azure. Enfin, vous pouvez saisir votre clé API qui se trouve sur le tableau de bord de votre ressource sur Azur (isi vous n'avez pas défini (pour accéder à la ressource, vous devrez peut-être demander l'accès pour la consulter à la personne qui l'a fait).

Après avoir cliqué sur Enregistrer, la fenêtrew sera fermé et remplacé par un nouveau pour « Gérer les modèles déployés » pour la configuration. Contrairement à la configuration OpenAI, les modèles déployés ne sont pas générés automatiquement. doit ajouter-en un manuellement.
Pour ce faire, cliquez simplement sur « Ajouter un modèle déployé »et saisissez les informations demandées dans le formulaire. Le « Nom d'affichage » est à titre indicatif uniquement et peut être défini comme vous le souhaitez. Plus important encore, le « Nom du déploiement » doit correspondre exactement à celui affiché dans Azure AI Studio ; il se trouve sous « Déploiements » dans la section main gauche panneau latéral, et c'est la valeur dans la première colonne du tableau. Vous devez également définir votre «O« modalité de sortie », qui dépendra du résultat attendu. Différents modèles prennent en charge différentes output modalités, et vous devez vérifier quel est votre modèle supports (Texte, Incorporations, Image, Fichier, Audio, Vidéo et Autres)). Si vous sélectionnez du texte comme sortie, vous devrez également définir des valeurs pour "Prend en charge l'invite système, les conversations avec historique et l'appel de fonction..
Enfin, vous devez ajouter une valeur pour la « Version de l'API Azure » et celle-ci doit également correspondre à ce qui est configuré dans Azure Studio. Azure's Les versions sont basées sur des dates au format « AAAA-MM-JJ ». Vous pouvez les trouver dans le troisième colonne sur la page Déploiements de modèles, et c'est aussi sur la page lorsque vous ouvrez les détails d'un modèle, près du bas.

Ensuite, cliquez sur enregistrer et fermer le déployé des modèles .

Tester le new modèle
Comme avant, nous pouvons tester la configuration. Passez la souris dessus sur le trois points menu pour faire apparaître les options de configuration.
Choisissez votre modèle déployé dans la liste déroulante-down menu et cliquez sur le bouton « Tester ». En cas d'anomalie, un message rouge s'affichera. Consultez les journaux de votre application pour plus d'informations de dépannage. L'erreur se trouve dans le nœud « Ouvrir le connecteur AI » de la console de Studio Pro.
ACTIVITES dles différences
La plus grande différence entre le service OpenAI d'Azure et la simple utilisation directe d'Open AI is qui Azure permet améliorée contrôle, au prix de quelques configurations supplémentaires. I je ne recommanderais pas cela pour quelqu'un C'est la première fois que je le fais, et je pense que c'est la meilleure option pour les applications d'entreprise. Les tarifs d'Azure peuvent également s'avérer plus avantageux. à long terme, tout en bénéficiant des avantages supplémentaires d’options de sécurité et de conformité améliorées.