Comment exploiter la puissance de ChatGPT avec votre Mendix Donées
ChatGPT, la technologie intelligente de pointe développée par OpenAI, a le potentiel d'améliorer Mendix des solutions dans divers secteurs, notamment le service client, l’éducation et les soins de santé.
ChatGPT peut comprendre les conversations humaines à l'aide de techniques d'apprentissage profond et fournir des réponses significatives. La vraie question est : comment les entreprises peuvent-elles alimenter leurs Mendix données à ChatGPT pour libérer sa puissance ?
L'intégration de ChatGPT dans Mendix est incroyablement simple. Capgemini, par exemple, créé un connecteur ce qui peut raccourcir le processus à moins de cinq minutes.
Comme le montre la vidéo ci-dessus, vous pouvez demander à ChatGPT quel est son produit le plus réussi et pourquoi il réussit. Cependant, ChatGPT ne connaît pas les produits, il ne peut donc pas fournir de réponses valables. La réponse réside dans l'alimentation de votre Mendix données à ChatGPT, ce qui dépend de la quantité de données que vous souhaitez fournir.
Adaptez ChatGPT à vos besoins
L'approche recommandée pour une solution de niveau entreprise utilisant de grands ensembles de données est la « formation de modèle », également connue sous le nom de «réglage fin.” Cependant, cette approche nécessite des ressources et un travail considérables, notamment des ressources GPU et une équipe de data scientists et d'ingénieurs. Le réglage fin peut prendre des semaines ou des mois, et le modèle obtenu doit être continuellement évalué et mis à jour.
Pour simplifier le processus de fourniture de contexte à ChatGPT, une approche plus simple consiste à compléter les invites et les questions avec des données contextuelles pertinentes. Bien que cette méthode soit plus facile à mettre en œuvre, elle présente des limites que nous explorerons plus tard.
Pour démontrer cette approche dans Mendix Pour le cas d'utilisation présenté dans la vidéo, un mappage d'exportation a été créé pour exporter les marques et les détails de leurs produits associés vers une chaîne JSON. La chaîne JSON résultante contenant les données des marques et des produits a été ajoutée à l'invite/aux questions en tant que contexte :

Étant donné que l'ensemble de données en question était relativement petit, la méthode ci-dessus a bien fonctionné. Toutefois, cette approche comporte plusieurs limitations temporaires, telles que :
- Des données contextuelles doivent être fournies pour chaque question.
- Les données contextuelles sont limitées en taille.
- Problèmes de confidentialité et de sécurité, car les API OpenAI ont des fonctionnalités limitées dans ces domaines.
Bien que cette technologie ait des limites temporaires, la API Microsoft Azure OpenAI, actuellement disponible en version préliminaire à accès limité, aidera à résoudre la plupart de ces problèmes.
Azure OpenAI fonctionne sur les mêmes modèles qu'OpenAI et dispose de limites plus flexibles, d'un réseau privé, d'une disponibilité régionale et d'un filtrage de contenu IA responsable. D'autres fournisseurs de services cloud travaillent également 24 heures sur 24 pour offrir des fonctionnalités d'IA similaires.
TL; DR
Intégration de ChatGPT dans Mendix peut changer la donne pour les entreprises, en offrant des capacités conversationnelles améliorées à leurs applications. Pour exploiter la puissance de ChatGPT, les entreprises doivent fournir des données pertinentes à l'entreprise. Modèle IA.
L'approche recommandée pour une solution de niveau entreprise utilisant de grands ensembles de données est la formation ou le réglage fin du modèle, ce qui nécessite des ressources et une main-d'œuvre importantes. Une approche plus simple consiste à compléter les invites et les questions avec des données contextuelles pertinentes. Cependant, cette approche présente des limites, telles que la nécessité de fournir des données contextuelles pour chaque question, la taille limitée des données contextuelles et les problèmes de confidentialité et de sécurité.
L’API Microsoft Azure OpenAI peut aider à atténuer la plupart de ces préoccupations grâce à des capacités API améliorées, un réseau privé, une disponibilité régionale et un filtrage responsable du contenu de l’IA.