Présentation de la série d'enceintes de luxe Mendix Kit ML pour le déploiement ML Low-Code | Mendix

Passer au contenu principal

Présentation de la série d'enceintes de luxe Mendix Kit ML pour le déploiement ML Low-Code

Mendix Kit d'apprentissage automatique

Les plateformes d'applications low-code (LCAP) sont un marché émergent, avec une croissance attendue d'environ 30% dans les prochaines annéesPresque au même moment que l’essor du marché LCAP au cours de la dernière décennie, un nouveau printemps de l’intelligence artificielle (IA) a commencé, alimenté par l’augmentation continue de la puissance de calcul combinée à la disponibilité du big data.

Alors que les LCAP révolutionnent la manière dont les applications sont créées, l’IA et le Machine Learning (ML) révolutionnent le type d’applications pouvant être créées. Ces deux tendances se rejoignent à mesure que les LCAP arrivent à maturité et sont adoptées par les entreprises pour créer des applications critiques complexes. Par conséquent, la prochaine génération de LCAP devrait prendre en charge la création de ce que l’on appelle les « applications métier améliorées par l’IA ».

Les applications commerciales améliorées par l'IA, également appelées applications intelligentes, sont des applications qui utilisent un modèle d'IA/ML (souvent dans sa logique) pour fournir une expérience utilisateur automatisée, plus intelligente et contextualisée.

En 2020, Gartner prédit que « 60 % des organisations utiliseront l’intelligence artificielle pour automatiser les processus dans plusieurs domaines fonctionnels d’ici 2022. » C’est déjà le cas. Enquête McKinsey En 2021, une étude menée auprès de 1,843 56 participants représentant l’ensemble des régions et des secteurs d’activité a montré que « 50 % des entreprises interrogées ont adopté l’IA dans au moins une fonction commerciale (contre 2020 % en XNUMX) ».

Cas d'utilisation d'applications intelligentes

Les applications professionnelles optimisées par l'IA utilisent des modèles dans les données pour faire des prédictions au lieu de les programmer explicitement. Cela se traduit souvent par l'automatisation du travail manuel ou par une approche plus intelligente d'une tâche ou d'un processus métier. Par conséquent, cela augmente l'efficacité du lieu de travail, réduit les coûts et les risques et améliore la satisfaction des clients. Vous trouverez ci-dessous quelques exemples de cas d'utilisation de l'IA et du ML.

Analyse et classification des sentiments

  • Comprendre le sentiment des commentaires des clients (positifs ou négatifs)
  • Catégorisez les commentaires ou les demandes des clients dans des catégories d'assistance ou d'activité spécifiques

Détection d'objets

  • Détecter les produits défectueux dans une ligne de production d'usine
  • Détecter le type de défaut dans les produits d'une ligne de production d'usine
  • Classer les images pour les images médicales
  • Comptage d'objets dans une usine

Détection d’Anomalies

  • Détecter les transactions bancaires suspectes
  • Relation anormale entre les indicateurs commerciaux (par exemple, une augmentation des ventes de produits mais une baisse des revenus en raison d'une étiquette de prix erronée)
  • Détection d'anomalies dans l'inventaire

Recommandations

  • Recommander la meilleure offre aux agents d'assurance en fonction des besoins des clients
  • Recommander des produits ou services alternatifs aux acheteurs en ligne en fonction des produits achetés précédemment

Prévisions économiques

  • Prévoir les flux de trésorerie en fonction des tendances historiques et saisonnières
  • Prévoir l'inventaire requis en fonction des tendances des ventes
  • Prévision de la demande pour une chaîne hôtelière utilisant des facteurs internes et externes
  • Tarification dynamique basée sur les prévisions de la demande

Les défis du déploiement du ML

Le paysage et les outils de l’IA/ML ont considérablement progressé ces dernières années, mais le déploiement de l’IA en production et l’intégration de l’IA dans les applications constituent un défi majeur.

Basé sur Les recherches de Gartner« Les organisations signalent que l’un des obstacles les plus importants auxquels elles sont confrontées dans la mise en œuvre de l’IA est l’intégration aux applications existantes. » Gartner cite le même défi un an plus tard : « Plus de la moitié des projets pilotes d’IA réussis n’atteignent jamais la phase de déploiement. »

Jusqu'à présent, Mendix les clients ont pu intégrer des services d’IA avec Mendix applications utilisant des API REST. Il s'agit d'une approche viable (en particulier pour les services d'IA tiers), mais les modèles ML créés localement ou Open Source nécessitent l'accès à un service d'hébergement et des connaissances techniques pour déployer le modèle, des efforts supplémentaires et des coûts d'hébergement et de maintenance supplémentaires.

Mais souvent, les clients ont besoin d’intégrer leurs modèles ML dans leurs Mendix application pour diverses raisons, telles que les performances, la confidentialité et le coût. Mendix Le kit ML offre aux clients les outils nécessaires pour déployer ces modèles d'IA dans un Mendix application de manière simple et low-code.

Déploiement low-code avec le Mendix Kit ML

Le manuel de formation Mendix ML Toolkit permet aux développeurs de déployer un modèle ML, construit à l'aide d'un framework et d'un langage ML communs, dans le Mendix Exécution de Studio Pro de manière low-code.

Le kit ML est basé sur l'Open Neural Network Exchange (ONNX), un framework open source co-développé par Microsoft et Facebook en 2017. pour permettre l'interopérabilité des frameworks. L'ONNX nous permet de combler le fossé entre les frameworks d'IA (par exemple, Python) et Mendix (par exemple, JVM). Cela signifie que vous pouvez entraîner un modèle ML dans votre framework ML préféré, tel que TensorFlow, puis le convertir au format ONNX et le consommer dans un autre framework comme Mendix. L'ONNX comble le fossé entre les cadres d'IA (par exemple, Python) et Mendix (par exemple, JVM).

Les avantages du Mendix Kit ML

Le manuel de formation Mendix Le kit ML offre divers avantages :

  • Mise sur le marché plus rapide en réduisant le temps de déploiement du ML de quelques semaines à quelques jours/heures.
  • Intégration plus facile en reliant les deux mondes (plateformes d'IA et LCAP) et en permettant aux équipes d'intégrer des modèles ML créés à l'aide de plateformes d'IA tierces dans des applications créées avec Mendix.
  • Performances supérieures, grâce à une latence plus faible (latence d'inférence du réseau et du modèle) en intégrant le modèle dans l'environnement d'exécution de l'application et en s'exécutant sur JVM.
  • Moins d'efforts et de coûts sans avoir besoin d'acquérir, de déployer ou de maintenir d'autres services d'hébergement pour le déploiement du modèle (par rapport à l'intégration de microservices).
  • Déploiement en périphérie (futur) offre la possibilité d'exécuter des opérations en périphérie (ML sur l'appareil) grâce à l'intégration du runtime. Il convient de noter que 60 % des modèles de traitement d'images sont désormais déployés en périphérie.

Modèles ML pré-entraînés prêts à l'emploi

La communauté ONNX fournit un référentiel de modèles ML, appelé Zoo modèle ONNX, où l'on peut trouver des modèles courants de vision par ordinateur et de langage. Le zoo de modèles ONNX est une collection de modèles pré-entraînés et de pointe au format ONNX fournis par les membres de la communauté.

Chaque modèle est accompagné de blocs-notes Jupyter pour l'entraînement du modèle et l'exécution de l'inférence avec le modèle entraîné. Les blocs-notes sont écrits en Python et incluent des liens vers l'ensemble de données d'entraînement, ainsi que des références au document d'origine qui décrit l'architecture du modèle.

Tous les modèles ONNX du zoo ONNX doivent être compatibles avec le kit ML. Les clients peuvent choisir n'importe quel modèle ML dans ce référentiel, le personnaliser avec leurs propres données pour leur cas d'utilisation et l'intégrer dans leur Mendix application utilisant le kit ML.

Vous trouverez ci-dessous la liste des modèles ONNX du zoo de modèles ONNX. Vous pouvez utiliser ces modèles pré-entraînés pour créer des cas d'utilisation métier similaires à ceux répertoriés ci-dessus, ou d'autres types de cas d'utilisation pour votre entreprise.

Visionnaires

Langue

Autres

Modèles de déploiement avancés avec le Mendix Kit ML

Le manuel de formation Mendix Kit ML combiné avec le Mendix La plateforme permet différents modèles d'implémentation ML de pointe.

Parfois, plusieurs modèles ML sont utilisés pour prédire une sortie, où les mêmes points de données sont envoyés à un groupe de modèles, puis toutes les prédictions sont collectées pour trouver la meilleure prédiction (apprentissage d'ensemble). Ou, plusieurs modèles peuvent également être utilisés de manière en cascade pour alimenter la sortie d'un modèle dans un autre (inférence en cascade). Ces modèles de déploiement peuvent être facilement réalisés en utilisant Mendix Les microflux et les Mendix Trousse ML.

De plus, l'intégration d'un modèle ML en tant que service est également possible uniquement en utilisant le Mendix Plateforme et kit ML sans avoir besoin de services d'hébergement tiers supplémentaires. Enfin et surtout, l'inférence par lots où plusieurs inférences sont exécutées avec une seule demande pour le modèle est prise en charge avec Mendix et la Mendix Trousse ML.

Vous pouvez lire comment implémenter tous ces modèles de déploiement à l’aide du kit ML et Mendix Studio Pro sur les pages suivantes :

Résumé

Avec le kit ML, nous souhaitons permettre aux clients d'utiliser l'IA dans leurs applications pour améliorer encore les processus métier, automatiser les tâches manuelles et assurer la satisfaction des clients. Si vous n'avez pas utilisé le Mendix Kit ML, essayez-le. Et faites-nous savoir ce que vous en pensez : vos commentaires sont souvent la base de notre prochaine itération

Pour en savoir plus sur la Mendix Kit ML et comment l'utiliser, visitez Mendix Docs. Ou trouvez des exemples de déploiement ML en utilisant le Mendix ML KIT accompagné de leurs modèles ML dans le notebook Jupyter here..

Choisissez votre langue