跳到主要内容

介绍 Mendix 用于低代码 ML 部署的 ML Kit

介绍 Mendix 用于低代码 ML 部署的 ML Kit

Mendix 机器学习套件

低代码应用平台 (LCAP) 是一个新兴市场,预计增长率约为 未来几年30%几乎与过去十年 LCAP 市场兴起的同时,随着计算能力的不断提升和大数据的普及,人工智能 (AI) 的新春天也已到来。

虽然 LCAP 正在彻底改变应用程序的构建方式,但人工智能和机器学习 (ML) 正在彻底改变可以构建什么类型的应用程序。随着 LCAP 的成熟和企业采用它们来构建复杂的关键任务应用程序,这两种趋势正在融合在一起。因此,下一代 LCAP 应该支持构建所谓的“人工智能增强型业务应用程序”。

人工智能增强型商业应用程序(也称为智能应用程序)是使用人工智能/机器学习模型(通常在其逻辑中)提供自动化、更智能和情境化的用户体验的应用程序。

2020年, Gartner预测 “到 60 年,2022% 的组织将利用套装人工智能实现多个功能领域流程的自动化。”这已经发生了。 麦肯锡调查 2021 年,对 1,843 名代表各个地区和行业的参与者进行的一项调查显示,“56% 的受访公司至少在一项业务职能中采用了人工智能(高于 50 年的 2020%)。”

智能应用程序用例

人工智能增强型商业应用程序利用数据中的模式进行预测,而不是对其进行明确编程。这通常会导致手动工作的自动化或任务或业务流程的更智能方法。因此,它可以提高工作效率,降低成本和风险,并提高客户满意度。以下是一些人工智能和机器学习用例的示例。

情绪分析与分类

  • 了解客户反馈的情绪(积极与消极)
  • 将客户反馈或请求分类到特定的支持或业务类别中

物体检测

  • 检测工厂生产线中的缺陷产品
  • 检测工厂生产线中产品的缺陷类型
  • 对医学图像进行分类
  • 工厂中的物体计数

异常检测

  • 检测可疑的银行交易
  • 业务指标之间的异常关系(例如,产品销售额增加,但由于价格标签错误导致收入下降)
  • 库存异常检测

图书馆推荐

  • 根据客户需求向保险代理人推荐最佳报价
  • 根据之前购买的产品向网上购物者推荐替代产品或服务

预测

  • 根据历史和季节性趋势预测现金流
  • 根据销售趋势预测所需库存
  • 使用内部和外部因素对连锁酒店的需求预测
  • 基于需求预测的动态定价

机器学习部署的挑战

近年来,人工智能/机器学习领域和工具取得了广泛的进步,但在生产中部署人工智能并将人工智能集成到应用程序中是一个关键挑战。

基于 Gartner的研究“各组织报告称,他们在追求人工智能时面临的最大障碍之一是与现有应用程序的集成。” Gartner 引用 一年后,同样的挑战:“超过一半的成功人工智能试点从未进入部署阶段。”

到目前为止, Mendix 客户已经能够将人工智能服务与 Mendix 使用 REST API 的应用程序。这是一种可行的方法(尤其是对于第三方 AI 服务而言),但是本地构建或开源 ML 模型需要访问托管服务并具备部署模型的技术知识,需要付出额外的努力,并产生额外的托管成本和维护。

但客户通常需要将他们的 ML 模型嵌入到他们的 Mendix 应用程序出于各种原因(例如性能、隐私和成本)而无法正常运行。 Mendix ML Kit 为客户提供了在 Mendix 以简单且低代码的方式访问应用程序。

低代码部署 Mendix ML套件

- Mendix ML Toolkit 允许开发人员将使用通用 ML 框架和语言构建的 ML 模型部署到 Mendix Studio Pro以低代码方式运行。

ML Kit 基于开放神经网络交换 (昂尼克斯),微软和 Facebook 共同开发的开源框架 在2017 实现框架互操作性。ONNX 使我们能够弥合 AI 框架(例如 Python)和 Mendix (例如 JVM)。这意味着您可以在自己喜欢的 ML 框架(例如 TensorFlow)中训练 ML 模型,然后将其转换为 ONNX 格式并在其他框架中使用它,例如 MendixONNX 弥补了 AI 框架(例如 Python)和 Mendix (例如,JVM)。

的好处 Mendix ML套件

- Mendix ML Kit 具有多种优势:

  • 更快的上市时间 将机器学习部署时间从几周缩短至几天/几小时。
  • 更易于集成 通过连接人工智能平台和 LCAP 两个世界,并让团队能够将使用第三方人工智能平台构建的机器学习模型集成到使用 Mendix.
  • 卓越性能通过将模型集成到应用程序运行时并在 JVM 上运行,可以降低延迟(网络和模型推理延迟)。
  • 减少工作量和成本 无需获取、部署或维护用于模型部署的其他托管服务(与微服务集成相比)。
  • 边缘部署(未来) 由于运行时集成,提供了在边缘(设备上的 ML)运行的可能性。值得注意的是,60% 的图像处理模型现在部署在边缘。

开箱即用的预训练 ML 模型

ONNX 社区提供了一个 ML 模型存储库,称为 ONNX 模型动物园, 可以在这里找到常见的计算机视觉和语言模型。ONNX Model Zoo 是社区成员贡献的 ONNX 格式的预训练、最先进模型的集合。

每个模型都附带 Jupyter 笔记本,用于模型训练和使用训练后的模型进行推理。笔记本是用 Python 编写的,包含训练数据集的链接,以及描述模型架构的原始论文的参考资料。

ONNX Zoo 中的所有 ONNX 模型都应与 ML Kit 兼容。客户可以从此存储库中选择任何 ML 模型,使用自己的数据根据​​用例对其进行自定义,并将其集成到他们的 Mendix 使用 ML Kit 的应用程序。

您可以在下方找到 ONNX 模型库中的 ONNX 模型列表。您可以使用这些预先训练的模型来构建与上面列出的业务用例类似的业务用例,或者构建适合您的业务的其他类型的用例。

愿景

语言

其他

高级部署模式 Mendix ML套件

- Mendix ML Kit 与 Mendix 平台支持各种最先进的 ML 实现模式。

有时,会使用多个 ML 模型来预测输出,其中相同的数据点被发送到一组模型,然后收集所有预测以找到最佳预测(集成学习)。或者,也可以以级联方式使用多个模型,将一个模型的输出馈送到另一个模型(级联推理)。这些部署模式可以通过以下方式轻松实现: Mendix 微流和 Mendix ML 套件。

此外,仅使用 Mendix 平台和 ML Kit,无需额外的第三方托管服务。最后但同样重要的是,批量推理支持使用单个模型请求运行多个推理 Mendix 和 Mendix ML 套件。

您可以了解如何使用 ML Kit 实现所有这些部署模式,以及 Mendix Studio Pro 位于以下页面:

总结

借助 ML Kit,我们的目标是让客户能够在其应用中使用 AI,以进一步改善业务流程、自动化手动任务并实现客户满意度。如果您尚未使用 Mendix ML Kit,请尝试一下。让我们知道您的想法——您的反馈通常是我们下一次迭代的基础

要了解更多关于 Mendix ML Kit 及其使用方法, 访问 Mendix 文档。或者,使用 Mendix ML KIT 及其在 Jupyter 笔记本中的 ML 模型 点击这里.

选择你的语言