Mendix 更迅速
Mendix 动态介绍了企业应用程序的 AI 增强应用开发。我们的平台允许提供智能、直观和个性化的应用程序, 人工智能能力.
在我们寻找最佳 Mendix 应用程序开发人员,我们已成功整合 AWS 最直观的 AI 服务,帮助智能企业应用程序开发变得轻而易举。
您可以通过以下方式关注我们的旅程:
- - Mendix 社区 YouTube 渠道
- - 开发者博客
- 您可以查看当前可用的 Mendix AWS 连接器
- 但如果你想学习如何构建自己的连接器,你应该遵循这个 学院学习路径.
作为一个团队,我们的目标是为开发人员提供在开发实践中非常有用的工具。我们还花时间研究和突出动态且易于使用的智能功能。
最近,我们探索了 AWS 新发布的一项服务 – Amazon Bedrock – 我们由此创建了一个 Mendix Amazon Bedrock 连接器 和 示例实现.

什么是亚马逊基岩?
Amazon Bedrock 是一项完全托管的服务,可通过 API 提供来自亚马逊以及领先的 AI 初创公司的基础模型 (FM)。
通过它,您可以从各种 FM 中进行选择,找到最适合您用例的模型。它承诺使用基础模型快速开始无服务器体验。
什么是 Foundation 模型?
第一个定义 基础模型 是斯坦福大学提出的。它将它们(例如 BERT、GPT-3、Claude、Amazon Titan)描述为在广泛数据上进行大规模训练的模型,可以适应广泛的下游任务。
由于我们能够提前访问 Amazon Bedrock,因此我们发现以下基础模型的最新版本可用:
文本
- 亚马逊 Titan Large v.1.01
- AI21 实验室侏罗纪 2 超级版
- 人类克劳德 2
图片
- 稳定性 AI 稳定扩散 XL v2.2.2
为了让我们的团队在了解这项服务的同时更加兴奋,我们决定举办一次黑客马拉松日:“我们对抗亚马逊 Bedrock”。
我们在试用应用中取得的进展之快令人惊叹。在 15 分钟内,我们成功集成并检索了 Amazon Bedrock 中所有可用模型的列表。
更令人印象深刻的是,仅仅不到一个小时的时间,我们就已经开始试验 Amazon Titan,并使用 Stability AI 的 Stable Diffusion XL 生成图像。
在这篇文章的后面,我们将分享在测试应用程序中实现基础模型的各个团队成员的个人经历——包括挣扎和激动人心的时刻。
稳定扩散 XL
在生成式 AI 领域,Stability AI 是一家值得关注的公司。这家开源公司于 2021 年启动了其 AI 计划,目前他们的社区拥有超过 200,000 名创作者、开发者和研究人员。
Stability AI 使用强大的 Ezra-1 UltraCluster 超级计算机来创建 Stable Diffusion XL 模型,为用户提供独特的体验。
Stable Diffusion XL 2.0 于 2022 年 XNUMX 月发布,但 Stable Diffusion XL 仍然仅作为 测试版本。Stable Diffusion XL 是一款文本转图像 AI。这意味着您可以使用较短的提示创建描述性图像并在图像中生成文字。为了说明这一点,本博客中的所有图片都是使用 Stable Diffusion XL 创建的。
Agapi Karafoulidou 谈实施 Stable Diffusion XL
“在‘我们对抗亚马逊 Bedrock’黑客马拉松期间,我匆忙投入了 Stable Diffusion XL 实施。我最初的想法有点悲观,但这并没有阻止我。
“在 Amazon Bedrock 测试页面上,我能够找到 JSON 格式的 API 请求。找到之后,我可以轻松地在 Mendix 应用程序,然后创建一个导出映射。
“之后,添加了一个带有 POST API 调用的微流,当然,我必须添加必要的标头。幸运的是,它们在 API 请求中可见。我运行了该应用程序,添加了提示‘给我一张完美的照片’并点击了。”
结果是:

Amazon Titan
Amazon Titan 是一个生成式大型语言模型,用于文本生成任务,例如创建博客文章。如果您在阅读最后一句话后感到疑惑,那么本博客的摘要部分是在 AI 的帮助下创建的,但其余部分则不是。🙂
当然,Amazon Titan 经过许多数据集的训练,因此属于通用模型类别。详细了解 Amazon Titan.

Daan Van Otterloo 谈 Amazon Titan 的实施
“作为一个新的 Mendix 作为 AWS 团队成员,我很高兴能够开始使用 Amazon Bedrock 连接器开展工作。生成式人工智能在过去几年中取得了一些惊人的飞跃,自 ChatGPT 发布以来已成为热门话题。这使得 Mendix 开发人员可以轻松地将这些模型集成到他们的应用程序中。它将以多种方式为许多应用程序增加价值。
“就我个人而言,我很高兴能够开发 Amazon Bedrock 连接器示例实现的一部分。因此,我有机会尝试大多数模型,尤其是 Amazon Titan Text Large 模型。
“这是一个通用的生成式 LLM(大型语言模型),可以帮助用户解决以下问题:
- 文字产生
- 代码生成
- 以及集思广益等用例
“我最喜欢使用 Amazon Titan 等模型的方式是为了获得灵感,例如向模型询问食谱、礼物创意,或者只是向它询问电影或音乐推荐。
“我们决定使用 REST API 调用连接到 Amazon Bedrock 服务。以下是我的做法:
- 首先,我登录了我的 AWS 账户并导航到 Amazon Bedrock 游乐场。
- 我选择了 Amazon Titan Text Large 模型并开始尝试。 (在此页面上,您还可以找到一个请求 JSON 示例,可以复制并用于 Mendix 用于创建将用于调用 Amazon Titan 的 REST 调用的导出映射。)
- In Mendix,我使用调试器检查并复制响应,以便我可以创建用于导入响应的数据模型和微流逻辑。
“为了利用这个模型,我只需要做这些,现在就由我们的创意 Mendix 社区利用这些模型创造价值!”
侏罗纪 2 超级版
AI21 Labs 是一家以色列公司,成立于 2018 年,其使命是构建能够理解和创建自然语言的人工智能系统。其产品包括基础模型 Jurassic-2 Ultra。
根据 AI21 Labs 的文档使用 Jurassic-2 模型,您可以:
“……使用我们的 Python SDK 或向与要使用的语言模型相对应的完整端点发布 HTTP 请求,为给定的文本提示生成文本补全。请求包含输入文本(称为提示)和控制生成的各种参数。对于身份验证,您必须在请求标头中包含您的 API 密钥。完整的响应包含标记化的提示、生成的文本(称为补全)和各种元数据。”

Nicolas Kunz Vega 谈 Jurassic-2 Ultra 的实施
“与其名称所暗示的不同,Jurassic-2 Ultra 基础模型与史前时代无关,而是尖端的法学硕士。在使用 Jurassic-2 Ultra 模型时,真正让我感到惊讶的是,可以通过多种方式调整请求以操纵模型返回的响应。
“除了在 Amazon Bedrock 上可用的各种模型中发现的更常见的输入参数(例如返回的最大令牌数或控制模型对响应的创造性(或重复性)的温度)之外,Jurassic-2 Ultra 还提供了一些高级输入。
“例如,可以选择根据以下情况对代币的使用进行惩罚:
- 他们在给定提示中的存在
- 使用频率,以及
- 他们在生成的响应中的数量
“这还可以扩展到考虑空格、表情符号、数字等。这些输入帮助我更好地理解了在生成给定提示的响应时影响模型的因素。它还有助于揭开生成式人工智能对我们大多数人来说都是黑匣子的神秘面纱。
“在实施响应时,我发现 Jurassic-2 Ultra 模型返回的响应比我迄今为止在 Amazon Bedrock 上看到的其他模型更详细。除了生成的文本和一些元数据外,它还将为您提供每个生成的标记及其概率分数。还可以获得所选提示的最佳替代方案,我猜这可以看作是模型在生成输出时经历的“AI 思维过程”。
“总而言之,在 Mendix 尤其是尝试构建各种请求,并观察它们对发送给 Mendix 应用程序!”
克劳迪娅 2
Anthropic 是一家 使命 “确保变革性的人工智能将帮助人类和社会繁荣发展。”这家总部位于旧金山的公司由前 OpenAI 成员于 2021 年创立,其愿景是构建人们可以信赖的系统。
Anthropic 的产品 Claude 2 旨在降低品牌风险(内置了 Constitutional AI)。它可以处理大量内容,并且可以根据用例进行个性化设置。了解更多信息 点击这里.
Casper Spronk 谈 Anthropic Claude 2 的实施
“实施 Anthropic Claude 2 非常轻松。由于 AWS 已经为所有三个模型提供了正确的语法(除建模字段外,其余均相同),因此可以使用相同的请求和响应结构实施这些模型。
“通过在请求中添加版本枚举,然后将其映射到相应的模型 ID 字符串,单个微流可用于所有三个模型。然后由实施模型的开发人员选择是否允许最终用户选择模型,或者模型是否始终保持不变。
- 可以使用简单的导出映射来映射请求的主体。
- 然后,将导出映射的输出设置为通用请求的主体。
- 调用 Invoke Model Generic 微流操作后,对响应主体属性执行导入映射。
- InvokeModelResponseAthropicClaude 实体上的完成属性将包含 Claude 2 生成的响应。
“如果想与 Claude 2 进行完整对话,开发人员应该在所有(之前的)人工输入前添加“Human:”标签,并在 Claude 2 生成的所有先前输出前添加“Assistant:”标签。
“如果你想确保模型不会返回某个短语之后的任何内容,你可以在请求中添加一个停止序列。如果模型会生成该单词或短语,那么模型将返回到该点为止它所生成的所有内容。”

Casper Spronk 通过 lambda 调用 Amazon Bedrock
“在 Amazon Bedrock 黑客马拉松期间,我们的目标之一是测试我们是否也可以通过 AWS Lambda 函数调用 Amazon Bedrock。这带来了一些挑战,因为默认情况下 Amazon Bedrock 尚未通过 AWS Lambda 提供。我们必须弄清楚使用 Python 调用 Amazon Bedrock 或一般 AWS 功能需要哪些软件包。
“要使用 Python 访问 AWS,您至少需要两个包,boto3 和 botocore。通常,在调用包时,您必须上传一个层并将其添加到 lambda 函数中。然而,我们遇到的问题是:
- boto3 和 botocore 包已经可以作为 lambda 函数中的层使用,并且
- 这些默认层将在我们添加的自定义层之前被调用
“经过多次调试和挫折后,我们决定将整个可运行的 Python 函数及其所有依赖项作为 lambda 函数上传,希望这样可以调用最新版本的 boto3 和 botocore,而不是 AWS 默认的 boto 包。最终成功了,并为我们提供了一个可运行的 lambda 函数!”
摘要(AI)
正如开头提到的,我们要求 AI 模型对这篇文章进行总结:
稳定扩散 XL v2.2.2
侏罗纪 2 超级版
Amazon Bedrock 是一项完全托管的服务,它通过 API 提供最新的基础模型,让开发人员能够更快、更轻松地在其应用程序中使用这些模型。作为一个团队,我们很高兴能够提前使用 Amazon Bedrock,并且对我们能够如此快速地集成和检索所有可用模型的列表印象深刻。
我们举办了一场名为“我们对抗 Amazon Bedrock”的黑客马拉松日,我们尝试了不同的可用模型,包括 Stable Diffusion XL、Amazon Titan、Jurassic-2 Ultra 和 Anthropic Claude 2。我们对在短时间内取得的成果印象深刻,并相信 Amazon Bedrock 是 Mendix 希望创建智能、直观的应用程序的开发人员。
综上所述,Amazon Bedrock 是一款功能强大的工具, Mendix 开发人员希望创建具有 AI 功能的智能、直观的应用程序。我们发现它快速且易于使用,并且相信它是对 Mendix 生态系统。
克劳迪娅 2
以下是博客文章要点的摘要:
- 该博文讨论了如何使用 Amazon Bedrock(一项通过 API 提供基础模型访问权限的新服务)快速构建 AI 驱动的应用程序 Mendix.
- 该团队举办了一场“我们对抗 Amazon Bedrock”黑客马拉松来测试这项服务。他们能够在一小时内集成并得到结果,例如用于图像生成的 Stable Diffusion XL 模型和用于文本生成的 Amazon Titan 模型。
- 团队成员分享了他们在实施不同基础模型(如 Stable Diffusion XL、Amazon Titan、Jurassic-2 Ultra 和 Anthropic Claude 2)方面的经验 Mendix 并创建概念证明。
- 他们发现该服务易于使用,文档清晰。基于 JSON 的 API 可以轻松集成到 Mendix 使用导出映射。
- 一个挑战是从 AWS Lambda 调用 Amazon Bedrock,但他们设法通过将所有依赖项捆绑到 Lambda 函数中来使其正常工作。
- 总体而言,Amazon Bedrock 似乎是一项很有前途的服务,可以帮助 Mendix 开发人员可以利用强大的基础模型快速构建智能 AI 应用。本文将提供实际操作指导,教您如何开始使用它。
亚马逊泰坦大型 v1.01
概要:
Amazon Bedrock 是 AWS 提供的一项完全托管服务,可通过 API 提供来自亚马逊和领先 AI 初创公司的基础模型。它承诺通过基础模型快速开始无服务器体验。 Mendix 汇集了 AWS 最直观的 AI 服务,帮助让智能企业应用程序开发变得轻而易举。该团队举办了一场黑客马拉松日来了解这项服务,仅用 15 分钟,他们就成功集成并检索了 Amazon Bedrock 中所有可用模型的列表。在不到一个小时的时间里,他们就开始尝试使用 Amazon Titan,并使用 Stability AI 的 Stable Diffusion XL 生成图像。团队成员分享了在测试应用程序中实现基础模型的个人经历,包括其中的挣扎和激动人心的时刻。
作者
阿加皮·卡拉福里杜、卡斯帕·斯普朗克、达安·范·奥特鲁、尼古拉斯·昆兹·维加