Créez de meilleures applications client grâce au développement multi-expérience | Mendix

Passer au contenu principal

Créez de meilleures applications client grâce au développement multi-expérience

Les applications multi-expériences promettent des résultats phénoménaux. Grâce à la multi-expérience, vous pouvez aligner et connecter l'expérience utilisateur optimale pour chaque point de contact utilisateur grâce à des applications adaptées qui simplifient chaque interaction tout au long du parcours utilisateur. Assistez à cette session pour découvrir pourquoi Mendix est un leader dans le domaine des plateformes de développement multi-expériences. Simon Black, chef d'équipe évangéliste, et David Brault, responsable marketing produit, présentent des applications qui utilisent plusieurs modalités tout au long d'un parcours client, notamment :

  • Chatbots
  • la réalité augmentée
  • assistants vocaux
  • applications web progressives
  • mobile natif
  • Applications TV

Sujets de vidéos

  • Transcription

    [00: 00: 00.000]
    (musique entraînante)

    [00: 00: 15.280]
    Bonjour et bienvenue à cette session

    [00: 00: 16.441]
    sur la création d'applications multi-expériences.

    [00: 00: 19.690]
    Je m’appelle Simon Black, chef d’équipe des évangélistes.

    [00: 00: 23.099]
    Aujourd'hui, je diffuse depuis Elian, Cambridgeshire

    [00: 00: 26.280]
    au Royaume-Uni.

    [00: 00: 27.410]
    Et aujourd'hui, je suis rejoint par Dave Brault,

    [00: 00: 29.380]
    qui nous parlera

    [00: 00: 30.480]
    à propos de ce qu'est une plateforme de développement multi-expérience.

    [00: 00: 34.080]
    Salut Dave, et peux-tu te présenter ?

    [00: 00: 36.620]
    Merci, Simon.

    [00: 00: 37.453]
    Je m'appelle David Brault,

    [00: 00: 38.286]
    responsable marketing produit ici à Mendix.

    [00: 00: 40.340]
    Un peu sur moi.

    [00: 00: 41.620]
    J'ai déménagé à Austin, au Texas, il y a environ six ans

    [00: 00: 45.080]
    où je fais cette diffusion en direct

    [00: 00: 46.626]
    et je suis complètement assimilé maintenant

    [00: 00: 48.800]
    au point où je passe beaucoup trop de temps

    [00: 00: 51.190]
    à la recherche du meilleur barbecue du Texas.

    [00: 00: 53.790]
    Bref, revenons à la raison pour laquelle vous êtes ici,

    [00: 00: 55.320]
    créer de meilleures applications client

    [00: 00: 57.350]
    avec un développement multi-expérience.

    [00: 00: 59.050]
    Au cours de cette session, nous allons examiner

    [00: 01: 00.940]
    comment MXDP change le paysage du développement

    [00: 01: 03.910]
    et comment Mendix peut aider.

    [00: 01: 05.395]
    Ensuite, nous allons démontrer

    [00: 01: 06.498]
    plusieurs types d'expériences différentes

    [00: 01: 08.960]
    et laisse Simon retirer les couvertures

    [00: 01: 10.495]
    afin que nous puissions voir comment ils ont été construits.

    [00: 01: 13.120]
    Commençons par une citation.

    [00: 01: 14.757]
    « Un bon design est en réalité beaucoup plus difficile à remarquer

    [00: 01: 17.307]
    qu'une mauvaise conception,

    [00: 01: 18.547]
    en partie parce que les bons designs répondent si bien à nos besoins

    [00: 01: 21.867]
    que le design est invisible.

    [00: 01: 23.650]
    Et j'adore absolument cette citation

    [00: 01: 25.210]
    parce que c'est tellement pertinent avec le sujet en question.

    [00: 01: 28.990]
    L'objectif principal de MXDP ou

    [00: 01: 30.480]
    plateformes de développement multi-expériences

    [00: 01: 32.950]
    est de permettre aux entreprises de créer des applications

    [00: 01: 35.300]
    qui offrent des expériences utilisateur sophistiquées

    [00: 01: 37.550]
    sur de nombreux appareils et modalités

    [00: 01: 39.860]
    comme ceux que vous voyez sur l'écran en ce moment.

    [00: 01: 42.320]
    Maintenant, la promesse d’une expérience multiple est phénoménale.

    [00: 01: 45.540]
    Connectez l'expérience utilisateur optimale

    [00: 01: 47.740]
    à chaque point de contact client

    [00: 01: 49.510]
    avec des applications adaptées à leurs besoins

    [00: 01: 51.720]
    qui rendent chaque interaction utilisateur efficace et sans effort,

    [00: 01: 55.400]
    ou invisible, comme dirait Don.

    [00: 01: 58.120]
    Maintenant, l' Mendix La plateforme tient cette promesse

    [00: 02: 00.650]
    avec une solution véritablement intégrée

    [00: 02: 02.830]
    qui utilise un seul ensemble de compétences

    [00: 02: 04.600]
    pour créer des applications riches et engageantes

    [00: 02: 06.925]
    et des expériences pour chaque situation.

    [00: 02: 10.110]
    Plongeons-nous en profondeur

    [00: 02: 11.210]
    sur la manière dont la plateforme prend en charge

    [00: 02: 12.650]
    le développement rapide de solutions d’expériences multiples.

    [00: 02: 17.170]
    Au niveau de la couche de fondation, les services de la plateforme

    [00: 02: 19.590]
    et l'architecture cloud native de Mendix

    [00: 02: 21.860]
    fait tout le gros du travail.

    [00: 02: 23.600]
    Il gère la complexité des transactions

    [00: 02: 25.290]
    avec des applications faiblement couplées

    [00: 02: 27.330]
    et des services exécutés sur une architecture de base de services.

    [00: 02: 30.749]
    Il gère également tous les services de base

    [00: 02: 32.370]
    comme la journalisation, la sécurité et la sauvegarde.

    [00: 02: 35.809]
    Mendix les applications et services sont entièrement portables,

    [00: 02: 39.120]
    ce qui signifie qu'il peut être déplacé ou distribué

    [00: 02: 40.960]
    entre les fournisseurs de cloud à volonté.

    [00: 02: 44.490]
    Maintenant au niveau suivant

    [00: 02: 45.323]
    intégration à n'importe quel service ou source de données

    [00: 02: 47.905]
    peut être consommé et publié dans Studio Pro.

    [00: 02: 50.880]
    Donc c'est REST, SOAP, OData, SQL, JSON, XML,

    [00: 02: 54.980]
    même des sources propriétaires, le tout sans codage.

    [00: 02: 59.340]
    Ils peuvent être emballés

    [00: 03: 00.380]
    en tant que connecteurs réutilisables à l'intérieur du Data Hub

    [00: 03: 03.040]
    ou utilisé dans les services d'application publiés dans le Mendix marché.

    [00: 03: 08.430]
    Les services d'application, ce qu'ils font, ils combinent l'interface utilisateur,

    [00: 03: 11.180]
    blocs de construction, widgets, connecteurs logiques et services

    [00: 03: 14.900]
    en capacités commerciales packagées,

    [00: 03: 17.270]
    qui peut être utilisé pour créer des expériences

    [00: 03: 19.426]
    plus haut dans la chaîne de développement.

    [00: 03: 22.850]
    Désormais avec Data Hub, ces mêmes connecteurs réutilisables

    [00: 03: 25.164]
    peuvent être exposés en tant qu'entités de données virtualisées

    [00: 03: 28.635]
    dans un catalogue consultable, ce qui est génial

    [00: 03: 30.870]
    car maintenant tout développeur

    [00: 03: 32.223]
    a la capacité d'accéder à des métadonnées riches

    [00: 03: 34.721]
    et tout aussi important avec une gouvernance intégrée

    [00: 03: 37.500]
    et accès sécurisé.

    [00: 03: 40.150]
    Maintenant le sommet de cette pyramide,

    [00: 03: 41.860]
    Les développeurs se situent au sommet d'une montagne de technologie

    [00: 03: 45.110]
    abstrait dans la réutilisation qui leur permet de se concentrer

    [00: 03: 47.970]
    sur la conception d’expériences utilisateur convaincantes.

    [00: 03: 51.580]
    Ce qui signifie développement

    [00: 03: 53.050]
    n'est plus limité par la technologie.

    [00: 03: 55.519]
    Ok, maintenant que vous avez vu l'architecture,

    [00: 03: 57.850]
    Voyons à quoi ressemblent les applications multi-expériences

    [00: 04: 00.480]
    et comment ils sont construits.

    [00: 04: 02.580]
    Maintenant pour le reste de cette session,

    [00: 04: 03.661]
    nous allons suivre un client

    [00: 04: 05.830]
    à travers un parcours d'achat d'une voiture,

    [00: 04: 07.510]
    de la commande à la livraison

    [00: 04: 09.465]
    avec un petit hic en cours de route.

    [00: 04: 12.900]
    Commençons par rechercher et acheter la voiture,

    [00: 04: 14.880]
    qui implique une combinaison d'applications Web progressives,

    [00: 04: 17.296]
    chatbots, réalité augmentée,

    [00: 04: 19.890]
    et tirer parti des applications mobiles natives

    [00: 04: 22.060]
    et leurs fonctionnalités d'appareil sont toutes intégrées Mendix.

    [00: 04: 25.900]
    Le parcours client commence ici

    [00: 04: 27.370]
    avec cette application Web progressive.

    [00: 04: 28.780]
    Il est réactif et fonctionne donc sur n'importe quel format

    [00: 04: 31.410]
    et c'est rapide car la plupart des applications

    [00: 04: 33.830]
    s'exécute localement sur l'appareil.

    [00: 04: 36.054]
    Désormais, au lieu d'appeler ou d'envoyer un e-mail au concessionnaire,

    [00: 04: 38.692]
    la prochaine expérience est un chatbot en ligne

    [00: 04: 41.280]
    pour planifier un essai routier à 3h00

    [00: 04: 43.820]
    En utilisant une combinaison des deux types de saisie

    [00: 04: 45.600]
    et des capacités de conversion de la voix en texte.

    [00: 04: 48.510]
    Maintenant, après l'essai routier,

    [00: 04: 49.411]
    le client utilise la réalité augmentée pour configurer sa voiture

    [00: 04: 53.160]
    en superposant différentes couleurs de peinture et de jantes

    [00: 04: 56.410]
    parce que les concessionnaires ont rarement en stock

    [00: 04: 58.017]
    chaque combinaison de couleurs.

    [00: 05: 02.180]
    En décidant d'acheter la voiture, le client exploite

    [00: 05: 04.680]
    la puissance des services de localisation des téléphones

    [00: 05: 07.060]
    pour renseigner leur adresse

    [00: 05: 08.440]
    et utilise un scanner de carte de crédit

    [00: 05: 09.743]
    pour renseigner leurs informations de carte de crédit sans rien saisir.

    [00: 05: 15.070]
    Et enfin, entre les pauses publicitaires,

    [00: 05: 17.336]
    le client utilise une application TV native

    [00: 05: 19.820]
    pour vérifier l'état de leur voiture

    [00: 05: 21.690]
    au fur et à mesure qu'il passe par les différentes étapes

    [00: 05: 23.326]
    du processus de fabrication.

    [00: 05: 26.460]
    Donc, à ce stade-là,

    [00: 05: 27.293]
    Je vais laisser Simon partager avec nous

    [00: 05: 29.610]
    comment il a utilisé Mendix pour construire certaines de ces expériences.

    [00: 05: 33.200]
    Simon.

    [00: 05: 34.410]
    Merci, Dave.

    [00: 05: 35.680]
    Dans mes sections, je vais approfondir

    [00: 05: 38.070]
    sur la façon dont ces expériences

    [00: 05: 39.590]
    ont été construits en utilisant le Mendix

    [00: 05: 41.830]
    Dans cette section, nous couvrirons

    [00: 05: 43.190]
    comment nous avons construit l'expérience du chatbot en utilisant AWS Lex,

    [00: 05: 47.300]
    Comment nous avons construit l'expérience AR

    [00: 05: 49.580]
    en utilisant notre plateforme React Native,

    [00: 05: 51.520]
    et enfin comment nous avons construit l'expérience

    [00: 05: 54.010]
    pour notre Fire TV Stick up.

    [00: 05: 56.730]
    Voyons maintenant comment ces expériences sont construites.

    [00: 05: 59.680]
    Tout d’abord, à l’intérieur de cette application Web progressive,

    [00: 06: 02.660]
    nous pouvons acheter un certain nombre de véhicules,

    [00: 06: 04.399]
    mais aussi poser certaines questions

    [00: 06: 06.690]
    en utilisant cette fonctionnalité de chatbot ici.

    [00: 06: 09.170]
    Ce chatbot particulier utilise AWS Lex

    [00: 06: 11.790]
    comme moteur de chatbot.

    [00: 06: 13.750]
    Et nous pouvons le configurer pour utiliser un certain nombre de dialogues

    [00: 06: 16.908]
    et comprendre ce que notre client lui demande.

    [00: 06: 20.210]
    Nous pouvons également ajouter certaines données contextuelles

    [00: 06: 22.160]
    à partir de notre Mendix .

    [00: 06: 24.500]
    La façon dont nous formons ces robots consiste à utiliser le formateur de robots

    [00: 06: 27.830]
    à l'intérieur de l'interface AWS Lex ici.

    [00: 06: 30.710]
    Et tous les robots fonctionnent de manière similaire.

    [00: 06: 33.150]
    Vous les construisez à l’aide d’intentions, d’emplacements et d’entités.

    [00: 06: 37.520]
    Une intention est quelque chose que vous voulez que le bot fasse.

    [00: 06: 40.570]
    Et ici, nous avons un certain nombre de robots que nous avons créés,

    [00: 06: 43.600]
    mais nous avons prévu un essai routier,

    [00: 06: 45.700]
    celui que nous avons montré dans cette vidéo plus tôt.

    [00: 06: 48.570]
    Donc ici, nous pouvons voir que nous avons l’intention de prendre rendez-vous,

    [00: 06: 51.642]
    et avec cela, nous devons lui donner un certain nombre d'expressions.

    [00: 06: 55.280]
    Essentiellement, un énoncé est une phrase,

    [00: 06: 57.420]
    un exemple de phrase sur laquelle nous voulons entraîner ce bot.

    [00: 07: 00.500]
    Il reconnaîtra ces modèles

    [00: 07: 02.430]
    et déclencher une action basée sur cette intention particulière.

    [00: 07: 05.888]
    Nous pouvons également sélectionner certaines données clés

    [00: 07: 08.193]
    de cette déclaration particulière.

    [00: 07: 09.950]
    Donc des choses comme le type de réservation, l'heure

    [00: 07: 12.550]
    et aussi la voiture que nous voulons réserver.

    [00: 07: 15.930]
    Ainsi, tous les chatbots fonctionnent de manière très similaire

    [00: 07: 18.710]
    et nous vous en montrerons plus

    [00: 07: 19.710]
    au fur et à mesure que nous progressons dans ces manifestations.

    [00: 07: 22.810]
    Alors, tout d’abord, nous pouvons voir ici que nous avons le type de réservation,

    [00: 07: 25.610]
    le modèle de voiture, la date/heure,

    [00: 07: 27.490]
    et ceux-ci sont stockés dans les valeurs d'emplacement.

    [00: 07: 29.300]
    Ce sont les choses que nous voulons garder et stocker

    [00: 07: 31.690]
    à l'intérieur de notre application.

    [00: 07: 33.170]
    Parce que le chatbot est très bête.

    [00: 07: 34.910]
    En fait, il ne stocke aucune donnée,

    [00: 07: 37.400]
    il agit simplement sur certaines informations

    [00: 07: 39.290]
    et le renvoie au demandeur.

    [00: 07: 41.917]
    Alors allons-y et jetons un oeil

    [00: 07: 44.240]
    à la façon dont cela est construit à l'intérieur du Mendix .

    [00: 07: 47.500]
    Alors ici, nous avons le Mendix modèle pour notre application

    [00: 07: 49.907]
    et nous avons d'abord notre application Web progressive

    [00: 07: 51.950]
    où l'on peut voir les différents détails.

    [00: 07: 53.800]
    Et nous avons aussi un microflux

    [00: 07: 56.033]
    qui est utilisé pour envoyer les données

    [00: 07: 58.350]
    à ce service Lex particulier.

    [00: 08: 00.600]
    Maintenant, cela utilise le connecteur AWS Lex

    [00: 08: 02.820]
    disponible dans le Mendix magasin d'applications.

    [00: 08: 04.890]
    Et à l'intérieur de ce connecteur particulier,

    [00: 08: 06.870]
    vous pouvez configurer les clés et les identités

    [00: 08: 09.870]
    ainsi que l'énoncé

    [00: 08: 10.883]
    que nous allons envoyer à ce chatbot particulier.

    [00: 08: 14.970]
    Et comme je l’ai dit, cette déclaration est comme un message.

    [00: 08: 17.015]
    Donc il interprétera ce message

    [00: 08: 18.850]
    et revenez avec une réponse.

    [00: 08: 20.670]
    Et à l’intérieur de cette réponse, il y aura un certain nombre d’emplacements.

    [00: 08: 24.210]
    C'est ainsi que nous stockons les valeurs réelles,

    [00: 08: 26.610]
    les informations comme l'heure, la date,

    [00: 08: 28.607]
    et aussi le type de voiture.

    [00: 08: 30.830]
    Et nous les stockons à l'intérieur du Mendix application

    [00: 08: 33.040]
    afin que nous puissions nous souvenir de cette conversation

    [00: 08: 36.040]
    et nous pouvons également créer cette réservation.

    [00: 08: 40.360]
    À l'intérieur de l'interface utilisateur de cette application pour ce chatbot,

    [00: 08: 42.950]
    nous avons simplement utilisé une vue de liste.

    [00: 08: 45.130]
    Et à l'intérieur de cette vue de liste,

    [00: 08: 46.150]
    nous pouvons présenter tous ces messages que nous avons envoyés

    [00: 08: 49.050]
    et également reçu de ce chatbot.

    [00: 08: 52.060]
    Alors très rapidement, voilà un aperçu

    [00: 08: 54.110]
    quant à la manière dont nous avons construit cette intégration.

    [00: 08: 56.038]
    Jetons un œil à notre prochaine intégration,

    [00: 08: 58.600]
    qui consistait à construire une expérience AR.

    [00: 09: 01.760]
    Pour ce faire, nous avons en fait utilisé une bibliothèque

    [00: 09: 04.560]
    c'est disponible pour React Native.

    [00: 09: 06.770]
    Cela s'appelle ViroReact.

    [00: 09: 08.602]
    Et ViroReact vous permet de créer des expériences VR et AR

    [00: 09: 12.840]
    en exploitant les capacités AR de l'appareil,

    [00: 09: 15.790]
    que ce soit ARCore ou ARKit.

    [00: 09: 19.757]
    Et en utilisant cela,

    [00: 09: 21.000]
    nous pouvons réellement commencer à construire ces visualisations.

    [00: 09: 23.890]
    Et la façon dont nous avons fait cela est à l'intérieur du modeleur,

    [00: 09: 26.229]
    nous avons créé quelques widgets personnalisés.

    [00: 09: 29.195]
    À l'intérieur de ces widgets,

    [00: 09: 30.770]
    ils nous permettent de mettre en place certains marqueurs à suivre.

    [00: 09: 34.940]
    Nous avons donc ici un widget de suivi.

    [00: 09: 39.381]
    Et à l'intérieur de ce widget de suivi particulier,

    [00: 09: 41.630]
    nous pouvons définir une image particulière que nous voulons utiliser pour identifier

    [00: 09: 45.183]
    et placez l'objet dans un espace 3D.

    [00: 09: 48.510]
    Donc ici, nous pouvons voir que nous pouvons sélectionner l’image.

    [00: 09: 51.060]
    Et dans ce cas, nous allons utiliser un Mendix logo.

    [00: 09: 53.650]
    Cela a des caractéristiques uniques,

    [00: 09: 56.280]
    afin que nous puissions l'identifier facilement dans l'espace 3D.

    [00: 10: 00.530]
    Nous pouvons également définir certaines propriétés telles que les actions

    [00: 10: 03.410]
    à déclencher lorsque nous détectons certains éléments

    [00: 10: 05.950]
    dans l'espace 3D.

    [00: 10: 08.948]
    À l'intérieur de ce widget enfichable,

    [00: 10: 11.040]
    nous avons ensuite un certain nombre de widgets supplémentaires

    [00: 10: 13.300]
    pour montrer les objets, et dans ce cas l'objet est une voiture

    [00: 10: 17.220]
    et un certain nombre de sphères

    [00: 10: 18.053]
    et les sphères sont les icônes que nous avons vues

    [00: 10: 19.610]
    en haut de cette voiture particulière pour changer la couleur.

    [00: 10: 23.038]
    Si nous approfondissons l'objet,

    [00: 10: 24.750]
    nous pouvons sélectionner le matériau qui est utilisé,

    [00: 10: 27.039]
    nous pouvons choisir l'interaction

    [00: 10: 28.785]
    et aussi les événements qui sont utilisés

    [00: 10: 30.870]
    lorsque nous interagissons réellement avec cet élément particulier.

    [00: 10: 34.430]
    Ainsi, lorsque le tracker détecte ce marqueur particulier,

    [00: 10: 38.050]
    il faudra cet objet particulier

    [00: 10: 40.240]
    et placez-le dans l'espace 3D.

    [00: 10: 42.380]
    Nous pouvons alors interagir avec lui, nous promener autour de lui,

    [00: 10: 44.446]
    et nous pouvons également en tirer davantage d’informations.

    [00: 10: 49.940]
    C'est donc un moyen très puissant de pouvoir prévisualiser

    [00: 10: 53.300]
    et regardez certains biens comme une voiture

    [00: 10: 55.840]
    ou un autre produit tel que l'ampoule,

    [00: 10: 57.910]
    pouvoir interagir avec elle

    [00: 10: 59.320]
    sans l'avoir réellement acheté au préalable.

    [00: 11: 02.930]
    Passons maintenant à notre prochaine expérience.

    [00: 11: 04.770]
    La dernière que nous avons montrée était une application TV

    [00: 11: 08.100]
    exécuté sur un Fire TV Stick.

    [00: 11: 10.010]
    Et en fait, cette interaction particulière

    [00: 11: 13.100]
    et cet appareil particulier est très facile à intégrer.

    [00: 11: 18.420]
    Et c’est parce que l’application est construite avec Android.

    [00: 11: 23.760]
    Ainsi, toutes les applications déployées sur un Fire TV Stick

    [00: 11: 27.400]
    fonctionner sur la plateforme Android.

    [00: 11: 29.408]
    Et parce que le Mendix Créez une application native

    [00: 11: 32.197]
    se déploie sur Android,

    [00: 11: 34.210]
    nous pouvons simplement l'installer sur le Fire TV Stick.

    [00: 11: 37.520]
    Et pour ce faire, il nous suffit d’utiliser ce guide ici.

    [00: 11: 40.530]
    Ce guide utilise ADB, qui est le système de débogage Android,

    [00: 11: 45.380]
    qui vous permet de vous connecter à un appareil

    [00: 11: 47.440]
    sur votre réseau local et installez certaines applications.

    [00: 11: 51.160]
    Donc tout ce que nous avons fait, c'est créer notre Fire TV Stick

    [00: 11: 53.410]
    disponible sur notre réseau

    [00: 11: 55.210]
    et en utilisant quelques commandes,

    [00: 11: 57.190]
    nous pourrions l'installer sur cet appareil particulier.

    [00: 12: 01.500]
    Maintenant, la façon dont nous avons construit cette application particulière

    [00: 12: 03.970]
    ce n'est rien d'extraordinaire.

    [00: 12: 05.850]
    Tout ce que nous avions à faire était de créer une application native

    [00: 12: 08.500]
    dans une application séparée ici.

    [00: 12: 10.440]
    Et ici nous avons le carrousel que nous avons vu plus tôt.

    [00: 12: 13.020]
    Ainsi, l'utilisateur a pu voir des images

    [00: 12: 14.829]
    quant à l’étape de production à laquelle ils se trouvaient,

    [00: 12: 18.020]
    et ils peuvent les parcourir en utilisant leurs boutons

    [00: 12: 20.603]
    sur leur Fire TV Stick particulier.

    [00: 12: 25.560]
    Il y avait cependant une chose que nous devions changer.

    [00: 12: 27.810]
    Le Fire TV Stick fonctionne sur un téléviseur particulier,

    [00: 12: 31.550]
    et c'est une vue de paysage.

    [00: 12: 34.110]
    Nous devions nous assurer que

    [00: 12: 35.740]
    au lieu d'ouvrir l'application en mode portrait,

    [00: 12: 38.270]
    nous avons dû l'ouvrir en paysage.

    [00: 12: 40.460]
    Donc pour le faire c'est très simple.

    [00: 12: 42.360]
    À l'intérieur de l'application, nous avons une option

    [00: 12: 46.880]
    pour pouvoir le configurer à l'orientation de l'écran.

    [00: 12: 49.820]
    Ceci est le code derrière l'application native

    [00: 12: 52.750]
    que nous avons construit pour ce Fire TV Stick en particulier.

    [00: 12: 56.157]
    Et ceci est basé sur le modèle de base

    [00: 12: 58.080]
    disponible depuis la plateforme.

    [00: 12: 59.960]
    Et tout ce que nous avons configuré est cette option ici

    [00: 13: 02.720]
    pour le passer du mode portrait au mode paysage.

    [00: 13: 04.639]
    Cela permet de garantir que lorsque nous ouvrons l'application,

    [00: 13: 08.070]
    il ne s'ouvre pas d'abord en mode portrait

    [00: 13: 10.010]
    et puis retournez-le en paysage.

    [00: 13: 11.700]
    Cela nous permet de l'ouvrir

    [00: 13: 13.200]
    et ça passe d'abord en mode paysage.

    [00: 13: 15.950]
    Donc, en changeant quelques configurations comme celle-ci,

    [00: 13: 19.290]
    cela nous donne un autre profil d'appareil,

    [00: 13: 21.324]
    une autre expérience pour l'utilisateur

    [00: 13: 23.510]
    que nous n’aurions peut-être même pas envisagé au préalable.

    [00: 13: 27.044]
    Donc, au cours des dernières minutes,

    [00: 13: 28.640]
    nous avons vu une démonstration de la façon dont nous pouvons utiliser AWS Lex

    [00: 13: 32.410]
    communiquer avec un chatbot.

    [00: 13: 34.880]
    Nous avons ensuite vu une expérience AR sur notre mobile natif,

    [00: 13: 39.460]
    et l'expérience finale est que nous avons vu une application TV

    [00: 13: 42.292]
    en utilisant la plateforme nature de Mendix

    [00: 13: 45.000]
    et le déploiement sur un Fire TV Stick.

    [00: 13: 48.470]
    Alors, je vais maintenant passer la parole à Dave.

    [00: 13: 50.650]
    qui va t'emmener dans le prochain voyage

    [00: 13: 52.630]
    de notre parcours client.

    [00: 13: 55.360]
    Très bien, Simon, merci.

    [00: 13: 56.500]
    Très impressionnant.

    [00: 13: 57.520]
    Passons à la phase suivante

    [00: 13: 59.410]
    où le client découvre

    [00: 14: 01.210]
    qu'il y a un problème avec leur commande,

    [00: 14: 02.850]
    et maintenant ils doivent parler à un agent pour résoudre le problème.

    [00: 14: 06.940]
    Donc dans cette prochaine expérience,

    [00: 14: 08.190]
    le client reçoit un SMS automatisé

    [00: 14: 10.510]
    et une notification push

    [00: 14: 11.601]
    qu'un délai de fabrication est nécessaire

    [00: 14: 14.606]
    et cela nécessite leur attention immédiate.

    [00: 14: 18.790]
    Alors ce qu'ils font, ils décident d'appeler le service client

    [00: 14: 21.470]
    et ils sont effectivement accueillis par un agent virtuel.

    [00: 14: 24.090]
    Écoutons po

    [00: 14: 32.830]
    Bonjour,

    [00: 14: 33.670]
    Bienvenue au service client Tesla.

    [00: 14: 35.630]
    Comment puis-je vous aider aujourd'hui?

    [00: 14: 37.276]
    J'aimerais connaître l'état de ma commande.

    [00: 14: 39.750]
    Aucun problème.

    [00: 14: 40.670]
    Pouvez-vous me dire votre numéro de commande

    [00: 14: 42.380]
    alors je peux vérifier ça pour toi ?

    [00: 14: 44.340]
    1086.

    [00: 14: 45.640]
    Votre commande 1086

    [00: 14: 48.070]
    est actuellement en phase de fabrication du châssis

    [00: 14: 50.850]
    et je passerai bientôt à la fabrication de carrosseries.

    [00: 14: 53.510]
    Veux-tu que je te pousse à passer à travers

    [00: 14: 54.720]
    à un membre de notre équipe qui peut vous aider davantage ?

    [00: 14: 56.883]
    Oui s'il vous plait.

    [00: 14: 58.500]
    Ce n'est pas un problème du tout.

    [00: 14: 59.484]
    Je vous mets maintenant en relation avec un membre de notre équipe

    [00: 15: 02.437]
    qui a été informé de vos coordonnées, veuillez patienter.

    [00: 15: 05.599]
    (musique entraînante)

    [00: 15: 06.432]
    (la tonalité de numérotation retentit)

    [00: 15: 08.120]
    Bonjour, Monsieur Black.

    [00: 15: 08.953]
    Il s’agit du service client de Tesla.

    [00: 15: 10.400]
    Je m'appelle Allister, comment puis-je vous aider aujourd'hui ?

    [00: 15: 13.040]
    Donc l'agent virtuel

    [00: 15: 13.873]
    a rassemblé avec succès toutes les informations

    [00: 15: 16.200]
    nécessaire pour diriger l'appelant vers la personne appropriée

    [00: 15: 19.070]
    et préparez cet employé à l’appel.

    [00: 15: 22.430]
    À partir de là, l’agent a pu résoudre le problème.

    [00: 15: 25.290]
    Alors à ce stade, je vais laisser Simon reprendre le contrôle

    [00: 15: 27.910]
    afin qu'il puisse vous montrer comment construire

    [00: 15: 29.500]
    une application d'agent virtuel avec Mendix.

    [00: 15: 32.430]
    Simon, je reviens à toi.

    [00: 15: 34.460]
    Merci, Dave.

    [00: 15: 35.293]
    Ce que nous avons vu là-bas, c'est un client qui interagit avec un robot

    [00: 15: 39.930]
    en utilisant la reconnaissance vocale.

    [00: 15: 41.970]
    Ce bop particulier a été formé

    [00: 15: 43.531]
    en utilisant le service de dialogue Twilio.

    [00: 15: 46.420]
    À l'intérieur de Twilio, nous pouvons former et créer un certain nombre de tâches.

    [00: 15: 50.920]
    Ces tâches sont comme des intentions,

    [00: 15: 52.660]
    que nous avons vu dans notre interface AWS Lex.

    [00: 15: 56.590]
    À partir de là, nous pouvons l’entraîner sur un certain nombre d’échantillons

    [00: 15: 59.696]
    et ces échantillons sont comme des paroles,

    [00: 16: 02.040]
    le même que celui que nous avions dans notre interface AWS Lex.

    [00: 16: 05.750]
    Exemples de mots et de phrases que nous souhaitons déclencher.

    [00: 16: 11.370]
    À l'intérieur de chacun d'eux,

    [00: 16: 12.250]
    nous avons également la capacité de programmer ce qui se passe

    [00: 16: 15.370]
    lorsque ces mots clés et phrases particuliers sont déclenchés.

    [00: 16: 19.370]
    Et puis dans ce cas, nous faisons une redirection vers une URL.

    [00: 16: 22.587]
    Et cette URL est un service hébergé sur un Mendix .

    [00: 16: 27.450]
    Donc tout ce que nous avons fait, c'est publier une API REST

    [00: 16: 30.350]
    du Mendix l'application,

    [00: 16: 31.724]
    qui sera appelé et exécuté

    [00: 16: 34.390]
    lorsque ces peines particulières sont prononcées.

    [00: 16: 38.060]
    Passons maintenant au modèle

    [00: 16: 39.910]
    et voyez comment cette expérience se construit.

    [00: 16: 43.340]
    À l'intérieur du modèle de cette application,

    [00: 16: 45.130]
    nous pouvons voir ici, nous avons cette API REST

    [00: 16: 47.010]
    qui a été publié.

    [00: 16: 48.617]
    À l’intérieur de cet appel d’API particulier, nous avons un microflux.

    [00: 16: 52.670]
    Et ce flux de micro est exécuté

    [00: 16: 54.710]
    chaque fois que nous recevons cet appel d'API.

    [00: 16: 57.980]
    Dans ce microflux particulier, nous avons un certain nombre d’étapes,

    [00: 17: 00.250]
    qui reprend votre tâche actuelle, les informations

    [00: 17: 03.204]
    et puis finalement, il faut prendre beaucoup de décisions

    [00: 17: 05.753]
    autour de l'endroit où il devrait diriger le client

    [00: 17: 08.630]
    en fonction des informations spécifiques qu'il reçoit.

    [00: 17: 12.020]
    Nous aurions maintenant pu créer plusieurs points de terminaison d'API différents

    [00: 17: 15.360]
    en fonction du type d'interaction,

    [00: 17: 18.048]
    mais nous voulions un microflux central

    [00: 17: 20.140]
    afin que nous puissions vous montrer

    [00: 17: 21.360]
    la complexité de la logique qui se déroule

    [00: 17: 23.760]
    dans les coulisses du Mendix .

    [00: 17: 27.100]
    Donc dans ce cas,

    [00: 17: 27.933]
    il détecte si une redirection est nécessaire ou non.

    [00: 17: 31.280]
    Et si une redirection est nécessaire, que fera-t-elle ?

    [00: 17: 33.880]
    il renverra ensuite une réponse client à Twilio

    [00: 17: 37.136]
    pour les rediriger vers un certain numéro.

    [00: 17: 40.780]
    Donc, dans notre scénario, nous avons été redirigés vers Allister

    [00: 17: 44.060]
    dans l'équipe du service client,

    [00: 17: 45.910]
    qui a pu alors nous aider et commencer à résoudre le problème.

    [00: 17: 49.425]
    Et pour ce faire, nous avons effectivement renvoyé du XML.

    [00: 17: 53.380]
    Cette structure XML définit quel numéro de téléphone

    [00: 17: 57.050]
    nous avons besoin que vous composiez le numéro pour parler réellement au client.

    [00: 18: 00.714]
    Et nous pouvons faire toutes les choses à l’intérieur de ce XML.

    [00: 18: 03.010]
    C'est une structure très courante.

    [00: 18: 05.235]
    AWS utilise une structure similaire où vous pouvez l'intégrer

    [00: 18: 08.840]
    avec des informations plus riches en contenu,

    [00: 18: 11.280]
    des choses comme des numéros de téléphone, des images, des audios, etc.

    [00: 18: 16.200]
    Pour les autres messages, nous utilisons simplement du texte brut

    [00: 18: 18.910]
    pour interagir avec ceux-là.

    [00: 18: 23.360]
    Nous avons donc vu au cours des dernières minutes,

    [00: 18: 25.300]
    un aperçu de la manière dont nous avons géré ces conversations.

    [00: 18: 29.640]
    Nous avons utilisé le pilote automatique de Twilio

    [00: 18: 31.860]
    pour pouvoir gérer ces conversations

    [00: 18: 34.610]
    et reconnaître ces énoncés clés,

    [00: 18: 37.060]
    et ensuite les remettre à Mendix pour obtenir les informations clés

    [00: 18: 40.800]
    comme le statut de la commande et d’autres informations.

    [00: 18: 45.550]
    Alors revenons à Dave maintenant

    [00: 18: 47.270]
    pour notre dernière partie du parcours client.

    [00: 18: 50.180]
    Merci, Simon.

    [00: 18: 51.013]
    Au cours de la dernière partie du parcours de l'acheteur,

    [00: 18: 53.790]
    nous allons examiner quelques expériences différentes utilisées

    [00: 18: 56.870]
    pendant que la voiture est en livraison.

    [00: 18: 58.648]
    Reprenons avec le client qui demande à Alexa

    [00: 19: 01.450]
    pour une mise à jour de statut.

    [00: 19: 03.580]
    Alors Alexa demande à la voiture connectée le statut de ma commande.

    [00: 19: 10.000]
    Si vous me faites connaître votre numéro de commande,

    [00: 19: 12.020]
    Je peux vérifier le statut pour vous.

    [00: 19: 14.644]
    1086.

    [00: 19: 18.320]
    Votre voiture a été construite

    [00: 19: 20.057]
    et est prêt à être livré.

    [00: 19: 21.960]
    Il sera chez vous à 3h13

    [00: 19: 25.600]
    Maintenant, lorsque le chauffeur arrive chez le client,

    [00: 19: 27.650]
    ils utilisent une application mobile native

    [00: 19: 29.440]
    parcourir une liste de contrôle pour libérer la voiture.

    [00: 19: 32.745]
    Les applications natives sont parfaites

    [00: 19: 35.040]
    pour quand les travailleurs ont besoin d'interagir

    [00: 19: 36.430]
    avec les clients face à face.

    [00: 19: 38.180]
    Ils peuvent capturer des preuves photographiques

    [00: 19: 39.658]
    d'une livraison réussie,

    [00: 19: 41.169]
    ou malheureusement cataloguer des dommages

    [00: 19: 43.887]
    afin qu'un problème puisse être résolu le plus rapidement possible.

    [00: 19: 48.250]
    L'application native élimine les processus papier

    [00: 19: 50.530]
    en capturant numériquement toutes ces informations,

    [00: 19: 53.100]
    y compris la signature du client

    [00: 19: 54.920]
    une fois qu'ils sont satisfaits de la livraison.

    [00: 19: 58.097]
    Bon, pour une dernière fois je passe le contrôle à Simon.

    [00: 20: 01.030]
    Il va vous montrer comment il a utilisé Mendix

    [00: 20: 02.940]
    pour construire l'application Alexa et l'application mobile native.

    [00: 20: 06.330]
    Alors Simon, je reviens à toi.

    [00: 20: 09.410]
    Merci, Dave.

    [00: 20: 10.300]
    Dans cette prochaine section, nous allons examiner

    [00: 20: 11.900]
    comment nous avons construit cette intégration dans notre appareil Alexa.

    [00: 20: 16.460]
    Pour créer une intégration avec Alexa,

    [00: 20: 18.390]
    Vous devez d’abord développer une compétence.

    [00: 20: 20.159]
    Une compétence est comme une application sur l'outil d'applications

    [00: 20: 23.000]
    mais c'est personnalisé pour Alexa.

    [00: 20: 25.130]
    Il utilise la voix plutôt que le toucher pour l'interaction.

    [00: 20: 29.480]
    Ici, nous avons une compétence que nous avons créée

    [00: 20: 31.360]
    pour notre voyage en voiture connectée.

    [00: 20: 33.300]
    Et si nous approfondissons cela, nous pouvons commencer à le configurer

    [00: 20: 35.776]
    pour répondre à nos besoins particuliers.

    [00: 20: 40.260]
    A l’intérieur, nous avons tout d’abord un mot d’invocation.

    [00: 20: 43.890]
    C'est le mot clé ou le nom de la compétence

    [00: 20: 46.400]
    que vous souhaitez donner à cette compétence particulière.

    [00: 20: 49.230]
    Et cela va se déclencher

    [00: 20: 50.245]
    quand vous demandez à Alexa de faire quelque chose.

    [00: 20: 54.120]
    Ensuite, nous avons le modèle d’interaction.

    [00: 20: 56.740]
    Et encore une fois, vous pouvez voir des principes très similaires ici

    [00: 21: 00.720]
    à la façon dont nous nous en sortions avec AWS Lex.

    [00: 21: 03.310]
    Nous pouvons utiliser certaines intentions, les entraîner sur certaines expressions

    [00: 21: 07.060]
    et récupérer certains créneaux horaires.

    [00: 21: 09.940]
    Alors ici, nous pouvons voir le dialogue particulier

    [00: 21: 12.740]
    pour notre statut pour notre commande.

    [00: 21: 15.100]
    Nous pouvons lui donner quelques expressions,

    [00: 21: 16.220]
    certaines données d'emplacement que nous souhaitons capturer,

    [00: 21: 19.000]
    et cela peut alors être déclenché

    [00: 21: 20.300]
    à l'intérieur de notre Mendix .

    [00: 21: 23.770]
    Donc vraiment, tant que tu sais

    [00: 21: 26.050]
    comment construire un type de chatbot ou une interface de chat,

    [00: 21: 30.330]
    vous pouvez très facilement passer à d'autres types de plateformes.

    [00: 21: 33.487]
    Ils ont quelques différences dans les outils de fente,

    [00: 21: 35.510]
    mais vous pouvez voir qu'il y a beaucoup de similitudes

    [00: 21: 37.398]
    à travers eux.

    [00: 21: 40.315]
    Dans les informations Alexa ici,

    [00: 21: 43.010]
    nous pouvons également définir un point final.

    [00: 21: 45.080]
    Et le point final est là où nous sommes réellement

    [00: 21: 45.913]
    je vais récupérer ces données.

    [00: 21: 48.540]
    Ainsi, lorsque nous déclenchons une certaine intention,

    [00: 21: 50.800]
    nous voulons ensuite pouvoir le traiter

    [00: 21: 52.680]
    en utilisant cela Mendix .

    [00: 21: 55.550]
    Alors allons à l'intérieur de ce modèle

    [00: 21: 57.220]
    et regardez comment cela est mis en œuvre.

    [00: 22: 00.730]
    Nous ouvrons donc le même modèle que notre exemple Twilio.

    [00: 22: 05.090]
    Nous pouvons alors commencer à voir les informations

    [00: 22: 07.168]
    depuis notre appareil Alexa.

    [00: 22: 09.550]
    Donc ici, nous enregistrons effectivement certains identifiants

    [00: 22: 12.620]
    à ces fins.

    [00: 22: 14.380]
    Donc, dans le flux après le démarrage,

    [00: 22: 16.190]
    lorsque nous démarrons notre application,

    [00: 22: 18.110]
    nous pouvons ensuite déclencher et définir certaines informations et intentions

    [00: 22: 22.298]
    se déclencher

    [00: 22: 23.450]
    quand nous voyons réellement cette intention particulière.

    [00: 22: 26.100]
    Donc dans ce cas, lorsque nous voyons le statut de l'intention,

    [00: 22: 28.440]
    cela déclenchera ce microflux particulier.

    [00: 22: 30.920]
    Maintenant, celui que nous avons montré dans l'exemple

    [00: 22: 32.470]
    c'était pour un statut pour notre commande.

    [00: 22: 35.127]
    Et à l’intérieur de ce microflux particulier,

    [00: 22: 37.480]
    nous pouvons voir que nous pouvons obtenir les informations sur la demande

    [00: 22: 40.156]
    et nous pouvons également obtenir des informations à partir des emplacements,

    [00: 22: 43.280]
    donc les données réelles que nous voulons capturer.

    [00: 22: 45.150]
    Et dans ce cas, c'est le numéro de commande réel

    [00: 22: 47.070]
    c'est important.

    [00: 22: 48.530]
    Nous voulons pouvoir capturer à qui appartient la commande,

    [00: 22: 51.660]
    regarde-le dans le Mendix application

    [00: 22: 53.980]
    et répondez à ce chatbot particulier et à Alexa

    [00: 22: 58.920]
    avec les informations dont nous avons besoin.

    [00: 23: 01.840]
    Donc ici, nous pouvons voir que nous avons un chèque

    [00: 23: 04.130]
    pour voir si le numéro de commande a été trouvé ou non.

    [00: 23: 05.900]
    Et s'il est trouvé,

    [00: 23: 07.604]
    nous y répondrons avec un certain message.

    [00: 23: 11.630]
    Nous pouvons donc voir ici que nous avons des options conditionnelles

    [00: 23: 15.110]
    en fonction du statut de notre commande.

    [00: 23: 17.520]
    Donc si la commande est retardée,

    [00: 23: 19.180]
    alors nous leur enverrons un certain message.

    [00: 23: 21.830]
    S'il s'agit d'une phase de finalisation ou de fabrication,

    [00: 23: 24.730]
    nous enverrons un message différent.

    [00: 23: 27.070]
    Vous pouvez donc vraiment personnaliser ces expériences

    [00: 23: 29.730]
    et ces messages que vous fournissez à vos utilisateurs.

    [00: 23: 33.280]
    Et encore une fois, comme nous l'avions fait pour Twillio,

    [00: 23: 35.730]
    vous pouvez répondre en texte brut ou avec SSML.

    [00: 23: 40.020]
    Et SSML est une structure de format XML

    [00: 23: 42.974]
    qui vous permet d'intégrer de l'audio, des images

    [00: 23: 45.840]
    et des informations supplémentaires sur votre appareil Alexa

    [00: 23: 49.480]
    parce que certains appareils supplémentaires ont des écrans.

    [00: 23: 51.290]
    Donc si vous regardez le show Alexa,

    [00: 23: 53.274]
    vous pouvez réellement afficher des informations

    [00: 23: 55.006]
    et également lire l'audio en même temps.

    [00: 24: 00.870]
    C'est donc un connecteur très simple à utiliser.

    [00: 24: 03.140]
    Vous pouvez simplement télécharger ce connecteur

    [00: 24: 04.715]
    dans votre application,

    [00: 24: 06.310]
    et cela utilise en fait le SDK AWS pour Java

    [00: 24: 10.470]
    et utilise ces services et API

    [00: 24: 12.840]
    pour pouvoir communiquer avec eux.

    [00: 24: 16.770]
    Alors regardons notre prochaine expérience,

    [00: 24: 18.900]
    c'est ainsi que nous avons construit l'application native

    [00: 24: 22.300]
    pour nos chauffeurs de livraison de services sur le terrain ?

    [00: 24: 24.910]
    Et encore une fois, c'était une application différente

    [00: 24: 26.940]
    et un module différent.

    [00: 24: 28.297]
    Et ce que nous avions tendance à faire pour toutes ces expériences,

    [00: 24: 31.280]
    nous avons essayé de les faire sortir

    [00: 24: 32.113]
    dans la plus petite application possible

    [00: 24: 34.473]
    et partager des données entre eux.

    [00: 24: 36.990]
    C'est un point vraiment essentiel du MXDP

    [00: 24: 39.330]
    est-ce que votre utilisateur devrait pouvoir

    [00: 24: 41.750]
    pour parcourir en toute transparence différentes applications,

    [00: 24: 44.602]
    mais aussi des expériences différentes.

    [00: 24: 47.940]
    Donc, à l'intérieur de ce modèle, nous utilisons réellement des données

    [00: 24: 51.510]
    qui est exposé à partir de ces systèmes depuis Data Hub.

    [00: 24: 55.440]
    Et il y a des séances

    [00: 24: 56.410]
    qui vont couvrir ce qu'est Data Hub.

    [00: 24: 59.070]
    Mais à l'intérieur de ce modèle, vous verrez trois entités colorées.

    [00: 25: 03.710]
    La première entité est constituée de ces entités grises ici.

    [00: 25: 06.760]
    Et ce sont ce qu’on appelle des entités virtuelles.

    [00: 25: 09.040]
    Ceux-ci ne sont pas stockés dans le Mendix .

    [00: 25: 11.460]
    Ceux-ci sont simplement récupérés à partir du système source,

    [00: 25: 14.200]
    qu'il s'agisse d'OData, SQL, GraphQL.

    [00: 25: 17.610]
    L'idée est que ceux-ci peuvent être interrogés de manière dynamique

    [00: 25: 20.670]
    sur n'importe quelle page ou n'importe quelle interface

    [00: 25: 23.030]
    que ce soit en natif ou sur le web.

    [00: 25: 25.480]
    Et cela vous permet de combiner ces données ensemble

    [00: 25: 27.780]
    pour construire de nouvelles expériences

    [00: 25: 29.240]
    et partager des données à travers différentes modalités

    [00: 25: 32.270]
    et des expériences différentes.

    [00: 25: 37.280]
    Donc, à l'intérieur de cette application,

    [00: 25: 38.580]
    c'était une application mobile native très simple.

    [00: 25: 41.580]
    Nous avons eu quelques expériences

    [00: 25: 42.850]
    où nous pourrions consulter les prochains rendez-vous,

    [00: 25: 45.790]
    nous pouvions voir les tâches que nous devions accomplir.

    [00: 25: 48.860]
    Mais certains des éléments intéressants

    [00: 25: 50.010]
    il y avait des choses comme si nous pouvions scanner des codes-barres

    [00: 25: 52.490]
    pour pouvoir vérifier

    [00: 25: 53.490]
    que le numéro VIN était correct pour la voiture,

    [00: 25: 55.908]
    en plus de pouvoir faire des signatures natives.

    [00: 25: 58.660]
    Donc, en utilisant un widget de signature,

    [00: 26: 00.600]
    nous pouvons interagir avec cet utilisateur particulier

    [00: 26: 03.440]
    et demandez-leur de confirmer

    [00: 26: 04.620]
    qu'ils ont reçu ce véhicule particulier.

    [00: 26: 09.661]
    Donc, au cours des dernières minutes, j'ai parcouru très rapidement

    [00: 26: 13.040]
    quelques-unes des expériences que nous avons construites

    [00: 26: 15.050]
    en utilisant la fonction Mendix par l’IA.

    [00: 26: 16.820]
    et vous a donné un avant-goût de ce qui est réellement possible

    [00: 26: 19.373]
    quand tu pousses Mendix au bord

    [00: 26: 22.740]
    et être capable d'en exploiter toute la complexité

    [00: 26: 26.140]
    et plein potentiel.

    [00: 26: 27.928]
    Je vais maintenant céder la parole à Dave pour nos remarques finales.

    [00: 26: 31.119]
    et conclure cette session particulière.

    [00: 26: 33.540]
    Merci Simon, excellent travail comme d'habitude.

    [00: 26: 35.470]
    Donc, au cours des 20 dernières minutes,

    [00: 26: 37.310]
    nous avons démontré

    [00: 26: 38.580]
    à quoi peut ressembler un parcours client multi-expérience

    [00: 26: 41.160]
    si tu utilises Mendix,

    [00: 26: 42.346]
    nous utilisons des PWA, des chatbots, des agents virtuels,

    [00: 26: 45.930]
    applications mobiles natives, réalité augmentée,

    [00: 26: 48.240]
    Applications TV, assistants virtuels,

    [00: 26: 50.590]
    même une application conversationnelle Alexa.

    [00: 26: 53.560]
    Alors ça, mon ami

    [00: 26: 54.393]
    voilà à quoi ressemble l’avenir du développement.

    [00: 26: 57.300]
    Alors, en allant de l'avant, vous irez bien au-delà

    [00: 26: 59.690]
    simplement vos applications Web et mobiles typiques.

    [00: 27: 02.900]
    En fait, Gartner prédit que d’ici 2024,

    [00: 27: 05.810]
    une entreprise sur trois utilisera un MXDP

    [00: 27: 08.950]
    pour accélérer la vitesse de fusion des équipes informatiques et commerciales

    [00: 27: 11.960]
    pour fournir des produits numériques réussis.

    [00: 27: 15.169]
    Et Mendix est là pour aider.

    [00: 27: 16.652]
    Gartner nous a choisi comme leader

    [00: 27: 18.920]
    dans la catégorie développement multi-expérience

    [00: 27: 21.530]
    et nous excellons vraiment dans la livraison

    [00: 27: 24.200]
    ces types d’applications à grande vitesse et à grande échelle.

    [00: 27: 28.100]
    Par exemple, Mendix est le seul leader dans le quadrant magique

    [00: 27: 31.270]
    qui prend en charge les quatre architectures mobiles.

    [00: 27: 33.750]
    Et nous sommes les seuls à prendre en charge le natif,

    [00: 27: 35.840]
    qui vous permet de fournir la meilleure application

    [00: 27: 37.977]
    pour chaque situation.

    [00: 27: 40.500]
    La multiexpérience, c’est bien plus que du web et du mobile.

    [00: 27: 43.690]
    Et nous pouvons vous aider à offrir des expériences supplémentaires

    [00: 27: 46.200]
    comme immersif, conversationnel et récréatif.

    [00: 27: 50.274]
    Donc, en plus de remercier Simon

    [00: 27: 52.180]
    pour tout son excellent travail lors des démonstrations,

    [00: 27: 53.880]
    Je voudrais vous laisser avec cette dernière pensée aujourd’hui.

    [00: 27: 56.920]
    Pour construire de belles expériences,

    [00: 27: 59.070]
    l'utilisateur final doit être au premier plan.

    [00: 28: 01.770]
    Et l'objectif est de livrer des applications

    [00: 28: 04.270]
    qui sont si faciles ou invisibles, comme dirait Don,

    [00: 28: 07.348]
    qu'ils ne réalisent même pas

    [00: 28: 08.791]
    la technologie qu'ils utilisent.

    [00: 28: 11.590]
    Alors rendez Don fier et commencez à construire

    [00: 28: 13.590]
    quelques applications multi-expériences aujourd'hui.

    [00: 28: 16.180]
    Donc, avec cela, je voudrais dire merci d'être venu.

    [00: 28: 18.740]
    et passe une bonne journée

    [00: 28: 19.625]
    (musique entraînante)

Choisissez votre langue