Créez de meilleures applications client grâce au développement multi-expérience
Les applications multi-expériences promettent des résultats phénoménaux. Grâce à la multi-expérience, vous pouvez aligner et connecter l'expérience utilisateur optimale pour chaque point de contact utilisateur grâce à des applications adaptées qui simplifient chaque interaction tout au long du parcours utilisateur. Assistez à cette session pour découvrir pourquoi Mendix est un leader dans le domaine des plateformes de développement multi-expériences. Simon Black, chef d'équipe évangéliste, et David Brault, responsable marketing produit, présentent des applications qui utilisent plusieurs modalités tout au long d'un parcours client, notamment :
- Chatbots
- la réalité augmentée
- assistants vocaux
- applications web progressives
- mobile natif
- Applications TV
Sujets de vidéos
-
Transcription
[00: 00: 00.000]
(musique entraînante)[00: 00: 15.280]
Bonjour et bienvenue à cette session[00: 00: 16.441]
sur la création d'applications multi-expériences.[00: 00: 19.690]
Je m’appelle Simon Black, chef d’équipe des évangélistes.[00: 00: 23.099]
Aujourd'hui, je diffuse depuis Elian, Cambridgeshire[00: 00: 26.280]
au Royaume-Uni.[00: 00: 27.410]
Et aujourd'hui, je suis rejoint par Dave Brault,[00: 00: 29.380]
qui nous parlera[00: 00: 30.480]
à propos de ce qu'est une plateforme de développement multi-expérience.[00: 00: 34.080]
Salut Dave, et peux-tu te présenter ?[00: 00: 36.620]
Merci, Simon.[00: 00: 37.453]
Je m'appelle David Brault,[00: 00: 38.286]
responsable marketing produit ici à Mendix.[00: 00: 40.340]
Un peu sur moi.[00: 00: 41.620]
J'ai déménagé à Austin, au Texas, il y a environ six ans[00: 00: 45.080]
où je fais cette diffusion en direct[00: 00: 46.626]
et je suis complètement assimilé maintenant[00: 00: 48.800]
au point où je passe beaucoup trop de temps[00: 00: 51.190]
à la recherche du meilleur barbecue du Texas.[00: 00: 53.790]
Bref, revenons à la raison pour laquelle vous êtes ici,[00: 00: 55.320]
créer de meilleures applications client[00: 00: 57.350]
avec un développement multi-expérience.[00: 00: 59.050]
Au cours de cette session, nous allons examiner[00: 01: 00.940]
comment MXDP change le paysage du développement[00: 01: 03.910]
et comment Mendix peut aider.[00: 01: 05.395]
Ensuite, nous allons démontrer[00: 01: 06.498]
plusieurs types d'expériences différentes[00: 01: 08.960]
et laisse Simon retirer les couvertures[00: 01: 10.495]
afin que nous puissions voir comment ils ont été construits.[00: 01: 13.120]
Commençons par une citation.[00: 01: 14.757]
« Un bon design est en réalité beaucoup plus difficile à remarquer[00: 01: 17.307]
qu'une mauvaise conception,[00: 01: 18.547]
en partie parce que les bons designs répondent si bien à nos besoins[00: 01: 21.867]
que le design est invisible.[00: 01: 23.650]
Et j'adore absolument cette citation[00: 01: 25.210]
parce que c'est tellement pertinent avec le sujet en question.[00: 01: 28.990]
L'objectif principal de MXDP ou[00: 01: 30.480]
plateformes de développement multi-expériences[00: 01: 32.950]
est de permettre aux entreprises de créer des applications[00: 01: 35.300]
qui offrent des expériences utilisateur sophistiquées[00: 01: 37.550]
sur de nombreux appareils et modalités[00: 01: 39.860]
comme ceux que vous voyez sur l'écran en ce moment.[00: 01: 42.320]
Maintenant, la promesse d’une expérience multiple est phénoménale.[00: 01: 45.540]
Connectez l'expérience utilisateur optimale[00: 01: 47.740]
à chaque point de contact client[00: 01: 49.510]
avec des applications adaptées à leurs besoins[00: 01: 51.720]
qui rendent chaque interaction utilisateur efficace et sans effort,[00: 01: 55.400]
ou invisible, comme dirait Don.[00: 01: 58.120]
Maintenant, l' Mendix La plateforme tient cette promesse[00: 02: 00.650]
avec une solution véritablement intégrée[00: 02: 02.830]
qui utilise un seul ensemble de compétences[00: 02: 04.600]
pour créer des applications riches et engageantes[00: 02: 06.925]
et des expériences pour chaque situation.[00: 02: 10.110]
Plongeons-nous en profondeur[00: 02: 11.210]
sur la manière dont la plateforme prend en charge[00: 02: 12.650]
le développement rapide de solutions d’expériences multiples.[00: 02: 17.170]
Au niveau de la couche de fondation, les services de la plateforme[00: 02: 19.590]
et l'architecture cloud native de Mendix[00: 02: 21.860]
fait tout le gros du travail.[00: 02: 23.600]
Il gère la complexité des transactions[00: 02: 25.290]
avec des applications faiblement couplées[00: 02: 27.330]
et des services exécutés sur une architecture de base de services.[00: 02: 30.749]
Il gère également tous les services de base[00: 02: 32.370]
comme la journalisation, la sécurité et la sauvegarde.[00: 02: 35.809]
Mendix les applications et services sont entièrement portables,[00: 02: 39.120]
ce qui signifie qu'il peut être déplacé ou distribué[00: 02: 40.960]
entre les fournisseurs de cloud à volonté.[00: 02: 44.490]
Maintenant au niveau suivant[00: 02: 45.323]
intégration à n'importe quel service ou source de données[00: 02: 47.905]
peut être consommé et publié dans Studio Pro.[00: 02: 50.880]
Donc c'est REST, SOAP, OData, SQL, JSON, XML,[00: 02: 54.980]
même des sources propriétaires, le tout sans codage.[00: 02: 59.340]
Ils peuvent être emballés[00: 03: 00.380]
en tant que connecteurs réutilisables à l'intérieur du Data Hub[00: 03: 03.040]
ou utilisé dans les services d'application publiés dans le Mendix marché.[00: 03: 08.430]
Les services d'application, ce qu'ils font, ils combinent l'interface utilisateur,[00: 03: 11.180]
blocs de construction, widgets, connecteurs logiques et services[00: 03: 14.900]
en capacités commerciales packagées,[00: 03: 17.270]
qui peut être utilisé pour créer des expériences[00: 03: 19.426]
plus haut dans la chaîne de développement.[00: 03: 22.850]
Désormais avec Data Hub, ces mêmes connecteurs réutilisables[00: 03: 25.164]
peuvent être exposés en tant qu'entités de données virtualisées[00: 03: 28.635]
dans un catalogue consultable, ce qui est génial[00: 03: 30.870]
car maintenant tout développeur[00: 03: 32.223]
a la capacité d'accéder à des métadonnées riches[00: 03: 34.721]
et tout aussi important avec une gouvernance intégrée[00: 03: 37.500]
et accès sécurisé.[00: 03: 40.150]
Maintenant le sommet de cette pyramide,[00: 03: 41.860]
Les développeurs se situent au sommet d'une montagne de technologie[00: 03: 45.110]
abstrait dans la réutilisation qui leur permet de se concentrer[00: 03: 47.970]
sur la conception d’expériences utilisateur convaincantes.[00: 03: 51.580]
Ce qui signifie développement[00: 03: 53.050]
n'est plus limité par la technologie.[00: 03: 55.519]
Ok, maintenant que vous avez vu l'architecture,[00: 03: 57.850]
Voyons à quoi ressemblent les applications multi-expériences[00: 04: 00.480]
et comment ils sont construits.[00: 04: 02.580]
Maintenant pour le reste de cette session,[00: 04: 03.661]
nous allons suivre un client[00: 04: 05.830]
à travers un parcours d'achat d'une voiture,[00: 04: 07.510]
de la commande à la livraison[00: 04: 09.465]
avec un petit hic en cours de route.[00: 04: 12.900]
Commençons par rechercher et acheter la voiture,[00: 04: 14.880]
qui implique une combinaison d'applications Web progressives,[00: 04: 17.296]
chatbots, réalité augmentée,[00: 04: 19.890]
et tirer parti des applications mobiles natives[00: 04: 22.060]
et leurs fonctionnalités d'appareil sont toutes intégrées Mendix.[00: 04: 25.900]
Le parcours client commence ici[00: 04: 27.370]
avec cette application Web progressive.[00: 04: 28.780]
Il est réactif et fonctionne donc sur n'importe quel format[00: 04: 31.410]
et c'est rapide car la plupart des applications[00: 04: 33.830]
s'exécute localement sur l'appareil.[00: 04: 36.054]
Désormais, au lieu d'appeler ou d'envoyer un e-mail au concessionnaire,[00: 04: 38.692]
la prochaine expérience est un chatbot en ligne[00: 04: 41.280]
pour planifier un essai routier à 3h00[00: 04: 43.820]
En utilisant une combinaison des deux types de saisie[00: 04: 45.600]
et des capacités de conversion de la voix en texte.[00: 04: 48.510]
Maintenant, après l'essai routier,[00: 04: 49.411]
le client utilise la réalité augmentée pour configurer sa voiture[00: 04: 53.160]
en superposant différentes couleurs de peinture et de jantes[00: 04: 56.410]
parce que les concessionnaires ont rarement en stock[00: 04: 58.017]
chaque combinaison de couleurs.[00: 05: 02.180]
En décidant d'acheter la voiture, le client exploite[00: 05: 04.680]
la puissance des services de localisation des téléphones[00: 05: 07.060]
pour renseigner leur adresse[00: 05: 08.440]
et utilise un scanner de carte de crédit[00: 05: 09.743]
pour renseigner leurs informations de carte de crédit sans rien saisir.[00: 05: 15.070]
Et enfin, entre les pauses publicitaires,[00: 05: 17.336]
le client utilise une application TV native[00: 05: 19.820]
pour vérifier l'état de leur voiture[00: 05: 21.690]
au fur et à mesure qu'il passe par les différentes étapes[00: 05: 23.326]
du processus de fabrication.[00: 05: 26.460]
Donc, à ce stade-là,[00: 05: 27.293]
Je vais laisser Simon partager avec nous[00: 05: 29.610]
comment il a utilisé Mendix pour construire certaines de ces expériences.[00: 05: 33.200]
Simon.[00: 05: 34.410]
Merci, Dave.[00: 05: 35.680]
Dans mes sections, je vais approfondir[00: 05: 38.070]
sur la façon dont ces expériences[00: 05: 39.590]
ont été construits en utilisant le Mendix[00: 05: 41.830]
Dans cette section, nous couvrirons[00: 05: 43.190]
comment nous avons construit l'expérience du chatbot en utilisant AWS Lex,[00: 05: 47.300]
Comment nous avons construit l'expérience AR[00: 05: 49.580]
en utilisant notre plateforme React Native,[00: 05: 51.520]
et enfin comment nous avons construit l'expérience[00: 05: 54.010]
pour notre Fire TV Stick up.[00: 05: 56.730]
Voyons maintenant comment ces expériences sont construites.[00: 05: 59.680]
Tout d’abord, à l’intérieur de cette application Web progressive,[00: 06: 02.660]
nous pouvons acheter un certain nombre de véhicules,[00: 06: 04.399]
mais aussi poser certaines questions[00: 06: 06.690]
en utilisant cette fonctionnalité de chatbot ici.[00: 06: 09.170]
Ce chatbot particulier utilise AWS Lex[00: 06: 11.790]
comme moteur de chatbot.[00: 06: 13.750]
Et nous pouvons le configurer pour utiliser un certain nombre de dialogues[00: 06: 16.908]
et comprendre ce que notre client lui demande.[00: 06: 20.210]
Nous pouvons également ajouter certaines données contextuelles[00: 06: 22.160]
à partir de notre Mendix .[00: 06: 24.500]
La façon dont nous formons ces robots consiste à utiliser le formateur de robots[00: 06: 27.830]
à l'intérieur de l'interface AWS Lex ici.[00: 06: 30.710]
Et tous les robots fonctionnent de manière similaire.[00: 06: 33.150]
Vous les construisez à l’aide d’intentions, d’emplacements et d’entités.[00: 06: 37.520]
Une intention est quelque chose que vous voulez que le bot fasse.[00: 06: 40.570]
Et ici, nous avons un certain nombre de robots que nous avons créés,[00: 06: 43.600]
mais nous avons prévu un essai routier,[00: 06: 45.700]
celui que nous avons montré dans cette vidéo plus tôt.[00: 06: 48.570]
Donc ici, nous pouvons voir que nous avons l’intention de prendre rendez-vous,[00: 06: 51.642]
et avec cela, nous devons lui donner un certain nombre d'expressions.[00: 06: 55.280]
Essentiellement, un énoncé est une phrase,[00: 06: 57.420]
un exemple de phrase sur laquelle nous voulons entraîner ce bot.[00: 07: 00.500]
Il reconnaîtra ces modèles[00: 07: 02.430]
et déclencher une action basée sur cette intention particulière.[00: 07: 05.888]
Nous pouvons également sélectionner certaines données clés[00: 07: 08.193]
de cette déclaration particulière.[00: 07: 09.950]
Donc des choses comme le type de réservation, l'heure[00: 07: 12.550]
et aussi la voiture que nous voulons réserver.[00: 07: 15.930]
Ainsi, tous les chatbots fonctionnent de manière très similaire[00: 07: 18.710]
et nous vous en montrerons plus[00: 07: 19.710]
au fur et à mesure que nous progressons dans ces manifestations.[00: 07: 22.810]
Alors, tout d’abord, nous pouvons voir ici que nous avons le type de réservation,[00: 07: 25.610]
le modèle de voiture, la date/heure,[00: 07: 27.490]
et ceux-ci sont stockés dans les valeurs d'emplacement.[00: 07: 29.300]
Ce sont les choses que nous voulons garder et stocker[00: 07: 31.690]
à l'intérieur de notre application.[00: 07: 33.170]
Parce que le chatbot est très bête.[00: 07: 34.910]
En fait, il ne stocke aucune donnée,[00: 07: 37.400]
il agit simplement sur certaines informations[00: 07: 39.290]
et le renvoie au demandeur.[00: 07: 41.917]
Alors allons-y et jetons un oeil[00: 07: 44.240]
à la façon dont cela est construit à l'intérieur du Mendix .[00: 07: 47.500]
Alors ici, nous avons le Mendix modèle pour notre application[00: 07: 49.907]
et nous avons d'abord notre application Web progressive[00: 07: 51.950]
où l'on peut voir les différents détails.[00: 07: 53.800]
Et nous avons aussi un microflux[00: 07: 56.033]
qui est utilisé pour envoyer les données[00: 07: 58.350]
à ce service Lex particulier.[00: 08: 00.600]
Maintenant, cela utilise le connecteur AWS Lex[00: 08: 02.820]
disponible dans le Mendix magasin d'applications.[00: 08: 04.890]
Et à l'intérieur de ce connecteur particulier,[00: 08: 06.870]
vous pouvez configurer les clés et les identités[00: 08: 09.870]
ainsi que l'énoncé[00: 08: 10.883]
que nous allons envoyer à ce chatbot particulier.[00: 08: 14.970]
Et comme je l’ai dit, cette déclaration est comme un message.[00: 08: 17.015]
Donc il interprétera ce message[00: 08: 18.850]
et revenez avec une réponse.[00: 08: 20.670]
Et à l’intérieur de cette réponse, il y aura un certain nombre d’emplacements.[00: 08: 24.210]
C'est ainsi que nous stockons les valeurs réelles,[00: 08: 26.610]
les informations comme l'heure, la date,[00: 08: 28.607]
et aussi le type de voiture.[00: 08: 30.830]
Et nous les stockons à l'intérieur du Mendix application[00: 08: 33.040]
afin que nous puissions nous souvenir de cette conversation[00: 08: 36.040]
et nous pouvons également créer cette réservation.[00: 08: 40.360]
À l'intérieur de l'interface utilisateur de cette application pour ce chatbot,[00: 08: 42.950]
nous avons simplement utilisé une vue de liste.[00: 08: 45.130]
Et à l'intérieur de cette vue de liste,[00: 08: 46.150]
nous pouvons présenter tous ces messages que nous avons envoyés[00: 08: 49.050]
et également reçu de ce chatbot.[00: 08: 52.060]
Alors très rapidement, voilà un aperçu[00: 08: 54.110]
quant à la manière dont nous avons construit cette intégration.[00: 08: 56.038]
Jetons un œil à notre prochaine intégration,[00: 08: 58.600]
qui consistait à construire une expérience AR.[00: 09: 01.760]
Pour ce faire, nous avons en fait utilisé une bibliothèque[00: 09: 04.560]
c'est disponible pour React Native.[00: 09: 06.770]
Cela s'appelle ViroReact.[00: 09: 08.602]
Et ViroReact vous permet de créer des expériences VR et AR[00: 09: 12.840]
en exploitant les capacités AR de l'appareil,[00: 09: 15.790]
que ce soit ARCore ou ARKit.[00: 09: 19.757]
Et en utilisant cela,[00: 09: 21.000]
nous pouvons réellement commencer à construire ces visualisations.[00: 09: 23.890]
Et la façon dont nous avons fait cela est à l'intérieur du modeleur,[00: 09: 26.229]
nous avons créé quelques widgets personnalisés.[00: 09: 29.195]
À l'intérieur de ces widgets,[00: 09: 30.770]
ils nous permettent de mettre en place certains marqueurs à suivre.[00: 09: 34.940]
Nous avons donc ici un widget de suivi.[00: 09: 39.381]
Et à l'intérieur de ce widget de suivi particulier,[00: 09: 41.630]
nous pouvons définir une image particulière que nous voulons utiliser pour identifier[00: 09: 45.183]
et placez l'objet dans un espace 3D.[00: 09: 48.510]
Donc ici, nous pouvons voir que nous pouvons sélectionner l’image.[00: 09: 51.060]
Et dans ce cas, nous allons utiliser un Mendix logo.[00: 09: 53.650]
Cela a des caractéristiques uniques,[00: 09: 56.280]
afin que nous puissions l'identifier facilement dans l'espace 3D.[00: 10: 00.530]
Nous pouvons également définir certaines propriétés telles que les actions[00: 10: 03.410]
à déclencher lorsque nous détectons certains éléments[00: 10: 05.950]
dans l'espace 3D.[00: 10: 08.948]
À l'intérieur de ce widget enfichable,[00: 10: 11.040]
nous avons ensuite un certain nombre de widgets supplémentaires[00: 10: 13.300]
pour montrer les objets, et dans ce cas l'objet est une voiture[00: 10: 17.220]
et un certain nombre de sphères[00: 10: 18.053]
et les sphères sont les icônes que nous avons vues[00: 10: 19.610]
en haut de cette voiture particulière pour changer la couleur.[00: 10: 23.038]
Si nous approfondissons l'objet,[00: 10: 24.750]
nous pouvons sélectionner le matériau qui est utilisé,[00: 10: 27.039]
nous pouvons choisir l'interaction[00: 10: 28.785]
et aussi les événements qui sont utilisés[00: 10: 30.870]
lorsque nous interagissons réellement avec cet élément particulier.[00: 10: 34.430]
Ainsi, lorsque le tracker détecte ce marqueur particulier,[00: 10: 38.050]
il faudra cet objet particulier[00: 10: 40.240]
et placez-le dans l'espace 3D.[00: 10: 42.380]
Nous pouvons alors interagir avec lui, nous promener autour de lui,[00: 10: 44.446]
et nous pouvons également en tirer davantage d’informations.[00: 10: 49.940]
C'est donc un moyen très puissant de pouvoir prévisualiser[00: 10: 53.300]
et regardez certains biens comme une voiture[00: 10: 55.840]
ou un autre produit tel que l'ampoule,[00: 10: 57.910]
pouvoir interagir avec elle[00: 10: 59.320]
sans l'avoir réellement acheté au préalable.[00: 11: 02.930]
Passons maintenant à notre prochaine expérience.[00: 11: 04.770]
La dernière que nous avons montrée était une application TV[00: 11: 08.100]
exécuté sur un Fire TV Stick.[00: 11: 10.010]
Et en fait, cette interaction particulière[00: 11: 13.100]
et cet appareil particulier est très facile à intégrer.[00: 11: 18.420]
Et c’est parce que l’application est construite avec Android.[00: 11: 23.760]
Ainsi, toutes les applications déployées sur un Fire TV Stick[00: 11: 27.400]
fonctionner sur la plateforme Android.[00: 11: 29.408]
Et parce que le Mendix Créez une application native[00: 11: 32.197]
se déploie sur Android,[00: 11: 34.210]
nous pouvons simplement l'installer sur le Fire TV Stick.[00: 11: 37.520]
Et pour ce faire, il nous suffit d’utiliser ce guide ici.[00: 11: 40.530]
Ce guide utilise ADB, qui est le système de débogage Android,[00: 11: 45.380]
qui vous permet de vous connecter à un appareil[00: 11: 47.440]
sur votre réseau local et installez certaines applications.[00: 11: 51.160]
Donc tout ce que nous avons fait, c'est créer notre Fire TV Stick[00: 11: 53.410]
disponible sur notre réseau[00: 11: 55.210]
et en utilisant quelques commandes,[00: 11: 57.190]
nous pourrions l'installer sur cet appareil particulier.[00: 12: 01.500]
Maintenant, la façon dont nous avons construit cette application particulière[00: 12: 03.970]
ce n'est rien d'extraordinaire.[00: 12: 05.850]
Tout ce que nous avions à faire était de créer une application native[00: 12: 08.500]
dans une application séparée ici.[00: 12: 10.440]
Et ici nous avons le carrousel que nous avons vu plus tôt.[00: 12: 13.020]
Ainsi, l'utilisateur a pu voir des images[00: 12: 14.829]
quant à l’étape de production à laquelle ils se trouvaient,[00: 12: 18.020]
et ils peuvent les parcourir en utilisant leurs boutons[00: 12: 20.603]
sur leur Fire TV Stick particulier.[00: 12: 25.560]
Il y avait cependant une chose que nous devions changer.[00: 12: 27.810]
Le Fire TV Stick fonctionne sur un téléviseur particulier,[00: 12: 31.550]
et c'est une vue de paysage.[00: 12: 34.110]
Nous devions nous assurer que[00: 12: 35.740]
au lieu d'ouvrir l'application en mode portrait,[00: 12: 38.270]
nous avons dû l'ouvrir en paysage.[00: 12: 40.460]
Donc pour le faire c'est très simple.[00: 12: 42.360]
À l'intérieur de l'application, nous avons une option[00: 12: 46.880]
pour pouvoir le configurer à l'orientation de l'écran.[00: 12: 49.820]
Ceci est le code derrière l'application native[00: 12: 52.750]
que nous avons construit pour ce Fire TV Stick en particulier.[00: 12: 56.157]
Et ceci est basé sur le modèle de base[00: 12: 58.080]
disponible depuis la plateforme.[00: 12: 59.960]
Et tout ce que nous avons configuré est cette option ici[00: 13: 02.720]
pour le passer du mode portrait au mode paysage.[00: 13: 04.639]
Cela permet de garantir que lorsque nous ouvrons l'application,[00: 13: 08.070]
il ne s'ouvre pas d'abord en mode portrait[00: 13: 10.010]
et puis retournez-le en paysage.[00: 13: 11.700]
Cela nous permet de l'ouvrir[00: 13: 13.200]
et ça passe d'abord en mode paysage.[00: 13: 15.950]
Donc, en changeant quelques configurations comme celle-ci,[00: 13: 19.290]
cela nous donne un autre profil d'appareil,[00: 13: 21.324]
une autre expérience pour l'utilisateur[00: 13: 23.510]
que nous n’aurions peut-être même pas envisagé au préalable.[00: 13: 27.044]
Donc, au cours des dernières minutes,[00: 13: 28.640]
nous avons vu une démonstration de la façon dont nous pouvons utiliser AWS Lex[00: 13: 32.410]
communiquer avec un chatbot.[00: 13: 34.880]
Nous avons ensuite vu une expérience AR sur notre mobile natif,[00: 13: 39.460]
et l'expérience finale est que nous avons vu une application TV[00: 13: 42.292]
en utilisant la plateforme nature de Mendix[00: 13: 45.000]
et le déploiement sur un Fire TV Stick.[00: 13: 48.470]
Alors, je vais maintenant passer la parole à Dave.[00: 13: 50.650]
qui va t'emmener dans le prochain voyage[00: 13: 52.630]
de notre parcours client.[00: 13: 55.360]
Très bien, Simon, merci.[00: 13: 56.500]
Très impressionnant.[00: 13: 57.520]
Passons à la phase suivante[00: 13: 59.410]
où le client découvre[00: 14: 01.210]
qu'il y a un problème avec leur commande,[00: 14: 02.850]
et maintenant ils doivent parler à un agent pour résoudre le problème.[00: 14: 06.940]
Donc dans cette prochaine expérience,[00: 14: 08.190]
le client reçoit un SMS automatisé[00: 14: 10.510]
et une notification push[00: 14: 11.601]
qu'un délai de fabrication est nécessaire[00: 14: 14.606]
et cela nécessite leur attention immédiate.[00: 14: 18.790]
Alors ce qu'ils font, ils décident d'appeler le service client[00: 14: 21.470]
et ils sont effectivement accueillis par un agent virtuel.[00: 14: 24.090]
Écoutons po[00: 14: 32.830]
Bonjour,[00: 14: 33.670]
Bienvenue au service client Tesla.[00: 14: 35.630]
Comment puis-je vous aider aujourd'hui?[00: 14: 37.276]
J'aimerais connaître l'état de ma commande.[00: 14: 39.750]
Aucun problème.[00: 14: 40.670]
Pouvez-vous me dire votre numéro de commande[00: 14: 42.380]
alors je peux vérifier ça pour toi ?[00: 14: 44.340]
1086.[00: 14: 45.640]
Votre commande 1086[00: 14: 48.070]
est actuellement en phase de fabrication du châssis[00: 14: 50.850]
et je passerai bientôt à la fabrication de carrosseries.[00: 14: 53.510]
Veux-tu que je te pousse à passer à travers[00: 14: 54.720]
à un membre de notre équipe qui peut vous aider davantage ?[00: 14: 56.883]
Oui s'il vous plait.[00: 14: 58.500]
Ce n'est pas un problème du tout.[00: 14: 59.484]
Je vous mets maintenant en relation avec un membre de notre équipe[00: 15: 02.437]
qui a été informé de vos coordonnées, veuillez patienter.[00: 15: 05.599]
(musique entraînante)[00: 15: 06.432]
(la tonalité de numérotation retentit)[00: 15: 08.120]
Bonjour, Monsieur Black.[00: 15: 08.953]
Il s’agit du service client de Tesla.[00: 15: 10.400]
Je m'appelle Allister, comment puis-je vous aider aujourd'hui ?[00: 15: 13.040]
Donc l'agent virtuel[00: 15: 13.873]
a rassemblé avec succès toutes les informations[00: 15: 16.200]
nécessaire pour diriger l'appelant vers la personne appropriée[00: 15: 19.070]
et préparez cet employé à l’appel.[00: 15: 22.430]
À partir de là, l’agent a pu résoudre le problème.[00: 15: 25.290]
Alors à ce stade, je vais laisser Simon reprendre le contrôle[00: 15: 27.910]
afin qu'il puisse vous montrer comment construire[00: 15: 29.500]
une application d'agent virtuel avec Mendix.[00: 15: 32.430]
Simon, je reviens à toi.[00: 15: 34.460]
Merci, Dave.[00: 15: 35.293]
Ce que nous avons vu là-bas, c'est un client qui interagit avec un robot[00: 15: 39.930]
en utilisant la reconnaissance vocale.[00: 15: 41.970]
Ce bop particulier a été formé[00: 15: 43.531]
en utilisant le service de dialogue Twilio.[00: 15: 46.420]
À l'intérieur de Twilio, nous pouvons former et créer un certain nombre de tâches.[00: 15: 50.920]
Ces tâches sont comme des intentions,[00: 15: 52.660]
que nous avons vu dans notre interface AWS Lex.[00: 15: 56.590]
À partir de là, nous pouvons l’entraîner sur un certain nombre d’échantillons[00: 15: 59.696]
et ces échantillons sont comme des paroles,[00: 16: 02.040]
le même que celui que nous avions dans notre interface AWS Lex.[00: 16: 05.750]
Exemples de mots et de phrases que nous souhaitons déclencher.[00: 16: 11.370]
À l'intérieur de chacun d'eux,[00: 16: 12.250]
nous avons également la capacité de programmer ce qui se passe[00: 16: 15.370]
lorsque ces mots clés et phrases particuliers sont déclenchés.[00: 16: 19.370]
Et puis dans ce cas, nous faisons une redirection vers une URL.[00: 16: 22.587]
Et cette URL est un service hébergé sur un Mendix .[00: 16: 27.450]
Donc tout ce que nous avons fait, c'est publier une API REST[00: 16: 30.350]
du Mendix l'application,[00: 16: 31.724]
qui sera appelé et exécuté[00: 16: 34.390]
lorsque ces peines particulières sont prononcées.[00: 16: 38.060]
Passons maintenant au modèle[00: 16: 39.910]
et voyez comment cette expérience se construit.[00: 16: 43.340]
À l'intérieur du modèle de cette application,[00: 16: 45.130]
nous pouvons voir ici, nous avons cette API REST[00: 16: 47.010]
qui a été publié.[00: 16: 48.617]
À l’intérieur de cet appel d’API particulier, nous avons un microflux.[00: 16: 52.670]
Et ce flux de micro est exécuté[00: 16: 54.710]
chaque fois que nous recevons cet appel d'API.[00: 16: 57.980]
Dans ce microflux particulier, nous avons un certain nombre d’étapes,[00: 17: 00.250]
qui reprend votre tâche actuelle, les informations[00: 17: 03.204]
et puis finalement, il faut prendre beaucoup de décisions[00: 17: 05.753]
autour de l'endroit où il devrait diriger le client[00: 17: 08.630]
en fonction des informations spécifiques qu'il reçoit.[00: 17: 12.020]
Nous aurions maintenant pu créer plusieurs points de terminaison d'API différents[00: 17: 15.360]
en fonction du type d'interaction,[00: 17: 18.048]
mais nous voulions un microflux central[00: 17: 20.140]
afin que nous puissions vous montrer[00: 17: 21.360]
la complexité de la logique qui se déroule[00: 17: 23.760]
dans les coulisses du Mendix .[00: 17: 27.100]
Donc dans ce cas,[00: 17: 27.933]
il détecte si une redirection est nécessaire ou non.[00: 17: 31.280]
Et si une redirection est nécessaire, que fera-t-elle ?[00: 17: 33.880]
il renverra ensuite une réponse client à Twilio[00: 17: 37.136]
pour les rediriger vers un certain numéro.[00: 17: 40.780]
Donc, dans notre scénario, nous avons été redirigés vers Allister[00: 17: 44.060]
dans l'équipe du service client,[00: 17: 45.910]
qui a pu alors nous aider et commencer à résoudre le problème.[00: 17: 49.425]
Et pour ce faire, nous avons effectivement renvoyé du XML.[00: 17: 53.380]
Cette structure XML définit quel numéro de téléphone[00: 17: 57.050]
nous avons besoin que vous composiez le numéro pour parler réellement au client.[00: 18: 00.714]
Et nous pouvons faire toutes les choses à l’intérieur de ce XML.[00: 18: 03.010]
C'est une structure très courante.[00: 18: 05.235]
AWS utilise une structure similaire où vous pouvez l'intégrer[00: 18: 08.840]
avec des informations plus riches en contenu,[00: 18: 11.280]
des choses comme des numéros de téléphone, des images, des audios, etc.[00: 18: 16.200]
Pour les autres messages, nous utilisons simplement du texte brut[00: 18: 18.910]
pour interagir avec ceux-là.[00: 18: 23.360]
Nous avons donc vu au cours des dernières minutes,[00: 18: 25.300]
un aperçu de la manière dont nous avons géré ces conversations.[00: 18: 29.640]
Nous avons utilisé le pilote automatique de Twilio[00: 18: 31.860]
pour pouvoir gérer ces conversations[00: 18: 34.610]
et reconnaître ces énoncés clés,[00: 18: 37.060]
et ensuite les remettre à Mendix pour obtenir les informations clés[00: 18: 40.800]
comme le statut de la commande et d’autres informations.[00: 18: 45.550]
Alors revenons à Dave maintenant[00: 18: 47.270]
pour notre dernière partie du parcours client.[00: 18: 50.180]
Merci, Simon.[00: 18: 51.013]
Au cours de la dernière partie du parcours de l'acheteur,[00: 18: 53.790]
nous allons examiner quelques expériences différentes utilisées[00: 18: 56.870]
pendant que la voiture est en livraison.[00: 18: 58.648]
Reprenons avec le client qui demande à Alexa[00: 19: 01.450]
pour une mise à jour de statut.[00: 19: 03.580]
Alors Alexa demande à la voiture connectée le statut de ma commande.[00: 19: 10.000]
Si vous me faites connaître votre numéro de commande,[00: 19: 12.020]
Je peux vérifier le statut pour vous.[00: 19: 14.644]
1086.[00: 19: 18.320]
Votre voiture a été construite[00: 19: 20.057]
et est prêt à être livré.[00: 19: 21.960]
Il sera chez vous à 3h13[00: 19: 25.600]
Maintenant, lorsque le chauffeur arrive chez le client,[00: 19: 27.650]
ils utilisent une application mobile native[00: 19: 29.440]
parcourir une liste de contrôle pour libérer la voiture.[00: 19: 32.745]
Les applications natives sont parfaites[00: 19: 35.040]
pour quand les travailleurs ont besoin d'interagir[00: 19: 36.430]
avec les clients face à face.[00: 19: 38.180]
Ils peuvent capturer des preuves photographiques[00: 19: 39.658]
d'une livraison réussie,[00: 19: 41.169]
ou malheureusement cataloguer des dommages[00: 19: 43.887]
afin qu'un problème puisse être résolu le plus rapidement possible.[00: 19: 48.250]
L'application native élimine les processus papier[00: 19: 50.530]
en capturant numériquement toutes ces informations,[00: 19: 53.100]
y compris la signature du client[00: 19: 54.920]
une fois qu'ils sont satisfaits de la livraison.[00: 19: 58.097]
Bon, pour une dernière fois je passe le contrôle à Simon.[00: 20: 01.030]
Il va vous montrer comment il a utilisé Mendix[00: 20: 02.940]
pour construire l'application Alexa et l'application mobile native.[00: 20: 06.330]
Alors Simon, je reviens à toi.[00: 20: 09.410]
Merci, Dave.[00: 20: 10.300]
Dans cette prochaine section, nous allons examiner[00: 20: 11.900]
comment nous avons construit cette intégration dans notre appareil Alexa.[00: 20: 16.460]
Pour créer une intégration avec Alexa,[00: 20: 18.390]
Vous devez d’abord développer une compétence.[00: 20: 20.159]
Une compétence est comme une application sur l'outil d'applications[00: 20: 23.000]
mais c'est personnalisé pour Alexa.[00: 20: 25.130]
Il utilise la voix plutôt que le toucher pour l'interaction.[00: 20: 29.480]
Ici, nous avons une compétence que nous avons créée[00: 20: 31.360]
pour notre voyage en voiture connectée.[00: 20: 33.300]
Et si nous approfondissons cela, nous pouvons commencer à le configurer[00: 20: 35.776]
pour répondre à nos besoins particuliers.[00: 20: 40.260]
A l’intérieur, nous avons tout d’abord un mot d’invocation.[00: 20: 43.890]
C'est le mot clé ou le nom de la compétence[00: 20: 46.400]
que vous souhaitez donner à cette compétence particulière.[00: 20: 49.230]
Et cela va se déclencher[00: 20: 50.245]
quand vous demandez à Alexa de faire quelque chose.[00: 20: 54.120]
Ensuite, nous avons le modèle d’interaction.[00: 20: 56.740]
Et encore une fois, vous pouvez voir des principes très similaires ici[00: 21: 00.720]
à la façon dont nous nous en sortions avec AWS Lex.[00: 21: 03.310]
Nous pouvons utiliser certaines intentions, les entraîner sur certaines expressions[00: 21: 07.060]
et récupérer certains créneaux horaires.[00: 21: 09.940]
Alors ici, nous pouvons voir le dialogue particulier[00: 21: 12.740]
pour notre statut pour notre commande.[00: 21: 15.100]
Nous pouvons lui donner quelques expressions,[00: 21: 16.220]
certaines données d'emplacement que nous souhaitons capturer,[00: 21: 19.000]
et cela peut alors être déclenché[00: 21: 20.300]
à l'intérieur de notre Mendix .[00: 21: 23.770]
Donc vraiment, tant que tu sais[00: 21: 26.050]
comment construire un type de chatbot ou une interface de chat,[00: 21: 30.330]
vous pouvez très facilement passer à d'autres types de plateformes.[00: 21: 33.487]
Ils ont quelques différences dans les outils de fente,[00: 21: 35.510]
mais vous pouvez voir qu'il y a beaucoup de similitudes[00: 21: 37.398]
à travers eux.[00: 21: 40.315]
Dans les informations Alexa ici,[00: 21: 43.010]
nous pouvons également définir un point final.[00: 21: 45.080]
Et le point final est là où nous sommes réellement[00: 21: 45.913]
je vais récupérer ces données.[00: 21: 48.540]
Ainsi, lorsque nous déclenchons une certaine intention,[00: 21: 50.800]
nous voulons ensuite pouvoir le traiter[00: 21: 52.680]
en utilisant cela Mendix .[00: 21: 55.550]
Alors allons à l'intérieur de ce modèle[00: 21: 57.220]
et regardez comment cela est mis en œuvre.[00: 22: 00.730]
Nous ouvrons donc le même modèle que notre exemple Twilio.[00: 22: 05.090]
Nous pouvons alors commencer à voir les informations[00: 22: 07.168]
depuis notre appareil Alexa.[00: 22: 09.550]
Donc ici, nous enregistrons effectivement certains identifiants[00: 22: 12.620]
à ces fins.[00: 22: 14.380]
Donc, dans le flux après le démarrage,[00: 22: 16.190]
lorsque nous démarrons notre application,[00: 22: 18.110]
nous pouvons ensuite déclencher et définir certaines informations et intentions[00: 22: 22.298]
se déclencher[00: 22: 23.450]
quand nous voyons réellement cette intention particulière.[00: 22: 26.100]
Donc dans ce cas, lorsque nous voyons le statut de l'intention,[00: 22: 28.440]
cela déclenchera ce microflux particulier.[00: 22: 30.920]
Maintenant, celui que nous avons montré dans l'exemple[00: 22: 32.470]
c'était pour un statut pour notre commande.[00: 22: 35.127]
Et à l’intérieur de ce microflux particulier,[00: 22: 37.480]
nous pouvons voir que nous pouvons obtenir les informations sur la demande[00: 22: 40.156]
et nous pouvons également obtenir des informations à partir des emplacements,[00: 22: 43.280]
donc les données réelles que nous voulons capturer.[00: 22: 45.150]
Et dans ce cas, c'est le numéro de commande réel[00: 22: 47.070]
c'est important.[00: 22: 48.530]
Nous voulons pouvoir capturer à qui appartient la commande,[00: 22: 51.660]
regarde-le dans le Mendix application[00: 22: 53.980]
et répondez à ce chatbot particulier et à Alexa[00: 22: 58.920]
avec les informations dont nous avons besoin.[00: 23: 01.840]
Donc ici, nous pouvons voir que nous avons un chèque[00: 23: 04.130]
pour voir si le numéro de commande a été trouvé ou non.[00: 23: 05.900]
Et s'il est trouvé,[00: 23: 07.604]
nous y répondrons avec un certain message.[00: 23: 11.630]
Nous pouvons donc voir ici que nous avons des options conditionnelles[00: 23: 15.110]
en fonction du statut de notre commande.[00: 23: 17.520]
Donc si la commande est retardée,[00: 23: 19.180]
alors nous leur enverrons un certain message.[00: 23: 21.830]
S'il s'agit d'une phase de finalisation ou de fabrication,[00: 23: 24.730]
nous enverrons un message différent.[00: 23: 27.070]
Vous pouvez donc vraiment personnaliser ces expériences[00: 23: 29.730]
et ces messages que vous fournissez à vos utilisateurs.[00: 23: 33.280]
Et encore une fois, comme nous l'avions fait pour Twillio,[00: 23: 35.730]
vous pouvez répondre en texte brut ou avec SSML.[00: 23: 40.020]
Et SSML est une structure de format XML[00: 23: 42.974]
qui vous permet d'intégrer de l'audio, des images[00: 23: 45.840]
et des informations supplémentaires sur votre appareil Alexa[00: 23: 49.480]
parce que certains appareils supplémentaires ont des écrans.[00: 23: 51.290]
Donc si vous regardez le show Alexa,[00: 23: 53.274]
vous pouvez réellement afficher des informations[00: 23: 55.006]
et également lire l'audio en même temps.[00: 24: 00.870]
C'est donc un connecteur très simple à utiliser.[00: 24: 03.140]
Vous pouvez simplement télécharger ce connecteur[00: 24: 04.715]
dans votre application,[00: 24: 06.310]
et cela utilise en fait le SDK AWS pour Java[00: 24: 10.470]
et utilise ces services et API[00: 24: 12.840]
pour pouvoir communiquer avec eux.[00: 24: 16.770]
Alors regardons notre prochaine expérience,[00: 24: 18.900]
c'est ainsi que nous avons construit l'application native[00: 24: 22.300]
pour nos chauffeurs de livraison de services sur le terrain ?[00: 24: 24.910]
Et encore une fois, c'était une application différente[00: 24: 26.940]
et un module différent.[00: 24: 28.297]
Et ce que nous avions tendance à faire pour toutes ces expériences,[00: 24: 31.280]
nous avons essayé de les faire sortir[00: 24: 32.113]
dans la plus petite application possible[00: 24: 34.473]
et partager des données entre eux.[00: 24: 36.990]
C'est un point vraiment essentiel du MXDP[00: 24: 39.330]
est-ce que votre utilisateur devrait pouvoir[00: 24: 41.750]
pour parcourir en toute transparence différentes applications,[00: 24: 44.602]
mais aussi des expériences différentes.[00: 24: 47.940]
Donc, à l'intérieur de ce modèle, nous utilisons réellement des données[00: 24: 51.510]
qui est exposé à partir de ces systèmes depuis Data Hub.[00: 24: 55.440]
Et il y a des séances[00: 24: 56.410]
qui vont couvrir ce qu'est Data Hub.[00: 24: 59.070]
Mais à l'intérieur de ce modèle, vous verrez trois entités colorées.[00: 25: 03.710]
La première entité est constituée de ces entités grises ici.[00: 25: 06.760]
Et ce sont ce qu’on appelle des entités virtuelles.[00: 25: 09.040]
Ceux-ci ne sont pas stockés dans le Mendix .[00: 25: 11.460]
Ceux-ci sont simplement récupérés à partir du système source,[00: 25: 14.200]
qu'il s'agisse d'OData, SQL, GraphQL.[00: 25: 17.610]
L'idée est que ceux-ci peuvent être interrogés de manière dynamique[00: 25: 20.670]
sur n'importe quelle page ou n'importe quelle interface[00: 25: 23.030]
que ce soit en natif ou sur le web.[00: 25: 25.480]
Et cela vous permet de combiner ces données ensemble[00: 25: 27.780]
pour construire de nouvelles expériences[00: 25: 29.240]
et partager des données à travers différentes modalités[00: 25: 32.270]
et des expériences différentes.[00: 25: 37.280]
Donc, à l'intérieur de cette application,[00: 25: 38.580]
c'était une application mobile native très simple.[00: 25: 41.580]
Nous avons eu quelques expériences[00: 25: 42.850]
où nous pourrions consulter les prochains rendez-vous,[00: 25: 45.790]
nous pouvions voir les tâches que nous devions accomplir.[00: 25: 48.860]
Mais certains des éléments intéressants[00: 25: 50.010]
il y avait des choses comme si nous pouvions scanner des codes-barres[00: 25: 52.490]
pour pouvoir vérifier[00: 25: 53.490]
que le numéro VIN était correct pour la voiture,[00: 25: 55.908]
en plus de pouvoir faire des signatures natives.[00: 25: 58.660]
Donc, en utilisant un widget de signature,[00: 26: 00.600]
nous pouvons interagir avec cet utilisateur particulier[00: 26: 03.440]
et demandez-leur de confirmer[00: 26: 04.620]
qu'ils ont reçu ce véhicule particulier.[00: 26: 09.661]
Donc, au cours des dernières minutes, j'ai parcouru très rapidement[00: 26: 13.040]
quelques-unes des expériences que nous avons construites[00: 26: 15.050]
en utilisant la fonction Mendix par l’IA.[00: 26: 16.820]
et vous a donné un avant-goût de ce qui est réellement possible[00: 26: 19.373]
quand tu pousses Mendix au bord[00: 26: 22.740]
et être capable d'en exploiter toute la complexité[00: 26: 26.140]
et plein potentiel.[00: 26: 27.928]
Je vais maintenant céder la parole à Dave pour nos remarques finales.[00: 26: 31.119]
et conclure cette session particulière.[00: 26: 33.540]
Merci Simon, excellent travail comme d'habitude.[00: 26: 35.470]
Donc, au cours des 20 dernières minutes,[00: 26: 37.310]
nous avons démontré[00: 26: 38.580]
à quoi peut ressembler un parcours client multi-expérience[00: 26: 41.160]
si tu utilises Mendix,[00: 26: 42.346]
nous utilisons des PWA, des chatbots, des agents virtuels,[00: 26: 45.930]
applications mobiles natives, réalité augmentée,[00: 26: 48.240]
Applications TV, assistants virtuels,[00: 26: 50.590]
même une application conversationnelle Alexa.[00: 26: 53.560]
Alors ça, mon ami[00: 26: 54.393]
voilà à quoi ressemble l’avenir du développement.[00: 26: 57.300]
Alors, en allant de l'avant, vous irez bien au-delà[00: 26: 59.690]
simplement vos applications Web et mobiles typiques.[00: 27: 02.900]
En fait, Gartner prédit que d’ici 2024,[00: 27: 05.810]
une entreprise sur trois utilisera un MXDP[00: 27: 08.950]
pour accélérer la vitesse de fusion des équipes informatiques et commerciales[00: 27: 11.960]
pour fournir des produits numériques réussis.[00: 27: 15.169]
Et Mendix est là pour aider.[00: 27: 16.652]
Gartner nous a choisi comme leader[00: 27: 18.920]
dans la catégorie développement multi-expérience[00: 27: 21.530]
et nous excellons vraiment dans la livraison[00: 27: 24.200]
ces types d’applications à grande vitesse et à grande échelle.[00: 27: 28.100]
Par exemple, Mendix est le seul leader dans le quadrant magique[00: 27: 31.270]
qui prend en charge les quatre architectures mobiles.[00: 27: 33.750]
Et nous sommes les seuls à prendre en charge le natif,[00: 27: 35.840]
qui vous permet de fournir la meilleure application[00: 27: 37.977]
pour chaque situation.[00: 27: 40.500]
La multiexpérience, c’est bien plus que du web et du mobile.[00: 27: 43.690]
Et nous pouvons vous aider à offrir des expériences supplémentaires[00: 27: 46.200]
comme immersif, conversationnel et récréatif.[00: 27: 50.274]
Donc, en plus de remercier Simon[00: 27: 52.180]
pour tout son excellent travail lors des démonstrations,[00: 27: 53.880]
Je voudrais vous laisser avec cette dernière pensée aujourd’hui.[00: 27: 56.920]
Pour construire de belles expériences,[00: 27: 59.070]
l'utilisateur final doit être au premier plan.[00: 28: 01.770]
Et l'objectif est de livrer des applications[00: 28: 04.270]
qui sont si faciles ou invisibles, comme dirait Don,[00: 28: 07.348]
qu'ils ne réalisent même pas[00: 28: 08.791]
la technologie qu'ils utilisent.[00: 28: 11.590]
Alors rendez Don fier et commencez à construire[00: 28: 13.590]
quelques applications multi-expériences aujourd'hui.[00: 28: 16.180]
Donc, avec cela, je voudrais dire merci d'être venu.[00: 28: 18.740]
et passe une bonne journée[00: 28: 19.625]
(musique entraînante)