
Erstellen Sie bessere Kundenanwendungen mit Multiexperience-Entwicklung
Das Potenzial von Multiexperience-Anwendungen ist phänomenal. Mit Multiexperience können Sie die optimale Benutzererfahrung für jeden Benutzerkontaktpunkt durch zweckdienliche Anwendungen ausrichten und verbinden, die jede Interaktion auf der gesamten Benutzerreise mühelos machen. Nehmen Sie an dieser Sitzung teil, um zu erfahren, warum Mendix ist ein führender Anbieter von Multiexperience-Entwicklungsplattformen. Simon Black, Team Lead Evangelist, und David Brault, Product Marketing Manager, demonstrieren Anwendungen, die mehrere Modalitäten einer Customer Journey nutzen, darunter:
- Chatbots
- Augmented Reality
- Sprachassistenten
- progressive Webanwendungen
- natives Mobiltelefon
- TV-Anwendungen
-
Abschrift
[00: 00: 00.000]
(fröhliche Musik)[00: 00: 15.280]
Hallo und willkommen zu dieser Sitzung[00: 00: 16.441]
zum Erstellen von Multiexperience-Anwendungen.[00: 00: 19.690]
Mein Name ist Simon Black, Teamleiter der Evangelisten.[00: 00: 23.099]
Heute sende ich aus Elian, Cambridgeshire[00: 00: 26.280]
im Vereinigten Königreich.[00: 00: 27.410]
Und heute bin ich mit Dave Brault zusammen,[00: 00: 29.380]
Wer wird mit uns reden[00: 00: 30.480]
darüber, was eine Multiexperience-Entwicklungsplattform ist.[00: 00: 34.080]
Hallo Dave, kannst du dich vorstellen?[00: 00: 36.620]
Danke, Simon.[00: 00: 37.453]
Mein Name ist David Brault,[00: 00: 38.286]
Produktmarketingmanager hier bei Mendix.[00: 00: 40.340]
Ein bisschen über mich.[00: 00: 41.620]
Ich bin vor etwa sechs Jahren nach Austin, Texas gezogen[00: 00: 45.080]
wo ich diese Live-Übertragung mache[00: 00: 46.626]
und ich bin jetzt vollständig assimiliert[00: 00: 48.800]
bis zu dem Punkt, an dem ich viel zu viel Zeit verbringe[00: 00: 51.190]
auf der Jagd nach dem besten Barbecue in Texas.[00: 00: 53.790]
Kommen wir nun zurück zu dem Grund, warum Sie hier sind.[00: 00: 55.320]
Entwicklung besserer Kundenanwendungen[00: 00: 57.350]
mit Multiexperience-Entwicklung.[00: 00: 59.050]
Während dieser Sitzung werden wir einen Blick werfen auf[00: 01: 00.940]
wie MXDP die Entwicklungslandschaft verändert[00: 01: 03.910]
und wie Mendix kann helfen.[00: 01: 05.395]
Dann zeigen wir[00: 01: 06.498]
verschiedene Arten von Erfahrungen[00: 01: 08.960]
und lass Simon die Decke zurückschlagen[00: 01: 10.495]
damit wir sehen können, wie sie gebaut wurden.[00: 01: 13.120]
Beginnen wir mit einem Zitat.[00: 01: 14.757]
„Gutes Design ist eigentlich viel schwieriger zu erkennen[00: 01: 17.307]
als schlechtes Design,[00: 01: 18.547]
unter anderem, weil gute Designs so gut zu unseren Bedürfnissen passen[00: 01: 21.867]
dass das Design unsichtbar ist.“[00: 01: 23.650]
Und ich liebe dieses Zitat[00: 01: 25.210]
weil es so gut zum Thema passt.[00: 01: 28.990]
Der Hauptzweck von MXDP oder[00: 01: 30.480]
Multiexperience-Entwicklungsplattformen[00: 01: 32.950]
ist es, Unternehmen zu ermöglichen, Anwendungen zu erstellen[00: 01: 35.300]
die anspruchsvolle Benutzererlebnisse bieten[00: 01: 37.550]
über viele Geräte und Modalitäten hinweg[00: 01: 39.860]
wie die, die Sie gerade auf dem Bildschirm sehen.[00: 01: 42.320]
Das Versprechen der Multiexperience ist phänomenal.[00: 01: 45.540]
Verbinden Sie das optimale Benutzererlebnis[00: 01: 47.740]
zu jedem Kundenkontaktpunkt[00: 01: 49.510]
mit zweckdienlichen Anwendungen[00: 01: 51.720]
die jede Benutzerinteraktion effizient und mühelos machen,[00: 01: 55.400]
oder unsichtbar, wie Don sagen würde.[00: 01: 58.120]
Nun wird die Mendix Plattform hält dieses Versprechen[00: 02: 00.650]
mit einer wirklich integrierten Lösung[00: 02: 02.830]
das einen einzigen Skillset verwendet[00: 02: 04.600]
um umfangreiche und ansprechende Anwendungen zu erstellen[00: 02: 06.925]
und Erfahrungen für jede Situation.[00: 02: 10.110]
Lassen Sie uns tiefer eintauchen[00: 02: 11.210]
in der Art und Weise, wie die Plattform die[00: 02: 12.650]
die schnelle Entwicklung von Multiple-Experience-Lösungen.[00: 02: 17.170]
Auf der Basisebene sind die Plattformdienste[00: 02: 19.590]
und Cloud-native-Architektur von Mendix[00: 02: 21.860]
übernimmt die ganze schwere Arbeit.[00: 02: 23.600]
Es bewältigt die Komplexität des Umgangs[00: 02: 25.290]
mit lose gekoppelten Anwendungen[00: 02: 27.330]
und Dienste, die auf einer Service-Basisarchitektur laufen.[00: 02: 30.749]
Es übernimmt auch alle Kerndienste[00: 02: 32.370]
wie Protokollierung, Sicherheit und Backup.[00: 02: 35.809]
Mendix Anwendungen und Dienste sind vollständig portierbar,[00: 02: 39.120]
Das heißt, es kann bewegt oder verteilt werden[00: 02: 40.960]
beliebig zwischen Cloud-Anbietern.[00: 02: 44.490]
Jetzt auf der nächsten Ebene[00: 02: 45.323]
Integration in beliebige Dienste oder Datenquellen[00: 02: 47.905]
kann in Studio Pro verwendet und veröffentlicht werden.[00: 02: 50.880]
Das sind also REST, SOAP, OData, SQL, JSON, XML,[00: 02: 54.980]
sogar proprietäre Quellen, alles ohne Codierung.[00: 02: 59.340]
Sie können verpackt werden[00: 03: 00.380]
als wiederverwendbare Konnektoren innerhalb des Data Hub[00: 03: 03.040]
oder in App-Diensten verwendet, die in der Mendix Marktplatz.[00: 03: 08.430]
App-Dienste, was sie tun, sie kombinieren UI,[00: 03: 11.180]
Bausteine, Widgets, Logikkonnektoren und Dienste[00: 03: 14.900]
in gebündelte Geschäftsfunktionen,[00: 03: 17.270]
die zum Aufbau von Erfahrungen genutzt werden können[00: 03: 19.426]
weiter oben in der Entwicklungskette.[00: 03: 22.850]
Mit Data Hub können Sie nun dieselben wiederverwendbaren Konnektoren verwenden[00: 03: 25.164]
können als virtualisierte Datenentitäten bereitgestellt werden[00: 03: 28.635]
in einem durchsuchbaren Katalog, was großartig ist[00: 03: 30.870]
denn jetzt jeder Entwickler[00: 03: 32.223]
hat die Möglichkeit, auf umfangreiche Metadaten zuzugreifen[00: 03: 34.721]
und ebenso wichtig mit integrierter Governance[00: 03: 37.500]
und Sicherheitszugriff.[00: 03: 40.150]
Nun die Spitze dieser Pyramide,[00: 03: 41.860]
Entwicklerstandard auf einem Berg von Technologie[00: 03: 45.110]
abstrahiert in der Wiederverwendung, die es ihnen ermöglicht, sich zu konzentrieren[00: 03: 47.970]
auf die Gestaltung überzeugender Benutzererlebnisse.[00: 03: 51.580]
Was bedeutet Entwicklung[00: 03: 53.050]
wird nicht länger durch die Technologie eingeschränkt.[00: 03: 55.519]
Okay, jetzt, da Sie die Architektur gesehen haben,[00: 03: 57.850]
Mal sehen, wie Multiexperience-Anwendungen aussehen[00: 04: 00.480]
und wie sie gebaut sind.[00: 04: 02.580]
Nun zum Rest dieser Sitzung,[00: 04: 03.661]
Wir folgen einem Kunden[00: 04: 05.830]
durch die Reise des Autokaufs,[00: 04: 07.510]
von der Bestellung bis zur Lieferung[00: 04: 09.465]
mit einem kleinen Schluckauf auf dem Weg.[00: 04: 12.900]
Beginnen wir mit der Recherche und dem Kauf des Autos.[00: 04: 14.880]
Dabei handelt es sich um eine Kombination aus progressiven Web-Apps,[00: 04: 17.296]
Chatbots, Augmented Reality,[00: 04: 19.890]
und Nutzung nativer mobiler Anwendungen[00: 04: 22.060]
und ihre Gerätefunktionen sind alle mit Mendix.[00: 04: 25.900]
Die Customer Journey beginnt hier[00: 04: 27.370]
mit dieser progressiven Web-App.[00: 04: 28.780]
Es ist reaktionsschnell und läuft auf jedem Formfaktor[00: 04: 31.410]
und es ist schnell, weil die meisten der Anwendung[00: 04: 33.830]
läuft lokal auf dem Gerät.[00: 04: 36.054]
Anstatt den Händler anzurufen oder ihm eine E-Mail zu schicken,[00: 04: 38.692]
Die nächste Erfahrung ist ein Inline-Chatbot[00: 04: 41.280]
um eine Probefahrt für 3:00 Uhr zu vereinbaren[00: 04: 43.820]
Durch die Kombination beider Eingabemethoden[00: 04: 45.600]
und Sprach-zu-Text-Funktionen.[00: 04: 48.510]
Jetzt, nach der Probefahrt,[00: 04: 49.411]
Der Kunde nutzt Augmented Reality, um sein Auto zu konfigurieren[00: 04: 53.160]
durch Überlagerung verschiedener Lack- und Felgenfarben[00: 04: 56.410]
weil Händler selten vorrätig sind[00: 04: 58.017]
jede einzelne Farbkombination.[00: 05: 02.180]
Bei der Kaufentscheidung nutzt der Kunde[00: 05: 04.680]
die Leistung der Ortungsdienste von Telefonen[00: 05: 07.060]
um ihre Adresse zu füllen[00: 05: 08.440]
und verwendet einen Kreditkartenscanner[00: 05: 09.743]
um ihre Kreditkartendaten einzugeben, ganz ohne Tippen.[00: 05: 15.070]
Und zuletzt zwischen den Werbepausen,[00: 05: 17.336]
der Kunde nutzt eine native TV-Anwendung[00: 05: 19.820]
um den Status ihres Autos zu überprüfen[00: 05: 21.690]
während es die verschiedenen Phasen durchläuft[00: 05: 23.326]
des Herstellungsprozesses.[00: 05: 26.460]
Zu diesem Zeitpunkt[00: 05: 27.293]
Ich werde Simon mit uns teilen lassen[00: 05: 29.610]
wie er Mendix um einige dieser Erfahrungen zu machen.[00: 05: 33.200]
Simon.[00: 05: 34.410]
Danke, Dave.[00: 05: 35.680]
In meinen Abschnitten werde ich tiefer eintauchen[00: 05: 38.070]
in die Art und Weise, wie diese Erfahrungen[00: 05: 39.590]
wurden gebaut mit dem Mendix Plattform.[00: 05: 41.830]
In diesem Abschnitt behandeln wir[00: 05: 43.190]
wie wir das Chatbot-Erlebnis mit AWS Lex aufgebaut haben,[00: 05: 47.300]
Wie wir das AR-Erlebnis aufgebaut haben[00: 05: 49.580]
mithilfe unserer React Native-Plattform,[00: 05: 51.520]
und schließlich, wie wir die Erfahrung ausgebaut haben[00: 05: 54.010]
für unseren Fire TV Stick.[00: 05: 56.730]
Sehen wir uns also an, wie diese Erfahrungen aufgebaut sind.[00: 05: 59.680]
Zunächst einmal, innerhalb dieser progressiven Webanwendung,[00: 06: 02.660]
Wir können eine Anzahl Fahrzeuge kaufen,[00: 06: 04.399]
aber auch bestimmte Fragen stellen[00: 06: 06.690]
mithilfe dieser Chatbot-Funktion hier.[00: 06: 09.170]
Dieser spezielle Chatbot verwendet AWS Lex[00: 06: 11.790]
als Chatbot-Engine.[00: 06: 13.750]
Und wir können es so konfigurieren, dass es eine Reihe von Dialogen verwendet[00: 06: 16.908]
und verstehen, was unser Kunde verlangt.[00: 06: 20.210]
Wir können auch bestimmte Kontextdaten hinzufügen[00: 06: 22.160]
in unserem Mendix Anwendung.[00: 06: 24.500]
Wir trainieren diese Bots mit dem Bottrainer[00: 06: 27.830]
innerhalb der AWS Lex-Schnittstelle hier.[00: 06: 30.710]
Und alle Bots funktionieren auf ähnliche Weise.[00: 06: 33.150]
Sie erstellen sie mithilfe von Absichten, Slots und Entitäten.[00: 06: 37.520]
Eine Absicht ist etwas, was der Bot tun soll.[00: 06: 40.570]
Und hier haben wir eine Reihe von Bots, die wir erstellt haben,[00: 06: 43.600]
aber wir haben diese Probefahrt geplant,[00: 06: 45.700]
das, was wir vorhin in dem Video gezeigt haben.[00: 06: 48.570]
Hier sehen wir, dass wir die Absicht haben, einen Termin zu vereinbaren.[00: 06: 51.642]
und dazu müssen wir ihm eine Reihe von Äußerungen geben.[00: 06: 55.280]
Im Wesentlichen ist eine Äußerung ein Satz,[00: 06: 57.420]
ein Beispielsatz, mit dem wir diesen Bot trainieren möchten.[00: 07: 00.500]
Es erkennt diese Muster[00: 07: 02.430]
und basierend auf dieser besonderen Absicht eine Aktion auslösen.[00: 07: 05.888]
Wir können auch bestimmte Schlüsseldaten auswählen[00: 07: 08.193]
von dieser bestimmten Äußerung.[00: 07: 09.950]
Also Dinge wie die Buchungsart, die Uhrzeit[00: 07: 12.550]
und auch das Auto, das wir buchen möchten.[00: 07: 15.930]
Alle Chatbots funktionieren also sehr ähnlich[00: 07: 18.710]
und wir zeigen Ihnen mehr[00: 07: 19.710]
während wir diese Demonstrationen durchgehen.[00: 07: 22.810]
Als erstes sehen wir hier die Buchungsart,[00: 07: 25.610]
das Automodell, Datum/Uhrzeit,[00: 07: 27.490]
und diese werden in Slot-Werten gespeichert.[00: 07: 29.300]
Das sind die Dinge, die wir behalten und aufbewahren wollen[00: 07: 31.690]
innerhalb unserer Anwendung.[00: 07: 33.170]
Weil der Chatbot sehr dumm ist.[00: 07: 34.910]
Es werden keine Daten gespeichert,[00: 07: 37.400]
es reagiert einfach auf bestimmte Informationen[00: 07: 39.290]
und sendet es an den Anforderer zurück.[00: 07: 41.917]
Schauen wir uns das doch mal an[00: 07: 44.240]
wie das eingebaut ist in der Mendix Modell.[00: 07: 47.500]
Hier haben wir also die Mendix Modell für unsere Anwendung[00: 07: 49.907]
und wir haben zuerst unsere progressive Web-App[00: 07: 51.950]
wo wir die verschiedenen Details sehen können.[00: 07: 53.800]
Und wir haben auch einen Mikrofluss[00: 07: 56.033]
das zum Senden der Daten verwendet wird[00: 07: 58.350]
zu diesem bestimmten Lex-Dienst.[00: 08: 00.600]
Dies geschieht über den AWS Lex-Connector[00: 08: 02.820]
erhältlich in der Mendix Appstore.[00: 08: 04.890]
Und innerhalb dieses speziellen Anschlusses,[00: 08: 06.870]
Sie können die Schlüssel und Identitäten einrichten[00: 08: 09.870]
sowie die Äußerung[00: 08: 10.883]
die wir an diesen bestimmten Chatbot senden werden.[00: 08: 14.970]
Und wie ich schon sagte, diese Äußerung ist wie eine Botschaft.[00: 08: 17.015]
So wird es diese Nachricht interpretieren[00: 08: 18.850]
und mit einer Antwort zurückkommen.[00: 08: 20.670]
Und innerhalb dieser Antwort wird es eine Reihe von Slots geben.[00: 08: 24.210]
So speichern wir die tatsächlichen Werte,[00: 08: 26.610]
die Informationen wie Uhrzeit, Datum,[00: 08: 28.607]
und auch der Autotyp.[00: 08: 30.830]
Und wir speichern diese im Mendix Anwendung[00: 08: 33.040]
damit wir uns an dieses Gespräch erinnern können[00: 08: 36.040]
und wir können diese Buchung auch erstellen.[00: 08: 40.360]
Innerhalb der Benutzeroberfläche dieser Anwendung für diesen Chatbot,[00: 08: 42.950]
wir haben einfach eine Listenansicht verwendet.[00: 08: 45.130]
Und innerhalb dieser Listenansicht,[00: 08: 46.150]
Wir können alle Nachrichten präsentieren, die wir gesendet haben[00: 08: 49.050]
und auch von diesem Chatbot erhalten.[00: 08: 52.060]
Das ist also ein kurzer Überblick[00: 08: 54.110]
wie wir diese Integration aufgebaut haben.[00: 08: 56.038]
Werfen wir einen Blick auf unsere nächste Integration,[00: 08: 58.600]
Ziel war es, ein AR-Erlebnis zu schaffen.[00: 09: 01.760]
Dazu haben wir eine Bibliothek verwendet[00: 09: 04.560]
das ist für React Native verfügbar.[00: 09: 06.770]
Dies wird ViroReact genannt.[00: 09: 08.602]
Und ViroReact ermöglicht Ihnen die Erstellung von VR- und AR-Erlebnissen[00: 09: 12.840]
Nutzung der AR-Funktionen des Geräts,[00: 09: 15.790]
sei es ARCore oder ARKit.[00: 09: 19.757]
Und indem Sie dies verwenden,[00: 09: 21.000]
wir können tatsächlich mit dem Erstellen dieser Visualisierungen beginnen.[00: 09: 23.890]
Und wir haben das im Modellierer gemacht,[00: 09: 26.229]
wir haben einige benutzerdefinierte Widgets erstellt.[00: 09: 29.195]
Innerhalb dieser Widgets[00: 09: 30.770]
Sie ermöglichen es uns, bestimmte Markierungen zum Verfolgen einzurichten.[00: 09: 34.940]
Hier haben wir also ein Tracking-Widget.[00: 09: 39.381]
Und innerhalb dieses speziellen Tracking-Widgets,[00: 09: 41.630]
Wir können ein bestimmtes Bild festlegen, das wir zur Identifizierung verwenden möchten[00: 09: 45.183]
und platzieren Sie das Objekt in einem 3D-Raum.[00: 09: 48.510]
Hier sehen wir, dass wir das Bild auswählen können.[00: 09: 51.060]
Und in diesem Fall verwenden wir ein Mendix Logo.[00: 09: 53.650]
Dies hat einige einzigartige Eigenschaften,[00: 09: 56.280]
damit wir es im 3D-Raum leicht identifizieren können.[00: 10: 00.530]
Wir können auch einige der Eigenschaften wie Aktionen festlegen[00: 10: 03.410]
ausgelöst werden, wenn wir bestimmte Elemente erkennen[00: 10: 05.950]
im 3D-Raum.[00: 10: 08.948]
Innerhalb dieses steckbaren Widgets[00: 10: 11.040]
Wir haben dann eine Reihe von zusätzlichen Widgets[00: 10: 13.300]
um die Objekte zu zeigen, und in diesem Fall ist das Objekt ein Auto[00: 10: 17.220]
und eine Reihe von Sphären[00: 10: 18.053]
und die Kugeln sind die Symbole, die wir gesehen haben[00: 10: 19.610]
oben auf diesem bestimmten Auto, um die Farbe zu ändern.[00: 10: 23.038]
Wenn wir tiefer in das Objekt einsteigen,[00: 10: 24.750]
Wir können das verwendete Material auswählen,[00: 10: 27.039]
Wir können die Interaktion wählen[00: 10: 28.785]
und auch die Ereignisse, die verwendet werden[00: 10: 30.870]
wenn wir tatsächlich mit diesem bestimmten Gegenstand interagieren.[00: 10: 34.430]
Wenn der Tracker also diesen bestimmten Marker erkennt,[00: 10: 38.050]
es wird dieses bestimmte Objekt nehmen[00: 10: 40.240]
und platzieren Sie es im 3D-Raum.[00: 10: 42.380]
Wir können dann mit ihm interagieren, um ihn herumgehen,[00: 10: 44.446]
und wir können daraus auch weitere Informationen gewinnen.[00: 10: 49.940]
Es ist also eine wirklich leistungsstarke Möglichkeit, eine Vorschau zu erhalten[00: 10: 53.300]
und betrachten bestimmte Waren wie ein Auto[00: 10: 55.840]
oder ein anderes Produkt wie die Glühbirne,[00: 10: 57.910]
mit ihm interagieren zu können[00: 10: 59.320]
ohne es vorher tatsächlich zu kaufen.[00: 11: 02.930]
Fahren wir also mit unserem nächsten Erlebnis fort.[00: 11: 04.770]
Das letzte, das wir gezeigt haben, war eine TV-Anwendung[00: 11: 08.100]
läuft auf einem Fire TV Stick.[00: 11: 10.010]
Und tatsächlich diese besondere Interaktion[00: 11: 13.100]
und dieses spezielle Gerät lässt sich sehr einfach integrieren.[00: 11: 18.420]
Und das liegt daran, dass die Anwendung mit Android erstellt wird.[00: 11: 23.760]
Alle Anwendungen, die auf einem Fire TV Stick installiert sind,[00: 11: 27.400]
läuft auf der Android-Plattform.[00: 11: 29.408]
Und weil die Mendix Make It Native-Anwendung[00: 11: 32.197]
wird auf Android bereitgestellt,[00: 11: 34.210]
wir können es einfach auf dem Fire TV Stick installieren.[00: 11: 37.520]
Und dazu müssen wir nur diesen Leitfaden hier verwenden.[00: 11: 40.530]
Diese Anleitung verwendet ADB, das Android Debugging System,[00: 11: 45.380]
Damit können Sie eine Verbindung zu einem Gerät herstellen[00: 11: 47.440]
in Ihrem lokalen Netzwerk und installieren Sie bestimmte Anwendungen.[00: 11: 51.160]
Wir haben also lediglich unseren Fire TV Stick hergestellt[00: 11: 53.410]
in unserem Netzwerk verfügbar[00: 11: 55.210]
und mit ein paar Befehlen,[00: 11: 57.190]
wir könnten es auf diesem bestimmten Gerät installieren.[00: 12: 01.500]
Die Art und Weise, wie wir diese spezielle Anwendung erstellt haben,[00: 12: 03.970]
ist nichts Besonderes.[00: 12: 05.850]
Alles was wir tun mussten, war eine native Anwendung zu entwickeln[00: 12: 08.500]
in einer separaten App hier.[00: 12: 10.440]
Und hier haben wir das Karussell, das wir zuvor gesehen haben.[00: 12: 13.020]
So konnte der Benutzer Bilder sehen[00: 12: 14.829]
in welchem Stadium der Produktion sie sich befanden,[00: 12: 18.020]
und sie können mit ihren Schaltflächen durch diese wischen[00: 12: 20.603]
auf ihrem jeweiligen Fire TV Stick.[00: 12: 25.560]
Es gab jedoch eine Sache, die wir ändern mussten.[00: 12: 27.810]
Der Fire TV Stick läuft auf einem bestimmten Fernseher,[00: 12: 31.550]
und dies ist eine Landschaftsansicht.[00: 12: 34.110]
Wir mussten sicherstellen, dass[00: 12: 35.740]
anstatt die Anwendung im Hochformat zu öffnen,[00: 12: 38.270]
wir mussten es im Querformat öffnen.[00: 12: 40.460]
Es ist also ganz einfach.[00: 12: 42.360]
Innerhalb der Anwendung haben wir eine Option[00: 12: 46.880]
um es entsprechend der Bildschirmausrichtung konfigurieren zu können.[00: 12: 49.820]
Dies ist der Code hinter der nativen App[00: 12: 52.750]
die wir für diesen speziellen Fire TV Stick entwickelt haben.[00: 12: 56.157]
Und dies basiert auf der Basisvorlage[00: 12: 58.080]
von der Plattform aus verfügbar.[00: 12: 59.960]
Und alles, was wir konfiguriert haben, ist diese Option hier[00: 13: 02.720]
um es vom Hoch- auf das Querformat umzustellen.[00: 13: 04.639]
Damit wird sichergestellt, dass beim Öffnen der Anwendung[00: 13: 08.070]
es öffnet sich nicht zuerst im Hochformat[00: 13: 10.010]
und drehen Sie es dann ins Querformat.[00: 13: 11.700]
Es sorgt dafür, dass wir es öffnen[00: 13: 13.200]
und es geht zuerst im Querformat.[00: 13: 15.950]
Durch die Änderung einiger Konfigurationen wie dieser,[00: 13: 19.290]
es gibt uns ein weiteres Geräteprofil,[00: 13: 21.324]
eine weitere Erfahrung für den Benutzer[00: 13: 23.510]
an die wir vorher vielleicht nicht einmal gedacht hätten.[00: 13: 27.044]
In den letzten paar Minuten[00: 13: 28.640]
Wir haben eine Demonstration gesehen, wie wir AWS Lex nutzen können[00: 13: 32.410]
um mit einem Chatbot zu kommunizieren.[00: 13: 34.880]
Wir haben dann ein AR-Erlebnis auf unserem nativen Handy gesehen,[00: 13: 39.460]
und die letzte Erfahrung ist, dass wir eine TV-Anwendung gesehen haben[00: 13: 42.292]
mit der Naturplattform von Mendix[00: 13: 45.000]
und auf einem Fire TV Stick bereitstellen.[00: 13: 48.470]
Ich übergebe jetzt wieder an Dave[00: 13: 50.650]
Wer nimmt dich mit auf die nächste Reise[00: 13: 52.630]
unserer Customer Journey.[00: 13: 55.360]
Alles klar, Simon, danke.[00: 13: 56.500]
Sehr beeindruckend.[00: 13: 57.520]
Kommen wir zur nächsten Phase[00: 13: 59.410]
wo der Kunde erfährt[00: 14: 01.210]
dass es ein Problem mit ihrer Bestellung gibt,[00: 14: 02.850]
und jetzt müssen sie mit einem Agenten sprechen, um das Problem zu klären.[00: 14: 06.940]
In dieser nächsten Erfahrung[00: 14: 08.190]
Der Kunde erhält eine automatisierte Textnachricht[00: 14: 10.510]
und eine Push-Benachrichtigung[00: 14: 11.601]
dass eine Produktionsverzögerung erforderlich ist[00: 14: 14.606]
und es erfordert ihre sofortige Aufmerksamkeit.[00: 14: 18.790]
Also beschließen sie, den Kundendienst anzurufen.[00: 14: 21.470]
und sie werden tatsächlich von einem virtuellen Agenten begrüßt.[00: 14: 24.090]
Hören wir mal rein.[00: 14: 32.830]
Hallo,[00: 14: 33.670]
Willkommen beim Tesla-Kundendienst.[00: 14: 35.630]
Wie kann ich Ihnen heute helfen?[00: 14: 37.276]
Ich möchte den Status meiner Bestellung erfahren.[00: 14: 39.750]
Kein Problem.[00: 14: 40.670]
Können Sie mir Ihre Bestellnummer mitteilen?[00: 14: 42.380]
also kann ich das für Sie überprüfen?[00: 14: 44.340]
1086.[00: 14: 45.640]
Ihre Bestellung 1086[00: 14: 48.070]
befindet sich derzeit in der Chassis-Herstellungsphase[00: 14: 50.850]
und wird bald mit der Karosserieherstellung beginnen.[00: 14: 53.510]
Möchtest du, dass ich dich durch[00: 14: 54.720]
an ein Mitglied unseres Teams, das Ihnen weiterhelfen kann?[00: 14: 56.883]
Ja, bitte.[00: 14: 58.500]
Überhaupt kein Problem.[00: 14: 59.484]
Ich verbinde Sie jetzt mit einem Mitglied unseres Teams[00: 15: 02.437]
Wer über Ihre Daten informiert ist, bitte einen Moment warten.[00: 15: 05.599]
(fröhliche Musik)[00: 15: 06.432]
(Freizeichen ertönt)[00: 15: 08.120]
Hallo, Herr Black.[00: 15: 08.953]
Dies ist der Tesla-Kundendienst.[00: 15: 10.400]
Mein Name ist Allister, wie kann ich Ihnen heute helfen?[00: 15: 13.040]
Der virtuelle Agent[00: 15: 13.873]
alle Informationen erfolgreich gesammelt[00: 15: 16.200]
erforderlich, um den Anrufer an die entsprechende Person weiterzuleiten[00: 15: 19.070]
und bereiten Sie den Mitarbeiter auf das Gespräch vor.[00: 15: 22.430]
Von dort aus konnte der Agent das Problem lösen.[00: 15: 25.290]
An diesem Punkt überlasse ich Simon wieder die Kontrolle[00: 15: 27.910]
damit er Ihnen zeigen kann, wie man baut[00: 15: 29.500]
eine virtuelle Agentenanwendung mit Mendix.[00: 15: 32.430]
Simon, zurück zu dir.[00: 15: 34.460]
Danke, Dave.[00: 15: 35.293]
Was wir dort gesehen haben, ist ein Kunde, der mit einem Bot interagiert[00: 15: 39.930]
mithilfe der Spracherkennung.[00: 15: 41.970]
Dieser besondere Bop wurde trainiert[00: 15: 43.531]
mithilfe des Twilio-Dialogdienstes.[00: 15: 46.420]
In Twilio können wir eine Reihe von Aufgaben trainieren und erstellen.[00: 15: 50.920]
Diese Aufgaben sind wie Absichten,[00: 15: 52.660]
die wir in unserer AWS Lex-Schnittstelle gesehen haben.[00: 15: 56.590]
Von hier aus können wir es anhand einer Reihe von Beispielen trainieren[00: 15: 59.696]
und diese Beispiele sind wie Äußerungen,[00: 16: 02.040]
dasselbe, das wir in unserer AWS Lex-Schnittstelle hatten.[00: 16: 05.750]
Beispielwörter und -sätze, die wir auslösen möchten.[00: 16: 11.370]
In jedem dieser Bereiche[00: 16: 12.250]
Wir haben auch die Fähigkeit zu programmieren, was passiert[00: 16: 15.370]
wenn diese bestimmten Schlüsselwörter und Sätze ausgelöst werden.[00: 16: 19.370]
Und in diesem Fall führen wir eine Weiterleitung zu einer URL durch.[00: 16: 22.587]
Und diese URL ist ein Dienst, der auf einem Mendix Anwendung.[00: 16: 27.450]
Wir haben lediglich eine REST-API veröffentlicht.[00: 16: 30.350]
von dem Mendix Anwendung,[00: 16: 31.724]
welches aufgerufen und ausgeführt wird[00: 16: 34.390]
wann diese besonderen Urteile gefällt werden.[00: 16: 38.060]
Wechseln wir nun zum Modell[00: 16: 39.910]
und sehen Sie, wie sich dieses Erlebnis weiterentwickelt.[00: 16: 43.340]
Innerhalb des Modells dieser Anwendung[00: 16: 45.130]
Wir können hier sehen, wir haben diese REST-API[00: 16: 47.010]
das veröffentlicht wurde.[00: 16: 48.617]
Innerhalb dieses speziellen API-Aufrufs haben wir einen Mikrofluss.[00: 16: 52.670]
Und dieser Mikrofonfluss wird ausgeführt[00: 16: 54.710]
jedes Mal, wenn wir diesen API-Aufruf erhalten.[00: 16: 57.980]
In diesem speziellen Mikrofluss haben wir eine Reihe von Schritten,[00: 17: 00.250]
die Ihre aktuelle Aufgabe aufnimmt, die Informationen[00: 17: 03.204]
und dann schließlich, es geht darum, eine Menge Entscheidungen zu treffen[00: 17: 05.753]
um die Richtung, in die der Kunde geleitet werden soll[00: 17: 08.630]
basierend auf den bestimmten Eingaben, die es erhält.[00: 17: 12.020]
Jetzt hätten wir mehrere verschiedene API-Endpunkte erstellen können[00: 17: 15.360]
abhängig von der Art der Interaktion,[00: 17: 18.048]
aber wir wollten einen zentralen Mikrofluss[00: 17: 20.140]
damit wir es Ihnen zeigen können[00: 17: 21.360]
die Komplexität der Logik, die vor sich geht[00: 17: 23.760]
hinter den Kulissen in der Mendix Anwendung.[00: 17: 27.100]
Also in diesem Fall,[00: 17: 27.933]
Es erkennt, ob eine Weiterleitung erforderlich ist oder nicht.[00: 17: 31.280]
Und wenn eine Umleitung erforderlich ist, was wird sie bewirken?[00: 17: 33.880]
Anschließend wird eine Kundenantwort an Twilio zurückgesendet.[00: 17: 37.136]
um sie an eine bestimmte Nummer umzuleiten.[00: 17: 40.780]
In unserem Szenario wurden wir zu Allister weitergeleitet.[00: 17: 44.060]
im Kundenservice-Team,[00: 17: 45.910]
der uns dann helfen und mit der Behebung des Problems beginnen konnte.[00: 17: 49.425]
Und um das zu tun, haben wir tatsächlich etwas XML zurückgesendet.[00: 17: 53.380]
Diese XML-Struktur definiert, welche Telefonnummer[00: 17: 57.050]
Sie müssen anrufen, um tatsächlich mit dem Kunden sprechen zu können.[00: 18: 00.714]
Und wir können alles innerhalb dieses XML tun.[00: 18: 03.010]
Dies ist eine sehr häufige Struktur.[00: 18: 05.235]
AWS verwendet eine ähnliche Struktur, in die Sie es einbetten können[00: 18: 08.840]
mit mehr inhaltsreichen Informationen,[00: 18: 11.280]
Dinge wie Telefonnummern, Bilder, Audios und so weiter.[00: 18: 16.200]
Für die anderen Nachrichten verwenden wir einfach Klartext[00: 18: 18.910]
um mit diesen zu interagieren.[00: 18: 23.360]
Wir haben in den letzten Minuten gesehen,[00: 18: 25.300]
ein Überblick darüber, wie wir mit diesen Gesprächen umgegangen sind.[00: 18: 29.640]
Wir haben den Autopiloten von Twilio verwendet[00: 18: 31.860]
um diese Gespräche führen zu können[00: 18: 34.610]
und diese Schlüsselaussagen zu erkennen,[00: 18: 37.060]
und dann zurück zu Mendix um die wichtigsten Informationen zu erhalten[00: 18: 40.800]
wie etwa den Status der Bestellung und weitere Informationen.[00: 18: 45.550]
Geben wir nun Dave zurück[00: 18: 47.270]
für unseren letzten Teil der Customer Journey.[00: 18: 50.180]
Danke, Simon.[00: 18: 51.013]
Während des letzten Teils der Buyer's Journey[00: 18: 53.790]
Wir werden uns ein paar verschiedene Erfahrungen ansehen, die[00: 18: 56.870]
während das Auto zur Auslieferung unterwegs ist.[00: 18: 58.648]
Kommen wir zum Kunden, der Alexa fragt[00: 19: 01.450]
für ein Status-Update.[00: 19: 03.580]
Also fragt Alexa das vernetzte Auto nach dem Status meiner Bestellung.[00: 19: 10.000]
Wenn Sie mir Ihre Bestellnummer mitteilen,[00: 19: 12.020]
Ich kann den Status für Sie nachschauen.[00: 19: 14.644]
1086.[00: 19: 18.320]
Ihr Auto wurde gebaut[00: 19: 20.057]
und ist zur Auslieferung unterwegs.[00: 19: 21.960]
Es wird bis 3:13 Uhr bei Ihnen sein[00: 19: 25.600]
Wenn der Fahrer nun beim Kunden ankommt,[00: 19: 27.650]
Sie verwenden eine native mobile Anwendung[00: 19: 29.440]
eine Checkliste durchzugehen, um das Auto freizugeben.[00: 19: 32.745]
Native Apps sind perfekt[00: 19: 35.040]
für den Fall, dass Mitarbeiter interagieren müssen[00: 19: 36.430]
mit Kunden von Angesicht zu Angesicht.[00: 19: 38.180]
Sie können fotografische Beweise erfassen[00: 19: 39.658]
einer erfolgreichen Lieferung,[00: 19: 41.169]
oder leider irgendwelche Schäden katalogisieren[00: 19: 43.887]
damit ein Problem schnellstmöglich behoben werden kann.[00: 19: 48.250]
Die native App eliminiert papierbasierte Prozesse[00: 19: 50.530]
durch die digitale Erfassung all dieser Informationen,[00: 19: 53.100]
einschließlich der Unterschrift des Kunden[00: 19: 54.920]
sobald sie mit der Lieferung zufrieden sind.[00: 19: 58.097]
Okay, ich übergebe die Kontrolle ein letztes Mal an Simon.[00: 20: 01.030]
Er wird Ihnen zeigen, wie er Mendix[00: 20: 02.940]
um die Alexa-App und die native mobile Anwendung zu erstellen.[00: 20: 06.330]
Also, Simon, zurück zu dir.[00: 20: 09.410]
Danke, Dave.[00: 20: 10.300]
Im nächsten Abschnitt werfen wir einen Blick[00: 20: 11.900]
wie wir diese Integration in unser Alexa-Gerät eingebaut haben.[00: 20: 16.460]
Um eine Integration in Alexa zu erstellen,[00: 20: 18.390]
Sie müssen zuerst eine Fähigkeit aufbauen.[00: 20: 20.159]
Eine Fertigkeit ist wie eine App im Apps-Tool[00: 20: 23.000]
aber es ist für Alexa personalisiert.[00: 20: 25.130]
Zur Interaktion wird die Stimme statt der Berührung verwendet.[00: 20: 29.480]
Hier haben wir eine Fähigkeit, die wir geschaffen haben[00: 20: 31.360]
für unsere Reise im vernetzten Auto.[00: 20: 33.300]
Und wenn wir tiefer in die Materie einsteigen, können wir mit der Konfiguration beginnen.[00: 20: 35.776]
um unseren besonderen Bedürfnissen gerecht zu werden.[00: 20: 40.260]
Hier drinnen haben wir zunächst einmal ein Anrufungswort.[00: 20: 43.890]
Dies ist das Schlüsselwort oder der Name der Fähigkeit[00: 20: 46.400]
die Sie dieser bestimmten Fähigkeit verleihen möchten.[00: 20: 49.230]
Und das wird ausgelöst[00: 20: 50.245]
wenn Sie Alexa bitten, etwas zu tun.[00: 20: 54.120]
Als nächstes haben wir das Interaktionsmodell.[00: 20: 56.740]
Und wieder können Sie einige sehr ähnliche Prinzipien hier sehen[00: 21: 00.720]
dazu, wie wir mit AWS Lex zurechtkamen.[00: 21: 03.310]
Wir können bestimmte Absichten verwenden, sie auf bestimmte Äußerungen trainieren[00: 21: 07.060]
und bestimmte Slots einnehmen.[00: 21: 09.940]
Hier können wir also den jeweiligen Dialog sehen[00: 21: 12.740]
für den Status unserer Bestellung.[00: 21: 15.100]
Wir können ihm einige Äußerungen geben,[00: 21: 16.220]
einige Slot-Daten, die wir erfassen möchten,[00: 21: 19.000]
und das kann dann ausgelöst werden[00: 21: 20.300]
in unserem Mendix Anwendung.[00: 21: 23.770]
Also wirklich, solange Sie wissen[00: 21: 26.050]
wie man einen Chatbot-Typ oder eine Chat-Schnittstelle erstellt,[00: 21: 30.330]
Sie können ganz einfach zu anderen Plattformtypen wechseln.[00: 21: 33.487]
Sie haben einige Slot-Tool-Unterschiede,[00: 21: 35.510]
aber man sieht, es gibt viele Ähnlichkeiten[00: 21: 37.398]
über sie hinweg.[00: 21: 40.315]
In den Alexa-Informationen hier,[00: 21: 43.010]
wir können auch einen Endpunkt festlegen.[00: 21: 45.080]
Und der Endpunkt ist, wo wir tatsächlich sind[00: 21: 45.913]
woher ich diese Daten beziehen werde.[00: 21: 48.540]
Wenn wir also eine bestimmte Absicht auslösen,[00: 21: 50.800]
Wir wollen es dann verarbeiten können[00: 21: 52.680]
mit diesem Mendix Anwendung.[00: 21: 55.550]
Schauen wir uns also das Modell an[00: 21: 57.220]
und schauen Sie sich an, wie das umgesetzt wird.[00: 22: 00.730]
Wir öffnen also dasselbe Modell wie in unserem Twilio-Beispiel.[00: 22: 05.090]
Wir können dann beginnen, die Informationen zu sehen[00: 22: 07.168]
von unserem Alexa-Gerät.[00: 22: 09.550]
Hier registrieren wir also bestimmte Handles[00: 22: 12.620]
für diese Zwecke.[00: 22: 14.380]
Im Ablauf nach dem Start,[00: 22: 16.190]
wenn wir unsere Anwendung starten,[00: 22: 18.110]
Wir können dann bestimmte Informationen und Absichten auslösen und festlegen[00: 22: 22.298]
getriggert zu werden[00: 22: 23.450]
wenn wir diese besondere Absicht tatsächlich sehen.[00: 22: 26.100]
Wenn wir in diesem Fall den Absichtsstatus sehen,[00: 22: 28.440]
es wird diesen speziellen Mikrofluss auslösen.[00: 22: 30.920]
Nun das, was wir im Beispiel gezeigt haben[00: 22: 32.470]
war für einen Status zu unserer Bestellung.[00: 22: 35.127]
Und innerhalb dieses speziellen Mikroflusses,[00: 22: 37.480]
wir können sehen, dass wir die Informationen zur Anfrage erhalten können[00: 22: 40.156]
und wir können auch Informationen aus den Slots erhalten,[00: 22: 43.280]
also die eigentlichen Daten, die wir erfassen möchten.[00: 22: 45.150]
Und in diesem Fall ist es die tatsächliche Bestellnummer[00: 22: 47.070]
das ist wichtig.[00: 22: 48.530]
Wir möchten in der Lage sein, zu erfassen, wessen Bestellung es ist,[00: 22: 51.660]
Schauen Sie nach im Mendix Anwendung[00: 22: 53.980]
und antworte diesem bestimmten Chatbot und Alexa[00: 22: 58.920]
mit den Informationen, die wir brauchen.[00: 23: 01.840]
Hier sehen wir also einen Scheck[00: 23: 04.130]
um zu sehen, ob die Bestellnummer gefunden wurde oder nicht.[00: 23: 05.900]
Und wenn es gefunden wird,[00: 23: 07.604]
wir werden mit einer entsprechenden Nachricht darauf antworten.[00: 23: 11.630]
Hier sehen wir also, dass wir eine bedingte Option haben[00: 23: 15.110]
basierend auf dem Status unserer Bestellung.[00: 23: 17.520]
Wenn sich also die Bestellung verzögert,[00: 23: 19.180]
dann werden wir ihnen eine bestimmte Nachricht senden.[00: 23: 21.830]
Wenn es sich in der Fertigstellung oder Herstellung befindet,[00: 23: 24.730]
wir senden eine andere Nachricht.[00: 23: 27.070]
Sie können diese Erlebnisse also wirklich individuell gestalten[00: 23: 29.730]
und diese Nachrichten geben Sie an Ihre Benutzer zurück.[00: 23: 33.280]
Und wieder, wie bei Twillio,[00: 23: 35.730]
Sie können mit einfachem Text oder mit SSML antworten.[00: 23: 40.020]
Und SSML ist eine XML-Formatstruktur[00: 23: 42.974]
mit dem Sie Audio, Bilder einbetten können[00: 23: 45.840]
und zusätzliche Informationen zu Ihrem Alexa-Gerät[00: 23: 49.480]
weil einige der zusätzlichen Geräte Bildschirme haben.[00: 23: 51.290]
Wenn Sie sich also die Alexa-Show ansehen,[00: 23: 53.274]
Sie können tatsächlich Informationen anzeigen[00: 23: 55.006]
und gleichzeitig auch Audio abspielen.[00: 24: 00.870]
Es handelt sich also um einen wirklich einfach zu verwendenden Connector.[00: 24: 03.140]
Sie können diesen Connector einfach herunterladen[00: 24: 04.715]
in Ihre Anwendung,[00: 24: 06.310]
und hier wird tatsächlich das AWS SDK für Java verwendet[00: 24: 10.470]
und nutzt diese Dienste und APIs[00: 24: 12.840]
um mit ihnen kommunizieren zu können.[00: 24: 16.770]
Schauen wir uns also unser nächstes Erlebnis an,[00: 24: 18.900]
So haben wir die native Anwendung entwickelt[00: 24: 22.300]
für unsere Außendienst-Lieferfahrer?[00: 24: 24.910]
Und wieder war dies eine andere Anwendung[00: 24: 26.940]
und anderes Modul.[00: 24: 28.297]
Und was wir für all diese Erfahrungen taten,[00: 24: 31.280]
Wir haben versucht, sie auszubrechen[00: 24: 32.113]
in die kleinere Anwendung wie möglich[00: 24: 34.473]
und Daten zwischen ihnen auszutauschen.[00: 24: 36.990]
Dies ist ein wirklich wichtiger Punkt beim MXDP[00: 24: 39.330]
ist, dass Ihr Benutzer in der Lage sein sollte[00: 24: 41.750]
um nahtlos zwischen verschiedenen Anwendungen zu wechseln,[00: 24: 44.602]
aber auch unterschiedliche Erfahrungen.[00: 24: 47.940]
In diesem Modell verwenden wir Daten[00: 24: 51.510]
die von diesen Systemen vom Data Hub bereitgestellt werden.[00: 24: 55.440]
Und es gibt einige Sitzungen[00: 24: 56.410]
die erklären, was ein Data Hub ist.[00: 24: 59.070]
Aber in diesem Modell sehen Sie drei farbige Elemente.[00: 25: 03.710]
Die erste Entität sind diese grauen Entitäten hier.[00: 25: 06.760]
Und diese werden als virtuelle Entitäten bezeichnet.[00: 25: 09.040]
Diese werden nicht gespeichert im Mendix Anwendung.[00: 25: 11.460]
Diese werden einfach aus dem Quellsystem abgerufen,[00: 25: 14.200]
sei es OData, SQL oder GraphQL.[00: 25: 17.610]
Die Idee ist, dass diese dynamisch abgefragt werden können[00: 25: 20.670]
auf jeder Seite oder jeder Schnittstelle[00: 25: 23.030]
sei es nativ oder im Web.[00: 25: 25.480]
Und das ermöglicht es Ihnen, diese Daten miteinander zu kombinieren[00: 25: 27.780]
neue Erfahrungen sammeln[00: 25: 29.240]
und Daten über verschiedene Modalitäten hinweg teilen[00: 25: 32.270]
und unterschiedliche Erfahrungen.[00: 25: 37.280]
In dieser Anwendung[00: 25: 38.580]
Es war eine sehr unkomplizierte native mobile Anwendung.[00: 25: 41.580]
Wir haben einige Erfahrungen gemacht[00: 25: 42.850]
wo wir die nächsten Termine einsehen konnten,[00: 25: 45.790]
wir konnten die Aufgaben sehen, die erledigt werden mussten.[00: 25: 48.860]
Aber einige der interessanten Artikel[00: 25: 50.010]
waren Dinge wie das Scannen von Barcodes[00: 25: 52.490]
überprüfen zu können[00: 25: 53.490]
dass die Fahrgestellnummer für das Auto korrekt war,[00: 25: 55.908]
sowie die Möglichkeit, native Signaturen zu erstellen.[00: 25: 58.660]
Mit einem Signatur-Widget können Sie[00: 26: 00.600]
Wir können mit diesem bestimmten Benutzer interagieren[00: 26: 03.440]
und lassen Sie sich bestätigen[00: 26: 04.620]
dass sie dieses bestimmte Fahrzeug erhalten haben.[00: 26: 09.661]
In den letzten Minuten bin ich also sehr schnell durchgegangen[00: 26: 13.040]
einige der Erfahrungen, die wir gemacht haben[00: 26: 15.050]
Verwendung der Mendix von Quibim[00: 26: 16.820]
und Ihnen einen Vorgeschmack darauf gegeben, was wirklich möglich ist[00: 26: 19.373]
wenn du drückst Mendix bis an den Rand[00: 26: 22.740]
und in der Lage sein, die volle Komplexität zu nutzen[00: 26: 26.140]
und volles Potenzial.[00: 26: 27.928]
Ich übergebe jetzt an Dave für unsere letzten Bemerkungen[00: 26: 31.119]
und diese besondere Sitzung abschließen.[00: 26: 33.540]
Danke, Simon, wie immer tolle Arbeit.[00: 26: 35.470]
Während der letzten 20 Minuten[00: 26: 37.310]
wir haben demonstriert[00: 26: 38.580]
wie eine Multiexperience Customer Journey aussehen kann[00: 26: 41.160]
wenn du benutzt Mendix,[00: 26: 42.346]
Wir nutzen PWAs, Chatbots, virtuelle Agenten,[00: 26: 45.930]
native mobile Apps, Augmented Reality,[00: 26: 48.240]
TV-Apps, virtuelle Assistenten,[00: 26: 50.590]
sogar eine Alexa-Konversationsanwendung.[00: 26: 53.560]
Also dies, mein Freund[00: 26: 54.393]
so sieht die Zukunft der Entwicklung aus.[00: 26: 57.300]
Wenn Sie also weiter vorankommen, werden Sie weit über[00: 26: 59.690]
nur Ihre typischen Web- und Mobilanwendungen.[00: 27: 02.900]
Gartner prognostiziert, dass bis 2024[00: 27: 05.810]
Jedes dritte Unternehmen nutzt ein MXDP[00: 27: 08.950]
um die Geschwindigkeit von IT- und Business-Fusion-Teams zu beschleunigen[00: 27: 11.960]
um erfolgreiche digitale Produkte zu liefern.[00: 27: 15.169]
Und Mendix ist hier um zu helfen.[00: 27: 16.652]
Gartner hat uns zum Marktführer gekürt[00: 27: 18.920]
in der Kategorie Multiexperience-Entwicklung[00: 27: 21.530]
und wir sind wirklich herausragend in der[00: 27: 24.200]
diese Arten von Anwendungen schnell und in großem Umfang.[00: 27: 28.100]
Zum Beispiel, Mendix ist der einzige Leader im Magic Quadrant[00: 27: 31.270]
das alle vier mobilen Architekturen unterstützt.[00: 27: 33.750]
Und wir sind die Einzigen, die native,[00: 27: 35.840]
Damit können Sie die beste Anwendung liefern[00: 27: 37.977]
für jede einzelne Situation.[00: 27: 40.500]
Außerdem umfasst Multiexperience viel mehr als nur Web und Mobilgeräte.[00: 27: 43.690]
Und wir können Ihnen helfen, zusätzliche Erlebnisse zu schaffen[00: 27: 46.200]
wie immersiv, konversationell und erholsam.[00: 27: 50.274]
Also neben dem Dank an Simon[00: 27: 52.180]
für seine großartige Arbeit während der Demos,[00: 27: 53.880]
Mit diesem letzten Gedanken möchte ich Sie heute zurücklassen.[00: 27: 56.920]
Um großartige Erlebnisse zu schaffen,[00: 27: 59.070]
Der Endbenutzer muss im Vordergrund stehen.[00: 28: 01.770]
Und das Ziel ist es, Anwendungen bereitzustellen[00: 28: 04.270]
die so mühelos oder unsichtbar sind, wie Don sagen würde,[00: 28: 07.348]
dass sie nicht einmal merken[00: 28: 08.791]
die Technologie, die sie verwenden.[00: 28: 11.590]
Machen Sie Don stolz und beginnen Sie mit dem Bauen[00: 28: 13.590]
einige Multiexperience-Anwendungen heute.[00: 28: 16.180]
In diesem Sinne möchte ich mich für Ihre Teilnahme bedanken.[00: 28: 18.740]
und einen schönen Tag[00: 28: 19.625]
(fröhliche Musik)