LET'S TALK ABOUT BOTS

Conversational
user interfaces

"Man kann nicht nicht kommunizieren" - Paul Watzlawik.

Durch Gestik, Mimik und die Stimmlage findet permanent zwischenmenschliche Kommunikation statt. Die eindeutigste Art und Weise der menschlichen Kommunikation bleibt jedoch das Gesagte, die Sprache.
Der Austausch untereinander findet heute immer weniger Angesicht zu Angesicht, sondern über mobile Devices statt. Durch Chats, Messenger, FaceTime, und Co. hat die dialogbasierte Mensch-Mensch-Kommunikation eine neue Dimension erreicht - schneller, direkter, omnipräsent.
Den ersten Vorläufer der heutigen Sprachprogramme gab es bereits schon in den 60iger-Jahren, als Joseph Weizenbaum ein Sprachprogramm entwickelte, welches eine psychotherapeutische Sitzung simuliert. Weizenbaum widerlegte seine eigene These, dass Kommunikation zwischen Mensch und Maschine stets oberflächlich bleibt. Der gefundene Eliza-Effekt beschreibt, dass Menschen dazu tendieren, einer Maschine Einfühlsamkeit und Gefühle zuzuschreiben, sobald diese "selbstständig" mit uns interagiert. Mittlerweile existieren auf dem Markt ein Vielzahl solcher durch Artificial Intelligence (AI) unterstützte Dialog-Systeme - Chatbots oder Sprachassistenten genannt. Zu den führenden Herstellern am Markt zählen Facebook Messenger Bot, Google Dialog Flow oder IBM Watson.  

Kontaktieren Sie uns
Kontaktieren Sie uns, für eine auf Sie zugeschnittene Empfehlung.

Die intelligenten Chatbots, die über natürliche Sprache gesteuert werden können, sind Entertainer, Helfer und Informationsquelle in einer Vielzahl an Situationen. Die einfache, bequeme und natürliche Eingabe von Text über Gesprochenes ist mittlerweile eine gleichgestellte und angenommene Alternative zu der Eingabe über grafische Bedienelemente in der Oberfläche, dem Graphic User Interface (GUI).
Ein Conversational Interface (CI) erlaubt es dabei, das von den Usern gesprochene oder geschriebene Wort per Natural-Language Processing (NLP), sprich Methoden zur maschinellen Verarbeitung natürlicher Sprache, umzuwandeln. Anschließend geht es darum, den sogenannten Intent (Absicht) und wichtige Entities (Keywords, Aussagen) zu verstehen. Die Interaktion erfolgt in Conversational User Interfaces (CUI). Diese sind sozialer und einladender in der Kommunikation mit dem User, indem es über die Stimme, Chats oder anderen natürlich-sprachorientierten Interfaces, interagiert - im Gegensatz zu Buttons, Bildern, Videos und Menüs in klassischen GUIs.
Kategorisiert werden kann ein CUI in simple-bots, intelligente textbasierte Assistenten und Sprachassistenzsysteme wie Apple Siri, Amazon Alexa und Microsoft Cortana, bei denen Befehle und Anfragen an Datenbanken gesendet, kategorisiert und analysiert werden sowie anschließend als Antwort dem Nutzer bereitgestellt werden.

SPRACHASSISTENZSSYSTEME:

Sie geben Auskunft über Wettervorhersagen, anstehende Termine, dienen der Home Automation und spielen Musik von den Streamingdiensten ab - und das per Spracherkennung.

Ein Sprachassistenzsystem orientiert und fokussiert sich daran, was der User möchte. Als Teil der schwachen künstlichen Intelligenz besitzt es eine Aufgabe, auf die es trainiert ist. Aktiviert wird ein Sprachassistenzsystem (beispielsweise Google Home, Apple Siri und Microsoft Cortana) mit einem Signalwort. NLP wandelt das Gesprochene in Text um. Innerhalb kürzester Zeit wird die Anfrage analysiert (d.h. der Intent extrahiert), ausgewertet und eine Antwort generiert oder eine Aktion ausgeführt. Ziel ist es, die Interaktion zwischen Mensch und Maschine zu personalisieren. Die Bedienung funktioniert einfach und meist reibungslos. Die personalisierte User Experience steht hierbei im Zentrum. Sie wird einzigartig.

TEXT-BASIERTE ASSISTENTEN:

Neben der Möglichkeit solch ein Assistenzsystem über die natürliche Sprache zu bedienen, kann ein CUI auch in Form eines Chats auftreten, genauer gesagt eines Chatbots. Per Texteingabe kann mit dem System kommuniziert werden. Diese AI-Chatbots besitzen Texteingaben und Antwortmasken. Ein Programm, das über starke künstliche Intelligenz das Wissen über den User und seine Bedürfnisse stetig erweitert - Machine Learning (ML). Das neuronale Nervenzellennetz des menschlichen Gehirnes wird hierbei simuliert und Verknüpfungen situativ angepasst und gestärkt. Das "Weiterlernen" des Systems findet über Informationen und programmierte Grundlage statt. So kann vorhergesagt werden, ob rationale Ergebnisse erneut eintreffen werden. Das sogenannte Deep Learning, Teilgebiet des Machine Learning, ermöglicht es dem System selbstständig Schlussfolgerungen zu ziehen und ist somit eine Hierarchiestufe granularer und weiterentwickelter als ML. Über eine Volltext-Analyse, die auf große Wissensdatenbanken zugreift, werden Antworten generiert.

CONVERSATIONAL EXPERIENCE:

Will man eine gute Conversational Experience (CUX) aufbauen, muss man sich als Unternehmen zuerst damit auseinandersetzen, was man erreichen will.

Ein Produkt oder neuen Service vorstellen?

Unterstützung bieten (z.B. im Support-Bereich)?

Leads generieren oder direkt etwas verkaufen?

Auch das Pendant, die User-Erwartung, sprich die Intention der Kommunikation mit einem Chatbot oder Sprachassistenzsystem, ist ein wichtiger Aspekt beim Aufbau der CUX, um den relevanten Input zu filtern und die AI mit den nötigen Informationen anzureichern. Statische Informationen werden mit dynamische Daten angereichert und verändert, indem man diese wieder editiert. Dynamische Informationen werden von Datenbanken, externen Ressourcen oder CRM-Systemen (Customer Relationship Management) in den Bot integriert, meist über seine API. Vorteil ist, dass diese Informationen nicht limitiert sind - jedoch liegt eine große Komplexität bei der Erstellung dahinter.
 

Die Art und Weise, wie wir mit Maschinen kommunizieren, wird sich in den nächsten Jahren noch deutlich verändern. Die künstliche Intelligenz, die hinter den Sprachassistenten und Chatbots steckt, kann mittlerweile sogar Humor entwickeln. Anfängliche Schwierigkeiten der Spracherkennung haben sich rasant gelegt und werden stetig optimiert. Die parallele Weiterentwicklung von Cloud-, Apps-, Backend- und mobile Technologien haben dazu beigetragen, dass CUI (sprachbasierte Interfaces) mit gut konfigurierten API-Service-Layern einfach genutzt werden können.

Schon jetzt leisten die Bots mit einzigartigen User Experiences ihren Teil zu konsistenten Customer Journeys und haben sich dank ihrer flexiblen und gleichzeitig robusten Architektur, als ständiger Begleiter etabliert. Dabei werden die Nutzer über soziodemografische Variablen kategorisiert und virtuelle Szenarien analysiert, um die richtige Ansprache zu definieren. Smart Homes, sprechende Autos und vieles mehr, sind heute keine Seltenheit mehr. Auch im B2B-Bereich werden die CUI angenommen, wie z.B. Amazon Alexa for Business oder IBM Watson. Vor allem im Service- und Support ist der Einsatz von sprachbasierten Interfaces effizienter, da immer und überall auf die Wissensdatenbank zugegriffen und eine valide Antwort gegeben wird. Dennoch hält sich der B2B-Bereich (momentan zumindest), vor allem im Verkaufs-Sektor, bezüglich CUI zurück. Um ein sinnvolles Gespräch zu führen, fehlt (noch) die entsprechende Wissensdatenbank.
Bezüglich der neuen Datenschutz-Verordnung (DSGVO) ist die aktuelle Rechtslage schwer zu interpretieren, wie mit der Nutzung und Speicherung der Interaktionen in einer AI umgegangen werden kann.
Im B2C Bereich können Conversational User Interfaces jedoch als Meilenstein gesehen werden. Sie ermöglichen die nahtlose Kommunikation und Interaktion zwischen Mensch und Maschine.

Kontaktieren Sie uns
Kontaktieren Sie uns, für eine auf Sie zugeschnittene Empfehlung.

Nehmen Sie Kontakt mit uns auf

Eine Case Study anfordern