Artificial Intelligence, Cloud & Machine Learning

Softbots als nächste Evolutionsstufe in der Anwendungsentwicklung

Freitag, 24. August 2018

Kategorie: Advanced Analytics, Artificial Intelligence (AI), BI Cloud, Digitalisierung, Industrie 4.0

Ein Chat- oder noch besser Softbot – je nachdem, wie leistungsfähig sein Kernprogramm ist – sehe ich als beste Idee einer möglichen Weiterentwicklung des klassischen Anwendungsprogramms, die mir seit langem begegnet ist. Nennen wir diese Konstruktion im Nachfolgenden einfach Bot, um die Sache nicht unnötig zu verkomplizieren.

Digitaler bester Freund, Kollege und Ratgeber

Ein Bot kann so vieles sein – schlichte Frage-/Antwortmaschine, leicht und effizient bedienbarer FAQ-Service, umfassendes und weltumspannendes Auskunftsbüro, unbürokratisches, sympathisches Helferlein bei der Datenerfassung oder effizientes Hilfsinstrument bei Recherchearbeiten. Der Einsatz geht bis hin zum digitalen intelligenten Assistenten, der on Demand entweder BI-Analysen interaktiv durchführt oder hochkomplexe KI-Algorithmen zur Ausführung bringt oder mir ganz schlicht über einen Internetservice eine Pizza bestellt, wenn mich der kleine Hunger packt.

Die möglichen Anwendungsfälle sind von unbegrenzter Mannigfaltigkeit. Vor allem aber ist ein Bot ein treuer, intelligenter – und wenn der Entwickler sich ein wenig Mühe mit dem Charakter gibt auch recht liebenswürdiger – vor allem aber nimmermüder hilfreicher Geselle, der mich, sei es privat oder auch und ganz explizit geschäftlich, angenehm und effizient unterstützend durch meinen Tag begleiten kann.

Funktion und Technik kurz erklärt

Um zu verstehen, wie so ein Bot technisch funktioniert, befassen wir uns am besten mit den Komponenten, aus denen er besteht.

Da haben wir zum einen die Schnittstellen zu seiner Umwelt – in der Grafik links und rechts außen dargestellt. Hier sitzt der Mensch, der mit dem Bot in Interaktion tritt und zwar üblicherweise mittels Text – also Tippen – oder Sprache – also verbal.

Kommt die Sprachsteuerung zum Einsatz, braucht es dafür auf beiden Seiten jedenfalls die dafür vorgesehenen Künstliche-Intelligenz (KI)-Bausteine – zum einen für die automatische Spracherkennung, also die Umwandlung des gesprochenen Wortes in maschinenlesbaren Text – und  zum anderen für die Sprachsynthese, also die Umwandlung des textbasierten Maschinenoutputs in eine künstliche Sprechstimme.

Beide Verfahren basieren heutzutage immer mehr auf Deep Learning Methoden, die einen sehr positiven Einfluss auf die Qualität des Ergebnisses haben – auf der einen Seite die Minimierung der Fehlerrate bei der Spracherkennung, auf der anderen Seite die Verbesserung der Natürlichkeit der Sprachmelodie.

Die Interpretation des Gesagten

Nachdem nun also die Benutzereingabe in maschinenlesbarer Form vorliegt, folgt oftmals als optionale Komponente ein weiterer KI-Baustein, der auf den ersten Blick eventuell gar nicht weiter als solcher auffällt, aber dennoch eine sehr essentielle Funktionalität darstellt. Ich spreche hier von der Notwendigkeit der Interpretation des Gesagten, also der Feststellung des besonderen Wunsches, der Intention des Anwenders.

Wie Sie vielleicht schon selbst beim Chatten mit einem Bot bemerkt haben, können Sie in mehr oder weniger ganzen, auch umgangssprachlichen Sätzen mit ihm kommunizieren. Weder ist es nötig, sich bestimmte Sprachbefehle zu merken oder aber verabredete Wortlaute zu verwenden; selbst kleine Tippfehler werden großzügig toleriert.

Wie funktioniert das? Nun, hier kommt eine weitere Disziplin der KI zum Einsatz, das Natural Language Processing (NLP). Es übernimmt die Interpretation des Anwenderwunsches.

Zu guter Letzt, sozusagen im Zentrum des Geschehens befindet sich dann das Kernprogramm. Hier passiert quasi die Fleißarbeit, alle Programmschritte, die für die Erfüllung des Anwenderwunsches vollzogen werden müssen. Und da befinden wir uns in der traditionellen, wenngleich auch sehr stark dialogorientierten Anwendungsentwicklung, die aber auch hier ganz stark über den Einbezug von weiteren, individuellen KI-Komponenten intelligent gemacht werden kann.

Ein Wort noch zur Sprachsteuerung

Diejenigen Bots, die Stand heute vorrangig durch direkte Ansprache funktionieren, sind beispielsweise Alexa von Amazon, Google Home, Siri von Apple oder Cortana von Microsoft, um jetzt nur ein paar bekannte Vertreter zu nennen. Wir haben uns mittlerweile mit dem permanenten Lauschangriff seitens dieser treuen Gefährten arrangiert, ist es doch zu bequem, auf diese Weise mit den gewünschten Funktionen zu korrespondieren.

Was jedoch im privaten Umfeld so angenehm anmutet, gilt – noch? – nicht gleichermaßen für das professionelle Umfeld. Zumindest wird es heutzutage bisher eher nicht toleriert, wenn im Großraumbüro der Kollege nebenan permanent mit seinem Computer spricht, um seine Anweisungen durchzugeben – dies stößt noch zu sehr auf Irritationen, vergleichbar mit einem Sitznachbarn im Bus, der mit seinem Bekannten lautstark mobil telefoniert.

Weder schöner Traum noch ferne Zukunftsvision

Wenn Sie jetzt anhand dieser Detail-Informationen den Eindruck gewonnen haben sollten, die Entwicklung eines Bots sei sehr aufwändig und kompliziert, so stimmt das nur bedingt, denn mittlerweile gibt es dafür umfassende Hilfestellung. So hat beispielsweise Microsoft mit seinem Bot Framework eine für die sofortige Nutzbarkeit bereitstehende Rahmenhandlung geschaffen, mittels derer man einen einfachen Bot binnen weniger Minuten zum Laufen bringen kann.

Für die notwendigen KI-Funktionalitäten stehen fertig nutzbare sogenannte kognitive Services zur Verfügung, so beispielsweise die Applikation LUIS – Language Understanding Intelligent System – eine Applikation für die Interpretation der Anwenderwünsche anhand der eingegebenen Anweisungen, die ich ganz nach den umzusetzenden Funktionalitäten gestalten kann. Hier definiere ich die zu realisierenden Intentionen und hinterlege diese mit dazu passenden Redewendungen, auf die ich anschließend einen Machine Learning Algorithmus trainiere, so dass auch sinnverwandte Formulierungen verstanden werden.

So kann sich der Entwickler voll und ganz auf die Umsetzung der Kernfunktionalität konzentrieren, für die er aus einem reichhaltigen Fundus an kognitiven KI- und anderen Services schöpfen kann, während der Bot Connector Service als universelle Schnittstelle dafür Sorge trägt, dass der Bot ohne Änderung des Programms über zahlreiche bekannte Kanäle angesprochen werden kann – sei es via Facebook Messenger, Microsoft Teams, Skype und viele mehr;  selbst Cortana steht für eine Anbindung zur Verfügung.

Denn schlussendlich ist der Bot ja ein Anwendungsprogramm ohne eigene grafische Benutzeroberfläche, benötigt also immer noch ein weiteres Medium für den Dialog mit dem Anwender.

Flexible Anwendungen mit großem Potential

Sicherlich haben all die großen ERP-, CRM- und übrigen Datenbankanwendungen mit unternehmensweitem Charakter unverändert und auch künftig ihre Daseinsberechtigung. Die flexiblen und wendigen Chat- und Softbots jedoch bergen ein enormes Potential, all die Aufgaben zu lösen, für die es bis dato kein spezielles oder aber viele kleine Programme brauchte.

War es bislang nur höhergestellten Personen im Unternehmen oder im Privaten vergönnt, einen persönlichen Assistenten zur Hand zu haben, der all die kleinen lästigen Aufgaben erfüllte, so rückt die enorme Vielfalt jetzt schon verfügbarer kleiner und großer KI-basierter Funktionalitäten den intelligenten digitalen Assistenten in greifbare Nähe. Es sollte kein Wunschtraum in ferner Zukunft mehr sein, sondern mit den zur Verfügung gestellten Mitteln und cloudbasierten Betreiberservices direkt in die Tat umgesetzt werden können.

Best-Practice zum Anfassen

Mit MrQ bietet QUNIS eine Best-Practice-Lösung und macht damit die Funktionsweise eines Softbots bestehend aus dialogorientierter klassischer Anwendungsentwicklung, Artifical Intelligence (AI), Cloud und Machine Learning direkt erlebbar. Darüber hinaus bildet MrQ den Grundstock für die Entwicklung kundenspezifischer Prototypen und Softbots. MrQ nutzt das Microsoft Bot Framework und die Azure Cognitive Services, betrieben wird MrQ als Azure Managed Service.

Sie wollen mehr zu MrQ erfahren – fragen Sie uns KONTAKT.