Language Understanding – Machine Learning oder Regelbasierend?

Leftshift OneLesezeit: 15 Minuten

Wenn die Konzepte der linguistischen Dependenzanalyse und Machine Learning u.a. durch künstliche neuronale Netze kombiniert werden, um Texte zu erkennen, könnte ein digitaler Assistent seiner Erwartungshaltung in Zukunft wirklich gerecht werden, und ein tatsächlicher „Virtual Personal Assistant“ werden. Aber ist das überhaupt möglich?

Erfüllen digitale Assistenten die Erwartungen der Anwender?!

„Virtual Assistants“ werden im Gartner Hype Cycle als Emerging Technologies 2018 geführt und sollen Betreibern Kosteneinsparungspotential, zum Beispiel imFirst-Level-Support, ermöglichen. Durch den Einsatz eines digitalen Assistenten sollte zudem ein zusätzlicher Vertriebskanal geschaffen werden.In der Zwischenzeit ist der Hype allerdings bereits abgeflacht, da Chatbots der Erwartungshaltung der Endanwender nicht gerecht wurden.Das liegt einerseits an fehlenden sinnvollen Anwendungsfällen, welche sich monetarisieren lassen und andererseits daran, dass die Qualität des Textverständnisses noch unausgereift bzw. nur bedingt gegeben ist. Zusätzlich sind die Erfahrungen der User nicht zwingend positiv, da größtenteils einfache Klick-Bots im Einsatz sind, welche unweigerlich wenig intelligent wirken. Viele Chatbots können nur sehr simple Prozesse abbilden.

Wie können digitale Assistenten Texte erkennen?

Grundsätzlich gibt es zwei Strömungen: Der regelbasierte Ansatz und Machine Learning.Die linguistische Dependenzanalyse gehört zum regelbasierten Ansatz. Dabei wird versucht, Subjekt, Prädikat und Objekt sowie hierarchische Struktur den Wörtern im Text zuzuordnen. Hauptaufgabe ist es dann eine Abhängigkeit (Dependenz)zwischen den Wörtern herzustellen, um den Inhalt zu erkennen. Das Konzept derDependenzanalyse liefert sehr gute Ergebnisse, ist aber in ihrer Anwendung äußerst komplex. Der englische Sprachraum kann hier sehr gut erfasst werden. Allerdings ist es aufgrund der durchaus schwierigen Grammatikgerade im deutschen Sprachraum eine große Herausforderung. Zusätzlich ergibt sich der Nachteil, dass Texte nicht ihrem Kontext zugeordnet werden können. Gerade bei der Groß- und Kleinschreibung ist dies deutlich zu erkennen.Ein Beispiel:
  • Der Junge sieht dir ungeheuer ähnlich.
  • Der Junge sieht dir Ungeheuer ähnlich.
Die Dependenzanalyse kann diesen Satz zweifelsohne korrekt analysieren, ist aber nicht in der Lage auch die Bedeutung korrekt wiederzugeben. Konzepte des Machine Learnings können diesem Nachteil entgegenwirken. Eine Form von Machine Learning sind künstliche neuronale Netze, welcheselbständig lernen, in großen Datenmengen Texte abgleichen und so versuchen, den Text zu erkennen. Vorrausetzung ist natürlich, dass große Datenmengen(Big Data) vorhanden sind. Zusätzlich handelt es sich immer nur um Wahrscheinlichkeiten, sodass in der Analyse Fehler entstehen können. Ist eine Textkombination unbekannt oder wurde in dieser Form noch nicht vom neuronalen Netz verarbeitet, so kann der Text nicht analysiert werden. Das heißt, es sind entsprechend lange Trainingszeiten notwendig, um gute Ergebnisse zu erhalten. Auch dieses Konzept liefert gute Resultate, hat aber ebenso mit Einschränkungen zu kämpfen.Welcher Ansatz sollte nun gewählt werden, damit ein digitaler Assistent die Erwartungshaltung seiner Anwender erfüllen kann?

Welches Konzept zur Texterkennung liefert die besseren Ergebnisse?

Grundsätzlich ist es keine Konzeptfrage, da beide Konzepte ihre Berechtigung haben. Diebesten Ergebnisse könnten erzielt werden, wenn beide Konzepte miteinandervereint werden. Wird der Text im ersten Schritt mit der Dependenzanalyse analysiert und im zweiten Schritt in einem neuronalen Netz abgeglichen, um den Kontext herzustellen, wärenkürzere Trainingszeiten und geringere Datenmengen notwendig.Was in der Theorie einfach klingt, ist allerdings in der Praxis nicht so leicht umsetzbar.

Warum können keine besseren Ergebnisse zur Texterkennung erzielt werden?

Diese Konzepte zu vereinen scheitert nicht an der technischen Machbarkeit, sondern an den Geschäftsmodellen der Anbieter, welche letztendlich auch für die Qualität der derzeitigen digitalen Assistenten verantwortlich sind.

Machine Learning Anbieter

Zunächst müssen wir uns die Vertreter des Machine Learning Konzeptes und ihre dazugehörigen Geschäftsmodelle ansehen, wie zum Beispiel luis.ai,api.ai oder auch wit.ai.Hierbei handelt es sich um Vertreter der Big Five wie Microsoft, Google oder auch Facebook etc. Ziel der Big Five ist es, möglichst viele Entwickler aus dem internationalen Umfeld für ihre Plattform zu begeistern und hier die Markführerschaft zu beanspruchen.Die linguistische Dependenzanalyse ist für einen Masseneinsatz aufgrund ihrer Komplexität und des Wartungsaufwands nur bedingt möglich. Zusätzlich müssten sie für alle Sprachen angeboten werden, um eine kritische Masse zu erreichen. Im Gegensatz dazu hat ein neuronales Netz immer die gleiche Struktur. Dadurch können alle Sprachen ohne großen Aufwand abgebildet werden.Des Weiteren nutzen die Big Five ihren Vorteil ihrer eigenen Big Data-Ressourcen, was den Einsatz von neuronalen Netzen ermöglicht und in weiterer Folge einen Wettbewerbsvorteilschafft. Aufgrund des Niedrigpreismodells können viele Anwender gewonnen werden. Der Nachteil einer solchen Methode ist es, dass komplexe Funktionalitäten für die Masse schwer umzusetzen sind. Das Leistungsportfolio muss sehr einfach gehalten werden, um einerseits den Wartungsaufwand gering zu halten und andererseits Funktionalitäten für jedermann anzubieten. Das heißt im Umkehrschluss, dass nur sehr einfache Anwendungen entwickelt werden können und der Einsatz des Machine Learnings vollkommen ausreichend ist.

Regelbasierte Konzepte

Wenn wir uns nun Vertreter der Dependenzanalyse ansehen, welche die Analyse für den englischen Sprachraum anbieten, fehlt es hier an Massendaten. Diese Serviceanbieter stellen diesehochspezialisierten Services zur Verfügung und können leider nicht mit einer Build-a-Bot Platform aufwarten. Das heißt, die Bot Entwicklung muss ausgelagert werden. Dieser Service lässt sich natürlich nicht bei den Big Five integrieren, sodass die Entwickler gezwungen sind, eigene Lösungen zu erstellen, welche sehr viel Zeit in Anspruch nehmen würden.Obwohl es sich um eine sehr komplexe Analyse handelt, welche sehr gute Ergebnisseliefert, gibt es auch Strömungen an Universitäten, welche diesen Ansatz unterstützen. Zum Beispiel kann ein Framework der Standford Universtität genutzt werden. Das Stanford Core NLP Framworkwird als Dependency Parser eingesetzt, um Dependencies (Syntactic Structure)aus einem Text zu extrahieren. In diesem Ansatz steckt wieder ein künstliches neuronales Netzim Hintergrund. Somit ist das Konzept der Dependenzanalyse zur Texterkennung eine echte qualitativ hochwertige Alternative zu Machine Learning Konzepten. Aufgrund der Individualentwicklung können hier komplexere digitale Assistenten implementiert werden.

Machine Learning vs. Regelbasierend

Das beste Ergebnis könnte erzielt werden, wenn beide Konzepte zu einem vereint werden könnten. Mit Anbietern wie zum Beispiel LEFTSHIFT ONE,welche die Konzepte kombinieren und Individualsoftware anbieten, ist es bereits möglich die Vorteile beider Konzepte auszunutzen.

Ist der Anwendungsfall entscheidend?

In erster Linie muss man sich als Entwickler oder auch als Unternehmen, das einen digitalen Assistenteneinsetzen möchte, bewusst werden, was der genaue Anwendungsfall ist. Soll es eine einfache Lösung sein, wo keine komplexen Prozesse abbildet werden müssen, so kann auf die Big Five, sofern Datenschutzrechtlich keine Probleme entstehen, zurückgegriffen werden. Ist die Texterkennung entscheidend, sollte der Einsatz eines regelbasierter Ansatzes evaluiert werden. Sollten komplexe Prozesse abgebildet werden müssen, so sollte der digitale Assistent eine Individualentwicklung sein.

Wie können die Erwartungen der Anwender erfüllt werden?

Zusammenfassend ist nun zu erkennen, dass die Qualität dann gesteigert werden kann, wenn die beiden Konzepte miteinander vereint werden. Zurzeit verhindern die Geschäftsmodelle und deren Möglichkeiten die Qualitätssteigerung. Dennoch gibt es Unternehmen, welche intelligente Lösungen für dieses Problem anbieten.Das Startup Leftshift One geht einen Schritt weiter und setzt bei seinem AI Produkt G.A.I.A. (Generic Artificial Intelligence Application) bei der Erkennung von Texten zusätzlich zur Dependenzanalyse nachgelagert neuronale Netze ein, wenn es in der Analyse zu Mehrdeutigkeiten (Ambiguität) gekommen ist. Weiters hat jeder digitale Assistent einen inhaltlichen Fokus, sodass es zu geringen Trainingszeiten kommt und die Texterkennung Qualitativ hochwertige ist. Durch die Konzentration auf eine Branche (Fokus) wie zum Beispiel Rechtskunde, Weinbau oder Erste Hilfe sind keine Massendaten notwendig. Das heißt, dass der digitale Assistent im Bereich Weinbau zwar keine Rechtsbegriffe versteht, aber in seinem Bereich, auf den er sich spezialisiert hat, bessere Ergebnisse erzielt.Zusätzlich bietet Leftshift One einen Behaviour Designer, um komplexe Geschäftsmodelle abzubilden, wodurch auch intelligente digitale Assistenten möglich sind. Schlussendlich gilt es, dass in Zukunft die Qualität der digitalen Assistenten gesteigert werden muss, um den Erwartungen der Endanwender gerecht werden zu können. Ansonsten verschwindet die Technologie schneller vom Markt, als sie gekommen ist.
#deeplearning#ki#machinelearning#nlu

Ähnliche Artikel

INNOVATION

Was ist Sentimentanalyse und warum ist sie wichtig?

INNOVATION

DSGVO 2018 - Umsetzung eines IT Start-Ups

INNOVATION

Conversational UI: Das User Interface der Zukunft

Das könnte Sie auch interessieren: