Wie gut versteht KI menschliche Kommunikation? In dieser Session fiel das Voting noch etwas negativer aus: Vor der Session waren ganze 51 Prozent und nach der Session sogar 59 Prozent der Ansicht, dass die Computerfähigkeiten in diesem Bereich unter dem menschlichen Durchschnitt liegen, obwohl Sprachassistenten wie Alexa oder Siri bereits zu unserem Alltag gehören. »Im Moment gibt es noch keine KI, die in der Konversation so flexibel ist wie der Mensch«, stellte Prof. Dr. Jens Lehmann, leitender Wissenschaftler im Bereich Konversations-KI und Wissensgraphen beim Fraunhofer IAIS fest.
Damit die Sprachassistenten funktionieren, müssen sie nicht nur verstehen, was gefragt wird, sondern auch das zur Verfügung stehende Wissen sinnvoll anwenden, um eine sinnvolle Antwort zu geben. Die Konversation erfolgt dabei auf Basis von Wissensgraphen, semantischen Datenbanken aus Knoten und Kanten. Jeder Knoten steht für eine Entität mit Attributen und Klassifizierung, die Kanten stellen die Beziehungen zwischen den Entitäten dar, erklärte Lehmann.
Spracherkennung in der Praxis: Nach Angaben von Jeremie Lecomte, Senior Technical Program Manager für Alexa bei Amazon, gibt es aktuell bereits über 100 Mio. Alexa-Nutzer, und den Prognosen zufolge soll sich die Zahl in den nächsten drei Jahren mehr als verdoppeln. Rund 300.000 Entwickler weltweit arbeiten daran und haben schon 90.000 sogenannte Skills entwickelt. Aber es gibt auch noch Schwierigkeiten in der Deutung von Sprachkommandos: Auf »Alexa, spiel gute Musik«, antwortete der Sprachassistent »Du hast keine gute Musik in deiner Bibliothek«. Das könnte man fast als Beleidigung werten. Lecompte hält daran fest: »Unser Hauptziel ist eine natürlichere Kommunikation zwischen Mensch und Computer«. So schnell wird er offenbar nicht arbeitslos.
Hier noch ein weiteres Beispiel zu Missverständnissen, wenn der Computer Slangwörter nicht erkennt oder Homonyme falsch zuordnet. Beispiel: »I am a huge metal fan« – »Me, too«, wobei hier einerseits von einem großen Metallventilator und andererseits von einer speziellen Musikrichtung gesprochen wird. Eine Erfahrung, die auch Steve Worswick, Senior Artificial Intelligence Designer bei Pandorabots und Erfinder des mit dem Loebner-Preis ausgezeichneten Chatbots Mitsuku täglich macht. »Der beste Weg, um die Kommunikation zu verbessern, sind die Kommunikationspro-tokolle«, so Worswick. In der anschließenden Diskussion kam die Frage nach Regulierungsmechanismen für voreingenommene maschinelle Kommunikation auf. Der Tenor: Das Problem ist dabei nicht die Maschine, sondern der Mensch selbst.
Wie nimmt KI die Umwelt wahr? Um diese Frage ging es in der dritten Session. Die Live-Umfrage zeigte hier ein Umdenken: Waren vor der Session noch 33 Prozent der Ansicht, dass die Fähigkeiten der KI unter dem menschlichen Durchschnitt liegen, waren es nach der Session nur noch 26 Prozent und der Anteil derjenigen, die meinten, die KI-Fähigkeiten lägen über dem menschlichen Durchschnitt, stieg von 22 auf 30 Prozent.
Wie diese Session zeigte, ist die sensorische Wahrnehmung extrem wichtig für künstliche Systeme, damit sie ihre Operationen sicher ausführen können. Maschinen können mithilfe von Messgeräten und Sensoren äußerst präzise Ergebnisse liefern. Allerdings sind Menschen besser darin, einen Sinn aus diesen Ergebnissen herauszulesen. Die besten Ergebnisse lassen sich mitunter erzielen, wenn die unterschiedlichen Sinneswahrnehmungen kombiniert werden.
»Um wahrzunehmen müssen wir den Kontext erfassen«, sagte Jana Eggers, Geschäftsführerin des US-amerikanischen KI-Unternehmens Nara Logics. Eggers führte zahlreiche Beispiele auf, die zeigen, wie die KI genau das versäumt und den Kontext falsch interpretiert, so beispielsweise, wenn automatisch generierte Produktempfehlungen Artikel wie Toilettendeckel oder Bestattungsurnen immer wieder anpreisen. »Deep-Learning-Systeme stützen sich für ihre Analysen meistens auf bisheriges Verhalten. Unsere Aufgabe ist es, hier einen Korrekturmechanismus einzubauen und den Maschinen beizubringen, wie sie diese Informationen richtig zu verstehen haben«, forderte Eggers.
Auf der anderen Seite kann die Sensorik in KI-Systemen dem Menschen weit überlegen sein und wichtige Informationen bieten, die ihm sonst entgehen können. »Damit kann KI die Wahrnehmung des Menschen verbessern und Daten unvoreingenommen analysieren. Menschen sind eben auch nicht ohne Vorurteil«, sagte Dr. Babak Hodjat, CEO des US-Analytikunternehmens Cognizant.