Wenn wir einen Blick auf die Forschung, vor allem im technischen Bereich, werfen, fällt uns schnell auf, dass die künstliche Intelligenz omnipräsent ist. Das ist auch relativ logisch, denn wir bewegen uns auf die Industrie 4.0 zu und wollen auch außerhalb der Arbeit, dass Roboter unsere Aufgaben übernehmen. Wir Menschen befinden uns in einem wahren Forschungs- und Weiterentwicklungswahn und wollen alles erklären und erfinden, was diese Welt so zu bieten hat. Allerdings sind unsere Erfindungen nicht immer kontrollierbar, was man vor allem bei neuen künstlichen Intelligenzen sehen kann. Mittlerweile werden viele Programme so geschrieben, dass sie durch das Einspeisen von Daten intelligenter werden, sie sind also in der Lage, eigenständig zu lernen. Und genau das ist der Punkt, der uns die Kontrolle bei den künstlichen Intelligenzen nimmt.
Natürlich musst du dir im Moment überhaupt keine Sorgen machen, denn diese fehlende Kontrolle hat bislang noch keine negativen Konsequenzen, und zur Not kann man ja immer noch den Stecker ziehen. Damit du dir aber ein Bild davon machen kannst, wie weit die künstliche Intelligenz bereits ist und welche Folgen intelligente Robotern mit sich bringen können, haben wir zwei Experimente mit künstlichen Intelligenzen herausgesucht, an denen man eben diese Punkte gut beantworten kann.
Facebook-Experiment
Chatbots wie Siri und Alexa sind schon lange unter uns, allerdings sind ihre Fähigkeiten momentan noch sehr eingeschränkt, was sie eher als lustige Komponente, anstatt eines nützlichen kleinen Helfers dastehen lässt. Das Feld der Sprachassistenten ist noch sehr jung und nicht sehr weit entwickelt, deswegen wollte Facebook dieses Feld durch den Einsatz von künstlicher und gleichzeitig selbst lernender Intelligenz weiter nach vorne bringen. Aus diesem Grund wurden von den Forschern die Sprachbots Bob und Alice programmiert, die die Aufgabe hatten, mit einem Menschen zu verhandeln und ein Ziel zu erreichen, mit dem beide Seiten konform sind.
In dem Versuch redeten die Roboter nicht nur mit menschlichen Testern, sondern auch untereinander. Innerhalb kürzester Zeit haben die Roboter gelernt zu lügen, um von ihren eigentlichen Absichten abzulenken. So haben sie beispielsweise vorgegeben, an einem bestimmten Gegenstand kein Interesse zu haben, nur um ihn günstiger zu bekommen. Dieser Aspekt des Experiments war also relativ erfolgreich.
Eine andere sehr interessante Beobachtung war, dass die beiden Roboter nach einer gewissen Zeit untereinander in einer Art Geheimsprache geredet haben. Sie haben zwar immer noch die normalen englischen Wörter benutzt, allerdings ergab die Aneinanderreihung der Wörter gar keinen Sinn mehr. Die Forscher konnten nur einen kleinen Teil dieser Konversationen entschlüsseln. Sie gehen allerdings nicht davon aus, dass die KIs diese Geheimsprache benutzt haben, um Pläne für die Weltherrschaft zu schmieden, sondern dass diese Art der Kommunikation den Maschinen einfach effizienter vorkam.
Das Experiment wurde sehr schnell wieder abgesetzt, weil man sehr schnell die Kontrolle über die beiden Roboter verloren hatte. Die Forscher sehen die Ursache allerdings in einem Programmierfehler. In dem Code für die beiden Bots war keine Belohnung für das Benutzen von der richtigen Sprache enthalten. Dieses Abschalten war allerdings keine Notfallsituation – du brauchst dich also nicht vor zwei Robotern fürchten, die plötzlich anders reden, da sie es für einfacher gehalten haben, ihren eigenen Roboter-Dialekt zu entwickeln.
MIT-Experiment
Bei dem zweiten Experiment ging es darum, eine künstliche Intelligenz Sarkasmus und Ironie erkennen zu lassen. Selbst wir Menschen haben damit bei geschriebenen Texten meist Probleme, da durch die Betonung oder das vorher Gesagte erst klar wird, dass es sich eigentlich um Sarkasmus handelt. Die künstliche Intelligenz könnte vor allem bei sozialen Medien von großen Nutzen sein. Bei Plattformen wie Facebook oder Twitter kann das Löschen von Profilen nur von Menschen vorgenommen werden, da die Maschinen momentan nicht in der Lage sind, Sarkasmus von wirklichen Hass-Posts zu unterscheiden.
Aus diesem Grund hat das MIT ein ebenfalls selbstlernendes Programm geschaffen. Grundlage waren 1,2 Milliarden Twitter-Nachrichten, die vom Programm analysiert wurden. Bei den ausgewählten Nachrichten war die wahre Aussage eindeutig, da die Posts am Ende einen passenden Emoji hatten. Nach einer gewissen Zeit war es dem Programm möglich vorherzusagen, welcher Emoji am Ende der Nachricht stehen wird. Um in der Lage zu sein, Sarkasmus zu erkennen, war allerdings eine neue Datenbank mit von Menschen geprüften Beispielen nötig. Diese Beispiele hat der Algorithmus dann benutzt, um Gemeinsamkeiten zu entdecken.
Im Test erreichte der Algorithmus eine Sarkasmus-Trefferquote von 82 Prozent und war somit besser als die der menschlichen Testpersonen, die gegen das Programm angetreten sind. Allerdings reichen die 82 Prozent noch nicht, um das Programm einzusetzen, da 18 Prozent der sarkastischen Tweets immer noch als böse Tweets angesehen wurden. Es gäbe also eine wahre Protestwelle, wenn man das Programm jetzt schon benutzen würde. Später soll der Algorithmus genutzt werden, um Hass-Posts und Mobbing beinahe in Echtzeit ausfindig zu machen und den Account des Schuldigen zu sperren.
Das zweite Experiment benutzte hierzu ebenfalls eine selbst lernende künstliche Intelligenz, die Kontrolle hat man allerdings nicht verloren. Außerdem wurde über das Facebook-Experiment von der Presse sehr überzogen berichtet, es handelte sich nicht um eine Notfall-Abschaltung, ganz im Gegenteil: die Beobachtungen aus diesem Experiment bringen der Forschung sogar einen guten Einblick in die Entwicklung von künstlichen Intelligenzen. Momentan können wir also selbst lernende künstliche Intelligenzen als Chance sehen.
Siri will schließlich auch dazugehören.
Fotos: Zhang Peng / Kontributor; MANJUNATH KIRAN / Freier Fotograf / Getty Images