Channel

AI & Robots

Wissenschaft

Wofür es gut ist, wenn Roboter eine Sprache entwickeln, die Menschen nicht verstehen

© Pixabay
© Pixabay

Vergangenes Jahr sorgten zwei Künstliche Intelligenzen von Facebook für Aufsehen. Als sie miteinander um Hüte, Bälle und Bücher feilschten, entwickelten sie quasi ihre eigene Sprache. Genau genommen optimierten sie die englische Sprache so weit, dass sie einfacher verhandeln konnten. Das Problem: Das Roboter-Kauderwelsch war für Menschen nicht mehr verständlich. So unwohl einem bei dem Gefühl ist, dass sich Maschinen in einer für Menschen fremden Sprache unterhalten, so nützlich ist genau das für die Wissenschaft.

Michael Spranger beschäftigt sich seit mehr als zehn Jahren mit dem Thema. Was bei Facebook als verstörend wahrgenommen wurde und umgehend abgedreht wurde, das will der Forscher sogar forcieren. Anschaulich wurde diese Forschung etwa in einem Experiment, das als Kunst-Installation 2016 unter anderem in der Schweiz zu sehen war. Roboter begutachteten Besucher über ihre Kameraaugen und sollten das Gesehene dank Künstlicher Intelligenz in eigene Worte fassen. Erkennt einer der Roboter etwas Neues, benennt er es mit einer für Menschen unverständlichen Buchstabenfolge und teilt seinen Roboterkollegen mit, was er damit meint. Relativ schnell entstand so ein für die Forscher nicht mehr nachvollziehbarer Wortschatz, den das Kollektiv an Maschinen verband.

Sprache zu entwickeln ist für Kinder ein ganz natürlicher Vorgang, der im Alter von etwa zehn Monaten beginnt. Für Roboter ist es eine bisher kaum zu bewältigende Aufgabe. Mit einzelnen Begriffen selbstständig Zusammenhänge zu beschreiben, ist komplizierter, als es klingt. Spranger lässt seine Künstlichen Intelligenzen deshalb wie kleine Kinder an die Sache herangehen. Wie ein Kind beschreibt ein Roboter dem anderen was er sieht, zum Beispiel: „Objekt A ist neben Objekt B“. Die Roboter können sich darauf einigen, dass das Wort, dass sie für „neben“ gewählt haben, eine Nachbarschaft anzeigt.

Die 30 unabhängigen Forscher von Sony

Wofür es überhaupt gut ist, Maschinen eine eigene Sprache entwickeln zu lassen? „Die Frage ist: warum nicht?“, meint Spranger in Gespräch mit Trending Topics. Seit mehr als zehn Jahren arbeitet Spranger für das Sony Computer Science Lab, das so etwas wie ein Paradies für Wissenschaftler ist. Der japanische Elektronikkonzern leistet sich mit dem Lab ein weitgehend unabhängiges Forschungslabor, das sich nicht an Umsatzziele halten muss und auch nicht unbedingt dem Produktportfolio von Sony zuspielen muss. Spranger: „Das geht von der Biologie über Medizin bis hin zu Landwirtschaft, Robotik und Künstliche Intelligenz. Es gibt Projekte, die Demo-Charakter haben, es gibt aber auch Grundlagenarbeit, die lediglich aus Algorithmen besteht“. 30 Forscher sind in den zwei Labors in Paris und Tokio untergekommen, Spranger war zuerst in Frankreich und wechselte 2011 nach Japan.

„Sprache macht uns Menschen sehr stark aus. Wir können aber im Moment nicht beantworten, wie sie entsteht und in dem Projekt geht es darum, dieser Frage ein bisschen besser auf die Spur zu kommen“, sagt der AI-Experte, der in Berlin und Brüssel studiert hat. „Es geht also um pure Wissenschaft und nicht um praktische Anwendung. Uns interessiert einfach, warum wir Sprache bisher nur unzureichend erklären können“.

Greifen: Für Menschen banal, für Roboter eine Herausforderung

Fertigkeiten, die für Menschen oft banal wirken, werden zu großen Herausforderungen, wenn es darum geht, sie Maschinen beizubringen. „Das Spannende an der Robotik ist, dass es ganz viele Fragen gibt, die man noch nicht beantworten kann, obwohl man denkt, dass es ganz einfach sein sollte“, sagt Spranger. Das gelte nicht nur für Sprache. Ein gutes Beispiel sei die Automatisierung bei Amazon. In den Lagerhallen laufe alles automatisch. Fast. „Bis zu dem Moment, in dem der Mensch die Ware noch per Hand aus dem Regal nimmt und in die Packstation bringt“. Das kann ein Roboter einfach nicht. Er kann nicht bei so vielen unterschiedlichen Möglichkeiten immer mit dem richtigen Druck zugreifen, sodass nichts durch die Roboterfinger rutscht, aber auch nichts zerquetscht wird.

Für das Greif-Problem gibt es bereits erste Lösungsansätze, etwa mit Sensoren-gespickter „Haut“ für Roboter. Aber: „Das ist für die Robotik ein extremes Problem. Da gibt es in der Welt tausende Wissenschaftler, die daran arbeiten. Es ist auch noch nicht so klar, wann wir das lösen werden. Das können fünf Jahre sein, vielleicht zehn, vielleicht aber auch 100“, meint Spranger. Davor, dass Roboter tatsächlich eine komplett eigenständige, umfassende Sprache entwickeln, muss man sich in naher Zukunft also kaum fürchten.

Springe zu:

Ganzen Artikel lesen