Channel

AI & Robots

Interview

Christian Weber, wie kann man einer AI ein Gewissen einhauchen?

Christian Weber, CTO von Leftshift One. © Leftshift One
Christian Weber, CTO von Leftshift One. © Leftshift One

Texte interpretieren, Sprache in Text umwandeln, Bilder erkennen: Zwei Millionen Euro Investment hat das steirische Startup Leftshift One zuletzt für die Weiterentwicklung seiner AI-Plattform bekommen (Trending Topics berichtete). Nun meldet sie sich mit einer Neuerung zurück: Sie wollen ihre Plattform als „AI Operating System“ (AIOS) positionieren, mit dem anderen Organisationen ihre Anwendungen laufen lassen können.

Neben den hauseigenen Fähigkeiten, den sogenannten „Skills“, soll es künftig auch komplexe KI-Funktionalitäten des Know-Centers bei Leftshift One geben. Grundvoraussetzung: Die AI-Anwendungen müssen bestimmten ethischen und moralischen Regeln folgen. Im Interview erklärt Christian Weber, CTO von Leftshift One, wie er der KI-Plattform ein Gewissen einhauchen kann.

Wie hat Leftshift One „Gewissen“ definiert, nach welchen ethischen und moralischen Gesichtspunkten wurde denn da gewichtet?

Christian Weber: Leftshift One orientiert sich – wie viele andere Institutionen und Organisationen – an den ethischen AI-Leitlinien der Europäischen Union. Die EU hat in diesen Leitlinien Voraussetzungen definiert, welche gegeben sein müssen, um eine vertrauenswürdige KI erstellen zu können. Gleich zu Beginn der Auflistung verankerte die Expert Group der EU den Ansatz, dass die menschliche Selbstbestimmung bei der Anwendung von KI respektiert werden soll. Hierbei handelt es sich um einen sehr wesentlichen Punkt, da im Zweifel der Mensch das letzte Wort bei der Entscheidungsfindung haben soll.

Der Mensch hat das letzte Wort – aber was, wenn er gerade nicht da ist, um zu entscheiden?

Leftshift One hat bereits früh diesen Weg eingeschlagen, indem die symbiotische AI als Unternehmensleitlinie festgelegt wurde. Die Symbiose sieht in diesem Zusammenhang vor, dass bei KI-Anwendungen stets ein Mensch mithilfe einer Maschine zusammen agieren soll. Die Leitlinien des Dokuments setzen sich auch mit dem Thema Resilienz des AI-Systems auseinander. Das bedeutet, die KI soll gegen Angriffe geschützt und auch mit einem Notfallplan ausgestattet sein, um mit kritischen Situationen umgehen zu können. Dieser Punkt gewinnt immens an Bedeutung, wenn wir z. B. an das Thema autonomes Fahren denken. Auch in ungewohnten oder unbekannten Situationen aus Sicht der AI muss diese sicher im Straßenverkehr agieren können.

Bei Fehlverhalten, Unfällen – wie stellt man fest, wer Schuld hat?

Des Weiteren wird die Transparenz und Nachvollziehbarkeit von KI-Entscheidungen sowie die Rechenschaftspflicht als wichtiger Faktor genannt. So soll deutlich werden, auf Basis welcher Daten die Entscheidung getroffen wurde. All diese Faktoren spielen eine Rolle, damit KI-Technologie auch auf menschliche Akzeptanz trifft. Insbesondere wenn von einer Entscheidung Menschen betroffen sind, soll Transparenz auch auf Kosten anderer Dimensionen wie etwa Effizienz hergestellt werden. Gerade in kritischen Situationen muss es die Möglichkeit geben, KI-Entscheidungen zurückzuverfolgen und überprüfen zu können. Praktisch folgt daraus, dass bei der Entwicklung von KI-Technologie ein gesamtgesellschaftlicher Blickwinkel eingenommen werden muss.

Was muss man sonst berücksichtigen?

Neben der Anforderung das KI auch fair sein soll wurde, was mich persönlich sehr freut, im Dokument explizit die Sicherstellung des ökologischen Wohlergehens genannt. Das deutet darauf hin, dass KI-Systeme hinsichtlich ihrer Umweltverträglichkeit bewertet werden können bzw. neue KI-Systeme umweltfreundlich gestaltet werden sollen. Dies ist angesichts der immer steigenden Hardware-Anforderungen bei der Erstellung von KI-Modellen auch notwendig und eine große Herausforderung. Leftshift One beherzigt diese im Dokument der Europäischen Union genannten Aspekte.

Ok – und wo kommt euer Betriebssystem „mit Gewissen“ nun zum Einsatz? Was kann die KI?

Das Betriebssystem ist etwa bei Automobilist AVL List, McDonalds Österreich und bei einem deutschen Online-Reisebüro im Einsatz. Im touristischen Bereich wird es für die automatisierte Aufbereitung – auf Basis des KI-Skills Textverständnis – von Reiseangeboten aufgrund von Mail-Anfragen genutzt. Auch im Qualitätsmanagement von produzierenden Betrieben – etwa in der Pharmaindustrie – können mit Hilfe des KI-Skills Bilderkennung fehlerhafte Produkte erkannt werden.

Eine Skill-Eigenentwicklung des Know-Centers, die im Betriebssystem abgebildet ist, ist eine spezielle Search Engine, mit der unternehmenseigene Daten hochperformant gefunden werden können. Das ist im Prinzip wie Google, eben nur Unternehmens-intern, dass man eine hochintelligente und adaptierbare Suchmaschine hat für die ganzen Dokumente, die ganzen Ablagen – alles was es in einem Unternehmen gibt.

Wenn nun das Tool von Leftshift One wie eine Suchmaschine für Unternehmens-interne Daten fungiert, wozu braucht man da ein „Gewissen“?

Selbst vermeintlich unkritische Funktionen wie beispielsweise unternehmensinterne Suchfunktionen können ggf. zu Tracking-Methoden respektive zur Erstellung von personenspezifischem Suchprofilen genutzt werden. In diesen Fällen wird die Rolle der Ethik – insbesondere im Kontext der Transparenz gegenüber den Anwender – besonders zentral.

Springe zu:

Ganzen Artikel lesen
Corona-Krise