»Technologie befindet sich nie in einem Vakuum«

Die Eröffnungsrednerin der Ulmer Denkanstöße Dr. Anna Jobin erläutert, weshalb die Neutralität von Künstlicher Intelligenz eine Illusion ist

Frau Dr. Jobin, wird Künstliche Intelligenz die Welt retten – oder uns beherrschen?
»Die KI wird das tun, was wir Menschen aus und mit ihr machen – sie selbst macht erstmal gar nichts. Sie braucht Elektrizität, Hardware, Software, damit sie überhaupt funktionieren kann.«

Also haben Sie keine Angst vor Untergangsszenarien?
»Es gibt natürlich Gefahren, aber die liegen nicht in Roboteraufständen oder in zu intelligenter KI. Ein Risiko ist, dass KI eingesetzt wird, wo sie nicht eingesetzt werden soll. Ein Beispiel hierfür sind die hochumstrittenen autonomen Waffensysteme im Rüstungssektor. Eine KI kann Effizienzgewinne bringen – aber es gibt viele Situationen, in denen Effizienz nicht der wichtigste Wert ist.«

Und was ist mit der Rettung der Welt?
»Eine Technologie alleine hat noch nie grundlegende gesellschaftliche Herausforderungen gelöst.«

Weshalb ist es so wichtig, dass interdisziplinär an KI geforscht wird und nicht nur in der Informatik?
»Eine Technologie ist nie nur eine technische Angelegenheit, sondern sie ist immer eng mit einem sozialen, politischen und auch ökonomischen Kontext verflochten. Außerdem hat das Thema KI aktuell einen zu hohen Stellenwert, um es nur aus Informatik-Perspektive zu betrachten. Vielen nicht-technischen Fächern kann es gut tun zu verstehen, was die Technologie überhaupt ist und wie sie funktioniert. Gleichzeitig ist es für technische Studiengänge wichtig zu anerkennen, wieviel Wissen zu Mensch und Technologie beispielsweise in den Human- und Geisteswissenschaften bereits vorhanden ist. In einem Unilabor mag es einfacher erscheinen, eine technische Fragestellung isoliert zu betrachten, aber außerhalb befindet sich die Technologie nie in einem Vakuum, sondern in einem sehr heterogenen Umfeld.«

Inwieweit muss KI und der Umgang mit ihr an Schulen und Universitäten gelehrt werden – auch außerhalb der technischen Fächer?
»Kritisches Denken, Selbstreflexion und Informationsbeurtei- lung waren immer schon wichtig – es wird noch dringender, diese Dimensionen nicht zu vernachlässigen. Die große Veränderung ist nicht die KI, sondern sie hat bereits stattgefunden, als sich der Zugang zum Internet demokratisiert hat. Denn Lehrstätten, die Wissen vermitteln, haben im Zeitalter des Informationsüberflusses andere Aufgaben als zu früheren Zeiten der Informationsknappheit. Wobei das Ziel solcher Aufgaben unverändert bleibt: Informationen akkurat bewerten zu können und auf vorhandenem Wissen aufzubauen, um fundierte Entscheidungen zu treffen.«

Wie gehen Sie selbst mit KI um?
»Ich habe keine Berührungsängste, es ist ja mein Forschungsthema, und ich benutze sie auch aktiv. Trotzdem habe ich Vorbehalte, aber diese sind nicht primär technologisch, sondern drehen sich eher um die politökonomischen und ethischen Aspekte. Zum Beispiel darum, wie intransparent es ist, was mit den Daten geschieht, und natürlich die enorme Umweltbelastung und der ökologische Fußabdruck.«

Sie sagen, der Begriff »Intelligenz« sei irreführend, wenn es um generative KI geht. Wie meinen Sie das?
»Im besten Fall simuliert generative KI wie beispielsweise ChatGPT die menschliche Sprache. Aber sie funktioniert überhaupt nicht wie menschliches Denken. Das System berechnet ja nur Wahrscheinlichkeiten, dass bestimmte Silbenteile in einem gewissen Satzformat vorkommen können, sodass es dann plausibel klingt. In diesem Sinne sind eigentlich alle Antworten von Large Language Models Halluzinationen, selbst wenn sie vom Menschen gelesen als sinnvoll erscheinen.«

Viele Menschen sind dennoch beeindruckt davon, was ChatGPT und Bildgeneratoren wie Midjourney bereits heute zu wissen und verstehen scheinen. Weshalb möchte man das so gerne glauben?
»Die technische Leistung ist ja auch eindrücklich. Und wahrscheinlich können wir uns immer noch nicht die Größenordnung dieser digitalen Inhalte vorstellen. Das ist eine riesige Masse an Informationen, durch die es einfacher wird, neue, ähnliche Datensätze zu generieren. Man wird immer staunen können darüber, was ein System liefern kann. Aber ein Problem bei generativer KI ist ja auch, was sie eben nicht liefern kann, was fehlt – das ist in der Informationsüberflut viel schwieriger festzustellen.«

Was fehlt denn?
»Themen, Formate, Stimmen, Perspektiven, die ohnehin bereits weniger sichtbar sind, kaum oder gar nicht im Internet vorkommen und dann auch weniger reproduziert werden. Auch eine Onlinesuchmaschine löst dieses Problem nicht, aber sie zeigt mir an, wenn es wenige oder keine Resultate gibt. ChatGPT generiert trotzdem Text.«

Viele Menschen sagen: Die Daten, auf deren Grundlage diese Wahrscheinlichkeiten berechnet werden, sind doch neutral, es spricht also nichts gegen eine Nutzung.
»Erstens sind Daten nie neutral. Zweitens kann ein KI-System nur mit jenen Daten arbeiten, die ihm zur Verfügung stehen. Und man kann nicht die gesamte Welt und all ihre Möglich keiten modellieren. Ich spreche mich jedoch nicht grundsätzlich gegen eine Nutzung aus. Aber sie hängt von vielen Faktoren ab. In welchen Fällen Informationsverarbeitung an eine Maschine delegiert wird, soll deshalb eine bewusste Entscheidung sein, kein dogmatischer Grundsatz. KI ist nicht immer die Lösung. Manchmal lohnt es sich zu überlegen: Könnte man die menschlichen und maschinellen Ressourcen vielleicht besser anders einsetzen, um das Problem zu lösen?«

Kann uns die KI denn nicht wenigstens nervige Routinearbeiten abnehmen?
»Ja und nein. Zum einen tut sie das bereits! Sie sortiert beispielsweise jetzt schon ganz viel Spam aus Ihrer Mailbox, hilft bei automatischen Übersetzungen, und auch in Suchmaschinen ist ganz viel KI drin. Aber KI fällt nicht vom Himmel und ist universell einsetzbar. Sie braucht ganz viel Arbeit und Ressourcen, damit sie gut funktionieren kann, das darf man nicht vergessen und ignorieren. Neue Routinearbeiten wie beispielsweise Datenaufbereitung und -klassifizierung werden oft outgesourct, zu sogenannten Clickfarmen im globalen Süden.«

Dennoch stecken Investoren in der Hoffnung auf Gewinn viel Geld in die Technik.
»OpenAI beispielsweise, die Firma hinter ChatGPT, setzt darauf, überall integriert zu werden, um sich später eine Monopolisten-Rendite abzuholen. Das Unternehmen macht keinen Gewinn und zahlt aktuell sogar drauf. Das öffentliche ChatGPT-Interface ist vor allem eine große Werbeaktion, denn der Effizienzgedanke und die Neutralitätsillusion lassen sich gut verkaufen. Man darf aber als Organisation nicht davon ausgehen, dass wenn es jetzt nicht viel kostet, das immer so bleiben wird.«

Können Sie zum Schluss etwas Gutes über KI sagen?
»Was ich toll finde ist, dass gerade in der öffentlichen Forschung oft nicht direkt ein Business Case daraus gemacht wird, sondern das ganze Wissen rund um KI weitergebracht wird. Denn solche Systeme erschaffen und verbessern zu wollen, ist eine löbliche Motivation. Es geht letztlich nicht darum, ob KI gut oder schlecht ist, sondern anzuerkennen, dass sie weder noch und beides gleichzeitig sein kann – und sich zu fragen, wie wir damit umgehen.« 

Zur Person

Dr. Anna Jobin ist leitende Forscherin und Dozentin am Human-IST-Institut der Universität Freiburg (Schweiz) und Forscherin am Humboldt Institut für Internet und Gesellschaft. Sie verfügt über einen multidisziplinären Hintergrund in Soziologie, Volkswirtschaft und Wirtschaftsinformatik. Ihre Forschungsprojekte sind an der Schnittstelle von Wissenschaft, digitaler Technologie und Gesellschaft angesiedelt, mit besonderem Fokus auf die Interaktion mit algorithmischen Systemen, (digitale) Ethik in Forschung und Citizen Science sowie KI-Governance. 2021 wurde sie als eine von weltweit »100 Brilliant Women in AI EthicsTM« gewählt.

Text: Christine Liebhardt
Foto: Johannes Glöggler