Die Forderung nach einer Pause bei der KI-Forschung hat eine heftige Debatte ausgelöst. Prof. Antonio Krüger vom DFKI hält wenig davon, befürwortet aber klare Regeln. Die Sorge, dass der Menschen überflüssig wird, hält er für übertrieben.
Herr Krüger, Elon Musk und mit ihm inzwischen einige Tausend Unterzeichner fordern in einem Brief ein Moratorium bei der Entwicklung von KI. Was halten Sie davon?
Solche Briefe gab es schon in der Vergangenheit mit einem ähnlichen Tenor. Es wird argumentiert, dass KI eine rasante Entwicklung nimmt und potenzielle Schäden so groß sind, dass man entweder regulieren oder mindestens innehalten muss, konkret, dass man die Forschung für ein halbes Jahr pausiert, um sich Regeln zu geben oder dem Gesetzgeber Zeit zu geben, Regeln zu entwickeln. Im Tenor wird ein dystopisches Bild von KI an die Wand gemalt. Es sind aber auch Punkte angesprochen, die sicher nicht falsch sind, wenn etwa auf die Gefahr hingewiesen wird, dass das Internet mit künstlich generierten Texten, Bildern, Inhalten geflutet wird und man nicht unterscheiden kann, was aus der menschlichen Feder kommt und was von einer Maschine. Man hat das in den letzten Wochen sehr plakativ an verschiedenen Bildbeispielen gesehen. Für den Laien ist es schwer zu unterscheiden, was ein völlig fiktives Bild, was ein teilweise fiktives ist und was original ist. Wobei das keine neue Entwicklung ist. Diese Sorgen sind durchaus nachvollziehbar und man muss sie auch adressieren. Aber die Sorge, dass – überspitzt formuliert – KI die Weltherrschaft übernimmt und alle ihre Jobs verlieren, teile ich nicht. Deshalb halte ich auch nichts davon, jetzt auf eine Pausentaste zu drücken. Ich glaube auch nicht, dass das technisch möglich ist. Ich sehe den im Brief verwendeten Alarmismus eher kritisch.
Ist der Vorschlag, Entwicklung von Technologien auszusetzen, überhaupt eine realisierbare Idee?
Die Verfasser des Briefes beziehen sich auf andere Technologien, wie die Genforschung. Da gibt es einen gesellschaftlichen Konsens, dass wir bestimmte Entwicklungen nicht befürworten. Wenn Sie das Klonen von Menschen nicht wollen, können Sie ganz klar sagen, an welcher Stelle sie was verbieten wollen. Bei KI sind die Ängste aber viel diffuser und können nicht klar benannt werden. Wenn man sagt, dass man nicht will, dass KI die Weltherrschaft übernimmt, können Sie aber nicht einfach etwas verbieten. Alleine schon, weil völlig unklar ist, wie das vonstattengehen soll. Bei den jetzigen Modellen handelt es sich um Textergänzungssysteme, die gar nicht über den Wahrheitsgehalt ihrer Aussagen nachdenken können und nicht wissen, wie gut sie etwas wissen. Wenn das System das nicht weiß, dann fällt es schwer zu glauben, – selbst wenn die Systeme größer und größer werden – dass sie in der Lage wären, selbstständig Pläne zu schmieden und Aktionen in Gang zu setzen, die der Menschheit direkten Schaden zufügen. Diese Eigenständigkeit der Systeme sehe ich zurzeit nicht. Aber es ist schon unglaublich, was die Modelle mit einem relativ simplen Mechanismus in der Lage sind zu machen.
Rühren diese „diffusen Ängste“ auch daher, dass Menschen schlicht dieser Entwicklung nicht gewachsen und somit überfordert sind?
Wenn man sich die großen Sprachmodelle anschaut, jetzt die Ausprägung in ChatGPT, dann hat man manchmal schon das Gefühl, man unterhält sich mit einem intelligenten Wesen. Den Turing-Test (Test, ob eine Maschine ein dem Menschen gleichwertiges Denkvermögen hätte; Anm. d. Red.) bestehen die mit Bravour. Deshalb ist verständlich, dass Menschen sich Sorgen machen. Dem muss man mit Aufklärung und Bildung begegnen, schon in den Schulen. Zum anderen tun wir gut daran, Regeln zu Transparenz und Erklärbarkeit zu überlegen: Nutzer müssen ein Recht darauf haben, zu wissen, wann man sich mit einer KI unterhält, und dass man in bestimmten Situationen auch verlangen kann, dass man mit einem Menschen spricht. Und man muss die Mechanismen, die in den großen KI-Modellen stecken, so transparent wie möglich machen. Das ist eines der offenen Probleme – und ein aktives Forschungsfeld. Große KI-Modelle sind Black Boxes. Es gibt konkrete Gefahren, da kann und muss man regulieren. Ein weiterer Ansatz sind Herkunftsnachweise (Zertifikate, die die Herkunft garantieren; Anm. d. Red.). Das ist schwer, denn Sie müssten diese entlang der ganze Medienproduktionskette, von der Kamera bis zum Bildverarbeitungswerkzeug implementieren, um nachweisen zu können, in welcher Form das Bild bearbeitet beziehungsweise manipuliert wurde.
Stimmt es, dass die Wissenschaft noch nicht wirklich versteht, was da geschieht?
Es ist das Schicksal der Wissenschaftler, dass sie Technik hervorbringen, deren letztendlich genaue Erklärung meistens noch außerhalb wissenschaftlicher Modelle hängt. Klassiker ist die Dampfmaschine. Die beruht auf Gesetzen der Thermodynamik, die erst 100 Jahre später vernünftig ausformuliert wurden. Das gilt aber für viele Bereiche. Für die Informatik ist das eher ungewöhnlich, weil hier von first principles alles von unten aufgebaut wurde. Wobei natürlich auch klassische Softwareentwicklung fatale Fehler produzieren kann. Wenn dabei etwas schiefläuft, kann man allerdings meistens im Nachhinein sagen, woran es lag. Insofern ist das jetzt ein Paradigmenwechsel, weil es intelligente Systeme gibt, die auf Daten trainiert werden und Inhalte generieren, von denen wir nicht gut verstehen, wieso ein verhältnismäßig einfacher Mechanismus verblüffend gute Ausgaben generieren kann. Das ist eine neue Qualität. Wir müssen das jetzt studieren wie Biologen oder Sozialwissenschaftler, die durch Beobachtung lernen, wie etwas funktioniert. Das heißt: Wir haben etwas geschaffen, das jetzt Beobachtungsobjekt geworden ist. Damit ist der Lernprozess eher den empirischen Wissenschaften zuzuordnen, nicht mehr den reinen Ingenieurs- und Designwissenschaften.
Jede neue Technologie birgt auch Gefahren. Was ist das Besondere bei KI?
Es gibt ganz andere Skalierungseffekte als beispielsweise bei der Dampfmaschine. Wenn die explodiert, ist die unmittelbare Umgebung betroffen. Wenn aber KI in alles integriert ist, und wir dann irgendwann Probleme feststellen, ist der potenzielle Schaden ungleich größer. Insofern ist zu begrüßen, dass sich die EU auf den Weg gemacht hat, sich Regeln zu geben.
Ich würde es noch mehr begrüßen, wenn es international abgestimmt würde, mit den USA und am Ende auch mit China. Bei der Genforschung hat es ansatzweise funktioniert. Auswüchse wird man nicht völlig verhindern können. Es aber möglichst zu begrenzen, sollte schon Ziel der Gesellschaft sein.
Gibt es eine Möglichkeit für uns, einen richtigen Umgang und eine richtige Anwendung zu lernen?
Wir sehen eine rasante Entwicklung, wobei es bei der Qualität der Ausgaben der Modelle noch große Probleme gibt. Deswegen kann man diese jetzt nicht auf alles anwenden, wo Menschen bisher Text generiert oder Dokumente erstellt haben, sondern eigentlich nur dort, wo Fehler keine großen Kosten verursachen, sonst gibt es Probleme. Ansonsten bin ich insofern zuversichtlich, weil die großen Systeme in Schulen angekommen sind. Das ist eine gute Nachricht – vielleicht weniger für die Lehrer und die Schulen – aber für die junge Generation, die früh lernt, was da geht und was nicht geht.
Der deutsche Ethikrat hat sich mit den gesellschaftlichen Auswirkungen beschäftigt und eine in der Tendenz kritische Haltung bezogen. Zu kritisch?
Es war aus meiner Sicht teilweise zu scharf formuliert. Als Wissenschaftler und Anwender von KI finde ich, dass die Sorgen um Arbeitsplätze ein bisschen übertrieben sind. Ich glaube nicht, dass Arbeitsplätze in großer Zahl verloren gehen, ich sehe aber, dass sich Arbeitsplätze verändern werden.
Künstliche Intelligenz wird ein mächtiges Werkzeug sein, das aber der Kontrolle und Überwachung durch den Menschen bedarf, um keinen Quatsch zu machen. Das wird sich auch einpendeln. Wenn man damit nur Unsinn generiert, kann man auch keine vernünftigen Geschäfte machen. Wir werden jetzt Anwendungen sehen, wo es auf kleine Fehler, die der Mensch auch machen würde, nicht so ankommt, wobei die Maschine aber ein kleines bisschen besser ist als der Mensch. Aber bei Anwendungen, wo Fehler auch teuer sind, wird noch Zeit ins Land gehen.
Was Menschen Sorgen macht, ist die Vorstellung, dass es „intelligente“ Maschinen gibt. Sind diese Modelle in unserem Sinn wirklich „intelligent“?
Ich glaube, die großen KI-Modelle haben noch einmal mehr gezeigt, dass Intelligenz, auch komplexe Intelligenz, kein Alleinstellungsmerkmal des Menschen ist. Zu Darwins Zeiten haben sich die Menschen schwer getan, weil sie als „Krönung der Schöpfung“ sehen mussten, dass sie entstanden sind wie anderes Leben auch. Und jetzt stellt man fest, dass bestimmtes Verhalten, nämlich intelligentes Verhalten, auch kein Alleinstellungsmerkmal des Menschen ist, sondern dass es Prinzipien gibt, die darüber stehen. Für mich als Wissenschaftler ist das tröstlich, aber ich kann verstehen, dass viele Leute anfangen, sich Sorgen zu machen.
Die großen Modelle zeigen eindeutig Intelligenz, und zwar in allen Bereichen, in manchen mehr, in anderen weniger. Selbstreflexion fehlt völlig, aber als intelligent muss das aus meiner Sicht auf jeden Fall bezeichnet werden.
Was ist eigentlich Intelligenz?
(lacht) Das ist eine semesterfüllende Frage. Intelligenz hat ganz viele Aspekte. Wenn man es am Verhalten festmacht: Eine komplexe Aufgabe wird geschickt und kreativ gelöst, vielleicht auch situativ, also in unterschiedlichen Kontexten anders. Dann muss man das als Intelligenz bezeichnen. Früher hat man geglaubt, nur der Mensch wäre intelligent, dann hat man das auch bei Menschenaffen, Delfinen und Walen und selbst bei Vögeln gesehen, es gibt auch so etwas wie Schwarmintelligenz, selbst Insekten zeigen Intelligenzverhalten. Jetzt muss man sagen, künstliche Systeme können das eben auch, vielleicht eben nicht so wie bei Menschen, davon sind wir noch weit entfernt. Aber man kann nicht sagen, Systeme seien unintelligent, wenn sie mathematische Leistungen erbringen wie ein Abiturient, oder eigenständig Lieder komponieren, sich Gedichte in Shakespeare-Form ausdenken, ganz viele Fragen diskutieren oder sogar soziale und emotionale zwischenmenschliche Situationen einschätzen können. Das System versteht beispielsweise, warum Eltern sich streiten, kann das erklären und sogar Tipps geben. Es ist nicht unbedingt menschliche Intelligenz, sondern eben Künstliche Intelligenz. Man würde aber auch bei Menschenaffen oder Delfinen nicht von menschlicher Intelligenz sprechen.
Dass der Mensch überflüssig wird, wie oft befürchtet wird, würden Sie also nicht annehmen?
Nein, das würde ich nicht erwarten. Das neuronale Netz in großen Modellen, das angewendet wird, um zu trainieren, orientiert sich ganz grob an Mechanismen des Gehirns, aber wirklich nur ganz, ganz grob. Es verwendet grundsätzlich andere Technik, braucht viel mehr Energie und Daten als der Mensch bei ähnlichen Leistungen und verfügt über viel weniger Reflexionsmöglichkeiten. Wenn es einmal ein gutes Argument gefunden hat, bleibt es auch dabei. Bei Menschen, die nicht viel nachdenken, kann man auch diese rhetorischen Sackgassen sehen. Also ich glaube, dass wir weit davon entfernt sind, dass der Menschen ersetzt werden kann.
Eine Studie der Uni Saarbrücken zeigt am Beispiel von Urlaubsplanung in Betrieben: Menschen vertrauen eher Maschinen, weil die neutral und emotionslos entscheiden.
Das ist ein wichtiger Aspekt. Aber ist das auch so bei großen Modellen? Wir wissen im Prinzip, dass die Bias enthalten und auch bestimmte Präferenzen, weil die von Menschen gemacht wurden. Insofern ist das noch ein Grund mehr, warum wir Transparenzregeln brauchen, um zu verstehen, auf welchen Daten trainiert wurde und damit Leute abschätzen können, wem sie mehr vertrauen. Es gibt schließlich auch Menschen, die gut und objektiv entscheiden können. Wenn wir wissen, in welchem Rahmen sich eine Maschine fehlertechnisch bewegt, können wir Aufgaben abgeben, wenn wir mit diesem Fehlerrahmen leben können und der besser ist als Fehler, die Menschen machen. Volkswirtschaftlich kann das Sinn machen, aber individuell kann es immer noch sein, dass man von der Maschine benachteiligt wird. Da kann man nicht einfach sagen: Pech gehabt. Am Ende muss dann doch der Menschen bei kniffligen Situationen entscheiden. Bei Gerichten etwa ist es schwer vorstellbar, vollautomatische Urteile fällen zu lassen. Da müssen wir als Menschen und als Gesellschaft noch viel Gehirnschmalz hineinstecken, um zu klären, was wir wollen und was wir nicht wollen. Es wird sicher KI-Unterstützung geben, aber für die Generation, die jetzt den Planeten zumindest im westlichen Kulturraum bevölkert, glaube ich, dass wir eher eine Hybrid-Form haben werden, wo am Ende der Mensch sagt, wie es geht. Für künftige Generationen kann ich nicht sprechen.
Weil Maschinen inklusive Vorurteile programmiert werden, gibt es die Idee, neutral zu programmieren. Ist das eine realistische Vision?
Die erste Frage ist: Was ist neutral? KI-Systeme werden nicht von Programmierern programmiert, sondern lernen von Daten. Es gab Experimente mit KI-Systemen, um die Vorhersagbarkeit von Rückfällen bei Straftätern zu verbessern. Dabei wurde aus den Daten alles rausgenommen, was unerwünschten Bias generieren könnte wie Geschlecht, Hautfarbe, ethnische Zugehörigkeit, Religion und so weiter. Das hat aber überhaupt nicht dazu geführt, dass der Bias verschwunden ist, er war weiterhin da, versteckt in anderen Variablen. Jetzt tendiert man dazu, alle Daten zu verwenden, um den Bias zu kontrollieren. Das ist ein Beispiel dafür, dass man auch selber lernen muss, wie man solche Systeme konstruiert.
Im Umkehrschluss: Könnte Gesellschaft auch von dem profitieren, was Sie jetzt über die Modelle lernen?
Absolut. Wir sind in einer Phase, wo wir bei diesen großen Modellen studieren, wie sie zu den Entscheidungen kommen und wie wir die Entscheidungen verbessern können. Wir können dann schon Rückschlüsse auf unsere eigenen Denkprozesse und Verhalten machen. Insofern ist es ein tolles Forschungsinstrument, wenn man es richtig nutzt, um auch mehr über unsere eigene Intelligenz zu verstehen.
Und die Entwicklung in der Praxis?
Es wird häufig argumentiert, dass viele Leute ihren Job verlieren. Ich glaube, neben der Klimakrise ist die andere große Herausforderung unserer Generation der demografische Wandel. In 20, 30 Jahren werden wir riesige Bedarfe haben, im Handwerk, in Krankenhäusern, in der Pflege, in der Verwaltung …
Mir fehlt die Fantasie, wie diese Lücken ohne KI geschlossen werden sollen, wenn wir auf dem gleichen Serviceniveau bleiben wollen. Das unterschätzen viele aus der jetzigen noch komfortablen Position heraus. Aber ähnlich wie beim Klimawandel brauchen Sie nur die Fakten anzusehen und ein wenig in die Zukunft fortzuschreiben, dann wird klar, dass wir wirklich ein Riesenproblem haben. Selbst wenn wir die tollsten Einwanderungsprogramme auflegen, wird das nicht reichen. Und auf einen längeren Zeitraum wird es auch ein globales Problem. Deshalb ist wichtig, dass wir bei maschineller Intelligenz Fortschritte machen.