Für die Volkswirtschaftlerin und Comic-Essayistin Julia Schneider ist ChatGPT ein alltäglicher Gesprächspartner. Dennoch warnt die Wissenschaftlerin davor, das Thema zu naiv anzugehen und plädiert für mehr Transparenz – und eine breite Diskussion über Künstliche Intelligenz.
Frau Dr. Schneider, haben Sie heute schon eine Künstliche Intelligenz (KI) genutzt?
Ja, ich habe mir Empfehlungen für Nachrichten geben lassen, meinen Messenger gecheckt, diese arbeiten auch sehr oft mit KI. Und ich habe mir den Transfer zum Flughafen per Google Maps herausgesucht. Also dreimal KI-unterstützte Tätigkeiten noch vor meinem ersten Cappuccino.
Was unterscheidet denn diese Anwendungen von ChatGPT, genauer GPT-3, jener KI, die derzeit stark in der Öffentlichkeit steht?
Seine rasche Verfügbarkeit für alle. Der eigentliche Durchbruch kam 2021 unbemerkt von der Öffentlichkeit: Inkrementelle, also schrittweise Forschung lässt eine KI entstehen, die durch komplexe Modelle, Daten und Rechenpower unserer Intelligenz ähnelt. Zunächst war OpenAI, das Unternehmen hinter ChatGPT, selbst überrascht von seinem Erfolg. Sie wollten den damaligen Forschungsstand von GPT-3 zeigen, dem Sprachmodell, an dem sie arbeiten. Die Chat-Schnittstelle sollte für die interessierte Forschungs-Community sein. Natürlich ist GPT-3 nicht perfekt, es halluziniert, erzählt manchmal falsche Informationen. Aber OpenAI hat völlig unterschätzt, was passiert, wenn sie einen Chatbot anschließen: Plötzlich hatte die ganze Welt Zugriff auf eine KI, konnte mit ihr experimentieren, sie an ihre Grenzen und darüber hinaus bringen. Die Nutzerzahlen sind innerhalb von wenigen Tagen auf eine Million und innerhalb von Wochen auf über 100 Millionen geschossen. Das Neue also im Gegensatz zu den anderen KI-gestützten Programmen ist die niedrige Hürde einer Chat-Schnittstelle zu einem Large-Language-Model, einem mächtigen Sprachmodell, das die Essenz von Text und Sprache verstehen und verarbeiten kann.
Was genau bedeutet „Essenz erkennen“?
Ich führe sehr oft Konversationen über ChatGPT, und ich bin jedesmal erstaunt, wie gut GPT-3 erkennen kann, worum es genau in einem Text geht. Es ist in der Lage, sie für mich zusammenzufassen. Ich nutze das Programm wie einen Gesprächspartner, als Ideengeber, und ich kenne mittlerweile sehr viele Menschen im Kreativbereich, die dies auch so nutzen.
Halten Sie GPT-3 für eine Evolution oder eine Revolution?
Medientechnisch sicher eine Revolution, die aus einer inkrementellen Evolution entstanden ist. Ich würde es mit der Entwicklung des Buchdrucks vergleichen – er revolutionierte die Verbreitung des Buches, ist aber nicht plötzlich entstanden.
Wie würden Sie das Modell einsetzen?
Es ist eine generative Textmaschine und kann in diesen Bereichen eingesetzt werden, zum Beispiel in der Lehre. Viele Menschen haben Angst vor dem leeren Blatt, wenn sie einen Text schreiben sollen. Wenn sie GPT-3 sagen, worum es geht, kann die KI schon mal einen ersten Vorschlag machen. Das hat etwas Demokratisierendes. Die nächsten Modelle, GPT-4 oder GPT-5, an denen gerade gearbeitet wird, sind noch einmal um vieles mächtiger. Und das besorgt mich.
Warum?
GPT-4 zeigt, so Studien, Anzeichen genereller Intelligenz. Meine Sorge ist, dass wir nicht genau verstehen, warum und auf welchen Grundlagen welche Entscheidungen von dem Sprachmodell getroffen werden, egal ob GPT-4 oder alle folgenden. Wir besitzen nun eine Technologie, die die Essenz unserer Sprache verstehen und uns darin unterstützen kann, etwas daraus abzuleiten – Text, Sinn, Information. Auf der anderen Seite gibt es Menschen, die dies aufnehmen und weiterverarbeiten, also dem Sprachmodell in dem vertrauen, was es ausspuckt. Das ist ein gefährlicher Mix, insbesondere, wenn wir die Frage von Ethik und Moral miteinbeziehen. Denn wir wissen nicht, was geschieht, wenn ein autoritäres Regime eine KI entwickelt. Sie würde sicher ganz anders agieren als eine, die durch Forschende mit unseren Werten, unseren Vorstellungen von der Welt entsteht.
GPT-4 gilt als Vorstufe einer sogenannten generellen oder allgemeinen Künstlichen Intelligenz, die alle intellektuellen Fähigkeiten eines Menschen erreicht und gleichzeitig übertrifft. Welche Risiken sehen Sie darin?
Ich sehe zunächst sehr viele Chancen in der Technologie, aber ich plädiere für Räume, in denen wir gefahrlos diese neue Technologie ausprobieren können. Nur so erkennen wir die Risiken. Deshalb bin auch ich wie so viele andere, wie Elon Musk oder Steve Wozniak und zahlreiche andere KI-Wissenschaftler, für ein Moratorium der KI-Forschung. Niemand kann heute seriös die Frage beantworten, was die Risiken der Künstlichen Intelligenz sind. Wir sind erfinderisch, auch um Schutzmaßnahmen der KI zu durchbrechen. Deswegen rate ich hier zu Besonnenheit. Wir sprechen hier über autonome Waffensysteme; wir reden über Cyberkriegsführung; wir reden über Deepfakes, Überwachung und Falschinformation, die von echter Information nicht zu unterscheiden ist. Wir müssen also darüber sprechen, wie KI-Standards aussehen müssen und ob KI-generierte Werke markiert werden. Wir müssen darüber sprechen, wie wir KI einsetzen, ohne unsere intellektuelle Leistung vollständig von ihr übernehmen zu lassen. Wir müssen darüber sprechen, wie wir KI in der Bildung einsetzen, ohne zu verdummen, sondern um uns weiterzuentwickeln. Und wir müssen über das Thema Nachhaltigkeit sprechen, denn Computer verbrauchen viele Ressourcen, von Strom ganz zu schweigen.
Welche Kompetenzen brauchen wir also im Umgang mit der KI?
Das kann ich nicht abschließend beantworten, aber diese Technologie muss diskutierbar sein. Das ist mir am wichtigsten. Insbesondere auch jene Menschen, die Angst vor dieser Technologie haben, müssen sich eine fundierte Meinung dazu bilden können. Das heißt, wir müssen es schaffen, diese Technologie niedrigschwellig zu vermitteln – so wie ich das über meine Comics versuche, über Edutainment, über Podcasts oder Filme. Möglichst viele Menschen sollen befähigt werden, darüber nachzudenken und darüber zu diskutieren, wie und wo man beispielsweise Sicherheitsnetze um diese KI ziehen kann. Außerdem hoffe ich, dass dem Emotionalen, dem Sozialen in unserer Bildung mehr Raum gewährt werden kann. Denn jener Frontalunterricht, in dem wir wie ein Computer zum Auswendiglernen gezwungen sind, könnte durch den verbreiterten Einsatz von KI obsolet werden.
Welche Kompetenzen verlieren wir beim Nutzen der KI?
Ich persönlich werde fauler im Nachdenken oder besser im Memorieren. So wie wir heute schon mal eben schnell googeln, wenn wir etwas nicht wissen, fragen wir künftig eine KI. Es sind noch mehr Kompetenzen denkbar, die wir verlernen könnten. Etwa die Kompetenz des Spracherwerbs – wir könnten durch Übersetzungs-Apps auf dem Smartphone heute schon auf Island überleben, ohne auch nur ein Wort Isländisch zu können.
Welche Jobs gehen verloren?
Alle repetitiven, routinierten Tätigkeiten. Zunächst dachte man, alle Blue-Collar-Jobs könnten ersetzt werden, aber nein, einen Klempner kann ich nicht mittels KI ersetzen. Das ist nach wie vor so. Aber alle Jobs oder Teile von Jobs, die wenig flexible Entscheidungen verlangen, die wenig Empathie und soziale Fähigkeiten verlangen, könnten ersetzt werden. Im Journalismus braucht man niemanden, der Sportmeldungen tippt, weil die Ergebnisse aus Datenbanken abrufbar und die Formulierungen immer die gleichen sind. Im Marketingbereich etwa kann mithilfe von ChatGPT getextet werden. Bild-KI wie Midjourney oder Dall-E können helfen, Kampagnen zu konzipieren. Trotzdem werden dort weiterhin Leute gebraucht, die die Texte und Bilder kuratieren. Denn das Gefühl, ob jener Text oder jenes Bild in diesem Kontext überhaupt passt, kann nicht durch eine KI ersetzt werden.
Blicken wir in die Zukunft: Quantencomputing, neuromorphes Computing sollen das Rechnen mit unseren herkömmlichen Computern ablösen. Was bedeutet das für die Zukunft der KI?
Quantencomputer und neuromorphe Computer sind disruptive Arten des Computings, um die Beschränkungen unserer heutigen Rechner zu durchbrechen. Bislang rechnen wir mit der Von-Neumann-Methode – der PC ist ein Universalrechner, das heißt, Daten und die Programme, um mit den Daten zu arbeiten, sind in einem Rechner gespeichert, CPU und Datenspeicher aber physisch getrennt. Beide müssen kommunizieren. Physikalisch aber stoßen wir heute an die Grenze dieser Architektur, weil die Geschwindigkeit der Kommunikation kaum noch erhöht werden kann. Deshalb brauchen wir neue Methoden. Neuromorphes Computing bedeutet zum Beispiel, dass ein Computer rechnet wie ein Gehirn und erst ab einer gewissen Reizschwelle arbeitet und auch vergessen kann. KI kann mit diesen neuen Methoden des Computings in Echtzeit und vor allem mehrere Dinge gleichzeitig berechnen. Mit der Von-Neumann-Methode geht es nur nacheinander – und das dauert. Für autonomes Fahren etwa, wo eine KI kaum Zeit zu reagieren hat, sind Sekundenbruchteile entscheidend.
Wann wird uns die KI ethische Entscheidungen abnehmen?
KI, die uns Entscheidungen abnimmt, gibt es schon heute. In der Industrie übernimmt häufig Software die Aufgabe, Ausschuss zu identifizieren. Diese Entscheidung ist uns aber egal. Wo es uns nicht egal ist, ist dort, wo Menschen involviert sind. Dort aber dürfen wir ihr nicht vorbehaltlos glauben. Denn Entscheidungen sind häufig noch nicht ausgereift, beim autonomen Fahren beispielsweise. Wie KI ungewollt zu Diskriminierung führen kann, zeigt ein Beispiel von Amazon. Der Onlinehändler wollte Bewerbungen automatisch vorsortieren – doch die Software war der Meinung, dass vor allem Männer eingestellt werden sollten. Das Problem lag hier wie so oft bei den Trainingsdaten, anhand derer die KI lernen sollte, welche Bewerber Amazon einstellen will. Die KI-Modelle wurden mit Bewerbungen trainiert, die in den letzten zehn Jahren bei Amazon eingegangen waren. Die meisten davon stammten von Männern. Das System schloss daraus, dass Männer die bevorzugten Arbeitskräfte seien. Wir halten uns an solche Entscheidungen Gott sei Dank nicht. Aber wer sich nicht mit den Hintergründen der Entscheidungsfindungen von KI auskennt, der glaubt ihr womöglich. Das heißt: Wenn eine KI entscheidet, müssen wir uns darüber im Klaren sein, dass eine KI, ein Algorithmus ebenfalls fehlbar ist.
Und wann wird die KI einen Überlebenswillen entwickeln?
Wenn wir in der Lage sind, sie mit der Biologie zu verbinden – wenn die KI also sterben kann. Es gibt bereits heute Experimente, die künstlich hergestellte Hirnzellen erfolgreich mit einem Computer verbinden. Dies ist ein uralter Traum des Menschen – sich selbst aus unbelebter Materie nachzubilden – mit zahlreichen Referenzen in der Kulturgeschichte: der Golem in der jüdischen Mystik, der Maschinenmensch Maria im Film „Metropolis“. Diesem Traum, manche würden sagen Alptraum, sind wir ein ganzes Stück näher gerückt.