Es gibt Anzeichen für generelle Künstliche Intelligenz beim Nachfolger von ChatGPT – und die Forderung nach einem Forschungsmoratorium. Sind wir bereit, Entscheidungen an eine Maschine abzugeben? Wie viel Vertrauen setzen wir in sie?
Im Jahr 1942 erdachte der amerikanisch-russische Science-Fiction-Autor Isaac Asimov die drei Robotergesetze. Sie lauten: Ein Roboter darf kein menschliches Wesen wissentlich verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird. Ein Roboter muss den Befehlen gehorchen, die ihm von einem Menschen gegeben werden – es sei denn, die Befehle laufen Regel eins zuwider. Und ein Roboter muss seine eigene Existenz beschützen, solange dies nicht mit Regel zwei oder eins kollidiert.
Glaubt man Wissenschaftlern wie dem verstorbenen Astrophysiker Stephen Hawking, der vor einer KI warnte, Unternehmern wie Elon Musk, dem Apple-Co-Gründer Steve Wozniak, dem philosophierenden Historiker Yuval Harari oder dem KI-Forscher Vincent Conitzer, brauchen wir jetzt eine Pause.
Eine Pause in der Konstruktion einer Künstlichen Intelligenz (KI), um über Standards wie Asimovs Robotergesetze im Umgang, Entwicklung und Training einer KI nachzudenken. Denn: „Fortgeschrittene künstliche Intelligenz könnte einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde bedeuten und sollte mit angemessener Sorgfalt und Ressourcen geplant und verwaltet werden.“ Mehr als 10.000 Unternehmer und Forscher haben den offenen Brief für ein Moratorium unterzeichnet.
„Tiefgreifender Wandel in der Geschichte“
Der Grund: Wir sind kurz davor, eine generelle Künstliche Intelligenz zu schaffen. Vor wenigen Monaten startete der Hype um ChatGPT des Unternehmens OpenAI in den USA, in dem die Forscher über einen Chatbot einem Großteil der Welt Zugang zu einer KI gewährten. Diese KI, ein sogenanntes „Large Language Modell“, ist eine Textmaschine, die die Essenzen von Texten erfassen kann – sie versteht, fasst zusammen, beantwortet Fragen. Ihre Antworten basieren auf 175 Milliarden Parametern, 300 Milliarden Wörtern, insgesamt 570 Gigabyte an Text, die Forschende in ihr neuronales Netzwerk eingespeist haben. Und GPT-3 hat fleißig gelernt.
Dies ist jedoch nur die Vorstufe. Nachfolger GPT-4 zeigt bereits, so eine erste Studie, erste Anzeichen von genereller Intelligenz. Wäre sie vollständig entwickelt, wäre sie fähig, alle kognitiven Aufgaben auszuführen, die auch von einem menschlichen Gehirn bewältigt werden können. Anders als die heutige KI, die oft auf bestimmte Aufgaben in engen Grenzen beschränkt ist, wäre eine generelle Künstliche Intelligenz flexibel und vielseitig. Eine solche KI wäre in der Lage, Sprache zu verstehen, kreativ zu denken, emotionale Intelligenz zu zeigen und menschenähnliche kognitive Prozesse auszuführen. Tests zeigten, dass GPT-4 die ersten Funken von Kreativität zeigt.
Aber sind wir bereit dafür? Die Unterzeichner des offenen Briefes stellen fest, dass „leistungsstarke KI-Systeme erst dann entwickelt werden sollten, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind“. GPT-Entwickler OpenAI habe selbst einmal zugegeben, dass ab einem bestimmten Zeitpunkt eine unabhängige Überprüfung einzuholen sei, bevor mit dem Training zukünftiger Systeme begonnen wird, und die Wachstumsrate der für die Erstellung neuer Modelle verwendeten Rechenleistung zu begrenzen. „Dieser Zeitpunkt ist jetzt gekommen.“, heißt es in dem Brief.
Denn GPT ist nicht die einzige Künstliche Intelligenz. Schon lange bestimmen Algorithmen, welche Werbung wir sehen oder welche Route wir nehmen. Neu ist, dass der Zugriff von Millionen von Menschen auf ein so mächtiges Text- und Sprachmodell niedrigschwellig geschieht wie im Falle von GPT-3. Andere Large-Language-Modelle wie Googles Bard sind ähnlich mächtig, aber noch nicht so weit verbreitet. Der Erfolg von ChatGPT zwingt nun auch deutsche Unternehmen wie Neuroflash aus Hamburg, ihre KI ebenfalls rasch über das Internet verfügbar zu machen. Andere wie die Übersetzungsmaschine DeepL aus Köln, das Process-Mining-Unternehmen Celonis aus München oder die Diagnose-KI von Ada Health aus Berlin sind bereits etabliert – ihre KI aber ist stark spezialisiert. Doch es gestaltet sich langsam ein Markt für mächtigere KI-Modelle wie GPT aus. Schon jetzt ist Microsoft an OpenAI beteiligt und nutzt die Technologie in seiner Suchmaschine Bing.
Deshalb hat OpenAI zwar die Erfolge mit GPT-4 öffentlich und auch viele Einzelheiten transparent gemacht – aber nicht alle. Das verärgert die Verfechter der offenen, transparenten KI-Forschung, in deren Geist die OpenAI ursprünglich einmal gegründet worden war. Ab sofort will OpenAI aus Gründen der Sicherheit und natürlich des Wettbewerbsumfeldes „keine weiteren Details über die Architektur, die Hardware, die Trainingsberechnung, die Datensatzkonstruktion, die Trainingsmethode oder ähnliches“ mehr bekannt geben, heißt es seitens OpenAI. Und genau diese mangelnde Offenheit könnte eine möglichst breite Debatte über jene Technologie erschweren, die das aktuelle Jahrhundert dominieren könnte – so eindrucksvoll wie seinerzeit die Schrift, der Buchdruck, das Internet. Andererseits aber ermöglicht eine mächtige und quelloffene KI auch Fortschritte in Richtung Autoritarismus, Desinformation, Überwachung, Cyberkriegsführung. Denn eine KI arbeitet gemäß ihres Trainings. Trainiert sie, aus bestimmten Informationen Falschinformationen zu generieren, könnte es spezialisierter Systeme bedürfen, um diese als solche zu enttarnen.
EU beschließt KI-Richtlinien
Wie können wir als Endanwender also einer solch komplexen Technologie vertrauen? Im Kontext spezialisierter KI, wie sie in sozialen Medien eingesetzt wird, scheint es zu klappen – hier verlieren Anwender rasch manche Hemmungen vor dem unsichtbar wirkenden Algorithmus. Mächtigere KI aber lösen sofort Ängste aus. Die Popkultur ist daran mit schuld: Skynet, die weltumspannende Super-KI aus der „Terminator“-Reihe, löscht mit ihren Killerrobotern die Menschheit aus. HAL9000, die Raumschiff-KI aus dem Film „Odyssee im Weltraum“, versucht Dave umzubringen, bevor dieser die Maschine abschalten kann. Es gibt aber auch hier Gegenbeispiele: R2-D2 und C3PO aus „Star Wars“ oder der Android Data aus „Star Trek“ erinnern daran, dass Künstliche Intelligenz tatsächlich die Menschheit voranbringen kann – wenn sie klug und verantwortungsvoll eingesetzt wird.
Italien hat kürzlich den Einsatz von ChatGPT aus Daten- und Jugendschutzgründen verboten. Bislang ist nicht bekannt, auf welcher textlichen Grundlage der GPT-Algorithmus trainiert. Unterliegen die Texte in Deutschland der Datenschutzgrundverordnung, könnte auch in Deutschland das Aus drohen. Richtlinien dafür gibt es: Die EU hat Ende 2022 erstmals verbindliche Regeln für den Einsatz von KI festgelegt. Sie müsse die Grundrechte beachten und sicher sein. OpenAI sieht sich derweil einer Klage gegenüber: das Center for Artificial Intelligence and Digital Policy fordert die US-Handelskommission FTC auf, OpenAI daran zu hindern, neue kommerzielle Versionen von GPT-4 herauszugeben. Die KI sei „einseitig, irreführend und eine Gefahr für die Privatsphäre und die öffentliche Sicherheit“. Auf Behörden-Ebene ist die Debatte offenbar bereits angelangt, und das mag einigermaßen erstaunlich sein. Nun muss sie aber auch in der Öffentlichkeit geführt werden – am besten mit, aber zur Not auch ohne Moratorium.