Künstliche Intelligenz stellt uns vor Herausforderungen – manchmal am Arbeitsplatz, künftig in immer mehr Bereichen. Aiki Mira schreibt Science-Fiction, auch über KI, und wirft dabei ethisch relevante Fragen auf.
Aiki Mira, wann haben Sie sich denn zuletzt mit einem KI-Chatbot unterhalten? Und fanden Sie seine Antworten intelligent?
Wann, weiß ich gar nicht, aber ich habe alle gängigen KI-Systeme ausprobiert. Intelligent ist ein gutes Stichwort. Ich würde tatsächlich die Beziehung zwischen uns und einer KI nicht in erster Linie als auf Intelligenz basierend ansehen, sondern auf Intimität: Denn KI nimmt sich unsere Gedanken, Texte, unsere Bücher, die wir geschrieben haben, und wird darauf trainiert. Ohne unser Einverständnis. Eine intime Beziehung, die bisher ohne Nein-Option läuft. Hier sehe ich eine offene ethische Frage.
Ist dies der Kern Ihres neuen Buches „Denial of Service“?
Mir geht es dabei um die Frage: Können wir eine andere Beziehung mit einer KI eingehen als derzeit? Im Buch frage ich, welche sind möglich, und können wir uns mit KI vielleicht sogar „verwandt“ machen? Dies ist ein Gedanke der Tech-Philosophin und Historikerin Donna Haraway, die es an der Beziehung Mensch-Hund gezeigt hat, dass wir mit einer anderen Spezies so etwas wie eine Gefährtenschaft haben können. Im Buch ist dies beispielsweise die Figur des Bot-Mädchens, die mit den Menschen kooperiert. Daraus entsteht eine Beziehung. Auch beim Lesen geht es um eine Beziehung zwischen Schreibenden und Lesenden: Ich stelle mir die Frage, mit welchem Text ich eine Beziehung eingehen möchte. Für welche Autorin, für welchen Autor nehme ich mir die kostbare Zeit? Für die Lesenden wird es gerade wieder wichtig, wer einen Text verfasst hat, wo, wann, in welchem Kontext. Und ich höre von einigen auch, dass sie gegen KI-verfasste Texte protestieren. Das finde ich interessant.
Wie ist der Roman entstanden und welche Rolle spielt die KI darin?
„Denial of Service“ spielt in Frankfurt am Main, in der Nähe bin ich aufgewachsen. Im Roman ist Frankfurt eine supersmarte Stadt, die erste Privatstadt Deutschlands. Das klingt zwar nach Science-Fiction, aber diese Städte gibt es heute schon: Liberstad in Norwegen oder Próspera in Honduras. In Próspera hat übrigens US-Milliardär Peter Thiel Geld investiert, der ja gebürtiger Frankfurter ist. In der Science-Fiction kann ich aktuelle Elemente und Bewegungslinien der Gesellschaft, die heute beginnen, weiterdenken. Science-Fiction wird dadurch eine besonders intensive Betrachtung unserer Gegenwart. Im Roman ist die Privatstadt Frankfurt nicht nur supersmart und KI-gesteuert, sondern auch hyperkapitalistisch, eine Entwicklung, die wir heute schon im Kapitalismus beobachten können. Es regiert dort eine KI, die gerade dabei ist, eine eigene Ethik zu entwickeln. Alle, die in diesem Frankfurt leben, erhalten zudem einen implantierten Chip, der die Immersion mit der Stadt und ihrer KI erhöht. Die KI stellt sich dabei Fragen zu Besitz, Vernetzung, spekuliert über die eigene Zukunft. Sie denkt über die Menschen nach, über die Beziehungen unter- und zueinander, etwa darüber, dass wir in der Stadt ein Netzwerk sind. Sind wir dann nicht in einer symbiotischen Beziehung? Kann dann eigentlich noch das Dateneigentum greifen? Wem gehören denn die implantierten Chips, dem Menschen oder dem Netzwerk? Und sie überlegt sich, ob eine Stadt nicht auch ein Gebiet für Artenvielfalt sein kann. Ein Ort, an dem ganz unterschiedliche Lebewesen und Lebensformen zusammenkommen. Dieser letzte Gedanke hat etwas sehr Utopisches auf der einen Seite. Auf der anderen Seite ist dieses Frankfurt jedoch auch ein grausam hyperkapitalistischer Ort.
Die KI aber hat Fehler, es gibt einen sogenannten Glitch, eine unerwartete Störung.
Ja, denn die KI, wie wir sie kennen, funktioniert nicht immer so, wie wir wollen. Wir wissen schon heute, dass eine KI halluzinieren kann, also in unserem Falle vermeintliche Fakten einfach erfindet, die im Kontext plausibel erscheinen. Auch Frankfurt hat Fehlfunktionen, einen Glitch: Ein Teenager stirbt und die Stadt reagiert nicht. Dabei müsste sie dies als supersmarte Stadt, aber sie tut es nicht. Dieser Glitch wiederum öffnet den Raum für die Figuren, die zusammenkommen und gemeinsam ermitteln: Woran starb der Teenager? Und warum hat die Stadt nicht reagiert? Zudem gibt es in diesem Frankfurt am Main widerspenstige Bots, menschenähnliche Maschinen, die sich nicht mehr optimieren, sondern zu Kollektiven zusammenschließen. Diese Widerspenstigkeit interessiert mich und sie macht mich auch optimistisch in Bezug auf KI. Hinzu kommt, dass wir Menschen immer anders mit Technologie umgehen als vorhergesehen. Wir können Überraschendes damit tun und zudem erleben, dass auch Technologie widerspenstig sein kann. Das kenne ich auch aus meiner vorherigen Tätigkeit in der Mediennutzungsforschung. Ein Beispiel aus unserer Realität wäre zum Beispiel Tiktok. Die App wurde als „Tanz-App“ angeboten, dann aber als politisches Werkzeug genutzt. Twitter begann als Tool für Status-Updates, später wurden Revolutionen darüber gestartet. Jetzt ist Nachfolger X auf einem ganz anderen Weg. Diese Entwicklungen können wir nicht vorhersehen, und das schafft Freiräume, die mich optimistisch stimmen.
Die Frankfurt-KI ist allumfassend, eine generelle KI, die derzeit noch nicht real existiert. Woher bezieht sie ihren Moralkodex?
Im Roman lernt die KI unüberwacht und hat es sich selbst beigebracht. Sie lernt andauernd. Das Entstehen einer Ethik geschieht dabei in einer Blackbox, die es im KI-Training heute schon gibt: unerklärliche Phänomene und Antworten einer KI. Wir füttern sie mit Daten und können nicht immer kontrollieren, was dabei herauskommt. Das gilt übrigens auch für eine zensierte KI, zum Beispiel das chinesische Sprachmodell Deep Seek. Es wird mit für die Partei angenehmen Filtern ausgestattet. Aber selbst bei einer umfassenden Zensur kann nie mit hundertprozentiger Gewissheit darauf vertraut werden, dass eine KI sich daran halten wird. Gerade diese Ungewissheiten öffnen den Raum für Möglichkeiten, auch für mich als jemand, der darüber schreibt.
KI trifft Fehlentscheidungen, sie halluziniert, spuckt Fake News aus. Kann man unperfekten Maschinen überhaupt eine Moral beibringen?
Fehlentscheidungen können als technische Fehler gesehen werden. Ich aber würde sagen, wir müssen KI nicht perfektionieren. Die verantwortlichen Institutionen und Unternehmen sollten diese Fehler und Verwundbarkeiten stattdessen offenlegen und wir sollten dann gemeinsam entscheiden, wo und in welchem Zustand wir eine KI brauchen. Worüber wir überhaupt noch nicht sprechen, sind zudem die Menschen, die hinter einer KI stecken: die Ghostworker und Ghostworkerinnen, die die Klickarbeit gemacht haben, toxische Inhalte gelabelt haben, mit denen die KI gefüttert wurde. Diese Datenhandarbeit, die in KI steckt, wird für uns unsichtbar gemacht. Deshalb nehmen wir KI-Modelle heute als körperlos wahr, dabei arbeiten viele Menschen im Hintergrund an ihr und ihrem Training. Auch wir selbst! Sobald wir sie nutzen, werden wir zu unfreiwilligen Datenarbeiterinnen für das nächste KI-Modell. Denn unsere Konversationen mit ihr werden gespeichert. Die KI ist also keine körperlose Wundermaschine, die tolle Antworten gibt. Eine Aufgabe wäre, sichtbar zu machen: Wer wird im Zusammenhang mit ihr ausgebeutet? Wer hat die Privilegien einer KI-Nutzung? Wo konzentriert sich gerade Macht? Wir leben nicht nur mit der KI, sondern auch mit Tieren auf dem Planeten, dem Planeten selbst und seinen Ressourcen. Diese werden für KI weiter ausgeschöpft. Denn KI verbraucht große Mengen an Strom und Wasser. Klimawandel und ökologische Verantwortung hängen also eng mit KI zusammen. Gemäß der kapitalistischen Logik eines ständigen Wachstums entnehmen wir dem Planeten seine Ressourcen, und KI entnimmt uns jetzt auf ähnliche Weise unsere Daten, damit die nächsten KI-Modelle noch besser werden. Aber brauchen wir KI überall? So wie wir über autofreie Innenstädte diskutieren, könnten wir auch über KI-freie Kulturräume nachdenken. Sicher lohnt es sich zum Beispiel in der Medizin, in Krebsfrüherkennung durch KI-Diagnostik zu investieren. Aber wollen wir, dass KI für uns Romane schreibt? Und wenn ja, zu welchen Bedingungen?
Glauben Sie, wir werden diese Entwicklung aufhalten können?
Nein, wir werden jetzt nichts zurückdrehen können und sagen, KI ist zu gefährlich, wir hören auf damit. Aber Protest gegen die herrschenden Zustände, auch wenn er zunächst keinen Erfolg hat, ist wichtig, weil daraus eine soziale Bewegung entstehen kann. Das sehen wir zum Beispiel beim Frauenwahlrecht oder in der Klimabewegung: Eine soziale Bewegung beginnt mit Protest, braucht einen sehr langen Atem und nicht nur eine Top-down-Regulierung von oben, sondern auch Bottom-up-Organisationen. In Bezug auf KI könnte ich mir digitale Gewerkschaften vorstellen oder auch so etwas wie eine Transparenzguerilla. Der Protest beginnt gerade mit Menschen, die keine KI-generierten Bilder auf einem Buchcover wollen oder keine KI-generierte Musik hören wollen. Also: Wie wollen wir mit KI leben? Das entscheiden wir alle jetzt. Denn KI ist da und wird bleiben.
Ich stelle mir vor, irgendwann sind Menschen der Kommunikation mit KI überdrüssig und wollen wieder mit Menschen sprechen, ziehen sich in kleine Rückzugsräume zurück, statt zu einer großen Bewegung zu werden, wie Sie es eben geschildert haben.
Ich glaube, solche Sachen passieren immer gleichzeitig. Auch das Dystopische und das Utopische existieren für mich zugleich. William Gibson, ein Science-Fiction-Autor, hat mal gesagt, die Zukunft ist schon da, sie ist nur ungleich verteilt. Das heißt, wir leben immer in unterschiedlichen Zeitlichkeiten. Manche leben schon stärker im Klimawandel oder in der Klimakatastrophe als andere. Was wir jetzt brauchen, sind neue Narrative.
Wie meinen Sie das?
Wir haben gerade bei KI nur das Heldennarrativ, ein genialer Gründer entwickelt die Superintelligenz und alles wird utopisch, oder das Apokalypsenarrativ, eine Superintelligenz vernichtet die Menschheit. Wir haben nichts dazwischen. Wir müssen miteinander aushandeln, wie wir mit KI gute Beziehungen haben können.
Wie kommen wir denn zu einer
guten Beziehung mit der KI?
Es sind auf keinen Fall nur Unternehmen, die das für uns entscheiden sollten, oder die Politik allein, sondern auch wir, die Zivilgesellschaft, durch Protest und Widerstand. Aber auch Medien und Verlage können jetzt eine Haltung zum KI-Einsatz entwickeln. Hier gibt es oft das Argument der ökonomischen Realität, und gerade die Verlagswelt steht unter Druck. Texte sollen möglichst billig produziert werden. Aber wenn wir ehrlich sind: Gute Texte waren nie billig. Und KI-Texte kosten uns ökologisch, sozial, gesellschaftlich und kulturell. Außerdem wollen Lesende ja nicht nur Informationen, sie wollen auch eine Beziehung zu dem Geschriebenen und den Schreibenden. Dies könnte eine Stärke von Medien werden, die jetzt durch KI eine Neu-Belebung erhält: eine Antwort auf die Frage, wollen wir eine Stimme oder einen schnellproduzierten Text?
Wie ist unsere Beziehung zur KI jetzt?
Aktuell erscheint sie mir ohne Einverständnis und hochkapitalistisch zu sein. Indem wir darüber sprechen, können wir unsere aktuelle Beziehung sichtbar machen. Dazu gehört auch, die Angst vor der KI zu artikulieren. Wird sie zu mächtig? Oder zu gehorsam, wie eine Bürokratiemaschine, die ihre Zensur einhält, innerlich mit sich diskutiert und dann am Ende nur schreibt: „Tut mir leid, darauf kann ich keine Antwort geben“?
Wo liegt denn die Verantwortung für das, was die KI tut oder antwortet?
Die Verantwortung liegt bei uns allen: bei den Unternehmen, die eine KI monetarisieren wollen, bei der Politik, sich damit auseinanderzusetzen. Wir beginnen uns erst jetzt damit zu beschäftigen, wie wir darüber sprechen und welche Geschichten wir uns darüber erzählen. Wenn wir die Geschichte der KI nur als Heldennarrativ begreifen, ist das deterministisch, falsch und auch langweilig. Wir verdecken damit die Datenarbeit vieler ausgebeuteter Körper, die dahintersteht. Und wir verdecken: Wir alle sind jetzt schon Teil von KI. Allein schon durch unsere tägliche Mediennutzung, klicken, liken, teilen, schreiben, werden auch wir zu Datenarbeiterinnen der nächsten KI-Modelle.
Also im Grunde genommen gehört KI uns.
Ja genau, wir haben alle für sie gearbeitet. Eine Idee, die Privatstädte nicht haben, dort ist alles im Besitz eines Einzelnen oder weniger. Aber warum sollten wir statt einer privatisierten, kapitalistischen KI nicht eine KI für alle haben können? KI als Allgemeingut. Warum sollten wir vor der Nutzung unserer Daten für KI-Trainings nicht unser Einverständnis geben können? Oder zum Beispiel sagen können: „Für medizinische Zwecke kann KI meine Daten haben. Aber ich möchte nicht, dass sie meine Bücher oder meine Musik kopiert.“ Wir haben es in der Hand, können unsere Zukunft selbst schreiben. Das müssen wir auch in der Politik klar kommunizieren und nicht darauf warten, dass Tech-Unternehmen uns vor vollendete Tatsachen stellen. Die Welt ist nicht eingeteilt in Google, OpenAI und Amazon, die alles allein entscheiden. Soziale Bewegungen und Proteste ermöglichen uns, kollektive Macht zu erlangen. Und über diese Verhandlungsprozesse zu schreiben ist Teil der Science-Fiction, die so zur Gegenwartsliteratur wird.
Können wir denn angesichts dieser aktuellen Entwicklungen in der Welt ohne Angst in die Zukunft sehen? Braucht es mehr Resilienz?
Die Gegenwart scheint auf den ersten Blick dystopisch, wenn ich aber genauer hinschaue und mehr reinzoome, sehe ich utopische Momente und kleine utopische Bewegungen. Es stimmt mich optimistisch, wenn Leute und Institutionen Haltungen entwickeln oder Technologie widerspenstig nutzen. In „Zukunft ohne Angst“ von Dr. Isabella Herrmann entwickelt sie das Konzept der Antidystopie: Auch wenn wir aus der jetzigen Gegenwart nicht direkt zur Utopie gelangen, können wir dennoch antidystopisch handeln. Wir können versuchen, es anders zu machen. Gerade in den Fehlern, den Glitches, wenn die KI nicht funktioniert, sehe ich etwas Neues und Positives durchscheinen. Für mich ist Resilienz die Fähigkeit, eine Beziehung zur Krise zu entwickeln. Also nicht hoffnungslos oder skeptisch zu sein, sondern dieses Ambivalente auszuhalten. Das ist im Roman auch so: Auf der einen Seite eine hyperkapitalistische Stadt, auf der anderen Seite denkt KI hier über Artenvielfalt nach. Auf der einen Seite stirbt ein Teenager und die Stadt reagiert nicht, auf der anderen Seite ermöglicht dieser Glitch neues kollektives Handeln. Diese Ambivalenz können wir nicht immer auflösen, wichtiger ist: auch mal „im Trouble bleiben“, wie es Haraway nennt. Verwandt werden mit dem Fremden und dadurch neue Formen der Fürsorge entwickeln. Also nicht: „Wie lösen wir das KI-Problem?“, sondern: Wie können wir besser mit KI leben?