Wie viel Vertrauen schenken wir Informationen aus dem Internet? Diese Frage treibt all jene um, die sich mit den zahlreichen Künstlichen Intelligenzen für Bild, Video und Ton im Internet befassen.
Der Papst im Balenciaga-Mantel? Ein augenzwinkerndes Foto, das in diesem Jahr in sozialen Medien viral ging. Täuschend echt für alle jene, die im ersten Moment nicht erkennen, womit sie es zu tun haben: mit Künstlicher Intelligenz, einem Bild, das eben kein Abbild der Realität ist, sondern verschiedene Realitäten anhand maschinell erlernter Expertise miteinander zu etwas Neuem, nie Dagewesenem mischt. Mit irreführendem Text verbunden wird ein solches Bild zur Desinformation – zu einer absichtlich falsch erstellten Information, die dann im Internet verbreitet wird.
Die Grenzen zwischen Realität und Fiktion verwischen in einer Zeit, in der eine Verständigung auf einer gemeinsamen Basis von Wahrheit in einer Demokratie immer wichtiger wird – und die Demokratie mit Autokratien um Deutungshoheiten ringt. Was kann man also noch glauben, vor allem in den sozialen Medien? Wie gefährlich ist die Desinformationsmacht von Künstlicher Intelligenz? Mit dem KI-Boom seit 2022 stellen sich vermehrt auch Vertrauensfragen in diese Technologien. Nicht nur, weil die Prozesse hinter dem Entwickeln und Anlernen solcher Software hochkomplex erscheinen. Sondern auch, weil diese in der Lage sind, in Sekunden eine Menge Desinformationen zu erschaffen.
Die Unsicherheiten im Umgang damit sind in Europa weit verbreitet, fand in diesem August eine Studie der Bertelsmann-Stiftung heraus. Die Studie, bei der mehr als 13.000 EU-Bürger im Alter zwischen 16 und 70 Jahren befragt wurden, zeigte, dass 54 Prozent der EU-Bürger:innen in den letzten Monaten häufig oder sehr häufig unsicher über den Wahrheitsgehalt von Informationen im Internet waren. Nur vier Prozent waren nie unsicher. 39 Prozent der Befragten haben Desinformationen bewusst wahrgenommen, während nur zehn Prozent gar keine wahrgenommen haben. Hochschulabsolvent:innen sind demnach nicht nur häufiger unsicher, sondern nehmen auch eher Desinformation wahr als Personen, die über keinen formalen Bildungsabschluss verfügen. Jüngere Befragte sind tendenziell etwas seltener unsicher als ältere Befragte, nehmen aber zugleich häufiger Desinformation wahr.
Verunsichert über den Wahrheitsgehalt
„Mit Bildern lassen sich Desinformations-Beiträge passend illustrieren und können so auf den ersten Blick noch glaubwürdiger wirken. Den künstlich erzeugten Bildern sieht man manchmal, aber nicht immer ihre Künstlichkeit noch an. Da die Modelle jedoch permanent hinzulernen, ist davon auszugehen, dass die Qualität der Bilder immer besser wird“, sagt Philipp Müller, Akademischer Rat am Institut für Medien- und Kommunikationswissenschaft der Universität Mannheim.
„Eine qualitative Veränderung des Desinformationsangebots auf Basis von KI, die von Relevanz sein könnte, betrifft meines Erachtens vor allem Bilder und Bewegtbild, also Video“, sagt Christian Hoffmann, Professor für Kommunikationsmanagement an der Universität Leipzig. Fake News seien heute vor allem textbasiert – „zwar durchaus im Netz geteilt in Verbindung mit Bildern, beispielsweise als Meme, aber die Manipulation findet sich in der textlichen Aussage. Bildliche Manipulationen sind heute meist eher von geringer Qualität – sogenannte ‚cheap fakes‘. Das ändert sich durch KI potenziell erheblich. Irreführung durch Bild und Video wird so potenziell einfacher. Die große Unbekannte ist, wie das Publikum darauf reagiert und sich dem gegebenenfalls anpasst.“
Laut der Studie von Bertelsmann ist die Bereitschaft, die Echtheit von Text und Bild zu verifizieren, bei den Befragten eher gering. „Wenn gut 60 Prozent derer, die in jüngster Zeit unsicher ob des Wahrheitsgehalts einer Internetinformation waren, diese Information nachrecherchiert haben, sind knapp 40 Prozent untätig geblieben“, heißt es.
Prominentes aktuelles Beispiel für ein manipulierendes Bild: das Foto eines palästinensischen Vaters, der mit fünf Kindern aus den Trümmern eines Wohnhauses in Gaza steigt. Angeblich. Anhand fehlerhafter Handhaltung und Zahl der gezeigten Extremitäten, was derzeit offenbar ein häufiger Fehler in von KI-gerenderten Bildern zu sein scheint, können Betrachter feststellen, dass dies kein Originalfoto sein kann. Online-Programme wie AIorNot stellen ohne Zweifel fest, dass es sich dabei um ein Foto handelt, das mithilfe Künstlicher Intelligenz erstellt wurde. Dem flüchtigen Blick aber fallen die oft kleinen Unstimmigkeiten nicht sofort auf. Auch das Papst-Bild zeigte merkwürdige Fehler an den Händen und dem Kreuz um den Hals des unechten Heiligen Vaters.
Mächtige Wirkung in etablierten Medien
Noch ist Text das zentrale Mittel von Desinformation im Netz – und dieser wird nicht nur von Menschen verfasst, sondern kann auch aus den Untiefen einer Künstlichen Intelligenz stammen. Googles BardAI oder OpenAIs ChatGPT sind in der Lage, falsche Informationen zu liefern, wenn dem Chatbot beispielsweise Suggestivfragen gestellt werden, stellte das Unternehmen NewsGuard bei einem Versuch fest. Eine weitere Ursache könnten deren Trainingsdaten sein, also ein bereits fehlerhafter Input. Allerdings entstehen falsche Angaben auch aus der Grundprogrammierung des Chatbots heraus: Er wird immer antworten. Schweigen oder ein „Ich weiß es nicht, ich bin mir nicht sicher“ als Antwort ist offenbar nicht akzeptabel. Daher beginnt die KI als Antwort auf eine Frage gelegentlich Texte zu erstellen, die der Wahrheit möglichst nahekommen, aber eben nachprüfbar faktisch falsch sind. Das Konzept einer wahren Aussage kennt der Algorithmus nicht.
„Sprachmodelle ermöglichen die schnelle Erstellung von falschen oder fehlleitenden Informationen.“ Das sagt Prof. Dr. Andreas Jungherr, Inhaber des Lehrstuhls für Politikwissenschaft, an der Otto-Friedrich-Universität Bamberg. Er ist Experte für die Digitalisierung von Politik und Gesellschaft. „Die Modelle ermöglichen entsprechenden Akteuren eine sehr hohe Reaktionsgeschwindigkeit auf aktuelle Ereignisse. Gleichzeitig erlauben sie die Erstellung von unterschiedlichen Inhalten in hoher Zahl, die den gleichen Punkt in unterschiedlicher Form machen.“ So könne oberflächlich schnell der Eindruck entstehen, dass die Falschinformation im Netz stark vertreten und von unterschiedlicher Seite bestätigt werde. „Sprachmodelle erleichtern also mit Sicherheit das Erstellen von Falschinformationen mit hoher Geschwindigkeit und in großer Zahl.“
Wie wirkmächtig solche Technologien sein können, hänge jedoch von der Quelle ab, sagt Prof. Jungherr. „Klar können Sprachmodelle dabei helfen, viel Information ins Netz zu stellen oder vielleicht auch Sprecherinnen und Sprecher in Online-Kommunikationsumgebungen zu imitieren. Für die breite Wirkung von Falschinformation ist es jedoch entscheidend, dass sie den Weg in etablierte Medienmarken findet.“ Zum einen erreiche man dort noch immer das größte Publikum. Zum anderen vertrauen Leserinnen und Leser den dort aufgefundenen Informationen in der Regel – und laut aktuellen Studien noch immer – mehr als Informationen von unbekannten Webseiten oder den sozialen Medien. „Das reine Volumen von Falschinformationen in digitalen Informationsumgebungen muss also nicht entscheidend sein, solange etablierte Informationsmarken weiterhin in der Lage sind, durch redaktionelle Prozesse Informationsqualität zu garantieren.“ Dies treffe zu, wenn digitale Informationsumgebungen allgemein als unzuverlässig gelten, falls KI-generierte Desinformation dort als allgegenwärtig wahrgenommen werde, so Jungherr weiter. Kurz: Ist das Grundvertrauen wegen des schlechten Images sozialer Medien wie X, vormals Twitter, oder anderer ohnehin gering, ist das Gewicht Künstlicher Intelligenz bei der Herstellung von Desinformationen ebenfalls gering.
Auch Prof. Dr. Christian Hoffmann warnt davor, die Wirkung von künstlich erstellter Desinformation zu überschätzen. „Wir sollten nicht dem Irrtum erliegen, dass die Wirkung von Desinformation vor allem eine Frage des Angebots ist. Es werden heute schon sehr viel Spam und Fake News angeboten, die weitgehend wirkungslos bleiben“, so Hoffmann. Es gebe diverse Einflussfaktoren auf gesellschaftlicher, institutioneller und individueller Ebene, die beeinflussen, ob Desinformation mehr oder weniger Resonanz erzielt. Desinformation floriert demnach eher in Gesellschaften mit geringem Institutionenvertrauen, die geprägt sind von Polarisierung. Sie betrifft eher Akteure oder Organisationen, die umstritten sind und ein geringes Vertrauen genießen. „Es sind eher Individuen, die sehr politisch involviert sind, die politisch eher an den Rändern stehen, die ein geringes Institutionenvertrauen aufweisen – bis hin zu zynischen Einstellungen – und die politisch hilfreiche Inhalte eher außerhalb etablierter Medien suchen, die besonders für Fake News empfänglich sind.“
Das Vertrauen in Institutionen in Deutschland sei im Vergleich recht hoch und weise einen geringen Grad an Polarisierung auf. „Wir haben ein diversifiziertes Mediensystem, dem insgesamt auch vertraut wird. Das Personenpotenzial, das von politischem Zynismus und starker Polarisierung geprägt ist, ist begrenzt. Insgesamt ist daher die Anfälligkeit Deutschlands für Desinformation gering. An diesen Ausgangsbedingungen – der Empfänglichkeit für Fake News – ändert KI erstmal nicht viel“, erklärt Hoffmann.
Bilder und Videos wirken unmittelbarer als ein Text
Das Gefahrenpotenzial von falschen Bildern und Deepfake-Videos sei jedoch vorhanden. „Sie sprechen uns stärker auch emotional an, sie fesseln uns stärker. Sie wirken unmittelbarer. Nicht ohne Grund halten wir Bilder und Videos bisher für glaubwürdiger, weil schwieriger manipulierbar.“ Das habe sich geändert. Bilder und Videos können heute gleichermaßen gefälscht werden. Bisher sei dies aber noch recht hypothetisch, da Deepfakes, insbesondere politische, wenig verbreitet sind, sagt Hoffmann. „Wenn sich das ändert, ist vor allem die Frage, wie das Publikum darauf reagieren wird. Es ist möglich, dass Bilder und Videos ihre höhere Glaubwürdigkeit im Laufe der Zeit schlicht verlieren, dass die Grundskepsis gegenüber diesen Formaten also steigt.“
Künftig soll Googles Künstliche Intelligenz Bard mögliche Falschinformationen deutlich machen. Per Klick auf eine Schaltfläche sollen faktisch richtige Antworten, derer sich Bard sicher ist, grün hinterlegt werden. Orange hinterlegte Antworten wurden per Google-Suche hinzugefügt und können die Aussage widerlegen. Bard entscheidet dies anhand von Plausibilitätsprüfungen, von als seriös eingestuften Quellen, vieler übereinstimmender Informationen von unterschiedlichen, seriösen Quellen und Informationen, die möglichst wenig reißerisch und emotional aufbereitet sind.
Künstliche Intelligenz könnte damit auf dem Weg sein, wahr von falsch zu unterscheiden. Ob Bard mit seinen Einschätzungen jedoch immer richtig liegt, ist noch unklar. Suggestivfragen haben immerhin sowohl bei BardAI als auch bei OpenAIs Chatbot ChatGPT neuerdings weniger Chancen, Falschinformationen als Antworten zu produzieren. Doch ob Bilder oder Videos echt oder künstlich sind, wird in Zukunft wahrscheinlich nur einer entscheiden können – eine KI.