Wie weit darf KI in Bereichen eingesetzt werden, die das Leben der Menschen direkt betreffen? Die Antworten sind ein klarer Fall für den Ethikrat.
Nach dem Beginn der Pandemie schreckte das Wort „Triage“ viele Menschen auf. Ein Arzt muss in einem überfüllten Krankenhaus entscheiden, wer zum Beispiel beatmet wird und wer nicht. Kein Mediziner wünscht sich, jemals in solch eine Situation zu kommen, obwohl diese nun mal zu seinem Beruf dazugehört. Darum nun die Überlegung, diese Entscheidung über Leben oder Tod einfach auf die Künstliche Intelligenz zu übertragen. Sozusagen ein Triage-Bot. Das würde den Ärzten eine weitreichende Gewissensentscheidung abnehmen, und man hätte die Sicherheit, dass weder subjektive noch emotionale Momente diese Entscheidung beeinflusst haben. Ein unbestechlicher Algorithmus würde anhand der Patientendaten, dank elektronischer Krankenkassenkarte und der in den Rechner eingepflegten aktuellen Diagnose festlegen, ob – wie im genannten Beispiel – ein Patient beatmet wird oder nicht.
Das klingt nach ferner Zukunft, allein schon aus dem Grund, dass es die elektronische Patientenakte in Deutschland bis heute nicht gibt, vor allem aus datenschutzrechtlichen Gründen. Aber möglich wäre eine Algorithmus-gestützte Triage schon heute.
Für die Medizinerin und Vorsitzende des Deutschen Ethikrates, Professorin Alena Buyx ist das beschriebene Beispiel zwar denkbar, dürfte aber niemals umgesetzt werden: „Künstliche Intelligenz kann den Menschen bei der Arbeit oder bei Entscheidungen unterstützen, darf aber niemals die Handlungsmöglichkeiten des Menschen vermindern oder gar einschränken.“ Wobei sie im FORUM-Gespräch klarstellt, dass sie auf keinen Fall KI verdammen will, ganz im Gegenteil: „Künstliche Intelligenz ist ein irrsinnig tolles Werkzeug, aber man darf auch nicht unterschätzen, es ist ein mächtiges Werkzeug. Darum muss man sich immer genau anschauen, wo sie eingesetzt wird.“
Die Vorsitzende macht auf einen kleinen, aber im Sinne der Ethik doch irreführenden Unterschied beim Begriff aufmerksam: „Künstliche Intelligenzen, also die Anwendungen, die es bisher gibt, sind im Sinne des menschlichen Begriffs von Intelligenz nicht voll anwendbar. Das heißt, KI kann zwar für seine gespeicherten Daten, aber für die daraus resultierenden Entscheidungen der Benutzer keine moralische Verantwortung übernehmen, da der Begriff der Moral keinen festen Gesetzmäßigkeiten unterliegt, sondern sich aus vielen menschlichen Wahrnehmungen speist.“
Es geht dabei um eine besondere Eigenschaft des Menschen, die sogenannte „verleiblichte Vernunft“. Gemeint ist damit die Fähigkeit des Menschen, sich aus eigenen Erfahrungsstrukturen in andere Menschen hineinzuversetzen und dank dieser Empathie-Fähigkeit Entscheidungen zu treffen. Zur verleiblichten Vernunft gehören auch die fünf Sinne: Sehen, Hören, Riechen, Schmecken und Tasten. Auch das beeinflusst fundamental die intelligente Entwicklung des Menschen von Geburt an. Er kann Rückschlüsse aus Erfahrungen ziehen, die dann wiederum seine Entscheidungen beeinflussen.
Bisherige KI-Applikationen gleichen eher Datenkraken, die auf bestimmte Anfragen reagieren. Sie kommen bei bestimmten Fragen zwar schon auf gute Ergebnisse und können begrenzt Schlussfolgerungen ziehen, aber es fehlt ihnen zum Beispiel auch am logischen Sprachverständnis, bringt es der Philosoph und Vorstandsmitglied im Deutschen Ethikrat, Prof. Julian Nida-Rümelin, auf den Punkt. Für ihn ist die vieldiskutierte ChatGPT-Plattform ein wunderbares Beispiel für die derzeitigen Grenzen der Künstlichen Intelligenz, sowohl in ethischen wie moralischen Fragen, aber auch als Ersatz für den Menschen im Allgemeinen. „Im Grunde ist ChatGPT nichts Neues, es handelt sich lediglich um ein Text-Reproduktionssystem, was es ja schon lange gibt. Neu und dazu gefährlich ist im ethischen Sinne, dass mit diesem Tool das Gefühl bei den Anwendern simuliert wird, es gäbe auf jede Frage eine Antwort. Was viele Nutzer vergessen: Diese Plattformen sind gigantische Plagiatsmaschinen.“ Das heißt, sie ziehen aus riesigen Text-Volumina nach einem bestimmten Algorithmus aus Wortfolgen schon vorhandener Texte sozusagen eine komprimierte Fassung und präsentieren diese dann als ihr Ergebnis, als Antwort auf eine Frage.
Keine Originalität, kein Verständnis
Dass die Künstliche Intelligenz in Form von ChatGPT derzeit zwar gigantische Datenmengen bei bestimmten Stichworten miteinander verknüpft, aber nur schwer logische und folgerichtige Zusammenhänge erstellen kann, zeigt sich für Julian Nida-Rümelin, an seinem Lieblingsbeispiel: „Dass hinter diesem Tool zwar Künstliche Intelligenz, aber eben keine Kreativität, keine Originalität und schon gar kein Verständnis steckt, zeigt die Antwort auf die alte Schülerfrage, ob eine Tonne Stahl oder eine Tonne Holz schwerer ist. Da kommt die Antwort: Eine Tonne Stahl. Das zeigt, der Wort-Algorithmus hat Tonne und Stahl rausgesucht und da hat er dann Recht: Eine Stahltonne ist schwerer als eine aus Holz. Das zeigt exemplarisch, dieses Tool hat keinerlei Sprach-Verständnis.“
Aber nicht nur das ist für den Philosophie-Professor ein sicheres Indiz, dass Lehrer zukünftig nicht durch KI-Lernsysteme ersetzt werden können. „Gerade im Schulunterricht mit Kindern in den unteren Klassenstufen kommt es auf menschliche Interaktion an. Von daher darf die personelle Beziehung zwischen Unterrichtenden und Lernenden nicht beeinträchtig werden.“, so Julian Nida-Rümelin.
Allerdings räumt er ein, dass in den höheren Klassen beim Vokabellernen oder in der Arithmetik durchaus KI-Tools den Lehrer ersetzen können. Doch kommen solche KI-Tools auch in der Medizin oder Schule, zwei elementaren Bereichen des menschlichen Miteinanders, zur Anwendung, dann stellt sich die Frage: Wer trägt die Verantwortung für die Inhalte der KI-Hilfsmittel. Wer also bestimmt, wie die Algorithmen ausgerichtet werden?
Im Social-Media-Bereich übernehmen die Anbieter die Verantwortung, aber im Bereich der Schule, staatlicher Verwaltung oder Medizin? Alena Buyx nennt dies eine Multi-Akteurs-Verantwortung. „Da sind an unterschiedlichen Stellen die Akteure solcher Plattformen gefragt. Also die, die sie entwickeln, die sie einstellen und die mit ihnen arbeiten. Alle diese Personen tragen Verantwortung und müssen dann bei Fehlentwicklungen auch zur Rechenschaft gezogen werden können. Da ist auch der Gesetzgeber gefragt.“
Politik ist gefordert und hat gerade im Bereich der sozialen Medien schon einiges erreicht. Doch gerade die Social-Media-Konzerne legen ein anderes Tempo vor, als es die Politik bei ihren Entscheidungen gewohnt ist.
Um Ethik und Künstliche Intelligenz unter ein Dach zu bekommen, muss auf der politischen Ebene schneller gehandelt werden. Doch auch Alena Buyx ist klar, dass nicht alles im Bereich KI genau reguliert werden kann. Darum muss auch bei den Anwendern das Verständnis für die Vorteile und Gefahren geschärft werden.