Eine Künstliche Intelligenz kann riskant sein, doch die EU versucht das Wagnis als erste Institution gesetzlich zu beherrschen. Kritiker mahnen, das Kind nicht mit dem Bade auszuschütten. Noch lässt eine erfolgreiche europäische KI auf sich warten.
Ende 2021 begann ChatGPT seinen Siegeszug rund um den Globus – und damit auch das Thema Künstliche Intelligenz in der breiten medialen Öffentlichkeit. Ein einfacher Chatbot, aufgesetzt auf ein kluges Large Language Model (LLM) des Unternehmens OpenAI, brachte so manches Unternehmen, so manche Angestellte ins Grübeln, welche Jobs nun in Gefahr sind und welche Arbeiten erleichtert werden könnten. Die Europäische Union verhandelt bereits seit Jahren darüber, wie man diese Technologie sinnvoll regulieren könnte. Unter Zugzwang gerät die Politik vor allem durch den aktuellen Siegeszug der generativen KI: ChatGPT, Midjourney oder Bard.
Jetzt startet das Trilogverfahren für den sogenannten AI Act zwischen EU-Parlament, den Ländern und der EU-Kommission. Das Gesetz, dessen Grundzüge seit 2021 ausgearbeitet werden, zielt darauf ab, harmonisierte Regeln für Künstliche Intelligenz in verschiedenen Branchen und gesellschaftlichen Bereichen der EU festzulegen. Vorteile der KI, wie verbesserte Vorhersagen, optimierte Abläufe und personalisierte Dienstleistungen, sollen genutzt und potenzielle Risiken gleichzeitig bewältigt werden: So sollen etwa KI-Anbieter verpflichtet werden, schwerwiegende Vorfälle oder Fehlfunktionen, die gegen Grundrechte verstoßen, den nationalen Behörden zu melden. Diese sollen die Vorfälle untersuchen und Informationen über KI-Forschungen und -Entwicklungen an die Europäische Kommission weitergeben. Die Kommission plant, diesen KI-Rahmen fünf Jahre nach seiner Umsetzung zu überprüfen.
Erstes KI-Gesetz der Welt
Klar ist, die Gesetzgebung hat Künstliche Intelligenz seit Langem auf dem Schirm. Im April 2018 veröffentlichte die Europäische Kommission eine umfassende Strategie zur Förderung und Regulierung von KI in der EU. Die Strategie betonte die Bedeutung von Investitionen, Forschung, Innovation und Ethik im Bereich der KI und schlug Maßnahmen zur Stärkung der Wettbewerbsfähigkeit Europas vor. Im April 2019 veröffentlichte die Europäische Kommission ethische Leitlinien für eine vertrauenswürdige KI. Diese Leitlinien betonten Prinzipien wie Transparenz, Verantwortlichkeit, Robustheit und Datenschutz und dienten als Grundlage für die Entwicklung des EU-Regelungsrahmens. Im Februar 2020 veröffentlichte die Europäische Kommission ein Weißbuch zur Künstlichen Intelligenz. Es skizzierte verschiedene politische Optionen für die Regulierung von KI und forderte öffentliche Stellungnahmen und Rückmeldungen von interessierten Parteien ein.
Der seit 2021 vorbereitete AI Act liegt nun als Entwurf des EU-Parlamentes vor. Verboten ist darin unter anderem die Gesichtserkennung, die nur nach richterlichem Beschluss und bei schweren Straftaten zum Einsatz kommen soll. Auch eine verhaltensabhängige Einteilung von Menschen in ein Sozialpunktesystem, wie es in China derzeit mithilfe von KI-gestützter Massenüberwachung erprobt wird, ist nicht zulässig. Zu den Mindeststandards gehören ausreichend diverse Trainingsdaten, um keine diskriminierenden Ergebnisse zu erhalten; Offenlegung des Trainingsmaterials, sofern es urheberrechtlich geschützt ist, damit Urheber ihre Recht wahrnehmen können; Sicherheitsaspekte, um Hackerangriffen vorzubeugen. Die nächste Stufe aber ruft Kritiker auf den Plan.
Eine strenge Regulierung von KI klingt einleuchtend, soll ihr Einsatz doch sicher sein und vor allem auf dem Vertrauen in das zugrundeliegende Training basieren. Doch Regulierung bedeutet mehr Bürokratie: So hängen beispielweise Dokumentationspflichten davon ab, ob das KI-System als risikoreich eingestuft wird oder nicht. Als hochriskant gelten Künstliche Intelligenzen, die erhebliche Auswirkungen auf die Sicherheit und die Grundrechte haben. Dazu gehören beispielsweise Systeme für das autonome Fahren. Diese Systeme müssen komplexe Entscheidungen in Echtzeit treffen, die die Sicherheit von Menschenleben und die Integrität von Eigentum beeinflussen. Auch KI-Systeme zur medizinischen Diagnose müssten auf diese Art dokumentiert werden, weil sie direkte Auswirkungen auf die Gesundheit und das Wohlbefinden von Menschen haben. Schon existierende Algorithmen wie das große Sprachmodell (LLM) ChatGPT von OpenAI sind noch nicht eingestuft.
Dokumentation aber kostet Zeit und Geld – beides müssten Start-ups rund um KI-Technologie einkalkulieren, wenn sie auf dem Markt mitmischen wollen. Und der wächst in den kommenden Jahren. Die Zahlen sind unterschiedlich hoch, reichen aber bis in den dreistelligen Milliardenbereich. Pricewaterhouse Coopers spricht davon, dass die Nutzung von KI alleine bis zu 14 Prozent des Weltwirtschaftswachstums bis 2030 generieren könnte. Umgerechnet wären dies 6,6 Billionen US-Dollar Wertschöpfung aus gestiegener Produktivität durch den Einsatz von Robotik, autonomen Systemen und verbesserten Arbeitsbedingungen. Einen Wert von 9,1 Billionen US-Dollar misst das Beratungshaus dem Wert all jener Produkte und Dienstleistungen zu, die mithilfe von KI bis dahin personalisiert oder qualitativ verbessert werden.
Billionenschwerer Zukunftsmarkt
Bei einem solch gewaltigen Marktvolumen müssen die Risiken jedoch beherrschbar bleiben. Der AI Act könnte die erste Gesetzgebung weltweit sein, die die Entwicklung und den Einsatz von KI-Algorithmen verbindlich regelt, und zwar für alle KI-Produkte, die in der EU im Einsatz sind – egal woher sie stammen. Der deutsche IT-Branchenverband Bitkom hält die risikobasierte Vorlage für gut, mahnt aber an, dass das künftige Gesetz nicht zu viel regeln und „nicht jede zweite Anwendung dem Hochrisikobereich“ zuschlagen sollte. Auch der KI-Bundesverband warnte vor den Folgen des geplanten Gesetzes: „Mit den durch das EU-Parlament vorgesehenen Regulationen entstehen für europäische KI-Unternehmen zusätzliche und gefährlich hohe Compliance-Kosten sowie erhebliche Haftungsrisiken, die europäische KI-Unternehmen übermäßig belasten“, so der Geschäftsführer des Verbandes, Daniel Abbou. Der Handelsverband Deutschland (HDE) befürchtet ebenfalls eine Überregulierung. „Klar ist, dass wir Regeln brauchen, dabei darf aber nicht das Kind mit dem Bade ausgeschüttet werden“, sagte der stellvertretende HDE-Hauptgeschäftsführer Stephan Tromp. Es gebe keinen Grund, naiv mit KI umzugehen, gleichzeitig dürfe aber auch nicht ein unbegründetes Gefühl der Angst die Oberhand gewinnen.
Schützenhilfe für die Kritiker kommt auch vonseiten der nationalen Politik. Der französische Digitalminister Jean-Noël Barrot etwa hält das Gesetz für zu restriktiv. Die Entscheidung von Google, seine KI „Bard“ nicht in Europa anzubieten, unterstreiche die Zurückhaltung der US-Konzerne angesichts der EU-Regulierungen. Diese dürften nicht verhindern, dass die EU eigene KI-Lösungen entwickle, sagte er in der EU-Ausgabe des Magazins „Politico“. Dabei hatte Frankreich zuletzt durch eine Fülle von Regularien für US-Cloud-Computing von sich reden gemacht. Das Land ist Initiator der europäischen Cloud-Infrastruktur Gaia-X. Der europäische Schritt in die Welt der Künstlichen Intelligenz aber soll offenbar nicht durch die EU ausgebremst werden, bevor er getan wurde: Mistral AI, ein französisches Start-up, das ein Sprachmodell ähnlich ChatGPT entwickeln will, hat in Europas bisher größter Investitionsrunde rund 105 Millionen Euro eingesammelt. Bislang existiert Mistral nur als Idee. Riskant ist das bisher nur für die Investoren.