[ad_1]
In der Europäischen Union gilt seit dem 1. August 2024 das weltweit erste umfassende Regelwerk für künstliche Intelligenz (KI). Mit dem sogenannten Artificial Intelligence Act (AIA) strebt die EU an, die Nutzung und Entwicklung von KI-Technologien in sichere Bahnen zu lenken und gleichzeitig Innovationen und Investitionen zu fördern.
Hintergrund und Einführung des KI-Gesetzes
Der Durchbruch des Chatbots ChatGPT im November 2022 machte vielen erstmals deutlich, welches Potenzial in KI steckt. KI kann eigenständig Texte schreiben und Bilder erzeugen – und das ist nur der Anfang einer tiefgreifenden Entwicklung, die weitreichende Folgen für die Menschheit haben wird. Angesichts der Chancen und Risiken, die KI bietet, hat die EU beschlossen, mit dem AIA ein umfassendes Regelwerk zu schaffen.
Das KI-Gesetz basiert auf einem Vorschlag der EU-Kommission aus dem Jahr 2021 und wurde am 13. März 2024 vom EU-Parlament verabschiedet. In Brüssel wird das Gesetz als „historisch“ betrachtet, und die Hoffnung besteht, dass es weltweit Nachahmer findet.
Hauptinhalte des KI-Gesetzes
Das Ziel des AIA ist es, die Grundrechte der Menschen zu schützen und gleichzeitig die Einführung von KI-Technologien zu fördern. Das Gesetz ordnet KI-Anwendungen in verschiedene Risikoklassen ein:
- Geringes Risiko: Anwendungen wie Spamfilter haben keine besonderen Auflagen.
- Begrenztes Risiko: Chatbots müssen Transparenzregeln einhalten.
- Hohes Risiko: Systeme, die in kritischen Infrastrukturen, im Bildungs- oder Gesundheitswesen eingesetzt werden, müssen strenge Anforderungen erfüllen und menschlicher Aufsicht unterliegen.
Bestimmte KI-Anwendungen, die gegen EU-Werte verstoßen, sind vollständig verboten. Dazu gehören Programme, die Bürgerrechte einschränken, das menschliche Verhalten manipulieren oder den freien Willen beeinflussen, sowie solche, die soziales Verhalten bewerten („Social Scoring“).
Gesichtserkennung und Datenschutz
Die Gesichtserkennung im öffentlichen Raum ist grundsätzlich verboten, es sei denn, sie wird von Polizei oder Sicherheitsbehörden zur Verfolgung schwerer Straftaten wie Menschenhandel oder Terrorismus genutzt. Biometrische Informationen dürfen nicht mit Daten zu politischen oder religiösen Überzeugungen verknüpft werden. Ebenso ist es verboten, am Arbeitsplatz Gesichter nach Gefühlen analysieren zu lassen.
Entwickler müssen klar kennzeichnen, dass Texte, Bilder und Töne von künstlicher Intelligenz erzeugt wurden. Verstöße gegen die Regeln können mit hohen Geldstrafen geahndet werden.
Umsetzung und Kontrolle
Die Auflagen treten schrittweise in Kraft: Für KI-Systeme mit unannehmbarem Risiko bereits im Februar, für allgemeine KI-Modelle nach zwölf Monaten und für die meisten anderen Systeme in zwei Jahren. Die EU-Kommission fordert die Entwickler auf, die wichtigsten Verpflichtungen bereits vorzeitig freiwillig umzusetzen. Bis zum 2. August 2025 müssen die EU-Mitgliedsstaaten nationale Behörden benennen, die die Anwendung der Vorschriften überwachen sollen. Das AI Office der EU-Kommission wird die Regeln auf EU-Ebene durchsetzen.
Kritische Stimmen und globale Zusammenarbeit
Kritiker befürchten, dass die EU durch die Regulierung im Wettlauf mit den USA und China zurückfallen könnte. Der KI-Bundesverband, das größte KI-Unternehmernetzwerk in Deutschland, weist auf die Unsicherheiten und fehlenden Richtlinien hin, die den Umgang mit dem AIA erschweren. Besonders kleine Start-ups ohne Rechtsabteilung könnten Schwierigkeiten haben, die neuen Vorgaben umzusetzen.
Viele Experten warnen vor den potenziellen Gefahren der KI, die von der Kriegsführung über die Verbreitung von Falschinformationen bis hin zur Abhängigkeit der Menschheit von Maschinen reichen. Führende Experten, darunter OpenAI-Chef Sam Altman, haben gefordert, das Risiko einer Vernichtung durch KI auf eine globale Prioritätsebene mit Pandemien und Atomkrieg zu stellen.
UN-Generalsekretär António Guterres und der Digitalexperte Daniel Privitera betonen die Notwendigkeit einer internationalen Aufsichtsbehörde für KI, um die Technologie sicher zu regulieren. Eine Zusammenarbeit zwischen den USA und der EU zur freiwilligen Selbstkontrolle der KI-Entwickler könnte Zeit gewinnen, bis gesetzliche Regeln greifen.
Fazit
Der Artificial Intelligence Act der EU ist ein bahnbrechender Schritt in der globalen Regulierung von KI. Er soll die Chancen der Technologie nutzen und gleichzeitig die Risiken minimieren. Die Herausforderungen und Gefahren der KI erfordern ein umsichtiges und internationales Vorgehen, um die Kontrolle über diese mächtige Technologie zu bewahren.
[ad_2]



