In diesem Artikel geben wir einen umfassenden Überblick über den AI Act, seine Ziele, die Risikoklassifizierung von KI-Systemen, verbotene Anwendungen, Anforderungen an hochriskante KI-Systeme, Allzweck-KI, Governance-Mechanismen, Marktüberwachung sowie die nächsten Schritte und Zeitpläne.
Der Artificial Intelligence Act (AI Act) ist ein bedeutendes EU-Gesetz, das entwickelt wurde, um den Einsatz von Künstlicher Intelligenz (KI) innerhalb der Europäischen Union zu regulieren. Es zielt darauf ab, den Binnenmarkt zu stärken, Innovationen zu fördern und gleichzeitig ein hohes Niveau an Gesundheitsschutz, Sicherheit und Grundrechten zu gewährleisten.
Hintergrund und Ziele des AI Acts
Der AI Act ist eine Antwort auf die zunehmende Bedeutung und Verbreitung von KI-Technologien und deren potenzielle Auswirkungen auf Gesellschaft, Wirtschaft und Umwelt. Die EU-Kommission hat dieses Gesetz ins Leben gerufen, um sicherzustellen, dass KI-Systeme sicher und vertrauenswürdig sind und die Grundrechte der Bürger schützen. Zu den Hauptzielen des AI Acts gehören die Verbesserung des Binnenmarkts, die Förderung menschenbezogener und vertrauenswürdiger KI, der Schutz der Gesundheit und Sicherheit sowie die Unterstützung von Innovationen, insbesondere für kleine und mittlere Unternehmen (KMU).
Der AI Act strebt an, ein ausgewogenes Verhältnis zwischen der Förderung von Innovationen und dem Schutz grundlegender Rechte zu finden. Er setzt dabei auf eine risikobasierte Regulierung, die es ermöglicht, die Anforderungen und Verpflichtungen entsprechend der potenziellen Risiken und Auswirkungen der KI-Systeme zu differenzieren. Durch diese Herangehensweise soll ein sicheres und vertrauenswürdiges Umfeld für die Entwicklung und den Einsatz von KI in Europa geschaffen werden.
2. Risikobasierte Klassifizierung von KI-Systemen
Ein zentrales Element des AI Acts ist die risikobasierte Klassifizierung von KI-Systemen. Diese Klassifizierung unterteilt KI-Systeme in vier Hauptkategorien: unannehmbare Risiken, hohe Risiken, begrenzte Risiken und geringste Risiken.
- Unannehmbare Risiken: Diese Kategorie umfasst KI-Systeme, die ein untragbares Risiko darstellen und daher vollständig verboten sind. Beispiele hierfür sind soziale Bewertungssysteme, die das Verhalten von Personen bewerten und zu Diskriminierung führen können, sowie manipulative KI, die das Verhalten der Nutzer ohne deren Wissen beeinflusst.
- Hohe Risiken: KI-Systeme, die als hochriskant eingestuft werden, unterliegen strengen Regulierungen. Dies umfasst Systeme in Bereichen wie kritischen Infrastrukturen, allgemeiner und beruflicher Bildung, Beschäftigung, Zugang zu wesentlichen öffentlichen und privaten Dienstleistungen, Strafverfolgung, Migration und Grenzkontrollmanagement sowie Rechtspflege.
- Begrenzte Risiken: Systeme in dieser Kategorie müssen Transparenzpflichten erfüllen, wie z.B. die Information der Endnutzer darüber, dass sie mit einer KI interagieren. Typische Beispiele sind Chatbots und Deepfakes.
- Geringste Risiken: Diese Systeme unterliegen derzeit keiner spezifischen Regulierung. Hierzu zählen die meisten KI-Anwendungen, die auf dem EU-Binnenmarkt erhältlich sind, wie KI-gestützte Videospiele und Spam-Filter.
Durch diese differenzierte Herangehensweise stellt der AI Act sicher, dass KI-Systeme je nach ihrem Risiko angemessen reguliert werden, ohne die Innovation unnötig zu behindern.
3. Verbotene KI-Systeme (Titel II)
Der AI Act verbietet bestimmte KI-Systeme aufgrund ihrer potenziell schädlichen Auswirkungen auf die Gesellschaft. Zu den verbotenen Anwendungen gehören:
- Manipulative Techniken: Systeme, die unterschwellige, manipulative oder täuschende Techniken einsetzen, um das Verhalten der Nutzer zu verzerren und deren bewusste Entscheidungsfindung zu beeinträchtigen.
- Ausnutzung von Schwachstellen: KI-Systeme, die Schwachstellen im Zusammenhang mit Alter, Behinderung oder sozioökonomischen Verhältnissen ausnutzen, um das Verhalten zu beeinflussen und erheblichen Schaden zu verursachen.
- Biometrische Kategorisierung: Systeme, die auf sensible Merkmale wie Rasse, politische Meinungen oder sexuelle Orientierung schließen lassen.
- Soziales Scoring: Systeme, die Personen oder Gruppen aufgrund ihres Sozialverhaltens bewerten und klassifizieren.
- Emotionserkennung am Arbeitsplatz: Emotionserkennungssysteme sind am Arbeitsplatz und in Bildungseinrichtungen verboten, außer aus medizinischen oder Sicherheitsgründen.
- Biometrische Fernidentifizierung: Echtzeit-Biometrieerkennung in öffentlich zugänglichen Räumen ist nur unter strengen Bedingungen erlaubt, beispielsweise bei der Suche nach vermissten Personen oder zur Verhinderung von Terroranschlägen.
Diese Verbote sind darauf ausgelegt, die Bürger vor den potenziellen Gefahren bestimmter KI-Anwendungen zu schützen und sicherzustellen, dass KI-Systeme in einer Weise eingesetzt werden, die ethisch und rechtlich vertretbar ist.
4. KI-Systeme mit hohem Risiko (Titel III)
KI-Systeme, die als hochriskant eingestuft werden, unterliegen strengen Anforderungen und Verpflichtungen. Diese Systeme werden in Bereichen eingesetzt, die eine erhebliche Gefahr für Gesundheit, Sicherheit, Grundrechte oder die Umwelt darstellen können. Die Klassifizierung als hochriskantes KI-System erfolgt anhand spezifischer Kriterien, wie z.B. der Verwendung in kritischen Infrastrukturen oder der automatisierten Entscheidungsfindung im Beschäftigungsbereich.
Anforderungen an Anbieter hochriskanter KI-Systeme:
- Risikomanagementsystem: Anbieter müssen ein Risikomanagementsystem für den gesamten Lebenszyklus des KI-Systems einrichten.
- Data Governance: Sicherstellung, dass die Schulungs-, Validierungs- und Testdatensätze relevant, ausreichend repräsentativ und so weit wie möglich fehlerfrei und vollständig sind.
- Technische Dokumentationen: Erstellung umfassender technischer Dokumentationen zum Nachweis der Konformität und Bereitstellung von Informationen für die Behörden.
- Protokollierung: Hochriskante KI-Systeme müssen Ereignisse automatisch aufzeichnen, die für die Identifizierung von Risiken relevant sind.
- Gebrauchsanweisungen: Bereitstellung detaillierter Gebrauchsanweisungen für nachgeschaltete Verteiler.
- Menschliche Aufsicht: Sicherstellung, dass die Systeme eine angemessene menschliche Aufsicht ermöglichen.
- Genauigkeit, Robustheit und Cybersicherheit: Gestaltung der Systeme, um ein hohes Maß an Genauigkeit, Robustheit und Cybersicherheit zu gewährleisten.
- Qualitätsmanagementsystem: Einrichtung eines Qualitätsmanagementsystems zur Gewährleistung der Einhaltung der Vorschriften.
Diese Maßnahmen sollen sicherstellen, dass hochriskante KI-Systeme sicher und zuverlässig sind und keine unkontrollierbaren Risiken für die Gesellschaft darstellen.
5. Allzweck-KI (GPAI)
Allzweck-KI (GPAI) umfasst KI-Modelle, die für eine Vielzahl von Aufgaben verwendet werden können und ein breites Anwendungsspektrum abdecken. Diese Modelle müssen bestimmte Transparenz- und Dokumentationsanforderungen erfüllen, um ihre sichere und verantwortungsvolle Nutzung zu gewährleisten.
Anforderungen an GPAI-Modelle:
- Technische Dokumentation: Erstellung detaillierter technischer Dokumentationen, einschließlich des Ausbildungs- und Testverfahrens und der Bewertungsergebnisse.
- Informationen für nachgelagerte Anbieter: Bereitstellung von Informationen und Unterlagen für nachgelagerte Anbieter, die das GPAI-Modell in ihr eigenes KI-System integrieren wollen.
- Einhaltung der Urheberrechtsrichtlinie: Sicherstellung, dass die Urheberrechtsrichtlinien eingehalten werden.
- Veröffentlichung von Trainingsdaten: Veröffentlichung einer detaillierten Zusammenfassung der für das Training verwendeten Inhalte.
Für GPAI-Modelle mit freier und offener Lizenz gelten besondere Vorschriften, die die Veröffentlichung und Nutzung der Modelle betreffen. Modelle, die ein systemisches Risiko darstellen, unterliegen zusätzlichen Anforderungen wie der Durchführung von Modellevaluierungen und der Sicherstellung von Cybersicherheit.
6. Governance und Verhaltenskodizes
Die Überwachung und Umsetzung des AI Acts wird durch das AI-Büro innerhalb der Europäischen Kommission sichergestellt. Dieses Büro ist für die Bewertung der Konformität von KI-Systemen, die Überwachung der Einhaltung der Vorschriften und die Bearbeitung von Beschwerden zuständig.
Verhaltenskodizes:
Verhaltenskodizes werden entwickelt, um die Einhaltung der Vorschriften zu unterstützen und sicherzustellen, dass alle Akteure die gleichen Standards einhalten. Diese Kodizes berücksichtigen internationale Ansätze und legen spezifische Anforderungen an technische Unterlagen und Risikomanagementmodalitäten fest. Anbieter, Betreiber und andere relevante Akteure sind aufgefordert, sich an der Ausarbeitung dieser Kodizes zu beteiligen.
7. Marktüberwachung und Durchsetzung
Der AI Act sieht umfassende Mechanismen zur Marktüberwachung und Durchsetzung vor. Anbieter, Betreiber, Importeure und andere Akteure müssen sicherstellen, dass ihre KI-Systeme den neuen Vorschriften entsprechen. Bei Verstößen können Sanktionen verhängt werden, und betroffene Personen haben das Recht, Beschwerden einzureichen.
Mechanismen zur Marktüberwachung:
- Bewertung der Konformität: Das AI-Büro und andere zuständige Behörden führen Bewertungen der KI-Systeme durch, um die Einhaltung der Vorschriften sicherzustellen.
- Beschwerden und Sanktionen: Betroffene Personen können Beschwerden einreichen, und bei Verstößen gegen die Vorschriften können Sanktionen verhängt werden.
- Überwachung und Berichterstattung: Regelmäßige Überwachung und Ber
ichterstattung über die Einhaltung der Vorschriften durch die verschiedenen Akteure.
Diese Maßnahmen sollen sicherstellen, dass der AI Act wirksam umgesetzt wird und dass die Sicherheit und Rechte der Bürger gewahrt bleiben.
8. Nächste Schritte und Zeitleisten
Die Verordnung tritt 20 Tage nach ihrer Veröffentlichung im Amtsblatt der EU in Kraft. Ab diesem Zeitpunkt gelten verschiedene Fristen für die Einhaltung der neuen Vorschriften:
- 6 Monate: Verbotene KI-Systeme müssen eingestellt werden.
- 12 Monate: Anforderungen für GPAI-Modelle treten in Kraft.
- 24 Monate: Hochriskante KI-Systeme gemäß Anhang III müssen den neuen Anforderungen entsprechen.
- 36 Monate: Hochriskante KI-Systeme gemäß Anhang II müssen den neuen Anforderungen entsprechen.
- 9 Monate: Verhaltenskodizes müssen entwickelt und implementiert werden.
Diese Zeitleisten stellen sicher, dass alle Akteure genügend Zeit haben, um die neuen Vorschriften umzusetzen und die erforderlichen Maßnahmen zu ergreifen.
9. Fazit und Ausblick
Der AI Act ist ein entscheidender Schritt zur Regulierung von KI in der EU. Er schützt die Grundrechte, fördert Innovationen und stellt sicher, dass KI-Systeme sicher und vertrauenswürdig sind. Die Umsetzung dieses Gesetzes wird Herausforderungen mit sich bringen, bietet jedoch auch Chancen für die Zukunft der KI in Europa. Die klare Struktur und die umfassenden Regelungen des AI Acts schaffen ein solides Fundament für die weitere Entwicklung und den verantwortungsvollen Einsatz von KI-Technologien in der EU.
Mit diesem umfassenden Überblick sollten Sie nun ein fundiertes Verständnis des AI Acts haben und wissen, welche Anforderungen und Regelungen für verschiedene KI-Systeme gelten. Der AI Act ist ein wichtiger Meilenstein auf dem Weg zu einer sicheren und innovativen Nutzung von Künstlicher Intelligenz in Europa.
💬 Comments
Comments are not enabled for this article yet.