Einführung in den EU AI Act: Über die Regulierung für Künstliche Intelligenz
In der heutigen digitalen Welt schreiten die Entwicklung und Nutzung von Künstlicher Intelligenz (KI) rasant voran. Um den Einsatz dieser Technologie zu regulieren und sicherzustellen, dass sie verantwortungsvoll und sicher genutzt wird, hat die Europäische Union den EU AI Act eingeführt.
Dieser Artikel gibt einen umfassenden Überblick über die wichtigsten Aspekte des EU AI Act und beleuchtet spezifisch die Definition von KI-Systemen, die Klassifizierung von allgemeinen KI-Modellen und hochriskanten KI-Systemen sowie deren Auswirkungen.
Definition und Merkmale von KI-Systemen
Ein KI-System ist ein maschinenbasiertes System, das auf algorithmischen Prozessen und Berechnungen beruht. Es kann mit unterschiedlichen Autonomiegraden arbeiten, von vollständig autonomen Systemen bis hin zu solchen, die menschliche Aufsicht erfordern. Ein entscheidendes Merkmal von KI-Systemen ist ihre Fähigkeit zur Anpassung nach der Bereitstellung, was bedeutet, dass sie aus neuen Daten oder Erfahrungen lernen und ihr Verhalten entsprechend anpassen können. KI-Systeme haben spezifische Ziele, die entweder explizit festgelegt oder implizit aus den Daten abgeleitet werden. Sie nehmen verschiedene Eingaben entgegen, ziehen Schlussfolgerungen daraus und generieren entsprechende Ausgaben, die sowohl physische als auch virtuelle Umgebungen beeinflussen können. Diese Systeme können Empfehlungen aussprechen, Inhalte generieren, Entscheidungen treffen und sogar physische Geräte steuern, wie beispielsweise Roboter oder Smart-Home-Systeme.
Generische KI-Modelle
Generische KI-Modelle zeichnen sich durch ihre breite Anwendbarkeit und Vielseitigkeit aus. Diese Modelle werden mit großen Datenmengen trainiert und nutzen selbstüberwachtes Lernen, um effektiv und autonom zu lernen. Sie sind in der Lage, eine Vielzahl von Aufgaben in unterschiedlichen Bereichen zu bewältigen und können in zahlreiche Anwendungen integriert werden. Ein generisches KI-Modell ist nicht auf eine spezifische Aufgabe spezialisiert, sondern kann verschiedene Aufgaben ausführen, von der Sprachverarbeitung über die Bilderkennung bis hin zu komplexen Entscheidungsprozessen. Diese Modelle sind unabhängig davon, wie sie auf dem Markt platziert werden, vielseitig einsetzbar. Generische KI-Modelle werden mit umfangreichen Datensätzen trainiert, um eine Vielzahl von Mustern und Strukturen zu lernen.
Modelle in der Forschungs- und Entwicklungsphase werden jedoch nicht als generische KI-Modelle betrachtet. Generische KI-Modelle finden in vielen Bereichen Anwendung. Ein bekanntes Beispiel ist die Sprachverarbeitung, bei der Modelle wie GPT (Generative Pre-trained Transformers) zur Erstellung von Texten verwendet werden. Diese Modelle können auch in der Bilderkennung eingesetzt werden, um Objekte in Bildern zu identifizieren, oder in der Entscheidungsfindung, um komplexe Probleme zu lösen.
Die EU AI Act legt spezifische Anforderungen an generische KI-Modelle fest, um deren Sicherheit, Transparenz und Verantwortlichkeit zu gewährleisten. Zu diesen Anforderungen gehören:
- Technische Dokumentation:
Anbieter müssen umfassende technische Dokumentationen erstellen, die Design-Spezifikationen, Trainings-, Test- und Validierungsprozesse, die verwendeten Daten sowie die Ressourcen und den Energieverbrauch beim Training umfassen. - Informationen für nachgelagerte Anbieter:
Anbieter müssen Informationen und Dokumentationen an nachgelagerte Anbieter weitergeben, die das Modell in ihre Systeme integrieren. Dies hilft ihnen, die Fähigkeiten und Grenzen des Modells zu verstehen und regulatorischen Verpflichtungen nachzukommen. - Einhaltung des Urheberrechts:
Es ist essenziell, das Urheberrecht zu respektieren und sicherzustellen, dass alle für Training und Entwicklung verwendeten Inhalte legal bezogen werden. - Zusammenfassung der Trainingsdaten:
Anbieter sollten eine Zusammenfassung der für die Entwicklung des Modells verwendeten Trainingsdaten bereitstellen.
Für Modelle, die systemische Risiken bergen, gelten zusätzliche Anforderungen. Systemische Risiken beziehen sich auf die potenziellen weitreichenden und vernetzten Auswirkungen, die ein KI-Modell auf verschiedene Sektoren und gesellschaftliche Bereiche haben kann. Diese Risiken können sich durch die Interaktion und Abhängigkeit zwischen verschiedenen Systemen und Akteuren verstärken, was zu weitreichenden Störungen oder Schäden führen kann.
Zu den zusätzlichen Anforderungen gehören die Durchführung von Modellevaluierungen nach standardisierten Protokollen, die Bewertung und Minderung potenzieller systemischer Risiken, die Nachverfolgung und Meldung von ernsthaften Vorfällen sowie die Gewährleistung eines angemessenen Niveaus an Cybersicherheit. Zudem müssen Anbieter zusätzliche technische Informationen bereitstellen, einschließlich der Strategie und Ergebnisse der Risikoevaluation, “Red-Teaming”-Bemühungen und detaillierter Systemarchitektur.
Hochrisiko-KI-Systeme
Hochrisiko-KI-Systeme sind solche, die erhebliche Auswirkungen auf die Sicherheit oder die Grundrechte von Individuen haben können. Diese Systeme unterliegen strengen regulatorischen Anforderungen, um sicherzustellen, dass sie sicher, transparent und verantwortungsvoll betrieben werden. Zu den hochriskanten Anwendungen gehören KI-Systeme, die in kritischen Infrastrukturen, im Gesundheitswesen, in der öffentlichen Sicherheit und in der Verwaltung eingesetzt werden. Diese Systeme müssen umfangreiche Anforderungen erfüllen, darunter Risikomanagement, Datenqualität und -verwaltung, Transparenz und menschliche Aufsicht:
- Kritische Infrastrukturen:
Systeme, die in Bereichen wie Energieversorgung, Verkehr und Wasserwirtschaft eingesetzt werden. - Gesundheitswesen:
KI-Systeme, die in der Diagnose, Behandlung und Überwachung von Patienten verwendet werden. - Öffentliche Sicherheit:
Anwendungen in der Strafverfolgung, Überwachung und Notfallreaktion. - Verwaltung und Justiz:
Systeme, die in der Verwaltung von öffentlichen Diensten und im Justizwesen eingesetzt werden.
Der EU AI Act legt fest, dass alle hochriskanten KI-Systeme vor ihrer Markteinführung und während ihres gesamten Lebenszyklus bewertet werden müssen. Nutzer haben das Recht, Beschwerden über diese Systeme bei den zuständigen nationalen Behörden einzureichen:
- Risikomanagement:
Identifizierung und Minderung potenzieller Risiken. - Datenqualität und -verwaltung:
Verwendung von hochwertigen, genauen und unvoreingenommenen Daten. - Transparenz:
Bereitstellung klarer Informationen über die Funktionsweise des Systems. - Menschliche Aufsicht:
Implementierung von Mechanismen für menschliche Eingriffe und Überwachung. - Robustheit und Sicherheit:
Sicherstellung der Widerstandsfähigkeit gegen Angriffe und zuverlässiger Betrieb unter verschiedenen Bedingungen.
Ziele und Meilensteine des EU AI Act
Der EU AI Act zielt darauf ab, einen einheitlichen Rechtsrahmen für KI-Systeme innerhalb der Europäischen Union zu schaffen. Die Hauptziele umfassen:
- Verbesserung des Binnenmarkts:
Durch einen einheitlichen Rechtsrahmen wird die Konsistenz und Klarheit für die Entwicklung und den Einsatz von KI-Systemen gewährleistet. - Förderung von Innovation:
Der Act unterstützt die Entwicklung und Integration von KI in verschiedenen Sektoren, um technologische Fortschritte und wirtschaftliches Wachstum zu fördern. - Schutz von Gesundheit, Sicherheit und Grundrechten:
Der Act stellt sicher, dass KI-Systeme in einer Weise entwickelt und genutzt werden, die die Menschenwürde und die Rechte respektiert und fördert. - Freier Verkehr von KI-basierten Waren und Dienstleistungen:
Der Act verhindert unnötige Beschränkungen für die Entwicklung, Vermarktung und Nutzung von KI-Systemen in den Mitgliedstaaten.
Ein weiteres Ziel des EU AI Act ist die Verhinderung schädlicher Auswirkungen von KI-Systemen auf Gesundheit, Sicherheit und Grundrechte. Darüber hinaus unterstützt der Act die Schaffung eines Umfelds, in dem KI sicher in verschiedene Sektoren integriert werden kann. Ein weiteres zentrales Prinzip ist die Förderung des Vertrauens der Öffentlichkeit in die Nutzung von KI-Systemen durch transparente und verantwortungsvolle Praktiken.
Der EU AI Act wird in verschiedenen Phasen umgesetzt, wobei wichtige Termine und Anforderungen wie folgt festgelegt sind:
- 6 Monate nach Inkrafttreten:
Verbotene KI-Praktiken müssen adressiert werden, und es wird ein Fokus auf die Steigerung der KI-Kompetenz gelegt. - 12 Monate nach Inkrafttreten:
Anforderungen für generische KI-Modelle müssen erfüllt werden. - 24 Monate nach Inkrafttreten:
Anforderungen für hochriskante KI-Systeme für spezifische Anwendungen müssen erfüllt werden. - 36 Monate nach Inkrafttreten:
Anforderungen für hochriskante KI-Systeme für weitere Anwendungen müssen erfüllt werden.
Rolle von Standards
Standards spielen eine zentrale Rolle im Rahmen des EU AI Act, indem sie klare und einheitliche Richtlinien für die Entwicklung, Implementierung und Nutzung von KI-Systemen festlegen. Diese Standards helfen dabei, die Sicherheit, Transparenz und Vertrauenswürdigkeit von KI-Anwendungen zu gewährleisten, indem sie Best Practices und technische Spezifikationen definieren.
Durch die Einhaltung international anerkannter Standards können Unternehmen sicherstellen, dass ihre KI-Systeme den regulatorischen Anforderungen entsprechen und gleichzeitig die Interoperabilität und Kompatibilität zwischen verschiedenen Systemen und Anwendungen fördern. Dies erleichtert nicht nur die Integration von KI-Technologien in verschiedene Sektoren, sondern trägt auch zur Vermeidung von Fragmentierung innerhalb des Binnenmarkts bei.
Harmonisierte Standards stellen den besten Ansatz zur Gewährleistung der Konformität mit dem EU AI Act dar. Diese technischen Spezifikationen werden von anerkannten Standardisierungsorganisationen entwickelt und sind darauf ausgelegt, die Anforderungen der Verordnung zu erfüllen. Die Einhaltung harmonisierter Standards bietet eine Vermutung der Konformität, wodurch die Belastung für Anbieter und Anwender von KI-Systemen reduziert wird. Durch die Einhaltung dieser Standards können KI-Entwickler sicherstellen, dass ihre Systeme sicher, zuverlässig und transparent sind, was das Vertrauen der Nutzer und Stakeholder fördert. Harmonisierte Standards fördern auch die Innovation, indem sie klare Richtlinien bieten und regulatorische Unsicherheiten verringern.
Schlussfolgerung
Der EU AI Act stellt einen bedeutenden Schritt in Richtung einer verantwortungsvollen und sicheren Nutzung von Künstlicher Intelligenz dar. Durch die Festlegung klarer Regeln und Anforderungen für die Entwicklung und den Einsatz von KI-Systemen soll sichergestellt werden, dass diese Technologien auf eine Weise genutzt werden, die sowohl für die Nutzer als auch für die Gesellschaft als Ganzes von Vorteil ist.
Der Act wird dazu beitragen, das Vertrauen in KI-Systeme zu stärken und die Akzeptanz von KI in der Gesellschaft zu fördern. Die umfangreichen Vorschriften und die detaillierte Klassifizierung von KI-Systemen und -Modellen bieten einen robusten Rahmen, der die Sicherheit und Transparenz von KI-Anwendungen gewährleistet. Dies ist besonders wichtig in einer Zeit, in der KI immer mehr in kritischen Bereichen eingesetzt wird und erhebliche Auswirkungen auf das tägliche Leben der Menschen haben kann.
Jedoch gibt es auch Herausforderungen: Die Entwicklung und Implementierung harmonisierter Standards erfordert kontinuierliche Zusammenarbeit und Konsensfindung unter einer Vielzahl von Stakeholdern. Zudem müssen Lücken geschlossen werden. Die Komplexität der Funktionalität und die Interaktionen von KI-Systemen mit ihrer Umwelt machen es erforderlich, dass alle relevanten Aspekte adäquat berücksichtigt werden. Trotz der bestehenden Herausforderungen ist der EU AI Act ein entscheidender Schritt, um ein harmonisiertes, sicheres und förderliches Umfeld für die Entwicklung und Nutzung von KI-Technologien zu schaffen. Durch die Einhaltung der im EU AI Act festgelegten Standards können Unternehmen sicherstellen, dass ihre KI-Systeme nicht nur innovativ, sondern auch sicher und ethisch vertretbar sind. Dies kann dazu beitragen, das Potenzial von KI voll auszuschöpfen und gleichzeitig die Risiken zu minimieren, die mit ihrer Nutzung verbunden sind.
Über den Autor:
Dr. Wilhelm Griga ist Senior Quality Manager bei der Siemens AG, Digital Industries mit dem Fokus Organisationsentwicklung, digitale Transformation, agiles Managementsystem, nachhaltiges Non-Conformance Management und modernes Audit Management. Er verfügt über funktionsübergreifende, internationale Personalführungserfahrung und ist Hochschuldozent für Business Excellence.