*Europäische KI-Regulierung und ihre Umsetzung*
Künstliche Intelligenz (englisch: Artificial Intelligence) ist eine Schlüsseltechnologie der digitalen Transformation und schon heute präsent in vielen Produkten und Prozessen, aber auch nicht unumstritten, wie die Diskussionen um ChatGPT zeigen. Entscheidend für eine weitverbreitete Nutzung ist deshalb das Vertrauen in die Zuverlässigkeit, Transparenz und Fairness von Künstlicher Intelligenz (KI). Aus diesem Grund hat die Europäische Union (EU) eine eigene KI-Verordnung entworfen – den EU AI Act. Die Verordnung zielt darauf ab, Regeln für KI-Systeme und KI-Anwendungen festzulegen, Innovation zu fördern und Bürger:innen der EU zu schützen.
Die Gesetzgebung fordert eine Governance, die Risiken von KI-Systemen während des gesamten Lebenszyklus beherrschbar macht. Die Umsetzung birgt Herausforderungen, aber auch Chancen für Organisationen. Mit dem richtigen Ansatz können sie ihre KI-Qualität verbessern, soziale Verantwortung demonstrieren und eine Vorreiterrolle bei der digitalen Transformation mit Künstlicher Intelligenz einnehmen.
Der EU AI Act wird weitreichende Auswirkungen haben
Um beim Einsatz von KI im wettbewerbsintensiven europäischen KI-Markt erfolgreich zu sein, müssen regulierte Organisationen zukünftig vielfältige Vorschriften einhalten, eine Kultur des Vertrauens aufbauen und während des gesamten KI-Lebenszyklus für Transparenz sorgen.
Der EU AI Act ist ein Vorschlag der Europäischen Kommission für eine EU-Verordnung zur Festlegung harmonisierter Vorschriften für KI-Systeme, der noch zwischen den EU-Institutionen verhandelt wird. Die Verordnung sieht voraussichtlich eine Übergangsfrist von 24-36 Monaten vor, innerhalb derer Organisationen die Anforderungen umsetzen müssen, wobei die Nichteinhaltung zu erheblichen Geldstrafen und Haftungsrisiken führen kann.
KI-Systeme werden nach ihren Risikomerkmalen in vier Kategorien unterteilt, die entweder uneingeschränkt, unter bestimmten Bedingungen erlaubt oder verboten sind. Der zentrale Gegenstand der Verordnung sind KI-Systeme mit hohem Risiko, sogenannte Hochrisiko-KI-Systeme, die umfassenden Dokumentations-, Überwachungs- und Qualitätsanforderungen genügen müssen. Die Nutzer und Anbieter von KI-Systemen mit hohem Risiko tragen die Hauptlast der Anforderungen.
Neben der allgemeinen Regulierung von KI durch den EU AI Act gibt es weitere Vorgaben, die für KI-Anwendungsfälle von Bedeutung sind: Horizontale, wie die DSGVO oder den vorgeschlagenen EU Data Act, und vertikale bzw. sektorale, wie die EU-Verordnung über Medizinprodukte (MDR) oder die deutsche Verordnung zur Genehmigung und zum Betrieb von Kraftfahrzeugen mit autonomer Fahrfunktion in festgelegten Betriebsbereichen (AFGBV).
Der Schlüssel zu einer nachhaltigen Wertschöpfung mit KI-Systemen liegt in der erfolgreichen Verknüpfung von Qualität, Regulierung und Skalierung. Um dies zu erreichen, sind anerkannte Standards, bewährte Methoden und geeignete Werkzeuge für eine sichere und effiziente Entwicklung und Operationalisierung von KI-Systemen notwendig. Insbesondere flexible Daten-, Risiko- und Lebenszyklus-Management-Systeme sind unabdingbar, um Organisationen in die Lage zu versetzen, ihre KI-Systeme erfolgreich aus der Pilotphase in den skalierten Betrieb zu überführen.
Im Kern ist vertrauenswürdige KI nicht mehr und nicht weniger als die konsequente Umsetzung bewährter Data-Science- und Machine-Learning-Methoden über den gesamten Lebenszyklus eines KI-Systems.
PwC hat ein AI Governance Introduction Framework entwickelt, das eine organisationsspezifische KI-Governance skizziert und die Konzepte und Prinzipien von Compliance-Management-Systemen mit den Anforderungen des EU AI Act kombiniert. Der erste Schritt besteht darin, die Einrichtung der notwendigen Compliance- und Governance-Komponenten vorzubereiten und ein klares Bild der notwendigen Maßnahmen für die Anwendungsfälle einer Organisation zu entwickeln.
Da der EU AI Act voraussichtlich noch 2023 in Kraft treten wird, sollte bereits jetzt mit der Planung der Umsetzung begonnen werden. Die frühzeitige Implementierung einer ganzheitlichen KI-Governance kann Unternehmen einen Wettbewerbsvorteil in Bezug auf die Markteinführungszeiten und die Qualität von KI-Systemen mit hohem Risiko verschaffen. Die Anforderungen der Verordnung sind komplex, und Unternehmen sollten in jedem Fall bestehende Compliance-Strukturen und bewährte Praktiken im Bereich des maschinellen Lernens nutzen.
Langfristig wird die Fähigkeit, Qualität, Compliance und Skalierung von KI-Systemen miteinander zu verbinden, entscheidend für den Erfolg von Unternehmen sein, die KI auf dem europäischen Markt einsetzen – insbesondere gegenüber Wettbewerbern in Asien und den USA. Interdisziplinäre Kompetenzen sind notwendig, um Strukturen und Prozesse für eine KI-Governance zu schaffen, die technisch, rechtlich und organisatorisch fit für die Zukunft ist.