Künstliche Intelligenz (KI) ist eine der revolutionärsten Technologien unserer Zeit. Sie kann uns helfen, komplexe Probleme zu lösen, neue Erkenntnisse zu gewinnen, unsere Gesundheit zu verbessern, unsere Mobilität zu erhöhen, unsere Umwelt zu schützen und vieles mehr. Aber KI birgt auch Risiken und Herausforderungen, die wir nicht ignorieren dürfen. Wie können wir sicherstellen, dass KI im Einklang mit unseren Werten und Normen eingesetzt wird? Wie können wir die Grundrechte, die Sicherheit und die Freiheit der Menschen schützen? Wie können wir die Innovation und den technologischen Fortschritt in diesem Bereich fördern, ohne unsere digitale Souveränität zu gefährden?

Um diese Fragen zu beantworten, hat die Europäische Kommission im April 2021 einen Vorschlag für einen EU-Rechtsrahmen für künstliche Intelligenz vorgelegt, den sogenannten AI-Act. Der AI-Act ist der erste Versuch, eine horizontale Regulierung für KI zu erlassen, die alle Bereiche und Anwendungen abdeckt. Der AI-Act soll einen rechtlichen Rahmen für die Entwicklung, den Einsatz und die Nutzung von KI-Systemen in der EU schaffen, der sowohl eine vertrauenswürdige Nutzung als auch eine innovationsfreundliche Forschung unterstützt. Der AI-Act gilt als Vorreiter für die Regulierung von künstlicher Intelligenz auf der ganzen Welt.

Der AI-Act basiert auf dem risikobasierten Ansatz, der besagt, dass je höher das Risiko eines KI-Systems für die Gesellschaft ist, desto strenger sind die Anforderungen, die es erfüllen muss. Der AI-Act sieht vier Risikokategorien vor: unakzeptables Risiko, hohes Risiko, geringes Risiko und minimales Risiko.

KI-Systeme, die ein unakzeptables Risiko darstellen, sind solche, die eine Bedrohung für die Menschen darstellen oder zu ihrer Benachteiligung führen. Diese KI-Systeme sind grundsätzlich verboten. Sie umfassen zum Beispiel kognitive Verhaltensmanipulation von Personen oder bestimmten gefährdeten Gruppen, soziales Scoring oder biometrische Echtzeit-Fernidentifizierungssysteme.

KI-Systeme, die ein hohes Risiko darstellen, sind solche, die ein hohes Risiko für die Gesundheit und Sicherheit oder für die Grundrechte natürlicher Personen darstellen. Diese KI-Systeme müssen eine Reihe von Anforderungen erfüllen, bevor sie in den Markt eingeführt werden. Dazu gehören zum Beispiel eine Folgenabschätzung für die Grundrechte, eine hohe Qualität und Robustheit der Daten, eine angemessene menschliche Aufsicht, eine klare Information und Transparenz für die Nutzer, eine angemessene Sicherheit und Fehlerbehebung, eine Registrierung in einer EU-Datenbank und eine Konformitätsbewertung durch eine unabhängige Stelle. Zu den KI-Systemen mit hohem Risiko gehören zum Beispiel solche, die in Produkten verwendet werden, die unter die Produktsicherheitsvorschriften der EU fallen, wie Spielzeug, Luftfahrt, Fahrzeuge, medizinische Geräte oder Aufzüge, oder solche, die in bestimmten Bereichen eingesetzt werden, wie biometrische Identifizierung, kritische Infrastrukturen, Bildung, Beschäftigung, öffentliche Dienste, Strafverfolgung, Migration oder Rechtsauslegung.

KI-Systeme, die ein geringes Risiko darstellen, sind solche, die nicht explizit verboten sind und kein hohes Risiko für die Gesellschaft darstellen. Diese KI-Systeme müssen nur wenige Anforderungen erfüllen, vor allem Transparenz- und Informationspflichten. Zu den KI-Systemen mit geringem Risiko gehören zum Beispiel solche, die in Videospiele oder Chatbots integriert sind.

KI-Systeme, die ein minimales Risiko darstellen, sind solche, die kein Risiko für die Gesellschaft darstellen oder nur ein vernachlässigbares Risiko. Diese KI-Systeme sind von den Anforderungen des AI-Acts ausgenommen. Zu den KI-Systemen mit minimalem Risiko gehören zum Beispiel solche, die in Spam-Filtern oder Textverarbeitungsprogrammen verwendet werden.

Der AI-Act sieht auch Maßnahmen vor, um die Innovation und den Wettbewerb im Bereich der KI zu fördern. Dazu gehören zum Beispiel die Schaffung von europäischen Exzellenz- und Testzentren für KI, die Bereitstellung von qualitativ hochwertigen Daten und Infrastrukturen, die Förderung von Forschung und Entwicklung, die Unterstützung von kleinen und mittleren Unternehmen, die Erleichterung des grenzüberschreitenden Datenaustauschs, die Anerkennung von Konformitätsbewertungen aus Drittländern und die internationale Zusammenarbeit.

Der AI-Act ist noch nicht in Kraft getreten, ist jedoch einen großen Schritt weiter. Die Ausschüsse für Binnenmarkt und bürgerliche Freiheiten des Parlaments werden in einer der nächsten Sitzungen über das Abkommen abstimmen. Bis der AI-Act effektiv gilt, wird es eine Übergangsfrist von zwei Jahren geben. Betroffene Parteien werden also voraussichtlich bis 2026 Zeit haben, die Anforderungen umzusetzen.

Der AI-Act ist ein wichtiger Schritt für die Zukunft der künstlichen Intelligenz in Europa. Er soll einen fairen, sicheren und verantwortungsvollen Einsatz von KI-Systemen gewährleisten, der das Vertrauen der Bürger und der Unternehmen stärkt und die europäischen Werte und Normen respektiert. Er soll auch einen dynamischen und wettbewerbsfähigen Markt für KI schaffen, der die Innovation und den technologischen Fortschritt in diesem Bereich anregt und die digitale Souveränität Europas erhöht. Der AI-Act ist eine Chance für Europa, eine führende Rolle in der globalen KI-Landschaft zu spielen und einen positiven Beitrag für die Menschheit zu leisten.

Von Kollegiumsmitglied Alexander Pinker

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert