Künstliche Intelligenz als Chance und Herausforderung
KI (Künstliche Intelligenz) oder AI (Artificial Intelligence) ist in aller Munde; sie bestimmt die Politik, Ökonomie, Wissenschaft und Gesellschaft. Längst hat KI das Stadium des Schachcomputers verlassen. Heute analysieren Algorithmen z.B. in der Medizin große Datenmengen und werten sie zum Wohl der Pharmakologie und Patienten aus. Die künstliche Intelligenz erlaubt es inzwischen, in Bewerbungsverfahren, eine Vorauswahl zu treffen, KI-Systeme assistieren im Straßenverkehr und versprechen autonomes Fahren. ChatGPT, BARD und Co generieren Nachrichten und verfassen plausible Essays. KI kreiert „Fotos“, die wirklichkeitsgetreu erscheinen, aber es häufig nicht sind. Sog. Bots nehmen durch massenhaft versandte Mitteilungen insbesondere über soziale Netzwerke Einfluss auf unser aller Information und Überzeugung.
Angesichts der umfassenden Erscheinungsformen und Einsatzgebiete ist eine Konzentration angebracht. Im Folgenden soll deshalb der Fokus auf KI in der Informations- und Kommunikationsbereich liegen. Wo sind die Chancen und wie können wir sie nutzen, wo drohen Risiken und wie können wir ihnen begegnen?
Dank der Möglichkeit zur Verarbeitung enormer Datenmengen verspricht die KI vor allem Effizienzgewinne. Im Bereich der Medien lassen sich nicht nur Sport- oder Unfallberichte in kürzester Zeit maschinell generieren. Auch politische, gesellschaftliche und wissenschaftliche Artikel verfasst ChatGPT ohne anstrengendes Quellenstudium und ohne redaktionelle Mühen des Verfassers. Bloomberg will seine Finanzberichterstattung über ein dafür entwickeltes BloombergGPT erweitern. Anschauungsmaterial für die Texte lässt sich ebenfalls technisch generieren oder verändern. Massenkampagnen via Twitter, Telegram o.ä. können viral verbreitet oder an ausgesuchte Zielgruppen gerichtet werden. Übersetzungen fremdsprachiger Dokumente sind im Vertragsrecht wie in der Berichterstattung ebenso einfach wie kurzfristig verfügbar. Diese schöne neue Welt hat aber auch ihre Kehrseite; sie birgt auch Risiken. Was den Inhalt computergenerierter Texte und Fotos angeht, steht die Authentizität und Verlässlichkeit in Gefahr. „Das Ende der Wahrheit, wie künstliche Intelligenz täuschen kann“, titelt der Spiegel Nr. 28 vom 19. Juli 2023 und illustriert die These mit Schnappschüssen vom Papst in der Pose eines Ravers und dem vermeintlichen Fluggast Greta Thunberg. Nicht nur der Text, das Bild, übrigens auch das Musikstück selbst können lügen; bei computergenerierten Inhalten dürften zudem häufig Zweifel an ihrer Provenienz angebracht sein. Der gelungene Essay wird in Zeiten von ChatGPT nicht immer dem Argumentationsvermögen oder Ideenreichtum des Schülers zu verdanken sein. Entsprechende Risiken lassen sich für die Wissenschaft unter dem Diktat von “publish or parish“ nicht ausschließen.
Besonderen Gefährdungen ist dabei der Datenschutz ausgesetzt. Die digitalen Text-, Bild- und Tongeneratoren greifen auf Inhalte zurück, die offen im Netz verfügbar sind. Gegen diese kostenfreie Ausbeute der auf ihren Plattformen veröffentlichten Beiträge als Trainingsmaterial für ChatGPT u.a. haben Twitter und Google bereits Schadensersatzklagen angekündigt. Drehbuchautoren und Schauspieler bangen um ihre Jobs und demonstrieren in Hollywood und andernorts.
Nicht allein das persönliche Urheber- und das wirtschaftliche Urheberverwertungsrecht, auch das allgemeine Persönlichkeitsrecht der durch manipulierte Bilder oder Texte Betroffenen geraten in Gefahr. Fake News, Shitstorms und ähnliche Kampagnen verletzen Privatsphäre und Ansehen. Der Virologe Streeck musste erst jüngst wegen Facebook-Werbung mit seinem Konterfei vor Gericht ziehen.
Rasch gewinnt der gutgläubige Leser oder Nutzer audiovisueller Botschaften einen falschen Eindruck von Personen und Ereignissen. Fake News oder Verschwörungstheorien vermitteln ihm ein manipuliertes Weltbild. Unser freiheitlicher Staat „lebt aber von Voraussetzungen, die er selbst nicht garantieren kann“ (Böckenförde). Die Demokratie ist auf den informierten Bürger angewiesen, nicht nur bei Wahlen.
Die angesprochenen Risiken für Persönlichkeitsrechte, Zivilgesellschaft und Demokratie werfen Fragen nach den Konsequenzen auf. Wie also die Vorteile der KI nutzen und Risiken so weit wie möglich beherrschen?
Einfache und eindimensionale Reaktionsmuster werden den breit gefächerten Einsatzgebieten und Erscheinungsformen der KI nicht gerecht. Repressive Verbote oder die von einigen Experten geforderte Auszeit für die Weiterentwicklung von KI wären zudem mit der Wissenschafts- und Meinungsfreiheit kaum vereinbar.
Die rasch wachsende Anwendungsbreite der KI, ihre unterschiedlichen Entwicklungsstadien verlangen vielmehr differenzierte und anpassungsfähige Lösungsstrategien. Sie beschränken sich nicht auf legislatives Handeln, sondern kennen neben verordneten Unternehmenspflichten auch Verhaltenskodizes, Selbstkontrolle und Nutzerverantwortung.
Vor diesem Hintergrund verspricht der Artificial Intelligence Act der EU, kurz die sog. KI-Verordnung, zu Recht eine sorgsam abgestufte Herangehensweise. Der wohl international erste Regulierungsentwurf dieser Art verfolgt einen risikobasierten Ansatz. Vier Risikostufen der KI-Systeme von nicht akzeptabel über hoch und begrenzt risikobehaftet bis zu weitgehend risikofrei werden unterschieden und die drei erstgenannten mit speziellen Regulierungsmaßnahmen belegt.
Systeme mit nicht akzeptablen Risiken für die Sicherheit und die Grundrechte der Nutzer, etwa durch Social Scoring oder biometrische Echtzeitüberwachung des Staates, sollen untersagt sein.
KI mit hohem Risiko, etwa für die kritische Infrastruktur oder das Arbeitnehmer-Recruiting werden vor der Marktzulassung und in der Anwendung überprüft. Sie unterliegen einer angemessenen Risikobewertung und -regulierung. Für Entwicklung und Einsatz gelten besondere Dokumentations- und Offenlegungspflichten. Der Entwickler hat insbesondere über die Herkunft und die Einhaltung von Mindeststandards des verwandten Trainingsmaterials Rechenschaft abzulegen. Er hat für angemessene Aufsicht und Reduzierung festgestellter Risiken zu sorgen. Das gilt auch für sog. generative Systeme wie ChatGPT. Damit soll insbesondere die Reproduktion von Hassrede und Diskriminierung vermieden werden.
Für KI-Systeme mit begrenztem Risiko, etwa Chatbots, wird voraussichtlich eine Transparenzpflicht bestehen, die dem Nutzer eine verantwortliche Entscheidung über deren Vertrauenswürdigkeit und Einsatz erlaubt.
KI-Systemen mit minimalem Risiko, wie sie in Videospielen oder in Spamfiltern vorkommen mögen, sollen keiner spezifischen Regulierung unterfallen.
Die vom Europaparlament im Juni 2023 angenommene Verordnung bedarf noch der Zustimmung des Rates; derzeit wird zwischen Kommission, Parlament und Rat im sog. Trilog-Verfahren beraten. Mit einem Inkrafttreten des AI-Acts ist nicht vor 2026 zu rechnen. Einige Bestimmungen und die Liste der Hochrisikosysteme bedürfen angesichts der schnellen Veränderungen auf dem Digitalsektor, so ist zu erwarten, noch der Konkretisierung sowie der Anpassung und Fortentwicklung. Auch bleibt abzuwarten, ob die Regulierung so streng ausfällt, dass sie insbesondere kleinere europäische Systementwickler vom Wettbewerb mit den US-amerikanischen Techgiganten, die sich dort nach aktuellen Meldungen zu mehr Transparenz verpflichten sollen, ausschließt.
Die EU-Regelung ist ein erster Ansatz, KI-spezifische Risiken in den Griff zu bekommen. Sie belastet Softwareschmieden mit zusätzlichen Pflichten. Aber auch der Bürger muss seinen Beitrag leisten. Transparenz kann nur wirken, wenn der Nutzer ihr Aufmerksamkeit schenkt. Was Fake, Persönlichkeitsrechtsverletzungen, Hass und weitere strafrechtlich relevante Inhalte angeht, die mittels KI oder persönlichen Posts in sozialen Netzwerken verbreitet werden, sind Betroffene auf Beschwerde- und Rechtsschutzmöglichkeiten gegen Plattformanbieter angewiesen. Schließlich verlangen Auswahl und Nutzung vertrauenswürdiger Nachrichten aus dem wachsenden Angebot kritisches Bewusstsein, Sensibilität und oft auch Resilienz. Es bleibt kompliziert und mitunter anstrengend, aber der Erhalt unserer Zivilgesellschaft und Demokratie lohnt diese Anstrengung. Per aspera ad astra!
Von unserem neuen Kollegiumsmitglied Prof. Wolfgang Thaenert
Die Chefredaktion des EUROjournals freut sich, mit Professor Wolfgang Thaenert ein neues Mitglied im Redaktionskollegium begrüßen zu dürfen. Dieser war 25 Jahre lang Direktor der Hessischen Landesanstalt für privaten Rundfunk und neue Medien (heute Medienanstalt Hessen). Bis 2020 brachte der ausgewiesene Medienexperte seine Erfahrung zudem in der Hochschullehre als Honorarprofessor am Institut für Wirtschaftsrecht der Universität Kassel ein.
Zum Foto: Schöne neue Welt der Künstlichen Intelligenz!? (Image by Gerd Altmann from Pixabay)