Künstliche Intelligenz (KI) ist nicht zuletzt dank einer intensiven Berichterstattung über Phänomene wie z.B. den Chatbot
ChatGPT (wieder) in aller Munde. Aus rechtlicher Sicht interessiert vor allem der zunehmende Ruf nach einer KI-spezifischen Regulierung um vermeintlich negative Auswirkungen zu verhindern.
In diesem Zusammenhang wird oft folgendem Umstand zu wenig Beachtung geschenkt: Der Einsatz von KI-Technologien ist kein Selbstzweck, sondern ein Mittel zur Erreichung bestimmter Ziele bzw. Umsetzung bestimmter Use Cases. Insbesondere Letztere entscheiden über die anwendbaren Rechtsgrundlagen: Auf die Auswertung von z.B. Personendaten im Gesundheitswesen oder der Analyse anonymisierter Verkehrsdaten gelangen jeweils unterschiedliche Gesetze zur Anwendung. Diese tragen den Eigenheiten beider Use Cases hinreichend Rechnung und zwar unabhängig von der eingesetzten (KI-)Technologie als Mittel zu deren Umsetzung. Folglich besteht die eigentliche Herausforderung viel mehr in der Ummünzung bestehender Rechtsgrundlagen in (nicht-rechtliche) Vorgaben für technisch/organisatorische Massnahmen (TOM-Vorgaben), die auch durch (neue) KI-Technologien umgesetzt werden können. Die Schaffung zusätzlicher, KI-spezifischer Rechtsgrundlagen ist in der Regel nicht zielführend.
Diese Unterscheidung gilt es auch bei der Lektüre der nachfolgenden Auswahl an Guidelines, Whitepapers etc. zu beachten:
(a) UK Information Commissioner: Updated Guidance on AI and Data Protection, 2023: Link
(b) Deutscher Ethikrat: Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz: Stellungnahme (Vorabfassung), 2023: Link
(c) Cesluk-Grajewski
Marcin, Think Tank European Parliament: Briefing: What Think Tanks are
Thinking - Artificial Intelligence, 2023: Link
(d) Swiss AI Report, 2022: Link
(e) BAKOM: Monitoring der Leitlinien "Künstliche Intelligenz" für den Bund, 2022: Link
(f) EDA: Künstliche Intelligenz und internationales Regelwerk, 2022: Link
(g) Google: AI Principles Progress Update, 2022: Link
(h) Christoph
Lütge/Ellen Hohma/Auxane Boch/Franziska Poszler/Caitlin Corrigan, IEAI
White Paper, TU München: On a Risk-Based Assessment Approach to AI
Ethics Governance, 2022: Link
(i) BSI/Fraunhofer-Institut für Nachrichtentechnik/Verband der TÜV e.V.:
Towards Auditable AI Systems - Current status and future directions,
2021: Link
(j) Leitlinien "Künstliche Intelligenz" für den Bund: Orientierungsrahmen für den Umgang mit künstlicher Intelligenz in der Bundesverwaltung, 2020: Link
(k) Herausforderungen der künstlichen Intelligenz, Bericht der interdepartementalen Arbeitsgruppe "Künstliche Intelligenz" an den Bundesrat, 2019: Link
(l) Bericht der Projektgruppe "Internationale Gremien und künstliche Intelligenz", 2019: Link
(m) Berichte im Auftrag des SBFI: (i) Künstliche Intelligenz im Industrie- und Dienstleistungssektor, 2019: Link; (ii) Anwendung von künstlicher Intelligenz in Wissenschaft und Forschung, 2019: Link; (iii) Künstliche Intelligenz, Medien & Öffentlichkeit, 2019: Link; (iv) Automatisierte Mobilität und künstliche Intelligenz, 2019: Link
(n) Generalsekretariat VBS: Bericht der Projektgruppe - Künstliche Intelligenz in der Cybersicherheit und Sicherheitspolitik, 2019: Link
Übrigens: Auf die Frage, ob es ein Gesetz für ChatGPT brauche, antwortete der
Chatbot: "Da ChatGPT eine KI-basierte virtuelle Assistentin ist und
keine eigenständige Entität mit eigenem Handeln, ist es nicht notwendig,
spezifische Gesetze für ChatGPT zu erstellen".
Weitere Blog-Beiträge zu KI sind hier abrufbar.
Michal Cichocki