Die Berichterstattung zu ChatGPT und verwandten KI-Phänomenen reisst nicht ab. Die Anzahl unterschiedlicher Guidelines und Whitepapers zu KI steigt mindestens gefühlt täglich an. Seit Kurzem reihen sich auch nationale (Datenschutz)Aufsichtsbehörden ein und führen Verfahren zur Überprüfung von ChatGPT durch: Von der Funktionsweise über die Umsetzung (datenschutz)rechtlicher Vorgaben mittels technischer/organisatorischer Massnahmen (TOM) bis zu einem einstweiligen Verbot werden sämtliche Aspekte von ChatGPT unter die Lupe genommen und geprüft. Die nachfolgende Auswahl bietet einen nicht abschliessenden Überblick zu den vorgenannten Verfahren:
EU: European Data Protection Board (EDPD): Link 1 und Link 2
Frankreich: Commission Nationale de l’Informatique et des Libertés (CNIL): Link 1 und Link 2
Deutschland: Hessischer Beauftragter für Datenschutz und Informationsfreiheit (HBDI): Link und Landesbeauftragte für Datenschutz und Informationsfreiheit in Nordrhein-Westfalen (LDI-NRW): Link
Italien: Data Protection Authority (GPDP): Link
Spanien: Data Protection Agency (AEPD): Link
Kanada: The Office of the Privacy Commissioner of Canada (OPC): Link
USA: US Federal Trade Commission (FTC): Link
Darüber hinaus hat die Cyberspace Administration of China (CAC) generische Massnahmen zur Regulierung von generative AI-Services vorgeschlagen: Measures for the Management of Generative Artificial Intelligence Services (Draft for Comment): Link
Bereits im März 2023 wurde in UK eine allgemeine "National AI Strategy" veröffentlicht, während sich in den USA ein vergleichbares Papier ("AI Accountability Policy") bis 12. Juni 2023 in einer "öffentlichen Konsultation" befindet.
Michal Cichocki