Nach mehreren Jahrzehnten konnte Ende Januar in Berlin die untergetauchte RAF-Terroristin Daniela Klette verhaftet werden. Aufgespürt wurde sie innerhalb von 30 Minuten von einem ausländischen Investigativjournalisten mithilfe einer Gesichtsdatenbank und Künstlicher Intelligenz (KI). Diese Datenbanken kopieren und speichern für den Abgleich allerdings heimlich Milliarden von Fotos – aus öffentlich zugänglichen Internetseiten oder Videoüberwachungsanlagen. Klette erkannte die KI durch aktuelle Bilder ihrer Sportgruppe im Netz. In Deutschland ist dieses „scraping“ und die biometrische Massenanalyse gemäß Datenschutzgrundverordnung rechtswidrig.
Der Fall Klette macht deutlich, welche Möglichkeiten derartige KI-Tools bieten, aber auch, wie tief sie ins Persönlichkeitsrecht eines Bürgers eindringen können, wenn sie nicht nur Ermittler nutzen können. Es ist ein praktisches Beispiel für das komplexe Thema Künstliche Intelligenz und unsere umfassenden Diskussionen dazu in der EU. Denn eines ist klar: KI wird unsere Gesellschaft und Wirtschaft maßgeblich verändern.
Die Europäische Union zeigt nun mit dem AI-Act, dem ersten Gesetz zur Regulierung Künstlicher Intelligenz, einige Grenzen auf, vor allem beim Umgang mit risikoreichen KI-Systemen. Wir wollen schließlich Vertrauen und Wettbewerbsfähigkeit schaffen, gleichzeitig jedoch Überregulierung vermeiden.
Zurück zum Beispiel Gesichtserkennung. Hier darf die KI nicht überall und von jedermann genutzt werden, sondern nur von Behörden zur Terrorismusbekämpfung, für die Suche nach Entführungsopfern, zur Aufklärung schwerer Straftaten, bei Menschenhandel oder sexueller Ausbeutung. Scraping ist verboten.
Das Gesetz regelt noch viel mehr. So muss künftig klar gekennzeichnet werden, wenn Texte, Bilder oder Videos auf Künstlicher Intelligenz beruhen. Das gilt auch für Beiträge in Online-Plattformen. Neue Systeme sollen mit ausgewogenen Datensätzen entwickelt und trainiert werden. KI-Startups sollen Zugang zu realen Testbedingungen erhalten, um ihre Modelle trainieren, entwickeln und testen zu können, bevor eine Anwendung auf den Markt kommt. Das Gesetz soll zudem dafür sorgen, dass dabei keine Urheberrechte verletzt werden. Wir wollen aber auch keine Bewertungen von sozialem Verhalten wie in China, wo man mit Bonuspunkten und Vorteilen belohnt oder bei Vergehen bestraft wird. Einen gläsernen Menschen, gesteuert von der Regierung, lehnen wir ab.
Ich hoffe nur, dass wir bei all diesen Regeln Innovationen durch KI nicht abwürgen und kein neues Bürokratiemonster schaffen. Denn wir wollen unsere KI-Startups in der EU halten und im weltweiten Wettbewerb um neue Technologien mithalten können. Sonst riskieren wir, dass uns die USA und China auf diesem Sektor noch stärker davongaloppieren.
Gesamten Newsletter März 2024 lesen…