Online-Weiterbildung
Präsenz-Weiterbildung
Produkte
Themen
Dashöfer

Gesichtserkennung durch KI – Was der AI-Act künftig regelt

15.12.2023  — Michelle Bittroff.  Quelle: Verlag Dashöfer GmbH.

Nach intensiven Verhandlungen hat sich die EU am 8. Dezember auf die finale Version des AI-Acts geeinigt. Dieser regelt den zukünftigen Einsatz von KI-Modellen wie ChatGPT. Allerdings scheint der Kompromiss einige Schlupflöcher zu haben, insbesondere in Bezug auf biometrische Videoüberwachung. Was bedeutet das für die Bürgerinnen und Bürger der EU?

In Brüssel wurde das weltweit erste demokratische KI-Regelwerk verabschiedet: der Artificial Intelligence Act. Doch schon jetzt stellt sich die Frage nach der ethischen Vertretbarkeit und dem tatsächlichen Nutzen des AI-Acts und seiner Ziele.

Die Ziele des AI-Act

Die Verhandlungen verfolgten grundlegende Ziele, darunter den Schutz von Grundrechten, Demokratie und ökologischer Nachhaltigkeit vor potenziellen KI-Risiken. Gleichzeitig sollen Innovationen gefördert und Europa eine führende Rolle bei der Regulierung von KI gesichert werden.

Die Bewertung der möglichen Risiken von KI und die daraus resultierende Regulierung waren jedoch zwei der größten Streitpunkte während der Verhandlungen zum AI-Act. Denn wie reguliert man Künstliche Intelligenz?

Die Antwort der EU auf diese Frage ist, nicht die Technologie selbst zu sanktionieren, sondern die verschiedenen Anwendungen stärker zu regulieren. Das bedeutet, dass sogenannte Basismodelle wie ChatGPT, Midjourney und Co., die eine Vielzahl von Anwendungen ermöglichen, in „Risikoklassen“ eingeteilt werden. KI ist also weiterhin erlaubt, muss aber je nach Risiko eine Reihe von Bedingungen erfüllen.

So sind die Hersteller u. a. verpflichtet, die Funktionsweise der KI zu dokumentieren, um sicherzustellen, dass die KI keine Diskriminierung von Menschen vornimmt. Ein Beispiel: Die Fehlerquote bei der KI-gestützten Gesichtserkennung ist bei dunkelhäutigen Menschen manchmal höher als bei hellhäutigen. Das liegt daran, dass dunkelhäutige Menschen in der zugrunde liegenden Datenmenge unterrepräsentiert sind. Darüber hinaus müssen Hersteller das EU-Urheberrecht sowie bestimmte Umweltstandards einhalten und ihren Energieverbrauch dokumentieren.

Weitere verbotene Anwendungen gemäß dem AI-Act:

  • Biometrische Kategorisierungssysteme, die sensible Merkmale verwenden (z. B. politische, religiöse, philosophische Überzeugungen, sexuelle Orientierung etc.)
  • Das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder aus Videoüberwachungsanlagen zur Erstellung von Gesichtserkennungsdatenbanken
  • Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen
  • Social Scoring: Solche Systeme bewerten Menschen aufgrund ihrer Handlungen und Äußerungen
  • KI-Systeme, die menschliches Verhalten manipulieren, um den freien Willen zu umgehen
  • KI, die Schwächen von Menschen (aufgrund von Alter, Behinderung, sozialer oder wirtschaftlicher Situation) ausnutzt

Überwachung – ja oder nein?

Zwar verbietet der AI-Act den Einsatz von Gesichtserkennung durch KI in der Öffentlichkeit, doch auch hier gibt es Ausnahmen und Schlupflöcher, die seit der Veröffentlichung des Regelwerks für viel Diskussionsstoff sorgen. So gelten für Strafverfolgungsbehörden einige Ausnahmen.

Und zwar können biometrische Identifikationssysteme in öffentlich zugänglichen Räumen bei bestimmten Straftaten und mit vorheriger richterlicher Genehmigung eingesetzt werden. Unter bestimmten Voraussetzungen wäre damit auch eine „nachträgliche“ Identifikation zulässig. Dies gilt z. B. bei Terrorgefahr oder bei der gezielten Fahndung nach Personen. Das bedeutet, dass die Behörden für diese nachträgliche Identifizierung künftig Videoaufnahmen machen – also den öffentlichen Raum überwachen – und diese Daten über einen längeren Zeitraum speichern dürfen. Die Folge wäre eine Sammlung biometrischer Daten, etwa um die Aufnahmen mit dem Gesicht eines Verdächtigen abzugleichen.

Mit diesen Maßnahmen unterstreicht die EU, dass der Schutz der EU-Bürgerinnen und Bürger an erster Stelle steht. Die Androhung von Strafen von bis zu 35 Millionen Euro für Unternehmen bei Nichteinhaltung der oben genannten Regelungen zeigt zumindest, wie ernst es der EU mit der Kontrolle von KI und der zukünftigen Risikominimierung ist – auch wenn die vielen Schlupflöcher noch Fragen offenlassen.

Fazit: Umsetzung des AI-Act

Die große Herausforderung wird es nun sein, den AI-Act in praxistaugliche Regeln für einen verantwortungsvollen Umgang mit Künstlicher Intelligenz umzusetzen. Bitkom-Hauptgeschäftsführer Dr. Bernhard Rohleder betont, wie wichtig es in Zukunft sein wird, eine Balance zwischen Sicherheit, Innovation und Wahrung der Menschenrechte zu finden:

„Die Herausforderung ist, in der Praxis eine echte Balance zwischen Risikomanagement und Förderung von Innovation herzustellen. Europa hat die Chance, eine Vorreiterrolle bei der ethischen und verantwortungsvollen Entwicklung von KI einzunehmen. Aber dies erfordert auch eine unbürokratische und gut strukturierte Umsetzung des Rechtsakts.“

nach oben