KI: Zwischen Regulatorik und Realität

Beim KSÖ-Sicherheitsgipfel standen Chancen und Risiken von Künstlicher Intelligenz (KI) im Fokus.

Carina Zehetmaier sprach unter anderem über die wachsenden Bedrohungen durch Deep Fakes.
Carina Zehetmaier sprach unter anderem über die wachsenden Bedrohungen durch Deep Fakes. © KSÖ

Künstliche Intelligenz ist omnipräsent und ein Thema, das nicht nur Experten und Regulatoren beschäftigt, sondern mittlerweile auch einen Großteil der Bevölkerung. „Dieses Thema trägt eine ganz gewaltige Dynamik in sich“, bekräftigt auch Innenminister Gerhard Karner, der vor allem auf die steigende Gefahr von Fake News und Deep Fakes verwies. Umso wichtiger ist es daher, einen sicheren und nachvollziehbaren Rahmen für Künstliche Intelligenz zu schaffen. Daran arbeitet man in Europa im Rahmen des „EU AI Act“, dem weltweit ersten Gesetz zur Regulierung von KI. 

Warum die Technologie überhaupt reguliert wird, erklärt Kilian Gross, Referatsleiter für die Europäische Kommission im Bereich Künstliche Intelligenz: „KI weist einige Besonderheiten auf, die sie von anderen Technologien unterscheidet. Bei KI ist nicht ganz nachvollziehbar, wie man von Punkt A zu Punkt B kommt, also wie das Ergebnis letztendlich entstanden ist. Und diese Blackbox rechtfertigt die Regulierung.“ So soll vermieden werden, dass der einzelne Betroffene nicht erfährt, warum zum Beispiel sein Kreditantrag von der KI abgelehnt wurde. „Die KI-Entscheidungen sollen transparent und nachvollziehbar sein. Das ist der Leitgedanke“, so Gross.

„Menschen treffen aktuell noch die besseren Einzelfallentscheidungen und müssen diese auch begründen können. Außerdem können sie dafür zur Verantwortung gezogen werden“, weiß Carina Zehetmaier, Präsidentin von Women in AI Austria, und stellt die Frage in den Raum: „Wer ist verantwortlich, wenn KI einen Fehler macht?“

Vor allem, wenn es um Hochrisiko-Anwendungen geht, wie bei „biometrischen Echtzeit-Fernerkennungssystemen“, brauche es menschliche Aufsicht und Kontrolle. Diese Systeme sind zwar in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken grundsätzlich verboten, aber durch Ausnahmen erst recht wieder möglich. Genauso ist der Einsatz von Emotionserkennung im Bildungsbereich und am Arbeitsplatz verboten, bei Polizei und Grenzkontrollen aber erlaubt, macht Zehetmaier aufmerksam: „Und das, obwohl das Thema Emotionserkennung aus wissenschaftlicher Sicht höchst umstritten ist.“

Höchst problematisch ist auch die Rolle der KI beim Thema Desinformation. Es wird immer schwerer zu erkennen, was wahr und was falsch ist. Hinzu kommt als große Herausforderung das blinde Vertrauen in die Technologie, fehlendes kritisches Hinterfragen, Prüfen und Checken.