Kieslich, Kimon & Lünich, Marco

Das Bewusstsein der Bürger:innen für ethische Problematiken von biometrischen Fernidentifizierungssystemen (RBI) und deren Auswirkungen auf die Zustimmung zu Regulierungsmaßnahmen.

KI-basierte Technologien werden in zunehmend vielen Gesellschaftsbereichen eingesetzt - so auch in der Strafverfolgung (z. B. Wenzelburger et al. 2022). Jedoch ist der Einsatz in diesem Bereich umstritten, da, zum einen, Strafverfolgungsbehörden personenbezogene Daten von Bürger:innen auswerten können und, zum anderen, die Leistungsfähigkeit von solchen Anwendungen umstritten ist. Wissenschaftliche Studien sowie Berichte von NGOs haben vielfach gezeigt, dass KI-basierte Systeme diskriminieren können sowie Transprarenz-, Fairness- und Rechenschaftspflichtsprobleme aufweisen (z. B. Algorithm Watch, 2020; Diakopoulos, 2016; Hartmann & Wenzelburger, 2021; Lepri et al., 2018; Starke et al., 2022).

Auf EU-Ebene wird daher über eine strengere Regulierung von KI-Systemen diskutiert. Im sog. AI Act werden insbesondere KI-basierte Systeme zur biometrischen Fernidentifikation als Hochrisikotechnologie eingestuft, die nur unter bestimmten Bedingungen erlaubt sein soll, z. B. zur Identifikation von Terrorist:innen (Europäische Kommission, 2021). Der AI Act ist jedoch noch nicht gesetzlich verabschiedet und Änderungen an der Beschlussvorlage sind weiterhin denkbar.

Da politische Beschlüsse sich (auch) an den Belangen von Bürger:inenn orientieren, wollen wir erforschen, welche Faktoren mit einem Wunsch nach strengerer Regulierungsmaßnahmen von biometrischer Fernidentifikation zusammenhängen. Auf Grundlage der Literatur zur AI-Governance und der Forschung zur öffentlichen Meinung über KI, haben wir Faktoren abgeleitet, die zu einer Forderung nach strikterer Regulierung beitragen können. Darunter fallen Vertrauenswahrnehmungen von KI (Lünich & Kieslich, 2022) und von Strafverfolgungsbehörden (Ritchie et al., 2021), Wahrnehmung der technischen Leistungsfähigkeit von KI-Systemen (Došenović et al., 2022; Ritchie et al., 2021), Wahrnehmung der gesellschaftlichen Auswirkungen von KI (Kieslich et al., 2020; Kieslich et al., 2023) sowie individuelle Kompetenz im Umgang mit Algorithmen (Dogruel et al., 2022).

Methode

Da der AI Act verschiedene Ausnahmen zur Regulierung von biometrischer Fernidentifikation vorsieht, haben wir mit diese in einem 2x2 Experimentaldesign abgebildet. Zum einen unterscheiden wir zwischen einer Echtzeitauswertung der Daten und einer anlassbezogenen nachträglichen Auswertung der Daten. Zum anderen unterschieden wir den Anlass des Einsatzes (Terrorsimusabwehr und Sicherung von Großveranstaltungen).

Darüber hinaus erwarten wir, dass sich die Zustimmung zu Regulierungsmaßnahmen (neben den Experimentalfaktoren) mit mehreren Fatkoren zusammenhängt: Zum einen nehmen wir an, dass die Wahrnehmung der technischen Komponente (Glauben in die Leistungsfähigkeit von KI sowie Verlässlichkeit der Ergebnisse des KI-Systems) sowie der Wahrnehmung einer sozialen Komponente (Gefahr des Missbrauchs durch Behörden; Gefahr der Diskriminierung bestimmter Bevölkerungsgruppen durch das KI-System; Angst vor Überwachung) die Zustimmung zu Regilierungsmaßnahmen beeinflusst. Darüber hinaus hypothesieren wir Effekte von Vertrauen in KI, das Vertrauen in die Strafverfolgungsbehörden sowie individuelle Kompetenz im Umgang mit KI.

Ergebnisse

Erste Analysen zeigen Folgendes:

- Ein Effekt der Experimentalbedingungen ist weitstgehend nicht vorhanden. Das deutet darauf hin, dass die spezifische Ausgestaltung der soziotechnischen RBI-Systeme für die Protestabsicht und die Forderung nach Regulierung nicht von großer Bedeutung ist.

- Es gibt einen substanziellen Zusammenhang zwischen der Wahrnehmung ethischer Problematiken von KI und der Zustimmung zu Regulierungsmaßnahmen. Individuen, die grundlegende KI-Probleme wahrnehmen und für problematisch halten, entsprechende Konsequenzen für ihr Verhalten ziehen und auch eine Regulierung fordern.

Literatur

Algorithm Watch (2020). Automating Society Report 2020. Algorithm Watch. https://automatingsociety.algorithmwatch.org/

Diakopoulos, N. (2016). Accountability in Algorithmic Decision Making. Communications of the ACM, 59(2), 56–62. https://doi.org/10.1145/2844110

Dogruel, L., Masur, P., & Joeckel, S. (2022). Development and Validation of an Algorithm Literacy Scale for Internet Users. Communication Methods and Measures, 16(2), 115–133. https://doi.org/10.1080/19312458.2021.1968361

Došenović, P., Kieslich, K., & Marcinkowski, F. (2022). Meinungsmonitor Künstliche Intelligenz 2.0. Methodensteckbrief: Monitor- und Sonderbefragung. https://www.cais-research.de/wp-content/uploads/Methodensteckbrief2.pdf

European Commission. (2021). Proposal for a regulation of the European parliament and of the council: Laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain union legislative acts. https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=75788

Hartmann, K., & Wenzelburger, G. (2021). Uncertainty, risk and the use of algorithms in policy decisions: A case study on criminal justice in the USA. Policy Sciences, 54(2), 269–287. https://doi.org/10.1007/s11077-020-09414-y

Kieslich, K., Starke, C., Došenović, P., Keller, B., & Marcinkowski, F. (2020). Artificial Intelligence and Discrimination.: How does the German public think about the discrimination potential of artificial intelligence? (Meinungsmonitor Künstliche Intelligenz [Opinion Monitor Artificial Intelligence].). https://www.cais.nrw/en/factsheet-2-ai-discrimination/

Kieslich, K., Lünich, M., & Došenović, P. (2023). Ever Heard of Ethical AI? Investigating the Salience of Ethical AI Issues among the German Population. International Journal of Human–Computer Interaction, 1–14. https://doi.org/10.1080/10447318.2023.2178612

Lepri, B., Oliver, N., Letouzé, E., Pentland, A., & Vinck, P. (2018). Fair, Transparent, and Accountable Algorithmic Decision-making Processes. Philosophy & Technology, 31(4), 611–627. https://doi.org/10.1007/s13347-017-0279-x

Lünich, M., & Kieslich, K. (2022). Exploring the roles of trust and social group preference on the legitimacy of algorithmic decision-making vs. Human decision-making for allocating COVID-19 vaccinations. AI & SOCIETY, 1–19. https://doi.org/10.1007/s00146-022-01412-3

Ritchie, K. L., Cartledge, C., Growns, B., Yan, A., Wang, Y., Guo, K., Kramer, R. S. S., Edmond, G., Martire, K. A., San Roque, M., & White, D. (2021). Public attitudes towards the use of automatic facial recognition technology in criminal justice systems around the world. PLOS ONE, 16(10), e0258241. https://doi.org/10.1371/journal.pone.0258241

Starke, C., Baleis, J., Keller, B., & Marcinkowski, F. (2022). Fairness perceptions of algorithmic decision-making: A systematic review of the empirical literature. Big Data & Society, 9(2), 205395172211151. https://doi.org/10.1177/20539517221115189

Wenzelburger, G., König, P. D., Felfeli, J., & Achtziger, A. (2022). Algorithms in the public sector. Why context matters. Public Administration, Article padm.12901. Advance online publication. https://doi.org/10.1111/padm.12901

Steckbrief

Titel (deutsch): Das Bewusstsein der Bürger:innen für ethische Problematiken von biometrischen Fernidentifizierungssystemen (RBI) und deren Auswirkungen auf die Zustimmung zu Regulierungsmaßnahmen.
Titel (englisch): Citizens' awareness of ethical issues with remote biometric identification systems and its impact on the approval of AI regulation.
Erhebungszeitraum: 06/2023–07/2023
Stichprobe (effektiv): 910
Stand der Informationen: 03.11.2023

Publikationen

Manuscript in preparation

Weitere Informationen

Kimon Kieslich (https://scholar.google.com/citations?user=8EDg7-YAAAAJ&hl=de)

Marco Lünich (https://scholar.google.com/citations?user=bJOuk5YAAAAJ&hl=de)

Kontakt

Kimon Kieslich (k.kieslich@uva.nl)

Marco Lünich (marco.luenich@hhu.de)

© 2009-2024 SoSci Panel