Beckmann, Selina A.; Link, Elena & Bachl, Marko

“Chat GPT, ist die Grippeimpfung sinnvoll?” Warum Rezipient:innen Gesundheitsinformationen mithilfe von KI suchen und wie sie KI-generierte Argumente wahrnehmen

Generative künstliche Intelligenz (KI) wie Chat GPT hat seit ihrer Einführung viel Aufmerksamkeit auf sich gezogen (Schäfer, 2023). Die von KI bereitgestellten Informationen können genutzt werden, um Menschen zu informieren oder zu beeinflussen (Palmer & Spirling, 2023). Die Technologie ermöglicht es den Nutzer:innen, sich Themen in einer für sie verständlichen Sprache erklären zu lassen (Deiana et al., 2023; Meng et al., 2024) und Folgefragen zu stellen (Lee et al., 2023), bis sie das Gefühl haben, ausreichend informiert zu sein. Dies kann insbesondere im Kontext von Gesundheitsinformationen von Vorteil sein, die oft komplex, schwer verständlich und mit Unsicherheiten behaftet sind (Carcioppolo et al., 2016). Erste Studien können zeigen, dass Menschen Chat GPT nutzen, um sich über gesundheitsbezogene Themen zu informieren (Choudhury & Shamzare, 2023). Vor diesem Hintergrund werden zwei Forschungsanliegen aus der Perspektive von Rezipientinnen und Rezipienten betrachtet:

(1) Zunächst wird untersucht, warum Menschen sich an KI wenden, um sich über Gesundheitsthemen zu informieren. Der Fokus liegt auf kanalspezifischen Prädiktoren des Planned Risk Information Seeking Model (Kahlor, 2010) und berücksichtigt zusätzlich das Vertrauen und die Risikowahrnehmung gegenüber KI.

(2) Weiterhin wird erforscht, ob Chat GPT im Vergleich mit Expert:innen aus der Medizin überzeugende und als korrekt wahrgenommene Argumente zur Impfung gegen Influenza erzeugen kann und wie die Kennzeichnung der Autor:innenschaft in diesem Kontext von Rezipient:innen wahrgenommen wird. Zudem wird betrachtet, welche Rolle das Vertrauen und die Innovationsfreude der Rezipient:innen in der Bewertung von KI als Quelle gesundheitsbezogener Informationen spielt. Das zweite Forschungsanliegen inkl. der Forschungsfragen und Hypothesen ist präregistriert und kann hier eingesehen werden: https://aspredicted.org/WCN_RQS

Methode

Zur Untersuchung des ersten Forschungsanliegens wurde eine Querschnittsbefragung durchgeführt. Für das zweite Forschungsanliegen wurde ein Experiment durchgeführt. Als Stimulus wurde ein Informationstext zur Grippeimpfung verwendet, dessen Kennzeichnung der Autor:innen variiert wurde (Expert:innen, KI, Expert:innen in Kollaboration mit KI, keine Quelle). Die Studienteilnehmenden wurden einer dieser Kennzeichnungen zufällig zugeordnet. Nachdem sie den Informationstext gelesen hatten, sollten die Teilnehmenden angeben, wie überzeugend und faktisch korrekt sie den Informationstext wahrgenommen haben.

Ergebnisse

Die Ergebnisse des ersten Forschungsanliegens zeigten, dass die Suche von Gesundheitsinformationen mittels KI vor allem von Einstellungen zur Suche mit KI, suchbezogenen Normen und wahrgenommener Suchkontrolle vorhergesagt wurden. Im Gegensatz dazu hatten Vertrauen und Risikowahrnehmung eine geringere Bedeutung.

Die Ergebnisse zum zweiten Forschungsanliegen zeigten, dass Informationen mit Expert:innen-Kennzeichnung als überzeugungsstärker und korrekter wahrgenommen wurden als Informationen mit KI- oder Kollaborationskennzeichnung. Bei Personen mit großem Vertrauen in die Ständige Impfkommission als medizinische Expert:innen waren die wahrgenommenen Unterschiede besonders stark ausgeprägt. Vertrauen in KI und Innovationsfreude hatten dagegen keinen moderierenden Einfluss auf die Bewertung durch die Rezipient:innen.

Literatur

Carcioppolo, Nick; Yang, Fan; Yang, Qinghua (2016): Reducing, Maintaining, or Escalating Uncertainty? The Development and Validation of Four Uncertainty Preference Scales Related to Cancer Information Seeking and Avoidance. In: Journal of health communication, 21 (9), S. 979–988. DOI: 10.1080/10810730.2016.1184357.

Choudhury, A., & Shamszare, H. (2023). Investigating the Impact of User Trust on the Adoption and Use of ChatGPT: Survey Analysis. Journal of Medical Internet Research, 25, e47184. https://doi.org/10.2196/47184

Deiana, G., Dettori, M., Arghittu, A., Azara, A., Gabutti, G., & Castiglia, P. (2023). Artificial Intelligence and Public Health: Evaluating ChatGPT Responses to Vaccination Myths and Misconceptions. Vaccines, 11(7). https://doi.org/10.3390/vaccines11071217

Kahlor, L. A. (2010). PRISM: A Planned Risk Information Seeking Model. Health Communication, 25(4), 345–356. https://doi.org/10.1080/10410231003775172

Lee, P., Bubeck, S., & Petro, J. (2023). Benefits, Limits, and Risks of GPT-4 as an AI Chatbot for Medicine. The New England Journal of Medicine, 388(13), 1233–1239. https://doi.org/10.1056/NEJMsr2214184

Meng, X., Yan, X., Zhang, K., Da Liu, Cui, X., Yang, Y., Zhang, M., Cao, C., Wang, J., Wang, X [Xuliang], Gao, J., Wang, Y.‑G.‑S., Ji, J.‑M., Qiu, Z., Li, M., Qian, C., Guo, T., Ma, S., Wang, Z., . . . Tang, Y.‑D. (2024). The application of large language models in medicine: A scoping review. IScience, 27(5), 109713. https://doi.org/10.1016/j.isci.2024.109713

Palmer, A., & Spirling, A. (2023). Large Language Models Can Argue in Convincing Ways About Politics, But Humans Dislike AI Authors: implications for Governance. Political Science, 75(3), 281–291. https://doi.org/10.1080/00323187.2024.2335471

Schäfer, M. S. (2023). The Notorious GPT: science communication in the age of artificial intelligence. Journal of Science Communication, 22(02). https://doi.org/10.22323/2.22020402

Steckbrief

Titel (deutsch): “Chat GPT, ist die Grippeimpfung sinnvoll?” Warum Rezipient:innen Gesundheitsinformationen mithilfe von KI suchen und wie sie KI-generierte Argumente wahrnehmen
Titel (englisch): „Chat GPT, is the influenza vaccination useful?” Why recipients seek health information using AI and how they perceive AI generated arguments
Erhebungszeitraum: 04/2024–05/2024
Stichprobe (effektiv): 1.029
Stand der Informationen: 09.09.2024

Weitere Informationen

Arbeitsbereich Wissenschaftskommunikation am Institut für Publizistik der JGU Mainz

Kontakt

Selina A. Beckmann

© 2009-2025 SoSci Panel