Halluzinationen in der Künstlichen Intelligenz, eine neue Dimension menschlicher Desinformation: Perspektiven von Bibliothekaren zu den Implikationen für wissenschaftliche Publikationen
DOI:
https://doi.org/10.12775/FT.2025.004Schlagworte
Künstliche Intelligenz, KI-Halluzinationen, Desinformation, wissenschaftliches PublizierenAbstract
Von wissenschaftlichen Publikationen wird erwartet, dass Künstliche Intelligenz die Produktivität steigert und den Zugang zu Wissen verbreitet. Dies bringt jedoch Anomalien mit sich, die als KI-Halluzinationen bekannt sind und eine neue Welle menschlicher Desinformation darstellen, welche die Glaubwürdigkeit wissenschaftlicher Publikationen untergräbt. Die vorliegende Studie untersucht die Wahrnehmung von Bibliothekarinnen und Bibliothekaren in Bezug auf die Auswirkungen von Halluzinationen in der Künstlichen Intelligenz sowie von menschlicher Desinformation auf wissenschaftliche Publikationen. Die Untersuchung folgte einem deskriptiven Umfrageentwurf. Die Grundgesamtheit bilden Bibliothekarinnen und Bibliothekare in Nigeria. Als Stichprobenverfahren wurde zunächst eine gezielte Auswahl von Bibliothekaren angewandt, die soziale Medien nutzen. Anschließend wurde das Schneeballverfahren eingesetzt, um solche Bibliothekarinnen und Bibliothekare zu erreichen, die über gängige soziale Plattformen schwer zugänglich waren. Das Erhebungsinstrument war ein strukturierter Fragebogen. 97 Rückmeldungen wurden als gültig für die Analyse anerkannt. Die Daten wurden mit Hilfe von Mittelwert und Standardabweichung ausgewertet. Die Ergebnisse zeigten, dass Bibliothekarinnen und Bibliothekare sowohl über KI-Halluzinationen als auch über menschlich verursachte Desinformation informiert sind. Sie sind zudem fest davon überzeugt, dass diese Faktoren die Glaubwürdigkeit, Zuverlässigkeit und Integrität wissenschaftlicher Publikationen erheblich beeinträchtigen. Die Befragten stehen vor gravierenden Herausforderungen bei der Eindämmung von Desinformation, darunter fehlende spezialisierte KI-Schulungen, das Fehlen etablierter Prüfungsrichtlinien, die rasante technologische Entwicklung, begrenzte institutionelle Unterstützung sowie Schwierigkeiten bei der Überprüfung gedruckter und unveröffentlichter Arbeiten. Die Studie zeigte ferner, dass Bibliothekarinnen und Bibliothekare verschiedene Strategien zur Eindämmung von KI-Halluzinationen und menschlicher Desinformation anwenden, darunter KI-Technologieschulungen, Sensibilisierung für die Entwicklung von KI-Werkzeuge zur Anpassung sowie die Einführung von Richtlinien zum Umgang mit KI-Halluzinationen. Empfohlen wird die Vertiefung des Wissens der Bibliothekarinnen und Bibliothekare durch kontinuierliche Programme zur beruflichen Weiterbildung, spezialisierte Workshops sowie KI-Bildung. Dies wird ihnen helfen, mit neuen Trends in der Desinformation Schritt zu halten und Wissenschaftlerinnen, Wissenschaftler sowie Studierende besser zu unterstützen.
Literaturhinweise
Aïmeur, E., Amri, S., & Brassard, G. (2023). Fake news, disinformation and misinformation in social media: a review. Social Network Analysis and Mining, 13(1), 30. https://doi.org/10.1007/s13278-023-01028-5
Ali, M. Y., Naeem, S. B., & Bhatti, R. (2020). Artificial intelligence tools and perspectives of university librarians: An overview. Business Information Review, 37(3), 116–124. https://doi.org/10.1177/0266382120952016
Bøyum, I., & Khosrowjerdi, M. (2025). ‘It’s such a blackbox function’: Norwegian academic librarians’ ambivalent perceptions towards AI use in academic libraries and academia. Information Research an International Electronic Journal, 30, 91–104(CoLIS). https://doi.org/10.47989/ir30CoLIS52285
De, S., & Mondal, P. (2025). Assessing the Impact of Misinformation by Predatory Journals on Academic Integrity. The Serials Librarian, 86(1–2), 17–28. https://doi.org/10.1080/0361526X.2025.2471922
Elsayed, H. (2024). The impact of hallucinated information in large language models on student learning outcomes: A critical examination of misinformation risks in AI-Assisted education. Northern Reviews on Algorithmic Research, Theoretical Computation, and Complexity, 9(8), 11–23. https://northernreviews.com/index.php/NRATCC/article/view/2024-08-07
Kamel, H. (2024). Understanding the impact of AI Hallucinations on the university community. Cybrarians Journal, (73), 111–134. https://doi.org/10.70000/cj.2024.73.622
Khalifa, M., & Albadawy, M. (2024). Using artificial intelligence in academic writing and research: An essential productivity tool. Computer Methods and Programs in Biomedicine Update, 5, 100145. https://doi.org/10.1016/j.cmpbup.2024.100145
Ma, L. (2024). The Role of Scholarly Communication in Combating Disinformation and Misinformation. Journal of Education for Library and Information Science, 65(1), 92–99. https://doi.org/10.3138/jelis-2022-0017
Nsirim, O., Idoniboye-Obu, T. (2023). Media misinformation and information management in the era of new techologies. In Library, ICT and Information Management, edited by Mmejim, I. C., H. Wiche, I. Idoniboye-Obu, O. Nsirim, and B. O. Umahi, 25–31. Port Harcourt: Supber Print Concept.
Oladokun, B. D., Enakrire, R. T., Emmanuel, A. K., Ajani, Y. A., & Adetayo, A. J. (2025). Hallucitation in Scientific Writing: Exploring Evidence from ChatGPT Versions 3.5 and 4o in Responses to Selected Questions in Librarianship. Journal of Web Librarianship, 19(1), 62–92. https://doi.org/10.1080/19322909.2025.2482093
Ramesh, M. R. (2024). Ethical Publication and Dissemination of Research: Principles and Practices. In R. K. Kushwaha, K. Yadav, P. K. Yadav, & M. K. Yadav (Eds.), Ethical Frameworks in Special Education: A Guide for Researchers. Blue Rose Publishers, (pp. 40-51). https://www.researchgate.net/publication/382887467_Ethical_Frameworks_in_Special_Education
Saqib, M. B., & Zia, S. (2024). Evaluation of AI content generation tools for verification of academic integrity in higher education. Journal of Applied Research in Higher Education, 17(4), 1430–1440. https://doi.org/10.1108/JARHE-10-2023-0470
Saunders, L. (2023). Librarian perspectives on misinformation: A follow-up and comparative study. College & Research Libraries, 84(4), 478–494. https://doi.org/10.5860/crl.84.4.478
Shakeri, S., & Hawamdeh, S. (2022). Combating misinformation in the open access era. In D. G. Alemneh (Ed.), Handbook of Research on the Global View of Open Access and Scholarly Communications (pp. 214–236). IGI Global. https://doi.org/10.4018/978-1-7998-9805-4
Warren, G., Shklovski, I., & Augenstein, I. (2025). Show Me the Work: Fact-Checkers’ Requirements for Explainable Automated Fact-Checking. 1–21. https://doi.org/10.1145/3706598.3713277
Williams, R. T. (2024). The ethical implications of using generative chatbots in higher education. Frontiers in Education, 8. https://doi.org/10.3389/feduc.2023.1331607
Downloads
Veröffentlicht
Zitationsvorschlag
Ausgabe
Rubrik
Lizenz
Copyright (c) 2025 the Provincial Public Library - the Copernicus Library in Torun

Dieses Werk steht unter der Lizenz Creative Commons Namensnennung - Keine Bearbeitungen 4.0 International.
Authors sign the license agreement, where authors have copyright but license exclusive rights in their article to the publisher. In this case authors have a range of rights, including:
- The right to share or reuse their article in the same ways permitted to third parties under the Creative Commons Attribution-NoDerivatives 4.0 (CC BY-ND 4.0) license. Following it, the author can "copy and redistribute the material in any medium or format for any purpose, even commercially. The licensor cannot revoke these freedoms as long as you follow the license terms."
- Authors retain patent, trademark and other intellectual property rights (including research data).
- Authors receive proper attribution and credit for the published work.
![]()
Stats
Number of views and downloads: 152
Number of citations: 0