Titelaufnahme
Titelaufnahme
- TitelThe Responsible AI literacy (RAIL) competency model for researchers / Stephan Drechsler
- Autor
- Erschienen
- AusgabeValidation version 0.9
- Umfang1 Online-Ressource (22 Seiten) : Illustrationen, Diagramme
- SpracheEnglisch
- DokumenttypAnderer Text (Elektronische Erstveröffentlichung)
- URN
- DOI
Links
- Social MediaShare
- Nachweis
- IIIF
Dateien
Klassifikation
Zusammenfassung
Dieses Dokument stellt das Kompetenzmodell für „Responsible AI Literacy“ (RAIL) für Forschende vor, das entwickelt wurde, um die wachsende Lücke in Bezug auf Verantwortung und Integrität beim Einsatz Künstlicher Intelligenz (KI) im Forschungsprozess zu schließen. Während KI-Systeme Forschungsabläufe zunehmend erweitern, bleibt die Aufrechterhaltung wissenschaftlicher Strenge, Transparenz und Rechenschaftspflicht von zentraler Bedeutung. Basierend auf einer Dokumentenanalyse von 52 wissenschaftlichen Publikationen unter Verwendung qualitativer Inhaltsanalyse und Bayesscher Inferenz definiert das RAIL-Modell Kompetenz als eine dreigliedrige Integration aus explizitem Wissen, Fähigkeiten und verantwortungsvollen Integritätsdispositionen innerhalb spezifischer Forschungsaufgaben. Strukturell wird das Modell als tripartiter Hypergraph dargestellt, was verdeutlicht, dass eine verantwortungsvolle KI-Nutzung die funktionale Verknüpfung aller drei Dimensionen erfordert. Es identifiziert neun Kernkompetenzbereiche: Menschliche Expertise (Entscheidungsfindung), Neugier auf den „KI-Kollegen“, Einhaltung wissenschaftlicher Standards, Eigenverantwortung, Transparenz und Erklärbarkeit, Ausrichtung auf das eigene Erkenntnisinteresse, eine kritische Haltung gegenüber KI, Selbstreflexion sowie Nachhaltigkeit. Durch die Operationalisierung von Prinzipien wie „Human-in-the-loop“ bietet das RAIL-Modell Forschenden einen dynamischen Orientierungsrahmen, um die ethischen Komplexitäten von KI in der Wissenschaft zu bewältigen. Dieser Entwurf dient der Validierung und lädt Expert*innen zum Feedback ein, um die interdisziplinäre Anwendbarkeit in einer sich wandelnden Technologie- und Forschungslandschaft sicherzustellen. Die Validierungsphase läuft von Februar bis Juli 2026 und setzt die Nominal Group Technique (NGT) ein, um Daten aus dem Expert*innen-Feedback zu generieren.
Abstract
This paper introduces the Responsible AI Literacy (RAIL) Competency Model for Researchers, a framework designed to address the growing responsibility and integrity gap in the use of Artificial Intelligence (AI) in research. As AI increasingly augments research workflows, maintaining scientific rigor, transparency, and accountability is paramount. Developed through a document analysis of 52 scientific publications incorporating Qualitative Content Analysis and Bayesian reasoning, the RAIL model defines competency as a tripartite integration of explicit knowledge, practical skills, and responsible integrity dispositions within specific research tasks. The model is structurally represented as a tripartite hypergraph, emphasizing that responsible AI use requires the functional connection of all three dimensions. It identifies nine core competency areas: Human Expertise (Decision-Making), AI Coworker Curiosity, Adherence to Scientific Standards, Taking Ownership, Transparency and Explainability, Alignment with Knowledge Interest, Critical Stance toward AI, Self-Reflectiveness, and Considering Sustainability. By operationalizing principles such as the "human-in-the-loop," the RAIL model provides a dynamic roadmap for researchers to navigate the ethical complexities of AI in science. This validation draft serves as a call for expert feedback to ensure interdisciplinary applicability and long-term viability in an evolving technological and research landscape. The validation phase is scheduled for February to July 2026 and will use the Nominal Group Technique (NGT) to generate data from this expert feedback.
Lizenz-/Rechtehinweis

