Titelaufnahme
Titelaufnahme
- TitelBehavioral effects in human-machine and human-human interactions : economic experiments on dishonesty, advice-taking, and overconfidence / von Marius Protte
- Autor
- Gutachter
- Erschienen
- Umfang1 Online-Ressource (iv, 242 Seiten) : Diagramme, Illustrationen
- HochschulschriftKumulative Dissertation Universität Paderborn, Dissertation, 2025
- AnmerkungTag der Verteidigung: 12.11.2025
- Verteidigung2025-11-12
- SpracheEnglisch
- DokumenttypDissertation
- Schlagwörter (GND)
- URN
- DOI
Links
- Social MediaShare
- Nachweis
- IIIF
Dateien
Klassifikation
Zusammenfassung
Diese Dissertation untersucht, wie Menschen Entscheidungen in Interaktionen sowohl mit anderen Personen als auch mit zunehmend verbreiteten algorithmischen Systemen treffen. Unter Einbezug von Erkenntnissen aus der Verhaltensökonomie und der Mensch-Maschine-Interaktion wird analysiert, wie kognitive Limitationen, soziale Präferenzen und Wahrnehmungsverzerrungen das Verhalten in Kontexten von Unehrlichkeit, Empfehlungsumsetzung, Feedbackverarbeitung und Selbsteinschätzung prägen. Vier kontrollierte ökonomische Experimente zeigen, dass algorithmische Intransparenz unehrliches Verhalten verstärken kann, die Einbindung von Nutzern in das Training von KI-Systemen zwar deren Wahrnehmung verbessert, jedoch nicht die tatsächliche Befolgung algorithmischer Ratschläge fördert, dass Echtzeit-Feedback in Human-in-the-Loop-Systemen unbeabsichtigt Verhaltensverzerrungen verstärken kann und dass gängige Messungen von Selbstüberschätzung stark von methodischen Designentscheidungen abhängen. Die Dissertation unterstreicht die Notwendigkeit, realistische Annahmen über menschliches Verhalten bei der Gestaltung von Prüfungsprozessen, Empfehlungssystemen und interaktiven Technologien zu berücksichtigen und leistet damit einen Beitrag zu einem besseren Verständnis menschlicher Entscheidungsprozesse in einer zunehmend automatisierten Welt.
Abstract
This dissertation investigates how humans make decisions in interactions with both other people and increasingly prevalent algorithmic systems. Integrating insights from behavioral economics and human-machine interaction, it examines how cognitive limitations, social preferences, and perceptual biases shape behavior in contexts involving dishonesty, advice-taking, feedback, and self-assessment. Across four controlled economic experiments, the studies show that algorithmic opacity can increase dishonest behavior, user involvement in AI training improves perceptions but not actual adherence to algorithmic advice, real-time feedback in human-in-the-loop systems can unintentionally amplify behavioral biases, and common measures of overconfidence are sensitive to methodological design. The dissertation underscores the need to incorporate realistic behavioral assumptions when designing verification processes, advisory algorithms, and interactive technologies, contributing to a deeper understanding of human decision-making in an increasingly automated world.
Inhalt

