Titelaufnahme
Titelaufnahme
- TitelImperfections of Machine Learning : Experimental Investigations of Human Advice-Taking Behavior / Dirk Gerhard Leffrang ; Dekan: Prof. Dr. Jens Müller ; Gutachter: Prof. Dr. Oliver Müller, Prof. Dr. Simon Thanh-Nam Trang
- Autor
- Gutachter
- Erschienen
- Umfang1 Online-Ressource (39 Seiten) Diagramme
- HochschulschriftKumulative Dissertation Universität Paderborn, Dissertation, 2025
- AnmerkungTag der Verteidigung: 11.06.2025
- Verteidigung2025-06-11
- SpracheEnglisch
- DokumenttypDissertation
- Schlagwörter (GND)
- URN
- DOI
Links
- Social MediaShare
- Nachweis
- IIIF
Dateien
Klassifikation
Zusammenfassung
Die zunehmende Verbreitung von Machine-Learning-Algorithmen (ML) wirft Fragen über deren Unvollkommenheiten auf. Während sich frühere verhaltenswissenschaftliche Studien vor allem mit einer allgemeinen menschlichen Abneigung gegenüber fehlerbehafteten Algorithmen beschäftigt haben, hat die ML-Forschung verschiedene Arten solcher Schwächen identifiziert - etwa Unsicherheiten bei der Leistung, mangelnde Transparenz oder ökologische Auswirkungen. Diese Dissertation untersucht experimentell, wie sich die Kommunikation solcher Schwächen auf Nutzende auswirkt. Dazu wurde den Teilnehmenden gezielt Hintergrundwissen über Grenzen und besondere Merkmale von ML-Algorithmen vermittelt. Insgesamt wurden zehn Online-Experimente im Rahmen von sieben Fachartikeln mit insgesamt 1.428 Personen durchgeführt. Die Ergebnisse lassen sich in drei zentrale Erkenntnisse zusammenfassen: Erstens kann das Offenlegen von Schwächen die Ablehnung gegenüber Algorithmen verringern. Zweitens beeinflusst die Verteilung der algorithmischen Empfehlungsqualität die Nutzerakzeptanz. Drittens zeigt sich, dass das Wissen über KI in nichtlinearer Weise mit der Akzeptanz von algorithmischen Ratschlägen zusammenhängt. Diese Erkenntnisse sind besonders relevant für Entscheidungstragende, ML-Entwickelnde und alle, die ML-Systeme bewerten. Sie verdeutlichen, wie wichtig es ist, algorithmische Schwächen transparent zu machen, um differenzierte und informierte Entscheidungen bei der Nutzung solcher Systeme zu ermöglichen – insbesondere bei Nutzenden mit unterschiedlichem Verständnis von KI.
Abstract
The increasing proliferation of machine learning (ML) algorithms raises concerns about their imperfections. Previous behavioral research has primarily focused on a general human aversion toward imperfect algorithms. In contrast, ML research has discovered different forms of imperfections, such as performance uncertainty, transparency issues, and environmental sustainability. This dissertation experimentally explores the impact of communicating these imperfections to the end-user by providing relevant background information about the limitations or specific characteristics of ML algorithms. This dissertation includes ten online experiments across seven papers with a total of 1,428 participants, which yielded three main findings: First, imperfections of algorithms can reduce algorithm aversion. Secondly, the distribution of advice quality shapes algorithm aversion. Third, AI literacy can be associated with algorithm aversion in non-linear ways. These findings are essential for decision-makers, developers, and ML evaluations. They emphasize the need to incorporate and disclose different algorithmic imperfections, which enables more nuanced advice-taking strategies, especially for users with varying degrees of AI literacy.
Inhalt
Statistik
- Das PDF-Dokument wurde 20 mal heruntergeladen.
Lizenz-/Rechtehinweis