Titelaufnahme
Titelaufnahme
- TitelHuman integration in AI : calibrating trust and improving performance in decision support systems / Jaroslaw Kornowicz, M.Sc.
- Autor
- Gutachter
- Erschienen
- Umfang1 Online-Ressource (x, 146, xxv Seiten) Diagramme
- HochschulschriftUniversität Paderborn, Dissertation, 2025
- AnmerkungTag der Verteidigung: 27.07.2025
- Verteidigung2025-07-27
- SpracheEnglisch
- DokumenttypDissertation
- Schlagwörter (GND)
- URN
- DOI
Links
- Social MediaShare
- Nachweis
- IIIF
Dateien
Klassifikation
Zusammenfassung
Menschen treffen täglich viele Entscheidungen. Oft ist es schwierig, die richtige Entscheidung zu treffen, weshalb wir Unterstützung benötigen. Die vorliegende Dissertation beschäftigt sich mit computerbasierten Entscheidungsunterstützungssystemen, die auf künstlicher Intelligenz basieren. Da die Zusammenarbeit zwischen Mensch und KI oft nicht optimal verläuft, verfolgt die Arbeit zwei Ziele: Einerseits soll die Interaktion zwischen Mensch und KI verbessert werden, andererseits soll die KI selbst optimiert werden.Dabei wird die menschliche Integration als ein Lösungsansatz untersucht, um beide Ziele zu erreichen. In den Kapiteln der kumulativen Dissertation wird gezeigt, dass die Vermenschlichung von KI das Vertrauen in deren Empfehlungen positiv beeinflussen kann. Zudem wird belegt, dass die Integration von Experten von den Nutzern gegenüber rein algorithmischen Systemen bevorzugt wird. Die Einbindung von Experten kann außerdem die Genauigkeit von KI verbessern, und eine Ko-Konstruktion zwischen Nutzern und Algorithmus kann für die Modellbildung genutzt werden.Auch im Bereich der erklärbaren KI-Systeme (XAI) leistet die Dissertation einen Beitrag durch eine empirische Untersuchung eines Frameworks, das sich auf die menschliche Natur fokussiert. Darüber hinaus wird eine Architektur für erklärbare und ko-konstruktive Systeme vorgeschlagen. Methodisch werden größtenteils Verhaltensexperimente durchgeführt, die durch qualitative Elemente ergänzt werden.
Abstract
People make many decisions every day. Often, it is difficult to make the right decision, which is why we need support. This dissertation addresses computer-based decision support systems that are powered by artificial intelligence. Since the collaboration between humans and AI often does not run optimally, the work pursues two main objectives: on the one hand, improving the interaction between humans and AI, and on the other hand, optimizing the AI itself.The concept of human integration is explored as a potential approach to achieving both goals. The chapters of this cumulative dissertation demonstrate that humanizing AI can positively influence trust in its recommendations. Furthermore, the findings show that users tend to prefer systems that integrate human experts over purely algorithmic systems. The involvement of experts can also enhance the accuracy of AI, and co-construction between users and algorithms can be utilized for model development.The dissertation also contributes to the field of explainable AI systems (XAI) by empirically examining a framework that focuses on human nature. Additionally, an architecture for explainable and co-constructive systems is proposed. Methodologically, the research primarily relies on behavioral experiments, which are supplemented by qualitative elements.
Inhalt
Statistik
- Das PDF-Dokument wurde 129 mal heruntergeladen.
Lizenz-/Rechtehinweis

