Bibliographic Metadata
Bibliographic Metadata
- TitleFast Neuro-Symbolic Approaches for Class Expression Learning / N'Dah Jean Kouagou ; 1. Reviewer Prof. Dr. Axel-Cyrille Ngonga Ngomo (Heinz Nixdorf Institute, Department of Computer Science Paderborn University), 2. Reviewer Prof. Dr. Paul Groth (Informatics Institute University of Amsterdam) ; Supervisor Prof. Dr. Axel-Cyrille Ngonga Ngomo
- Author
- Degree supervisor
- Published
- Description1 Online-Ressource (xxiv, 148 Seiten) Diagramme
- Institutional NoteUniversität Paderborn, Dissertation, 2025
- AnnotationTag der Verteidigung: 09.05.2025
- Defended on2025-05-09
- LanguageEnglish
- Document TypesDissertation (PhD)
- Keywords (GND)
- URN
- DOI
Links
- Social MediaShare
- Reference
- IIIF
Files
Classification
Zusammenfassung
Angesichts der rasanten Entwicklung der Fähigkeiten moderner KI-Systeme besteht ein dringender Bedarf an erklärbaren KI-Methoden, um das Verhalten dieser Systeme zu verstehen. Lernen von Klassenausdrücken in Beschreibungslogiken birgt enormes Potenzial dafür. Ein Klassenausdruck liefert eine klare Beschreibung, warum ein bestimmtes Beispiel als positiv oder negativ eingestuft wird und ist somit ein White-Box-Modell. Bei den meisten existierende Ansätzen zum Lernen von Klassenausdrücken handelt es sich um suchbasierte Methoden, die viele verschiedene Klassenausdrücke generieren und denjenigen mit der höchsten Klassifizierungspunktzahl auswählen. Während diese Ansätze bei kleinen Datensätzen oft gut funktionieren, ist ihr Suchraum unendlich groß und dessen Erkundung wird gerade bei großen Datensätzen zeitaufwändig. In dieser Arbeit entwickeln wir mehrere neuro-symbolische Ansätze, um das Lernen von Klassenausdrücken in großem Maßstab zu bewältigen. Unser erster Ansatz CLIP verwendet neuronale Netze, um Konzeptlängen zu lernen, und nutzt trainierte Konzeptlängenprädiktoren, um Lernprobleme effizient zu lösen. Neuronale Klassenausdrucksynthetisierer (NCES) gehen das Lernen von Klassenausdrücken in $\mathcal{ALC}$ ähnlich wie maschinelle Übersetzung an und unterstützen anspruchsvolle Computerhardware wie GPUs. NCES2 erweitert NCES auf die Beschreibungslogik $\mathcal{ALCHIQ}^{(\mathcal{D})}$, integriert ein Einbettungsmodell für das End-to-End-Training und setzt eine Datenerweiterungstechnik ein, um die Generalisierung auf ungesehene Lernprobleme zu verbessern. Schließlich verwendet ROCES iteratives Sampling, um die Robustheit von neuronalen Klassenausdrucksynthetisierern gegenüber Änderungen in der Anzahl der Eingabebeispiele zu verbessern. Experimentelle Ergebnisse auf Benchmark-Datensätzen deuten darauf hin, dass die von uns vorgeschlagenen Ansätze deutlich schneller sind als der Stand der Technik (bis zu 10.000$\times$ mit NCES, NCES2 und ROCES) und gleichzeitig in der Vorhersageleistung vergleichbar gut abschneiden.
Abstract
With the swift progress of current AI systems' capabilities, there is a pressing need for explainable AI methods to understand the behavior of these systems. To this end, class expression learning in description logics holds enormous potential. A class expression provides a clear description of why a given example is classified as positive, and is hence a white-box model. Most existing approaches for class expression learning are search-based methods which generate many candidate class expressions and select the one with the highest classification score. While these approaches often perform well on small datasets, their search space is infinite and its exploration becomes arduous on large datasets even for a single learning problem. In this thesis, we develop several neuro-symbolic approaches to tackle class expression learning at scale. Our first approach CLIP uses neural networks to learn concept lengths, and utilizes trained concept length predictors to solve learning problems efficiently. Neural class expression synthesizers (NCES) tackle class expression learning in $\mathcal{ALC}$ in a fashion akin to machine translation, and support sophisticated computing hardware such as GPUs. NCES2 extends NCES to the description logic $\mathcal{ALCHIQ}^{(\mathcal{D})}$, integrates an embedding model for end-to-end training, and employs a data augmentation technique to enhance generalization to unseen learning problems. Finally, ROCES uses iterative sampling to improve the robustness of neural class expression synthesizers to changes in the number of input examples. Experimental results on benchmark datasets suggest that our proposed approaches are significantly faster than the state of the art (up to 10,000$\times$ with NCES, NCES2 and ROCES) while being highly competitive in predictive performance.
Content
Stats
- The PDF-Document has been downloaded 1 times.
License/Rightsstatement