TY - THES AB - Angesichts der rasanten Entwicklung der Fähigkeiten moderner KI-Systeme besteht ein dringender Bedarf an erklärbaren KI-Methoden, um das Verhalten dieser Systeme zu verstehen. Lernen von Klassenausdrücken in Beschreibungslogiken birgt enormes Potenzial dafür. Ein Klassenausdruck liefert eine klare Beschreibung, warum ein bestimmtes Beispiel als positiv oder negativ eingestuft wird und ist somit ein White-Box-Modell. Bei den meisten existierende Ansätzen zum Lernen von Klassenausdrücken handelt es sich um suchbasierte Methoden, die viele verschiedene Klassenausdrücke generieren und denjenigen mit der höchsten Klassifizierungspunktzahl auswählen. Während diese Ansätze bei kleinen Datensätzen oft gut funktionieren, ist ihr Suchraum unendlich groß und dessen Erkundung wird gerade bei großen Datensätzen zeitaufwändig. In dieser Arbeit entwickeln wir mehrere neuro-symbolische Ansätze, um das Lernen von Klassenausdrücken in großem Maßstab zu bewältigen. Unser erster Ansatz CLIP verwendet neuronale Netze, um Konzeptlängen zu lernen, und nutzt trainierte Konzeptlängenprädiktoren, um Lernprobleme effizient zu lösen. Neuronale Klassenausdrucksynthetisierer (NCES) gehen das Lernen von Klassenausdrücken in $\mathcal{ALC}$ ähnlich wie maschinelle Übersetzung an und unterstützen anspruchsvolle Computerhardware wie GPUs. NCES2 erweitert NCES auf die Beschreibungslogik $\mathcal{ALCHIQ}^{(\mathcal{D})}$, integriert ein Einbettungsmodell für das End-to-End-Training und setzt eine Datenerweiterungstechnik ein, um die Generalisierung auf ungesehene Lernprobleme zu verbessern. Schließlich verwendet ROCES iteratives Sampling, um die Robustheit von neuronalen Klassenausdrucksynthetisierern gegenüber Änderungen in der Anzahl der Eingabebeispiele zu verbessern. Experimentelle Ergebnisse auf Benchmark-Datensätzen deuten darauf hin, dass die von uns vorgeschlagenen Ansätze deutlich schneller sind als der Stand der Technik (bis zu 10.000$\times$ mit NCES, NCES2 und ROCES) und gleichzeitig in der Vorhersageleistung vergleichbar gut abschneiden. AU - Kouagou, N'Dah Jean CY - Paderborn DO - 10.17619/UNIPB/1-2304 DP - Universität Paderborn LA - eng N1 - Tag der Verteidigung: 09.05.2025 N1 - Universität Paderborn, Dissertation, 2025 PB - Veröffentlichungen der Universität PY - 2025 SP - 1 Online-Ressource (xxiv, 148 Seiten) Diagramme T2 - Heinz Nixdorf Institut (HNI) TI - Fast Neuro-Symbolic Approaches for Class Expression Learning UR - https://nbn-resolving.org/urn:nbn:de:hbz:466:2-55201 Y2 - 2025-11-13T11:52:56 ER -