Multikriterielle Ablaufplanung und-steuerung in dynamischen und stochastischen Umgebungen Ein Beitrag zur Erstellung robuster Ablaufpläne für die Frachtabfertigung in Luftfrachtterminals Der Fakultät für Wirtschaftswissenschaften der Universität Paderborn zur Erlangung des akademischen Grades Doktor der Wirtschaftswissenschaften – Doctor rerum politicarum – vorgelegte Dissertation von Simon Boxnick, M. Sc. geboren am 23.08.1986 in Meschede Paderborn, Januar 2016 Dekanin: Prof. Dr. Caren Sureth-Sloane Referent: Prof. Dr.-Ing. habil. Wilhelm Dangelmaier Korreferentin: Prof. Dr. Leena Suhl Für Sarah Vorwort Die vorliegende Arbeit ist das Resultat meiner Forschung, die ich als Stipendiat der International Graduate School „Dynamic Intelligent Systems“ der Universität Paderborn am Lehrstuhl für Wirtschaftsinformatik, insb. CIM des Heinz Nixdorf Instituts in Kooperation mit der Firma Lödige Industries GmbH in Warburg durchgeführt habe. Für die engagierte wissenschaftliche Betreuung und vielseitige Unterstützung möchte ich mich bei Herrn Prof. Dr.-Ing. habil. Wilhelm Dangelmaier bedanken. Er ermöglichte mir die Anfertigung dieser Arbeit in Kooperation mit einem Industrieunternehmen und gab mir dadurch die Möglichkeit, Forschung und industrielle Praxis zu verbinden. Diese wertvolle Erfahrung möchte ich nicht missen. Zudem gilt mein Dank Frau Prof. Dr. Leena Suhl für die Übernahme des Zweitgutachtens sowie Herrn Prof. Dr. Friedhelm Meyer auf der Heide und Herrn Prof. Dr. Stefan Betz, die mir als Mitglieder meiner Prüfungskommission wertvolles Feedback gaben. Dem Team der International Graduate School „Dynamic Intelligent Systems“ und ihrem Leiter Prof. Dr. Eckhard Steffen danke ich für die Förderung durch ein Stipendium. Der interdisziplinäre Austausch mit anderen Stipendiaten in den zahlreichen Veranstaltungen des Doktorandenprogramms hat meine Promotionszeit sehr bereichert. Mein Dank gilt zudem Herrn Prof. Dr.-Ing. Rudolf Lödige sowie dem Geschäftsführer der Lödige Industries GmbH, Herrn Philippe De Backer, für die Gelegenheit zu einer Industriekooperation und für die Möglichkeit, mein Wissen in verschiedenen praxisnahen Projekten einbringen und erweitern zu können. Für die vielen konstruktiven Gespräche und Einblicke in die Welt der Luftfracht(-Terminals) möchte ich mich besonders bei Herrn Knud Segatz und Herrn Rainer Leichtweiss bedanken. Meinen Kollegen am Lehrstuhl möchte ich für die motivierende und humorvolle Arbeitsatmosphäre sowie die interessanten fachlichen, aber auch nicht-fachlichen Gespräche danken. Es war eine schöne Zeit, die mir noch lange in Erinnerung bleiben wird. Mein besonderer Dank gilt meinen Bürokollegen und Mitstreitern bei Lödige Industries GmbH, Sebastian Lauck und Lukas Kopecki. Mein tiefer Dank gilt meinen Eltern Verena und Helmuth, die mich während meiner wissenschaftlichen Ausbildung fortwährend unterstützt und in meinem Weg stets bestärkt sowie mir den notwendigen Rückhalt gegeben haben. Mein innigster Dank gilt meiner Lebensgefährtin Sarah. Du warst stets mein größter Rückhalt und hast viel Verständnis für die wenige gemeinsame Zeit aufgebracht. Ich danke dir für deine Liebe und Unterstützung in den vergangenen Jahren, mit der du zur Entstehung dieses Buches sehr viel beigetragen hast. Paderborn, Mai 2016 Simon Boxnick i Inhaltsverzeichnis Abbildungsverzeichnis v Tabellenverzeichnis vii Liste der Algorithmen ix Abkürzungsverzeichnis xi Symbolverzeichnis xiii 1 Einleitung 1.1 Zielsetzung der Arbeit........................... 1.2 Gliederung der Arbeit........................... 1 3 4 2 Problemstellung 2.1 Systembeschreibung............................. 2.1.1 Luftfrachttransportkette und involvierte Akteure......... 2.1.2 Prozessabläufe im Luftfrachtterminal............... 2.2 Problemfelder der Ablaufplanung und-steuerung............ 2.2.1 Datenanalyse der Abfertigungsprozesse.............. 2.2.1.1 Vorhandene Datenbasis................. 2.2.1.2 Benötigter Informationsstand.............. 2.2.2 Multikriterielle Ablaufplanung der Abfertigungsprozesse.... 2.2.2.1 Charakterisierung der Planungsumgebung....... 2.2.2.2 Darstellung des Ablaufplanungsproblems........ 2.2.2.3 Berücksichtigung der Personalkapazitäten....... 2.2.2.4 Berücksichtigung der Förderkapazitäten........ 2.2.3 Ablaufsteuerung der Abfertigungsprozesse............ 2.3 Anforderungen an die Verfahren zur Problemlösung........... 2.3.1 Anforderungen an ein Verfahren zur Datenanalyse der Abfertigungsprozesse............................ 2.3.2 Anforderungen an ein Verfahren zur multikriteriellen Ablaufplanung der Abfertigungsprozesse................... 2.3.3 Anforderungen an ein Verfahren zur Ablaufsteuerung der Abfertigungsprozesse........................... 7 7 7 11 15 17 17 19 20 20 21 28 30 30 32 32 33 34 ii Inhaltsverzeichnis 3 Stand der Forschung 3.1 Datenanalyse und Wissensextraktion aus Datenquellen......... 3.1.1 Verfahren für den Aufgabenbereich der Klassenbildung..... 3.1.1.1 Hierarchische Verfahren................. 3.1.1.2 Partitionierende Verfahren................ 3.1.2 Verfahren für den Aufgabenbereich der Klassifizierung...... 3.1.2.1 Generative Modelle zur Klassifizierung......... 3.1.2.2 Diskriminative Modelle zur Klassifizierung....... 3.1.3 Literaturüberblick......................... 3.2 Multikriterielle Ablaufplanung unter Unsicherheit............ 3.2.1 Exakte Verfahren.......................... 3.2.1.1 Robuste Optimierung.................. 3.2.1.2 Stochastische Optimierung................ 3.2.2 Heuristische Verfahren....................... 3.2.2.1 Multikriterielle populationsbasierte Metaheuristiken.. 3.2.2.2 Multikriterielle evolutionäre Metaheuristiken unter Unsicherheit......................... 3.2.3 Ablaufplanung unter multiplen Ressourcenbeschränkungen... 3.2.4 Literaturüberblick......................... 3.3 Ablaufsteuerung und Revision von Ablaufplänen............. 3.3.1 Vorgehensweisen zur Revision von Ablaufplänen......... 3.3.2 Literaturüberblick......................... 3.4 Fazit zum Stand der Forschung...................... 35 35 36 40 42 44 45 47 49 51 52 53 54 56 57 59 61 62 69 69 70 71 4 Zu leistende Arbeit 75 4.1 Entwicklung eines Verfahrens zur Datenanalyse der Abfertigungsprozesse 75 4.2 Entwicklung einer multikriteriellen Ablaufplanung der Abfertigungsprozesse 76 4.3 Entwicklung eines Verfahrens zur Ablaufsteuerung der Abfertigungsprozesse 77 5 Konzeption 79 5.1 Komposition des Gesamtsystems in einer Architektur.......... 79 5.1.1 Aufbau der Architektur....................... 79 5.1.2 Ablaufprozess innerhalb der Architektur............. 81 5.2 Erstellung des benötigten Informationsstands aus historischen Betriebsdaten 82 5.2.1 Clusterbildung der Abfertigungsaufträge............. 82 5.2.1.1 Auftragsbeschreibende Eigenschaften.......... 83 5.2.1.2 Distanzfunktion für Aufträge.............. 85 5.2.1.3 Verfahren zur Clusteranalyse von Aufträgen...... 87 5.2.1.4 Intervallgrenzen der Bearbeitungszeitabweichungen.. 91 5.2.1.5 Ermittlung von Häufigkeitsverteilungen der Bearbeitungszeitabweichungen.................. 94 5.2.2 Klassifikatorentwicklung für unbekannte Aufträge........ 97 5.2.2.1 Erstellung von Trainingsdaten.............. 97 5.2.2.2 Erstellung des Klassifikators............... 99 Inhaltsverzeichnis iii 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse......... 5.3.1 Formalisierung des Ablaufplanungsproblems........... 5.3.1.1 Klassierung der zu bearbeitenden Aufträge....... 5.3.1.2 Zielsystem......................... 5.3.1.3 Modellformulierung.................... 5.3.2 Aufbau einer rollierenden Ablaufplanung............. 5.3.2.1 Ablauf der rollierenden Ablaufplanung......... 5.3.2.2 Zielkriterium„Stabilität“................ 5.3.2.3 Erweiterung der Modellformulierung.......... 5.3.3 Evolutionäre Heuristik für die Ablaufplanung.......... 5.3.3.1 Kodierung und Dekodierung der Ablaufpläne..... 5.3.3.2 Initialisierung....................... 5.3.3.3 Evaluation der Ablaufpläne auf Basis des Zielsystems. 5.3.3.4 Selektion und Rekombination von Ablaufplänen.... 5.3.3.5 Mutationsoperator für Ablaufpläne........... 5.3.3.6 Ersetzungsstrategie für die Ablaufpläne......... 5.3.3.7 Terminierung und Auswahl eines Ablaufplans durch den Entscheidungsträger................... 5.3.4 Integration der Personaleinsatzplanung.............. 5.3.4.1 Erweiterung der Modellformulierung.......... 5.3.4.2 Heuristik für die Personaleinsatzplanung........ 5.3.5 Integration der Transportsysteme................. 5.3.5.1 Erweiterung der Modellformulierung.......... 5.3.5.2 Heuristik für die Materialflusssteuerung........ 5.4 Ablaufsteuerung und Revision von Ablaufplänen............. 5.4.1 Ausführungsüberwachung des aktiven Ablaufplans........ 5.4.2 Ereignisorientierte Revision des aktiven Ablaufplans....... 105 105 105 107 110 112 113 114 117 120 121 123 127 130 133 134 135 135 136 138 139 139 142 144 144 145 6 Validierung 149 6.1 Validierung der Erstellung des benötigten Informationsstands...... 149 6.1.1 Testinstanzen für die Validierung des Clustering- und Klassifikationsverfahrens........................... 149 6.1.2 Analyse des Clusteringverfahrens................. 151 6.1.2.1 Auswahl der Initialisierungsmethode.......... 152 6.1.2.2 Parametrisierung der Anzahl Cluster.......... 155 6.1.3 Analyse des Klassifikationsverfahrens............... 155 6.1.3.1 Effektivität und Effizienz des Klassifikationsverfahrens 155 6.1.3.2 Ermittlung von Kontingenztafeln............ 159 6.2 Validierung der multikriteriellen Ablaufplanung der Abfertigungsprozesse 161 6.2.1 Testinstanzen für die Validierung der multikriteriellen Ablaufplanung................................. 161 6.2.2 Parametrisierungsexperiment für den genetischen Algorithmus. 162 6.2.3 Effektivität und Effizienz der proaktiven Ablaufplanung..... 170 6.2.4 Betrachtung der rollierenden Ablaufplanung........... 173 iv Inhaltsverzeichnis 7 Zusammenfassung und Ausblick 177 7.1 Zusammenfassung.............................. 177 7.2 Weitere Forschungsmöglichkeiten..................... 179 Literaturverzeichnis 181 v Abbildungsverzeichnis 2.1 Luftfrachttransportkette und involvierte Akteure.............. 2.2 Frachtflüsse im Luftfrachtterminal....................... 2.3 Dynamische Ankunft neuer Aufträge und ihre Berücksichtigung in partiell ausgeführten Ablaufplänen........................... 2.4 Auswirkungen stochastischer Bearbeitungszeiten der Aufträge auf den Ablaufplan..................................... 2.5 Auswirkungen der Ressource„Personal“ auf den Ablaufplan........ 8 14 25 26 29 5.1 Übersicht über die Architektur........................ 5.2 Kumulative Verteilungs- und Quantilfunktion der Bearbeitungszeitabweichungen im Intervall I C ............................. 5.3 Aufbau einer Häufigkeitsverteilung, dargestellt als Histogramm....... 5.4 Rollierende Ablaufplanung........................... 5.5 Visualisierung der Berechnung für die Zielfunktion„Stabilität“ unter Berücksichtigung eines beliebigen, aber festen Szenarios............ 5.6 Ablauf des genetischen Algorithmus...................... 5.7 Dekodierung eines Individuums zu einem Ablaufplan............ 5.8 Visualisierung eines Worst-Case-Szenarios bei Anwendung des absoluten Regret-Kriteriums, das kein Extrempunktszenario ist............ 5.9 Rekombinationsoperator des genetischen Algorithmus............ 5.10 Mutationsoperatoren des genetischen Algorithmus.............. 80 94 96 113 116 121 122 128 133 134 6.1 Verläufe des Silhouettenkoeffizienten für verschiedene Parametervariationen der Anzahl Cluster für die untersuchten Testinstanzen........... 6.2 Durchschnittliche Verläufe der Zielfunktionswerte und Strafkosten unter Variation der Populationsgröße........................ 6.3 Durchschnittliche Verläufe der Zielfunktionswerte und Strafkosten unter Variation der Rekombinationswahrscheinlichkeit............... 6.4 Durchschnittliche Verläufe der Zielfunktionswerte und Strafkosten unter Variation des Verhältnisses der ersten zur zweiten Mutationsart...... 6.5 Durchschnittliche Verläufe der Zielfunktionswerte und Strafkosten unter Variation der Mutationswahrscheinlichkeit der ersten Mutationsart.... 6.6 Durchschnittliche Verläufe der Zielfunktionswerte und Strafkosten unter Variation der Mutationswahrscheinlichkeit der zweiten Mutationsart.... 6.7 Pareto-Fronten der pareto-optimalen Ablaufpläne für drei Testinstanzen.. 156 165 166 167 168 169 174 vii Tabellenverzeichnis 2.1 Datenbasis über Frachtabfertigungsaufträge................. 18 6.1 Anzahl der historischen Aufträge in den realen und synthetischen Testinstanzen unterteilt nach den nicht(quasi)stetigen Eigenschaften....... 6.2 Arithmetisches Mittel und Populations-Standardabweichung der Bearbeitungszeitabweichung sowie der(quasi)stetigen Eigenschaften für die realen Testinstanzen.................................. 6.3 Silhouettenkoeffizient, Rand-Maß und Jaccard-Koeffizient der verschiedenen Testinstanzen in Abhängigkeit der gewählten Initialisierungsmethode... 6.4 Metriken zur Bestimmung der Effektivität und Effizienz des Klassifikationsverfahrens für die verschiedenen Testinstanzen................ 6.5 Kontingenztafel für Testinstanz R2 nach Durchführung einer zehnfachen stratifizierten Kreuzvalidierung........................ 6.6 Durch den Klassifikator ermittelte Zugehörigkeitswahrscheinlichkeiten für vier ausgewählte Zellen der Kontingenztafel von Testinstanz R2...... 6.7 Anzahl der einzuplanenden Aufträge in den realen und synthetischen Testinstanzen, unterteilt nach den nicht(quasi)stetigen Eigenschaften..... 6.8 Für die proaktive Ablaufplanung zur Verfügung stehende Ressourcen... 6.9 Für die proaktive Ablaufplanung zu ermittelnde Parameterwerte und festgelegte Parameter................................. 6.10 Arithmetisches Mittel der benötigten Zeiten zur Erstellung von 54 Szenarien und einer Initialpopulation P 0 von 30 Individuen für drei Testinstanzen. 6.11 Vergleich der Ablaufpläne RA, PA, EA und CA anhand von vier Metriken für die verschiedenen Testinstanzen...................... 6.12 MIP-Statistiken des Modells zur Berechnung des Worst-Case-Szenarios nach dem Pre-Solve-Schritt für die verschiedenen Testinstanzen......... 6.13 Anzahl der Aufträge mit unterschiedlichem Ausführungsstatus für die verschiedenen Testinstanzen zum Zeitpunkt t 1 = 8:30 Uhr........... 6.14 Vergleich der Ablaufpläne RA, PA und SA anhand von sechs Metriken für die verschiedenen Testinstanzen........................ 150 151 154 159 160 160 162 162 163 164 171 173 173 175 ix Liste der Algorithmen 5.1 Clusteranalyse von Aufträgen.......................... 5.2 Ermittlung der verkleinerten Clustermenge C ∗ ................ 5.3 Ermittlung der Häufigkeitsverteilungen der Bearbeitungszeitabweichungen. 5.4 Erstellung von Trainingsdaten für den Klassifikator.............. 5.5 Klassifikator für Frachtabfertigungsaufträge.................. 5.6 Klassierung der einzuplanenden Frachtabfertigungsaufträge und Ermittlung der Bearbeitungszeitintervalle.......................... 5.7 Erstellung der Initialpopulation für den genetischen Algorithmus...... 5.8 Ablauf der Evaluation einer Population.................... 92 95 98 99 103 106 126 131 xi Abkürzungsverzeichnis 4PL Fourth-Party-Logistics-Provider A.-Plan AGV Anz. AWB Ablaufplan Automated Guided Vehicle Anzahl Air Waybill BD Break-down BU Build-up CA Optimaler Ablaufplan für die geschätzte Bearbeitungszeit CBT Calibrated Boosted Trees CLARA Clustering Large Applications CLARANS Clustering Large Applications based upon Randomized Search CPT Conditional Probability Table DM DRC DRCS Data-Mining Dual-resource Constrained Dual-resource Constrained Systems/Scheduling EA EDF ETV Erwartungswertoptimaler Ablaufplan Earliest Deadline First Elevated Transfer Vehicle GA Genetischer Algorithmus HAWB House Air Waybill IATA Inst. International Air Transport Association Instanz KDD KDDM KNN Knowledge Discovery in Databases Knowledge Discovery and Data Mining Künstliche neuronale Netze LO Linear Optimization LP Linear Program MAWB Master Air Waybill xii Abkürzungsverzeichnis MCFP MCNF MHS MILP MIP MOEA MOP MRCS NLMIP NOTOC NSGA-II PA PAM RA RC RFS RGV RTK s. ed. s. l. SA SHC u. B. d. N. ULD Multi-commodity Flow Problem Multi-commodity Network Flow Material Handling System Mixed-integer Linear Program Mixed-integer Program Multi-objective Evolutionary Algorithm Multi-objective Optimization Problem Multiple-resource Constrained Systems/Scheduling Non-linear Mixed-integer Program Notification to Captain Nondominated Sorting Genetic Algorithm II Ablaufplan mit der geringsten Anzahl säumiger Aufträge Partitioning Around Medoids Ablaufplan mit der höchsten Robustheit Robust Counterpart Road Feeder Service Rail-guided Vehicle Revenue tonne kilometre lat. sine editore(ohne Herausgeber) lat. sine loco(ohne Ort) Ablaufplan mit der höchsten Stabilität Special Handling Code unter Beachtung der Nebenbedingungen Unit Load Device xiii Symbolverzeichnis A A p a rec A s a ucc A H A t i A c t i lose A o t i pen A C t i +1 A F t i +1 A N t i +1 A P t i +1 A Pb t i +1 A R t i +1 AP AP i α a ap ap ηi ap p ap r ap ∗ sz ap ∗ sz co Menge von Aufträgen a Menge aller Aufträge, die vor Auftrag a eingeplant werden können Menge aller Aufträge, die nach Auftrag a eingeplant werden können Menge historischer Frachtabfertigungsaufträge ha Menge von Aufträgen a , die zum Zeitpunkt t i bekannt sind. Es gilt: A t i ⊂ A und A t i = A C t i +1 ∪ A R t i +1 ∪ A F t i +1 ∪ A P t i +1 Menge von Aufträgen a , die zum Zeitpunkt t i bereits in einem Individuum η kodiert sind Menge von Aufträgen a , die zum Zeitpunkt t i in einem Individuum η kodiert werden müssen Menge der zum Zeitpunkt t i +1 bekannten Aufträge, die bereits fertiggestellt wurden Menge der zum Zeitpunkt t i +1 bekannten Aufträge, für die an den Arbeitsstationen bereits eine Vorbereitung stattgefunden hat(z. B. Vorpufferung von Fracht). Aufträge dieser Menge sind somit fixiert Menge von Aufträgen a , die im Zeitraum von t i bis t i +1 neu hinzugekommen sind Menge der zum Zeitpunkt t i +1 bekannten Aufträge, die lediglich auf eine Arbeitsstation eingeplant sind Menge der erstmalig einzuplanenden sowie neu einzuplanenden Aufträge zum Zeitpunkt t i +1 . Es gilt: A Pb t i +1 = A N t i +1 ∪ A P t i +1 Menge der zum Zeitpunkt t i +1 bekannten Aufträge, die bereits auf den Arbeitsstationen gestartet wurden Menge aller zulässigen Ablaufpläne ap Menge aller zulässigen Ablaufpläne ap zum Zeitpunkt t i Glättungsparameter für den Klassifikator Auftrag a ∈ A Ablaufplan ap ∈ AP Ablaufplan, der sich aus dem Individuum η und einem evtl. bereits in der Ausführung befindlichen Ablaufplan ap i − 1 ergibt Geplanter Ablaufplan Realisierter Ablaufplan Optimaler Ablaufplan für Szenario sz ∈ SZ, der zu der geringsten Anzahl säumiger Aufträge führt Optimaler Ablaufplan für Szenario sz co , der zu der geringsten Anzahl säumiger Aufträge führt xiv Symbolverzeichnis ap ∗ sz ex ap ∗ sz d η is ap ∗ sz lb ap ∗ sz ub Bk C C ∗ C C ∗ C t ∗ d C z C a C a sz ( ap ) c sched ( ap ) classify( a ) cost( ·) ∆ τ C ∗ ∆ τ C m ∗ ax ∆ τ C m ∗ in ∆ τ C max ∆ τ C min ∆ τ C p C ∆ c m z, h ed a oid ∆ τ ha d a dist( · , ·) DM Optimaler Ablaufplan für Szenario sz ex , der zu der geringsten Anzahl säumiger Aufträge führt Optimaler Ablaufplan für das Ersatzszenario sz dis η ∈ SZ des Individuums η , der zu der geringsten Anzahl säumiger Aufträge führt Optimaler Ablaufplan für Szenario sz lb , der zu der geringsten Anzahl säumiger Aufträge führt Optimaler Ablaufplan für Szenario sz ub , der zu der geringsten Anzahl säumiger Aufträge führt Basisklassifikator Menge von Clustern C Menge von verkleinerten Clustern C ∗ Cluster C ∈ C Verkleinertes Cluster C ∗ ∈ C ∗ , das nur Werte enthält, die kleiner als ein bestimmtes Quantil sind Cluster, das einem Trainingsdatum td ∈ T als Ausgabe zugeordnet ist Cluster, dessen Clusterzentrum z ∈ Z ist Fertigstellungszeitpunkt von Auftrag a ∈ A Funktion zur Bestimmung des Fertigstellungszeitpunkts von Auftrag a ∈ A bei Verwendung des Ablaufplans ap ∈ AP in Szenario sz ∈ SZ Funktion zur Berechnung der erwarteten gewichteten Anzahl säumiger Aufträge für einen gegebenen Ablaufplan ap ∈ AP Klassierungsfunktion für Auftrag a ∈ A Einstellige Kostenfunktion Eine auf Basis der Häufigkeitsverteilung H C ∗ des Clusters C ∗ ∈ C ∗ ermittelte Bearbeitungszeitabweichung Maximaler Wert der Bearbeitungszeitabweichungen aller in einem Cluster C ∗ ∈ C ∗ enthaltenen Aufträge Minimaler Wert der Bearbeitungszeitabweichungen aller in einem Cluster C ∗ ∈ C ∗ enthaltenen Aufträge Maximaler Wert der Bearbeitungszeitabweichungen aller in einem Cluster C ∈ C enthaltenen Aufträge Minimaler Wert der Bearbeitungszeitabweichungen aller in einem Cluster C ∈ C enthaltenen Aufträge p C -Quantil: Bearbeitungszeitabweichungen, für die gilt, dass p C · 100% aller Bearbeitungszeitabweichungen des Clusters C ∈ C kleiner sind Kostendifferenz durch die Vertauschung des Clusterzentrums z ∈ Z und des Auftrag ha ∈ A H \ Z Bearbeitungszeitabweichung des historischen Frachtabfertigungsauftrags ha ∈ A H Fälligkeitstermin von Auftrag a ∈ A Zweistellige Distanzfunktion Distanzmatrix Symbolverzeichnis xv dm ha i , ha j E E Br E Bu E η E η + EU p e ha e ha ,p e p e ∗ p e td ,p ev F F ha F h m a h F h S a HC F C ( x ) ϕ f a fl ha G G Br G Bu g η Eintrag in der Distanzmatrix, der die Distanz zwischen den historischen Aufträgen ha i ∈ A H und ha j ∈ A H bezeichnet Menge von Vorrangbeziehungen. Wenn( a i , a j ) ∈ E, dann muss Auftrag a i ∈ A vor dem Beginn von Auftrag a j ∈ A fertiggestellt sein. Es gilt: E ⊂A×A Menge der Transportstrecken im Break-Netzwerk des Transportsystems Menge der Transportstrecken im Build-Netzwerk des Transportsystems Menge von Vorrangbeziehungen für den Ablaufplan, der durch das Individuum η kodiert wird. Entspricht einer Erweiterung der Menge E um Vorrangbeziehungen für die Aufträge, die auf der gleichen Maschine eingeplant sind Transitive Hülle der Menge E η Menge der Eigenschaftswerte der Eigenschaft p aller historischen Aufträge ha ∈ A H Eigenschaftsvektor des historischen Auftrags ha ∈ A H Wert der Eigenschaft p des historischen Auftrags ha ∈ A H Der normalisierte Wert von Eigenschaft p Der nicht normalisierte Wert von Eigenschaft p Wert der Eigenschaft p , die als Eingabe des Trainingsdatums td ∈ T dient Ein Ereignis ev , das zum Zeitpunkt t ev eingetreten ist Liste(hier auch als Front bezeichnet) nicht dominierter bzw. paretooptimaler Individuen Menge der Fracht f des historischen Auftrags ha ∈ A H Menge der Fracht f des historischen Auftrags ha ∈ A H , die mit Hilfsmitteln bearbeitet werden muss Menge der Fracht f des historischen Auftrags ha ∈ A H , die einen Special Handling Code(SHC) besitzt Empirische kumulative Verteilungsfunktion des Clusters C ∈ C Schwellenwertparameter für den absoluten Regret, der in möglichst vielen Szenarien eingehalten werden sollte Zeitpunkt, zu dem Vorbereitungen für Auftrag a an der Arbeitsstation begonnen haben Flugzeugladeeinheit, die dem historischen Auftrag ha zugeordnet ist Vorranggraph, der aus einer Menge von Aufträgen A als Knoten und einer Menge von Vorrangbeziehungen E als Kanten besteht Graph(Break-Netzwerk) zur Repräsentation des Transportsystems für Abbauaufträge, der aus einer Menge von Knoten V Br und einer Menge von Kanten E Br besteht Graph(Build-Netzwerk) zur Repräsentation des Transportsystems für Aufbauaufträge, der aus einer Menge von Knoten V Bu und einer Menge von Kanten E Bu besteht Vektor der Gene(hier auch als Chromosom bezeichnet) des Individuums η xvi g g mmahx gew( ·) H C ∗ h ∆ τ ha ha I a I a Rest I C I C ∗ η K K a − K a + κ kbr C ∗ L m L LS ha lb TI C∗ i M M a µ p,i µ p,i m Symbolverzeichnis Ein Gen eines Individuums η Grenzwert für die einzelnen Frachtstückgewichte, ab dem diese mit einem Hilfsmittel bearbeitet werden müssen Einstellige Gewichtsfunktion Relative Häufigkeitsverteilung der Bearbeitungszeitabweichungen für Cluster C ∗ ∈ C ∗ Absolute Häufigkeit einer bestimmten Bearbeitungszeitabweichung Historischer Frachtabfertigungsauftrag ha ∈ A H Intervall der Bearbeitungszeiten eines Auftrags a ∈ A. Es gilt: I a =[ τ a min , τ a max ] Restintervall der Bearbeitungszeiten eines Auftrags a ∈ A Intervall der Bearbeitungszeitabweichungen der historischen Aufträge des Clusters C ∈ C . Es gilt: I C =[∆ τ C min , ∆ τ C max ] Verkleinertes Intervall der Bearbeitungszeitabweichungen der historischen Aufträge des Clusters C ∗ ∈ C ∗ . Es gilt: I C ∗ =[∆ τ C min , ∆ τ C p C ] Individuum η ∈ P Menge aller Typen von Ladeeinheiten Menge an Typen von Ladeeinheiten, die von Auftrag a ∈ A benötigt werden Menge an Typen von Ladeeinheiten, die von Auftrag a ∈ A angeboten werden Cohens Kappa. Statistisches Maß für die Interrater-Reliabilität der Klassierungen von zwei Ratern Klassenbreite der Klassen des Clusters C ∗ ∈ C ∗ Liste von Aufträgen a , die auf Maschine m eingeplant werden sollen. Die Liste wird zur Erstellung eines Individuums verwendet. Menge der Knoten im Netzwerk, an denen Ladeeinheiten gelagert werden können. Es gilt: L ⊂ V Br bzw. L ⊂ V Bu Bei Aufbauaufträgen Menge von Ladeeinheiten im Sendungslager, in denen sich die Fracht für den Aufbauauftrag ha ∈ A H befindet. Bei Abbauaufträgen Menge der Ladehilfsmittel des Sendungslagers, die verwendet werden, um die Fracht der Flugzeugladeeinheit zu vereinzeln Untere Grenze des Teilintervalls bzw. der Klasse TI i des Clusters C ∗ ∈ C ∗ Menge von Maschinen(hier synonym: Arbeitsstationen) m Menge von Maschinen m , auf denen Auftrag a ∈ A ausgeführt werden kann. Es gilt: M a ⊆ M Erwartungswert für den Wert der Eigenschaft p in Cluster C i ∗ ∈ C ∗ Geschätzter Erwartungswert für den Wert der Eigenschaft p in Cluster C i ∗ ∈ C ∗ Maschine(hier synonym: Arbeitsstation) m ∈ M Symbolverzeichnis xvii N NE NE H N E In N E Out NF n C ∗ nf p ω P P ∗ PF ∗ P( ·) P( ·| ·) P( ·| ·) p C p C ∗ ( ha ) p cx p mut pa mut ph PM pm mut popsize pos( a, η ) pos( ps i ) ps pz Q Normalverteilung Menge von Knoten, die Neuronen in einem künstlichen neuronalen Netz simulieren Menge von verdeckten Knoten bzw. Neuronen, die die verdeckte Schicht bzw. die verdeckten Schichten eines künstlichen neuronalen Netzes bilden Menge von Eingangsknoten bzw. Neuronen, die die Eingabeschicht eines künstlichen neuronalen Netzes bilden Menge von Ausgangsknoten bzw. Neuronen, die die Ausgabeschicht eines künstlichen neuronalen Netzes bilden Menge von Normalisierungsfaktoren nf p , für jede Eigenschaft p Parameter für die Anzahl Teilintervalle bzw. Klassen in die das Intervall I C ∗ aufgeteilt wird Normalisierungsfaktor nf p ∈ N F der Eigenschaft p Schwellenwertparameter für den absoluten Regret, der in allen Szenarien eingehalten werden muss Liste(hier auch als Population bezeichnet) von Individuen η Menge pareto-optimaler Lösungen Pareto-Front der Menge pareto-optimaler Lösungen P ∗ Wahrscheinlichkeit Bedingte Wahrscheinlichkeit Geschätzte bedingte Wahrscheinlichkeit Parameter für den Prozentsatz des Quantils für Cluster C Empirische Wahrscheinlichkeitsfunktion der Bearbeitungszeitabweichungen des Clusters C ∗ ∈ C ∗ für einen historischen Auftrag ha ∈ A H Parameter zur Festlegung der Rekombinationswahrscheinlichkeit Parameter zur Festlegung des Verhältnisses von der ersten zur zweiten Mutationsart Parameter zur Festlegung der Mutationswahrscheinlichkeit der ersten Mutationsart Planungshorizont Mustermatrix Parameter zur Festlegung der Mutationswahrscheinlichkeit der zweiten Mutationsart Parameter zur Festlegung der Populationsgröße Funktion zur Bestimmung der Position eines Auftrags a auf einer Maschine in dem durch das Individuum η kodierten Ablaufplan Funktion zur Bestimmung der Position eines Partitionierungssymbols ps i im Chromosom eines Individuums Partitionierungssymbol innerhalb des Chromosoms eines Individuums η Planungszyklus Liste(auch: Nachfolgepopulation) von Individuen η , die durch Rekombination und Mutation aus der Population P gewonnen werden xviii Symbolverzeichnis Q ( p ) q TI C∗ i R R ( ap, sz ) R max ( ap ) ρ r a r ϕ sched ( ap ) Quantilfunktion Relative Häufigkeit einer Klasse TI C ∗ i des Clusters C ∗ ∈ C ∗ Liste(hier auch als Population bezeichnet) von Individuen η , die durch die Vereinigung der Populationen P und Q erzeugt wird Funktion zur Berechnung des absoluten Regrets für den Ablaufplan ap ∈ AP in Szenario sz ∈ SZ Funktion zur Berechnung des maximalen absoluten Regrets für den Ablaufplan ap ∈ AP Pseudoauftrag, dessen Bearbeitungszeit, Bereitstellungszeit sowie Gewicht 0 ist. Es gilt: ρ ∈ A Bereitstellungs- bzw. Einlastzeit von Auftrag a ∈ A Funktion zur Ermittlung der Robustheit eines Ablaufplans ap ∈ AP bei Verwendung des Schwellenwertparameters ϕ SZ σ p 2 ,i σ p 2 ,i s a s sched ( ap i − 1 , ap i ) sk η sz sz worst ap sz co sz ex sz dis η sz worst η sz lb sz ub Menge von Szenarien sz Varianz des Wertes der Eigenschaft p in Cluster C i ∗ ∈ C ∗ Korrigierte Stichprobenvarianz des Wertes der Eigenschaft p in Cluster C i ∗ ∈ C ∗ Tatsächlicher Startzeitpunkt des Auftrags a ∈ A Funktion zur Berechnung der erwarteten Stabilität für einen gegebenen Ablaufplan ap i unter Berücksichtigung des bereits gestarteten Ablaufplans ap i − 1 Strafkosten für den durch das Individuum η kodierten Ablaufplan aufgrund der Überschreitung des Parameters ω Szenario sz ∈ SZ Das Worst-Case-Szenario für Ablaufplan ap ∈ AP Szenario, bei dem jeder Auftrag a ∈ A die über eine Formel geschätzte Bearbeitungszeit annimmt Szenario, bei dem jeder Auftrag a ∈ A den Erwartungswert E( τ a ) bzw. E( τ a Rest ) annimmt Ersatzszenario ap ηi ∈ AP ist für sz w η orst , das möglichst ungünstig für den Ablaufplan Das Worst-Case-Szenario für den durch das Individuum η kodierten Ablaufplan ap ηi ∈ AP Szenario, bei dem jeder Auftrag a ∈ A seine kürzeste Bearbeitungszeit aus dem Intervall I a bzw. Restbearbeitungszeit aus dem Intervall I a Rest annimmt Szenario, bei dem jeder Auftrag a ∈ A seine längste Bearbeitungszeit aus dem Intervall I a bzw. Restbearbeitungszeit aus dem Intervall I a Rest annimmt T Menge von Trainingsdaten td T C ∗ Menge von Trainingsdaten für das Cluster C ∗ Symbolverzeichnis xix TI C i ∗ θ τ a τ a τ a max τ a min τ a Rest τ a sz τ ha τ ha td U U ( ap, sz ) U a U a sz ( ap ) U s ∗ z ub TI C∗ i V Br V Bu vol( ·) W WO W O Br W O Bu w a w p wo Z z Das i -te Teilintervall bzw. die i -te Klasse des Clusters C ∗ . Es gilt: TI C i ∗ =[ lb TI C∗ i , ub TI C∗ i ) Schwellenwert bei künstlichen neuronalen Netzwerken Bearbeitungszeit eines Auftrags a ∈ A. Diese wird auf Basis der Häufigkeitsverteilung H C ∗ ermittelt, die in dem Cluster C ∗ hinterlegt ist, zu dem der Auftrag klassiert wurde Geschätzte Bearbeitungszeit eines Auftrags a ∈ A Maximale Bearbeitungszeit eines Auftrags a ∈ A Minimale Bearbeitungszeit eines Auftrags a ∈ A Restbearbeitungszeit eines gestarteten Auftrags a ∈ A. Diese wird auf Basis der Häufigkeitsverteilung H C ∗ ermittelt, die in dem Cluster C ∗ hinterlegt ist, zu dem der Auftrag klassiert wurde Bearbeitungszeit eines Auftrags a ∈ A in Szenario sz ∈ SZ Tatsächliche bzw. realisierte Bearbeitungszeit eines historischen Auftrags ha ∈ A H Geschätzte Bearbeitungszeit eines historischen Auftrags ha ∈ A H , bevor dieser bearbeitet wurde Trainingsdatum td ∈ T. Es gilt: td =( e ha , C ∗ ) mit ha ∈ C ∗ und C ∗ ∈ C ∗ Unsicherheitsmenge in der robusten Optimierung Funktion zur Berechnung der gewichteten Anzahl säumiger Aufträge, wenn der Ablaufplan ap ∈ AP unter Szenario sz ∈ SZ ausgeführt wird Straf- oder Säumniskosten von Auftrag a ∈ A Funktion zur Bestimmung der Straf- oder Säumniskosten von Auftrag a ∈ A bei Verwendung des Ablaufplans ap ∈ AP in Szenario sz ∈ SZ Minimale Straf- oder Säumniskosten in Szenario sz ∈ SZ Obere Grenze des Teilintervalls bzw. der Klasse TI i des Clusters C ∗ Menge der Knoten im Break-Netzwerk des Transportsystems Menge der Knoten im Build-Netzwerk des Transportsystems Einstellige Volumenfunktion Menge von Gewichtungsfaktoren w p für jede Eigenschaft p Menge von Mitarbeitern wo Menge von Mitarbeitern, die ausschließlich Abbauaufträge bearbeiten können. Es gilt: WO Br ⊂ WO\ WO Bu Menge von Mitarbeitern, die sowohl für Abbau- als auch Aufbauaufträge eingesetzt werden können. Es gilt: WO Bu ⊂ WO\ WO Br Gewichtungsfaktor des Auftrags a ∈ A zur Beschreibung der Priorität Gewichtungsfaktor w p ∈ W der Eigenschaft p Mitarbeiter wo ∈ WO Menge von Clusterzentren. Es gilt: Z ⊂ A H Clusterzentrum z ∈ Z 1 1 Einleitung Gegenüber der Fähigkeit, die Arbeit eines einzigen Tages sinnvoll zu ordnen, ist alles andere im Leben ein Kinderspiel. Johann Wolfgang von Goethe (1749 – 1832) Luftfracht ist ein essentieller Bestandteil globaler Supply-Chains, wenn es um die Geschwindigkeit bei der Bereitstellung von wertvollen oder zeitkritischen Industrie- und Konsumgütern über mittlere bis weite Entfernungen geht. Die anhaltende Globalisierung, eine weltweit verteilte Produktion und verkürzte Produktlebenszyklen mit den einhergehenden stark reduzierten Lagerbeständen verstärken den Bedarf nach einer zeitnahen Bereitstellung von Gütern aller Art zusätzlich. Mit jährlichen Wachstumsraten von 2 , 7% seit 2003 und einem prognostizierten jährlichen Wachstum zwischen 4 , 1% und 5 , 6% bis 2033 wird sich das weltweite Luftfrachtaufkommen von 200 Milliarden RTK 1 im Jahr 2013 auf voraussichtlich 512 , 3 Milliarden RTK im Jahr 2033 erhöhen. 2 Dabei wird mit weniger als 3% gemessen am Volumen des weltweiten Frachtaufkommens zwar nur ein geringer Teil mittels Luftfracht transportiert, 3 aber mit einem Wert von 30 – 35% am Welthandel ist dies ein bedeutender Teil. 4 Dieses zukünftige Wachstum stellt die Luftfrachtindustrie vor besondere Herausforderungen. Zum einen belasten steigende Kerosinpreise und neue Sicherheitsanforderungen die Gewinnspannen der Akteure in der Luftfrachtindustrie. 5 Zum anderen besteht die Notwendigkeit, das gesteigerte Frachtaufkommen mit der für den Kunden gewohnten Servicequalität, 6 in einem klassischerweise hinsichtlich der Kapazität stark beschränkten System, 7 zu bearbeiten. Dabei entfällt auf die reine Flugzeit mit ca. 7 – 10% der Gesamttransportzeit der Luftfracht ein eher geringer Anteil. 8 Die Prozesse am Boden im Rahmen des Vor- und Nachlaufs sowie der Umschlag und die Zollabfertigung im Luftfrachtterminal machen hingegen mit 80 – 90% den Großteil der gesamten Transportzeit aus. 9 1 RTK(engl. revenue tonne kilometre) berechnet sich aus dem Produkt des Frachtgewichts(gemessen in Tonnen) und der zurückgelegten Strecke(gemessen in km). 2 Siehe[Boe14], S. 13. 3 Siehe[Sal13], S. 1. 4 Siehe[Sal13], S. 1;[Air13], S. 5. 5 Siehe[PKM11], S. 221. 6 Hier sind insbesondere Zuverlässigkeit, Qualität und Geschwindigkeit bei der Frachtauslieferung sowie die Beförderungskosten für die Fracht zu nennen(vgl.[PKM11], S. 223;[Boe14], S. 11). 7 Siehe[Pet07], S. 44. 8 Siehe[JS00], S. 301. 9 Siehe[BG12], S. 136;[Koe04], S. 321. 2 1 Einleitung Die Luftfrachtterminals nehmen hierbei eine besondere Stellung innerhalb der SupplyChain ein. Diese Terminals dienen als Schnittstelle zwischen dem Land- und Luftverkehr. Sie erfüllen typischerweise Umschlags- und Konsolidierungsleistungen(Wechsel von einem Ladehilfsmittel zu einem anderen bzw. Konsolidierung der Fracht auf bzw. in einem größeren Ladehilfsmittel), Sortierung der Fracht, temporäre Lagerung zur Entkopplung der unterschiedlichen Lastsituationen auf der Land- und Luftseite des Terminals sowie die Unterstützung von Aufgaben im Rahmen der Dokumentations- und Zollvorschriften. 10 Diese Leistungen sind im Hinblick auf ihren direkten Einfluss auf die vom Kunden empfundene Servicequalität möglichst effizient auszuführen. Den dargestellten Entwicklungen wird in den letzten Jahren mit einer zunehmenden Automatisierung der bedeutenden Luftfrachtterminals begegnet. Die Automatisierung erstreckt sich hierbei sowohl auf die Lager- und Transport- als auch Kommissioniersysteme. Dies hat zum einen den Vorteil, dass die zur Verfügung stehende Gebäudegrundfläche des Terminals effizienter ausgenutzt werden kann. So kann beispielsweise durch die Verwendung von Transferfahrzeugen(engl. Transfer Vehicle s) in Kombination mit Aufzügen bzw. durch die Verwendung von Regalbediengeräten(engl. Elevated Transfer Vehicles (ETVs)) eine Lagerung von Fracht in mehreren Gebäudeebenen erfolgen. 11 Zum anderen ermöglicht die direkte fördertechnische Anbindung der manuell bedienten Arbeitsstationen zum Auf- und Abbau der Luftfrachtcontainer und-paletten an das Lager eine zuverlässige Frachtbearbeitung. Die Verwendung von Informationssystemen und insbesondere die mobile Datenerfassung und-übertragung unterstützen hierbei die Prozesse zur physischen und dokumentarischen Frachtabfertigung. 12 Vorhandene Überkapazitäten der Luftfrachtterminals konnten dabei in der Vergangenheit ineffiziente Prozesse sowohl verbergen als auch kompensieren . Mit der Zunahme des Frachtaufkommens und dem begrenzten Platzangebot der Terminals an großen Flughäfen werden ineffiziente Prozesse mit den sinkenden Überkapazitäten jedoch evident. Diese Prozesse sind daher dahingehend zu optimieren, dass für den Kunden ein besseres Leistungsangebot zu geringeren Kosten angeboten bzw. das gewohnte Niveau gehalten wird. 13 Innerhalb des Terminals lassen sich Umschlagprozesse für den Export, Import sowie den Transfer unterscheiden, in denen Frachtabfertigungsaufträge bearbeitet werden. 14 Die Effizienz, mit der diese Prozesse ausgeführt werden, hängt maßgeblich von der Ablaufplanung und-steuerung ab, die die räumliche und zeitliche Koordination der Frachtabfertigungsaufträge unter Berücksichtigung der zur Verfügung stehenden Ressourcen 15 vornimmt und dessen Ergebnis ein Ablaufplan ist. Bei der Planung sind vielfältige Restriktionen zu beachten, die sich insbesondere aus dem festgelegten Flugplan und der 10 Siehe[AMW11], S. 457 f. 11 Siehe ebd., S. 459. 12 Siehe[AIK + 08], S. 776. 13 Siehe[RG09], S. 725. 14 Siehe[Fry11], S. 42;[Men13], S. 708. 15 Die zur Bearbeitung eines Frachtabfertigungsauftrags notwendigen Ressourcen sind zum einen eine Arbeitsstation sowie das notwendige Personal für den Auf- und Abbau der Luftfrachtcontainer und-paletten, zum anderen ein automatisches Lager- und Materialflusssystem zur Versorgung der Arbeitsstationen mit der zu bearbeitenden Fracht. 1.1 Zielsetzung der Arbeit 3 dem Kunden zugesicherten Frachtverfügbarkeit innerhalb eines bestimmten Zeithorizontes nach der Landung des Flugzeugs ergeben und die somit die spätesten Endzeitpunkte für die Frachtbearbeitung determinieren. Des Weiteren sind bei der Ablaufplanung das dynamische und stochastische(auch: nicht-deterministische) Planungsumfeld zu berücksichtigen. Es ist ersichtlich, dass es sich bei der Ablaufplanung und-steuerung um eine komplexe Aufgabe handelt und die vielfältigen Aspekte durch eine manuelle, d. h. durch einen Menschen durchgeführte Planung, nur unzureichend berücksichtigt werden können. Eine automatische bzw. den Menschen unterstützende Planung auf Basis von Modellen und unter Verwendung exakter mathematischer Verfahren oder Heuristiken findet hingegen eine geringe Akzeptanz in der Praxis, solange die zuvor adressierten Anforderungen nicht in akzeptabler Weise abgebildet und berücksichtigt werden können. So ist die aufwendige Bestimmung eines optimalen Ablaufplans nicht hilfreich, wenn durch die fehlende Beachtung von z. B. stochastischen Einflussgrößen der optimale Plan nicht realisiert werden kann. Aus dem zuvor Geschriebenen begründet sich die Zielsetzung der vorliegenden Arbeit. 1.1 Zielsetzung der Arbeit In dieser Arbeit soll ein Ablaufplanungs- und-steuerungssystem für die im Rahmen der Umschlagprozesse in Luftfrachtterminals durchzuführenden Frachtabfertigungsaufträge unter Berücksichtigung des dynamischen und stochastischen Planungsumfeldes konzipiert werden. Mit Hilfe der zu entwickelnden Verfahren sollen Ablaufpläne automatisiert erstellt und durchgesetzt werden können, die trotz der stochastischen Einflüsse des Planungsumfeldes gute bzw. für den Entscheidungsträger eine im Vorhinein, 16 d. h. vor Bekanntwerden der tatsächlich eintretenden Umweltsituation, mit Sicherheit bestimmbare Qualität besitzen. Des Weiteren sind, aufgrund des dynamischen Planungsumfeldes, einmal getroffene Entscheidungen in dem Ablaufplan ggf. mehrfach zu revidieren. Dies soll unter Berücksichtigung der Planstabilität erfolgen. Ablaufpläne, die diese Kriterien erfüllen, werden im Folgenden als robust und stabil bezeichnet. Die nicht-deterministischen Einflüsse des Planungsumfeldes können sich in vielfältiger Weise auf einen erstellten Ablaufplan auswirken, z. B. in Form von unsicheren Bearbeitungszeiten der Frachtabfertigungsaufträge. Aus dem angestrebten Ziel, durch eine Ablaufplanung robuste Ablaufpläne zu erstellen, folgt daher die Notwendigkeit, die Unsicherheiten, die bei der Planung in Form von Parametern beachtet werden sollen, in adäquater Weise zu modellieren. Ausgangspunkt für Informationen über diese Unsicherheiten stellen dabei die zuvor beschriebenen Informationssysteme dar, durch die eine umfangreiche Datenbasis über vergangene Frachtabfertigungsaufträge zur Verfügung steht. Aus dieser Datenbasis ist ein Informationsstand zu generieren, der eine Quantifizierung unsicherer Parameter ermöglicht. Im Hinblick auf sich evtl. ändernde 16 Die Qualität eines durch klassische Optimierungsverfahren ermittelten optimalen Ablaufplans ist zwar auch im Vorhinein bekannt, kann sich aber bereits bei einer kleinen Änderung der verwendeten Parameter signifikant ändern. 4 1 Einleitung Prozessabläufe sollte der Informationsstand adaptierbar sein, um stets die tatsächlich bestehenden Unsicherheiten adäquat abbilden zu können. Zur Erstellung robuster Ablaufpläne ist ein Ablaufplanungsverfahren notwendig, das den ermittelten Informationsstand berücksichtigen kann. Hierbei ist zu einem gewissen Grad ein Zielkonflikt zwischen einem hinsichtlich eines Qualitätsziels optimalen, einem robusten und einem stabilen Ablaufplan zu erwarten, da die Absicherung gegen Unsicherheiten evtl. mit einer Verminderung des Qualitätsziels einhergeht und ein stabiler Ablaufplan ggf. den Handlungsspielraum für Umplanungen einschränkt. Daher ist von einem multikriteriellen und konfliktären Zielsystem auszugehen, das bei der Ablaufplanung entsprechend beachtet werden muss. Des Weiteren bedingt die dynamische Umgebung die regelmäßige Adaption eines erstellten Ablaufplans und damit ein Ablaufsteuerungsverfahren, das in Situationen, in denen die Unsicherheit nicht durch den robusten Ablaufplan kompensiert werden kann, die notwendigen Änderungen vornimmt. 1.2 Gliederung der Arbeit Die vorliegende Arbeit ist in sieben Kapitel gegliedert. In Kapitel 2 wird das System „Luftfrachtterminal“ beschrieben und die Schnittstellenfunktion der Luftfrachtterminals für den Umschlag von Fracht zwischen dem Land- und Luftverkehr herausgestellt. Wichtige Punkte sind hierbei die detaillierte Beschreibung der Luftfrachttransportkette und des Luftfrachtterminals als zentralem Bindeglied sowie die innerhalb des Terminals durchgeführten Prozesse. Anschließend werden die spezifischen Herausforderungen, die im Kontext der Planung und Steuerung der Abfertigungsprozesse in einem Luftfrachtterminal bestehen, erläutert sowie drei Problemfelder identifiziert und diskutiert, die es für die Realisierung eines Ablaufplanungs- und-steuerungssystems zu adressieren gilt. Abschließend werden für jedes Problemfeld die Anforderungen an eine Problemlösung definiert. Anschließend wird in Kapitel 3 der relevante Stand der Forschung im Hinblick auf geeignete Verfahren zur Lösung der diskutierten Problemfelder untersucht. Die Verfahren werden anhand ihrer Eignung zur Lösung der gestellten Anforderungen und ihrer Verwendung in einer Problemlösung je Problemfeld analysiert. Darauf aufbauend wird in Kapitel 4 eine Präzisierung der zu leistenden Arbeit vorgenommen. Hierfür werden Arbeitspakete definiert, die existierende Ansätze erweitern bzw. neue Konzepte entwickeln, um das dargestellte Problem zu lösen. Die Arbeitspakete werden dabei den identifizierten Problemfeldern zugeordnet. In Kapitel 5 wird das Konzept zur Realisierung einer Ablaufplanung und-steuerung im Kontext von Luftfrachtterminals vorgestellt und anhand der dargestellten Problemfelder untergliedert. Zunächst werden die für die einzelnen Problemfelder zu entwickelnden Verfahren in Form von Modulen in eine Architektur eingeordnet und die sich ergebenden Interdependenzen erläutert. Anschließend erfolgt die detaillierte Beschreibung der Module zur Erstellung des benötigten Informationsstands. Hierauf aufbauend wird die Ablaufplanung formalisiert und in einer evolutionären Metaheuristik umgesetzt. Den Abschluss bildet die Konzeption der Ablaufsteuerung. 1.2 Gliederung der Arbeit 5 Das erarbeitete Konzept eines Ablaufplanungs- und-steuerungssystems wird anschließend in Kapitel 6 validiert. Hierzu werden reale und synthetische Testinstanzen herangezogen und die vorgestellten Verfahren in verschiedenen Experimenten anhand von Indikatoren hinsichtlich ihrer Effektivität und Effizienz untersucht. Abschließend erfolgt in Kapitel 7 eine Zusammenfassung sowie kritische Würdigung der in der Arbeit entwickelten Konzepte und der erzielten Ergebnisse. Ein Ausblick liefert Ansätze für zukünftigen Forschungsbedarf. 7 2 Problemstellung Der Untersuchungsgegenstand dieser Arbeit ist die Ablaufplanung und-steuerung von Frachtabfertigungsprozessen in Luftfrachtterminals unter Berücksichtigung der dynamischen und stochastischen Umgebung, in der die Umschlagprozesse ausgeführt werden. In Abschnitt 2.1 erfolgt zunächst eine detaillierte Beschreibung des Systems„Luftfrachtterminal“ und die Definition wichtiger Begriffe, um die terminologische Basis für diese Arbeit zu bestimmen. Dabei werden die Prozessabläufe und verschiedenen Frachtflüsse innerhalb des Terminals näher betrachtet. Anschließend erfolgt in Abschnitt 2.2 die Beschreibung des Ablaufplanungs- und-steuerungsproblems sowie die Unterteilung in zu betrachtende Problemfelder. Die Anforderungen an Verfahren, die die identifizierten Problemfelder adressieren, werden in Abschnitt 2.3 definiert. 2.1 Systembeschreibung Für ein grundlegendes Verständnis der im Rahmen der Ablaufplanung und-steuerung in Luftfrachtterminals bestehenden Herausforderungen, die es in dieser Arbeit zu adressieren gilt, bedarf es im Folgenden zunächst einer Einordnung des Luftfrachtterminals in die Luftfrachttransportkette . 1 Diese Terminals dienen als zentrales Bindeglied für den Umschlag von Fracht 2 zwischen dem Land- und Luftverkehr. Die Vor- und Nachläufe, die meist als bodengebundene Transporte erfolgen, sowie der Hauptlauf, der mit dem Flugzeug erfolgt, determinieren hierbei wichtige Faktoren, die es bei der Planung der Prozessabläufe innerhalb des Terminals zu berücksichtigen gilt. 2.1.1 Luftfrachttransportkette und involvierte Akteure Ausgangspunkt des Frachttransports und damit der Beginn der Luftfrachttransportkette ist der Versender 3 und das Ziel ist der Empfänger . 4 Die involvierten Akteure und die Prozesse der Luftfrachttransportkette werden im Folgenden näher erläutert. Eine Übersicht zeigt Abbildung 2.1. 1 „Die Transportkette ist die Folge von technisch und organisatorisch miteinander verknüpften Vorgängen, bei denen Personen oder Güter von einer Quelle zu einem Ziel bewegt werden.“[DIN 30781], S. 3. 2 Unter Luftfracht wird in dieser Arbeit ausschließlich„die Fracht verstanden, die nach IATABeförderungsbestimmungen für Frachtgut abgefertigt und transportiert wird(IATA International Air Transport Association).“[AIK + 08], S. 757. Dies entspricht einer engeren Definition für Luftfracht(siehe[AIK + 08], S. 757). Weiter gefasst können zu Luftfracht„alle Güter, die auf Linien- oder Charterflügen als Fracht, Express oder Post transportiert werden“[AIK + 08], S. 757, gezählt werden. 3 International üblich ist der Begriff Shipper oder Consignor. 4 Auch als Consignee bezeichnet. Versender Empfänger 8 Akteur Prozess Road carrier Vorlauf Spediteur 2 Problemstellung Informationsfluss Materialfluss Airline Abfertiger Umschlag Air carrier Lufttransport Abfertiger Umschlag Road carrier Nachlauf Abbildung 2.1: Luftfrachttransportkette und involvierte Akteure(in Anlehnung an:[Fry03], S. 12, und[Fry13], S. 230) Versender ist das Unternehmen oder die Person, die für den Versand von Waren verantwortlich ist. Zwischen Versender und Empfänger besteht in der Regel ein Vertrag, der unter anderem die Lieferbedingungen sowie die Verantwortlichkeiten der beteiligten Parteien für den Transport regelt. 5 Die für den Transport verantwortliche Partei, typischerweise 6 der Verkäufer der Waren(z. B. produzierende Industrie, Handel etc.), beauftragt in der Regel 7 einen Luftfrachtspediteur 8 mit der Besorgung der Versendung 9 der Waren an den Empfänger, typischerweise den Käufer. Die Vertragsbeziehungen zwischen Versender und Spediteur sind dabei im Speditionsvertrag 10 geregelt. Der Luftfrachtspediteur 11 ist für die Organisation der Beförderung der Fracht vom Versender zum Empfänger zuständig. Hierfür organisiert und koordiniert der Spediteur in der Regel sowohl die bodengebundenen Transporte vom Versender zum Abflughafen und vom Zielflughafen zum Empfänger als auch den Lufttransport durch eine Fluggesellschaft. Greift der Spediteur für den physischen Transport ausschließlich auf fremde Dienstleistungen zurück, handelt es sich bei dem Spediteur um einen Fourth-Party-Logistics-Provider (4PL). 12 In diesem Fall wird der Spediteur sowohl mit 5 Siehe[Fry13], S. 230. 6 Der Empfänger kann z. B. auch die Partei sein, die als Auftraggeber für die Spedition auftritt. 7 Der Fall, in dem der Versender seine Fracht direkt zum Abflughafen oder zur Airline liefert, ist die Ausnahme(vgl.[GRR07], S. 128;[Pet07], S. 13). 8 „Der Luftfrachtspediteur übernimmt es, gewerbsmäßig Güterversendungen durch Luftverkehrsgesellschaften für[sic] Rechnung des Versenders oder Empfängers im eigenen Namen zu organisieren.“ [KKK12], S. 414. 9 Siehe§ 454 HGB. 10 Siehe§ 453 HGB. 11 International üblich ist der Begriff Forwarder. 12 4PL-Logistikdienstleister besitzen in der Regel keine eigenen Assets für den Frachttransport(vgl. [PKM11], S. 213). 2.1 Systembeschreibung 9 Lkw-Transportunternehmen als auch der Fluggesellschaft Frachtverträge 13 abschließen, die den physischen Transport der Waren übernehmen. Die meisten Spediteure übernehmen jedoch den bodengebunden Transport selbst und greifen lediglich für den Lufttransport auf die Fluggesellschaften zurück. 14 Die Sendungen sind mit einem Luftfrachtbrief 15 (engl. Air Waybill (AWB)) zu versehen. Hierbei sind verschiedene Arten von Luftfrachtbriefen zu unterscheiden: 16 Sendungen mit einem Absender und einem Empfänger, die direkt zum Ziel befördert werden, erhalten eine Direkt-AWB. Speditionsintern werden die Sendungen jedoch häufig zunächst in eigenen Lagern gesammelt und einzelne Sendungen zu größeren Einheiten(Sammelgutsendungen oder Consol) zusammengefasst, bevor sie zum Abflughafen gebracht werden. Die einzelnen Luftfrachtsendungen der Versender erhalten jeweils einen eigenen Haus-Luftfrachtbrief, die sogenannte House Air Waybill (HAWB), 17 der den Frachtvertrag zwischen Versender und Spediteur dokumentiert. Zur Ausgabe der HAWB sind ausschließlich als IATA-Agenten zertifizierte Spediteure berechtigt. 18 Eine konsolidierte Sendung wird anschließend mit einer Master Air Waybill (MAWB) versehen, unter der die HAWBs zusammengefasst werden. Die MAWB dokumentiert den Frachtvertrag zwischen Spediteur und Fluggesellschaft. 19 Der Spediteur übernimmt zudem die notwendigen Aufgaben für die versandfertige Bereitstellung der Sendung(engl. ready for carriage ) für den Lufttransport. Hierzu gehört die korrekte Verpackung und Beschriftung, die Zollabfertigung für den Export sowie die Bereitstellung von Begleitdokumenten und Einhaltung von gesetzlichen Vorschriften für Sonderfracht(Gefahrgut, verderbliche Ware, Wertfracht und lebende Tiere). 20 Zur Deklaration werden sogenannte Special Handling Codes (SHCs) verwendet. Am Abflughafen übergibt der Spediteur die Sendung inklusive Luftfrachtbrief und evtl. weiterer Dokumente an den Frachtabfertiger , 21 der im Auftrag der Fluggesellschaft für die Flugvorbereitung der Fracht zuständig ist. 22 Abhängig von der Art des Frachtgutes, dem Ziel, der Priorität und weiterer Faktoren müssen die Sendungen durch den Spediteur bis zu einer bestimmten Zeit vor dem Abflug(engl. latest acceptance time oder time before departure ) am Abflughafen eintreffen. 23 Früher eintreffende Sendungen werden in den Luftfrachtterminals temporär zwischengelagert und später für die Anforderungen 13 Siehe§ 407 HGB. 14 Vgl.[Pet07], S. 18. 15 „Urkunde über den Abschluss und Inhalt des Frachtvertrages im Luftverkehr. Das Dokument dient als Empfangsbestätigung durch den Carrier(Luftfrachtführer), als Warenbegleit- und Sperrpapier, als Auslieferungsquittung für den Empfänger und ist damit Grundlage für die Verzollung und die Erstellung von Versicherungspolicen.“[KKK12], S. 9. 16 Vgl. ebd., S. 413. 17 Siehe[RCB10], S. 372. 18 Siehe ebd., S. 368. Für eine ausführliche Erläuterung, insbesondere der Voraussetzungen für eine Zertifizierung, vgl.[GRR07], S. 138–141. 19 Siehe[RCB10], S. 372. 20 Vgl.[GRR07], S. 129. 21 International üblich ist der Begriff Ground Handler. 22 Siehe[Fry13], S. 230, 243. 23 Vgl.[GRR07], S. 129. 10 2 Problemstellung der Beförderung im Flugzeug durch den Frachtabfertiger vorbereitet. 24 Die fertigen Luftfrachtcontainer oder-paletten werden anschließend durch Bodenverkehrsdienstleister (präziser: Vorfeldabfertiger) vom Luftfrachtterminal zum Vorfeld transportiert. Von hier aus beginnt zu einem bestimmten Zeitpunkt vor Abflug die Beladung des Flugzeugs anhand des Ladeplans(engl. Loadsheet ) durch die Rampabfertiger . 25 Des Weiteren werden neben der Übergabe der Fracht die Ladeliste(engl. Cargo Manifest ) und die Hinweise für den Piloten(engl. Notification to Captain (NOTOC)) erstellt. Die Ladeliste enthält dabei Informationen über die verladene Fracht(Anzahl, Gewicht, Luftfrachtbriefnummern etc.) und die NOTOC informiert über mögliche Gefahren durch Sonderfracht, wie z. B. Gefahrgut. 26 Neben der Anlieferung von Sendungen durch den Spediteur erfolgt zusätzlich die Anlieferung von Luftfrachtsendungen mit Luftfrachtbrief von anderen Flughäfen als sogenannter Luftfrachtersatzverkehr (engl. Road Feeder Service (RFS)). Dieser überwiegend mit speziellen Lkws ausgeführte Transport von Flugzeugladeeinheiten erfolgt im Auftrag der Fluggesellschaften. 27 Für den eigentlichen Lufttransport vom Ab- zum Zielflughafen bzw. über Zwischenflughäfen sind die Fluggesellschaften (engl. Airline ) verantwortlich. Diese lassen sich in drei Hauptklassen unterteilen: 28 Reine Frachtfluggesellschaften , die spezielle Frachtflugzeuge oder umgebaute Passagiermaschinen verwenden und ausschließlich Fracht transportieren. Diese machen ca. 10% bis 15% am weltweiten Frachtaufkommen aus. 29 Kombinierte Fluggesellschaften nutzen hauptsächlich Passagiermaschinen und transportieren zusätzlich Fracht in Unterflurladeräumen. Je nach Fluggesellschaft(insbesondere europäische Fluggesellschaften) nimmt der zusätzliche Frachttransport einen wichtigen Faktor im Geschäftsmodell ein. Mehr als 50% des weltweiten Frachtaufkommens werden als Beiladefracht transportiert. 30 Als dritte Klasse sind die Integratoren zu nennen. Im Kontrast zu den anderen beiden Typen, die ihre Dienstleistung den Luftfrachtspediteuren anbieten, stellen Integratoren ihre Dienstleistung direkt dem Versender zur Verfügung. Hierfür besitzen diese Unternehmen 31 eigene Fuhrparks und Flugzeuge und bieten die gesamten Leistungen der Luftfrachttransportkette aus einer Hand an. 32 Am Zielflughafen wird die Transportkette in umgekehrter Reihenfolge durchlaufen. Die Fracht wird vom Flugzeug zum Luftfrachtterminal gebracht, wo sie und die zugehörigen Dokumente überprüft werden. Der Spediteur erhält eine Vorbenachrichtigung über die Ankunft der Sendung. 33 Fracht in Luftfrachtcontainern oder-paletten wird vereinzelt und bis zur Abholung durch den Spediteur zwischengelagert. Der Spediteur bereitet – falls nötig – die Einfuhrdokumente vor und kümmert sich um die Zollabfertigung für den 24 Vgl. Abschnitt 2.1.2. 25 Vgl.[GRR07], S. 129, 143. 26 Vgl. ebd., S. 154. 27 Vgl. ebd., S. 86 ff. 28 Siehe[Pet07], S. 22;[PKM11], S. 214–218. 29 Siehe[PKM11], S. 214. 30 Siehe[PKM11], S. 215;[Men13], S. 22. 31 FedEx, UPS, TNT und DHL sind die vier größten Integratoren weltweit. 32 Siehe[PKM11], S. 216. 33 Vgl.[Pet07], S. 17. 2.1 Systembeschreibung 11 Import. Die Sendung wird anschließend vom Spediteur am Luftfrachtterminal abgeholt, falls nötig im eigenen Lager erneut vereinzelt sowie zwischengelagert und schließlich zum Empfänger befördert. 2.1.2 Prozessabläufe im Luftfrachtterminal Bei der im vorangegangenen Abschnitt beschriebenen Luftfrachttransportkette handelt es sich um eine mehrgliedrige Transportkette, bei der neben dem Wechsel des Verkehrsmittels und-trägers 34 häufig auch das Transportbehältnis gewechselt wird und es sich somit um gebrochenen oder multimodalen Verkehr handelt. 35 Diese Wechsel erfolgen innerhalb der Luftfrachtterminals, die als Umschlagsysteme von Jünemann& Schmidt technischen Systemen zugeordnet werden,„die einen Transformationsprozeß hinsichtlich Ort, Zeit, Menge, Zusammensetzung und Qualität durchführen.“ 36 Das Luftfrachtterminal nimmt somit innerhalb der Transportkette eine zentrale Stellung an der Schnittstelle zwischen Straßen- und Luftverkehrsmitteln ein, in dem der Umschlag 37 zwischen diesen Verkehrsmitteln und die Abfertigung der Fracht realisiert werden. Nach Stein dient der Umschlag dem Ziel,„die Auslastung der Transportfahrzeuge zu erhöhen und damit die Transportkosten im Gesamtsystem zu senken.“ 38 Dies wird innerhalb des Luftfrachtterminals zum einen durch die Bildung von Ladeeinheiten 39 und zum anderen durch die temporäre Lagerung der Fracht in geeigneten Lagern erreicht. 40 Die Ladeeinheitenbildung richtet sich nach den spezifischen Anforderungen der eingesetzten Flugzeugtypen und den durch die Laderäume vorgegebenen Restriktionen. 41 Durch eine Transformation der Fracht hinsichtlich Menge und Zusammensetzung wird das Ziel verfolgt, die Laderäume hinsichtlich Volumen und Gewicht möglichst optimal auszulasten. Des Weiteren ermöglichen es die Ladeeinheiten, die hohe Anzahl kleiner Stückgüter zu wenigen größeren Einheiten zusammenzufassen und somit die Be- und Entladevorgänge des Flugzeugs sowie die Transportprozesse effizienter auszuführen. Für den Aufbau der Ladeeinheiten, die häufig als Unit Load Device (ULD) bezeichnet werden, kommen als Ladehilfsmittel 42 (hier synonym: Ladungsträger) Luftfrachtcontainer und -paletten zum Einsatz, die abhängig von ihrer Form und Größe in verschiedenen Flugzeugtypen eingesetzt werden können. Zur Charakterisierung der Ladehilfsmittel wird von 34 Es erfolgt ein Wechsel des Verkehrsmittels vom Straßenfahrzeug zum Flugzeug und des Verkehrsträgers von der Straße in die Luft. 35 Vgl.[JS00], S. 327. 36 Ebd., S. 3. 37 „Der Umschlag ist die Gesamtheit der Förder- und Lagervorgänge beim Übergang der Güter auf ein Transportmittel, beim Abgang der Güter von einem Transportmittel und wenn Güter das Transportmittel wechseln.“[DIN 30781], S. 3. 38 [Ste12], S. 602. 39 „Als Ladeeinheit bezeichnet man Güter, die zum Zwecke des Umschlags durch einen Ladungsträger zusammengefaßt sind.“[DIN 30781], S. 2. 40 Vgl.[Fry11], S. 27 f. 41 Vgl.[BG12], S. 115;[Fry11], S. 15 f. 42 Ladehilfsmittel„dienen der Aufnahme ungleichförmiger Artikel, um daraus gleichartige Ladeeinheiten zwecks Mengenbündelung zu bilden.“[KKK12], S. 297. 12 2 Problemstellung der IATA eine Typbezeichnung in Form einer zehnstelligen ULD-Nummer 43 verwendet, aus der sich die Verwendbarkeit 44 der ULD für die verschiedenen Flugzeugtypen und Einsatzbereiche ergibt. 45 Der Transformationsprozess hinsichtlich der Zeit erfolgt durch das Lagern der Fracht. Das Lagern unterstützt die Ladeeinheitenbildung, indem die innerhalb eines bestimmten Zeitfensters vor Abflug von Straßenfahrzeugen angelieferte Fracht solange zwischengelagert wird, bis der entsprechende Zeitpunkt für den Aufbau der Ladeeinheit gekommen ist. Dies gilt in gleicher Weise für bereits abgebaute und somit vereinzelte Fracht, die ebenfalls bis zur Abholung durch den Spediteur zwischengelagert wird. Die hohen Bereitschaftskosten des Flugzeugs determinieren zudem„die zeitlichen Anforderungen für die Luftfrachtabfertigung am Boden.“ 46 Durch das Lager kann die Ladeeinheitenbildung über einen längeren Zeitraum vor dem Abflug verteilt und bereits erstellte Ladeeinheiten können zwischengelagert werden. Die Lagerung dient dazu, die Auslastung der Flugzeuge zu optimieren, da diese nicht auf die Fertigstellung der Ladeeinheitenbildung warten können. Das Luftfrachtterminal, in dem die zuvor beschriebenen Transformationsprozesse durchgeführt werden, untergliedert sich nach Arnold et al. 47 in: • „die Landseite[...][mit] Flächen zur Anlieferung und Abholung[von Fracht durch Straßenfahrzeuge][...], • die Luft- bzw. Vorfeldseite[...][mit] Flächen für die Bereitstellung und den Transport zur Be- und Entladung der Flugzeuge[...] •[sowie] das eigentliche Luftfrachtgebäude.“ Innerhalb des Luftfrachtterminals lassen sich grob die Bereiche der für die Lagerung der Fracht verwendeten Lager und der Abfertigungsbereiche mit Arbeitsstationen für den Auf- bzw. Abbau von Ladeeinheiten unterscheiden. 48 Die für die Lagerung der Fracht eingesetzten Lager können grundsätzlich in Sendungslager und ULD-Lager unterschieden werden. In den Sendungslagern wird das lose Stückgut z. B. in Gitterboxen und in den ULD-Lagern werden vollständige Flugzeugladeeinheiten gelagert. 49 Des Weiteren gibt es spezielle Lager für die Aufbewahrung 43 Die Nummer besteht aus einem dreistelligen Präfix zur Identifizierung der Art des Ladehilfsmittels, der Grundfläche sowie der Kontur und Kompatibilität, gefolgt von einer fünfstelligen Seriennummer und einer zweistelligen Buchstabenkombination für den Eigentümernachweis(siehe[BG12], S. 119 f.). Bei AKE 12345 LH handelt es sich beispielsweise„um einen zertifizierten Container(A) mit der Grundfläche 60 , 4 × 61 , 5 Zoll(K) und halber Breite sowie abgeschrägter Kontur zum Einsatz auf dem Lower Deck(E), der die laufende Nummer 12345 trägt und im Eigentum der Lufthansa(LH) steht.“[BG12], S. 120. 44 Siehe IATA ULD Regulations(ULDR), vormals IATA ULD Technical Manual(UTM), für eine vollständige Auflistung[IATA2014]. 45 Vgl.[BG12], S. 118 f. 46 [Fry11], S. 18. 47 Siehe[AIK + 08], S. 770. 48 Weitere Bereiche, wie z. B. Büroräume, gehören häufig ebenfalls zum Terminal, sind aber nicht Gegenstand der Betrachtung in dieser Arbeit. 49 Siehe[AIK + 08], S. 772. 2.1 Systembeschreibung 13 von Sonderfracht, z. B. temperaturgeführte Räume für verderbliche Waren. 50 Je nach Automatisierungsgrad 51 des Luftfrachtterminals können die Lager sowohl manuell bedient als auch vollautomatisiert sein. 52 Angebunden an die Lager sind die Arbeitsstationen in den Abfertigungsbereichen. Hier erfolgt der Aufbau(engl. Build-up (BU)), bei dem einzelne Sendungen aus dem Sendungslager zu Luftfrachtcontainern und-paletten konsolidiert werden sowie der Abbau(engl. Break-down (BD)), bei dem die Flugzeugladeeinheiten dekonsolidiert und die einzelnen Sendungen auf die Lager verteilt werden. 53 Die an den Arbeitsstationen verrichtete Arbeit erfolgt zu einem hohen Grad als manuelle Tätigkeit unter Einsatz von Arbeitspersonal, die je nach Gewicht der zu bearbeitenden Sendungen durch Gabelstapler unterstützt wird. Die innerhalb des Luftfrachtterminals ausgeführten Umschlagprozesse und die sich hieraus ergebenden Frachtflüsse sind in Abbildung 2.2 dargestellt. Nach Frye 54 können die folgenden Umschlagprozesse unterschieden werden: • Export: Annahme von loser bzw. palettierter Fracht auf der Landseite des Terminals. Bei Bedarf Aufbau der Ladeeinheiten für den Flug. Ausgang über die Luftseite des Terminals zum Flugzeug. • Import: Eingang von Ladeeinheiten auf der Luftseite des Terminals. Bei Bedarf Abbau der Ladeeinheiten und Bereitstellung der Fracht auf der Landseite des Terminals. • Transfer: Eingang von Ladeeinheiten auf der Luftseite des Terminals. Erstellung zielreiner Ladeeinheiten und Ausgang über die Luftseite des Terminals zum Flugzeug. Der für die Umschlagprozesse nötige Aufwand bei der Frachtabfertigung richtet sich danach, ob die Fracht als Ladeeinheit oder als lose 55 Fracht, d. h. einzelne Sendungen und Frachtstücke, umgeschlagen wird. Fracht für den Export wird auf der Landseite des Terminals durch Straßenfahrzeuge angeliefert. Vollständige Ladeeinheiten können je nach Zeitpunkt ihres Eintreffens entweder direkt zur Luftseite transportiert oder zum zeitlichen Ausgleich zunächst im ULD-Lager zwischengelagert werden. Lose Fracht, die zu einer Ladeeinheit aufgebaut werden soll, muss hingegen, nach eventueller Zwischenlagerung im Sendungslager, zu einer der Arbeitsstationen transportiert und dort zunächst zu einer Ladeeinheit konsolidiert werden, bevor diese dann mit eventuell erneuter Zwischenlagerung im ULD-Lager zum Flugzeug transportiert wird. Lose Fracht wird bei Bedarf im Sendungslager zwischengelagert und zum entsprechenden Zeitpunkt mit Hilfe von Frachtwagen zum Flugzeug transportiert. 56 50 Siehe[AIK + 08], S. 774. 51 In dieser Arbeit wird von vollautomatisierten Lagern ausgegangen, die zudem fördertechnisch direkt an die entsprechenden Arbeitsstationen für die manuelle Bearbeitung der Fracht angebunden sind. 52 Vgl.[JS00], S. 302;[AMW11], S. 460 ff. 53 Vgl.[BG12], S. 102. 54 Siehe[Fry11], S. 42. 55 International üblich ist hier auch der Begriff loose. 56 Vgl.[RG09], S. 728. 14 2 Problemstellung Luftverkehrs-Netze Flug Eingang Flug Ausgang RFS-Netze RFS Ausgang RFS Eingang Luftfrachtterminal RFS Eingang RFS Ausgang Spediteurs-Netze Lokaler Import Netz Ausgang Lokaler Export Netz Eingang Abbildung 2.2: Frachtflüsse im Luftfrachtterminal(in Anlehnung an:[Fry03], S. 13) Importfracht, die das Terminal auf der Luftseite erreicht, kann ebenfalls als Ladeeinheit oder als lose Fracht angeliefert werden. Die lose Fracht kann je nach Zeitpunkt ihres Eintreffens entweder zu den Sendungslagern oder direkt zur Landseite transportiert werden. Die ankommenden Ladeeinheiten, die abgebaut werden sollen, werden nach eventuell erfolgter Zwischenlagerung im ULD-Lager an den Arbeitsstationen dekonsolidiert und die Fracht wird zu den Sendungslagern transportiert. Fracht, die ihren Zielflughafen erreicht hat, wird entweder als ULD oder lose Fracht auf der Landseite des Terminals durch die Spediteure abgeholt. 57 Transferfracht kann direkt auf den anschließenden Flug umgeschlagen werden, wenn die in den Ladeeinheiten enthaltene Fracht auf die gleiche Route gebucht ist und die Ladeeinheit durch den Anschlussflug transportiert werden darf. Andernfalls muss die Ladeeinheit zunächst dekonsolidiert und anschließend mit anderer Fracht konsolidiert werden. 58 Unterstützt werden die physischen und dokumentarischen Frachtabfertigungsprozesse durch lokale Informationssysteme bzw. Frachtabfertigungssysteme. Arnold et al. 59 beschreiben die wichtigsten Funktionen dieser Systeme wie folgt: •„Datenerfassung und-abgleich bei Anlieferung, • Datenabgleich(Check-in) bei der Eingangsabfertigung, • Lagerverwaltung, • Ladevorbereitung und Manifestierung(Erstellung Ladeliste) bei der Ausgangsabfertigung, • Zollabwicklung bei Auslieferung.“ 57 Vgl.[RG09], S. 728. 58 Vgl. ebd. 59 Siehe[AIK + 08], S. 776. 2.2 Problemfelder der Ablaufplanung und-steuerung 15 Die manuelle Frachtbearbeitung an den Arbeitsstationen wird durch mobile Datenerfassung und-übertragung durch Handgeräte unterstützt. Dies ermöglicht eine Überwachung des Bearbeitungsfortschritts in Echtzeit. 2.2 Problemfelder der Ablaufplanung und-steuerung Die im vorangegangenen Abschnitt beschriebenen Prozesse zur Abfertigung der Fracht bedürfen einer genauen Planung und Steuerung, die an den für die einzelnen Sendungen zugesicherten Lieferterminen sowie den durch den Flugplan vorgegebenen Zeiten auszurichten sind. Des Weiteren sind bei dieser Planung die betrieblichen Kapazitäten des Luftfrachtterminals zu berücksichtigen. Die betrieblichen Kapazitäten(Kapazitätsangebot) des Luftfrachtterminals sind definiert durch das zur Verfügung stehende Personal, die Arbeitsstationen mit ihren Pufferflächen sowie die Lager- und Förderkapazitäten. 60 Die Belastung(Kapazitätsnachfrage) ist durch die zu bearbeitenden Sendungen sowie die Strukturierung dieser Nachfrage über die Zeit gegeben. Der Vorgang der Abstimmung zwischen Kapazitätsangebot und-nachfrage wird als Kapazitätsabstimmung bezeichnet. 61 Das Kapazitätsangebot kann einerseits an die Kapazitätsnachfrage angepasst werden, dann liegt eine Kapazitätsanpassung vor. Im anderen Fall liegt ein Kapazitätsabgleich vor, bei dem die Kapazitätsnachfrage an das -angebot angepasst wird. Eine Kapazitätsanpassung ist kurzfristig(auf Tagesbasis) nur begrenzt möglich. Bis auf das Personal ist das Kapazitätsangebot mit der Fertigstellung des Terminals festgelegt. Die Personalkapazität wird für gewöhnlich auf Wochenbasis geplant 62 und kann sowohl Schichten für Vollzeit- als auch Teilzeitbeschäftigte beinhalten. Eine kurzfristige Anpassung(auf Tages- oder Stundenbasis) der Personalkapazität ist nur durch flexible Arbeitszeitregelungen(z. B. Abrufarbeit) durchführbar. Ein Kapazitätsabgleich ist ebenfalls nur begrenzt möglich, da die Menge der zu bearbeiten Sendungen sowie deren Ankunfts- und Abflugzeiten durch die Buchung zu bestimmten Flügen bereits fest definiert wurde und somit das Belastungsprofil für das Luftfrachtterminal vorgibt. Die Kapazitätsnachfrage kann jedoch unter Berücksichtigung der Sendungs- und Flugvorgaben zeitlich strukturiert und damit dem Kapazitätsangebot angeglichen werden, indem eine Ablaufplanung durchgeführt wird. Mit der Ablaufplanung(engl. Scheduling ) wird die zeitliche und mengenmäßige Allokation limitierter Ressourcen zu einer Menge von Aufgaben vorgenommen. Ziel hierbei ist es, eine oder mehrere Zielfunktionen unter Berücksichtigung von verschiedenen Nebenbedingungen bzw. Restriktionen zu optimieren. 63 Ergebnis der Ablaufplanung ist ein Ablaufplan(engl. Schedule ), der für jede Aufgabe angibt, wann diese unter Verwendung welcher Ressourcen bearbeitet werden soll. Übertragen auf das Luftfrachtterminal entsprechen die Arbeitsstationen und das Personal den Ressourcen und die durchzuführenden Auf- und Abbau-Tätigkeiten den 60 Vgl.[Fry11], S. 50. 61 Vgl.[Bul86], S. 38. 62 Vgl.[RG09]. 63 Vgl.[JP14], S. 3 f.;[Pin12], S. 1;[BEP + 07], S. 1. 16 2 Problemstellung Aufgaben, die im Folgenden als Frachtabfertigungsaufträge oder kurz Aufträge(engl. Jobs ) bezeichnet werden. Die Aufgabe der Ablaufplanung besteht in der Zuordnung einer Arbeitsstation zu einem Auftrag sowie der Festlegung der zeitlichen Reihenfolge, mit der die Aufträge bearbeitet werden, wenn einer Ressource mehr als ein Auftrag zugewiesen wurde. Für jeden Auftrag ist durch vorausgegangene Planungen der späteste Zeitpunkt, zu dem der Umschlag der Fracht, die zu diesem Auftrag gehört, abgeschlossen sein muss, bereits festgelegt. 64 Dieser Zeitpunkt wird im Folgenden als Fälligkeitstermin bezeichnet. Für Exportfracht ist dies der geplante Abflugzeitpunkt des Flugzeugs, auf den die Fracht gebucht ist, abzüglich der Zeiten, die für die verschiedenen Vorfeldprozesse benötigt werden. Für Importfracht ist dies ein mit dem Spediteur vertraglich festgelegter Zeitpunkt, der in Stunden nach der Ankunft des Flugzeugs definiert wird. Der Zeitraum, in dem ein Auftrag bearbeitet werden muss, ergibt sich somit aus dem Zeitpunkt, ab dem die Fracht physisch in dem Terminal vorhanden ist und dem Zeitpunkt des Fälligkeitstermins. Ziel der Ablaufplanung ist es, den Anteil der Aufträge, die ihren Fälligkeitstermin einhalten, unter Berücksichtigung der betrieblichen Kapazitäten und der Zeiträume, in denen die Fracht bearbeitet werden muss, zu maximieren. Neben der Zuordnung von Arbeitsstationen zu Aufträgen ist als weitere Ressource die für einen Auftrag notwendige Personalstärke zu berücksichtigen. Der Aufbau kleiner Ladeeinheiten benötigt bspw. weniger Personal als der großer Ladeeinheiten. Des Weiteren kann von einer Qualifikationshierarchie des Personals bezüglich der Auf- und Abbautätigkeiten ausgegangen werden. 65 Für den Aufbau einer Ladeeinheit sind bspw. umfangreichere Kenntnisse notwendig als für den Abbau. Die Ablaufplanung muss daher bei der Erstellung der Ablaufpläne sowohl die benötigte Personalstärke für den Auf- bzw. Abbau einer Ladeeinheit als auch die Qualifikation des Personals berücksichtigen. Die durch die Ablaufplanung generierten Ablaufpläne induzieren eine gewisse Belastung der Lager und der innerbetrieblichen Transportsysteme, die Lager und Arbeitsstationen miteinander verbinden. Die maximalen Förderkapazitäten für den durch den Ablaufplan abgedeckten Zeitraum sind daher bei der Ablaufplanung zu berücksichtigen. Der Plan ist ggf. so anzupassen, dass einige Bereiche des Lagers und damit des Transportsystems weniger und andere stärker belastet werden, um somit einen Ausgleich zu schaffen. Der Aufwand für die Auf- und Abbautätigkeiten an den Ladeeinheiten variiert mit der Struktur der umzuschlagenden Objekte. Aufgrund der Heterogenität 66 der zu bearbeitenden Fracht ist eine Abschätzung der benötigten Dauer für die Abfertigung eines Auftrags nur auf Basis von Erfahrung und Schätzwerten möglich. Schwere Sendungen, die mit einem Gabelstapler bearbeitet werden müssen, benötigen bspw. mehr Zeit als Sendungen, die ohne Hilfsmittel bearbeitet werden können. Des Weiteren erfolgen diese Umschlagstätigkeiten als manuelle Tätigkeiten, 67 die je nach eingesetztem Personal und schwankenden Leistungsgraden ebenfalls zeitlichen Störungen unterliegen. Diese Tatsache erschwert die Ablaufplanung, da die Bearbeitungszeiten der verschiedenen Aufträge als unsicher anzunehmen sind. Eine Ablaufplanung, die auf Basis von Schätzwerten bezüglich 64 Siehe[Fry11], S. 49 f. 65 Vgl.[RG09], S. 727. 66 Vgl.[Fri10], S. 12. 67 Vgl. Abschnitt 2.1.2. 2.2 Problemfelder der Ablaufplanung und-steuerung 17 der Bearbeitungszeiten beruht, erzeugt somit unter Umständen einen Ablaufplan, dessen geplanter Zielfunktionswert stark von dem tatsächlich realisierten Zielfunktionswert abweicht. Informationen über diese Bearbeitungszeitunsicherheiten sollten daher bereits bei der initialen Ablaufplanung berücksichtigt werden. Als Informationsquelle können z. B. historische Betriebsdaten über vergangene Aufträge herangezogen werden. In diesen ist gespeichert, wie lang die Bearbeitungszeiten der Aufträge mit bestimmten Auftragseigenschaften waren. Auf Basis der häufigen Ausführung gleicher oder sehr ähnlicher Aufträge sind somit umfangreiche Informationen über die Bearbeitungszeitunsicherheiten vorhanden, die es in geeigneter Weise in einer für die Ablaufplanung verwendbaren Form aufzubereiten gilt. Der erstellte Ablaufplan wird schließlich ausgeführt und die eingeplanten Aufträge werden sukzessiv an den eingeplanten Arbeitsstationen abgearbeitet. Hierbei ist der Fortschritt laufend zu überwachen und auf Basis eines Soll-/Ist-Vergleichs der geplanten und realisierten Zeiten sind Abweichungen zu identifizieren. Führen diese Abweichungen zu Auswirkungen, die durch die initiale Berücksichtigung der Informationen über Unsicherheiten nicht kompensiert werden können, ist der Ablaufplan entsprechend anzupassen. Zusammenfassend sind die folgenden drei Problemfelder bei der Planung und Steuerung der Abfertigungsprozesse in einem Luftfrachtterminal zu adressieren, welche in den Abschnitten 2.2.1 bis 2.2.3 detailliert beschrieben werden: • Datenanalyse der Abfertigungsprozesse • Multikriterielle Ablaufplanung der Abfertigungsprozesse • Ablaufsteuerung und Revision von Ablaufplänen 2.2.1 Datenanalyse der Abfertigungsprozesse Für die Ablaufplanung ist ein Informationsstand für die neu einzuplanenden Aufträge nötig. Insbesondere Informationen über die Bearbeitungszeiten dieser Aufträge sind wichtig, um eine zuverlässige Planung der Anfangs- und Endzeiten der Abfertigungsaufträge durchführen zu können. Wie im vorherigen Abschnitt beschrieben, sind die Bearbeitungszeiten als unsicher anzunehmen und Informationen, die eine Quantifizierung dieser unsicheren Bearbeitungszeiten ermöglichen, lassen sich aus historischen Betriebsdaten extrahieren. Im Folgenden wird daher zunächst die vorhandene Datenbasis beschrieben und anschließend aufgezeigt, welcher Informationsstand für die Ablaufplanung benötigt wird. 2.2.1.1 Vorhandene Datenbasis Daten über einzuplanende sowie bereits bearbeitete Frachtabfertigungsaufträge werden typischerweise in einer Datenbank vorgehalten. Hier werden pro Zeile n verschiedene Aufträge und in den Spalten d Eigenschaften über diese Aufträge gespeichert. Ein Beispiel 18 2 Problemstellung Tabelle 2.1: Datenbasis über Frachtabfertigungsaufträge Auftrag Eigenschaft 1 · · · 1 e 1 , 1 · · · ...... . . . n e n, 1 · · · Eigenschaft d e 1 ,d ... e n,d über die grundlegende Struktur ist in Tabelle 2.1 aufgeführt. 68 Für einzuplanende Aufträge werden z. B. folgende Eigenschaften gespeichert: • Schätzwert über die voraussichtliche Bearbeitungszeit • die innerhalb des Auftrags zu bearbeitenden Sendungen • das für den Auftrag zu verwendende Ladehilfsmittel, wenn es sich um einen Aufbauauftrag handelt • Fertigstellungszeit, zu dem der Auftrag bearbeitet sein muss Für bereits bearbeitete Aufträge(historische Aufträge) werden zusätzlich statistische Daten erhoben und gespeichert, z. B.: • die tatsächliche Start- und Endzeit sowie die Bearbeitungszeit des Auftrags • die Arbeitsstation, die den Auftrag ausgeführt hat • die Mitarbeiter, die an dem Auftrag beteiligt waren Für die Schätzung der voraussichtlichen Bearbeitungszeit eines neu einzuplanenden Abfertigungsauftrags wird jedoch selten auf die Datenbasis über vergangene Aufträge zurückgegriffen. Stattdessen wird vereinfachend angenommen, dass für bestimmte Arten von Sendungen bestimmte Bearbeitungszeiten nötig sind. Diese Zeiten können beispielsweise im Rahmen einer Zeitstudie ermittelt werden. Aus den gemessenen Ist-Zeiten wird bspw. durch Mittelwertbildung eine Soll-Zeit abgeleitet, die dann für zukünftige Aufträge Verwendung findet. Als Beispiel sei ein Auftrag a gegeben, der zwei Arten von Sendungen enthält. Die Menge F i bezeichne hierbei die Sendungen der Art i . Die erste Art von Sendung kann ohne Hilfsmittel bearbeitet werden und es wurde eine Sollbearbeitungszeit von τ 1soll festgelegt. Für die zweite Art wird aufgrund des Sendungsgewichts ein Gabelstapler benötigt und es wurde eine Sollbearbeitungszeit von τ 2soll festgesetzt. Die geschätzte Bearbeitungszeit τ a des Auftrags lässt sich dann über Gleichung(2.1) ermitteln. 2 τ a =|F i | · τ i soll i =1 (2.1) 68 Jain& Dubes sprechen in diesem Zusammenhang von einer„ n × d pattern matrix“[JD88], S. 8. 2.2 Problemfelder der Ablaufplanung und-steuerung 19 Dieses Vorgehen führt jedoch zu einigen Problemen. Zum einen ist die Zeitstudie unter realistischen Bedingungen durchzuführen und ggf. häufiger zu wiederholen, um einen aktuellen Bezug zu den realen Bedingungen bspw. der Frachtstruktur zu behalten. Zum anderen wird über Gleichung(2.1) nur eine auf Mittelwerten basierende Punktschätzung der benötigten Bearbeitungszeit vorgenommen. Es kann jedoch nicht davon ausgegangen werden, dass die Bearbeitungszeit für eine bestimmte Art von Sendung immer dem verwendeten Mittelwert entspricht. Dies kann in der Folge zu den in Abschnitt 2.2 beschriebenen Problemen mit Ablaufplänen, die auf Basis von Schätzwerten erstellt werden, führen. 69 Daher soll hier auf Grundlage der vorhandenen Datenbasis ein für die Ablaufplanung benötigter Informationsstand erarbeitet werden, der – statt einer Punktschätzung für die Bearbeitungszeit eines Auftrags – eine Verteilung ermittelt. Auf die Beschreibung des benötigten Informationsstands wird im folgenden Abschnitt näher eingegangen. 2.2.1.2 Benötigter Informationsstand Für die Ablaufplanung unter Unsicherheit wird ein Informationsstand benötigt, der über die im vorherigen Abschnitt beschriebene Punktschätzung der Bearbeitungszeit eines Auftrags hinausgeht und stattdessen Informationen über die Verteilung sowie die minimal und maximal mögliche Bearbeitungszeit enthält. Die Bearbeitungszeit τ a eines Auftrags a soll daher als ein Intervall[ τ a min , τ a max ] modelliert werden, das die minimal und maximal mögliche Bearbeitungszeit dieses Auftrags beschreibt. Für das Intervall ist je nach Umfang der vorhandenen Datenbasis eine Verteilung der Bearbeitungszeiten innerhalb des Intervalls in Form einer Häufigkeitsverteilung zu bestimmen. Bei geringem Umfang der Datenbasis soll jedoch auch von einer Gleichverteilung ausgegangen werden können. Ein Problem, das sich bei der Ermittlung eines Intervalls und einer Häufigkeitsverteilung für einen neu einzuplanenden Auftrag ergibt, ist, dass in der Datenbasis nur sehr selten historische Aufträge mit genau den gleichen Ausprägungen der Eigenschaften wie diejenigen des einzuplanenden Auftrags vorhanden sind. Für den Aufbau des benötigten Informationsstands sind jedoch Wiederholungen in der Datenbasis notwendig, um aus den verschiedenen Bearbeitungszeiten der historischen Aufträge eine Verteilung von Bearbeitungszeitabweichungen 70 generieren zu können, mit der die Bearbeitungszeit des neu einzuplanenden Auftrags geschätzt werden kann. Wird die Forderung nach genau den gleichen Ausprägungen der Eigenschaften abgeschwächt und werden auch solche historischen Aufträge zur Prognose der Bearbeitungszeit betrachtet, die ähnliche Ausprägungen der Eigenschaften wie der neu einzuplanende Auftrag besitzen, so kann davon ausgegangen werden, dass sich Wiederholungen häufiger einstellen. Diesem Vorgehen liegt die Annahme zugrunde, dass ähnliche Ausprägungen der Eigenschaften zu ähnlichen Bearbeitungszeiten führen. Historische Aufträge, die sich ähnlich sind, können somit zu Clustern zusammengefasst werden. Für die Cluster werden anschließend Häufigkeitsverteilungen und Intervalle der Bearbeitungszeitabweichungen 69 Siehe auch Abbildung 2.4 auf Seite 26 für ein Beispiel. 70 Siehe Abschnitt 5.2.1.4 auf Seite 91 für eine Erläuterung der Bearbeitungszeitabweichung. 20 2 Problemstellung der enthaltenen historischen Aufträge ermittelt. Diese können für neu einzuplanende Aufträge als Schätzer für die Bearbeitungszeit dienen. Aus dem zuvor Geschriebenen ergibt sich die Notwendigkeit aus den zur Verfügung stehenden d Eigenschaften eines Auftrags diejenigen Eigenschaften auszuwählen bzw. neue zu erzeugen, die für die Charakterisierung eines Auftrags verwendet werden sollen. Des Weiteren ist eine Ähnlichkeits- bzw. Distanzfunktion zu verwenden, mit dem die Ähnlichkeit zweier Aufträge auf Basis der verwendeten Eigenschaften quantifiziert werden kann, um somit Cluster ähnlicher historischer Aufträge bilden zu können. Hierbei sind unterschiedliche Skalenniveaus sowie Wertebereiche der Eigenschaften zu beachten. Schließlich ist ein neu einzuplanender Auftrag auf Basis seiner Eigenschaften demjenigen Cluster zuzuordnen(d. h., es ist eine Klassierung vorzunehmen), in dem die enthaltene Häufigkeitsverteilung und das Bearbeitungszeitintervall die beste Schätzung für diesen Auftrag liefert. 2.2.2 Multikriterielle Ablaufplanung der Abfertigungsprozesse Im Folgenden soll das Problem der Ablaufplanung der Abfertigungsprozesse im Luftfrachtterminal näher erläutert werden. Hierfür wird zunächst die Planungsumgebung als sowohl dynamisch als auch stochastisch charakterisiert. Im Anschluss wird das in Abschnitt 2.2 skizzierte Problem auf ein Mehr-Maschinen-Ablaufplanungsproblem übertragen und die sich aus der Umgebung ergebenden Anforderungen beschrieben. Abschließend werden die Restriktionen, die sich aus der Berücksichtigung des Personals und der Transportsysteme als einschränkende Ressourcen ergeben, näher betrachtet. 2.2.2.1 Charakterisierung der Planungsumgebung Bei der Ablaufplanung wird häufig davon ausgegangen, dass die Umgebung, in der der erstellte Ablaufplan ausgeführt wird, statischer Natur ist und alle Informationen über die zukünftig zu bearbeitenden Aufträge sowie weitere planungsrelevante Informationen zum Zeitpunkt t = 0 der Erstellung des Ablaufplans vollständig bekannt sind und sich im Zeitverlauf nicht ändern. 71 In diesem Fall handelt es sich um eine prädiktive Ablaufplanung. 72 Der erstellte und hinsichtlich einer Zielfunktion optimierte sowie die Restriktionen einhaltende Ablaufplan wird anschließend ausgeführt und dient als Grundlage zur Koordination der Abfertigungsprozesse. In der Praxis kann jedoch nicht von einer statischen Umgebung ausgegangen werden, da das System„Luftfrachtterminal“ dynamischen Veränderungen im Zeitverlauf unterliegt. Aufgrund des zeitlich offenen Entscheidungsfeldes 73 sind zum Zeitpunkt der Ablaufplanung nicht alle Informationen über die zukünftige Entwicklung vorhanden. Die Informationen bezüglich der zu bearbeitenden Aufträge sind bspw. auf eine zeitliche Reichweite von wenigen Stunden begrenzt. Für spätere Zeitpunkte sind die Auftragsinformationen noch ungenau bzw. sie sind noch gar nicht vorhanden. Daher 71 Vgl.[Pin12], S. 432. 72 Vgl.[Sau02], S. 12. 73 Siehe z. B.[Sch96], Kapitel 1.1 sowie Kapitel 1.2.3. 2.2 Problemfelder der Ablaufplanung und-steuerung 21 ist die Ablaufplanung regelmäßig zu wiederholen und neu eingetroffene Aufträge sind in den bereits vorhandenen und häufig auch schon partiell ausgeführten Ablaufplan zu integrieren. Im Gegensatz zu den im Zeitverlauf neu eintreffenden Aufträgen, die als regelmäßige Ereignisse betrachtet werden können, treten während der Ausführung des Ablaufplans ebenso Ereignisse bzw. Störungen ein, die zum Zeitpunkt der Planerstellung nicht bekannt waren und auch nicht regelmäßig auftreten. Diese unregelmäßigen Ereignisse erfordern unter Berücksichtigung ihrer Dringlichkeit eine evtl. sofortige Reaktion, die von der periodisch ausgeführten Ablaufplanung unabhängig zu erfolgen hat. In Abschnitt 2.2.3 wird auf diesen Umstand näher eingegangen. Eine weitere häufig getroffene Annahme ist die, dass alle Parameter des Ablaufplanungsproblems mit Sicherheit bekannt bzw. hinreichend genau prognostiziert werden können und daher als deterministisch angenommen werden. 74 Diese Annahme trifft in der Praxis jedoch ebenfalls selten zu. So sind bspw. die Bearbeitungszeiten der Aufträge aufgrund der manuellen Tätigkeiten als unsicher anzunehmen. 75 Ein Ablaufplan, der von deterministischen Werten ausgeht und somit die Unsicherheit ignoriert, ist in der Umsetzung jedoch ein wenig zuverlässiger Plan. Der ermittelte Zielfunktionswert kann bspw. signifikant von dem realisierten 76 Zielfunktionswert abweichen, wenn die zur Planung verwendeten Parameter von den tatsächlich eingetretenen Daten abweichen. Aufgrund der Abweichungen zwischen den Plan- und Ist-Werten kann es zudem vorkommen, dass dem Ablaufplan nur eingeschränkt oder gar nicht gefolgt werden kann. Werden diese Abweichungen, wie oben beschrieben, als Ereignisse betrachtet, die eine Neu- bzw. Umplanung des vorhandenen Ablaufplans anstoßen, so ist aufgrund der Vielzahl von Ereignissen sehr häufig bzw. permanent eine Ablaufplanung durchzuführen, 77 die unter Umständen umfangreiche Änderungen an dem bereits vorhandenen Plan vornimmt und damit den Zielfunktionswert laufend anpasst. Der resultierende Ablaufplan besitzt daher einen geringen Informationswert und insbesondere eine beschränkte Aussagekraft über die zu erwartende Performance des Ablaufplans. Zusammenfassend kann die Umgebung, für die ein Ablaufplan erstellt werden soll, sowohl als dynamisch als auch stochastisch charakterisiert werden. Die Ablaufplanung hat die sich hieraus ergebenden Herausforderungen entsprechend zu berücksichtigen. Auf die Beschreibung des Ablaufplanungsproblems wird im nächsten Abschnitt näher eingegangen. 2.2.2.2 Darstellung des Ablaufplanungsproblems Wie bereits in Abschnitt 2.2 erläutert, erfolgt durch die Ablaufplanung eine Zuordnung von Ressourcen zu Aufträgen. Die Zuordnung einer Arbeitsstation stellt dabei 74 Vgl.[ALM + 05], S. 87. 75 Vgl. Abschnitt 2.2. 76 Der realisierte Zielfunktionswert ist die Performance(z. B. gemessen an der Anzahl säumiger Aufträge) des Ablaufplans nach der Ausführung der Aufträge und nach Bekanntwerden der tatsächlich eingetretenen Parameterwerte. 77 Vgl.[CU92], S. 153. 22 2 Problemstellung die wichtigste Entscheidung dar, da hierdurch auch die Belastung für die Lager und innerbetrieblichen Transportsysteme festgelegt wird. Betrachtet man die zur Verfügung stehenden Arbeitsstationen als Maschinen zur Durchführung der Aufträge, so sind die folgenden Entscheidungen zu treffen: • Zuordnung von Aufträgen zu Maschinen, die für die Ausführung eines solchen Auftrags geeignet sind • Bestimmung der Reihenfolge der Aufträge auf einer Maschine unter Beachtung von evtl. vorhandenen Vorrangbeziehungen zwischen den Aufträgen Für eine statische und deterministische Umgebung lässt sich das hier betrachtete Problem der Ablaufplanung wie folgt formalisieren: 78 Gegeben ist eine Menge von n Aufträgen(Jobs) A={ a 1 , a 2 ,..., a n }, die auf einer Menge von l parallelen Maschinen M={ m 1 , m 2 ,..., m l } zu bearbeiten sind. Nicht jeder Auftrag kann auf jeder Maschine bearbeitet werden. So sind z. B. Transferaufträge, bei denen Fracht zwischen zwei Ladeeinheiten verladen wird, auf Arbeitsstationen auszuführen, die zwei Luftfrachtcontainer bzw.-paletten aufnehmen können. Die Menge an Maschinen, auf denen ein Auftrag a ausgeführt werden kann, wird mit M a beschrieben. Die Maschinen innerhalb dieser Menge sind identisch, d. h., ein Auftrag benötigt unabhängig von der gewählten Maschine die gleiche Bearbeitungszeit. Diese Bearbeitungszeit wird für jeden Auftrag als τ a mit a ∈ A angegeben. Weiterhin besitzt jeder Auftrag eine Bereitstellungs- bzw. Einlastzeit r a , die angibt, wann der entsprechende Auftrag frühestens auf einer Maschine bearbeitet werden kann, sowie einen Fälligkeitstermin d a , zu dem der Auftrag spätestens fertiggestellt sein muss. Schließlich besitzt jeder Auftrag eine durch einen Gewichtungsfaktor w a beschriebene Priorität, die die Wichtigkeit des Auftrags angibt. Eilaufträgen wird bspw. eine höhere Priorität zugewiesen, da sie bei Verzug zu höheren Verzugskosten als normale Aufträge führen und sie daher bei der Planung stärker berücksichtigt werden sollten. Zwischen den Aufträgen können zudem Vorrangbeziehungen( prec ) bestehen, die angeben, dass ein Auftrag erst starten kann, wenn andere Aufträge fertiggestellt wurden. Dies ist z. B. für Aufbauaufträge der Fall, bei denen Fracht konsolidiert werden soll, die zuvor durch Abbauaufträge dekonsolidiert und hierdurch verfügbar gemacht werden muss. Diese Vorrangbeziehungen können durch einen gerichteten azyklischen Graphen G=( A , E) repräsentiert werden. Dabei entsprechen die Knoten des Graphen den Aufträgen und die gerichteten Kanten E ⊂ A × A entsprechen den Vorrangbeziehungen. Eine Vorrangbeziehung( a i , a j ) ∈ E beschreibt, dass der Auftrag a i ∈ A vor dem Beginn von Auftrag a j ∈ A fertiggestellt sein muss. 79 Als Zielfunktion bzw. Performancemaß soll die gewichtete Anzahl säumiger Aufträge minimiert werden. Hierfür werden zunächst Strafkosten U a für jeden Auftrag a ∈ A in 78 Diese Einschränkung wird nach der Formalisierung aufgehoben und die Umgebung, wie sie in Abschnitt 2.2.2.1 beschrieben wurde, berücksichtigt. 79 Vgl.[Bru07], S. 3. 2.2 Problemfelder der Ablaufplanung und-steuerung 23 Abhängigkeit seines Fertigstellungszeitpunkts C a sowie seines Fälligkeitstermins d a wie folgt definiert: U a = 1 , wenn C a > d a 0 in allen anderen Fällen ∀ a ∈ A(2.2) Die zu minimierende Zielfunktion wird dann durch a ∈A w a U a angegeben. Ergebnis der Ablaufplanung ist ein Ablaufplan ap , der jeden Auftrag genau einer Maschine zuweist. Ist zwischen dem geplanten und realisierten Ablaufplan zu unterscheiden, so wird im Folgenden ersterer als ap p und letzterer als ap r bezeichnet. Zusammenfassend kann das hier betrachte Ablaufplanungsproblem für eine statische und deterministische Umgebung als P | prec, r a , d a , M a | w a U a in der Drei-FelderNotation 80 nach Graham et al. beschrieben werden. Des Weiteren wird für das hier zu betrachtende Ablaufplanungsproblem von folgenden Einschränkungen ausgegangen: • Jede Maschine m ∈ M kann zur gleichen Zeit höchstens einen Auftrag a ∈ A bearbeiten. • Jeder Auftrag a ∈ A kann zur gleichen Zeit auf höchstens einer Maschine m ∈ M a bearbeitet werden. • Eine Unterbrechung eines einmal gestarteten Auftrags a ∈ A auf einer Maschine m ∈ M a durch z. B. einen höher priorisierten Auftrag ist nicht erlaubt(ausgenommen Maschinenausfälle), d. h., der Auftrag wird bis zu seiner Fertigstellung auf der Maschine ausgeführt. • Rüstzeiten und-kosten sind zu vernachlässigen, da ein Auftrag a ∈ A grundsätzlich auf jeder Maschine der Menge M a ⊆ M ohne vorheriges Rüsten bearbeitet werden kann. Betrachtet man nun die in Abschnitt 2.2.2.1 beschriebene dynamische Umgebung, so ist die Menge A nicht mehr auf n Aufträge begrenzt, sondern aufgrund des offenen Entscheidungsfeldes unbegrenzt A={ a 1 , a 2 ,..., a n ,... }. Bei der i -ten Erstellung eines Ablaufplans zum Zeitpunkt t i ist von dieser Menge nur eine Teilmenge A t i ={ a 1 , a 2 ,..., a n } ⊂ A von n Aufträgen bekannt, wobei a n dem letzten Auftrag entspricht über den Informationen vorhanden sind. Der durch die Ablaufplanung erstellte Plan ap i wird anschließend ausgeführt. Zu einem späteren Zeitpunkt t i +1 > t i wird die Ablaufplanung wiederholt und die bis dahin neu hinzugekommenen Aufträge A N t i +1 ={ a n +1 , a n +2 ,..., a n + n } werden in 80 Die Drei-Felder-Notation α| β| γ wurde von Graham et al.(vgl.[GLLR79]) zur Klassifikation von Scheduling-Problemen eingeführt. Das α -Feld beschreibt die Maschinen-Umgebung. Charakteristika der Aufträge und Scheduling-Restriktion werden durch das β -Feld beschrieben. Schließlich beschreibt das γ -Feld die zu optimierende Zielfunktion des Problems(vgl. u. a.[Leu04], Kapitel 1, S. 6 ff.; [Bru07], S. 3–7). Siehe auch[Pin12], S. 17, für die Erweiterung der Notation des β -Feldes um M a , wenn ein Auftrag a nicht auf allen m Maschinen bearbeitet werden kann. 24 2 Problemstellung den bereits in der Ausführung befindlichen Ablaufplan ap i integriert. Für einige der Aufträge aus A t i können die in ap i getroffenen Entscheidungen revidiert werden. Hierzu bezeichne s a die Startzeit des Auftrags a und f a den Zeitpunkt, zu dem Vorbereitungen für den Auftrag a an der Arbeitsstation begonnen haben. Es gilt f a < s a < C a . Die Menge A t i kann somit zum Zeitpunkt t i +1 in die folgenden vier Mengen unterteilt werden: • A C t i +1 ={ a | a ∈ A t i ∧ f a < t i +1 ∧ s a < t i +1 ∧ C a < t i +1 }: Menge der zum Zeitpunkt t i +1 bekannten Aufträge, die bereits fertiggestellt wurden. • A R t i +1 ={ a | a ∈ A t i ∧ f a < t i +1 ∧ s a < t i +1 ∧ C a = nill}: Menge der zum Zeitpunkt t i +1 bekannten Aufträge, die bereits auf den Arbeitsstationen gestartet wurden. • A F t i +1 ={ a | a ∈ A t i ∧ f a < t i +1 ∧ s a = nill ∧ C a = nill}: Menge der zum Zeitpunkt t i +1 bekannten Aufträge, für die an den Arbeitsstationen bereits eine Vorbereitung stattgefunden hat(z. B. Vorpufferung von Fracht). Die Aufträge dieser Menge sind somit fixiert. • A P t i +1 ={ a | a ∈ A t i ∧ f a = nill ∧ s a = nill ∧ C a = nill}: Menge der zum Zeitpunkt t i +1 bekannten Aufträge, die lediglich auf eine Arbeitsstation eingeplant sind. Hierbei gilt A t i = A C t i +1 ∪ A R t i +1 ∪ A F t i +1 ∪ A P t i +1 und jeder Auftrag ist genau einer der vier Mengen zugeordnet. Von der Gesamtmenge A t i +1 = A t i ∪ A N t i +1 der zum Zeitpunkt t i +1 bekannten Aufträge können lediglich Aufträge aus der Menge A P t i +1 umgeplant werden, da die Zuordnungen in ap i noch vorläufig sind. Die Menge der erstmalig einzuplanenden sowie neu einzuplanenden Aufträge zum Zeitpunkt t i +1 ergibt sich somit aus A Pb t i +1 = A N t i +1 ∪ A P t i +1 . Das Ergebnis der Ablaufplanung ist der neue Ablaufplan ap i +1 , der bis zum nächsten Planungszeitpunkt t i +2 ausgeführt wird. Für Aufträge aus A P t i +1 ist zu beachten, dass bereits Sekundärplanungen erfolgt sein können, die bspw. auf den berechneten Endterminen der Aufträge beruhen. Daher sollten Änderungen dieser Aufträge unter Berücksichtigung der in Ablaufplan ap i getroffenen Entscheidungen erfolgen, bspw. über die Definition eines Stabilitätsmaßes. Dieses Maß quantifiziert die Änderungen an diesen Aufträgen zwischen dem alten Ablaufplan ap i und dem neuen Plan ap i +1 . Zwischen dem Stabilitätsmaß und dem zuvor definierten Performancemaß besteht ein Trade-off. Auf der einen Seite schränkt eine hohe Stabilität die Möglichkeiten ein, die Anzahl säumiger Aufträge durch Umplanungen zu vermindern. Auf der anderen Seite kann eine Optimierung des Performancemaßes dazu führen, das viele Aufträge aus Menge A P t i +1 umgeplant werden müssen, was zu einer geringen Stabilität führt. Abbildung 2.3 zeigt ein Beispiel mit sieben Aufträgen und zwei Maschinen in einem Gantt-Diagramm. 81 Zum Zeitpunkt t 0 = 0 wurde für die Aufträge eine Ablaufplanung 81 Gantt-Diagramme, benannt nach Henry L. Gantt(1861 – 1919), eignen sich zur Darstellung von Maschinenbelegungsplänen. In den Diagrammen sind die Zuordnungen sowie Belegungsdauern der Maschinen(abgebildet an der Ordinate) durch die Aufträge(abgebildet als Balken auf der Zeitachse[Abszisse]) dargestellt(vgl.[ZB05], S. 7). 2.2 Problemfelder der Ablaufplanung und-steuerung 25 m 2 a 2 a 3 a 5 m 1 a 1 a 4 a 6 a 7 m 2 a 2 a 3 a 5 a 7 m 1 a 1 a 4 a 6 a 8 a 9 A C t 1 A R t 1 A F t 1 A P t 1 A N t 1 0 60 120 180 t t 1 (a) 0 60 120 180 t t 1 (b) Abbildung 2.3: Dynamische Ankunft neuer Aufträge und ihre Berücksichtigung in partiell ausgeführten Ablaufplänen:(a) Initial erstellter Ablaufplan ap 0 (b) Ablaufplan ap 1 , erstellt zum Zeitpunkt t 1 = 80 durchgeführt und der ermittelte Ablaufplan ap 0 ist in Abbildung 2.3(a) dargestellt. Zum Zeitpunkt t 1 = 80 wird die Ablaufplanung erneut durchgeführt. Die neu hinzugekommenen Aufträge A N t 1 ={ a 8 , a 9 } sind dabei in den bereits in der Ausführung befindlichen Plan ap 0 zu integrieren, wobei für beide Aufträge angenommen wird, dass sie nur auf Maschine m 1 ausgeführt werden können. Es wird die Menge A P t 1 b = A N t 1 ∪ A P t 1 der erstmalig sowie der neu einzuplanenden Aufträge gebildet und ein neuer Ablaufplan ap 1 erzeugt, der in Abbildung 2.3(b) dargestellt ist. Auftrag a 7 wurde dabei umgeplant und von Maschine m 1 zu m 2 verschoben. Wird neben der dynamischen Umgebung nun auch die stochastische Umgebung betrachtet, so sind die Bearbeitungszeiten der Aufträge keine deterministischen Werte mehr, sondern unsicher und werden als diskrete Zufallsvariablen X a modelliert. Die realisierte Bearbeitungszeit τ a eines Auftrags a wird erst nach dessen Fertigstellung bekannt. Informationen über die Verteilung 82 der Zufallsvariablen sind durch die Analyse der historischen Informationen über vergangene Aufträge vorhanden(siehe Abschnitt 2.2.1). Des Weiteren gilt für jede Bearbeitungszeit τ a , dass diese innerhalb eines Intervalls τ a ∈[ τ a min , τ a max ] liegt. Eine häufig durchgeführte Vereinfachung besteht darin, die Unsicherheit aus der Ablaufplanung auszuschließen, indem für jeden stochastischen Parameter ein deterministischer Ersatzwert verwendet wird. Beispielsweise könnte für die Bearbeitungszeiten τ a der Aufträge der Erwartungswert E[ X a ] der Zufallsvariablen der jeweiligen Bearbeitungszeit verwendet werden. 83 Dieses Vorgehen ignoriert mögliche Ausprägungen der Bearbeitungszeiten, die nicht denen des verwendeten Erwartungswertes entsprechen. 82 Es wird davon ausgegangen, dass die Bearbeitungszeiten der Aufträge stochastisch unabhängig sind, sowohl untereinander als auch von dem Startzeitpunkt des Auftrags. 83 Diese Art der Modellierung wird von Scholl als„Deterministisches Erwartungswertmodell“([Sch01], S. 187) bezeichnet. 26 2 Problemstellung m 2 a 2 m 2 a 2 m 1 a 1 a 3 a 4 m 1 a 1 a 3 a 4 0 60 120 180 t d 1 , d 4 d 3 d 2 (a) 0 60 120 180 t d 1 , d 4 d 3 d 2 (b) Abbildung 2.4: Auswirkungen stochastischer Bearbeitungszeiten der Aufträge auf den Ablaufplan:(a) Initial erstellter Ablaufplan ap p (b) Realisierter Ablaufplan ap r Der Zielfunktionswert des realisierten Ablaufplans kann bei einer Abweichung von diesen Erwartungswerten substanziell von dem berechneten optimalen Wert abweichen. 84 Abbildung 2.4 zeigt ein Beispiel mit vier Aufträgen und ihren entsprechenden Fälligkeitsterminen sowie zwei Maschinen. Zusätzlich gilt für a 2 , dass dieser Auftrag nur auf m 2 eingeplant werden darf. Für Auftrag a 1 wird von einer stochastischen und gleichverteilten Bearbeitungszeit im Intervall τ 1 ∈[20 , 80] und für die anderen Aufträge von deterministischen Bearbeitungszeiten ausgegangen. Nach dem oben beschriebenen Vorgehen würde auf Auftrag a 1 eine erwartete Bearbeitungszeit von 50 Zeiteinheiten verwendet. Der Ablaufplan könnte dann z. B. mit der Prioritätsregel Earliest Deadline First (EDF) 85 erstellt werden. Der so erstellte Ablaufplan ist in Abbildung 2.4(a) dargestellt und weist keine säumigen Aufträge auf. Wenn der Auftrag a 1 statt der erwarteten Zeit jedoch 80 Zeiteinheiten benötigt, so sind die Aufträge a 3 und a 4 säumig, da sie einen späteren Fertigstellungszeitpunkt als ihre Fälligkeitstermine besitzen(siehe Abbildung 2.4(b)). Ein weiteres Vorgehen besteht darin, den Erwartungswert der Zielfunktion, 86 in diesem Fall E[ w a U a ], zu optimieren, wobei der Erwartungswert über eine als bekannt 87 vorausgesetzte Verteilungsfunktion gebildet wird. 88 Der so ermittelte Ablaufplan ist stochastisch optimal. Interpretiert werden kann der ermittelte Zielfunktionswert als das 84 Vgl.[KY97], S. 3. 85 Bei der EDF-Regel werden die Aufträge aufsteigend nach ihrem Fälligkeitstermin sortiert und anschließend eingeplant. 86 Scholl spricht hier von dem„Erwartungswert-Kriterium“[Sch01], S. 124. 87 Diese Annahme ist entscheidend für die Anwendung der stochastischen Optimierung(vgl.[Thi08], S. 290). In der Praxis ist die Ermittlung einer solchen Verteilung jedoch eine schwierige Aufgabe und die über die Verteilung getroffenen Annahmen sind häufig ungeeignet für Entscheidungsumgebungen, bei denen einige Faktoren die Unsicherheit vieler Elemente bestimmen(siehe[KY97], S. 5). 88 Vgl.[KY97], S. 3 f. 2.2 Problemfelder der Ablaufplanung und-steuerung 27 Ergebnis,„das bei hinreichend häufiger Wiederholung des zugrundeliegenden Zufallsexperiments durchschnittlich zu erwarten ist“ 89 . Die konkrete Entscheidungssituation, für die der stochastisch optimale Ablaufplan ermittelt wird, tritt in genau dieser Ausprägung jedoch nicht erneut ein und ist damit einmalig bzw. nicht wiederholbar. Der realisierte Zielfunktionswert kann auch in diesem Fall erheblich von dem ermittelten Erwartungswert abweichen. Ist diese Abweichung negativ(wenn mehr säumige Aufträge auftreten als durch den Erwartungswert angegeben), so fehlt aufgrund der Einmaligkeit der Entscheidung die Möglichkeit, das Ergebnis durch eine positive Abweichung zu kompensieren. 90 Der Zielfunktionswert eines generierten Ablaufplans hängt von der eintretenden Umweltsituation(der realisierten Bearbeitungszeiten der Aufträge) ab und besitzt somit eine Verteilung möglicher Ausprägungen. Die beiden oben beschriebenen Vorgehensweisen berücksichtigen bei der Erstellung der Pläne jedoch entweder nur eine mögliche zukünftige Situation(Erwartungswert der Bearbeitungszeiten) oder den Erwartungswert des Zielfunktionswertes, der sich bei hinreichend häufiger Wiederholung einstellen würde. Damit ist keines dieser Vorgehen geeignet, das Risiko bzw. die Abweichung vom berechneten Zielfunktionswert adäquat zu berücksichtigen und der Zielfunktionswert hat, wie in Abschnitt 2.2.2.1 beschrieben, eine geringe Aussagekraft. Risikoaverse Entscheidungsträger, die für die Planerstellung verantwortlich sind und die ex post anhand der realisierten Performance des Ablaufplans unter der Annahme evaluiert werden, dass die eingetretene Umweltsituation bereits zum Zeitpunkt der Entscheidung für einen Ablaufplan bekannt gewesen wäre, sind hingegen an einem Ablaufplan interessiert, der für möglichst alle 91 zukünftigen Umweltsituationen gute Resultate liefert und dabei die Möglichkeit bietet, den Ablaufplan gegen die ungünstigste Umweltsituation(Worst-Case-Szenario) abzusichern. 92 Eine Absicherung gegen diese ungünstigste Umweltsituation ist jedoch häufig mit sehr konservativen bzw. hinsichtlich der Performance des Ablaufplans schlechten Ergebnissen verbunden. Vor diesem Hintergrund sollte die Möglichkeit bestehen, ein Anspruchsniveau für die Performance des Ablaufplans vorzugeben, das in jedem Fall eingehalten werden muss, und somit ein gewisses Maß an Risiko zu tolerieren, wenn hierdurch eine wesentlich bessere Performance erzielt werden kann. Ablaufpläne, die dieses Anspruchsniveau erfüllen, sollen im Folgenden als robust bezeichnet werden. Zur Quantifizierung der Robustheit ist ein Maß zu erstellen, das bei der Ablaufplanung verwendet werden kann. Für dieses Robustheitsmaß soll erneut der Trade-off zu den beiden zuvor definierten Maßen betrachtet werden. Werden die drei zuvor angesprochenen Maße(Performance-, Robustheits- und Stabilitätsmaß) als gleichrangige Zielfunktionen in der Ablaufplanung berücksichtigt, so liegt ein 89 [Sch01], S. 124. Vgl. auch Kouvelis& Yu, die dies als„ Long Run Optimality“([KY97], S. 3) bezeichnen. 90 Vgl.[Sch01], S. 124 f.;[KY97], S. 5 f. 91 Hier soll von normalen Umweltsituationen ausgegangen werden, d. h. Situationen, in denen die Bearbeitungszeiten der Aufträge innerhalb ihrer berechneten Verteilungen liegen. Gravierende Veränderungen, die in Abschnitt 2.2.2.1 als unregelmäßige Ereignisse(z. B. Maschinenausfälle) beschrieben wurden, sind hiervon ausgenommen. 92 Vgl.[KY97], S. 5 f.;[Sch01], S. 90–93. 28 2 Problemstellung multikriterielles Ablaufplanungsproblem vor. Ein solches Mehrzieloptimierungsproblem (engl. Multi-objective Optimization Problem (MOP)) kann nach Talbi folgendermaßen definiert werden: 93 MOP = min F ( x )= f 1 ( x ) , f 2 ( x ) ,..., f n ( x ) u. B. d. N. x ∈ S Hierbei bezeichne f i ( x ) eine der n mit n ≥ 2 Zielfunktionen, F ( x ) den Vektor der zu optimierenden Zielfunktionen, x den Vektor der Entscheidungsvariablen und S die Menge der zulässigen Lösungen. Aufgrund des zuvor beschriebenen Trade-offs zwischen den Zielfunktionen ist regelmäßig nicht von einer Lösung x ∗ auszugehen, die für jede Zielfunktion optimal ist, d. h., f i ( x ∗ ) < f i ( x ) , ∀ x ∈ S , i = 1 , 2 ,..., n ist unwahrscheinlich. Daher wird im Folgenden auf das Konzept der Pareto-Dominanz zurückgegriffen. Hierbei dominiert ein Zielfunktionsvektor u einen Vektor v , bezeichnet als u ≺ v , wenn jede Komponente von u kleiner oder gleich der entsprechenden Komponente von v ist und in einer Komponente strikt kleiner: ∀ i ∈{ 1 , 2 ,..., n }: u i ≤ v i ∧ ∃ i ∈{ 1 , 2 ,..., n }: u i < v i Auf Basis der Pareto-Dominanz kann anschließend die Pareto-Optimalität definiert werden. Eine Lösung x ∗ ∈ S ist dabei pareto-optimal, wenn Folgendes gilt: ∀ x ∈ S: F ( x ) ⊀ F ( x ∗ )(2.3) Die pareto-optimalen Lösungen bilden zusammen die pareto-optimale Menge des MOPs: P ∗ = x ∈ S x ∈ S , F ( x ) ≺ F ( x ) Für ein MOP und die Menge P ∗ kann schließlich die Pareto-Front bestimmt werden: PF ∗ = F ( x ) x ∈ P ∗ Neben den zu berücksichtigenden Anforderungen, die sich aus der stochastischen und dynamischen Umgebung ergeben, sind bei der Ablaufplanung weitere Restriktionen zu beachten. Diese ergeben sich aus den für die Abfertigungsprozesse benötigten personellen Ressourcen und den zur Beförderung der Fracht eingesetzten Transportsystemen. Auf diese Aspekte wird in den nächsten beiden Abschnitten näher eingegangen. 2.2.2.3 Berücksichtigung der Personalkapazitäten Im vorherigen Abschnitt wurde die Zuordnung von Aufträgen zu Maschinen und ihre Reihenfolge auf diesen Maschinen betrachtet. Die Maschinen stellten dabei die einzige knappe Ressource dar. Wenn das Personal als weitere Ressource berücksichtigt wird, 93 Siehe[Tal09], S. 310 f. 2.2 Problemfelder der Ablaufplanung und-steuerung 29 m 3 a 3 , wo 2 m 3 a 3 , wo 2 m 2 a 2 , wo 1 m 2 a 2 , wo 1 m 1 a 1 , wo 1 m 1 a 1 , wo 1 0 60 120 180 t (a) 0 60 120 180 t (b) Abbildung 2.5: Auswirkungen der Ressource„Personal“ auf den Ablaufplan:(a) Ablaufplan ohne Berücksichtigung des Personals(b) Ablaufplan unter Berücksichtigung des Personals ergibt sich eine weitere Einschränkung. 94 Aufgrund der manuellen Tätigkeit der Frachtabfertigung bei den Auf- und Abbauprozessen können nur solche Aufträge aktiv bearbeitet werden, bei denen Personal in der notwendigen Stärke und Qualifikation verfügbar ist. Aufträge, bei denen zwar die Fracht an der Arbeitsstation bereitgestellt wurde, aber das benötigte Personal z. B. noch durch einen anderen Auftrag gebunden ist, blockieren die entsprechende Station. Durch die Personaleinsatzplanung, die hier als Teil der Ablaufplanung betrachtet wird, sind daher die folgenden Entscheidungen zu treffen: • Zuordnung von Personal in der benötigten Stärke und Qualifikation zu Aufträgen • Bestimmung der Reihenfolge, in der eine Arbeitskraft die ihr zugeordneten Aufträge bearbeitet Das Personal wird hierzu als Menge WO={ wo 1 , wo 2 ,..., wo n } modelliert. Ein Teil des Personals WO Br ⊂ WO kann hierbei nur für die Abbauaufträge eingesetzt werden. Der andere Teil WO Bu ⊂ WO\ WO Br kann aufgrund einer höheren Qualifikation sowohl für Abbau- als auch Aufbauaufträge eingeplant werden. Hinsichtlich der Bedienung der Arbeitsstationen wird keine Unterscheidung der Qualifikation vorgenommen. Ein Beispiel mit drei Aufträgen und drei Maschinen sowie zwei Mitarbeitern ist in Abbildung 2.5 dargestellt. Bleibt das Personal unberücksichtigt, so könnte durch eine Ablaufplanung der Ablaufplan in Abbildung 2.5(a) realisiert werden. Wird das Personal jedoch als beschränkende Ressource berücksichtigt, so ergibt sich der Ablaufplan in Abbildung 2.5(b), bei dem Mitarbeiter wo 1 Auftrag a 2 erst nach der Abarbeitung von a 1 durchführen kann. 94 Diese Einschränkung ergibt sich dann, wenn weniger Personal als Arbeitsstationen zur Verfügung steht bzw. wenn durch größere Aufträge so viel Personal gebunden ist, dass nicht jede Arbeitsstation zur gleichen Zeit bedient werden kann. Ein Grund dafür, weniger Personal als Arbeitsstationen vorzuhalten, kann bspw. damit motiviert sein, mit der Ressource„Personal“ effizienter umzugehen bzw. Personalkosten einzusparen. 30 2 Problemstellung 2.2.2.4 Berücksichtigung der Förderkapazitäten Wie in Abschnitt 2.2 bereits erwähnt, erzeugen die durch die Ablaufplanung erstellten Ablaufpläne Belastungen im Lager(sowohl in den Sendungslagern als auch in dem ULD-Lager) und für die innerbetrieblichen Transportsysteme, die Lager und Arbeitsstationen miteinander verbinden. Übersteigt der sich aus einem Ablaufplan ergebene Materialfluss zu bzw. von einer Arbeitsstation die maximalen Förderkapazitäten der beteiligten Transportsysteme, so sind diese als weitere einschränkende Ressource zu betrachten. Aufbauaufträge können nur aktiv durch das eingeplante Personal bearbeitet werden, wenn ein leeres Ladehilfsmittel für das Flugzeug und mindestens eine Ladeeinheit aus dem Sendungslager(hier: Gitterbox) mit der benötigten Fracht für den Auftrag an der Arbeitsstation vorhanden ist. Ein überlastetes Transportsystem kann hier zu Wartezeiten an der Arbeitsstation führen. Bei Aufbauaufträgen ist der Bedarf, d. h. die Anzahl der durch das Transportsystem zu bewegenden Gitterboxen aus dem Sendungslager, bereits zum Zeitpunkt der Ablaufplanung bekannt. Für Abbauaufträge gelten die gleichen Einschränkungen, allerdings ist hier der tatsächliche Bedarf an benötigten Ladehilfsmitteln aus dem Sendungslager zur Vereinzelung der Fracht aus der Flugzeugladeeinheit nicht im Vorhinein exakt bekannt. Daher kann im Laufe eines Abbauauftrags die Notwendigkeit entstehen, weitere leere Gitterboxen aus dem Sendungslager anzufordern. Es wird angenommen, dass die Route, die eine Ladeeinheit im Lager und auf dem Transportsystem verwendet, eindeutig 95 durch den Ausgangs- und Zielpunkt der Ladeeinheit bestimmt ist. Daher sind die Transportwege sowie die Belastungen der einzelnen Routen durch einen Ablaufplan determiniert. Somit besteht ein Entscheidungsproblem. Auf der einen Seite sollte ein Auftrag der Arbeitsstation zugewiesen werden, für den die dem Auftrag zugehörige Fracht aus dem Lager eine möglichst kurze Route zurückzulegen hat und dadurch möglichst wenig Transportzeit benötigt wird. Auf der anderen Seite kann dieses Vorgehen dazu führen, dass einige Routen überlastet werden und die Transportzeit hierdurch steigt. In diesem Fall ist die Zuweisung einer weiter entfernten Arbeitsstation sinnvoll, sofern die hieraus resultierende längere Transportzeit nicht zu einer Überschreitung des für den Auftrag geltenden Fälligkeitstermins führt. Ziel der Berücksichtigung der Förderkapazitäten bei der Ablaufplanung ist es daher, diesen Trade-off in Hinblick auf die für die Aufträge geltenden Fälligkeitstermine zu lösen. 2.2.3 Ablaufsteuerung der Abfertigungsprozesse Der für einen bestimmten in die Zukunft reichenden Zeitraum erstellte Ablaufplan ist durch ein Ablaufsteuerungssystem auszuführen und zu überwachen. Die einer Arbeitsstation zugeordneten Aufträge werden dabei sukzessiv von dem für den Auftrag eingeplantem 95 Die bei einigen komplexen Systemen(auf Basis von Echtzeitinformationen über die aktuelle Belastungssituation) während der Ausführung dynamisch erzeugten Alternativrouten(vgl. z. B.[XZMC14]; [SCXL10];[MCLL09];[CLM06]) werden im Rahmen der hier durchgeführten Ablaufplanung nicht berücksichtigt. Der Fokus liegt hier auf der Erstellung von Ablaufplänen, die zu keinen Belastungssituationen führen, die eine Verwendung von Alternativrouten notwendig machen. 2.2 Problemfelder der Ablaufplanung und-steuerung 31 Personal abgearbeitet und durch die mobile Datenerfassung wird der aktuelle Fortschritt an das Ablaufsteuerungssystem gemeldet. Dieses führt einen Soll-/Ist-Vergleich der realisierten und geplanten Zeiten durch und kann so Abweichungen identifizieren. Des Weiteren werden durch die Ablaufsteuerung unregelmäßige, d. h. nicht vorhersehbare, Ereignisse(wie z. B. der Ausfall einer Arbeitsstation) erkannt, die die Ausführung des Ablaufplans beeinträchtigen. Nicht jede Abweichung von den geplanten Endzeitpunkten der Aufträge führt zu einer Störung im Sinne einer Änderung der Anzahl säumiger Aufträge. Hierfür wurden bei der Ablaufplanung Informationen über Unsicherheiten bei den Bearbeitungszeiten berücksichtigt. Erst die Überschreitung des für einen Auftrag angenommenen Intervalls der Bearbeitungszeit führt zu einer Störung, dessen Auswirkungen betrachtet werden müssen. Die Auswirkungen sind entweder durch lokale Änderungen an dem Ablaufplan zu kompensieren, sodass der Gesamtplan nicht beeinträchtigt wird(bspw. zusätzliches Personal) oder die Ablaufplanung muss erneut durchgeführt werden. In diesem Fall sind bereits getroffene Entscheidungen des derzeit aktiven Ablaufplans bei der Umplanung durch die Ablaufplanung zu berücksichtigen und möglichst wenige Änderungen vorzunehmen. Für die erkannten Ereignisse können nach Ouelhadj& Petrovic 96 ressourcenbezogene sowie auftragsbezogene Ereignisse unterschieden werden. Erstere beziehen sich auf die Ressourcen, die für die Ausführung eines Auftrags benötigt werden. Beispiele für Ereignisse im Kontext des Luftfrachtterminals sind z. B.: • der Ausfall einer Arbeitsstation oder Teilen des Transportsystems zur Ver- und Entsorgung mit der benötigten Fracht, • die Nichtverfügbarkeit von Personal • sowie die Nichtverfügbarkeit von Fracht durch verzögerte Abbauaufträge. Auftragsbezogene Ereignisse hingegen beziehen sich direkt auf die Aufträge, wie z. B.: • eine Bearbeitungszeit, die nicht innerhalb des Bearbeitungszeitintervalls des Auftrags liegt, • das Eintreffen von Eilaufträgen, • der Abbruch von Aufträgen oder die Änderung der Auftragspriorität. Auch diese Ereignisse erfordern lokale Änderungen am Ablaufplan bzw. eine Neu- oder Umplanung unter Verwendung der Ablaufplanung, die von der periodisch durchgeführten Ablaufplanung abweicht. 96 Vgl.[OP09], S. 418. 32 2 Problemstellung 2.3 Anforderungen an die Verfahren zur Problemlösung Im Folgenden werden basierend auf dem beschriebenen Problem der Planung und Steuerung der Abfertigungsprozesse in einem Luftfrachtterminal die Anforderungen an die Verfahren der einzelnen Problemfelder definiert. 2.3.1 Anforderungen an ein Verfahren zur Datenanalyse der Abfertigungsprozesse Die folgenden Anforderungen ergeben sich für ein Verfahren, das auf Basis historischer Betriebsdaten über vergangene Auf-, Abbau- und Transferaufträge Informationen über die Bearbeitungszeitunsicherheiten der Abfertigungsprozesse ermittelt: • Extraktion von Clustern ähnlicher Aufträge auf Basis historischer Betriebsdaten Historische Betriebsdaten über vergangene Abfertigungsprozesse wurden als wichtige Quelle für Informationen über Unsicherheiten der Bearbeitungszeiten von Aufträgen identifiziert. Da die Aufträge in ihren Eigenschaften selten vollständig identisch sind, sollte das Verfahren daher in der Lage sein, Cluster ähnlicher Aufträge zu bilden. Hierbei sind unterschiedliche Skalenniveaus und Wertebereiche der Eigenschaften zu berücksichtigen. • Ermittlung von Häufigkeitsverteilungen für die Cluster Informationen über die Bearbeitungszeiten von Aufträgen eines Clusters sind durch das Verfahren geeignet, zu Häufigkeitsverteilungen zu aggregieren, um Informationen für die Prognose von Bearbeitungszeiten neuer Aufträge bereitzustellen. • Ermittlung von Bearbeitungszeitintervallen für die Cluster Auf Basis der Häufigkeitsverteilungen soll es möglich sein, für die Cluster Bearbeitungszeitintervalle zu definieren, die bei Erstellung robuster Ablaufpläne und der Absicherung gegen die ungünstigste Umweltsituation Verwendung finden. • Klassierung neuer Aufträge anhand von Eigenschaften Für neu eintreffende Aufträge ist eine genaue Abschätzung der Bearbeitungszeit essenziell. Anhand auftragsspezifischer Eigenschaften sollte das Verfahren mit Hilfe einer Klassierung in der Lage sein, Verteilungsinformationen über die Bearbeitungszeit des Auftrags zu gewinnen. • Ausgabe der Zugehörigkeitswahrscheinlichkeit Das Verfahren zur Klassierung sollte neben der Ermittlung eines Clusters Informationen über die Konfidenz der Clusterzugehörigkeit in Form von Zugehörigkeitswahrscheinlichkeiten ausgeben. 2.3 Anforderungen an die Verfahren zur Problemlösung 33 2.3.2 Anforderungen an ein Verfahren zur multikriteriellen Ablaufplanung der Abfertigungsprozesse Die folgenden Anforderungen ergeben sich für ein Verfahren zur multikriteriellen Ablaufplanung unter Unsicherheit für die Abfertigungsprozesse(Auf-, Abbau und Transferaufträge) in einem Luftfrachtterminal: • Verwendung des Klassifikators und der verfügbaren Informationen über die Bearbeitungszeitunsicherheiten Das Ablaufplanungsverfahren soll den Klassifikator nutzen, um für neu einzuplanende Aufträge Informationen über die Verteilung ihrer Bearbeitungszeiten bzw. die Bearbeitungszeitintervalle zu ermitteln, und diese entsprechend innerhalb des Verfahrens verwenden, um robuste Ablaufpläne zu erstellen. • Keine explizite Konzentration auf den Worst Case Das Verfahren sollte parametrierbar sein, sodass ein bestimmtes Anspruchsniveau durch den Entscheidungsträger vorgegeben werden kann, das von einem Ablaufplan unter jeder möglichen Realisierung der Bearbeitungszeiten der Aufträge eingehalten wird. • Berücksichtigung der dynamischen und stochastischen Umgebung Die sich aus der der dynamischen und stochastischen Umgebung ergebenden Zielfunktionen der Stabilität und Robustheit sind durch das Verfahren in Kombination mit dem Performancemaß(Anzahl säumiger Aufträge) als multikriterielles Ablaufplanungsproblem zu betrachten und als Mehrzieloptimierungsproblem zu berücksichtigen. • Betrachtung des Personals als einschränkende Ressource Die beschränkt zur Verfügung stehende Ressource„Personal“ ist durch das Verfahren bei der Generierung von Ablaufplänen zu berücksichtigen. Hierbei sind zudem weitere Restriktionen, wie die unterschiedliche Qualifikation der Mitarbeiter und die benötigte Personalstärke, für einen Auftrag zu beachten. • Betrachtung der Transportsysteme als einschränkende Ressource Das Verfahren soll die durch den Ablaufplan erzeugte Belastung der Transportsysteme bereits bei der Planerstellung berücksichtigen, um somit einer Überlastsituation vorzubeugen. • Beherrschung der Komplexität Aufgrund des Einsatzes des Verfahrens für reale Problemgrößen und der Berücksichtigung der Unsicherheit ist die Ablaufplanung mit einer erheblichen Komplexität verbunden. Das Verfahren sollte daher innerhalb der zur Verfügung stehenden Zeit eine Lösung liefern können bzw. jeder Zeit unterbrechbar sein und den bis dahin besten Ablaufplan zurückliefern. 34 2 Problemstellung 2.3.3 Anforderungen an ein Verfahren zur Ablaufsteuerung der Abfertigungsprozesse Folgende Anforderungen können für ein Verfahren zur Revision von Ablaufplänen in einer dynamischen Umgebung genannt werden: • Berücksichtigung eines bereits aktiven Ablaufplans Das Verfahren zur Ablaufsteuerung hat beim Eintreten eines Ereignisses und der Revision des aktuell ausgeführten Ablaufplans zu berücksichtigen, dass bereits getroffene Entscheidungen dieses Plans möglichst wenig geändert werden sollten. • Schnelle Entscheidungsfindung Beim Eintreten eines Ereignisses sollte das Verfahren möglichst schnell einen neuen zulässigen Ablaufplan generieren. 35 3 Stand der Forschung In den folgenden Abschnitten wird ein Überblick über den relevanten Stand der Forschung hinsichtlich der im vorherigen Kapitel identifizierten Problemfelder gegeben. Es werden bereits bekannte Arbeiten und Lösungsverfahren betrachtet und auf ihre Eignung hinsichtlich der definierten Anforderungen an eine Ablaufplanung und-steuerung für Luftfrachtterminals untersucht. Der Aufbau dieses Kapitels orientiert sich an den drei Problemfeldern. In Abschnitt 3.1 werden zunächst Verfahren vorgestellt, die den beschriebenen benötigten Informationsstand auf Basis historischer Daten ermitteln. Anschließend werden in Abschnitt 3.2 bestehende Ansätze zur Ablaufplanung unter Unsicherheit und in Abschnitt 3.3 zur Ablaufsteuerung und Revision von Ablaufplänen untersucht. Das Kapitel schließt in Abschnitt 3.4 mit einer Bewertung der vorgestellten Verfahren. 3.1 Datenanalyse und Wissensextraktion aus Datenquellen Ausgehend von dem in Abschnitt 2.2.1 beschriebenen Problem der Datenanalyse der Abfertigungsprozesse wurden historische Betriebsdaten über Frachtabfertigungsaufträge als wichtige Informationsquelle identifiziert. Diese Informationen liegen jedoch häufig als Rohdaten in Datenbanken vor, die zur Prognose von Bearbeitungszeiten nicht direkt verwendet werden können. Daher ist die Datenbasis entsprechend aufzubereiten, um den benötigten Informationsstand über die unsicheren Bearbeitungszeiten der Frachtabfertigungsaufträge zu ermitteln. Dieser Informationsstand unterscheidet sich von der Datenbasis dahingehend, dass die Daten in einer aggregierten, abstrakten und für die spätere Ablaufplanung besser verwertbaren Form vorliegen. 1 Die zuvor genannten Eigenschaften werden in der Literatur im Bereich des Knowledge Discovery in Databases (KDD) behandelt, welches sich als interdisziplinäres Forschungsgebiet mit Schwerpunkten im Bereich der Statistik, des maschinellen Lernens und Datenbanksystemen versteht. 2 Fayyad et al. definieren KDD als„the non-trivial process of identifying valid, novel, potentially useful, and ultimately understandable patterns in data.“ 3 Den KDD-Prozess bezeichnen die Autoren als interaktiven und iterativen Prozess und definieren ein Prozessmodell, das sich in neun Schritte unterteilt. Dieses reicht von der Entwickelung 1 Vgl.[FPS96a], S. 37. 2 Vgl. z. B.[ES00], S. 1. Fayyad et al. führen zusätzlich die Forschungsgebiete„pattern recognition“, „artificial intelligence“,„knowledge acquisition for expert systems“ sowie„data visualization“ an (siehe[FPS96b], S. 4). 3 [FPS96b], S. 6. 36 3 Stand der Forschung eines Domänenverständnisses und der Definition einer Zieldefinition bis zur Nutzung des erhaltenen Wissens. 4 Neben dem von Fayyad et al. beschriebenen Prozessmodell existieren weitere Modelle, die in der Folge entstanden sind. Eine Übersicht und einen Vergleich dieser Modelle liefern Kurgan& Musilek. 5 Die Autoren fassen den Begriff KDD weiter, indem sie ihn auf beliebige Datenquellen erweitern und somit Prozessmodelle für Knowledge Discovery and Data Mining (KDDM) beschreiben. Der Hauptunterschied der beschriebenen Prozessmodelle liegt in der Anzahl und dem Umfang durchzuführender Schritte sowie der Fokussierung auf einen industriellen oder akademischen Kontext. 6 Die Bezeichnung KDDM weist bereits auf die zentrale Rolle hin, die das DataMining (DM) in diesen Prozessmodellen einnimmt. Die Begriffe Knowledge Discovery und DM werden häufig synonym verwendet, 7 dabei ist DM nach Fayyad et al. 8 lediglich als ein Teilschritt im Gesamtprozess des KDDM bzw. KDD zu sehen. Die Autoren definieren daher DM als„a step in the KDD process that consists of applying data analysis and discovery algorithms that, under acceptable computational efficiency limitations, produce a particular enumeration of patterns(or models) over the data.“ 9 Als die zwei Hauptziele von DM-Algorithmen sehen Fayyad et al. 10 die Prognose und die Beschreibung. Erstere wird dazu genutzt, um auf Basis von Eigenschaften der Daten zukünftige Werte von anderen Eigenschaften zu bestimmen. Die Beschreibung dient dazu, die aktuellen Daten in einer für Benutzer verständlichen Form aufzubereiten. Diese beiden Ziele werden durch die Anwendung verschiedener DM-Verfahren erreicht, die in verschiedene Verfahrensklassen unterteilt werden können. 11 In den folgenden Abschnitten liegt der Fokus auf dem siebten Schritt(die eigentliche Datenanalyse durch DM-Algorithmen) des Prozessmodells nach Fayyad et al. Des Weiteren erfolgt eine Einschränkung auf die beiden DM-Verfahrensklassen Clustering bzw. Klassenbildung sowie Klassifizierung. Erstere liefert Verfahren zur Behandlung der im Abschnitt 2.3.1 aufgezeigten Anforderung, Cluster ähnlicher Aufträge zu extrahieren. Letztere stellt Verfahren zur Klassierung zur Verfügung und adressiert somit die in Abschnitt 2.3.1 definierte Anforderung, neue Aufträge anhand ihrer Eigenschaften klassieren zu können. Den Abschluss bildet ein Literaturüberblick. 3.1.1 Verfahren für den Aufgabenbereich der Klassenbildung In Abschnitt 2.2.1.2 wurde bereits aufgezeigt, dass historische Aufträge hinsichtlich ihrer Eigenschaften selten identisch sind. Hieraus wurde die Notwendigkeit abgeleitet, Cluster 4 Vgl.[FPS96b], S. 9 ff. sowie[FPS96c], S. 30 f. Vergleiche zudem Ester& Sander[ES00], S. 2–6, sowie Sharafi[Sha13], S. 60–64, für eine umfangreichere Diskussion der einzelnen Schritte des Prozessmodells. 5 Siehe[KM06]. 6 Siehe ebd., S. 5. 7 Vgl.[KM06], S. 2;[Pia07], S. 100;[HKP12], S. 6. 8 Vgl.[FPS96a], S. 39. 9 Ebd., S. 41. 10 Siehe[FPS96b], S. 12. 11 Siehe ebd., S. 13–16. Petersohn führt ähnliche DM-Verfahrensklassen an(siehe[Pet05], S. 25–34). 3.1 Datenanalyse und Wissensextraktion aus Datenquellen 37 ähnlicher Aufträge zu bilden. Nachfolgend wird daher eine Übersicht über Klassenbildungsbzw. Clusterverfahren gegeben. Das Ziel der Klassenbildungsverfahren(auch: Clusteranalyse) ist die Partitionierung einer Menge X={ x 1 ,..., x n } von Datenobjekten in eine endliche Menge von k Clustern C ={C 1 ,..., C k }, wobei die einzelnen Cluster C i mit 1 ≤ i ≤ k aus den Daten bestimmt werden müssen. Die Menge C ist eine Partition von X für die die folgenden Eigenschaften gelten: 12 k C i = C = X i =1 und (3.1a) C i ∩ C j = ∅( i = 1 ,..., k ; j = 1 ,..., k ; i = j )(3.1b) Die erste Eigenschaft beschreibt, dass jedes Datenobjekt einem der Cluster zugeteilt ist. Die zweite Eigenschaft gibt an, dass die Cluster disjunkt 13 sind und somit kein Datenobjekt gleichzeitig mehreren Clustern angehört. Datenobjekte, die zu einem Cluster gehören, sind dabei einander besonders ähnlich, wohingegen sie zu Datenobjekten anderer Cluster besonders unähnlich sind. Die Durchführung der Clusteranalyse gliedert sich nach Jain& Dubes 14 in fünf Schritte, wobei die ersten drei verpflichtend und die letzten beiden optional sind: 1. Festlegen der Daten- bzw. Musterrepräsentation 2. Definition eines Proximitätsmaßes 3. Durchführung der Klassenbildung bzw. der Clusteranalyse 4. Abstraktion der Daten 5. Evaluation der Ausgabe des Clusteringverfahrens Im ersten Schritt findet eine Auswahl von Eigenschaften(engl. features 15 ) statt, die jedes Datenobjekt charakterisieren. 16 Hierbei kann zwischen Eigenschaftsselektion und Eigenschaftsextraktion unterschieden werden. 17 Erstere wählt aus den vorhandenen Eigenschaften diejenigen aus, die für die Clusteranalyse am geeignetsten erscheinen. Hingegen erzeugt die Eigenschaftsextraktion aus den vorhandenen Eigenschaften durch Transformation neue Eigenschaften. Jedes Datenobjekt x j wird somit durch einen d -dimensionalen 12 Vgl.[Pet05], S. 91;[KP96], S. 439;[JD88], S. 58. 13 Klassenbildungsverfahren, bei denen ein Datenobjekt zu mehreren Clustern gehören kann(z. B. Fuzzy Clustering oder probabilistische modell-basierte Clusterverfahren), werden in dieser Arbeit nicht betrachtet. Vergleiche z. B.[KR90], S. 164–197;[HKKR99] oder[JMF99], S. 281 f., für Fuzzy Clustering und[FR02] oder[HKP12], S. 497–508 für probabilistische modell-basierte Clusterverfahren. 14 Vgl.[JD88] und[JMF99], S. 266 ff. Vgl. ebenfalls[AF07], S. 1–4, sowie[Jai10], S. 656–660. 15 Weitere gebräuchliche Begriffe sind attribute, dimension und variable(vgl.[HKP12], S. 40). 16 Vgl. Schritt 4 des KDD-Prozesses. 17 Siehe[AF07], S. 1 f. 38 3 Stand der Forschung Eigenschaftsvektor e x j =( e x j , 1 ,..., e x j ,d ) beschrieben, wobei e x j ,p mit 1 ≤ p ≤ d den Wert der p -ten Eigenschaft beschreibt. Die Menge der zu gruppierenden Datenobjekte X wird somit durch die Eigenschaftsvektoren beschrieben. Diese Repräsentation wird von Jain& Dubes als„ n × d pattern matrix “ 18 bezeichnet. Jede Zeile dieser Matrix entspricht einer Musterrepräsentation eines Datenobjekts und jede Spalte der entsprechenden Eigenschaft. 19 Die Eigenschaften können hierbei nach ihrem Typ sowie ihrer Skalierung charakterisiert werden. 20 Der Typ der Eigenschaft kann binär(zwei mögliche Ausprägungen), diskret(endliche oder abzählbar unendliche Menge möglicher Ausprägungen) oder stetig(überabzählbare Menge möglicher Ausprägungen) sein. 21 Weiterhin können die Eigenschaften nominal, ordinal sowie kardinal(Intervall und Verhältnis) skaliert sein. 22 Für die Zuordnung von Datenobjekten zu Clustern muss die Ähnlichkeit bzw. Unähnlichkeit der Datenobjekte zueinander quantifiziert werden können. Dies geschieht über sogenannte Proximitätsmaße. Diese Maße können in Ähnlichkeitsmaße, die die Ähnlichkeit zweier Datenobjekte zueinander bestimmen, und Unähnlichkeitsmaße bzw. Distanzmaße unterteilt werden. Das zu verwendende Proximitätsmaß wird in Abhängigkeit der Typen und Skalierung der vorhandenen Eigenschaften ausgewählt. Bezeichne dist( x i , x j ) die Proximität zwischen den beiden Datenobjekten, die durch die Eigenschaftsvektoren e x i und e x j charakterisiert werden. Für das Maß gelten die folgenden Eigenschaften: 23 1. Identität: a) Für ein Distanzmaß: dist( x i , x i )= 0( i = 1 ,..., n ) b) Für ein Ähnlichkeitsmaß: dist( x i , x i ) ≥ max l dist( x i , x l )( i = 1 ,..., n ) 2. Symmetrie: dist( x i , x j )= dist( x j , x i )( i = 1 ,..., n ; j = 1 ,..., n ) 3. Nichtnegativität: dist( x i , x j ) ≥ 0( i = 1 ,..., n ; j = 1 ,..., n ) Für stetige und kardinal 24 skalierte Eigenschaften wird häufig eine Minkowski-Metrik verwendet, die die Distanz zwischen zwei Datenobjekten berechnet. Diese Metrik ist folgendermaßen definiert: 25 dist( x i , x j )= d | e x i ,p − e x j ,p | r p =1 1 r mit r ≥ 1 18 [JD88], S. 8. 19 Siehe ebd. 20 Vgl.[And73], S. 26 f.;[JD88], S. 12. 21 Vgl.[And73], S. 26 f.;[JD88], S. 12. 22 Vgl.[And73], S. 27;[AF07], S. 4. 23 Vgl.[JD88], S. 14;[Ye03], S. 290;[Lar05], S. 99;[HKP12], S. 72 f. 24 Kaufman& Rousseeuw beschreiben einen zweiten Ansatz, bei dem verhältnisskalierte Eigenschaften zunächst logarithmisch transformiert und anschließend als intervallskalierte Eigenschaften behandelt werden(vgl.[KR90], S. 32). 25 Vgl.[JD88], S. 14;[AF07], S. 6. 3.1 Datenanalyse und Wissensextraktion aus Datenquellen 39 Die Minkowski-Metriken erfüllen zusätzlich zu den vorgenannten Eigenschaften die zwei folgenden: 26 1. Identität: dist( x i , x j )= 0 gdw. e x i ,p = e x j ,p ( p = 1 ,..., d ) 2. Dreiecksungleichung: dist( x i , x l ) ≤ dist( x i , x j )+ dist( x j , x l )( i, j, l = 1 ,..., n ) In Abhängigkeit des Parameters r werden verschiedene Minkowski-Metriken definiert. Mit r = 1 wird die Manhattan-Distanz 27 mit r = 2 die euklidische Distanz und mit r = ∞ die Chebyshev-Distanz 28 berechnet. 29 Die Distanzberechnung für binäre 30 sowie nominal 31 oder ordinal 32 skalierte Eigenschaften erfolgt durch andere Proximitätsmaße als die zuvor beschriebenen. Für Datenobjekte, die durch verschiedene(hybrid) skalierte Eigenschaften charakterisiert werden, schlagen Han et al. 33 vor, diese in einer Distanzfunktion zu behandeln: 34 dist( x i , x j )= d p =1 δ i ( ,pj ) dist ( i,pj ) d p =1 δ i ( ,pj ) mit   0 , wenn 1) e x i ,p = null ∨ e x j ,p = null δ i ( ,pj ) =  1 2) e x i ,p = e x j ,p = 0 mit p asymmetrisch binär in allen anderen Fällen Der Anteil der Eigenschaft p an der Distanz wird über dist ( i,pj ) beschrieben und abhängig von der Skalierung der Eigenschaft berechnet. Für ordinal skalierte Eigenschaften wird der Wert zunächst normiert und anschließend wird so verfahren, als sei dieser kardinal skaliert. Für kardinalskalierte Eigenschaften wird für dist ( i,pj ) die Manhattan-Distanz verwendet, wobei eine Normierung auf das Intervall[0 , 1] stattfindet: dist ( i,pj ) = | e x i ,p − e x j ,p | max l ( e x l ,p ) − min l ( e x l ,p ) Schließlich werden binäre und nominal skalierte Eigenschaften folgendermaßen berechnet: dist i ( ,pj ) = 0 , 1 wenn e x i ,p = e x j ,p in allen anderen Fällen 26 Vgl.[JD88], S. 14 f. 27 Auch als City-Block oder Taxifahrer-Distanz bezeichnet. 28 Wird ebenfalls als Supremum-Distanz, L max sowie L ∞ -Norm bezeichnet(vgl.[HKP12], S. 73). 29 Vgl.[JD88], S. 15. 30 Vgl.[JD88], S. 16–19;[KR90], S. 22–27;[HKP12], S. 70 ff. 31 Vgl.[KR90], S. 28 f.;[HKP12], S. 68 ff. 32 Vgl.[KR90], S. 29 ff.;[HKP12], S. 74 f. 33 [HKP12], S. 75 f. 34 Siehe ebenfalls[KR90], S. 32–37, sowie Gower[Gow71], auf den dieser Ansatz zurückzuführen ist. Gower betrachtet jedoch lediglich intervall- und nominalskalierte sowie Binärdaten, für die ein Ähnlichkeitsmaß entwickelt wird. 40 3 Stand der Forschung Der dritte Schritt – die eigentliche Durchführung der Klassenbildung – kann nach Petersohn 35 durch multivariate statistische Verfahren(Clusteranalyse) oder mittels künstlicher neuronaler Netze(Competitive Strategien) 36 erfolgen. Die multivariaten statistischen Verfahren lassen sich weiter in hierarchische sowie partitionierende Verfahren unterteilen, 37 auf die in den Abschnitten 3.1.1.1 und 3.1.1.2 näher eingegangen wird. Im vierten Schritt erfolgt eine kompakte und vereinfachte Repräsentation der ermittelten Cluster und somit eine weitere Abstraktion der Daten. Diese kann einerseits auf eine einfache Verständlichkeit für Benutzer abzielen. Andererseits können die Cluster so aufbereitet werden, dass sie für eine automatische Verarbeitung besser geeignet sind. Eine Abstraktion eines Clusters kann bspw. in Form der Angabe eines Clusterzentrums 38 z i erfolgen. Dieses entspricht je nach angewendetem Clusterverfahren z. B. dem Mittelwert aller in dem Cluster enthaltenen Datenobjekte und somit einem Vektor e z i . 39 Im letzten Schritt der Clusteranalyse erfolgt eine Evaluation der Ausgabe des Clusteringverfahrens. Hier lässt sich eine Analyse der Ursprungsdaten auf die Tendenz hin, Cluster zu enthalten, von der Analyse des eigentlichen Outputs des Clusteringverfahrens unterscheiden. 40 Erstere soll die Anwendung von Clusterverfahren auf Daten, die keine Cluster enthalten, vermeiden. 41 Letztere dient dazu, die Validität der ermittelten Cluster zu beurteilen. Hierbei unterscheiden Jain& Dubes 42 drei Kriterien zur Beurteilung der Validität: Externe Kriterien , die auf einem Vergleich der gefundenen Struktur mit einer bereits bekannten Struktur beruhen. Interne Kriterien zur Beurteilung der Eignung der gefundenen Struktur für die vorhanden Daten sowie relative Kriterien zum Vergleich der Leistung zweier Strukturen. 3.1.1.1 Hierarchische Verfahren Ein hierarchisches Clustering entspricht nach Jain& Dubes 43 einer Sequenz von Partitionen 44 C i für eine Menge von zu clusternden Datenobjekten X, wobei jede Partition C i in die nächste Partition C j mit 1 ≤ i< j ≤ n der Sequenz geschachtelt ist. Eine Partition C i ist in die Partition C j geschachtelt, wenn die folgende Bedingung gilt: C ⊂ C ∀C ∈ C i ∧ ∀C ∈ C j Die hierarchischen Clusterverfahren lassen sich weiterhin anhand der verwendeten Strategie in agglomerative(Bottom-up-Strategie) sowie divisive(Top-down-Strategie) 35 Siehe[Pet05], S. 26 f. 36 Die Klassenbildung mittels künstlicher neuronaler Netze wird hier nicht weiter betrachtet. Für eine ausführliche Auseinandersetzung siehe[Pet05], S. 73–91. 37 Han et al. führen weiter dichtebasierte(vgl.[HKP12], Kapitel 10.4) sowie rasterbasierte(vgl. ebd., Kapitel 10.5) Methoden an, auf die hier nicht näher eingegangen werden soll. 38 Häufig auch Clusterschwerpunkt, Clustermittelpunkt oder Zentroid(engl. centroid) genannt. 39 Vgl.[AF07], S. 3;[JMF99], S. 267. 40 Vgl.[AF07], S. 3 f.;[JMF99], S. 267 f. 41 Zur Beurteilung der Clustertendenz sei auf[JD88], S. 201–222, verwiesen. 42 Siehe ebd., S. 161. 43 Siehe ebd., S. 58 f. 44 Vgl. Gleichung(3.1). 3.1 Datenanalyse und Wissensextraktion aus Datenquellen 41 Clusterverfahren unterteilen. 45 Erstere gehen initial davon aus, dass jedes Datenobjekt aus X ein eigenes Cluster bildet. Diese werden dann schrittweise zusammengefasst, bis alle Elemente Teil eines Clusters sind bzw. ein Abbruchkriterium erreicht worden ist. Divisive Verfahren führen diesen Prozess in umgekehrter Reihenfolge durch und starten mit einem Cluster, in dem alle Datenobjekte vorhanden sind, das schrittweise in kleinere Cluster aufgeteilt wird, bis jedes Cluster nur noch ein Objekt enthält bzw. ein Abbruchkriterium erreicht worden ist. Eine Visualisierung des Clusteringprozesses kann für eine begrenzte Anzahl an Datenobjekten in Form eines Dendrogramms erfolgen. 46 Für die Durchführung eines agglomerativen hierarchischen Clusterings wird ein Proximitätsmaß 47 zur Berechnung des Abstandes zwischen zwei Datenobjekten sowie ein Fusionierungsalgorithmus(engl. linkage criteria/measures ) zur Bestimmung des Abstandes zwischen zwei Clustern benötigt. 48 Häufig verwendete Fusionierungsalgorithmen zur Berechnung des Abstandes zweier Cluster C i und C j sind: • Single-linkage: dist SL ( C i , C j )= min dist( x, x ) x ∈C i , x ∈C j • Complete-linkage: dist CL ( C i , C j )= max x ∈C i , dist( x, x ) x ∈C j • Average-linkage: dist AL ( C i , C j )= 1 |C i ||C j | x ∈C i , dist( x, x ) x ∈C j • Mean distance: dist MD ( C i , C j )= dist( z i , z j ), mit z i dem Clusterzentrum von C i und z j dem Clusterzentrum von C j Fusioniert werden jeweils diejenigen zwei Cluster, die auf Basis der zuvor beschriebenen Distanzen den geringsten Abstand besitzen. Für die ersten beiden Fusionierungsalgorithmen stehen mit SLINK 49 für single-linkage und CLINK 50 für complete-linkage zwei optimal effiziente Verfahren mit der Komplexität O( n 2 ) zur Verfügung. Im Gegensatz zu den agglomerativen Verfahren besitzen divisive Verfahren eine Komplexität von O(2 n ), da es 2 n − 1 − 1 Möglichkeiten gibt, ein Cluster mit n Objekten in zwei disjunkte Cluster zu zerlegen. 51 Aus diesem Grund werden für divisive Verfahren Heuristiken verwendet. Kaufman& Rousseeuw 52 beschreiben auf Basis des von Macnaughton-Smith et al. 53 vorgeschlagenen Algorithmus ein iteratives Verfahren. Dieses bestimmt in jeder Iteration das Cluster C i mit dem größten Durchmesser 54 und wählt 45 Vgl.[HTF09], S. 520;[Ber06], S. 27;[HMS01], S. 308. 46 Vgl.[JD88], S. 59. 47 Vgl. Abschnitt 3.1.1. 48 Vgl.[HKP12], S. 461;[HTF09], S. 523 f.;[GMW07], S. 116–137. 49 Siehe[Sib73]. 50 Siehe[Def77]. 51 Siehe[HKP12], S. 461;[KR90], S. 253 f. 52 Siehe[KR90], Kapitel 6. 53 Siehe[MWDM64]. 54 Der Durchmesser entspricht der maximalen Distanz aller Objekte eines Clusters. 42 3 Stand der Forschung aus diesem ein Objekt aus, das die größte durchschnittliche Distanz zu allen anderen Objekten dieses Clusters besitzt. Dieses Objekt bildet das Zentrum eines neuen Clusters 55 C j . Objekte aus C i , deren durchschnittliche Distanz zu Objekten aus C j geringer ist als zu den verbliebenen Objekten in C i , werden dem neuen Cluster zugeordnet. 3.1.1.2 Partitionierende Verfahren Im Vergleich zu den hierarchischen Verfahren wird durch partitionierende Verfahren lediglich eine Partition C von Clustern für die zu clusternden Datenobjekte X erstellt. 56 Jain& Dubes definieren diese Art der Clusteranalyse wie folgt: „Given n patterns in a d -dimensional metric space, determine a partition of the patterns into K groups, or clusters, such that the patterns in a cluster are more similar to each other than to patterns in different clusters.“ 57 Zur Durchführung einer partitionierenden Clusteranalyse wird ein Clusteringkriterium sowie häufig die Angabe der Anzahl k der zu bildenden Cluster a priori 58 benötigt. Zur Erreichung eines globalen Optimums ist eine vollständige Enumeration aller möglichen Partitionen notwendig. Dieses Vorgehen ist allerdings bereits für wenige Objekte aufgrund der sehr hohen Anzahl möglicher Partitionierungsmöglichkeiten nicht zielführend. 59 Aus diesem Grund werden häufig iterative Verfahren verwendet, die ausgehend von einer initialen Partitionierung Objekte zwischen den k Clustern austauschen, um den Wert des gewählten Clusteringkriteriums bis zu einem lokalen Optimum hin zu verbessern. Die Clusteringkriterien lassen sich nach Jain& Dubes 60 in globale sowie lokale Kriterien unterteilen. Erstere verwenden einen Prototypen(z. B. das Clusterzentrum), um das Cluster zu repräsentieren. Zu dieser Gruppe gehören Kriterien, die Varianten der (quadratischen) Abweichung/Fehler darstellen. Auch das Kriterium, das eine Mischverteilung an die Objekte aus X anpasst, gehört zu dieser Gruppe. Lokale Kriterien hingegen verwenden lokale Strukturen der Daten, um Cluster zu erzeugen. Hierzu gehören z. B. dichtebasierte bzw. mode-seeking, graphenbasierte sowie Nächste-Nachbarn-Kriterien. Im Folgenden wird näher auf zwei Verfahren – k-means und k-medoids – eingegangen, die die(quadratische) Abweichung als Kriterium verwenden. Das k-means-Verfahren 61 verwendet als Kriterium die Summe der quadratischen Abweichungen, um die Menge X in k Cluster zu partitionieren. Jedes Cluster C i wird 55 Die Autoren Kaufman& Rousseeuw sprechen hier von„ splinter group“[KR90], S. 255. 56 Vgl.[JD88], S. 89. 57 Ebd., S. 90. 58 Zur Diskussion, wie dieser Parameter bestimmt werden kann, siehe u. a.[HKP12], S. 486 f., und [Rok10], S. 292–295. 59 Vgl.[JD88], S. 90 f. 60 Vgl. ebd., S. 90 ff. 61 Der Standardalgorithmus geht zurück auf[Llo57](im Jahr 1982 schließlich als Artikel[Llo82] veröffentlicht), wobei erst[Mac67] den Begriff k-means verwendet, dessen Idee auf[Ste56] zurückgeht(vgl. [Boc08]). 3.1 Datenanalyse und Wissensextraktion aus Datenquellen 43 hierbei durch ein Clusterzentrum z i , das als Prototyp gilt, repräsentiert. Dieses ergibt sich aus dem Mittelwert aller Datenobjekte dieses Clusters: e z i ,p = x ∈C i e x,p |C i | ( p = 1 ,..., d )(3.2) Die Qualität der Partitionierung wird über die Summe der quadrierten Abweichungen zwischen allen Objekten eines Clusters und dem Clusterzentrum berechnet: 62 SSE = dist( x, z i ) 2 C i ∈ C x ∈C i Die Optimierung dieses Kriteriums ist NP-schwer, daher verwendet k-means ein heuristisches Vorgehen zur Bestimmung der Partitionierung: 63 1. Zufällige Auswahl von k Clusterzentren(dies können entweder tatsächliche Elemente aus X sein oder künstlich erzeugte) 2. Zuweisung aller Datenobjekte zu dem Cluster, zu dessen Clusterzentrum die geringste euklidische Distanz besteht 3. Aktualisierung der Clusterzentren, indem Gleichung(3.2) unter Berücksichtigung der aktuellen Zuordnungen erneut berechnet wird 4. Wiederholen der Schritte 2 und 3 bis ein Abbruchkriterium(z. B. stabile Zuordnung, bei der die aktuelle Zuordnung die gleiche wie in der vorherigen Iteration ist) erreicht ist Das k-means-Verfahren kann ohne Modifikation nur für Eigenschaften verwendet werden, bei denen der Mittelwert definiert ist. Dies ist z. B. für nominale oder binäre Eigenschaften nicht der Fall. 64 Darüber hinaus ist das Verfahren anfällig für Ausreißer oder Rauschen in den Datenobjekten, da diese einen hohen Einfluss auf den Mittelwert haben können und somit das Auffinden natürlicher Cluster erschweren. 65 Eine Alternative stellt das k-medoids-Verfahren dar, das robuster im Falle von Ausreißern und Rauschen als k-means ist. Bei diesem wird als Repräsentant für ein Cluster nicht wie bei k-means der Mittelwert aller in dem Cluster vorhanden Datenobjekte verwendet, sondern ein in dem Cluster vorhandenes Datenobjekt z i ∈ X. Die Qualität einer Partitionierung wird hier über die absolute Abweichung aller in einem Cluster vorhandenen Datenobjekte und dem repräsentativen Objekt z i für dieses Cluster berechnet: 66 SAE = dist( x, z i ) C i ∈ C x ∈C i (3.3) 62 Vgl.[HKP12], S. 451. 63 Vgl.[HKP12], S. 452;[Rok10], S. 281. 64 Eine Alternative sind die Verfahren k-modes(für nominal skalierte Eigenschaften) und k-prototypes (für hybrid skalierte Eigenschaften);[Hua98]. 65 Vgl.[HKP12], S. 453 f. 66 Vgl. ebd., S. 455. 44 3 Stand der Forschung Für k = 1 ist k-medoids NP-schwer und daher ist hier ebenfalls ein heuristisches Vorgehen notwendig. Ein solches Verfahren ist Partitioning Around Medoids (PAM) von Kaufman& Rousseeuw 67 : 68 1. Zufällige Auswahl von k Datenobjekten aus X als initiale Clusterzentren bzw. repräsentative Objekte 2. Zuweisung der restlichen Datenobjekte zu dem Cluster, zu dessen repräsentativen Objekt die geringste Distanz besteht 3. Zufällige Auswahl eines nicht repräsentativen Objekts und Berechnung der Kosten auf Basis von Gleichung(3.3) für eine Vertauschung mit einem repräsentativen Objekt 4. Sind die Kosten negativ führe die Vertauschung durch 5. Wiederholen der Schritte 2–4 bis keine Veränderung mehr eintritt Die Berechnung durch PAM ist aufwendiger als für k-means. Für umfangreiche Datenmengen wird daher von Kaufman& Rousseeuw 69 mit Clustering Large Applications (CLARA) 70 ein Verfahren vorgeschlagen, das die Heuristik PAM nur auf einen repräsentativen Teil der zu clusternden Datenobjekte X anwendet. Anschließend werden die verbliebenen Datenobjekte dem Cluster zugeordnet, zu dessen repräsentativen Objekt die geringste Distanz besteht. Ein weiteres Verfahren für k-medoids Clustering stellen die Autoren Park& Jun 71 vor, das auch für große Datenmengen effizient ist. 3.1.2 Verfahren für den Aufgabenbereich der Klassifizierung Zur Durchführung einer adäquaten Abschätzung der Bearbeitungszeit eines neu einzuplanenden Auftrags wurde in Abschnitt 2.2.1.2 aufgezeigt, dass die Zuordnung bzw. Klassierung dieser Aufträge zu Clustern ähnlicher Aufträge(vgl. Abschnitt 3.1.1) zielführend ist. Im folgenden Abschnitt erfolgt daher eine Übersicht zu Klassifikationsverfahren. Im Unterschied zu den Klassenbildungs- bzw. Clusterverfahren besteht die Aufgabe der Klassierung darin, ein Datenobjekt x , das durch einen Eigenschaftsvektor e x charakterisiert wird und dessen Clusterzugehörigkeit unbekannt ist, zu einer von k im Vorhinein 72 bekannten Clustern C i mit 1 ≤ i ≤ k zuzuordnen. Zur Durchführung der Klassierung ist es notwendig, einen Klassifikator zu trainieren. Dies geschieht im Rahmen 67 Siehe[KR87]. 68 Vgl.[HKP12], S. 457. 69 Siehe[KR86];[KR90], S. 126–163. 70 Die Verfahren Clustering Large Applications based upon Randomized Search(CLARANS)[NH94] (erweitert in 2002[NH02]) sowie hierauf aufbauend das Verfahren von Ester et al.[EKX95] sind Erweiterungen von CLARA. 71 Siehe[PJ09]. 72 Aus diesem Grund spricht man auch von überwachtem Lernen, da die Clusterzugehörigkeit der Trainingsdaten bekannt ist im Gegensatz zu den Klassenbildungs- bzw. Clusterverfahren, bei denen es sich um unüberwachtes Lernen handelt, da die Cluster sowie evtl. die Clusteranzahl unbekannt sind(vgl.[HKP12], S. 330). 3.1 Datenanalyse und Wissensextraktion aus Datenquellen 45 der Klassifizierung, 73 bei der die Klassengrenzen zwischen den Clustern erlernt werden. Hierfür wird der Klassifikator zunächst mit einer Menge von n Trainingsdaten T={( e x 1 , C i ) 1 ,..., ( e x n , C i ) n } trainiert, bei denen die Clusterzugehörigkeit der Datenobjekte x j mit 1 ≤ j ≤ n bekannt ist. Die Trainingsdaten bestehen aus Tupeln von Eingabe-Ausgabe-Paaren, wobei der Eingabe e x j eines der bekannten Cluster C i mit 1 ≤ i ≤ k in Form eines sogenannten Klassenlabels zugeordnet wird. 74 Mit Hilfe der Trainingsdaten wird durch ein Klassifikationsverfahren eine Zuordnung bzw. Funktion C i = f ( e x ) erlernt, die ein Datenobjekt x mit unbekannter Clusterzugehörigkeit auf ein Cluster C i abbildet. 75 Die konkrete Repräsentation einer solchen Zuordnung wird während der Klassifizierung festgelegt und hängt von dem verwendeten Klassifikationsverfahren ab. 76 Kotsiantis 77 unterscheidet bei den Klassifikationsverfahren zwischen logikbasierten (Entscheidungsbäume, Klassifikationsregeln), perzeptronbasierten(künstliche neuronale Netze), statistischen(naive Bayes-Klassifikatoren, Bayes-Netzwerke), instanzbasierten (k-nächste-Nachbarn) sowie Support Vector Machines. 78 Aufgrund der in Abschnitt 2.3.1 definierten Anforderung nach der Ausgabe von Zugehörigkeitswahrscheinlichkeiten durch den Klassifikator werden in den folgenden beiden Abschnitten probabilistische Klassifikatoren betrachtet, die in der Lage sind, bei der Klassierung eines Objekts x eine Verteilung über die mögliche Klassenzugehörigkeit und somit einen Grad für die Sicherheit der Klassierung auszugeben. Es erfolgt eine Unterscheidung in Verfahren, die auf einem generativen Modell basieren(Abschnitt 3.1.2.1), und solchen, die ein diskriminatives Modell(Abschnitt 3.1.2.2) verwenden. 79 3.1.2.1 Generative Modelle zur Klassifizierung Bei der Klassierung eines Datenobjekts x (charakterisiert durch den Eigenschaftsvektor e x ), dessen Clusterzugehörigkeit unbekannt ist, zu einem von k Clustern besteht die Aufgabe aus probabilistischer Sicht darin, die bedingte Wahrscheinlichkeit(auch: A-posteriori-Wahrscheinlichkeit) P( Y | X ) zu bestimmen. Hierbei beschreibt X einen Vektor X =( X 1 ,..., X d ) von Zufallsvariablen, wobei X p mit 1 ≤ p ≤ d die Zufallsvariable der Eigenschaft p ist, dessen konkreter Wert mit e x,p bezeichnet wird. Mit Y wird die Zufallsvariable des Clusters, die die Werte C i mit 1 ≤ i ≤ k annehmen kann, bezeichnet. Generative Modelle modellieren die gemeinsame Verteilung p ( X, Y ) und 73 Han et al.(siehe[HKP12], S. 328) fassen unter dem Begriff„classification“ sowohl die Klassierung als auch die Klassifizierung zusammen. Letztere wird als„learning step“(auch:„training phase“) und erstere als„classification step“ eines zweischrittigen bzw. in zwei Phasen durchzuführenden Prozesses zur Klassifizierung bezeichnet. 74 Vgl.[Bis06], S. 179 f.;[TSK06], S. 146. 75 Vgl.[HKP12], S. 330;[TSK06], S. 146. 76 Vgl.[Bis06], S. 2. 77 Siehe[Kot07]. 78 Ähnliche Unterteilungen sowie Erläuterungen der entsprechenden Verfahren finden sich bei[Pet05], S. 31 ff.;[TSK06], S. 150–172, 207–315, sowie[HKP12], S. 327–442. 79 Studien, ob generative oder diskriminative Modelle besser geeignet sind, finden sich z. B. in[NJ02] und[XT08]. Bishop& Lasserre schlagen in[BL07] eine Kombination beider Modelle vor. 46 3 Stand der Forschung bestimmen mit Hilfe der Summen- und Produktregel die bedingte Wahrscheinlichkeit (auch: likelihood) P( X | Y ) sowie die A-priori-Wahrscheinlichkeit P( Y ). Aus diesen beiden Wahrscheinlichkeiten kann mit Hilfe des Satzes von Bayes(auch: Bayes-Theorem) die A-posteriori-Wahrscheinlichkeit berechnet werden: P( Y | X )= P( X | Y ) P( Y ) P( X ) (3.4a) mit k P( X )= P( Y = C i ) P( X | Y = C i )(3.4b) i =1 Ein Verfahren, das auf dem oben genannten generativen Modell aufbaut, ist der naive Bayes-Klassifikator. Bei diesem wird von der vereinfachenden Annahme ausgegangen, dass bei der Bestimmung von P( X | Y = C i ) die Eigenschaftswerte X p gegeben Y , bedingt unabhängig voneinander sind: d P( X | Y )= P( X p = e x,p | Y = C i ) p =1 = P( X 1 = e x, 1 | Y = C i ) × · · · × P( X d = e x,d | Y = C i ) Der Klassifikator arbeitet anschließend in zwei Phasen: In der Inferenzphase werden die einzelnen Wahrscheinlichkeiten P( X | Y = C i ) aus den Trainingsdaten T bestimmt. Im Falle diskreter Eigenschaften ist dies durch Abzählen möglich, wohingegen bei kontinuierlichen Eigenschaften häufig von einer Normalverteilung ausgegangen wird, deren Erwartungswert und Varianz aus den Trainingsdaten geschätzt werden. 80 Die A-prioriWahrscheinlichkeiten P( Y ) können ebenfalls aus den Trainingsdaten durch abzählen geschätzt werden. Anschließend kann mit Hilfe des Satzes von Bayes(vgl. Gleichung(3.4)) die A-posteriori-Wahrscheinlichkeiten für jedes Cluster berechnet werden. In der Entscheidungsphase wird schließlich das Cluster mit der höchsten A-posteriori-Wahrscheinlichkeit unter der Bedingung das x gegeben ist ausgewählt: 81 arg max P( Y = C i | X ) C i ∈ C Wird die Annahme der bedingten Unabhängigkeit für die Eigenschaftswerte nicht erfüllt, so können bestehende Abhängigkeiten zwischen den Eigenschaften durch die Erstellung eines Bayesschen Netzes(engl. Bayesian Belief Network ) modelliert werden. Bayes-Netzwerke ermöglichen es, diese Abhängigkeiten durch eine systematische Modellierung mittels eines gerichteten azyklischen Graphen(engl. directed acyclic graph ) sowie bedingten Wahrscheinlichkeitstabellen(engl. Conditional Probability Table (CPT)) darzustellen. 82 Ein Training des Netzes besteht zunächst darin, die Topologie festzulegen 80 Vgl.[HKP12], S. 352. 81 Alternative Auswahlverfahren für die Entscheidungsphase finden sich in[Bis06], S. 39–42. 82 Vgl.[HKP12], S. 393–397;[RN10], S. 510–513;[JN07], S. 32–35. 3.1 Datenanalyse und Wissensextraktion aus Datenquellen 47 (z. B. durch einen Domänenexperten) bzw. zu erlernen. Ist die Struktur gegeben, müssen die Werte der CPTs erlernt werden. Obwohl dieses Vorgehen eine genauere Modellierung der Abhängigkeiten zwischen den Eigenschaften erlaubt, wird aufgrund der höheren Komplexität dieses Ansatzes stattdessen häufig der naive Bayes-Klassifikator verwendet, der hinsichtlich Einfachheit, Trainingsdauer, Geschwindigkeit der Klassierungen sowie der inkrementellen Einbeziehung neuer Trainingsdaten Vorteile besitzt. 83 Des Weiteren zeigen empirische Studien von Domingos& Pazzani, 84 Rish, 85 Hand& Yu 86 und Zhang, 87 dass der naive Bayes-Klassifikator, auch wenn die Annahme der bedingten Unabhängigkeit nicht zutrifft, dennoch geeignet ist und in der Praxis gute Ergebnisse liefern kann. 88 Studien von Caruana& Niculescu-Mizil 89 zeigen hingegen, das moderne Verfahren wie z. B. calibrated boosted trees (vgl. den nachfolgenden Abschnitt 3.1.2.2) oder calibrated random forests zumindest für binäre Klassifikationsprobleme(bei der nur zwei Cluster zur Auswahl stehen) im Vergleich zu dem naiven Bayes-Klassifikator bessere Ergebnisse erzielen können. 3.1.2.2 Diskriminative Modelle zur Klassifizierung Im Unterschied zu den im vorherigen Abschnitt beschrieben generativen Modellen werden bei probabilistisch-diskriminativen Modellen die bedingten bzw. A-posterioriWahrscheinlichkeiten P( Y | X ) direkt berechnet. Verfahren, die auf diesem Modell aufbauen, sind u. a. die multinomiale logistische Regression, künstliche neuronale Netze sowie calibrated boosted trees , die im Folgenden kurz dargestellt werden. Bei der(multinomialen) logistischen Regression wird von einem parametrischen Modell ausgegangen, das auf einer logistischen Funktion(der sogenannten Sigmoidfunktion) beruht und dessen Parameter direkt aus den Trainingsdaten ermittelt werden. Die A-posteriori-Wahrscheinlichkeit P( Y | X ) wird somit für Y = C i mit 1 ≤ i ≤( k − 1) modelliert als: 90 P( Y = C i | X )= 1+ exp w i, 0 + d p =1 w i,p X p k − 1 j =1 exp w j, 0 + d p =1 w j,p X p i = 1 ,..., ( k − 1) und für Y = C k als: P( Y = C k | X )= 1+ 1 k − 1 j =1 exp w j, 0 + d p =1 w j,p X p 83 Vgl.[Kot07], S. 262 ff.;[KZP06], S. 174;[DP97], S. 127. 84 [DP97];[DP96]. 85 [Ris01]. 86 [HY01]. 87 [Zha05];[Zha04]. 88 Vgl. zudem[HTF09], S. 211. 89 Siehe[CN06]. Siehe ebenfalls die Studie von Caruana et al.[CKY08] für eine empirische Evaluation überwachter Lernverfahren für Datenobjekte mit vielen Dimensionen(Eigenschaften). 90 Vgl.[Mit05], S. 13. 48 3 Stand der Forschung Der unbekannte Parametervektor w =( w 0 , w 1 ,..., w d ) kann durch die MaximumLikelihood-Methode geschätzt werden. 91 Die Berechnung erfolgt dann bspw. durch iterative Verfahren wie Iterative reweighted least squares . 92 Künstliche neuronale Netze (KNN) bestehen aus einer Menge N E von in einem Netzwerk verbundenen Knoten, die Neuronen simulieren. Die einzelnen Neuronen sind häufig in verschiedene Schichten(engl. Layer ) unterteilt. Im Falle mehrschichtiger Netze sind neben der Eingabeschicht N E In (die die Eingabe der Eigenschaften e x eines Trainingsdatums x aufnimmt) und der Ausgabeschicht N E Out (die der Ausgabe der Klassierung dient) eine oder mehrere verdeckte(engl. hidden ) Schichten N E H vorhanden. Jedes Neuron j ∈( N E H ∪ N E Out ) einer verdeckten Schicht oder der Ausgabeschicht besitzt eine Menge von Eingangsverbindungen von anderen Neuronen i ∈( N E In ∪ N E H ), die mit einem Gewicht w i,j versehen sind. Aus den Eingangsdaten y i wird die gewichtete Summe(engl. net input ) ni j = n i =0 w i,j y i berechnet. Über eine Aktivierungsfunktion g und einen Schwellenwert(engl. bias ) θ (verwendet als Gewicht w 0 ,j = − θ für y 0 = 1) wird die Ausgabe des Neurons j mit y j = g ( ni j ) ermittelt. 93 Diese Aktivierungsfunktion kann dabei u. a. ein harter Grenzwert(Heaviside-Funktion) oder eine logistische Funktion sein. Für die Ausgabe von A-posteriori-Wahrscheinlichkeiten bietet sich die Verwendung einer softmax-Aktivierungsfunktion für die Neuronen der Ausgabeschicht i ∈ N E Out an: 94 y i = e ni i e , j ∈N E Out ni j womit die Ausgabewerte y i dieser Neuronen im Intervall[0 , 1] liegen und sich zu eins aufsummieren. Sind sowohl die Netzwerkstruktur als auch die Aktivierungsfunktionen gegeben, werden durch Trainingsdaten die Gewichte w i,j gelernt. Die nicht-linearen Aktivierungsfunktionen der Neuronen stellen dabei sicher, dass das KNN nicht-lineare Funktionen darstellen kann und somit Klassifizierungen für nicht linear separierbare 95 Probleme vornehmen kann. 96 Der Nachteil bei KNNs liegt in der Bestimmung der richtigen Anzahl von Neuronen und der Interpretierbarkeit der Ausgabe. 97 Calibrated Boosted Trees (CBT) gehören zu den Ensemble-Techniken, die mehrere (schwache) Basisklassifikatoren(in diesem Fall Entscheidungsbäume) zu einem(starken) Klassifikator kombinieren, um somit ein besseres Klassifikationsmodell zu erzeugen. 98 Entscheidungsbäume(auch: Klassifikationsbäume), die bei CBT als Basisklassifikator Verwendung finden, bestehen aus einer Menge von Knoten, die durch gerichtete Kanten miteinander verbunden sind und eine Baumstruktur bilden. Jeder innere Knoten 91 Vgl.[Bis06], S. 209;[Mit05], S. 13. 92 Vgl.[Bis06], S. 207–210. 93 Vgl.[RN10], S. 728 f. 94 Vgl.[Bri90], S. 233. 95 Linear nicht separierbare Probleme sind solche, bei denen die Cluster der Trainingsdaten nicht durch lineare Entscheidungsgrenzen(Entscheidungsflächen bei höheren Dimensionen) getrennt werden können(vgl.[Bis06], S. 179). 96 Vgl.[RN10], S. 730 ff.;[KZP06], S. 169 ff. 97 Vgl.[HKP12], S. 406 ff.;[KZP06], S. 169 ff. 98 Vgl.[HKP12], S. 378 f. 3.1 Datenanalyse und Wissensextraktion aus Datenquellen 49 entspricht hierbei einem Test für eine Eigenschaft, jede Kante dem Ergebnis des Tests und jeder Blattknoten entspricht einem Klassenlabel bzw. dem klassierten Cluster. 99 In den Blättern kann zusätzlich die bedingte Wahrscheinlichkeit P( Y | X ) gespeichert werden, die die empirische Verteilung über die Klassenlabel der Trainingsdaten beschreibt, die den Blattknoten erreicht haben. Zur Erstellung der Entscheidungsbäume kommen Entscheidungsbaumverfahren, wie z. B. ID3 100 , dessen Nachfolger C4.5 101 oder CART 102 zum Einsatz. Beim Boosting 103 werden während der Trainingsphase k Basisklassifikatoren Bk i mit 1 ≤ i ≤ k iterativ erstellt. Nach der Erstellung des Klassifikators Bk i erhält jedes Trainingsdatum der Trainingsmenge T ein Gewicht bzw. dieses wird aktualisiert. Für Trainingsdaten, die fehlerhaft klassiert wurden, wird das Gewicht vergrößert und für korrekt klassierte verringert. Hierdurch wird der Klassifikator Bk i +1 der nächsten Iteration die fehlerhaft klassierten Trainingsdaten stärker berücksichtigen. 104 Für die Klassierung eines Datenobjekts x mit unbekannter Clusterzugehörigkeit durchläuft dieses jeden Entscheidungsbaum Bk i von der Wurzel beginnend bis zu einem Blatt, welches das Klassenlabel für x bzw. die bedingte Wahrscheinlichkeit P Bk i ( Y | X ) und somit die Ausgabe des Basisklassifikators angibt. Die Klassierungen der einzelnen Basisklassifikatoren werden schließlich durch gewichtete Mittelwertbildung kombiniert. Die Gewichte basieren auf der Fehlerrate des entsprechenden Klassifikators in der Vergangenheit und sind umso höher, je geringer die Fehlerrate war. Die ermittelten bedingten Wahrscheinlichkeiten sind nach Niculescu-Mizil& Caruana 105 verzerrt, da sie von den Extremwerten 0 und 1 weg bewegt werden. Aus diesem Grund werden häufig Wahrscheinlichkeitskalibrierungen durchgeführt, die im Falle binärer Klassifikationsprobleme z. B. mit Hilfe von Platt Scaling 106 oder Isotonic Regression 107 und für mehr als zwei Klassen bspw. mit einer Dirichlet-Kalibrierung 108 erreicht werden können. 3.1.3 Literaturüberblick Arbeiten, die explizit historische Betriebsdaten nutzen, um einen Informationsstand über mögliche Unsicherheiten aufzubauen, der bei dem operativen Planungsproblem der Ablaufplanung in Luftfrachtterminals Verwendung findet, sind nicht bekannt. Daher wird im folgenden Abschnitt eine Übersicht zu Beiträgen gegeben, die im Bereich von Luftfrachtterminals implizit(historische) Betriebsdaten verwenden, die als Grundlage für Planungsprobleme innerhalb eines Terminals dienen. Literatur über interne Prozesse in Luftfrachtterminals und deren Optimierung ist allerdings spärlich, daher werden im Folgenden auch Arbeiten aus verwandten Bereichen berücksichtigt. 99 Vgl.[RM08], S. 8 f. 100 [Qui86]. 101 [Qui93]. 102 [BFOS84]. 103 Vgl.[SF12]. 104 Vgl.[HKP12], S. 380 f. 105 [NC05b];[NC05a]. 106 [Pla00]. 107 [ZE02]. 108 [Geb09]. 50 3 Stand der Forschung Es sind mehrere Beiträge vorhanden, die sich mit der Planung des Personals für die Frachtbearbeitung innerhalb der Luftfrachtterminals auseinandersetzen. Nobert& Roy 109 formulieren ein integriertes Planungsmodell für die Personalplanung. Dieses berücksichtigt simultan den Ausgleich von Lastspitzen 110 im Frachtaufkommen(unter Berücksichtigung der für die Fracht geltenden Termine) und den sich hieraus ergebenden Personalbedarf sowie die auf Basis des Personalbedarfs zu erstellenden Schichtpläne. Die Schichtpläne werden hierbei mit einem Horizont von einem Tag erstellt. Die benötigten Parameter für das Optimierungsmodell werden durch Schätzungen gewonnen. Unter der Annahme, dass der Personalbedarf bekannt ist, erstellen Yan et al. 111 ganzzahlige bzw. gemischt ganzzahlige lineare Programme zur Erzeugung von Schichtplänen für einen kurzen Horizont(eine Woche) bzw. für einen kurzen Horizont(ebenfalls eine Woche) mit stochastischem Personalbedarf. 112 Rong& Grunow 113 erweitern das Simultanplanungsmodell von Nobert& Roy, indem sie Qualifikationshierarchien zwischen dem Auf- und Abbaupersonal berücksichtigen sowie eine Unterscheidung beim„demand leveling“ zwischen Aufund Abbauaufträgen vornehmen. Des Weiteren wird berücksichtigt, dass das Planungsproblem zyklisch ist und die erstellten Schichtpläne täglich ausgeführt werden müssen. Die für das Optimierungsmodell benötigten Parameter basieren auf Schätzungen. Weitere Arbeiten nutzen Simulation zur Evaluierung und Verbesserung interner Terminalprozesse. Nsakanda et al. 114 stellen einen Simulationsansatz zur Evaluierung der Frachtabfertigungsprozesse und der Auswirkungen bei Änderung der Verfahrens- und Bearbeitungsvorschriften innerhalb eines Luftfrachtterminals vor. Als Datengrundlage nutzen sie historische Betriebsdaten, Ergebnisse aus Interviews mit Domainexperten, Schätzungen sowie Zeitstudien. Lee et al. 115 nutzen zeitbehaftete gefärbte Petri-Netze (engl. timed colored petri nets ), um die terminal internen Prozesse zu modellieren. Das entwickelte Simulationsmodell wird anschließend zur Evaluierung der Zuweisungsstrategien der Airlines sowie der Lagerstrategie eines Regalbediengerätes genutzt. Der vorgestellte Ansatz basiert hierbei vollständig auf durchgeführten Zeitstudien. Assent et al. 116 beziehen sich in ihrer Arbeit nicht auf interne Prozesse in Luftfrachtterminals, sondern betrachten Verspätungen bei der Ankunft von Flügen. Die Autoren beschreiben ein Verfahren zur Klassierung von eingehenden Flügen auf Basis von Eigenschaften der Flugdaten in drei Verspätungskategorien, die als„ahead of time“,„on time“ und„delayed“ bezeichnet werden. Die Klassierung der Flüge soll der Unterstützung einer proaktiven bzw. robusten Ablaufplanung des Flughafenbetriebs dienen. Als Datenbasis zum Training des Klassifikators werden historische Betriebsdaten sowie die von Ablaufplanungsexperten bereitgestellten Klassenlabel verwendet. Eine Evaluation des Verfahrens auf Basis von drei realen und einem synthetischen Problem zeigte leichte 109 [NR98]. 110 Die Autoren sprechen hier von„demand leveling“([NR98], S. 296). 111 [YCC06]. 112 [YCC08]. 113 [RG09]. 114 [NTD04]. 115 [LHLX06]. 116 [AKW + 09]. 3.2 Multikriterielle Ablaufplanung unter Unsicherheit 51 Vorteile bei der Klassifikationsgenauigkeit gegenüber C4.5, k-nächsten Nachbarn sowie naivem Bayes für drei der vier Probleminstanzen. Ein multivariates Regressionsmodell zur mehrperiodischen Prognose des Sendungsaufkommens bei Express-, Paket- und Briefdienstleistern bzw. bei Anbietern typisierter Dienstleistungen wird von Lessing 117 beschrieben. Grundlage der Prognose sind historische Zeitreihen über vergangene Sendungsmengen. Die unter Berücksichtigung der Einflüsse des deutschen Kalenders erstellten und im Rahmen des Prognoseprozesses bereinigten Prognosen der Sendungsmengen dienen als Grundlage für eine operative Kapazitätsplanung des Personal- und Transportmittelbedarfs in den Logistikzentren. Die Personalbedarfsermittlung basiert anschließend auf der Multiplikation der Sendungsmenge mit einem als bekannt angenommen Zeitbedarf pro Sendung. 118 Die Ermittlung der benötigten Transportkapazität erfolgt in ähnlicher Weise, berücksichtigt jedoch produktund relationsspezifische Volumenfaktoren. Die Autoren Tulabandhula& Rudin 119 beschreiben ein auf maschinellem Lernen beruhendes Verfahren, um aus historischen Daten eine Unsicherheitsmenge 120 für unsichere Parameter zu konstruieren, die in einer robusten Optimierung eingesetzt werden kann. Die historischen Daten weisen Eigenschaften auf, die einen Datensatz charakterisieren, und einem Label, dessen Wert durch diese Eigenschaften beeinflusst wird. Die Eigenschaften eines neuen Datensatzes, dessen Label unbekannt ist, können somit genutzt werden, um das Label vorherzusagen. Es werden zwei verschiedene Ansätze mit jeweils zwei Methoden vorgestellt, um die Unsicherheitsmenge zu konstruieren. Für den ersten Ansatz werden empirische Vorhersagemodelle verwendet, wobei die erste Methode auf einer Mengenfunktion basiert und die zweite Methode bedingte Quantilfunktionen einsetzt. Im zweiten Ansatz wird eine Menge von als gut definierten Vorhersagemodellen genutzt, um die Unsicherheitsmenge zu definieren. Die erste Methode verwendet eine einzelne Menge von Vorhersagemodellen, wohingegen die zweite Methode zwei Mengen verwendet. 3.2 Multikriterielle Ablaufplanung unter Unsicherheit Auf Basis der im vorherigen Abschnitt beschriebenen Verfahren lässt sich ein Informationsstand über die unsicheren Bearbeitungszeiten der Frachtabfertigungsaufträge ermitteln, der als Grundlage für die multikriterielle Ablaufplanung unter Unsicherheit Verwendung finden soll. Hierzu sind wie in Abschnitt 2.2.2.2 erläutert Ablaufplanungsverfahren notwendig, die in der Lage sind, diesen Informationsstand zu verwenden und Ablaufpläne zu erzeugen, die robust gegenüber ungünstigen Umweltsituationen sind. Des Weiteren sollen diese Verfahren zusätzliche Restriktionen, die sich aus benötigten Ressourcen ergeben, beachten. 117 [Les04]. 118 Siehe ebd., S. 100, 169. Eine vergleichbare Rechnung zur Bestimmung der Bearbeitungsdauer von Aufträgen ist in Gleichung(2.1) auf Seite 18 aufgeführt. Die hiermit verbunden Probleme werden in dem Abschnitt ebenfalls angesprochen. 119 [TR14]. 120 Vgl. hierzu Abschnitt 3.2.1.1. 52 3 Stand der Forschung In der Literatur 121 lassen sich grundsätzlich vier verschiedene Politiken, die zur Gliederung von Ablaufplanungsverfahren unter Unsicherheit dienen, identifizieren: • Dynamische Ablaufplanung: Bei dieser Politik wird kein Ablaufplan im Vorhinein erstellt, sondern es wird bei Bedarf, z. B. der Ankunft eines neuen Auftrags, durch bspw. Prioritätsregeln(engl. dispatching rules ) dynamisch über Zuordnungen und Sequenzierungen zu den Maschinen entschieden. 122 • Prädiktiv-reaktive Ablaufplanung: Hier wird zunächst ein Ablaufplan unter der Annahme deterministischer Eingabedaten erstellt. Störungen, die während der Ausführung dieses Plans auftreten, werden reaktiv behandelt. • Proaktive Ablaufplanung: Mit dieser Politik wird ein Ablaufplan erstellt, der Wissen über stochastische Eingabedaten berücksichtigt, und versucht, einen Plan zu erstellen, der zuverlässiger als ein prädiktiver ist. Entsprechen die während der Ausführung des Plans auftretenden Störungen den bekannten stochastischen Einflüssen, so sind keine Änderungen notwendig, um den Plan ausführen zu können. Ist dies nicht der Fall, ist in der ausschließlich proaktiven Ablaufplanung jedoch kein Mechanismus zur Reaktion vorgesehen. • Proaktiv-reaktive Ablaufplanung: Diese Politik verbindet die Vorteile eines proaktiven Ablaufplans mit der Möglichkeit, im Falle von Störungen, die nicht den berücksichtigten stochastischen Einflüssen entsprechen, reaktiv Anpassungen vornehmen zu können. Im Folgenden liegt der Fokus auf Verfahren, die eine proaktive Ablaufplanung ermöglichen. Hierbei wird zwischen exakten Verfahren in Abschnitt 3.2.1 und heuristischen Verfahren in Abschnitt 3.2.2 unterschieden. Des Weiteren werden in Abschnitt 3.2.3 Methoden betrachtet, mit denen mehrere Ressourcen bei der Ablaufplanung berücksichtigt werden können und die somit die in Abschnitt 2.3.2 gestellten Anforderungen nach der Berücksichtigung von Personal- und Förderkapazitäten erfüllen. Den Abschluss bildet ein Literaturüberblick. 3.2.1 Exakte Verfahren Auf mathematischer Optimierung beruhende exakte Verfahren zeichnen sich dadurch aus, dass sie garantiert die optimale Lösung bzw. Lösungen(sofern vorhanden) finden. Für Problemgrößen, wie sie häufig in der Praxis anzutreffen sind, können aufgrund der hohen Komplexität der Probleme optimale Lösungen jedoch nur schwer(Zeit- und Ressourcenaufwand) oder unter Umständen gar nicht ermittelt werden. Im Folgenden werden mit der robusten und stochastischen Optimierung zwei grundlegende Ansätze zur Optimierung unter Unsicherheit vorgestellt. 123 121 Vgl.[SG09];[BVLB09];[OP09];[LI08];[ALM + 05]. 122 Vgl.[VHL03], S. 48 f. Auch als reaktive oder Online-Ablaufplanung bezeichnet. 123 Ein Literaturüberblick zu konkreten Anwendungen im Bereich der Ablaufplanung findet sich in Abschnitt 3.2.4. 3.2 Multikriterielle Ablaufplanung unter Unsicherheit 53 3.2.1.1 Robuste Optimierung Ein neuerer Ansatz zur Optimierung unter Unsicherheit bzw. zur Behandlung von Optimierungsmodellen mit unsicheren Daten ist die robuste Optimierung. Als eigenständiges Forschungsgebiet mit Ursprüngen im Bereich der robusten Kontrolltheorie, robusten Statistik und des maschinellen Lernens geht die robuste Optimierung auf Arbeiten von Soyster, 124 Kouvelis& Yu, 125 El Ghaoui et al. 126 sowie Ben-Tal& Nemirovski 127 zurück. 128 In der robusten Optimierung wird im Gegensatz zur stochastischen Optimierung (vgl. Abschnitt 3.2.1.2) nicht von einem stochastischen, sondern einem deterministischen und mengenbasierten Unsicherheitsmodell ausgegangen. Ziel ist es, eine Lösung zu ermitteln, die unter jeder möglichen Realisierung der unsicheren Eingabedaten innerhalb der definierten Unsicherheitsmenge zulässig ist, statt – wie in der stochastischen Optimierung – eine probabilistische Absicherung gegenüber stochastischer Unsicherheit zu erreichen. 129 Am Beispiel der allgemeinen Darstellung min x c T x + d Ax ≤ b eines linearen Programms(engl. Linear Program (LP)) mit x ∈ R n , dem Vektor der Entscheidungsvariablen, c ∈ R n und d ∈ R als Koeffizienten bzw. Konstanten der Zielfunktion, A als m × n -Matrix der Restriktionen und b ∈ R m als right hand side -Vektor soll im Folgenden die robuste Optimierung, wie sie von Ben-Tal et al. 130 beschrieben wird, erläutert werden. In der robusten Optimierung wird ein unsicheres LP durch eine Menge min c T x + d Ax ≤ b x ( c,d,A,b ) ∈U (3.5) von LPs beschrieben, wobei die Daten( c, d, A, b ) zu der Unsicherheitsmenge U gehören. Es wird nach einer Lösung gesucht, die für jede Realisierung der Daten innerhalb der Unsicherheitsmenge U zulässig ist und dabei den Zielfunktionswert für den schlechtesten Fall(engl. Worst Case ) optimiert. Die Qualität einer robusten Lösung wird über den garantierten Wert der Originalzielfunktion quantifiziert, womit die robuste Lösung über das folgende Programm(bezeichnet als Robust Counterpart (RC)) gefunden wird: min sup[ c T x + d ] Ax ≤ b ∀( c, d, A, b ) ∈ U x ( c,d,A,b ) ∈U Dieses kann zu dem folgenden Programm umgeformt werden: min t c T x + d ≤ t, Ax ≤ b ∀( c, d, A, b ) ∈ U , x,t 124 [Soy73]. 125 [KY97]. 126 [EL97];[EOL98]. 127 [BN98];[BN99];[BN00]. 128 Siehe[BEN09], S. xvi f., 25 f. 129 Siehe[BBC11], S. 465. 130 [BEN09]. (3.6) 54 3 Stand der Forschung dessen Lösung eine robust optimale und robust zulässige Lösung für das LP aus(3.5) darstellt. 131 Die Frage, wie schwer das Problem(3.6) ist, hängt von dem Ursprungsproblem und den Eigenschaften der Unsicherheitsmenge U ab. Ben-Tal et al. schreiben hierzu:„the RC of the uncertain LO 132 problem with uncertainty set U is computationally tractable whenever the convex uncertainty set U itself is computationally tractable.“ 133 Mit„computationally tractable“ werden solche Probleme bezeichnet, die in äquivalente Probleme umgeformt werden können, für die Algorithmen mit einer Worst-Case-Laufzeit, die polynomiell von der Eingabegröße abhängt, vorhanden sind. 134 Ist das Ursprungsproblem ein gemischt-ganzzahliges Programm(engl. Mixed-integer Program (MIP)), dann ist die vorstehende Aussage nicht garantiert. Für MIPs sind bereits die Ursprungsprobleme häufig nicht in polynomieller Zeit lösbar und nach Ben-Tal et al. gilt dies somit ebenfalls für deren RCs. 135 Ehrgott et al. 136 erweitern das zuvor beschriebene Konzept der minmax-Robustheit nach Ben-Tal et al. 137 von Einziel- auf Mehrzieloptimierungsprobleme. Hierzu verwenden sie eine Ordnungsrelation, um robust effiziente Lösungen für unsichere Mehrzieloptimierungsprobleme zu definieren. Als Lösungsverfahren werden Ansätze aus dem Bereich der deterministischen Mehrzieloptimierung 138 diskutiert. Hierzu gehören die Skalarisierung durch gewichtete Summen oder-Restriktionen sowie die zielfunktionsweise Betrachtung des Worst Cases. Der Ansatz nach Ehrgott et al. ist aufgrund der gewählten Ordnungsrelation ein pessimistischer Ansatz, der gegen die Menge an Worst Cases absichert. 139 Vier weitere Ordnungsrelationen für unsichere Mehrzieloptimierungsprobleme werden von Ide& Köbis 140 vorgestellt und untersucht. Erstens wird ein optimistischer Ansatz, der gegen die Menge an Best Cases absichert, vorgestellt. Zweitens wird ein intermediärer Ansatz beschrieben, der eine Kombination des pessimistischen und optimistischen Ansatzes darstellt. Mit der dritten Ordnungsrelation werden Lösungen gefunden, die sowohl in der Menge der Best als auch Worst Cases nicht-dominiert sind. Als letztes wird eine Ordnungsrelation beschrieben, um alle mit Sicherheit dominierten Lösungen zu entfernen. 3.2.1.2 Stochastische Optimierung Die stochastische Optimierung ist eine weitere Möglichkeit zur Behandlung von Optimierungsmodellen mit unsicheren Eingangsdaten, die auf Dantzig 141 zurückgeht. Im 131 Siehe[BEN09], S. 7–15. 132 Die Abkürzung LO steht für„Linear Optimization“. 133 [BEN09], S. 16. 134 Siehe[BBC11], S. 465. 135 Siehe[BEN09], S. 26. 136 [EIS14]. 137 [BEN09]. 138 Siehe z. B.[Ehr05]. 139 Siehe[IK14], S. 101. 140 [IK14]. 141 [Dan55]. 3.2 Multikriterielle Ablaufplanung unter Unsicherheit 55 Unterschied zur robusten Optimierung werden hier die Eingangsdaten( c, d, A, b ) probabilistisch, z. B. als Zufallsvariablen mit bekannten Wahrscheinlichkeitsverteilungen, modelliert. Ziel ist es, eine Lösung zu ermitteln, die für jede bzw. fast jede Realisierung der Eingangsdaten zulässig ist und dabei häufig den Erwartungswert der Zielfunktion 142 optimiert. Es wird erneut von einem linearen Programm ausgegangen, das zu einem mehrstufigen stochastischen Programm erweitert wird. Werden für dieses Modell n Stufen betrachtet, so bezeichne ξ 1 =( c 1 , A 1 , b 1 ) einen Vektor der sicheren Daten der ersten Stufe und ξ t =( c t , B t , A t , b t ) einen Zufallsvektor der Stufe t = 2 ,..., n , wobei einige oder alle Elemente dieses Vektors zufällig sein können. Das Modell kann anschließend wie folgt dargestellt werden: 143 min x 1 ∈X 1 f 1 ( x 1 )+ E inf f 2 ( x 2 , ξ 2 )+ E x 2 ∈X 2 ( x 1 ,ξ 2 ) ···+E inf f n ( x n , ξ n ) x n ∈X n ( x n − 1 ,ξ n ) mit f t ( x t , ξ t ) := c Tt x t X 1 := { x 1 | A 1 x 1 = b 1 , x 1 ≥ 0} X t ( x t − 1 , ξ t ) := { x t | B t x t − 1 + A t x t = b t , x t ≥ 0}( t = 2 ,..., n ) (3.7a) (3.7b) (3.7c) (3.7d) In jeder Stufe t = 1 ,..., ( n − 1) werden die Entscheidungen der Entscheidungsvariable x t umgesetzt, bevor die unsicheren Daten ξ t +1 bekannt sind. Nach Bekanntwerden der Daten auf der nächsten Stufe werden die Entscheidungen x t +1 ermittelt und ausgeführt. Die Anforderung an eine Lösung, für jede Realisierung der unsicheren Daten zulässig zu sein, ist sehr restriktiv und kann dazu führen, dass keine Lösung gefunden wird. Aus diesem Grund können probabilistische Nebenbedingungen(engl. chance/probabilistic constraints ) 144 eingeführt werden, die lediglich mit einer hohen Wahrscheinlichkeit(beschrieben über das Signifikanzniveau α i ∈(0 , 1)) eingehalten werden müssen: 145 P( a Ti x ≤ b i ) ≥ 1 − α i ( i = 1 ,..., m ) Hierbei bezeichnet a i mit 1 ≤ i ≤ m die i -te Restriktion bzw. Zeile der Matrix A und α i das entsprechende Signifikanzniveau dieser Restriktion. Diese Formulierung beschreibt einzelne probabilistische Nebenbedingungen, bei denen keine Korrelation zwischen den Reihen der Matrix A besteht oder eine Korrelation angenommen wird. Besteht eine Korrelation, so müssen die Nebenbedingungen zusammen betrachtet werden: P( a Ti x ≤ b i , ∀ i = 1 ,..., m ) ≥ 1 − α 142 Für die Berücksichtigung von mehreren Zielfunktionen sei auf[Abd12] und die dort aufgeführten Quellen verwiesen. 143 Siehe[SDR09], S. 63 f. 144 Das Konzept der probabilistische Nebenbedingungen geht zurück auf Charnes& Cooper(siehe[CCS58]; [CC59]). 145 Vgl.[BL11], S. 124;[SDR09], S. 90. 56 3 Stand der Forschung Für stochastische Modelle, wie sie in dem Modell(3.7) beschrieben sind, können häufig keine geschlossenen Lösungen angegeben werden. Die Lösungsfindung kann dann z. B. über die Betrachtung einer endlichen Menge von n Szenarien erfolgen. Jedes Szenario k mit 1 ≤ k ≤ n beschreibt hierbei eine mögliche Realisierung der unsicheren Daten ξ t,k der Stufe t und besitzt ein bestimmtes Gewicht p k . Der Erwartungswert kann aus der gewichteten Summe der n Szenarien berechnet werden. 146 Für MIPs, insbesondere für in der Praxis vorkommende relevante Problemgrößen, sind diese Modelle nur schwer oder gar nicht lösbar. 3.2.2 Heuristische Verfahren Die im vorherigen Abschnitt beschriebenen exakten Verfahren liefern auf der einen Seite garantiert eine optimale Lösung bzw. pareto-optimalen Lösungen, sofern diese existiert bzw. existieren, auf der anderen Seite sind sie für praxisrelevante Problemgrößen und die hieraus resultierenden Optimierungsprobleme aufgrund der Komplexität häufig nur bedingt einsetzbar. Aus diesem Grund werden häufig Heuristiken 147 verwendet, die zwar nicht feststellen können, dass eine gefundene Lösung optimal ist, aber häufig für die Praxis annehmbare Lösungen ermitteln. Eine Heuristik ist somit eine Methode„which, on the basis of experience or judgement, seems likely to yield a reasonable solution to a problem, but which cannot be guaranteed to produce the mathematically optimal solution.“ 148 Nach Domschke& Drexl 149 lassen sich Heuristiken unterteilen in Eröffnungsverfahren zur Bestimmung einer zulässigen Lösung; Verbesserungsverfahren zur iterativen Verbesserung einer gegebenen zulässigen Lösung; vorzeitig abgebrochene, d. h. unvollständig exakte Verfahren sowie Kombinationen aus den zuvor genannten. Eine weitere Unterscheidung ist diejenige in problemspezifische Heuristiken und problemunabhängige Metaheuristiken. 150 Während erstere auf ein spezielles Optimierungsproblem zugeschnitten sind und daher nur bei diesen angewendet werden können, sind Metaheuristiken allgemeine Strategien, die auf fast beliebige Problemstellungen übertragbar sind. 151 Eine Definition liefern Voß et al.:„A meta-heuristic is an iterative master process that guides and modifies the operations of subordinate heuristics to efficiently produce high-quality solutions. It may manipulate a complete(or incomplete) single solution or a collection of solutions at each iteration.[...]“ 152 . Metaheuristiken lassen sich somit u. a. weiter anhand der verwendeten Anzahl von Lösungen für das Optimierungsproblem klassifizieren. Hier kann zwischen solchen, die eine einzige Lösung verbessern(S-Metaheuristik), und solchen, die 146 Vgl.[SDR09], S. 3 f. 147 Heuristik leitet sich aus dem griechischen heuriskein ab, was sich mit„finden“ oder„entdecken“ übersetzen lässt. 148 [Sil04], S. 936. 149 Siehe[DD11], S. 128. 150 Die griechische Präposition meta, die hier als Präfix Verwendung findet, beschreibt, dass sich Metaheuristiken auf einer höheren bzw. abstrakteren Ebene als Heuristiken befinden. 151 Vgl.[Tal09], S. 1, 21. 152 [VMOR99], S. ix. 3.2 Multikriterielle Ablaufplanung unter Unsicherheit 57 populationsbasiert vorgehen(P-Metaheuristik) und somit gleichzeitig mehrere Lösungen verbessern, unterschieden werden. 153 Aufgrund der Anforderung einer Mehrzieloptimierung(vgl. Abschnitt 2.3.2) wird die Betrachtung im Folgenden auf Metaheuristiken für Mehrzieloptimierungsprobleme eingeschränkt. Der Fokus liegt hierbei auf den P-Metaheuristiken, 154 da diese aufgrund der gleichzeitigen Betrachtung mehrerer möglicher Lösungen besser für die Approximation der Pareto-Front 155 innerhalb einer einzigen Ausführung und damit für die Verwendung bei MOPs geeigneter erscheinen als S-Metaheuristiken. 156 Hierzu werden in Abschnitt 3.2.2.1 zunächst die Grundlagen von multikriteriellen P-Metaheuristiken vorgestellt. In Abschnitt 3.2.2.2 folgt eine Beschreibung, wie mit Unsicherheit umgegangen werden kann. 3.2.2.1 Multikriterielle populationsbasierte Metaheuristiken Die Berücksichtigung mehrerer Ziele bei der Lösung von Optimierungsproblemen ist in vielen Bereichen der Wissenschaft und Industrie eine wichtige Anforderung. Aufgrund der zunehmenden Komplexität dieser Probleme wächst das Interesse und somit die Entwicklung verschiedener multikriterieller Metaheuristiken seit Ende der 1980er. 157 Grundlage sind hierbei häufig Naturanalogien(z. B. Evolution, Abkühlungsprozesse, Schwarm-Intelligenz u. v. m.) und insbesondere populationsbasierte Verfahren. Ungeachtet der Vielfältigkeit 158 der entwickelten Verfahren bestehen Gemeinsamkeiten, die im Folgenden näher erläutert werden. Nach Talbi 159 ist für jede Metaheuristik zunächst festzulegen, wie die Lösungen repräsentiert, die Zielfunktion(en) gestaltet und Restriktionen bei der Optimierung beachtet werden. Die Lösungsrepräsentation, die den Repräsentationsraum R beschreibt und auf der eine Metaheuristik aufbaut, muss die folgenden Eigenschaften erfüllen, um eine effektive und effiziente Suche nach einer Lösung zu ermöglichen: 160 • Vollständigkeit: Es muss möglich sein, jede mögliche Lösung für das Optimierungsproblem abbilden zu können. • Konnektivität: Zwischen zwei beliebigen Lösungen des Lösungsraumes muss es eine Verbindung geben, d. h., jede Lösung muss durch Suchen erreichbar sein. • Effizienz: Die Repräsentation sollte einfach durch die Suchoperatoren der Heuristik geändert werden können. 153 Vgl.[Tal09], S. 25. 154 In der Literatur sind ebenfalls Arbeiten zu finden, die Erweiterungen der S-Metaheuristiken(z. B. TabuSuche oder Simulated Annealing) beschreiben, um diese für Mehrzieloptimierungsprobleme einsetzen zu können. Eine Übersicht zu diesen Arbeiten liefern Talbi et al.[TBNA12], S. 287–292. 155 Vgl. Abschnitt 2.2.2.2. 156 Vgl.[Tal09], S. 309, 337, 373. 157 Vgl. ebd., S. 308. 158 Siehe z. B.[GP10]. 159 Siehe[Tal09], S. 34–53. 160 Siehe ebd., S. 35. 58 3 Stand der Forschung Zu genetischen Algorithmen (GAs) 161 für Ablaufplanungsprobleme werden von den Autoren Cheng et al. 162 drei weitere Anforderungen an eine Repräsentation angeführt: • Zulässigkeit: Es sollten nach Möglichkeit nur solche Lösungen repräsentiert werden können, die alle Restriktionen einhalten und damit zulässig sind. • Gültigkeit: Es dürfen nur Lösungen dargestellt werden, die eine Lösung für das Optimierungsproblem darstellen. • Eindeutigkeit: Aus Effizienzgründen sollte die Abbildung zwischen Repräsentation und Lösung eine bijektive Abbildung sein, da diese den Suchraum einschränkt. Des Weiteren kann zwischen direkten und indirekten Kodierungsansätzen unterschieden werden. Die direkte Kodierung verwendet eine Repräsentation, die direkt evaluiert werden kann, da alle notwendigen Informationen encodiert sind. Die indirekte Kodierung muss hingegen zunächst zu einer Lösung dekodiert werden, bevor sie evaluiert werden kann. 163 Mit Hilfe der Zielfunktion(en) wird die Qualität(auch: Fitness) einer Lösung quantitativ bewertet und dient dazu, die Suche der Metaheuristik zu führen. Hierfür ist eine Lösung, im Falle einer indirekten Kodierung, zunächst mit einer Dekodierfunktion d : R → S vom Repräsentationsraum R in den Lösungsraum S zu überführen. Anschließend kann diese Lösung mit einer Evaluationsfunktion f : S → R bewertet werden. 164 Zur Berücksichtigung von Restriktionen wird häufig an der Zielfunktion angesetzt und diese mit Strafkosten versehen, sofern eine Lösung nicht zulässig ist. Hierfür sind jedoch Strafkostenparameter zu definieren und somit ist dieses Vorgehen mit zusätzlichem Aufwand verbunden. Deb 165 beschreibt einen alternativen Ansatz für GAs, der ohne die Definition von Strafkostenparametern auskommt und auf einem paarweisen Vergleich von zwei Lösungen während der Auswahlphase beruht. Weitere alternative Ansätze versuchen die Zulässigkeit einer Lösung zu erhalten, unzulässige Lösungen auszuschließen bzw. zu reparieren oder durch die Dekodierfunktion lediglich zulässige Lösungen zu erzeugen. 166 Für P-Metaheuristiken sind nach Talbi 167 zusätzlich eine initiale Menge(auch: Population) von Lösungen zu bestimmen sowie ein Abbruchkriterium festzulegen. Die Initialpopulation spielt eine entscheidende Rolle, da mit dieser die iterative P-Metaheuristik beginnt. Neben den Anforderungen insbesondere nach der Zulässigkeit und Gültigkeit der initialen Lösungen, die problemspezifisch zu bestimmen sind, sollte die Initialpopulation diversifiziert genug sein, um eine verfrühte Konvergenz zu suboptimalen Lösungen zu vermeiden. Der Abbruch der iterativen Suche erfolgt schließlich über ein Abbruchkriterium. Dieses kann entweder statisch nach einer gewissen Anzahl Iterationen erfolgen oder 161 Genetische Algorithmen stellen ein Teilgebiet evolutionärer Metaheuristiken dar, die wiederum zu den P-Metaheuristiken gehören und auf dem Prinzip der Evolution basieren. Genetische Algorithmen gehen zurück auf Holland[Hol75]. Eine umfangreiche Beschreibung der Grundlagen erfolgt bei Goldberg[Gol89]. 162 Siehe[CGT96], S. 985. 163 Vgl.[Tal09], S. 41 ff. 164 Siehe ebd., S. 43. 165 [Deb00]. 166 Vgl.[Tal09], S. 48–53; und für evolutionäre Metaheuristiken[MS96]. 167 Siehe[Tal09], S. 193–199. 3.2 Multikriterielle Ablaufplanung unter Unsicherheit 59 adaptiv im Falle von P-Metaheuristiken z. B. nach einer gewissen Anzahl von Iterationen, in denen keine Verbesserung der Population mehr eingetreten ist. Speziell für evolutionäre Algorithmen, die zu den meist untersuchten P-Metaheuristiken gehören, sind zusätzlich Entscheidungen bzgl. des Selektionsmechanismus sowie der Reproduktionsoperatoren zu treffen. 168 Der Selektionsmechanismus dient dazu, die Lösungen(auch: Individuen) auszuwählen, aus denen neue Lösungen für die nächste Iteration(auch: Generation) erstellt werden. Individuen mit einer höheren Fitness, gemessen anhand der Zielfunktion(en), besitzen hierbei eine höhere Auswahlwahrscheinlichkeit. Die Reproduktionsoperatoren(Mutation und Rekombination/Crossover) setzen an der Repräsentation(auch: Genotyp) einer Lösung an und verändern diese, um neue Individuen zu erzeugen. Bei der Mutation wird ein einzelnes Individuum leicht verändert, um die Diversität zu erhöhen und lokale Minima zu überwinden. Die Rekombination, bei der zwei oder mehr Individuen miteinander kombiniert werden, dient dazu, Eigenschaften an Nachfolgeindividuen weiterzugeben. Die Ausgestaltung der Reproduktionsoperatoren hängt erneut von dem spezifischen Problem und insbesondere von der gewählten Repräsentation einer Lösung ab und sollte so gestaltet sein, dass ausschließlich zulässige und gültige Lösungen erzeugt werden können. Für multikriterielle P-Metaheuristiken 169 ist schließlich festzulegen, wie die Fitness einer Lösung unter mehreren Zielfunktionen ermittelt und die Diversität der ermittelten pareto-optimalen Lösungen sichergestellt wird sowie die besten Lösungen(Elite-Prinzip) über die Iterationen erhalten werden. 170 Bei Problemen mit mehreren Zielfunktionen besitzt jede Lösung einen Vektor von Zielfunktionswerten statt eines einzelnen Zielfunktionswerts. Dieser Vektor ist mit einem skalaren Fitnesswert zu bewerten. Hierfür sind verschiedene Verfahren vorhanden, wie z. B. die Skalarisierung der einzelnen Zielfunktionswerte durch Gewichte zu einem einzigen Wert oder die Anwendung von Dominanzbzw. Paretoansätzen, die den Lösungen verschiedene Ränge zuordnen. Zur Approximation der Pareto-Front sollten möglichst diversifizierte Lösungen erzeugt werden, die pareto-optimal sind. Hierzu werden Verfahren angewendet, die Lösungen mit einer hohen Anzahl weiterer Lösungen in der direkten Nachbarschaft abwerten, da von diesen kein so hoher Informationsgewinn zu erwarten ist wie von Lösungen mit einer geringeren Dichte von Nachbarlösungen. Die während der Iterationen gefundenen besten Lösungen, z. B. die pareto-optimalen Lösungen, werden in einem Archiv gespeichert. Dieses Archiv kann passiv genutzt und somit lediglich zur Speicherung verwendet werden oder die Lösungen dieses Archivs werden aktiv in den einzelnen Iterationen mit einbezogen. 3.2.2.2 Multikriterielle evolutionäre Metaheuristiken unter Unsicherheit Für die im vorherigen Abschnitt beschriebenen Entwurfsentscheidungen für multikriterielle P-Metaheuristiken wurde von deterministischen Eingabedaten ausgegangen. 168 Vgl.[Tal09], S. 199, 206–220;[GF13], S. 964 f. 169 Ein bekannter Vertreter multikriterieller evolutionärer Metaheuristiken ist der Nondominated Sorting Genetic Algorithm II(NSGA-II) von Deb et al.[DPAM02]. Siehe zudem[KCS06], S. 995, für einen Vergleich mit weiteren bekannten mehrzielorientierten GAs. 170 Siehe[Tal09], S. 323–350. 60 3 Stand der Forschung Im Folgenden werden Erweiterungen dargestellt, um Unsicherheit bei den Eingabedaten zu berücksichtigen. Der Fokus liegt hierbei auf den multikriteriellen evolutionären Metaheuristiken(engl. Multi-objective Evolutionary Algorithms (MOEAs)), 171 da diese in den letzten Jahren umfangreich erforscht 172 wurden und besonders geeignet 173 zur Lösung von MOPs erscheinen. Jin& Branke 174 unterteilen Unsicherheit bei evolutionärer Optimierung in vier Kategorien: • Rauschen in der Fitnessfunktion: In diesem Fall besteht die Unsicherheit in der Evaluation der Zielfunktion f ( x )+ δ mit x (Vektor der Entscheidungsvariablen), f (originale Zielfunktion) und δ (Rauschen). • Unsicherheit von Design-/Entscheidungsvariablen oder Umgebungsparametern: Nach der Ermittlung der optimalen Lösung können sich die Umgebungsparameter ändern oder die Entscheidungsvariablen können nicht exakt umgesetzt werden. Die ermittelten Lösungen und ihre Zielfunktion(en) sollten robust gegenüber diesen Änderungen sein. • Approximation der Fitnessfunktion: Wenn die Evaluation der Fitnessfunktion zu aufwendig ist, kann sie approximiert werden. Dies führt zu Approximationsfehlern. • Dynamische Fitnessfunktionen: In diesem Fall ist die Fitnessfunktion deterministisch, aber zeitabhängig. Die Lösung sollte daher kontinuierlich an das sich ändernde Optimum angepasst werden. Der Fokus liegt im Folgenden auf Erweiterungen von klassischen evolutionären Algorithmen, um die Unsicherheit, die sich aus der Änderung von Umgebungsparametern ergibt, in den Algorithmus einzubeziehen und somit robuste Lösungen zu ermitteln. In Abhängigkeit davon, wie das Maß der Robustheit in die evolutionären Algorithmen integriert wird, können diese in zwei Kategorien unterteilt werden: 175 • Der einkriterielle Ansatz verwendet das Robustheitsmaß anstelle der ursprünglichen Zielfunktionen. • Der multikriterielle Ansatz berücksichtigt das Robustheitsmaß als zusätzliche Zielfunktion oder Restriktion neben den ursprünglichen Zielfunktionen. Für den einkriteriellen Ansatz wird als Robustheitsmaß häufig der Erwartungswert der ursprünglichen Zielfunktion verwendet. Der Erwartungswert kann jedoch häufig nicht analytisch bestimmt werden und muss daher geschätzt werden. 176 Hierzu wird die 171 MOEAs werden häufig auch als evolutionary multi-objective optimization(algorithms)(EMO, EMOO oder EMOA) bezeichnet. Für eine Einführung in MOEAs siehe z. B.[Deb01] oder[CLV07]. 172 Coello Coello listet Referenzen auf, in denen MOEAs Verwendung finden[Coe14]. 173 Vgl.[Coe06], S. 29. 174 Siehe[JB05], S. 303 f. 175 Siehe[GT09], S. 214 ff.;[TG08], S. 282;[Goh07], S. 176. 176 Vgl.[BAM13], S. 3. 3.2 Multikriterielle Ablaufplanung unter Unsicherheit 61 ursprüngliche Zielfunktion unter Berücksichtigung der Verteilung des unsicheren Umgebungsparameters und hieraus gezogener Stichproben wiederholt evaluiert und es wird der Durchschnittswert gebildet. Dieses Vorgehen wird als explizite Durchschnittswertbildung bezeichnet. Der zusätzliche Aufwand bei der Evaluation einer einzelnen Lösung kann bspw. durch implizite Durchschnittswertbildung vermindert werden. Hierbei wird in jeder Generation auf die Entscheidungsvariablen einer Lösung ein zufälliger Störeinfluss ausgeübt, bevor die Lösung evaluiert wird. Unter der Annahme einer unbegrenzten Populationsgröße ist dieses Vorgehen äquivalent zur Optimierung des Erwartungswerts der Zielfunktion. 177 Weitere Möglichkeiten wie z. B. Techniken zur Varianzreduktion, häufigere Evaluierung wichtiger Lösungen oder die Nutzung von Nachbarlösungen werden von Branke et al. 178 und den dort aufgeführten Quellen beschrieben. Beim multikriteriellen Ansatz kann nach Goh 179 zwischen zwei Möglichkeiten unterschieden werden, das Robustheitsmaß im MOEA zu berücksichtigen. Bei der ersten wird das Robustheitsmaß als weitere Zielfunktion neben der oder den ursprünglichen Zielfunktion(en) aufgenommen. Hiermit sind Trade-off-Analysen zwischen Performance und Robustheit möglich. 180 Die zweite Möglichkeit wird von Deb& Gupta 181 beschrieben und berücksichtigt das Robustheitsmaß als zusätzliche Restriktion. 3.2.3 Ablaufplanung unter multiplen Ressourcenbeschränkungen Im Gegensatz zu der klassischen Ablaufplanung, bei der lediglich Maschinen als einschränkende Ressource betrachtet werden, müssen für reale Systeme häufig weitere Restriktionen, wie Personal- und Förderkapazitäten, Berücksichtigung finden. 182 Eine Restriktion kann hierbei jede Ressource sein, die die Leistung des Systems einschränkt bzw. reguliert und somit Auswirkungen auf die Performance hat. 183 In der Literatur wird neben den Maschinen häufig das Personal als weitere einschränkende Ressource für Systeme betrachtet, bei denen weniger Personal als Maschinen vorhanden ist. Diese Systeme werden mit dem Begriff Dual-resource Constrained Systems/Scheduling (DRCS) bzw. präziser als„‘labour and machine-limited system’“ 184 bezeichnet. Die Mitarbeiter werden hierbei nach Verfügbarkeit und ihren Fähigkeiten bzgl. der Anforderungen der einzelnen Aufträge diesen zugewiesen. Hierbei stehen insbesondere die Zuweisungsregeln, mit denen entschieden wird, wer zu welchem Zeitpunkt an welcher Maschine arbeiten soll, im Zentrum des Interesses. Bokhorst et al. 185 beschreiben vier Wer-Regeln(engl. who-rules ), mit denen entschieden wird, welcher Mitarbeiter aus einer Gruppe bereitstehender Mitarbeiter einer Aufgabe bzw. Maschine zugewiesen wird. Die Mitarbeiter unterscheiden sich in ihren Kenntnissen 177 Vgl.[JB05], S. 306;[TG08], S. 282, und die dort genannten Quellen. 178 Siehe[BAM13], S. 4. 179 Siehe[Goh07], S. 178. 180 Vgl.[JB05], S. 306. 181 [DG06]. 182 Vgl. Abschnitte 2.2.2.3 und 2.2.2.4. 183 Vgl.[GD96], S. 2078. 184 [CM07], S. 219. 185 [BSG04]. 62 3 Stand der Forschung und Fähigkeiten bzgl. des Auftrags sowie den Maschinen, für die sie zuständig sind. Der Fokus liegt hierbei auf der Anwendung der Wer-Regeln in einer Simulationsstudie. Mit Wann-Regeln(engl. when-rules ) wird bestimmt, wann ein Mitarbeiter zu einer anderen Maschine wechseln darf. Hierbei stellen zentralisierte und dezentralisierte Kontrolle die zwei Hauptarten der Wann-Regeln dar. Während bei ersterer der Mitarbeiter mit dem Ende eines Auftrags die Maschine wechseln darf, ist bei letzterer zunächst die Warteschlange an der aktuellen Maschine vollständig abzuarbeiten. Mit Wohin-Regeln(engl. where-rules ) wird schließlich bestimmt, zu welcher Maschine der Mitarbeiter wechselt. 186 Die Dual-resource Constrained (DRC)-Probleme werden hierbei analytisch, über Simulation oder mittels(Meta-)Heuristiken gelöst. 187 Werden neben den Maschinen und dem Personal weitere Ressourcen(Hilfsressourcen) betrachtet, die für die Produktivität dieser beiden notwendig sind, so handelt es sich um Multiple-resource Constrained Systems/Scheduling (MRCS). 188 Zu diesen weiteren Ressourcen können sowohl Werkzeuge für die Bearbeitung des Auftrags als auch Transportsysteme(engl. Material Handling System (MHS)) für den Materialfluss gezählt werden. 189 Eine integrierte Betrachtung der Ablaufplanung für Maschinen erfolgt hierbei häufig in Kombination mit Automated Guided Vehicles (AGVs) als Transportsystem. 190 Als Lösungsverfahren stehen die gleichen Verfahren wie für DRC-Probleme zur Verfügung. Khayat et al. 191 unterscheiden hier zwischen Online- und Offline-Verfahren. Während erstere bspw. auf Basis von Prioritätsregeln das System in der Ausführung steuern, wird mit letzteren eine Planung im Vorhinein für das statische System ausgeführt. 3.2.4 Literaturüberblick Für das in Abschnitt 2.2.2 dargestellte Ablaufplanungsproblem sind keine Arbeiten bekannt, die alle definierten Anforderungen an ein Verfahren zur Lösung(vgl. Abschnitt 2.3.2) erfüllen. Im Folgenden werden daher Beiträge betrachtet, die einen Teil dieser Anforderungen berücksichtigen. Zunächst wird ein Literaturüberblick über verschiedene Maße zur Quantifizierung der Robustheit sowie Stabilität einer Lösung gegeben. Hierauf aufbauend werden Arbeiten angeführt, in denen Modellierungsmöglichkeiten zur Erstellung von weniger konservativen Lösungen vorgestellt werden. Anschließend wird eine Übersicht zu konkreten Ablaufplanungsproblemen gegeben, die dem in Abschnitt 2.2.2.2 definierten Ablaufplanungsproblem ähneln sowie Teilaspekte der definierten Anforderungen(vgl. Abschnitt 2.3.2) berücksichtigen und dabei durch analytische oder heuristische Verfahren gelöst werden. Den Abschluss bildet eine Übersicht zu Beiträgen, die sich mit Personal- oder Förderkapazitäten als einschränkender Ressource beschäftigen. 186 Siehe[XXX11], S. 313, und die dort aufgeführten Quellen für eine Übersicht und Schlussfolgerungen für verschiedene Wann- und Wohin-Regeln. 187 Vgl. ebd., S. 314 f. 188 Vgl.[CM07], S. 219. 189 Siehe[GD96], S. 2077. 190 Vgl.[KLR06], S. 1819 ff., und die dort aufgeführten Quellen. 191 Siehe ebd., S. 1819. 3.2 Multikriterielle Ablaufplanung unter Unsicherheit 63 Kouvelis& Yu 192 modellieren die Unsicherheit der Eingabedaten über die Definition einer Menge von Szenarien und beschreiben drei Maße zur Quantifizierung der Robustheit: Mit dem absoluten Robustheitsmaß (auch: minimax-Kriterium) wird nach einer Lösung gesucht, die für alle Eingabedatenszenarien und zulässigen Entscheidungen die maximalen Kosten minimiert und somit gegen den Worst Case absichert. Das Maß der absoluten Abweichung 193 wird verwendet, um eine Lösung zu ermitteln, die die beste Worst-CaseAbweichung vom Optimum(gemessen über ein Performancekriterium) über alle zulässigen Lösungen und für alle Eingabedatenszenarien besitzt. Das Maß der relativen Abweichung entspricht dem vorherigen, jedoch wird hier die prozentuale Abweichung betrachtet. Ein Stabilitätsmaß zur Quantifizierung der Ähnlichkeit von zwei Ablaufplänen beschreibt Jensen. 194 Grundlage bildet ein Maß, mit dem die Überdeckung zwischen zwei Aufträgen bemessen werden kann. Als Überdeckung wird die Dauer bezeichnet, in denen ein Auftrag in beiden Ablaufplänen zur gleichen Zeit ausgeführt wird. Das Stabilitätsmaß basiert auf der normierten Summe der Überdeckungen aller Aufträge. Beyer& Sendhoff 195 beschreiben verschiedene Robustheitsmaße für deterministisch, probabilistisch und durch Fuzzy-Logik modellierte Unsicherheiten. Deterministische Unsicherheiten werden von den Autoren als Mengen, in denen die unsicheren Parameter liegen können, beschrieben. Das vorgeschlagene Robustheitsmaß entspricht einer WorstCase-Betrachtung und basiert auf dem maximalen Wert einer Zielfunktion f in einer nutzerdefinierten Nachbarschaft um die Lösung x . Für die probabilistischen Unsicherheiten werden die Parameter als Zufallsvariablen mit bekannten Verteilungen modelliert. Hierfür werden von den Autoren Robustheitsmaße basierend auf Erwartungswerten, probabilistischen Grenzwerten sowie probabilistischen Nebenbedingungen beschrieben. Für die durch Fuzzy-Logik modellierten Unsicherheiten werden die Parameter durch Fuzzy-Mengen beschrieben. Das Robustheitsmaß beschreibt den Grad der Zugehörigkeit der Lösung zur Menge der gültigen Lösungen. Goren& Sabuncuoglu 196 beschreiben für ein Einmaschinenproblem einen auf einer Tabu-Suche basierenden Algorithmus zur Generierung von stabilen und robusten Ablaufplänen unter zufälligen Störeinflüssen wie Maschinenausfällen. Als Robustheits- und Stabilitätsmaß werden zwei Ersatzkriterien für die originalen Zielfunktionen vorgeschlagen, da diese nur sehr aufwendig zu berechnen sind. Die Ersatzkriterien berücksichtigen dabei die Verteilungen der Betriebs- und Reparaturdauern für die Maschine. Sabuncuoglu& Goren 197 stellen verschiedene Robustheits- und Stabilitätsmaße vor, wobei erstere in zwei Kategorien unterteilt werden: In der ersten Kategorie werden sieben Maße beschrieben, die auf der realisierten Performance(gemessen anhand der verwendeten Zielfunktion) eines Ablaufplans beruhen. Die zweite Kategorie enthält vier Maße, die auf dem Verlust/Regret der realisierten Lösung im Vergleich zur optimalen Lösung 192 Siehe[KY97], S. 8 ff. 193 Häufig auch als absolutes Verlust- bzw. Regret-Kriterium bezeichnet, da die Abweichung von der optimalen Lösung für ein Szenario als Verlust angesehen wird. 194 Siehe[Jen01], S. 79 f. 195 Siehe[BS07], S. 3194–3199. 196 [GS08]. 197 [SG09]. 64 3 Stand der Forschung aufbauen. Für die Stabilitätsmaße werden sechs Maße vorgestellt, die auf der Differenz der Fertigstellungszeitpunkte der Aufträge zweier verschiedener Ablaufpläne beruhen. Probleme mit sehr konservativen Lösungen in Folge der ausschließlichen Konzentration auf den Worst Case sind in der robusten Optimierung von großer Bedeutung 198 und einer der Kritikpunkte an diesem Konzept. 199 Aus diesem Grund sind mehrere Alternativansätze zu Robustheitsmaßen und Modellierungsansätzen vorgeschlagen worden, die im Folgenden näher erläutert werden. 200 Daniels& Carrillo 201 beschreiben für ein Einmaschinenproblem mit unsicheren Bearbeitungszeiten der Aufträge(abgebildet über Bearbeitungszeitszenarien) einen probabilistischen Ansatz, bezeichnet als„ β -Robust“. Die generierten Ablaufpläne werden anhand der jeweiligen Wahrscheinlichkeit, eine summierte Durchlaufzeit zu erzielen, die ein bestimmtes Anspruchsniveau T nicht überschreitet, evaluiert. Das Ziel der Ablaufplanung ist es, den Ablaufplan, der diese Wahrscheinlichkeit maximiert, zu ermitteln. Dieser Plan wird als β -robuster-Ablaufplan bezeichnet und durch die Anwendung eines Branch-and-Bound-Algorithmus sowie der Verwendung einer Heuristik ermittelt. Bertsimas& Sim 202 behandeln„The Price of Robustness“ und beschreiben Modellierungsmöglichkeiten, um weniger konservative Lösungen für robuste Optimierungsprobleme zu erstellen. Die Autoren erachten die Koeffizienten a i,j der Restriktionenmatrix A eines linearen Programms als unsicher. Die Koeffizienten nehmen dabei Werte aus einer symmetrischen Verteilung im Intervall[ a i,j − a i,j , a i,j + a i,j ] an, deren Erwartungswert dem nominalen 203 Wert dieses Koeffizienten entspricht und wobei a i,j die Abweichung von diesem beschreibt. Die Autoren nehmen weiterhin an, dass es unwahrscheinlich ist, dass alle Koeffizienten von ihrem nominalen Wert abweichen. Daher wird für jede Restriktion ein Parameter Γ i eingeführt, der die maximale Anzahl an Koeffizienten angibt, die gleichzeitig von ihrem nominellen Wert abweichen dürfen. Über diesen Parameter kann somit der Grad der Robustheit gesteuert werden. Snyder& Daskin 204 beschreiben ein gegenüber dem Maß der relativen Abweichung bzw. relativem Verlust-/Regret-Kriterium erweitertes Maß der p -Robustheit für Probleme mit einer endlichen Zahl an Szenarien. Eine Lösung wird hierbei als p -robust bezeichnet, wenn ihr relativer Regret für kein Szenario den definierten Parameter p übersteigt. Die Autoren wenden das Robustheitsmaß für zwei Facility Location -Probleme( k -Median-Problem und Uncapacitated Fixed-charge Location -Problem) an, bei denen die Kundenbedarfe und Transportkosten unsicher sind. Die Autoren Fischetti& Monaci 205 beschreiben einen heuristischen Ansatz zur Modellierung von Unsicherheiten, den sie„Light Robustness“ nennen und der als ein flexibles 198 Siehe[GMT14], S. 472. 199 Siehe[IT14], S. 131. 200 Vgl. ebenfalls[GS15], S. 5–13, für eine Übersicht zu verschiedenen Modellierungsansätzen. 201 [DC97]. 202 [BS03];[BS04]. 203 Der nominale Wert eines Koeffizienten ist der Wert, der in einem deterministischen Optimierungsmodell verwendet wird und der unter anderem auf Basis von Messungen, Schätzungen oder Erfahrung ermittelt werden kann. 204 [SD06]. 205 [FM09]. 3.2 Multikriterielle Ablaufplanung unter Unsicherheit 65 Gegenstück zur robusten Optimierung angesehen werden kann. Der Ansatz basiert zum einen auf der Definition einer maximalen Abweichung von dem optimalen Zielfunktionswert für das nominale Problem 206 in Form einer zusätzlichen Restriktion. Zum anderen wird ein Robustheitsziel vorgegeben und durch ein klassisches Framework, wie das von Ben-Tal& Nemirovski 207 oder Bertsimas& Sim, 208 modelliert; ferner werden Schlupfvariablen eingeführt, um Zulässigkeitsprobleme zu berücksichtigen. Als künstliche Zielfunktion wird die Minimierung der Schlupfvariablen eingeführt. Die Autoren stellen zwei Varianten der Light Robustness vor, wobei die erste auf dem Robustheitsmodell von Bertsimas& Sim aufbaut und die zweite Variante direkt an den Schlupfvariablen ansetzt. Das vorgeschlagene Konzept wird auf Basis von künstlich erzeugten Probleminstanzen für ein ein- bzw. mehrdimensionales Rucksackproblem und ein Portfolioproblem sowie ein reales Train Timetabling -Problem evaluiert. Ben-Tal et al. 209 stellen einen als„soft robustness“ bezeichneten Modellierungsprozess vor. Hierbei soll der Erwartungswert einer Auszahlfunktion maximiert werden, wobei bezüglich des Wissens der unterliegenden Verteilungsfunktion von Ungewissheit ausgegangen wird. Im Gegensatz zur Light Robustness werden hier verschiedene Grade der Zulässigkeit durch Restriktionen erzwungen und der Grad der Optimalität wird als Zielfunktion verwendet. Der Ansatz wird schließlich auf zwei Portfolio-Probleme angewendet. Roy 210 schlägt drei Robustheitsmaße für eine endliche Zahl möglicher Szenarien vor, die auf den drei von Kouvelis& Yu 211 beschriebenen Robustheitsmaßen beruhen. Hierfür werden zwei zusätzliche Parameter w und b definiert, die als Grenzwerte Verwendung finden. Der erste Parameter w gibt einen garantierten Wert an, den der Entscheidungsträger für jedes mögliche Szenario erfüllt sehen möchte. Der Parameter b dient als Grenzwert, der in möglichst vielen Szenarien über- bzw. unterschritten(abhängig davon, ob es sich um ein Maximierungs- oder Minimierungsproblem handelt) werden soll. Über den Grenzwert w lässt sich die Relevanz des Worst-Case-Szenarios abschwächen und somit können Lösungen berücksichtigt werden, die zwar eine schlechtere Worst-Case-Performance besitzen, in der überwiegenden Zahl der Fälle(gemessen über den Parameter b ) aber gute Ergebnisse erzielen. Eine Erweiterung, bei der die bw -Robustheit mit Unsicherheitsintervallen verwendet wird, beschreiben Gabrel et al. 212 für eine robuste Lösung des Problems des kürzesten Weges. Die Autoren Kalaï et al. 213 schlagen ein weiteres Robustheitsmaß basierend auf dem minimax- und dem p -Robustheitskriterium vor, das sie als„lexicographic α -robustness“ bezeichnen. Lösungen werden hierbei auf Basis ihres absteigend sortierten Kostenvektors 206 In einem nominalen Problem nimmt jeder unsichere Parameter seinen nominalen Wert an. Dieser entspricht dem Wert des Parameters aus dem deterministischen Optimierungsmodell. 207 [BN99]. 208 [BS04]. 209 [BBB10]. 210 [Roy10];[Roy07] sowie[AR10] für eine Betrachtung bei mehreren Zielfunktionen. 211 [KY97]. 212 [GMW13]. 213 [KLV12];[KL07]. 66 3 Stand der Forschung für eine endliche Menge von Szenarien, einer theoretischen Idealpunktlösung und einer Relation, die die Autoren„ α -leximax relation“ nennen, evaluiert. Als α -robuste-Lösungen werden die Lösungen bezeichnet, bei denen in jedem betrachteten Szenario die Differenz aus den Kosten der Lösung und der Idealpunktlösung kleiner gleich α ist. Die vorgenannten Ansätze werden von Iancu& Trichakis 214 kritisiert, da sie einen Teil der Robustheit für eine evtl. bessere Performance aufgeben. Von den Autoren wird daher ein Vorgehen vorgeschlagen, um Lösungen zu ermitteln, die die gleiche WorstCase-Szenario-Performance wie die vom Standardframework der robusten Optimierung ermittelten Lösungen besitzen, dabei aber eine bessere Performance für die weiteren Szenarien erzielen. Hierfür weisen die Autoren nach, dass das Standardframework der robusten Optimierung nicht notwendigerweise eine robuste Lösung x ermittelt, die paretooptimal ist. Eine Lösung wird dabei als pareto-optimal robust angesehen, wenn sie die gleiche Worst-Case-Performance wie x besitzt und zusätzlich von keiner anderen Lösung pareto-dominiert wird, d. h., es gibt keine Lösung mit einer strikt besseren Performance für ein vom Worst-Case-Szenario verschiedenes Szenario. Das Vorgehen wird für ein Portfolio-, ein Inventar- und ein Projektmanagementproblem angewendet. Eine Erweiterung der Alternativansätze zu Robustheitsmaßen und Modellierungsansätzen auf mehrzielorientierte Optimierungsprobleme wird von Ide& Schöbel 215 beschrieben. Insgesamt werden drei Ansätze, unter anderem das„Light Robustness“ Konzept, erweitert und mit verschiedenen minmax-robust-effizienten Ansätzen sowie Konzepten basierend auf Ordnungsrelationen verglichen. Beiträge zu Ablaufplanungsproblemen in Luftfrachtterminals sind nicht bekannt. Im Folgenden werden daher Arbeiten betrachtet, die das Grundproblem der Ablaufplanung für mehrere Maschinen mit unsicheren Bearbeitungszeiten der Aufträge und Teile der für diese Arbeit definierten Anforderungen berücksichtigen und mit exakten oder heuristischen Methoden lösen. Herrmann 216 stellt einen auf zwei parallelen Populationen basierenden genetischen Algorithmus zur Lösung von minimax-Optimierungsproblemen vor. Hierbei werden in der einen Population die Lösungen und in der anderen die Szenarien für die Unsicherheiten entwickelt. Die Individuen einer Population werden dabei jeweils auf Basis der Individuen der anderen Population evaluiert und konvertieren somit zu einer robusten Lösung und dem Worst-Case-Szenario. Der Autor testet das Verfahren auf Basis eines identischen Mehrmaschinenproblems mit unsicheren Bearbeitungszeiten der Aufträge. Anglani et al. 217 beschreiben eine robuste Ablaufplanung für ein identisches Mehrmaschinenproblem mit sequenzabhängigen Rüstkosten und unter der Annahme unsicherer Bearbeitungszeiten, deren exakte Verteilungen nicht bekannt sind. Die unsicheren Bearbeitungszeiten werden hierfür als Fuzzy-Zahlen modelliert. Die Autoren formulieren ein nicht-lineares gemischt-ganzzahliges Programm(engl. Non-linear Mixed-integer Program (NLMIP)), das sie zu einem äquivalenten gemischt-ganzzahligen linearen Programm(engl. Mixed-integer Linear Program (MILP)) umformen und als Zielfunktion die 214 [IT14]. 215 [IS15]. 216 [Her99]. 217 [AGGM05]. 3.2 Multikriterielle Ablaufplanung unter Unsicherheit 67 Summe der Rüstkosten minimieren. Für größere Probleminstanzen wird eine approximierte Formulierung vorgeschlagen. Jia& Ierapetritou 218 stellen für ein batch -Ablaufplanungsproblem der chemischen Industrie mit unsicherem Bedarf und unsicheren Bearbeitungszeiten(abgebildet über Szenarien) einen multikriteriellen Optimierungsansatz vor. Als Zielfunktionen werden der maximale Fertigstellungszeitpunkt(engl. makespan ), die Modellrobustheit(quantifiziert über die unbefriedigte Nachfrage und modelliert durch Schlupfvariablen) sowie die Lösungsrobustheit(quantifiziert über die positive Abweichung des maximalen Fertigstellungszeitpunkts in einem Szenario vom Erwartungswert) betrachtet. Zur Lösung das Modells wird die Normal Boundary Intersection -Methode verwendet, um Lösungen zu generieren, die gleichmäßig über die Pareto-Front verteilt sind. Ranjbar et al. 219 stellen zwei Branch-and-Bound-Algorithmen für ein identisches Mehrmaschinenproblem vor, bei dem vom Kunden ein Fälligkeitstermin für den spätesten Fertigstellungszeitpunkt aller Aufträge vorgegeben wird. Die Bearbeitungszeiten der einzelnen Aufträge werden als normalverteilte Zufallsvariablen mit bekanntem Erwartungswert und Varianz modelliert. Ziel ist es, einen Ablaufplan zu erzeugen, der den Servicelevel für den Kunden maximiert. Der Servicelevel wird anhand der Wahrscheinlichkeit, dass der Fertigstellungszeitpunkt den Fälligkeitstermin nicht überschreitet, gemessen. Von den Autoren Xu et al. 220 wird ebenfalls das identische Mehrmaschinenproblem unter der Annahme unsicherer Bearbeitungszeiten, deren Verteilungen nicht bekannt sind, betrachtet. Die Bearbeitungszeiten der Aufträge werden als geschlossene Intervalle modelliert und die Menge der Szenarien ergibt sich als kartesisches Produkt aller Bearbeitungszeitintervalle. Als Zielfunktion wird ein absolutes Verlust-/Regret-Kriterium auf Basis einer makespan -Zielfunktion verwendet, um eine Lösung zu ermitteln, die die maximale Abweichung zur jeweils besten Lösung der Szenarien minimiert. Die unendliche Menge möglicher Szenarien wird reduziert, indem die Autoren nachweisen, dass ein Regret-maximierendes Szenario zu einer endlichen Menge von Extrempunktszenarien 221 gehört. Zur Lösung des Problems werden zwei exakte, zwei reine Heuristiken(Lokale Suche, Simulated Annealing) sowie vier Mischheuristiken aus den zwei zuvor genannten und einem pairwise interchange algorithm beschrieben. Xu et al. 222 verwenden den vorgenannten Ansatz für das uniforme 223 Mehrmaschinenproblem mit einem absoluten Verlust-/Regret-Kriterium auf Basis der summierten Durchlaufzeit als Zielfunktion. Beiträge, die Personal- oder Förderkapazitäten als einschränkende Ressource berücksichtigen, werden im Folgenden betrachtet. 218 [JI07]. 219 [RDL12]. 220 [XCLQ13]. 221 Ein Extrempunktszenario ist ein Szenario, bei dem alle Bearbeitungszeiten der im Ablaufplan eingeplanten Aufträge bzw. alle betrachteten unsicheren Parameter entweder ihren kleinsten oder größten Wert im Intervall annehmen. 222 [XLC14]. 223 Bei diesem Problem besitzt jede Maschine eine individuelle Produktionsgeschwindigkeit q j . Die Bearbeitungszeit eines Auftrags unterscheidet sich somit um diesen Faktor für verschiedene Maschinen. 68 3 Stand der Forschung Lau& Zhao 224 beschreiben für ein automatisiertes Luftfrachtterminal ein Ablaufplanungsverfahren, das in einer gemeinsamen Planung das unterschiedliche Fördertechnikequipment integriert. Für das Schlüsselequipment – AGVs und ETVs 225 – wird eine gemeinsame Planung mit Hilfe einer Heuristik zur Minimierung der Wartezeiten der ETVs sowie der Transportzeiten der AGVs durchgeführt. Chaudhry& Drake 226 verwenden einen genetischen Algorithmus, um für ein identisches Mehrmaschinenproblem die Gesamtverspätung des Ablaufplans zu minimieren. Hierbei wird das Personal als weitere einschränkende Ressource neben den Maschinen betrachtet und direkt innerhalb der Kodierung des GAs berücksichtigt. Ein ähnlicher Ansatz wird von ElMaraghy et al. 227 für einen Job Shop sowie von Costa et al. 228 für ein heterogenes 229 Mehrmaschinenproblem vorgestellt. Tang et al. 230 stellen ein Multi-commodity Network Flow (MCNF)-Modell für ein Luftfrachtterminal vor, in dem sowohl Export- als auch Transferfracht bearbeitet werden. Mit Hilfe des Modells soll die Auslastung des Terminals ausgeglichen werden, um Stausituationen zu vermeiden. Aufbauend auf dem MCNF-Modell wird eine Heuristik für die praktische Umsetzbarkeit entworfen und mittels Simulation validiert. Joe et al. 231 entwerfen ein Kontrollframework zur Steuerung eines komplexen MHS. Als Beispiel nutzen die Autoren ein Luftfrachtterminal, das sie als Netzwerk abbilden. In dem Netzwerk bezeichnen die Knoten Puffer und Fahrzeuge(hier: Rail-guided Vehicles (RGVs)), die Kanten die Fahrwege der RGVs und ULDs die verschiedenen Güter, die auf den Strecken zu transportieren sind. Für das Netzwerk wird ein Multi-commodity Flow Problem (MCFP) zur Minimierung der benötigten Anzahl der Transporte für die ULDs definiert. Die durch das MCFP berechneten Routen werden zur Konfiguration einer Matrix-basierten diskreten Ereignissteuerung verwendet, die als Echtzeitdispatcher Steuerungsanweisungen an das MHS sendet. Zäpfel et al. 232 entwickeln für eine Fließfertigung in der Automobilindustrie ein mathematisches Modell(spezifischer ein NLMIP), bei dem sowohl die Zuordnung von Aufträgen zu den Fertigungslinien und die Festlegung von Start- und Endzeiten der Aufträge betrachtet wird als auch die Zuweisung von Personal zu den Arbeitsstationen. Ziel ist es, die Fertigstellungszeit des Systems zu minimieren. Für das Modell wird anschließend eine zweistufige Heuristik vorgeschlagen. Im ersten Schritt erfolgt die Zuweisung der Aufträge zu den Fertigungslinien und die Festlegung der Start- und Endzeiten. Im zweiten Schritt wird das Personal den Arbeitsstationen zugewiesen und die Start- und Endzeiten der Aufträge werden aktualisiert. 224 [LZ06]. 225 Die Autoren bezeichnen diese als„stacker cranes“. 226 [CD09]. 227 [EPA00]. 228 [CCF13]. 229 Bei diesem Problem ergibt sich die Bearbeitungszeit eines Auftrags aus der Kombination aus Maschine und Auftrag. Ein Auftrag kann somit für jede Maschine eine unterschiedliche Bearbeitungszeit besitzen. 230 [TNL10]. 231 [JGL12]. 232 [ZWB12]. 3.3 Ablaufsteuerung und Revision von Ablaufplänen 69 Mehravaran& Logendran 233 beschreiben für eine Fließfertigung ohne Permutation, bei der sowohl Maschinen als auch Personal mit verschiedenen Fähigkeitsleveln als einschränkende Ressourcen betrachtet werden, ein MILP zur Minimierung der gewichteten Fertigstellungszeit sowie der gewichteten Verspätung der Aufträge. Des Weiteren werden drei Metaheuristiken beschrieben, die jeweils aus zwei verschiedenen Ebenen bestehen. Während in der äußeren Ebene ein auf der Tabu-Suche basierender Suchalgorithmus verwendet wird, um die Maschinenbelegung zu ermitteln, wird in der inneren Ebene eine dreistufige Heuristik zur Einplanung des Personals verwendet. 3.3 Ablaufsteuerung und Revision von Ablaufplänen Die im vorherigen Abschnitt beschriebenen Verfahren finden für eine proaktive Ablaufplanung Verwendung, bei der die Absicherung gegen mögliche Störungen vor der Planausführung stattfindet. Im Folgenden werden ergänzend hierzu reaktive Verfahren zur Revision von Ablaufplänen betrachtet, die während der Planausführung auf Störungen reagieren und den Ablaufplan entsprechend anpassen können. 234 Hierzu werden in Abschnitt 3.3.1 zunächst verschiedene Vorgehensweisen zur Revision von Ablaufplänen vorgestellt. Anschließend wird in Abschnitt 3.3.2 ein Literaturüberblick im Kontext von Mehrmaschinenproblemen gegeben. 3.3.1 Vorgehensweisen zur Revision von Ablaufplänen Treten während der Planausführung Störungen auf, die nicht den bereits bei der proaktiven Ablaufplanung berücksichtigten stochastischen Einflüssen entsprechen, kann eine Neu- bzw. Umplanung(engl. rescheduling ) des Ablaufplans notwendig werden. Die Notwendigkeit besteht immer dann, wenn der aktuelle Plan nicht länger ausgeführt werden kann. Weicht die tatsächliche Performance von der geplanten ab, ist eine Umplanung optional und unter Berücksichtigung der entstehenden Kosten vorzunehmen. 235 Die in der Literatur beschriebenen Vorgehensweisen zur Umplanung lassen sich grob in drei verschiedene Kategorien einteilen, 236 die im Folgenden vorgestellt werden. In der ersten Kategorie(als„lokales Rescheduling“ oder„Planreparatur“ bezeichnet) finden sich einfache Vorgehensweisen, die auf eine schnelle Reparatur des ungültigen Ablaufplans abzielen. Hierzu gehört bspw. die Right Shift Rule , bei der alle von der Störung betroffenen Aktivitäten unter Beibehaltung der geplanten Reihenfolge in die Zukunft verschoben werden. Bei der Right Shift and Jump Rule kann zusätzlich die Reihenfolge angepasst werden. 237 Die beiden Regeln sind leicht anwendbar, können aber aufgrund der lokalen Anwendung zu einer schlechten Performance des resultierenden Ablaufplans führen. 238 233 [ML13]. 234 Vgl. Abschnitt 2.2.3. 235 Vgl.[VHL03], S. 39 f. 236 Vgl.[KJF10], S. 266;[Bid05], S. 32;[VHL03], S. 54;[SB00], S. 571. 237 Siehe[Bid05], S. 32. 238 Vgl.[KJF10], S. 266. 70 3 Stand der Forschung In die zweite Kategorie fallen Neuplanungsverfahren(engl. full/total/complete rescheduling ), bei denen der noch nicht ausgeführte Ablaufplan verworfen und unter Berücksichtigung der Störungen neu geplant wird. 239 Hierfür können alle Ablaufplanungsverfahren verwendet werden, die auch für die initiale Ablaufplanung geeignet sind. Die Nachteile dieses Vorgehens sind der Rechenaufwand unter Berücksichtigung der knappen Reaktionszeit im Falle einer Störung sowie die fehlende Planstabilität, sofern diese nicht explizit berücksichtigt wird. 240 Zwischen diesen beiden Extremen finden sich partielle Verfahren(engl. partial rescheduling ), die einen Teil der Aufträge, die direkt oder indirekt durch die Störung betroffen sind, umplanen. 241 Als Verfahren sind Affected Operations Rescheduling 242 und Matchup Scheduling 243 zu nennen. Ersteres berücksichtigt bei der Umplanung betroffener Aufträge die Planstabilität und-effizienz. Letzteres versucht eine Umplanung der Aufträge bis zu einem gewissen matchup point durchzuführen, ab dem der ursprüngliche Ablaufplan fortgesetzt werden kann. Ein generischer Ansatz für partielle Verfahren wird von Kuster et al. 244 vorgeschlagen, von den Autoren als„Local Rescheduling“ bezeichnet. Das Verfahren basiert auf der Verwendung eines iterativ größer werdenden Zeitfensters, innerhalb dessen eine Revision des Plans vorgenommen wird. 3.3.2 Literaturüberblick Vieira et al. 245 beschreiben für ein uniformes Mehrmaschinenproblem unter Berücksichtigung verschiedener Auftragstypen und Rüstzeiten analytische Modelle, die zur Vorhersage der Performance von drei verschiedenen Umplanungsstrategien verwendet werden. Es werden die periodische, die Event-basierte und die hybride Umplanungsstrategie betrachtet. Erstere führt eine Umplanung zu äquidistanten Zeitpunkten durch. Bei der Event-basierten Strategie erfolgt eine Umplanung, wenn ein bestimmter Grenzwert neu eingetroffener Aufträge erreicht worden ist. Die hybride Strategie erfolgt sowohl periodisch als auch bei spezifischen Ereignissen(hier: Maschinenausfall und -reparatur). Alagöz& Azizoğlu 246 stellen für ein identisches Mehrmaschinenproblem unter der Einschränkung, dass nicht jede Maschine jeden Auftrag bearbeiten kann, ein Umplanungsproblem vor. Es wird davon ausgegangen, dass zu einem Zeitpunkt nur eine Störung eintritt und dass bis zur Reparatur des Ablaufplans keine weitere auftritt. Der Zeitpunkt und die Dauer der Störung sind darüber hinaus bekannt. Als Performancekriterium wird die summierte Durchlaufzeit und als Stabilitätsmaß die Anzahl der Aufträge, für die ein Maschinenwechsel zwischen dem initialen und dem geänderten Ablaufplan durchgeführt 239 Siehe[KJF10], S. 266. 240 Vgl.[KJF10], S. 266;[VHL03], S. 55. 241 Siehe[VHL03], S. 54 f., und[Bid05], S. 32 ff., für eine ausführliche Übersicht zu verschiedenen Verfahren. 242 Siehe z. B.[AS97]. 243 Siehe z. B.[BBMN91]. 244 [KJF10]. 245 [VHL00]. 246 [AA03]. 3.4 Fazit zum Stand der Forschung 71 wurde, verwendet. Ein sehr ähnliches Problem betrachten Azizoğlu& Alagöz in einer späteren Publikation. Hier kann jedoch jede Maschine jeden Auftrag bearbeiten. Darüber hinaus wird ein Algorithmus mit polynomieller Laufzeit vorgestellt. 247 In den Beiträgen von Ozlen& Azizoğlu 248 beschreiben die Autoren für ein heterogenes Mehrmaschinenproblem einen Ansatz zur Umplanung. Die beiden Beiträge unterscheiden sich in der Anwendung verschiedener Lösungsalgorithmen. Branke& Mattfeld 249 stellen für das Beispiel eines Job Shops mit dynamisch ankommenden Aufträgen einen Ansatz vor, der sowohl die Gesamtverspätung als auch die Flexibilität 250 bei der Ablaufplanung berücksichtigt. Das dynamische Problem wird durch einen rollierenden Zeithorizont in deterministische Teilprobleme zerlegt. Zur Lösung der Teilprobleme testen die Autoren einen randomisierten Prioritätsregeldispatcher sowie einen evolutionären Algorithmus. Die für ein deterministisches Teilproblem durch den evolutionären Algorithmus ermittelten Prioritätsinformationen werden nach dem Ansatz von Bierwirth& Mattfeld 251 für das jeweils nachfolgende deterministische Teilproblem verwendet, da sich diese zu einem gewissen Grad ähneln. Durch dieses Vorgehen kann die Laufzeit reduziert und evtl. die Lösungsqualität verbessert werden. Lee et al. 252 berücksichtigen für ein Zweimaschinenproblem die Transportkosten und -zeiten, die entstehen, wenn Aufträge nach dem Auftreten einer Störung von der einen zur anderen Maschine verschoben werden müssen. Für verschiedene Zielfunktionen führen die Autoren mögliche Lösungsalgorithmen an und ermitteln die Komplexität der entsprechenden Probleme. Arnaout 253 beschreibt für ein heterogenes Mehrmaschinenproblem mit stochastischen Bearbeitungs- und Rüstzeiten unter Berücksichtigung von Maschinenausfällen und Eilaufträgen die Reparaturregel Minimum Weighted C max Difference . Diese Regel berücksichtigt die Änderung der Bearbeitungs- und Rüstzeiten beim Wechsel eines Auftrags von einer Maschine zu einer anderen sowie die Gesamtzahl aller verschobenen Aufträge. Die Regel wird mit zwei weiteren Regeln auf Basis eines Performance- sowie Stabilitätsmaßes in einer Simulation verglichen. 3.4 Fazit zum Stand der Forschung Der Stand der Forschung zu den drei für diese Arbeit identifizierten Problemfeldern bildet die Grundlage für das Erstellen einer Ablaufplanung in Luftfrachtterminals unter Berücksichtigung der in Abschnitt 2.3 definierten Anforderungen. Die Analyse der verschiedenen Beiträge zeigte, dass einige der definierten Anforderungen in der Literatur durch geeignete Verfahren bereits berücksichtigt werden. Hinsichtlich der Integration der Einzelverfahren in ein Gesamtkonzept sowie der problemspezifischen Anpassung 247 [AA05]. 248 [OA09];[OA11]. 249 [BM05]. 250 Die Flexibilität wird erhöht, indem frühe Wartezeiten vermieden werden. 251 [BM99]. 252 [LLY06]. 253 [Arn14]. 72 3 Stand der Forschung einzelner Verfahren und der Erweiterung um praxisrelevante Anforderungen besteht jedoch Handlungsbedarf. Von den vorgestellten multivariaten statistischen Verfahren zur Klassenbildung entsprechen partitionierende Verfahren den gestellten Anforderungen, insbesondere, da eine hierarchische Aufarbeitung der historischen Betriebsdaten nicht notwendig und eine visuelle Darstellung in Form eines Dendrogramms bei vielen Datensätzen nicht sinnvoll ist. Das Wissen über die Anzahl verschiedener Auftragsarten kann dabei als Information für die Festlegung der gewünschten Clusteranzahl verwendet werden. Zur Berücksichtigung verschiedener Skalenniveaus der Eigenschaften sowie zur Vermeidung einer zu starken Gewichtung von Ausreißern bietet sich darüber hinaus das k-medoids-Verfahren mit einer problemspezifisch angepassten Distanzfunktion an. Zur Klassierung neuer Aufträge anhand von charakterisierenden Eigenschaften bietet sich ein generatives Modell zur Klassierung an, da es abgesehen von dem höheren Aufwand zur Modellierung einige Vorteile im Vergleich zu den diskriminativen Modellen bietet. So können beispielsweise als Ausreißer erkannte Aufträge einen Hinweis auf ein weiteres Cluster liefern, das bei der Klassenbildung berücksichtigt werden sollte. Im Hinblick auf die Klassierung neuer Aufträge bei mehr als zwei Clustern und der Bewertung der Wahrscheinlichkeit für eine Clusterzugehörigkeit wird der naive Bayes-Klassifikator verwendet. Dieser ist direkt für k-Cluster-Probleme anwendbar und gibt die Clusterzugehörigkeit in Form von A-posteriori-Wahrscheinlichkeiten aus. Der Literaturüberblick in Abschnitt 3.1.3 zeigte, dass die explizite Einbeziehung von historischen Daten für das hier behandelte Problem nur unzureichend durch bestehende Arbeiten abgedeckt wird. Hier ist eine weitergehende Integration der Datenbasis und des erarbeiteten Informationsstands mit der Ablaufplanung zu leisten. Im Hinblick darauf, dass es sich bei der hier beschriebenen Ablaufplanung um ein sehr komplexes Problem handelt und für die Planung nur eine begrenzte Zeit zur Verfügung steht, bietet sich die Verwendung von(Meta-)Heuristiken an. Hierbei erwiesen sich die populationsbasierten Metaheuristiken am geeignetsten, da sie für multikriterielle Zielsysteme mehrere Lösungen in einer einzigen Ausführung ermitteln können. Evolutionäre Metaheuristiken sollen in dieser Arbeit verwendet werden, da sie umfangreich erforscht und für Optimierungsprobleme unter Unsicherheit bereits erste Vorarbeiten geleistet wurden. Ablaufplanungsprobleme wurden in der Literatur bereits eingehend untersucht und praxisrelevante Erweiterungen wurden in den letzten Jahren zunehmend betrachtet. Ein Verfahren, das die für diese Arbeit definierten Anforderungen vollständig integriert, ist jedoch nicht bekannt. Für die Berücksichtigung der Robustheit in der Ablaufplanung bietet sich das von Kouvelis& Yu beschriebene absolute Verlust-/Regret-Kriterium an. Zur Steuerung, wie konservativ ein generierter Ablaufplan sein soll, entspricht das bw -Robustheitsmaß nach Roy am ehesten der in Abschnitt 2.3.2 definierten Anforderung. Stabilitätsmaße, die bereits geplante Fertigstellungszeitpunkte berücksichtigen, sind den Arbeiten von Jensen sowie Sabuncuoglu& Goren zu entnehmen. Des Weiteren kann das dynamische Planungsumfeld durch die Verwendung einer rollierenden Planung einbezogen werden, wie von Branke& Mattfeld beschrieben. Den Anforderungen nach der Berücksichtigung des Personals und der Förderkapazitäten wird durch Arbeiten in den Bereichen DRCS und MRCS entsprochen. 3.4 Fazit zum Stand der Forschung 73 Der in Abschnitt 3.2.4 aufgeführte Literaturüberblick zeigte, dass keine Arbeiten bekannt sind, die für ein identisches Mehrmaschinenproblem die Zielfunktionen Anzahl säumiger Aufträge, Robustheit und Stabilität sowie alle definierten praxisrelevanten Anforderungen berücksichtigen. Um diese Anforderungen zu erfüllen, ist weitere Arbeit zu leisten. Für das Problemfeld der Ablaufsteuerung und Revision von Ablaufplänen erscheinen partielle Umplanungsverfahren am vielversprechendsten, da diese dem Trade-off zwischen Performance und Stabilität gerecht werden. Hierzu sind keine neuen Verfahren zu entwickeln, stattdessen ist die Integration in die zuvor beschriebenen Verfahren sowie eine problemspezifische Anpassung zu leisten. 75 4 Zu leistende Arbeit Zur Realisierung eines Ablaufplanungs- und-steuerungssystems für die im Rahmen der Umschlagprozesse in Luftfrachtterminals durchzuführenden Frachtabfertigungsaufträge wird im Folgenden beschrieben, welche Arbeit zu leisten ist. Ziel ist es, für jedes der in Abschnitt 2.2 identifizierten Problemfelder und die dort beschriebenen Ziele ein Lösungsverfahren zu erarbeiten und diese Lösungsverfahren zu einem Gesamtsystem zu kombinieren. Hierbei sind die in Abschnitt 2.3 definierten Anforderungen ebenso wie der in Kapitel 3 analysierte Stand der Forschung zu berücksichtigen. Die zu leistende Arbeit wird hierzu in Arbeitspakete zerlegt, die den einzelnen Problemfeldern zugeordnet werden. Eine konzeptionelle Umsetzung der beschriebenen Arbeitspakete sowie deren Einordnung in ein Gesamtsystem zur Ablaufplanung und-steuerung erfolgt in Kapitel 5. Die für die Arbeitspakete umgesetzten Verfahren werden anschließend in Kapitel 6 validiert, was zugleich das letzte Arbeitspaket darstellt. Der Aufbau beider Kapitel orientiert sich hierbei an den in Abschnitt 2.2 identifizierten Problemfeldern. 4.1 Entwicklung eines Verfahrens zur Datenanalyse der Abfertigungsprozesse In einem ersten Schritt ist aufbauend auf der vorhandenen Datenbasis über historische Betriebsdaten ein Informationsstand zu erarbeiten, der eine probabilistische Bewertung von Bearbeitungszeiten zukünftiger Aufträge erlaubt. Zur Erreichung dieses Ziels werden für dieses Problemfeld zwei Arbeitspakete definiert. Ziel des ersten Arbeitspakets ist es, die Daten aus der Datenbasis zu verdichten und für die spätere Ablaufplanung verwertbar aufzubereiten. Eine erste Verdichtung wird durchgeführt, indem historische Aufträge, die sich hinsichtlich ausgewählter Eigenschaften ähneln, zu Clustern zusammengefasst werden(vgl. Abschnitt 2.2.1.2). Hierzu sind aus der Menge der in der Datenbasis erfassten Eigenschaften historischer Frachtabfertigungsaufträge zunächst die relevanten Eigenschaften zu bestimmen, die eine möglichst hohe Korrelation mit der benötigten Bearbeitungszeit eines Auftrags aufweisen. Anschließend ist eine problemspezifische Distanzfunktion zu entwickeln, mit der die Ähnlichkeit bzw. Unähnlichkeit der historischen Aufträge auf Basis der ausgewählten Eigenschaften quantifiziert werden kann. Die Analyse von Clusteringverfahren in Abschnitt 3.1.1 hat das partitionierende Clusteranalyseverfahren k-medoids als geeignet identifiziert, um die anschließende Clusteranalyse von historischen Aufträgen durchzuführen. Auf Basis der identifizierten Cluster wird eine weitere Verdichtung der Daten vorgenommen, indem Intervallgrenzen und Häufigkeitsverteilungen der Bearbeitungszeitabweichungen aller 76 4 Zu leistende Arbeit einem Cluster zugeordneten Aufträge ermittelt werden. Die zu berücksichtigende Intervallausdehnung sowie die Granularität der Häufigkeitsverteilungen sollen dabei in Abhängigkeit des Clusters parametrisierbar sein. In dem zweiten Arbeitspaket wird ein Klassifikator erstellt, der eine Klassierung und damit Zuordnung von einzuplanenden Aufträgen während der Ausführung der Ablaufplanung vornehmen kann. Hierfür wird ein naiver Bayes-Klassifikator verwendet(vgl. Abschnitt 3.1.2), da dieser die Anforderung nach der Ausgabe von Zugehörigkeitswahrscheinlichkeiten erfüllt(vgl. Abschnitt 2.3.1). Für den Klassifikator sind zunächst Trainingsdaten auf Basis der zuvor identifizierten Cluster zu generieren und anschließend ist der Klassifikator mit diesen zu trainieren. Ergebnis einer Klassierung eines einzuplanenden Auftrags ist die für ein Cluster hinterlegte Intervallgrenze sowie Häufigkeitsverteilung der Bearbeitungszeitabweichungen. 4.2 Entwicklung einer multikriteriellen Ablaufplanung der Abfertigungsprozesse Aufbauend auf den Informationen, die der trainierte Klassifikator über einen einzuplanenden Auftrag zurückliefert, kann in einem zweiten Schritt eine proaktive Ablaufplanung zur Generierung robuster Ablaufpläne, die die Anzahl säumiger Aufträge minimieren, erstellt werden. Hierfür wird dieses Problemfeld in drei Arbeitspakete unterteilt: In dem ersten Arbeitspaket für dieses Problemfeld wird zunächst unter der Annahme einer statischen Umgebung(vgl. Abschnitt 2.2.2.1) ein konzeptionelles Grundmodell des Ablaufplanungsproblems aufgestellt, das als mathematisches Modell formalisiert wird. Für das Grundmodell wird ein Zielsystem aufgestellt, das die Minimierung der Anzahl säumiger Aufträge sowie die Maximierung der Robustheit des ermittelten Ablaufplans als Zielfunktionen betrachtet. Die Messung der Robustheit basiert hierbei auf dem in Abschnitt 3.2.4 identifizierten absoluten Verlust-/Regret-Kriterium von Kouvelis& Yu in Kombination mit dem bw -Robustheitskriterium von Roy, da dieses eine Parametrisierung des gewünschten Anspruchsniveaus erlaubt und somit der Anforderung der nicht expliziten Konzentration auf den Worst-Case-Fall Rechnung trägt(vgl. Abschnitt 2.3.2). Zur Berücksichtigung des dynamischen Planungsumfeldes ist das Grundmodell zu erweitern und in eine rollierende Ablaufplanung zu integrieren. Die definierte Anforderung, einen bereits aktiven und in der Ausführung befindlichen Ablaufplan zu berücksichtigen(vgl. Abschnitt 2.3.2), wird durch die Verwendung des Stabilitätsmaßes nach Jensen beachtet(vgl. Abschnitt 3.2.4). Dieses erweitert das Zielsystem um eine weitere Zielfunktion und das Grundmodell wird entsprechend ergänzt. Aufgrund der Komplexität des mathematischen Modells und der Anforderung, diese mit dem zu entwickelnden Verfahren zu beherrschen(vgl. Abschnitt 2.3.2), ist im zweiten Arbeitspaket eine Heuristik für dieses Problemfeld zu entwickeln. Die Analyse möglicher Heuristiken für Ablaufplanungsprobleme in Abschnitt 3.2.2 zeigte die Eignung populationsbasierter Metaheuristiken. Diese sind in der Lage, die sich aufgrund der konfliktären Zielfunktionen des Zielsystems ergebenen pareto-optimalen Ablaufpläne 4.3 Entwicklung eines Verfahrens zur Ablaufsteuerung der Abfertigungsprozesse 77 in Form einer Population möglicher Ablaufpläne zu ermitteln und auszugeben. Als spezifisches Verfahren soll hier der NSGA-II Algorithmus, der problemspezifisch angepasst wird, verwendet werden. Das dritte Arbeitspaket dient schließlich der Betrachtung der Ressource Personal sowie der Förderkapazitäten innerhalb der Ablaufplanung. Hierzu sind die Ablaufpläne, wie in Abschnitt 2.2.2.3 aufgezeigt, durch eine Personaleinsatzplanung zu ergänzen. Mit der Berücksichtigung der Förderkapazitäten(vgl. Abschnitt 2.2.2.4) sollen die Ablaufpläne schließlich derart gestaltet werden, dass es zu keinen Überlastungen der innerbetrieblichen Transportsysteme kommt. 4.3 Entwicklung eines Verfahrens zur Ablaufsteuerung der Abfertigungsprozesse Die durch den vorherigen Schritt erstellten Ablaufpläne bzw. der aus diesen ausgewählte umzusetzende Ablaufplan muss in einem dritten Schritt durch ein Ablaufsteuerungssystem ausgeführt werden, das die Planausführung überwacht. Für dieses Problemfeld wird ein Arbeitspaket definiert. In diesem Arbeitspaket ist eine Ablaufsteuerung zu entwerfen, die Abweichungen und Ereignisse feststellen kann, die eine Anpassung des aktiven Ablaufplans notwendig machen. Für die Anpassung sollen Reparaturmechanismen zur Verfügung gestellt werden, die unter Berücksichtigung des bereits aktiven Ablaufplans lokale Änderungen vornehmen können. Ist dies nicht möglich, soll die Möglichkeit bestehen, die Ablaufplanung aus dem vorherigen Schritt für eine Um- oder Neuplanung aufzurufen. 79 5 Konzeption In diesem Kapitel erfolgt die Konzeption des Ablaufplanungs- und-steuerungssystems für die Frachtabfertigungsprozesse in Luftfrachtterminals zur Lösung der vorgestellten Problemstellung und unter Berücksichtigung der in Kapitel 4 identifizierten zu leistenden Arbeit. In Abschnitt 5.1 werden die zu entwickelnden Verfahren zunächst in eine Architektur in Form von Modulen eingeordnet und ihr Zusammenspiel erläutert. Die Verfahren zur Analyse historischer Betriebsdaten und den Aufbau des benötigten Informationsstands in Form eines Klassifikators zur Klassierung neuer Aufträge werden in Abschnitt 5.2 entwickelt. Darauf aufbauend wird das Ablaufplanungsproblem in Abschnitt 5.3 in einem mathematischen Modell formalisiert und auf Basis dessen wird die Umsetzung einer evolutionären Heuristik zur proaktiven Ablaufplanung erläutert. Besondere Beachtung findet hierbei die dynamische und stochastische Systemumgebung sowie die Berücksichtigung von Personal- und Förderkapazitätsrestriktionen. Abschließend wird die Ablaufsteuerung in Abschnitt 5.4 dargestellt. 5.1 Komposition des Gesamtsystems in einer Architektur Im Folgenden erfolgt die Komposition einer Architektur, in der die in Kapitel 4 erläuterten Problemfelder berücksichtigt werden. Die Architektur ist in insgesamt drei Ebenen unterteilt, wobei jede Ebene weiter in Module untergliedert wird. Die Module der einzelnen Schichten adressieren dabei die spezifischen Anforderungen der Problemfelder, indem in diesen Verfahren implementiert werden, die eine Lösung der aufgezeigten Probleme ermöglichen. In Abschnitt 5.1.1 werden hierzu zunächst die einzelnen Ebenen und die in diesen enthaltenen Module erläutert. Anschließend wird in Abschnitt 5.1.2 dargelegt, wie die einzelnen Module zusammenarbeiten, um ein Ablaufplanungs- und-steuerungssystem zu realisieren. 5.1.1 Aufbau der Architektur Abbildung 5.1 gibt eine Übersicht über den Aufbau der Architektur. Die Unterteilung erfolgt in die reaktive, proaktive und adaptive Ebene. Die reaktive Ebene adressiert die in Abschnitt 2.2.3 aufgezeigten Probleme im Zusammenhang mit der Ablaufsteuerung und Revision von Ablaufplänen. Die zweite(proaktive) Ebene behandelt die in Abschnitt 2.2.2 dargestellten Herausforderungen, die für eine multikriterielle Ablaufplanung unter Unsicherheit bestehen. Die adaptive Ebene schließlich berücksichtigt die in Abschnitt 2.2.1 80 Adaptive Ebene Clustering Proaktive Ebene Personalkapazitäten Förderkapazitäten 5 Konzeption probabilistische Informationen Zugehörigkeitswahrscheinlichkeiten Klassifizierung Update nutzt Proaktive Ablaufplanung nutzt Klassifikator Reaktive Ebene(Ablaufsteuerung) Ausführungsüberwachung Ereignis Datenerfassung Revision Information Update Update Aktiver Ablaufplan Anweisung Shop Floor Abbildung 5.1: Übersicht über die Architektur(in Anlehnung an eine Architektur für selbst-adaptive Systeme:[Box11], S. 48) aufgezeigten Probleme bei der Datenanalyse der Abfertigungsprozesse und Erstellung eines Informationsstands. Der ersten Ebene der Architektur sind zwei Module zugeordnet. Das erste Modul, Ausführungsüberwachung , dient der Überwachung des in der Ausführung befindlichen Ablaufplans und dem Feststellen von Ereignissen, die bspw. über die mobile Datenerfassung gemeldet bzw. aus den übermittelten Daten abgeleitet werden. Das Modul Revision führt lokale Änderungen am Ablaufplan durch, sofern diese den Gesamtplan nicht beeinflussen. Die Module der reaktiven Ebene werden in Abschnitt 5.4 dargestellt. Die mittlere Ebene besteht aus insgesamt vier Modulen. Das Modul Klassifikator dient dazu, für einzuplanende Aufträge mögliche Bearbeitungszeiten zu ermitteln. Die Erstellung der proaktiven Ablaufpläne wird im Modul Proaktive Ablaufplanung geleistet. 5.1 Komposition des Gesamtsystems in einer Architektur 81 Die Berücksichtigung der Personal- sowie Förderkapazitäten in der Ablaufplanung erfolgt in den gleichnamigen Modulen. Diese Module und die umgesetzten Verfahren werden in Abschnitt 5.3 ausführlich beschrieben. Schließlich sind der adaptiven Ebene drei Module zugeordnet. Das Clusteringmodul übernimmt die Aufgabe, die historischen Betriebsdaten zu Clustern gleichartiger Aufträge aufzubereiten. Aus den Clustern werden im Modul probabilistische Informationen Häufigkeitsverteilungen und Intervalle der im Cluster enthaltenen Aufträge ermittelt. Das Modul Klassifizierung dient als letztes Modul der Ebene dazu, den Klassifikator für die zweite Ebene zu erstellen, mit dem Klassierungen neuer Aufträge durchgeführt werden können. Die adaptive Ebene und die enthaltenden Module werden in Abschnitt 5.2 erläutert. 5.1.2 Ablaufprozess innerhalb der Architektur Die Architektur mit den enthaltenen Modulen dient dazu, den Prozess der Frachtabfertigung im System„Luftfrachtterminal“ zu regeln, indem Anweisungen in Form der Ablaufpläne erstellt werden, die auf eine möglichst umfassende Zielerreichung(gemessen anhand der Anzahl säumiger Aufträge) abzielen. Die aus dem System über die Datenerfassung zurückgelieferten Informationen ermöglichen die Adaption der innerhalb der Architektur ermittelten Anweisungen. Hierfür ist innerhalb der Architektur ein Ablaufprozess, der die einzelnen Ebenen und in diesen die Module miteinander verbindet, notwendig. Dieser Prozess wird im Folgenden erläutert. Die erste Ebene der Architektur dient in erster Linie der Ablaufsteuerung der Abfertigungsprozesse unter Berücksichtigung des aktiven Ablaufplans. Hierzu werden zu den im Ablaufplan vorgegebenen Zeiten die entsprechenden Aufträge auf den geplanten Maschinen gestartet. Die mobile Datenerfassung ermöglicht einen Abgleich der tatsächlich realisierten Zeiten mit den durch den Ablaufplan vorgegebenen. Werden keine Störungen festgestellt, verläuft die Ausführung auf dieser Ebene nach den Anweisungen des Plans. Auf eine Information(z. B. der Fertigstellung eines Auftrags) erfolgt eine Reaktion in Form bspw. der Anweisung, einen weiteren Auftrag zu starten, der durch den Ablaufplan vorgegeben wird. Im Falle von Ereignissen/Störungen(z. B. der Ankunft eines Eilauftrags) kann der Ablaufplan fallweise lokal repariert werden oder es erfolgt eine Neu- bzw. Umplanung unter Verwendung der zweiten Ebene der Architektur. Die zweite Ebene wird ebenfalls aufgerufen, wenn seit der letzten Ablaufplanung ein definierter Zeitraum verstrichen ist und der aktuelle Ablaufplan ergänzt werden soll. Die mittlere Ebene wird für die proaktive Ablaufplanung verwendet. Diese Ebene wird einerseits in regelmäßigen Abständen aktiv, um neu hinzugekommene Aufträge in den in der Ausführung befindlichen Ablaufplan zu integrieren. Andererseits wird fallweise eine Revision des aktuellen Ablaufplans vorgenommen. Über den Klassifikator werden zunächst probabilistische Informationen über die Bearbeitungszeiten der einzuplanenden Aufträge ermittelt, die anschließend in dem Modul für die proaktive Ablaufplanung verwendet werden, um eine Menge pareto-optimaler Ablaufpläne zu erstellen. Der ausgewählte Ablaufplan ersetzt schließlich den in der Ausführung befindlichen Plan auf der reaktiven Ebene. 82 5 Konzeption Die dritte Ebene dient der Adaption des auf der mittleren Ebene verwendeten Klassifikators. Dieser wird zum einen angepasst, wenn auf der mittleren Ebene festgestellt wird, dass die erstellten Klassierungen geringe Zugehörigkeitswahrscheinlichkeiten aufweisen. Zum anderen erfolgt eine Anpassung in regelmäßigen Abständen, um die seit der letzten Erstellung hinzugekommenen Betriebsdaten zu berücksichtigen. Über das Clusteringmodul werden hierzu zunächst Cluster gleichartiger Aufträge ermittelt, für die anschließend die probabilistischen Informationen der Bearbeitungszeiten erstellt werden. Schließlich erfolgt die Erstellung des Klassifikators, der den auf der mittleren Ebene verwendeten Klassifikator ersetzt. 5.2 Erstellung des benötigten Informationsstands aus historischen Betriebsdaten In diesem Abschnitt erfolgt die Konzeption eines Verfahrens, um aus den zur Verfügung stehenden historischen Betriebsdaten über Abfertigungsaufträge Informationen zu gewinnen, die eine probabilistische Bewertung von Bearbeitungszeiten zukünftiger Aufträge erlauben. 1 Hierzu wird im Abschnitt 5.2.1 zunächst ein Verfahren konzipiert, dass Cluster ähnlicher Aufträge bildet. Hierauf aufbauend wird in Abschnitt 5.2.2 ein Klassifikator entwickelt, der neu einzuplanende Aufträge im Rahmen der Ablaufplanung einem Cluster zuordnen kann und somit eine probabilistische Bewertung der zu erwartenden Bearbeitungszeit erlaubt. 5.2.1 Clusterbildung der Abfertigungsaufträge Durch die Betriebsdatenerfassung liegt über vergangene Frachtabfertigungsaufträge eine Vielzahl von Informationen über diese Aufträge vor(vgl. Abschnitt 2.2.1), insbesondere die realisierten Bearbeitungszeiten sind dabei in diesem Abschnitt von Interesse. Ein historischer Frachtabfertigungsauftrag wird als Tripel ha =( e ha , τ ha , τ ha ) definiert. Dieses Tripel besteht aus den folgenden drei Komponenten: • e ha : Ein d -dimensionaler Eigenschaftsvektor e ha =( e 1 ,..., e d ), der den Auftrag ha charakterisiert. Der Wert der p -ten Eigenschaft wird als e p mit 1 ≤ p ≤ d bezeichnet. • τ ha : Die geschätzte 2 Bearbeitungszeit für den Auftrag vor dessen Bearbeitung. • τ ha : Die realisierte Bearbeitungszeit für den Auftrag. Die Menge A H ={ ha 1 ,..., ha n } ergibt sich aus allen Frachtabfertigungsaufträgen bzw. einer Teilmenge 3 der n historischen Frachtabfertigungsaufträge. 1 Auszüge dieses Kapitels wurden bereits in[BLW14] veröffentlicht. 2 Für eine Beschreibung, wie diese Schätzung durchgeführt wird, vgl. Abschnitt 2.2.1.1. 3 Da aufgrund der vielen am Tag zu bearbeiten Frachtabfertigungsaufträge von einer umfangreichen Datenbasis auszugehen ist, ist die Menge A H entsprechend zu wählen, sodass das Verfahren zur Clusteranalyse(vgl. Abschnitt 5.2.1.3) dieses handhaben kann. 5.2 Erstellung des benötigten Informationsstands aus historischen Betriebsdaten 83 Für Aufträge aus A H , die sich hinsichtlich ihres Eigenschaftsvektors e ha ähneln, ist anzunehmen, dass die entsprechenden realisierten Bearbeitungszeiten ebenfalls ähnlich sind. Diese Aufträge bilden somit Cluster ähnlicher Aufträge innerhalb der Menge A H . Im Gegensatz zu der später stattfindenden Klassifikatorentwicklung(vgl. Abschnitt 5.2.2), sind zu diesem Zeitpunkt die möglichen Cluster ähnlicher Aufträge jedoch noch nicht bekannt und müssen zunächst durch eine Clusteranalyse ermittelt werden. Für die Durchführung der Clusteranalyse ist zunächst zu definieren, welche Eigenschaften verwendet werden sollen, die einen Auftrag charakterisieren. Die Auswahl geeigneter Eigenschaften erfolgt in Abschnitt 5.2.1.1. Anschließend ist eine Distanzfunktion zu entwickeln, die anhand der Eigenschaften zweier Aufträge eine Quantifizierung der Ähnlichkeit vornehmen kann. Aufbauend auf den definierten Eigenschaften und der Distanzfunktion kann anschließend eine Clusteranalyse durchgeführt werden, die die Menge A H in eine Menge C ={C 1 ,..., C k } von k disjunkten Clustern unterteilt. Für die so gefundenen Cluster werden anschließend Häufigkeitsverteilungen und Intervallgrenzen der Bearbeitungszeitabweichungen der enthaltenen Aufträge ermittelt. 5.2.1.1 Auftragsbeschreibende Eigenschaften Für die historischen Aufträge ha ∈ A H sind repräsentative Eigenschaften zu bestimmen, anhand derer ein Auftrag möglichst genau charakterisiert werden kann. Die Eigenschaften sollten dabei so gewählt werden, dass eine Änderung im Wert e p einer Eigenschaft p mit einer Änderung der realisierten Bearbeitungszeit τ ha des Auftrags einhergeht, d. h., es sollten nur solche Eigenschaften betrachtet werden, die einen direkten Einfluss auf die Bearbeitungszeit eines Auftrags ausüben. Im Folgenden werden die in dieser Arbeit eingesetzten Eigenschaften näher beschrieben. Dabei gelten diese sowohl für Aufbau-, Abbau- sowie Transferaufträge. Eigenschaft 1: Typ des Auftrags Diese Eigenschaft beschreibt den Typ des Auftrags(Auf- und Abbausowie Transferauftrag). Aufbau- und Transferaufträge weisen eine höhere Komplexität und damit tendenziell einen höheren Zeitbedarf als reine Abbauaufträge auf, da bei Ersteren die Fracht anhand ihrer Charakteristika(Ausmaße, Gewicht etc.) in einem Luftfrachtcontainer oder auf einer Luftfrachtpalette konsolidiert werden muss. Bei der Konsolidierung sind Restriktionen hinsichtlich der Lastverteilung und im Falle der Paletten der Kontur zu beachten, die bei reinen Abbauaufträgen entfallen.   0 , wenn Abbauauftrag e 1 =  12 ,, wenn Aufbauauftrag wenn Transferauftrag Eigenschaft 2: Typ des Ladehilfsmittels Diese Eigenschaft beschreibt den Typ des Ladehilfsmittels. Unterschieden wird hierbei nach den zwei grundlegenden Typen Luftfrachtcontainer 84 5 Konzeption und-palette(vgl. Abschnitt 2.1.2). Für Luftfrachtpaletten ist von einem anderen Zeitbedarf als bei den Luftfrachtcontainern auszugehen, da die Paletten nach dem Aufbau/Abbau zunächst mit Netzen zu sichern bzw. diese zu entfernen sind, wohingegen dieser Schritt bei Containern entfällt. Eigenschaft 2 kann somit binär definiert werden: e 2 = 0 , 1 , wenn Ladehilfsmittel Luftfrachtcontainer wenn Ladehilfsmittel Luftfrachtpalette Eigenschaft 3: Volumen der Flugzeugladeeinheit Das Volumen der Flugzeugladeeinheit fl ha , die zu Auftrag ha gehört, gibt Aufschluss darüber, mit welchem Aufwand bei der Bearbeitung zu rechnen ist. So sind Ladeeinheiten mit einem größeren Volumen 4 tendenziell mit einem größeren Arbeitsaufwand verbunden. e 3 = vol( fl ha ) Eigenschaft 4: Volumen der zu bearbeitenden Fracht Das Volumen der zu bearbeitenden Fracht ergibt sich als Summe der Volumina vol( f ) der einzelnen Frachtstücke aus der Menge F ha der Frachtstücke, die zu einem Auftrag ha gehören. Ladeeinheiten, die eine geringere Auslastung haben, benötigen bei einem Aufbauauftrag unter Umständen weniger Zeit, da für die Ausrichtung der Frachtstücke innerhalb der Ladeeinheit mehr Freiheiten zur Verfügung stehen, als dies bei einer höheren Auslastung der Fall wäre. e 4 = vol( f ) f ∈F ha Eigenschaft 5: Anzahl zu bearbeitender Frachtstücke Die Anzahl zu bearbeitender Frachtstücke gibt Aufschluss darüber, welcher Aufwand bei der Bearbeitung der Fracht entsteht. Viele kleine und lose Frachtstücke können bspw. einen höheren Umladeaufwand bedeuten als einige wenige größere, dafür aber z. B. auf einer Euro-Palette gebündelte Frachtstücke. e 5 =|F ha | Eigenschaft 6: Anteil der Fracht, die mit einem Hilfsmittel bearbeitet werden muss Diese Eigenschaft beschreibt den prozentualen Anteil der Frachtstücke, die aufgrund ihres Gewichts gew( f ), das einen bestimmten Grenzwert g mmahx überschreitet, mit einem Hilfsmittel(hier insbesondere Gabelstapler) bearbeitet werden müssen. Es bezeichne F h m a h die Menge der Frachtstücke 4 Das Volumen wird hierbei über den SAE Aerospace Standard(AS) AS1825 berechnet(siehe[AS1825]). 5.2 Erstellung des benötigten Informationsstands aus historischen Betriebsdaten 85 F h m a h = f gew( f ) > g mmahx ∧ ∀ f ∈ F ha , auf die diese Eigenschaft zutrifft. Dann kann Eigenschaft 6 wie folgt definiert werden: e 6 = |F h m a h | |F ha | Eigenschaft 7: Anteil der Fracht mit Special Handling Code (SHC) Fracht, die durch einen oder mehrere SHC gekennzeichnet ist, unterliegt im Vergleich zu normaler Fracht weiteren Restriktionen, wie z. B. einer besonderen Ladungssicherung, und nimmt somit bei der Bearbeitung tendenziell mehr Zeit in Anspruch als normale Fracht. Bezeichne F h S a HC die Menge der Fracht mit SHC-Kennzeichnung. Eigenschaft 7 ist dann folgendermaßen definiert: e 7 = |F h S a HC | |F ha | Eigenschaft 8: Anteil der SHC-Fracht, die mit einem Hilfsmittel bearbeitet werden muss Frachtstücke, die sowohl eine SHC Kennzeichnung besitzen als auch mit einem Hilfsmittel bearbeitet werden müssen, nehmen bei der Bearbeitung die längste Zeit in Anspruch. Der Anteil dieser Fracht an der Gesamtfracht wird über diese Eigenschaft abgebildet: e 8 = |F h S a HC | ∩|F h m a h | |F ha | Eigenschaft 9: Anzahl an benötigten Ladehilfsmitteln aus dem Sendungslager Die Menge LS ha definiere die Ladeeinheiten(hier: Gitterboxen) im Sendungslager, in denen sich die Fracht für den Aufbauauftrag ha befindet. Dann beschreibt diese Eigenschaft die Anzahl der Ladeeinheiten, die für den Aufbauauftrag verwendet werden. Für Abbauaufträge beschreibt e 9 die Anzahl der Ladehilfsmittel des Sendungslagers, die verwendet werden, um die Fracht der Flugzeugladeeinheit zu vereinzeln. e 9 =|LS ha | 5.2.1.2 Distanzfunktion für Aufträge Auf Basis der im vorherigen Abschnitt beschriebenen Eigenschaften eines Auftrags soll im Folgenden eine Distanzfunktion dist( ha i , ha j ) entwickelt werden, die es erlaubt, die Ähnlichkeit bzw. Unähnlichkeit zweier historischer Aufträge ha i und ha j anhand ihrer Eigenschaftsvektoren e ha i und e ha j zu quantifizieren. Diese Distanzfunktion wird später in Abschnitt 5.2.1.3 für die Durchführung der Clusteranalyse der Menge historischer Aufträge A H verwendet. Die beschriebenen Eigenschaften weisen unterschiedliche Wertebereiche auf, die sich negativ auf die Distanzberechnung von Aufträgen auswirken können. So wird bei einigen 86 5 Konzeption Distanzfunktionen den Eigenschaften mit einem größeren Wertebereich implizit ein höheres Gewicht zugewiesen als solchen, auf die dies nicht zutrifft. 5 Diese Eigenschaften würden somit die Berechnung der Distanz dominieren. Daher wird jede Eigenschaft zunächst normalisiert und somit in einen einheitlichen Wertebereich überführt. Hierfür bezeichne e ∗ p den nicht normalisierten Wert und nf p einen Normalisierungsfaktor für die p -te Eigenschaft. Der normalisierte Wert e p der p -ten Eigenschaft ergibt sich dann wie folgt: e p = nf p · e ∗ p ( p = 1 ,..., d ) Für die Bestimmung der Normalisierungsfaktoren nf p sei e ha ,p der Wert der p -ten Eigenschaft von Auftrag ha und sei E U p = e ha ,p ∀ ha ∈ A H ( p = 1 ,..., d ) die Menge der Eigenschaftswerte der Eigenschaft p aller historischen Aufträge ha ∈ A H . Für die beschriebenen Eigenschaften ergibt sich somit die Menge N F von Normalisierungsfaktoren: 6 NF= 1 , 1 , 1 max( E U 3 ) , 1 max( E U 4 ) , 1 max( E U 5 ) , 1 , 1 , 1 , 1 max( E U 9 ) (5.1) Des Weiteren werden Gewichtungsfaktoren eingeführt, die eine Gewichtung der entsprechenden Eigenschaft innerhalb der Distanzfunktion erlauben. Hierfür wird die Menge W definiert, die für jede Eigenschaft einen Gewichtungsfaktor w p enthält: d W={ w 1 ,..., w d }, wobei w p = 1 p =1 (5.2) Auf Basis der zuvor definierten Normalisierungsfaktoren N F und Gewichtungsfaktoren W kann nun die Distanzfunktion dist: A H × A H → R definiert werden, die für ha i , ha j , ha l ∈ A H den folgenden Anforderungen genügen muss: 7 1. Nichtnegativität: dist( ha i , ha j ) ≥ 0 2. Identität: dist( ha i , ha j )= 0 gdw. e ha i ,p = e ha j ,p ( p = 1 ,..., d ) 3. Symmetrie: dist( ha i , ha j )= dist( ha j , ha i ) 4. Dreiecksungleichung: dist( ha i , ha l ) ≤ dist( ha i , ha j )+ dist( ha j , ha l ) 5 Vgl.[JD88], S. 24;[WM97], S. 4. 6 Für die Eigenschaften 6, 7 und 8 ist keine Normalisierung notwendig, da die Eigenschaften bereits auf das Intervall[0 , 1] beschränkt sind. Die Eigenschaften 1 und 2 werden über die Funktion(5.4) und damit in der Distanzfunktion(5.5) gesondert berücksichtigt. 7 Vgl.[Ye03], S. 290;[Lar05], S. 99. 5.2 Erstellung des benötigten Informationsstands aus historischen Betriebsdaten 87 Die einzelnen Komponenten eines Vektors e ha , der einen Auftrag ha charakterisiert, enthalten Werte aus unterschiedlichen Dimensionen und weisen unterschiedliche Einheiten auf(z. B. Volumen für Eigenschaft 3 oder Prozent für Eigenschaft 6). Für zwei Vektoren e ha i und e ha j mit i = j und ha i , ha j ∈ A H gilt jedoch, dass die Komponenten e ha i ,p und e ha j ,p mit 1 ≤ p ≤ d die gleichen Einheiten besitzen und Elemente der gleichen Dimension sind. Daher soll für die numerischen Elemente des Eigenschaftsvektors als Distanzfunktion der Betrag 8 der paarweisen Differenz gebildet werden: dist ( i,pj ) =| e ha i ,p − e ha j ,p |(5.3) Für die nominale Eigenschaft 1 und die binäre Eigenschaft 2 wird lediglich auf Gleichheit geprüft: dist ( i,pj ) = 0 , 1 wenn e ha i ,p = e ha j ,p in allen anderen Fällen (5.4) Die vollständige Distanzfunktion ergibt sich aus der gewichteten Summe über die normalisierten Eigenschaften und je nach Eigenschaftstyp Gleichung(5.3) oder(5.4): d dist( ha i , ha j )= w p · nf p · dist ( i,pj ) , p =1 (5.5) mit der die Distanz bzw. Unähnlichkeit zweier Aufträge ha i und ha j , die über ihre Eigenschaftsvektoren e ha i und e ha j charakterisiert sind, berechnet werden kann. Je ähnlicher sich zwei Aufträge dabei sind, desto kleiner ist die berechnete Distanz, die im Fall der Gleichheit der Eigenschaftswerte(siehe Anforderung 2 für Distanzfunktionen) den Wert 0 und im Fall der maximalen Unähnlichkeit den Wert 1 annimmt. 5.2.1.3 Verfahren zur Clusteranalyse von Aufträgen In diesem Abschnitt wird das Verfahren zur partitionierenden Clusteranalyse der Menge historischer Aufträge A H beschrieben. Dieses Verfahren verwendet die im vorherigen Abschnitt dargestellte Distanzfunktion und dient dazu, jeden historischen Auftrag ha ∈ A H anhand der Ausprägung seiner beschreibenden Eigenschaften genau einem von k Clustern C 1 ,..., C k zuzuordnen. Die Menge aller Cluster ist eine Partition von A H und wird mit der Menge C ={C 1 ,..., C k } beschrieben. Für diese gilt 9 k C i = C = A H i =1 und C i ∩ C j = ∅( i = 1 ,..., k ; j = 1 ,..., k ; i = j ) . 8 Aufgrund von Anforderung 1 für Distanzfunktionen. 9 Vgl.[KP96], S. 439. 88 5 Konzeption Für die Aufträge ha ∈ C i eines Clusters C i gilt, dass sie unter der verwendeten Distanzfunktion eine größere Ähnlichkeit zu den Aufträgen des selben Clusters aufweisen 10 als zu den Aufträgen aller anderen Cluster. 11 Die Datengrundlage der Clusteranalyse bildet die Menge der n historischen Aufträge A H . Für jeden historischen Auftrag ha ∈ A H liegen die in Abschnitt 5.2.1.1 beschriebenen Eigenschaften in Form eines d -dimensionalen Eigenschaftsvektors e ha vor. Damit wird die Menge A H als n × d -Matrix PM modelliert, wobei jede Zeile der Matrix ein Muster und jede Spalte eine Eigenschaft definiert. 12  PM =[ e ha 1 , e ha 2 ,..., e ha n ] T =  e ha 1 e ha ... 2 , 1 , 1 e ha 1 , 2 e ha ... 2 , 2 ... ... ... e ha 1 e ha ... 2 ,d ,d  e ha n , 1 e ha n , 2 ... e ha n ,d Auf Basis der Matrix PM kann anschließend die n × n -Distanzmatrix aufgebaut werden. Hierfür werden je zwei historische Aufträge ha i und ha j mit i = j durch Gleichung(5.5) verglichen und das Ergebnis dm ha i , ha j wird in der Matrix DM gespeichert. 13 Aufgrund der Anforderungen 2 und 3 der Distanzfunktion handelt es sich um eine entlang der Hauptdiagonalen symmetrische Matrix, in der jeder Auftrag zu sich selbst die Distanz 0 besitzt. Die so erzeugte Matrix dient anschließend als Eingabe für das Verfahren zur Clusteranalyse.  0 DM =  dm ha 1 , ha 2 0 dm ha 1 , ha 3 dm ha 2 , ha 3 0 ... ... ... 0 dm ha 1 , ha n dm ha ... 2 , ha n dm ha n − 1 , ha n  0 Zur Durchführung der Clusteranalyse müssen die einem Cluster C i ∈ C zugeordneten Aufträge ha j ∈ C i durch ein Clusterzentrum z i , welches durch den Eigenschaftsvektor e z i charakterisiert wird, repräsentiert werden. Die Menge aller Clusterzentren wird mit Z beschrieben. Anhand eines Clusterzentrums z i und auf Basis der Distanzfunktion (vgl. Gleichung(5.5)) wird bestimmt, ob ein Auftrag zu dem Cluster C i gehört. In diesem Fall gilt, dass der Abstand des Auftrags ha j zu z i kleiner ist als zu allen anderen Clusterzentren z l mit i = l : dist( z i , ha j ) ≤ dist( z l , ha j )( l = 1 ,..., k ; i = l ) 10 Die Aufträge eines Clusters sollten möglichst homogen, d. h. hinsichtlich ihrer Eigenschaftsausprägungen möglichst ähnlich, sein. 11 Zwischen den Clustern sollte eine möglichst große Heterogenität bestehen, d. h., die Aufträge aus zwei unterschiedlichen Clustern sollten hinsichtlich ihrer Eigenschaftsausprägungen möglichst unähnlich sein. 12 Vgl.[JD88], S. 8 ff., 24;[AF07], S. 5. 13 Vgl.[JD88], S. 11 f.;[AF07], S. 5. 5.2 Erstellung des benötigten Informationsstands aus historischen Betriebsdaten 89 Zur Bestimmung des Clusterzentrums z i eines Clusters C i wird häufig der Mittelwert aus den Eigenschaften der enthaltenden Elemente(hier die Eigenschaftsvektoren der Aufträge) gebildet: 14 e z i ,p = ha ∈C i e ha ,p |C i | ( p = 1 ,..., d ) Aufgrund der verwendeten Eigenschaften(vgl. Abschnitt 5.2.1.1) ist die Bestimmung des Clusterzentrums eines Clusters durch Mittelwertbildung der enthaltenden Aufträge jedoch nur eingeschränkt möglich. Die Interpretierbarkeit reeller Zahlen, wie dem Mittelwert, für nominale oder binäre Eigenschaften(vgl. Eigenschaft 1 und 2) ist nicht gegeben und auch für diskrete Wertebereiche, wie die ganzzahligen Eigenschaften(bspw. Eigenschaft 5 oder 9), ist sie nur begrenzt möglich. 15 Zudem entspricht das so ermittelte Clusterzentrum nicht notwendigerweise einem tatsächlich durchgeführten Auftrag, sondern kann bedingt durch die Mittelwertbildung ein künstlich erzeugter Auftrag sein. 16 Daher wird hier das von Kaufman& Rousseeuw 17 beschriebene k-medoids-Verfahren zur Clusteranalyse verwendet. Bei diesem wird als Clusterzentrum ein repräsentativer Auftrag z i ∈ C i aus den Aufträgen eines Clusters C i gewählt, der als Clusterzentrum(auch Medoid genannt) verwendet werden soll. 18 Als repräsentativ wird der Auftrag bezeichnet, dessen durchschnittliche Distanz zu allen anderen Aufträgen desselben Clusters minimal ist. Somit gilt für die Menge der Clusterzentren: Z ⊂ A H . Ziel des k-medoids-Verfahrens ist es, die Menge Z mit|Z|= k zu bestimmen, 19 die die historischen Aufträge A H am besten repräsentiert. 20 Hierzu sind zwei Entscheidungen zu treffen. Die erste bestimmt, welche k Aufträge als repräsentative Aufträge die Clusterzentren bilden(vgl. Entscheidungsvariable y z ). Die zweite Entscheidung legt fest, welche Aufträge ha ∈ A H \ Z welchem Clusterzentrum z ∈ Z zugeordnet werden(vgl. Entscheidungsvariable x ha ,z ). Das entsprechende Optimierungsmodell(5.6) lässt sich folgendermaßen formalisieren: 21 Mengen: A H Menge historischer Aufträge Parameter: k Die Anzahl der zu bildenden Cluster 14 So beispielsweise beim k-means-, aber auch einigen hierarchischen Clusterverfahren(vgl.[BPW10], S. 345). 15 Vgl. ebd. 16 Vgl.[TK09], S. 745 f. 17 Siehe[KR87]. 18 Vgl.[TK09], S. 745;[BPW10], S. 347. 19 Der Parameter k ist ein zu definierender Parameter, der projektspezifisch zu bestimmen ist. Siehe Abschnitt 6.1.2.2 für die Beschreibung eines Parametrisierungsexperiments, bei der die Anzahl zu verwendender Cluster k bestimmt wird. 20 Vgl.[TK09], S. 745. 21 Vgl.[KR87], S. 406 f. 90 5 Konzeption Entscheidungsvariablen: x ha ,z Binär: 1, wenn Auftrag ha ∈ A H dem Cluster, dessen Clusterzentrum z mit z ∈ A H ist, zugeordnet wird; 0 in allen anderen Fällen y z Binär: 1, wenn Auftrag z ∈ A H als repräsentativer Auftrag für ein Clusterzentrum ausgewählt wird; 0 in allen anderen Fällen Zielfunktion: u. B. d. N.: min c medoid = x ha ,z dist( ha, z ) ha ∈A H z ∈A H (5.6a) x ha ,z = 1 z ∈A H y z = k z ∈A H x ha ,z ≤ y z x ha ,z ∈{ 0 , 1} y z ∈{ 0 , 1} , ∀ ha ∈ A H , ∀ ha ∈ A H ; ∀ z ∈ A H , ∀ ha ∈ A H ; ∀ z ∈ A H , ∀ z ∈ A H (5.6b) (5.6c) (5.6d) (5.6e) (5.6f) Die Zielfunktion in Gleichung(5.6a) minimiert die Distanz, gemessen über die Distanzfunktion(5.5) aller Aufträge zu ihren Clusterzentren. Die Nebenbedingung(5.6b) stellt sicher, dass jeder Auftrag genau einem Clusterzentrum und somit nur einem Cluster zugeordnet wird. Die Aufträge können dabei nur Clusterzentren und nicht anderen Aufträgen, die keine Zentren sind, zugeordnet werden(Nebenbedingung(5.6d)). Die Gleichung(5.6c) stellt dar, dass aus den vorhanden Aufträgen genau k Aufträge als Clusterzentren zu bestimmen sind. Schließlich stellen die Nebenbedingungen(5.6e) und(5.6f) die binäre Eigenschaft der Entscheidungsvariablen sicher. Aufgrund der Komplexität des Modells(5.6) wird das heuristische Verfahren PAM 22 verwendet. 23 Sei hierfür die Kostenfunktion cost( Z) gegeben, mit der die Qualität einer gefundenen Lösung Z bewertet werden kann: 24 cost( Z)= u ha ,z dist( ha, z ) ha ∈A H \Z z ∈Z und 1 , wenn dist( ha, z )= min dist( ha, z ) u ha ,z = z ∈Z 0 in allen anderen Fällen 22 Vgl.[KR87], S. 410 ff. 23 Als Alternative für die effiziente Berechnung bei großen Datenmengen wird in der Implementierung das Verfahren von Park& Jun[PJ09] verwendet. 24 Vgl.[TK09], S. 745. 5.2 Erstellung des benötigten Informationsstands aus historischen Betriebsdaten 91 Das Verfahren zur Clusteranalyse von Aufträgen, welches in Algorithmus 5.1 aufgeführt ist, setzt die folgenden fünf Schritte der Heuristik 25 um: 1. Wahl einer der folgenden Strategien zur Auswahl von k Aufträgen z ∈ A H , die die initiale Menge der Clusterzentren Z bilden(Zeilen 2–4): a) Random: Zufällige Auswahl der k Aufträge b) Most-Middle: Auswahl der k zentralsten Aufträge 26 c) Farthest-First: Iterative Auswahl( k -mal) eines Clusterzentrums, das am weitesten von den bisherigen Clusterzentren entfernt ist 27 2. Für jedes Clusterzentrum z ∈ Z und jeden Auftrag ha ∈ A H \ Z, der kein Clusterzentrum ist, vertausche die Rollen. Es ergibt sich die Menge Z z, ha = Z\{ z } ∪{ ha }. Für jede durchgeführte Vertauschung berechne die hieraus resultierende Kostendifferenz ∆ c m z, h ed a oid = cost( Z z, ha ) − cost( Z)(Zeilen 8–16). 3. Wähle die Menge Z z, ha mit z ∈ Z und ha ∈ A H \ Z, für die die Kosten minimal sind: ∆ c m z, e h d a oid = min z ∈Z, ha ∈A H \Z ∆ c m z, h ed a oid . Wenn ∆ c m z, e h d a oid < 0 gilt, ersetze Z mit Z z, ha (Zeilen 17–19). 4. Wiederholen der Schritte 2 und 3, solange ∆ c m z, e h d a oid < 0 gilt, d. h. solange durch eine Vertauschung die Kosten gesenkt werden können(Zeilen 5–19). 5. Zuordnung aller Aufträge ha ∈ A H \ Z zu dem gemessen auf Basis der Distanzfunktion(5.5) nächsten Clusterzentrum arg min z ∈Z dist( ha, z ) und damit zu dem Cluster, dessen Clusterzentrum z ist(bezeichnet mit C z )(Zeilen 20–29). 5.2.1.4 Ermittlung von Intervallgrenzen der Bearbeitungszeitabweichungen Mit Hilfe des im vorherigen Abschnitt beschriebenen Verfahrens zur Clusteranalyse wurden Aufträge, die sich hinsichtlich ihrer Eigenschaftsausprägungen ähneln, zu Clustern zusammengefasst. Für jedes Cluster ist im Folgenden ein Intervall der aufgetretenen Bearbeitungszeitabweichungen der Aufträge zu bestimmen. Für die historischen Aufträge ha ∈ C eines Clusters C ∈ C sind sowohl die vor der Durchführung des Auftrags durch z. B. Gleichung(2.1) berechnete Bearbeitungszeit τ ha als auch die realisierte Bearbeitungszeit τ ha gegeben(vgl. Abschnitt 5.2.1). Aus diesen beiden Werten lässt sich die Qualität der Schätzung der Bearbeitungszeit durch die Berechnung der Bearbeitungszeitabweichung ∆ τ ha ermitteln: ∆ τ ha = τ ha − τ ha τ ha 25 Vgl.[TK09], S. 746 ff.;[KR87], S. 411. 26 Siehe[PJ09], S. 3337. 27 Vgl.[HS85];[DL02];[DL05]. 92 5 Konzeption Algorithmus 5.1: Clusteranalyse von Aufträgen Input: A H – Die Menge der historischen Aufträge DM – Die Distanzmatrix k – Anzahl zu erzeugender Cluster Output: C – Menge der ermittelten Cluster 1 Z ← null; /* Schritt 1 des Algorithmus*/ 2 for i ← 1 to k do 3 z ← strat s ( A H \ Z ) ; 4 Z ← Z ∪{ z }; // Auswahl eines Auftrags nach Strategie s /* Schritt 4 des Algorithmus 5 changed ← true; 6 while changed do 7 changed ← false; /* Schritte 2 und 3 des Algorithmus 8 Z z, ha ← null; 9 ∆ c m z, e h d a oid ← ∞; 10 foreach z ∈ Z do 11 foreach ha ∈ A H \ Z do 12 Z z, ha ← Z\{ z } ∪{ ha }; 13 ∆ c m z, h ed a oid ← cost( Z z, ha ) − cost( Z); 14 if ∆ c m z, h ed a oid < ∆ c m z, e h d a oid then 15 Z z, ha ← Z z, ha ; 16 ∆ c m z, e h d a oid ← ∆ c m z, h ed a oid ; */ */ 17 if ∆ c m z, e h d a oid < 0 then 18 Z ← Z z, ha ; 19 changed ← true; /* Schritt 5 des Algorithmus 20 foreach ha ∈ A H \ Z do 21 z min ← null; 22 distance min ← ∞; 23 foreach z ∈ Z do 24 distance ← 0; 25 if dm ha ,z = null then distance ← dm z, ha else distance ← dm ha ,z ; 26 if distance< distance min then 27 z min ← z ; 28 distance min ← distance ; */ 29 C z min ← C z min ∪{ ha }; 30 return C ={C 1 ,..., C k }; 5.2 Erstellung des benötigten Informationsstands aus historischen Betriebsdaten 93 Es bezeichne zudem ∆ τ C min den minimalen und ∆ τ C max den maximalen Wert der Bearbeitungszeitabweichungen aller in einem Cluster C enthaltenden Aufträge: ∆ τ C min = min ha ∈C ∆ τ ha (5.7a) und ∆ τ C max = max ha ∈C ∆ τ ha (5.7b) Dann bezeichne I C =[∆ τ C min , ∆ τ C max ] das Intervall der Bearbeitungszeitabweichungen für Cluster C. Das Intervall I C enthält alle aufgetretenen Bearbeitungszeitabweichungen, auch solche, die beispielsweise sehr selten vorgekommen und daher als Ausreißer zu betrachten sind. Aus diesem Grund soll die Möglichkeit bestehen, die Ausdehnung des Intervalls zu begrenzen und damit Aufträge, deren Bearbeitungszeitabweichung außerhalb des Intervalls liegt, nicht zu berücksichtigen. Hierfür wird die empirische kumulative Verteilungsfunktion 28 F C ( x )= 1 |C| δ (∆ τ ha ≤ x ) ha ∈C mit der Indikatorfunktion δ (∆ τ ha ≤ x )= 1 , 0 wenn ∆ τ ha ≤ x in allen anderen Fällen gebildet. Bezeichne p C ∈(0 , 1) 29 den gewünschten Prozentsatz des Quantils, das für das Cluster C ermittelt werden soll. Des Weiteren sei folgende Quantilfunktion zur Berechnung des kleinstmöglichen p C -Quantils gegeben: Q ( p )= inf ∆ τ ha ha ∈ C ∧ F C (∆ τ ha ) ≥ p Das p C -Quantil ∆ τ C p C = Q ( p C ) beschreibt dann die Bearbeitungszeitabweichung, für die gilt, dass p C · 100% aller Bearbeitungszeitabweichungen der in dem Cluster enthaltenen Aufträge kleiner sind. Schließlich sind aus Cluster C alle Aufträge zu entfernen, deren Bearbeitungszeitabweichung größer als das ermittelte Quantil ist. Es ergibt sich das verkleinerte Cluster C ∗ : C ∗ ={ ha | ha ∈ C ∧ ∆ τ ha ≤ ∆ τ C p C } 28 Vgl.[ZM14], S. 33 f. 29 Der Prozentsatz wird für jedes Cluster C ∈ C gesondert definiert. Hierdurch kann gesteuert werden, welche Intervalllänge pro Cluster verwendet wird. Dies hat Einfluss auf die spätere Ablaufplanung, da für neu einzuplanende Aufträge unter anderem die hier ermittelten Intervalle Verwendung finden(vgl. Abschnitt 5.3). 94 5 Konzeption F C (∆ τ ha ) 1 p C 0 , 5 F C (∆ τ ha ) p C 1 0 , 5 0 − 2 0 2 ∆ τ C p C (a) 4 ∆ τ ha 0 − 2 0 2 ∆ τ C p C (b) 4 ∆ τ ha Abbildung 5.2: Kumulative Verteilungs- und Quantilfunktion der Bearbeitungszeitabweichungen im Intervall I C :(a) Verteilungsfunktion für Cluster C (b) Mit der Quantilfunktion Q ( p C ) ermitteltes p C -Quantil für Cluster C Für dieses Cluster wird das verkleinerte Intervall I C ∗ =[∆ τ C min , ∆ τ C p C ] festgelegt bzw. durch Gleichung(5.7b) mit dem neuen Cluster C ∗ ermittelt. Die Menge der neuen Cluster C ∗ wird mit C ∗ bezeichnet. Ein Beispiel für einen möglichen Verlauf der Verteilungsfunktion für ein Cluster C ist in Abbildung 5.2(a) gegeben. Hier sind 90% der Bearbeitungszeitabweichungen kleiner als ∆ τ ha = 1. In Abbildung 5.2(b) wird mit Hilfe der Quantilfunktion und dem gewünschten Prozentsatz p C = 0 , 9 das p C -Quantil ∆ τ C p C ermittelt, für das 90% der Bearbeitungszeitabweichungen der Aufträge des Clusters kleiner sind. Die 10% der Werte mit einer Bearbeitungszeitabweichung von ∆ τ ha = 3 , 5 sind somit von der weiteren Betrachtung ausgenommen. In Algorithmus 5.2 ist das zuvor beschriebene Vorgehen als Pseudocode aufgeführt. Zunächst wird eine aufsteigend sortierte Liste aller in einem Cluster C vorkommenden Bearbeitungszeitabweichungen erstellt(Zeilen 4–7). Aus dieser wird anschließend das p C -Quantil ∆ τ C p C bestimmt(Zeilen 8–9). Mit dem ermittelten Quantil wird die verkleinerte Menge C ∗ gebildet(Zeilen 10–13) und schließlich der Menge C ∗ hinzugefügt (Zeile 14). 5.2.1.5 Ermittlung von Häufigkeitsverteilungen der Bearbeitungszeitabweichungen Für die ermittelten Cluster C ∗ ∈ C ∗ ähnlicher historischer Aufträge und das für jedes Cluster bestimmte Intervall I C ∗ sind im Folgenden aggregierte probabilistische Informationen über die Bearbeitungszeitabweichungen der in einem Cluster enthaltenen Aufträge zu generieren. Die Aggregation wird durch die Erstellung einer Häufigkeitsverteilung über 5.2 Erstellung des benötigten Informationsstands aus historischen Betriebsdaten 95 Algorithmus 5.2: Ermittlung der verkleinerten Clustermenge C ∗ Input: C p C Output: C ∗ – Menge der ermittelten Cluster – Prozentsatz des Quantils für Cluster C – Menge der neuen Cluster. Diese enthalten nur Aufträge, deren Bearbeitungszeitabweichungen kleiner als das ermittelte Quantil sind. 1 C ∗ ← null; 2 foreach C ∈ C do 3 ∆ τ C p C ← 0; 4 foreach C ∈ C do 5 foreach ha ∈ C do 6 list ← list .Add( ∆ τ ha ); 7 list ← sort( list ) ; 8 element ←|C| · p C ; 9 ∆ τ C p C ← list .get( element ); 10 C ∗ ← null; 11 foreach ha ∈ C do 12 if ∆ τ ha ≤ ∆ τ C p C then 13 C ∗ ← C ∗ ∪{ ha }; // Hinzufügen von ∆ τ ha zu einer Liste // Aufsteigende Sortierung der Liste 14 C ∗ ← C ∗ ∪{C ∗ }; 15 return C ∗ ; die in einem Cluster enthaltenden Aufträge und deren Bearbeitungszeitabweichungen erreicht. Für eine genauere Beschreibung der innerhalb des Intervalls I C ∗ auftretenden Bearbeitungszeitabweichungen sollen diese mittels einer Häufigkeitsverteilung dargestellt werden. Bei der Erstellung dieser Verteilung kann es im Extremfall vorkommen, dass jede Bearbeitungszeitabweichung ∆ τ ha der Aufträge ha ∈ C ∗ eines Clusters unterschiedlich ist und somit eine absolute Häufigkeit h ∆ τ ha = 1 ha ∈C ∗ | ∆ τ ha =∆ τ ha von eins vorliegt bzw. sich nur sehr wenige Werte exakt gleichen. Ein Beispiel ist in Abbildung 5.3(a) aufgeführt. In diesem sind die Bearbeitungszeitabweichungen nur für zwei Aufträge identisch und die absolute Häufigkeit beträgt somit zwei. Alle anderen Aufträge unterschieden sich in der Ausprägung ihrer Bearbeitungszeitabweichungen teilweise nur um wenige Prozent. Dies führt jedoch dazu, dass alle anderen absoluten Häufigkeiten eins betragen. Für die später durchzuführende Ablaufplanung sind jedoch aussagekräftige Informationen über die aufgetretenen Häufigkeiten notwendig. Aus diesem Grund wird das 96 h ∆ τ ha 4 2 q TI C∗ i 1 0 , 5 5 Konzeption 0 − 2 0 2 4 ∆ τ ha ub TI C∗ n C∗ (a) 0 − 2 0 lb TI C∗ 1 24 ub TI C∗ n C∗ (b) ∆ τ ha Abbildung 5.3: Aufbau einer Häufigkeitsverteilung der Bearbeitungszeitabweichungen ∆ τ ha für die Aufträge eines Clusters ha ∈ C ∗ , dargestellt als Histogramm:(a) Absolute Häufigkeitsverteilung ohne die Einteilung in Klassen(b) Relative Häufigkeitsverteilung mit Einteilung in Klassen Intervall I C ∗ in n C ∗ 30 gleich große Teilintervalle bzw. Klassen TI C i ∗ mit 1 ≤ i ≤ n C ∗ unterteilt. Jede Klasse hat somit die Breite 31 kbr C ∗ = (∆ τ C m ∗ ax + / . ) − ∆ τ C m ∗ in n C∗ Die i -te Klasse wird durch die untere Grenze lb TI C∗ i = ∆ τ C m ∗ in +( i − 1) · kbr C ∗ und durch die obere Grenze ub TI C∗ i = ∆ τ C m ∗ in + i · kbr C ∗ beschrieben und ergibt somit das rechtsoffene Intervall Auftrag ha ∈ C ∗ gehört somit genau zu der tungszeitabweichung ∆ τ ha ∈ TI C i ∗ liegt. Klasse TI C ∗ i , TI C i ∗ =[ lb TI C∗ i , ub TI C∗ i in dessen Intervall die ). Jeder BearbeidieFAürnzdaiehlEdresrteAlluufntgrädgeer h r a el ∈ at C iv ∗ e,ndiHeäauufifggrkuenitdenih q r T e I r C i B ∗ eeainrbereiKtulnagssseze T it I a C i b ∗ wweiicrhdunscghelnie ∆ ßl τ ic h h a in dieser Klasse liegen, ermittelt und ihre Anzahl durch die Gesamtanzahl an Werten des Clusters C ∗ dividiert: q TI C∗ i = 1 |C ∗ | 1 ha ∈C ∗ | lb TI C∗ i ≤ ∆ τ ha < ub TI C∗ i 30 Die Anzahl der Klassen kann somit für jedes Cluster separat gesteuert werden. Dies ist bspw. dann sinnvoll, wenn sich die Anzahl der in einem Cluster enthaltenden Elemente stark von denen anderer Cluster unterscheidet. 31 Zu der maximalen Bearbeitungszeitabweichung ∆ τ C m ∗ ax wird der infinitesimale Wert addiert, um bei der Erstellung nicht überlappender Klassen den Wert ∆ τ C m ∗ ax in der Klasse TI C ∗ n C∗ zu berücksichtigen. 5.2 Erstellung des benötigten Informationsstands aus historischen Betriebsdaten 97 Die relativen Häufigkeiten werden schließlich dazu verwendet, die empirische Wahrscheinlichkeitsfunktion p C ∗ ( ha ) für Cluster C ∗ zu definieren: p C ∗ ( ha )= q TI C∗ i , 0 wenn lb TI C∗ i ≤ ∆ τ ha < ub TI C∗ i in allen anderen Fällen (5.8) Des Weiteren wird mit H C ∗ die relative Häufigkeitsverteilung bezeichnet. In Abbildung 5.3(b) ist ein Beispiel für eine relative Häufigkeitsverteilung aufgeführt. Hier wurden die in Abbildung 5.3(a) dargestellten absoluten Häufigkeiten zu vier Klassen zusammengefasst(wobei die dritte Klasse keine Werte enthält) und es wurden die relativen Häufigkeiten gebildet. Die Erstellung der Häufigkeitsverteilung für jedes Cluster C ∗ ∈ C ∗ und deren Ausgabe in Form der empirischen Wahrscheinlichkeitsfunktion aus Gleichung(5.8) ist in Algorithmus 5.3 aufgeführt. Zunächst werden die minimalen( ∆ τ C m ∗ in ) und maximalen( ∆ τ C m ∗ ax ) Bearbeitungszeitabweichungen für jedes Cluster ermittelt sowie die Klassenbreite pro Cluster festgelegt(Zeilen 7–14). Anschließend erfolgt die Ermittlung der relativen Häufigkeiten q TI C∗ i für jede Klasse TI C i ∗ (Zeilen 15–20). 5.2.2 Klassifikatorentwicklung für unbekannte Aufträge Die in den vorherigen Abschnitten beschriebene Aufbereitung der Informationen über die Bearbeitungszeiten der historischen Abfertigungsaufträge kann je nach Umfang der verwendeten Menge A H einige Zeit in Anspruch nehmen. Diese Zeit steht jedoch im Rahmen der durchzuführenden Ablaufplanung nicht zur Verfügung, da es das Ziel ist, den Ablaufplan möglichst schnell zu erstellen. Eine vollständige Clusteranalyse für jeden Ablaufplanungsschritt ist daher nicht zielführend und wird im Folgenden durch einen auf Basis der ermittelten Clustermenge C ∗ trainierten Klassifikator ersetzt. Eine Aktualisierung der Clustermenge C ∗ findet dann in längeren Zeitabschnitten durch die erneute Ausführung einer Clusteranalyse statt. 32 Der trainierte Klassifikator ermöglicht eine schnelle Zuordnung eines einzuplanenden Auftrags a mit a ∈ A zu einem der Cluster C ∗ mit C ∗ ∈ C ∗ und damit zu den Informationen über die Intervallgrenzen I C ∗ und den Häufigkeitsverteilungen H C ∗ bzw. den ermittelten empirischen Wahrscheinlichkeitsfunktionen p C ∗ ( ha ) der Bearbeitungszeitabweichungen der in dem Cluster enthaltenen historischen Aufträge. Im Folgenden wird daher zunächst in Abschnitt 5.2.2.1 erläutert, wie die für den Klassifikator notwendigen Trainingsdaten erstellt werden, mit denen anschließend in Abschnitt 5.2.2.2 der Klassifikator trainiert werden kann. 5.2.2.1 Erstellung von Trainingsdaten Grundlage für die Erstellung der Trainingsdaten sind die in den vorherigen Abschnitten ermittelten Cluster C ∗ und die einem Cluster zugewiesenen Aufträge ha ∈ C ∗ . Für die 32 Dies kann bspw. durch eine parallele Rechnerinstanz, die von der eigentlichen Ablaufplanung unabhängig ist, durchgeführt werden. 98 5 Konzeption Algorithmus 5.3: Ermittlung der Häufigkeitsverteilungen der Bearbeitungszeitabweichungen Input: C ∗ – Menge der ermittelten Cluster n C ∗ – Die Anzahl der zu erzeugenden Klassen für jedes Cluster C ∗ Output: p C ∗ ( ha ) – Ausgabe der empirischen Wahrscheinlichkeitsfunktionen 1 foreach C ∗ ∈ C ∗ do 2 kbr C ∗ ← 0; 3 ∆ τ C m ∗ in ←+ ∞; 4 ∆ τ C m ∗ ax ← −∞; 5 for i ← 1 to n C ∗ do 6 q TI C∗ i ← 0; /* Festlegen der Klassenbreiten für jedes Cluster 7 foreach C ∗ ∈ C ∗ do 8 foreach ha ∈ C ∗ do 9 ∆ τ ha ← / ; | τ ha − τ ha | τ ha 10 if ∆ τ ha < ∆ τ C m ∗ in then 11 ∆ τ C m ∗ in ← ∆ τ ha ; 12 if ∆ τ ha > ∆ τ C m ∗ ax then 13 ∆ τ C m ∗ ax ← ∆ τ ha ; */ kbr ← / ; 14 C ∗ (∆ τ C m ∗ ax +) − ∆ τ C m ∗ in n C∗ /* Ermitteln der relativen Häufigkeiten jeder Klasse 15 foreach C ∗ ∈ C ∗ do 16 foreach ha ∈ C ∗ do 17 ∆ τ ha ← / ; | τ ha − τ ha | τ ha 18 for i ← 1 to n C ∗ do 19 if lb TI C∗ i ≤ ∆ τ ha < ub TI C∗ i then q TI C∗ i ← q TI C∗ i + 1; 20 q TI C∗ i ← 1 |C| q TI C∗ i ; */ 21 return p C ∗ ( ha ); Klassifizierung wird eine Menge T von Trainingsdaten benötigt, wobei jedes Trainingsdatum durch ein Eingabe-Ausgabe-Paar definiert ist, bei dem die Eingabe durch ein Klassenlabel(die Ausgabe) beschriftet ist. In dem vorliegenden Fall entspricht eine Eingabe einem historischen Frachtbearbeitungsauftrag, der durch seinen Eigenschaftsvektor charakterisiert wird, und die Ausgabe einem der verkleinerten Cluster, die in Abschnitt 5.2.1.4 ermittelt wurden. Ein Trainingsdatum kann somit als geordnetes Paar td =( e ha , C ∗ ) mit ha ∈ C ∗ und C ∗ ∈ C ∗ dargestellt werden. Für jeden Auftrag eines Clusters wird ein Trainingsdatum erstellt, welche dann zusammen die Trainingsmenge T C ∗ für dieses Cluster bilden. Dieses 5.2 Erstellung des benötigten Informationsstands aus historischen Betriebsdaten 99 Algorithmus 5.4: Erstellung von Trainingsdaten für den Klassifikator Input: C ∗ – Menge der ermittelten Cluster Output: T – Menge der erzeugten Trainingsdaten 1 T ← null; // Erstellen einer leeren Trainingsmenge 2 foreach C ∗ ∈ C ∗ do 3 T C ∗ ← null; // Erstellen einer leeren Trainingsmenge 4 foreach ha ∈ C ∗ do für das Cluster 5 T C ∗ ← T C ∗ ∪( e ha , C ∗ ); 6 T ← T ∪ T C ∗ ; 7 trainedClassifier = false; 8 return T; Vorgehen wird für jedes vorhandene Cluster wiederholt und die erzeugten Trainingsmengen werden schließlich zur Trainingsmenge T für die Klassifizierung zusammengefasst: T= T C ∗ C ∗ ∈ C ∗ Das Vorgehen zur Erzeugung der Trainingsdaten ist in Algorithmus 5.4 dargestellt. Hier wird in Zeile 5 für jeden Auftrag eines Clusters ein Trainingsdatum erzeugt und zu der Trainingsmenge des Clusters hinzugefügt. Die Trainingsmengen für jedes Cluster werden schließlich in Zeile 6 zur Gesamttrainingsmenge T zusammengefasst. Mit der Neuerstellung der Trainingsdaten muss ebenfalls der Klassifikator erneut trainiert werden. Dies geschieht über die Variable trainedClassifier , die in Zeile 7 auf false gesetzt wird, was dazu führt, dass in Algorithmus 5.5(s. Seite 103) das Training des Klassifikators erneut ausgeführt wird. Nachfolgend wird zunächst die Herleitung dieses Algorithmus dargelegt. 5.2.2.2 Erstellung des Klassifikators Auf Basis der im vorherigen Abschnitt erzeugten Trainingsdaten kann im Folgenden ein Klassifikator trainiert werden, der eine Klassifizierung ausführt und die Klassengrenzen zwischen den Clustern erlernt. Als Klassifikator kommt ein naiver Bayes-Klassifikator zum Einsatz, der als generatives Modell eine Wahrscheinlichkeitsverteilung über die Zugehörigkeit eines Auftrags zu allen Clustern berechnet und somit eine Bewertung dieser Zugehörigkeit in Form von Zugehörigkeitswahrscheinlichkeiten ermöglicht. Sei X p mit 1 ≤ p ≤ d ein Vektor von Zufallsvariablen, der die beobachteten Eigenschaftswerte angibt, und sei Y eine diskrete Zufallsvariable, die das Cluster bezeichnet. Der Klassifikator wird trainiert, indem zwei Mengen von Parametern aus den Trainingsdaten geschätzt werden. Die erste Parametermenge sind die bedingten Wahrscheinlichkeiten, die für jede Eigenschaft p und für jedes Klassenlabel C i ∗ ermittelt und 100 5 Konzeption mit P( X p = e p | Y = C i ∗ ) bezeichnet werden. 33 Die zweite Parametermenge sind die A-priori-Klassenwahrscheinlichkeiten P( Y = C i ∗ ) für jedes Klassenlabel C i ∗ . Die einzelnen Eigenschaften(außer Eigenschaft 1 und 2) sind aufgrund der in Abschnitt 5.2.1.2 durchgeführten Normalisierung stetig bzw. quasistetig, 34 mit einem Wertebereich von[0 , 1]. Die Berechnung der ersten Parametermenge wird für die diskreten Eigenschaften anders durchgeführt als für die(quasi)stetigen Eigenschaften. Im Folgenden wird zunächst die erste Parametermenge für diskrete und anschließend für(quasi)stetige Eigenschaften berechnet. Die Bestimmung der bedingten Wahrscheinlichkeiten für diskrete Eigenschaften(in diesem Fall gilt dies lediglich für die Eigenschaften 1 und 2) ist durch Abzählen möglich, da diese Eigenschaften nur eine endliche Anzahl J möglicher Ausprägungen annehmen können. Die Berechnung der relativen Auftretenshäufigkeit für eine bestimmte Ausprägung j einer diskreten Eigenschaft(bezeichnet als e jp ) unter der Bedingung, dass das Cluster C i ∗ gegeben ist, wird über Gleichung(5.9) ermittelt: P( X p = e jp | Y = C i ∗ )= td td ∈ T ∧ e td ,p = e jp ∧ C t ∗ d = C i ∗ + α { td | td ∈ T ∧ C t ∗ d = C i ∗ }+ αJ (5.9) Hierbei bezeichne e td ,p den Wert der ersten bzw. zweiten Eigenschaft des Eingabevektors, der als Eingabe für Trainingsdatum td dient, und C t ∗ d das zugeordnete Cluster als Ausgabe in diesem Trainingsdatum. Der Parameter α> 0 dient als Glättungsparameter, um Nullwahrscheinlichkeiten zu verhindern, die auftreten würden, wenn eine bestimmte Eigenschaftsausprägung in den Trainingsdaten nicht vorhanden ist und der Zähler in Gleichung(5.9) somit null wäre. 35 Hierfür werden mit dem Parameter α gleichverteilt über alle möglichen Ausprägungen von X p künstliche Beispiele erzeugt. 36 Für die(quasi)stetigen Eigenschaften kann keine Zählfunktion und damit nicht Gleichung(5.9) angewendet werden, da die möglichen Ausprägungen der Eigenschaften nicht abzählbar sind. Alternativ kann jedoch für jedes diskrete Klassenlabel C ∗ ∈ C ∗ als Verteilung für jede(quasi)stetige Eigenschaft p eine Normalverteilung 37 angenommen werden, für die der Erwartungswert und die Varianz aus den Trainingsdaten geschätzt werden: 38 µ p,i = E[ X p | Y = C i ∗ ] σ p 2 ,i = E( X p − µ p,i ) 2 | Y = C i ∗ 33 Präziser müsste P( X p = e p | Y = id( C i ∗ )) mit id: C ∗ → I geschrieben werden, wobei I die Indexmenge der Menge C ∗ bezeichnet. Aus Gründen der Übersichtlichkeit wird im Folgenden jedoch die kürzere Schreibweise für alle(bedingten) Wahrscheinlichkeiten gewählt. 34 Aufgrund der hohen Anzahl möglicher Ausprägungen werden die diskreten Eigenschaften 5 und 9 im Folgenden so behandelt, als seien ihre Wertebereiche stetig. 35 Vgl.[Mit05], S. 5. 36 Dieses Konzept ist auch unter dem Namen Additive Smoothing bekannt. 37 Eine Alternative für die Schätzung der(quasi)steigen Eigenschaften bietet die Verwendung von nicht-parametrischen Dichteschätzern anstatt einer einzigen Normalverteilung. John& Langley(vgl. [JL95]) beschreiben z. B. die Anwendung eines Kerndichteschätzers. 38 Vgl.[Mit05], S. 6. 5.2 Erstellung des benötigten Informationsstands aus historischen Betriebsdaten 101 Der Erwartungswert und die Varianz können aus den Trainingsdaten z. B. über einen Maximum-Likelihood-Schätzer ermittelt werden. Für den Erwartungswert einer Eigenschaft p und eines Klassenlabels C i ∗ ergibt sich Gleichung(5.10) und für die korrigierte Stichprobenvarianz die Gleichung(5.11): 39 µ p,i = td ∈T 1 δ ( C t ∗ d = C i ∗ ) td ∈T e td ,p · δ ( C t ∗ d = C i ∗ )(5.10) σ p 2 ,i = 1 td ∈T δ ( C t ∗ d = C i ∗ ) − 1 ( e td ,p td ∈T − µ p,i ) · δ ( C t ∗ d = C i ∗ )(5.11) mit der Indikatorfunktion δ ( x )= 1 , wenn x wahr ist 0 in allen anderen Fällen Zur Berechnung der bedingten Wahrscheinlichkeiten der(quasi)stetigen Eigenschaften werden die geschätzten Parameter in die Dichtefunktion der Normalverteilung N( µ p,i , σ p 2 ,i ) eingesetzt: 40 P( X p = e p | Y = C i ∗ )= f ( e p | C i ∗ )= 1 exp 2 πσ p 2 ,i − ( e p − µ p,i ) 2 2 σ p 2 ,i (5.12) Neben den bereits geschätzten bedingten Wahrscheinlichkeiten müssen die A-prioriKlassenwahrscheinlichkeiten P( Y = C i ∗ ) für jedes Klassenlabel C i ∗ aus den Trainingsdaten geschätzt werden: 41 P( Y = C i ∗ )= { td | td ∈ T ∧ C t ∗ d = C i ∗ } | T |+ α | C ∗ | + α Der Glättungsparameter α wird erneut verwendet, um Nullwahrscheinlichkeiten zu verhindern, wenn eine Klasse in den Trainingsdaten nicht vorhanden ist. Zur Klassierung eines neuen Auftrags a , der durch den Eigenschaftsvektor e a beschrieben wird, werden die zuvor ermittelten Parametermengen der bedingten und A-prioriKlassenwahrscheinlichkeiten verwendet und die Klassierung wird in zwei Phasen 42 39 Vgl.[Mit05], S. 6 f.;[WFH11], S. 94. 40 Hierbei handelt es sich um eine vereinfachende Schreibweise. Die Wahrscheinlichkeit dafür, dass X p im Falle(quasi)stetiger Werte genau einen bestimmten Wert annimmt, ist null. Stattdessen wird davon ausgegangen, dass der Wert der Eigenschaft p in einem Intervall[ e p −/ 2 , e p + / 2 ] liegt: P( e p −/ 2 ≤ X p ≤ e p + / 2 )= e p +/ 2 e p −/ 2 f ( e p ) d e p für lim / → 0 P( e p −/ 2 ≤ X p ≤ e p +/ 2 ) = f ( e p ). Somit gilt P( X p = e p ) ≈ f ( e p ) × . Im Zähler der Gleichung(5.13) tritt für jedes Cluster auf, sodass diese sich gegenseitig aufheben. Somit kann Gleichung(5.12) für die Wahrscheinlichkeiten der(quasi)stetigen Eigenschaften verwendet werden(siehe[JL95], S. 339;[WFH11], S. 96). 41 Vgl.[Mit05], S. 6. 42 Vgl.[Bis06], S. 43 f. 102 5 Konzeption durchgeführt. In der ersten Phase, der Inferenzphase, wird die A-posteriori-Wahrscheinlichkeitsverteilung über alle Cluster C ∗ ∈ C ∗ ermittelt, 43 die angibt, mit welcher Wahrscheinlichkeit der Auftrag a zu einem Cluster gehört: 44 P( Y = C i ∗ | X p = e a,p )= P( Y = C i ∗ ) d p =1 P( X p = e a,p | Y = C i ∗ ) k j =1 P( Y = C j ∗ ) d p =1 P( X p = e a,p | Y = C j ∗ ) (5.13) In der anschließenden Entscheidungsphase wird das Cluster mit der höchsten Zugehörigkeitswahrscheinlichkeit bzw. maximalen A-posteriori-Wahrscheinlichkeit ausgewählt. Zusammenfassend kann somit die Funktion classify mit classify: A → C ∗ definiert werden, die für die Eingabe eines zu klassierenden Auftrags a jenes Cluster ausgibt, welches die höchste Zugehörigkeitswahrscheinlichkeit besitzt: 45 d classify( a )= arg max C i ∗ ∈ C ∗ P( Y = C i ∗ ) P( X p = e a,p | Y = C i ∗ ) p =1 (5.14) Die für das Cluster ermittelte Intervallgrenze I C ∗ sowie die empirische Wahrscheinlichkeitsfunktion p C ∗ ( ha ) bzw. relative Häufigkeitsverteilung H C ∗ werden in der anschließenden Ablaufplanung verwendet, um für den klassierten Auftrag a Informationen über die möglichen Bearbeitungszeiten zu generieren. Das Vorgehen zur Klassierung eines einzuplanenden Auftrags a ist in Algorithmus 5.5 dargestellt. Zunächst wird in Zeile 3 überprüft, ob bereits ein trainierter Klassifikator vorliegt. Ist dies nicht der Fall, wird in Zeile 4 die Funktion TrainClassifier aufgerufen, um die entsprechenden Wahrscheinlichkeiten zu ermitteln. Die Funktion berechnet in den Zeilen 14 und 21 die bedingten Wahrscheinlichkeiten für die Eigenschaften 1 und 2 sowie in den Zeilen 9 und 16 die A-priori-Klassenwahrscheinlichkeiten. Der Erwartungswert und die Varianz für die(quasi)stetigen Eigenschaften werden in den Zeilen 12 und 19 bzw. den Zeilen 25 und 28 berechnet. Ein erneutes Training des Klassifikators wird durch Zeile 5 in Algorithmus 5.5 solange unterbunden, bis neue Trainingsdaten generiert wurden. 46 Schließlich wird Gleichung(5.14) in den Zeilen 6–13 ausgeführt und das Cluster mit der höchsten Zugehörigkeitswahrscheinlichkeit für Auftrag a ermittelt und zurückgegeben. 43 Bei dem naiven Bayes-Klassifikator, der hier verwendet wird, wird angenommen, dass die Eigenschaften X p mit einem gegebenen Y bedingt unabhängig voneinander sind. 44 Vgl.[Mit05], S. 4. 45 Vgl.[Mit05], S. 4;[Mit97], S. 157. 46 Vergleiche Zeile 7 in Algorithmus 5.4 auf Seite 99. 5.2 Erstellung des benötigten Informationsstands aus historischen Betriebsdaten 103 Algorithmus 5.5: Klassifikator für Frachtabfertigungsaufträge Input: a T C ∗ – Zu klassierender Auftrag – Menge der erstellten Trainingsdaten – Menge der ermittelten Cluster Output: bestCluster – Ausgabe des Clusters mit der höchsten Zugehörigkeitswahrscheinlichkeit für den zu klassierenden Auftrag a 1 bestAPosterioriProb ← 0; 2 bestCluster ← null; 3 if trainedClassifier = false then 4 TrainClassifier( T , C ∗ ) ; 5 trainedClassifier = true; 6 foreach C i ∗ ∈ C ∗ do 7 prod ← 1; 8 for p ← 1 to d do 9 prod ← prod · P( e a,p | C i ∗ ); 10 aPosterioriProb ← P( C i ∗ ) · prod ; 11 if aPosterioriProb ≥ bestAPosterioriProb then 12 bestAPosterioriProb ← aPosterioriProb ; 13 bestCluster ← C i ∗ ; 14 return bestCluster ; 104 5 Konzeption Funktion TrainClassifier( T, C ∗ ) Input: T C ∗ – Menge der erstellten Trainingsdaten – Menge der ermittelten Cluster Output: P( e jp | C i ∗ ) – P( C i ∗ ) µ p,i σ p 2 ,i – – – Bedingte Wahrscheinlichkeiten für diskrete Eigenschaften(hier: Eigenschaften 1 und 2) A-priori-Klassenwahrscheinlichkeiten Erwartungswerte der(quasi)stetigen Eigenschaften Varianzen der(quasi)stetigen Eigenschaften 1 for i ← 1 to k do 2 for p ← 1 to d do 3 if p = 1 && p = 2 then µ p,i ← 0; σ p 2 ,i ← 0; 4 else 5 for j ← 1 to J do P( e jp | C i ∗ ) ← 0; 6 P( C i ∗ ) ← 0; freqClass C i ∗ ← 0; 7 foreach td ∈ T do 8 for i ← 1 to k do 9 freqClass C i ∗ ← freqClass C i ∗ + 1 · δ ( C t ∗ d = C i ∗ ); 10 for p ← 1 to d do 11 if p = 1 && p = 2 then 12 µ p,i ← µ p,i + e td ,p · δ ( C t ∗ d = C i ∗ ); 13 else 14 P( e jp | C i ∗ ) ← P( e jp | C i ∗ )+ 1 · δ ( C t ∗ d = C i ∗ ) · δ ( e td ,p = e jp ); 15 for i ← 1 to k do 16 P( C i ∗ ) ← / ; freqClass C i ∗ + α | T| + α| C ∗ | 17 for p ← 1 to d do 18 if p = 1 && p = 2 then 19 µ p,i ← / ; µ p,i freqClass C i ∗ 20 else 21 for j ← 1 to J do P( e jp | C i ∗ ) ← / ; P( e jp | C i ∗ )+ α freqClass C i ∗ + αJ 22 foreach td ∈ T do 23 for i ← 1 to k do 24 for p ← 1 to d do 25 if p = 1 && p = 2 then σ p 2 ,i ← σ p 2 ,i +( e td ,p − µ p,i ) · δ ( C t ∗ d = C i ∗ ); 26 for i ← 1 to k do 27 for p ← 1 to d do 28 if p = 1 && p = 2 then σ p 2 ,i ← / ; σ p 2 ,i freqClass C i ∗ − 1 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse 105 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse Aufbauend auf der in den vorherigen Abschnitten aufbereiteten Informationen über historische Frachtabfertigungsaufträge(vgl. Abschnitt 5.2) und unter Verwendung des erstellten Klassifikators für neue Abfertigungsaufträge wird in den folgenden Abschnitten eine proaktive Ablaufplanung entwickelt. Mit Hilfe des Konzepts soll die automatisierte Erstellung von Ablaufplänen ermöglicht werden, die Informationen über Unsicherheiten der Bearbeitungszeiten von Frachtabfertigungsaufträgen systematisch berücksichtigt, wodurch Ablaufpläne entworfen werden können, die im laufenden Betrieb weniger anfällig gegenüber Störungen sind. Im Folgenden wird das Grundproblem der proaktiven Ablaufplanung zunächst in Abschnitt 5.3.1 als Mehrzieloptimierungsmodell mathematisch formuliert. Dieses Modell wird anschließend in Abschnitt 5.3.2 in eine rollierende Planung integriert, die dem offenen Planungshorizont Rechnung trägt. Des Weiteren wird das Zielsystem des Grundproblems um die Betrachtung eines Stabilitätskriteriums erweitert. Aufgrund der Komplexität des Problems wird eine evolutionäre Heuristik in Abschnitt 5.3.3 entwickelt. Aufbauend auf dem erweiterten Grundmodell wird dieses in den Abschnitten 5.3.4 und 5.3.5 um die Betrachtung weiterer Einschränkungen in Form des Personaleinsatzes und der Förderkapazitäten erweitert. 5.3.1 Formalisierung des Ablaufplanungsproblems Im Folgenden soll das Problem der proaktiven Ablaufplanung als Optimierungsmodell mathematisch formalisiert werden. Hierzu werden in Abschnitt 5.3.1.1 zunächst die einzuplanenden Aufträge a ∈ A klassiert. Anschließend wird in Abschnitt 5.3.1.2 auf das zu verwendende Zielsystem näher eingegangen und schließlich in Abschnitt 5.3.1.3 das Optimierungsmodell aufgestellt. 5.3.1.1 Klassierung der zu bearbeitenden Aufträge Grundlage der Optimierung bilden die zu einem Zeitpunkt bekannten und einzuplanenden Aufträge der Menge A. 47 Bevor diese auf die zur Verfügung stehenden Maschinen eingeplant werden können, sind zunächst mit Hilfe des in Abschnitt 5.2.2.2 trainierten Klassifikators für jeden Auftrag eine Klassierung durchzuführen, um diese einem der Cluster zuzuordnen. Mit Hilfe der für die Cluster hinterlegten Intervallgrenzen der Bearbeitungszeitabweichungen können anschließend die Bearbeitungszeitintervalle der einzuplanenden Aufträge berechnet werden. Zur Klassierung wird für jeden Auftrag a ∈ A mit Hilfe von Gleichung(5.14) eine Klassierung durchgeführt. Ergebnis dieser Klassierung sind ein Cluster C ∗ sowie das für dieses Cluster hinterlegte Intervall I C ∗ sowie die relative Häufigkeitsverteilung H C ∗ 47 Vgl. Abschnitt 2.2.2.2. In Abschnitt 5.3.1 wird zunächst noch von einem statischen System ausgegangen. Diese Einschränkung wird in Abschnitt 5.3.2 aufgehoben. 106 5 Konzeption Algorithmus 5.6: Klassierung der einzuplanenden Frachtabfertigungsaufträge und Ermittlung der Bearbeitungszeitintervalle Input: A C ∗ – Zu klassierende Aufträge – Menge der ermittelten Cluster Output: I a – Bearbeitungszeitintervall des klassierten Auftrags a 1 foreach a ∈ A do 2 τ a ← Schätze die Bearbeitungszeit mit Gleichung(2.1); 3 bestCluster ← classify( a ); 4 τ a min ← τ a + ∆ τ b m es in tCluster · τ a ; 5 τ a max ← τ a + ∆ τ b m es a t x Cluster · τ a ; 6 I a ←[ τ a min , τ a max ]; 7 return I a ; der Bearbeitungszeitabweichungen. Die minimale Bearbeitungszeit eines Auftrags a lässt sich über Gleichung(5.15) berechnen. Die über z. B. Gleichung(2.1) geschätzte Bearbeitungszeit τ a wird hierzu mit dem minimalen Wert ∆ τ C m ∗ in des Intervalls multipliziert und das Ergebnis wird zu der geschätzten Bearbeitungszeit addiert. τ a min = τ a + ∆ τ C m ∗ in · τ a Analog wird die maximale Bearbeitungszeit eines Auftrags a ermittelt: (5.15) τ a max = τ a + ∆ τ C m ∗ ax · τ a Das Ergebnis der Berechnung ist das Bearbeitungszeitintervall I a =[ τ a min , τ a max ] mit 0 < τ a min ≤ τ a max für jeden Auftrag a ∈ A. Für die Ermittlung einer Bearbeitungszeit auf Basis der Häufigkeitsverteilung H C ∗ wird zunächst eine diskrete Zufallsvariable X definiert, die bezüglich dieser Häufigkeitsverteilung verteilt ist X ∼ H C ∗ . Das bedeutet: X nimmt mit einer Wahrscheinlichkeit von q TI C∗ i die mittlere 48 Bearbeitungszeitabweichung der jeweiligen Klasse TI C i ∗ an: ∆ τ C ∗ = lb TI C∗ i + ub TI C∗ i − 2 lb TI C∗ i Die ermittelte Bearbeitungszeitabweichung kann anschließend verwendet werden, um eine Bearbeitungszeit für Auftrag a zu ermitteln: τ a = τ a + ∆ τ C ∗ · τ a (5.16) Die Klassierung und Ermittlung der Bearbeitungszeitintervalle aller einzuplanenden Aufträge ist in Algorithmus 5.6 dargestellt. Zunächst wird in Zeile 2 die Bearbeitungszeit des Auftrags a geschätzt. Der Auftrag wird anschließend klassiert und das Cluster mit 48 Die Bearbeitungszeitabweichungen innerhalb einer Klasse seien gleichverteilt. 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse 107 der höchsten Zugehörigkeitswahrscheinlichkeit ermittelt(Zeile 3). Aus den hinterlegten Intervallgrenzen der Bearbeitungszeitabweichungen wird schließlich in den Zeilen 4 und 5 die minimale und maximale Bearbeitungszeit des Auftrags ermittelt. 5.3.1.2 Zielsystem Mit der proaktiven Ablaufplanung wird das Ziel verfolgt, die einzuplanenden Aufträge so auf die vorhandenen Maschinen zu verteilen, dass möglichst viele der Aufträge ihren Fälligkeitstermin einhalten, d. h. die Anzahl säumiger Aufträge minimiert wird. Zudem soll berücksichtigt werden, dass die für einen Auftrag benötigte Bearbeitungszeit nicht mit Sicherheit bekannt ist und daher als unsicher anzunehmen ist, d. h. die Robustheit einer Lösung soll maximiert werden. 49 Somit ergeben sich zwei Zielfunktionen, die im Folgenden näher erläutert werden. Die erste Zielfunktion, die in dem Zielsystem berücksichtigt werden soll, ist die Minimierung der erwarteten gewichteten Anzahl säumiger Aufträge. Für die Formalisierung der Zielfunktion wird im Folgenden das Konzept von Szenarien eingeführt. Ein Szenario sz ={ τ a s 1 z , Aufträge. Mit ττ a s a s 2 z j z ,... ∈ , τ a s n z I a j } = ist eine mögliche [ τ a m j in , τ a m j ax ] wird Realisierung der Bearbeitungszeiten der die Bearbeitungszeit des Auftrags a j in Szenario sz bezeichnet. Die Menge aller Szenarien SZ entspricht dem kartesischen Produkt der|A| Intervalle I a und ist somit unendlich. Mit Hilfe dieser Menge wird die Unsicherheit der Bearbeitungszeiten abgebildet. Ein Auftrag a in Szenario sz ist somit säumig, wenn sein Fertigstellungszeitpunkt in diesem Szenario, wie in Gleichung(2.2) auf Seite 23 beschrieben, größer als der Fälligkeitstermin für diesen Auftrag ist. Erweitert um die Betrachtung von Szenarien bezeichne hierfür U ( ap, sz ) die gewichtete Anzahl säumiger Aufträge, wenn der Ablaufplan ap unter Szenario sz ausgeführt wird. Die Indikatorfunktion U a sz ( ap ) gibt an, ob der Auftrag a im Ablaufplan ap unter Szenario sz säumig ist. In diesem Fall ist der Fertigstellungszeitpunkt C a sz ( ap ) des Auftrags a im Ablaufplan ap für Szenario sz größer als der Fälligkeitstermin für diesen Auftrag: U ( ap, sz )= w a U a sz ( ap )(5.17) a ∈A und U a sz ( ap )= 1 , 0 wenn C a sz ( ap ) > d a in allen anderen Fällen Zu dem Zeitpunkt, zu dem die Ablaufplanung erfolgt, sind die durch säumige Aufträge entstehenden Kosten die einzigen, auf die durch die Planung noch eingewirkt werden kann. Über die terminorientierte Zielfunktion 50 wird das Ziel verfolgt, eine möglichst hohe 49 Vgl. Abschnitt 2.2.2.2. 50 Im Hinblick auf die für den Kunden höheren Transportkosten für den Luftfrachtverkehr im Vergleich zu anderen Transportmöglichkeiten, wie z. B. Schiffsgüterverkehr, ist die Geschwindigkeit und Zuverlässigkeit ein wichtiger Aspekt und damit die Termintreue ein entscheidender Grund für die Wahl des Kunden. 108 5 Konzeption Termintreue für den Kunden einzuhalten. Eine leichte Überschreitung des festgelegten Fälligkeitstermins kann in der Praxis dazu führen, dass eine Sendung den Flug, auf den sie gebucht ist, nicht erreicht. 51 Dementsprechend wird in der Zielfunktion bereits eine geringe Überschreitung mit den maximalen Kosten 52 belegt. Die Berechnung der erwarteten gewichteten Anzahl säumiger Aufträge für einen gegebenen Ablaufplan ap erfolgt mit Hilfe von Gleichung(5.18): c sched ( ap )= sz ∈SZ U ( ap, sz ) |S Z| (5.18) Die erste Zielfunktion ergibt sich somit, indem das Minimum für Gleichung(5.18) für alle Ablaufpläne ap ∈ AP, mit AP als Menge aller zulässigen Ablaufpläne, ermittelt wird: min c sched ( ap ) ap ∈AP (5.19) Aufgrund der bestehenden Unsicherheit hinsichtlich der Bearbeitungsdauer für einen Auftrag sind der unter Berücksichtigung der zuvor beschriebenen Zielfunktion ermittelte Ablaufplan und dessen Zielfunktionswert nicht mit Sicherheit zu realisieren. Daher wird mit der zweiten Zielfunktion die Eigenschaft eines Ablaufplans bewertet, für möglichst viele mögliche Umweltsituationen ein gutes Ergebnis zu liefern, oder anders ausgedrückt: Die Robustheit eines Ablaufplans wird quantifiziert. Wie in Kapitel 4 bereits angesprochen, soll für diese Zielfunktion ein Regret-basiertes Zielkriterium verwendet werden, bei dem die Möglichkeit besteht, den Grad der Robustheit durch Parameter zu beeinflussen und damit, wie konservativ eine Lösung ist. Zur Berechnung des absoluten Regrets für ein Szenario sz wird der beste Zielfunktionswert für dieses Szenario benötigt. 53 Bezeichne hierfür U s ∗ z die minimale Anzahl säumiger Aufträge unter Szenario sz und ap ∗ sz den optimalen Ablaufplan, der zu diesem Ergebnis führt: U s ∗ z = U ( ap ∗ sz , sz )= min ap ∈AP U ( ap, sz )(5.20) Für einen gegebenen Ablaufplan ap ∈ AP lässt sich der absolute Regret für Szenario sz in Bezug auf die Gesamtanzahl zu planender Aufträge anschließend folgendermaßen berechnen: R ( ap, sz )= U ( ap, sz ) − |A| U s ∗ z (5.21) Der maximale absolute Regret für einen Ablaufplan ap ergibt sich, indem das Maximum für Gleichung(5.21) für alle sz ∈ SZ ermittelt wird: R max ( ap )= max R ( ap, sz ) sz ∈S Z 51 Vgl. Abschnitt 2.2. 52 Statt einheitlicher Strafkosten für jeden säumigen Auftrag könnten auch die tatsächlich entstehenden Kosten Verwendung finden, sofern diese zum Zeitpunkt der Planung durch bspw. Verzugskosten in den Beförderungsverträgen bereits bekannt sind. 53 Vgl.[XCLQ13], S. 3. 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse 109 Das Szenario, das zur Maximierung des absoluten Regrets für einen bestimmten Ablaufplan ap führt, wird als Worst-Case-Szenario sz worst ap bezeichnet: sz worst ap = arg max R ( ap, sz ) sz ∈S Z Des Weiteren werden für die Zielfunktion zwei Parameter festgelegt, mit denen der Grad der Robustheit beeinflusst werden kann: 54 • ω : Dieser Parameter bezeichnet einen Schwellenwert für den in Gleichung(5.21) angegebenen absoluten Regret, der für jede Realisierung der Bearbeitungszeiten bzw. jedes Szenario durch den Ablaufplan ap nicht überschritten werden darf. Somit gilt: R ( ap, sz ) ≤ R max ( ap ) ≤ ω ∀ sz ∈ SZ(5.22) • ϕ : Mit diesem Parameter wird ein Schwellenwert für den in Gleichung(5.21) berechneten absoluten Regret festgelegt, der für möglichst viele Realisierungen der Bearbeitungszeiten bzw. Szenarien nicht überschritten werden soll. Es gilt ϕ ≤ ω und für einen gegebenen Ablaufplan ap : ar sched ϕ ( ap )={ sz | sz ∈ SZ ∧ R ( ap, sz ) ≤ ϕ } Der vorherige Zielfunktionswert kann ebenfalls als relative Größe r ϕ sched angegeben werden: 55 r ϕ sched ( ap )= { sz | sz ∈ SZ ∧ R ( ap, sz ) ≤ ϕ } |S Z| (5.23) Die zweite Zielfunktion ergibt sich somit, indem das Maximum für Gleichung(5.23) für alle ap ∈ AP ermittelt wird: max ap ∈AP r ϕ sched ( ap )(5.24) Die Definition der zuvor genannten Parameter ermöglicht es, die Robustheit der gefunden Lösung zu steuern. Über den Parameter ω wird bestimmt, welchen absoluten Regret ein Ablaufplan für jedes Szenario maximal besitzen darf, und dies entspricht somit einer garantierten oberen Grenze für den absoluten Regret. Eine Erhöhung dieses Parameters(für einen konstanten Wert des Parameters ϕ ) kann dazu führen, dass mehr Ablaufpläne gefunden werden, die den Schwellenwert ϕ für eine größere Anzahl an Szenarien einhalten. Eine Verringerung des Parameters verringert den Verlust im Worst Case, reduziert aber gleichzeitig die Möglichkeit, Lösungen zu finden, die zwar einen höheren maximalen absoluten Regret besitzen, aber dafür einen geringeren absoluten Regret für eine größere Anzahl von Szenarien. 54 Vgl.[Roy10]. 55 Vgl. ebd., S. 634. 110 5 Konzeption 5.3.1.3 Modellformulierung Auf Basis der für jeden Auftrag ermittelten Intervallgrenzen der Bearbeitungszeitabweichungen in Abschnitt 5.3.1.1 und dem beschriebenen Zielsystem in Abschnitt 5.3.1.2 kann das Mehrzieloptimierungsmodell(5.25) 56 für eine statische Umgebung, bei der die Menge A vollständig bekannt ist, formalisiert werden. Ergebnis des Modells sind die Ablaufpläne(repräsentiert über die Entscheidungsvariable x a,a ,m ), die hinsichtlich des verwendeten Zielsystems pareto-optimal sind. Mengen: A A p a rec A s a ucc E M M a SZ Menge der einzuplanenden Aufträge a Menge aller Aufträge, die vor Auftrag a eingeplant werden können Menge aller Aufträge, die nach Auftrag a eingeplant werden können Menge von Vorrangbeziehungen zwischen den Aufträgen Menge der zur Verfügung stehenden Maschinen m Menge von Maschinen, auf denen der Auftrag a ausgeführt werden kann Menge aller Szenarien sz , die eine mögliche Realisierung der Bearbeitungszeiten der Aufträge angeben Parameter: d a Fälligkeitstermin von Auftrag a ∈ A ϕ Schwellenwert, der für möglichst viele Szenarien sz ∈ SZ unterschritten werden sollte M Big M ω Schwellenwert, der für kein Szenario sz ∈ SZ überschritten werden darf ρ Pseudoauftrag, dessen Bearbeitungszeit, Bereitstellungszeit sowie Gewicht 0 ist. Es gilt: ρ ∈ A sowie ∀ a ∈ A: ρ ∈ A p a rec ∧ ρ ∈ A s a ucc r a Bereitstellungszeit von Auftrag a ∈ A τ a sz Bearbeitungszeit des Auftrags a ∈ A in Szenario sz ∈ SZ U s ∗ z Minimale Anzahl säumiger Aufträge unter Szenario sz ∈ SZ w a Priorität von Auftrag a ∈ A Entscheidungsvariablen: C a sz Fertigstellungszeitpunkt des Auftrags a ∈ A in Szenario sz ∈ SZ q Erwartete gewichtete Anzahl säumiger Aufträge für alle Szenarien U a sz Binär: 1, wenn Auftrag a ∈ A in Szenario sz ∈ SZ säumig ist; 0 in allen anderen Fällen v Erwartete Robustheit für alle Szenarien x a,a ,m Binär: 1, wenn Auftrag a ∈ A direkt vor Auftrag a ∈ A auf Maschine m ∈ M ausgeführt wird; 0 in allen anderen Fällen z sz Binär: 1, wenn der absolute Regret säumiger Aufträge in Szenario sz kleiner als ϕ ist; 0 in allen anderen Fällen 56 Die Grundlage dieses Modells bildet eine Netzwerkformulierung, die ein kapazitativ beschränktes Tourenplanungsproblem(engl. Capacitated Vehicle Routing Problem) beschreibt. Hierbei stellen die Kunden die Aufträge, die Fahrzeuge die Maschinen und eine Tour einen Ablaufplan für eine Maschine dar(vgl. z. B.[UM10], S. 788 oder[CM07], S. 221). 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse 111 Zielfunktionen: min c sched = q max r ϕ sched = v u. B. d. N.: sz ∈SZ a ∈A w a U a sz |S Z| ≤ q sz ∈SZ z sz |S Z| = v a ∈A w a U a sz |A| − U s ∗ z ≤ ω (1 − z sz )+ ϕz sz , ∀ sz ∈ SZ x a,ρ,m ≤ 1 a ∈A : a = ρ x ρ,a ,m ≤ 1 a ∈A : a = ρ x a,a ,m = 1 m ∈M a a ∈A p a rec : a = a x a,a ,m = 1 m ∈M a a ∈A s a ucc : a = a x a,a ,m − x a ,a,m = 0 a ∈A p a rec : a = a a ∈A s a ucc : a = a C a sz − C a sz +( M − r a ) x a,a ,m ≤ M −( r a + τ a sz ) C a sz i + τ a s j z ≤ C a sz j C a sz − M U a sz ≤ d a x a,a ,m ∈{ 0 , 1} U a sz ∈{ 0 , 1} z sz ∈{ 0 , 1} C a sz ≥ 0 q ≥ 0 v ≥ 0 , ∀ m ∈ M , ∀ m ∈ M , ∀ a ∈ A: a = ρ , ∀ a ∈ A: a = ρ , ∀ a ∈ A: a = ρ ; ∀ m ∈ M , ∀ a ∈ A; ∀ a ∈ A: a = ρ, a = a ; ∀ m ∈ M; ∀ sz ∈ SZ , ∀( a i , a j ) ∈ E; ∀ sz ∈ SZ , ∀ a ∈ A; ∀ sz ∈ SZ , ∀ a ∈ A; ∀ a ∈ A; ∀ m ∈ M , ∀ a ∈ A; ∀ sz ∈ SZ , ∀ sz ∈ SZ , ∀ a ∈ A; ∀ sz ∈ SZ (5.25a) (5.25b) (5.25c) (5.25d) (5.25e) (5.25f) (5.25g) (5.25h) (5.25i) (5.25j) (5.25k) (5.25l) (5.25m) (5.25n) (5.25o) (5.25p) (5.25q) (5.25r) (5.25s) 112 5 Konzeption Die Zielfunktion(5.25a) in Kombination mit Restriktion(5.25c) minimiert die erwartete gewichtete Anzahl säumiger Aufträge. Die Zielfunktion(5.25b) in Kombination mit den Restriktionen(5.25d) und(5.25e) maximiert die Robustheit der Lösung. Hierzu wird mit Hilfe der Entscheidungsvariable z sz entschieden, ob die absolute Abweichung der Anzahl säumiger Aufträge(modelliert über die Entscheidungsvariable U a sz ) im Vergleich zum Optimum für das Szenario(dargestellt durch U s ∗ z ) den Schwellenwert ω oder ϕ in Szenario sz einhält. Wenn z sz = 0, wird über die Restriktion(5.25e) lediglich die Einhaltung des Schwellenwerts ω gefordert, für z sz = 1 jedoch die Einhaltung des Schwellenwerts ϕ , der wegen ϕ ≤ ω einer stärkeren Einschränkung entspricht. Die erwartete Robustheit wird schließlich über Gleichung(5.25d) ermittelt. Die Nebenbedingungen(5.25f) und(5.25g) stellen sicher, dass für jede Maschine höchstens ein Auftrag direkt vor bzw. direkt nach dem Pseudoauftrag ρ eingeplant wird. 57 Die Gleichungen(5.25h) und(5.25i) sorgen dafür, dass jeder Auftrag auf genau einer passenden Maschine eingeplant wird und hierbei die Vorrangbeziehungen berücksichtigt werden. Restriktion(5.25j) stellt sicher, dass jeder Auftrag(ausgenommen dem Pseudoauftrag) genau einen Vorgänger und einen Nachfolger besitzt. Der Fertigstellungszeitpunkt C a sz eines Auftrags a in Szenario sz wird mit Hilfe der Restriktion(5.25k) ermittelt. Über die Ungleichung(5.25l) wird sichergestellt, dass ein Auftrag, für den eine Vorrangbeziehung besteht, erst nach der Fertigstellung des Vorgängerauftrags starten kann. 58 Die Einhaltung des für einen Auftrag bestehenden Fälligkeitstermins wird über die Ungleichung(5.25m) beschrieben. Liegt der Fertigstellungszeitpunkt C a sz für einen Auftrag a in Szenario sz später als der entsprechende Fälligkeitstermin d a für diesen Auftrag, so wird die Säumigkeit für diesen Auftrag über die Entscheidungsvariable U a sz modelliert. Die binäre Eigenschaft der Entscheidungsvariablen wird über die Nebenbedingungen(5.25n)–(5.25p) sowie die Nichtnegativität der Entscheidungsvariablen über die Restriktionen(5.25q)–(5.25s) sichergestellt. Das Modell(5.25) enthält aufgrund der unendlichen Anzahl von Szenarien|SZ|= ∞ eine unendliche Anzahl von Restriktionen. Aus diesem Grund und da mehrere Zielfunktionen vorhanden sind, kann das Modell nicht direkt durch einen Solver gelöst werden. In Abschnitt 5.3.3.3 wird näher darauf eingegangen, wie diese Menge reduziert und somit eine Lösung mit Hilfe einer evolutionären Metaheuristik berechnet werden kann. Zuvor wird im nächsten Abschnitt das beschriebene Grundmodell(5.25) in eine rollierende Planung integriert und um eine weitere Zielfunktion zur Beurteilung der Stabilität von Ablaufplänen erweitert. 5.3.2 Aufbau einer rollierenden Ablaufplanung Das im vorherigen Abschnitt aufgebaute Modell ist für ein statisches Planungsumfeld verwendbar, in dem die Informationen über die einzuplanenden Aufträge A zu Beginn der Planung vollständig bekannt sind. Für eine realistische Betrachtung ist jedoch, wie in Abschnitt 2.2.2.2 beschrieben, von einer dynamischen Planungsumgebung auszugehen, 57 Sind auf einer Maschine keine Aufträge eingeplant, so besitzt der Pseudoauftrag für diese Maschine keinen Vorgänger oder Nachfolger. 58 Vgl. Abschnitt 2.2.2.2. 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse 113 ap r0 ap r1 ap r2 ap p0 ap p1 ap p2 ··· ap r i ··· Planungszyklus pz Planungshorizont ph Abbildung 5.4: Rollierende Ablaufplanung ap p i t bei der die Menge A unbegrenzt ist. Zu jedem Planungszeitpunkt t i ist jeweils nur eine Teilmenge A t i ⊂ A von Aufträgen bekannt. Im Folgenden wird daher das aufgebaute Modell um die Betrachtung der dynamischen Planungsumgebung erweitert. Hierzu wird in Abschnitt 5.3.2.1 zunächst der Ablauf einer rollierenden Ablaufplanung erläutert und auf die Besonderheiten im Zusammenhang mit den verschiedenen Auftragsmengen näher eingegangen. Anschließend wird das beschriebene Zielsystem um das Zielkriterium der Stabilität in Abschnitt 5.3.2.2 erweitert und schließlich in Abschnitt 5.3.2.3 Modell(5.25) den Anforderungen entsprechend angepasst. 5.3.2.1 Ablauf der rollierenden Ablaufplanung Als Grundlage für die Planung in der dynamischen Umgebung soll, wie in Abschnitt 4.2 erläutert, eine rollierende Ablaufplanung dienen. Bei dieser wird periodisch 59 das Ablaufplanungsproblem für die bekannten Aufträge gelöst. Das Vorgehen ist in Abbildung 5.4 skizziert. Zu einem Zeitpunkt t i wird die Ablaufplanung mit allen zu dem Zeitpunkt planbaren Aufträgen Ablaufplans ap p i stellt aus den A P t i b = A N t i ∪ A P t i Planungshorizont ausgeführt. 60 ph dar, der in Das Ende des so erstellten Abhängigkeit des tatsächlich eintretenden Szenarios zum Zeitpunkt t i nicht genau bestimmt werden kann. Mit dem Planungszyklus pz wird der zeitliche Abstand festgelegt, der zwischen zwei Planzeitpunkten liegt. Die nächste Planung erfolgt somit zum Zeitpunkt t i +1 = t i + pz . Die im Zeitraum[ t i , t i +1 ] eingetroffenen Aufträge werden durch die ausschließlich rollierende Planung erst zum Zeitpunkt t i +1 betrachtet. 61 Die im Ablaufplan ap p i getroffenen Entscheidungen können im Ablaufplan ap p i +1 , der zum Zeitpunkt t i +1 erstellt wird, für alle Aufträge der Menge A P t i +1 revidiert werden. 62 Die Zuordnungen für Aufträge der Mengen A F t i +1 und A R t i +1 hingegen sind fix bzw. werden aktuell ausgeführt, ferner sind 59 Eine Erweiterung um eine ereignisorientiert angestoßene Ablaufplanung(vgl. Abschnitt 2.2.3) erfolgt in Abschnitt 5.4. 60 Vgl. Abschnitt 2.2.2.2. 61 Vgl.[CU92], S. 156. 62 Vgl. Abschnitt 2.2.2.2. 114 5 Konzeption Aufträge der Menge wird somit nur ein A C t i +1 Teil bereits fertiggestellt. Von dem initial erstellten ap r i ausgeführt, die weiteren Entscheidungen Ablaufplan werden in ap p i den nachfolgenden Zyklen ggf. mehrfach revidiert. Die Planung der Aufträge zum Zeitpunkt t i wird nicht nur durch die Aufträge der Menge A P t i b bestimmt, sondern unterliegt zusätzlichen Restriktionen durch alle noch nicht beendeten Aufträge des vorherigen Planungszyklus. Diese Aufträge werden entweder auf einer Maschine ausgeführt oder sind auf eine Maschine fixiert und beeinflussen somit die zur Verfügung stehenden Kapazitäten in der Art, dass die Aufträge des aktuellen Planungszeitraums nur nach diesen ausgeführt werden können. Des Weiteren weicht für Aufträge der Menge A R t i die in Optimierungsmodell(5.30) in Abschnitt 5.3.2.3 zu betrachtende Szenariomenge von der in Abschnitt 5.3.1.2 beschriebenen ab. Für bereits gestartete Aufträge umfasst die mögliche Bearbeitungszeit nicht mehr das vollständige Intervall I a , sondern nur das mögliche Restbearbeitungszeitintervall I a Rest : I a Rest = max τ a min −( t i − s a ) , 0 , max τ a max −( t i − s a ) , 0(5.26) Dieses errechnet sich, indem von der minimal τ a min und maximal τ a max möglichen Bearbeitungszeit aus dem Intervall I a der Zeitraum( t i − s a )(= Differenz aus dem aktuellem Zeitpunkt t i und dem tatsächlichen Startzeitpunkt s a des Auftrags) subtrahiert wird. Die Bearbeitungszeit eines Auftrags a ∈ A R t i in Szenario sz ergibt sich somit aus τ a sz ∈ I a Rest . Analog muss für Aufträge der Menge A R t i die Ermittlung von Bearbeitungszeiten auf Basis der jeweiligen Häufigkeitsverteilung H C ∗ angepasst werden. Hierzu wird Gleichung(5.16) entsprechend geändert: τ a Rest = max( τ a + ∆ τ C ∗ · τ a ) −( t i − s a ) , 0(5.27) Für den Fall, dass das Restbearbeitungszeitintervall I a Rest gleich[0 , 0] oder τ a Rest gleich 0 ist, entspricht die Bearbeitungszeit dieses Auftrags nicht dem aufgrund der Klassierung zu erwartenden Bearbeitungszeitintervall bzw. der zu erwartenden Bearbeitungszeit. Dieser Fall wird als Ereignis gewertet und in Abschnitt 5.4 behandelt. 5.3.2.2 Zielkriterium„Stabilität“ Zu einem beliebigen Planungszeitpunkt t i können lediglich für Aufträge aus der Menge A P t i , wie im vorherigen Abschnitt beschrieben, die getroffenen Entscheidungen aus einem früheren Ablaufplan revidiert werden. Dabei sollte allerdings berücksichtigt werden, dass auf Basis des früheren Ablaufplans bereits Sekundärplanungen erfolgt sein können, die bspw. auf den berechneten Endterminen der Aufträge beruhen. 63 Eine häufige Änderung dieser Termine bzw. eine hohe Nervosität des erstellten Ablaufplans kann somit zu weiteren Kosten für diese Sekundärplanungen führen. Daher soll im Folgenden das in Abschnitt 5.3.1.2 beschriebene Zielsystem um eine weitere Zielfunktion erweitert werden, die die Stabilität eines Ablaufplanes bewertet und damit berücksichtigt. 63 Vgl. Abschnitt 2.2.2.2. 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse 115 Für Aufträge aus der Menge A P t i sind lediglich Ablaufreihenfolgen auf den Maschinen sowie Start- und Endtermine in Abhängigkeit des eintretenden Szenarios festgelegt. Es wurden jedoch noch keine Vorbereitungen einer Maschine in Form tatsächlicher Frachtbewegungen für diesen Auftrag vorgenommen. Daher sollte das Stabilitätskriterium lediglich die Änderung in den Start- und Endterminen dieser Aufträge von dem vorherigen Ablaufplan ap i − 1 zum jetzigen ap i für ein Szenario sz bewerten. Eine Änderung der Maschinenzuordnung, sofern die neue Maschine diesen Auftrag bearbeiten kann, wird, wenn dies zu keiner Änderung der Start- und Endtermine führt, durch das Stabilitätskriterium nicht betrachtet. 64 Als Stabilitätskriterium wird daher die von Jensen 65 beschriebene Stabilitätsmetrik verwendet. Bezeichne hierfür overlap( ap i − 1 , ap i , a, sz ) die Überlappung der Bearbeitungszeit des Auftrags a ∈ A P t i in Szenario sz ∈ SZ, der bereits in Ablaufplan ap i − 1 eingeplant wurde und in dem aktuellen Ablaufplan ap i erneut eingeplant wird: overlap( ap i − 1 , ap i , a, sz )= max min C a sz ( ap i − 1 ) , C a sz ( ap i ) − max C a sz ( ap i − 1 ) − τ a sz , C a sz ( ap i ) − τ a sz , 0 Unter Verwendung dieser Funktion kann anschließend die Überlappung zweier Ablaufpläne ap i − 1 und ap i für alle Aufträge a ∈ A P t i für Szenario sz ∈ SZ mit Hilfe der Funktion overlapS( ap i − 1 , ap i , sz ) berechnet werden: overlapS( ap i − 1 , ap i , sz )= a ∈A P ti overlap( ap i − 1 , ap i , a, sz ) τ a ∈A P ti sz a Die erwartete Stabilität für einen gegebenen Ablaufplan ap i unter Berücksichtigung des bereits gestarteten Ablaufplans ap i − 1 berechnet sich somit folgendermaßen: s sched ( ap i − 1 , ap i )= sz ∈SZ overlapS( ap i − 1 , ap i , sz ) |S Z| (5.28) Die dritte Zielfunktion ergibt sich somit, indem das Maximum für Gleichung(5.28) für alle ap ∈ AP i 66 und den bereits bestehenden Vorplan ap i − 1 ermittelt wird: max ap ∈AP i s sched ( ap i − 1 , ap )(5.29) Eine Visualisierung dieser Berechnung findet sich in Abbildung 5.5. Zum Zeitpunkt t 0 = 0 wird der initiale Ablaufplan ap 0 für ein beliebiges, aber festes Szenario sz ∈ SZ erstellt(siehe Abbildung 5.5(a)). Hierbei werden acht Aufträge auf zwei Maschinen verteilt. Zum Zeitpunkt t 1 = 45 wird ein weiterer Ablaufplan ap 1 erstellt(siehe Abbildung 5.5(b)), 64 Die Belastungsänderungen, die durch einen Wechsel von Maschinen auf die Transportsysteme ausgeübt werden, werden in Abschnitt 5.3.5 betrachtet und bei der Erstellung der Ablaufpläne berücksichtigt. 65 Siehe[Jen01], S. 79 f. 66 Mit AP i wird die Menge aller zulässigen Ablaufpläne zum Zeitpunkt t i bezeichnet. 116 5 Konzeption m 2 a 2 a 3 a 5 a 8 m 1 a 1 a 4 a 6 a 7 0 60 120 180 t t 1 (a) m 2 a 2 a 3 a 5 a 8 m 1 a 1 a 4 a 6 a 9 a 7 A C t 1 A R t 1 A F t 1 A P t 1 A N t 1 0 60 t 1 120 180 t (b) m 2 a 8 m 1 a 7 0 60 120 180 t (c) Abbildung 5.5: Visualisierung der Berechnung für die Zielfunktion„Stabilität“ unter Berücksichtigung eines beliebigen, aber festen Szenarios sz ∈ SZ (in Anlehnung an:[Jen01], S. 80):(a) Zum Zeitpunkt t 0 initial erstellter Ablaufplan ap 0 (b) Zum Zeitpunkt t 1 erstellter Ablaufplan ap 1 (c) Überlappung der Aufträge aus A P t 1 der den neu hinzugekommenen Auftrag a 9 berücksichtigt und vor Auftrag a 7 einplant. Die Aufträge a 5 und a 8 wurden zeitlich nach hinten verschoben, da a 3 bereits eine längere Bearbeitungszeit besitzt als für das Szenario sz ∈ SZ initial angenommen. Eine Visualisierung der Funktion overlap( ap 0 , ap 1 , a, sz ) für die betroffenen Aufträge a ∈ A P t 1 ={ a 7 , a 8 } ist in Abbildung 5.5(c) zu finden. Das Stabilitätskriterium wird für die Menge A P t 1 aus dem Quotienten der 20 bzw. 40 Zeiteinheiten umfassenden Überlappung für a 7 bzw. a 8 und deren Bearbeitungszeiten berechnet: overlapS( ap 0 , ap 1 , sz )= 20+ 50+ 40 60 = 6 11 Zwischen dem Stabilitätskriterium und den anderen beiden in Abschnitt 5.3.1.2 beschriebenen Zielkriterien besteht ein Trade-off. Auf der einen Seite geht eine hohe 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse 117 Stabilität mit einer strikteren Vorgabe für die Ablaufplanung einher, da für bereits eingeplante Aufträge weniger Freiheiten bestehen, diese umzuplanen. Hierdurch kann sowohl die Zielfunktion(5.19) als auch(5.24) negativ beeinflusst werden. Auf der anderen Seite ermöglicht eine geringere Stabilität mehr Freiheiten bei der Umplanung von bereits eingeplanten Aufträgen und führt somit zu evtl. besseren Zielfunktionswerten für die beiden anderen Zielfunktionen. Eine geringere Stabilität kann jedoch zu den zuvor beschriebenen Problemen mit der Plannervosität führen. 5.3.2.3 Erweiterung der Modellformulierung Basierend auf dem im vorherigen Abschnitt beschriebenen Stabilitätskriterium kann das Mehrzieloptimierungsmodell(5.30) für eine dynamische Umgebung formalisiert werden. Das Modell stellt hierbei eine Erweiterung des Optimierungsmodell(5.25) dar. Aus diesem werden die beiden Zielfunktionen, die dargestellten Restriktionen sowie die ermittelte Zuordnungslösung x a,a ,m übernommen. Die Zuordnungslösung x a,a ,m aus Ablaufplan ap i − 1 , der zum Zeitpunkt t i − 1 erstellt worden ist, muss für die Verwendung in Modell(5.30) aufbereitet werden. Hierzu sind in einem ersten Schritt zunächst die Zuordnungslösungen für alle bereits beendeten Aufträge sowie alle Nachfolgerbeziehungen des Pseudoauftrags zu entfernen: x a,a ,m = 0 x a,a ,m = 0 x ρ,a ,m = 0 , ∀ a ∈ A C t i ; ∀ a ∈ A t i − 1 ; ∀ m ∈ M , ∀ a ∈ A C t i ; ∀ a ∈ A t i − 1 ; ∀ m ∈ M , ∀ a ∈ A t i − 1 ; ∀ m ∈ M Anschließend sind für den Pseudoauftrag die neuen Nachfolger festzulegen. Nachfolger sind die Aufträge, die aufgrund des vorherigen Schrittes keine Vorgängerbeziehung mehr besitzen und die ein Element der Menge( A t i − 1 \A C t i ) sind. Aufgrund von Restriktion(5.25i) kann dies für jede Maschine auf höchstens einen Auftrag zutreffen. Dieser Schritt ist notwendig, damit in Modell(5.30) kein Auftrag der Menge A P t i b zwischen Pseudoauftrag und einem laufendem oder fixiertem Auftrag eingeplant werden kann. x ρ,a ,m = 1 , ∀ a ∈( A t i − 1 \ A C t i ) , ∀ m ∈ M: x a,a ,m − x a ,a,m = − 1 a ∈A : a = a a ∈A : a = a Schließlich sind die Vorgängerbeziehungen des Pseudoauftrags zu lösen, da die Aufträge der Menge A P t i b eingeplant werden sollen und diese somit mögliche Vorgänger des Pseudoauftrags sind: x a,ρ,m = 0 , ∀ a ∈ A t i − 1 ; ∀ m ∈ M Mit dieser modifizierten Zuordnungslösung kann das nachfolgende Mehrzieloptimierungsmodell(5.30) für eine dynamische Umgebung formalisiert werden. Das Ergebnis des Modells bilden die Ablaufpläne(repräsentiert über die Entscheidungsvariable x a,a ,m ), die hinsichtlich der drei Zielfunktionen 67 pareto-optimal sind. 67 Siehe Zielfunktionen(5.19),(5.24) sowie(5.29). 118 5 Konzeption Mengen: A A t i − 1 A C t i A F t i A P t i A R t i M SZ Menge der zum i -ten Planungszeitpunkt t i zu berücksichtigenden Aufträge a , die eine Auswirkung auf die aktuelle Planung haben. Die Menge ergibt sich folgendermaßen: A= A N t i ∪( A t i − 1 \ A C t i ) Menge der zum Zeitpunkt t i − 1 bekannten Aufträge a Menge der zum Zeitpunkt t i bekannten Aufträge a , die bereits fertiggestellt wurden Menge der zum Zeitpunkt t i bekannten Aufträge a , für die an den Arbeitsstationen bereits eine Vorbereitung stattgefunden hat Menge der zum Zeitpunkt t i bekannten Aufträge a , die lediglich auf eine Arbeitsstation eingeplant sind Menge der zum Zeitpunkt t i bekannten Aufträge a , die bereits auf den Arbeitsstationen gestartet wurden Menge der zur Verfügung stehenden Maschinen m Menge aller Szenarien sz , die eine mögliche Realisierung der Bearbeitungszeiten der Aufträge angeben Parameter: M Big M ρ Pseudoauftrag, dessen Bearbeitungszeit, Bereitstellungszeit sowie Gewicht 0 ist. Es gilt: ρ ∈ A r a s a τ a sz x a,a ,m Bereitstellungszeit von Auftrag a ∈ A Tatsächlicher Startzeitpunkt des Auftrags a ∈( A C t i ∪ A R t i ). Für a ∈( A\ A R t i ) gilt: s a = 0 Bearbeitungszeit des Auftrags a ∈ A in Szenario sz ∈ SZ Die Zuordnungen aus Ablaufplan ap i − 1 , der zum Zeitpunkt t i − 1 erstellt worden ist. Binär: 1, wenn Auftrag a ∈( A t i − 1 \ A C t i ) direkt vor Auftrag a ∈( A t i − 1 \ A C t i ) auf Maschine m ∈ M zugewiesen worden ist; 0 in allen anderen Fällen Entscheidungsvariablen: C a sz Fertigstellungszeitpunkt des Auftrags a ∈ A in Szenario sz ∈ SZ C a sz Fertigstellungszeitpunkt des Auftrags a ∈( A t i − 1 \ A C t i ) in Szenario sz ∈ SZ, wenn die Zuordnungslösung x a,a ,m verwendet wird o s a z Überlappung der Bearbeitungszeit des Auftrags a ∈ A P t i in Szenario sz ∈ SZ, der bereits in Ablaufplan ap i − 1 eingeplant wurde und in dem aktuellen Ablaufplan ap i erneut eingeplant wird p Erwartete Stabilität für alle Szenarien so sz Überlappung der Ablaufpläne ap i − 1 und ap i für alle Aufträge a ∈ A P t i für Szenario sz ∈ SZ x a,a ,m Binär: 1, wenn Auftrag a ∈ A direkt vor Auftrag a ∈ A auf Maschine m ∈ M ausgeführt wird; 0 in allen anderen Fällen 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse 119 Zielfunktionen: (5.25a) und(5.25b) max s sched = p (5.30a) u. B. d. N.: (5.25c)–(5.25s) sz ∈SZ so sz |S Z| = p o sz a ∈A P ti a τ a ∈A P ti sz a = so sz max min( C a sz , C a sz ) − max( C a sz − τ a sz , C a sz − τ a sz ) , 0= o s a z x a,a ,m = x a,a ,m C a sz − C a sz + M − max( r a , s a ) x a,a ,m ≤ M − max( r a , s a )+ τ a sz C a s i z + τ a s j z ≤ C a s j z so sz ∈[0 , 1] o s a z ≥ 0 p ≥ 0 , ∀ sz ∈ SZ , ∀ a ∈ A P t i ; ∀ sz ∈ SZ , ∀ a ∈ A R t i ∪ A F t i ; ∀ a ∈ A R t i ∪ A F t i ; ∀ m ∈ M , ∀ a ∈ A t i − 1 \ A C t i ; ∀ a ∈ A t i − 1 \ A C t i : a = ρ, a = a ; ∀ m ∈ M; ∀ sz ∈ SZ , ∀( a i , a j ) ∈ E; ∀ sz ∈ SZ , ∀ sz ∈ SZ , ∀ a ∈ A P t i ; ∀ sz ∈ SZ (5.30b) (5.30c) (5.30d) (5.30e) (5.30f) (5.30g) (5.30h) (5.30i) (5.30j) Die Zielfunktion(5.30a) in Kombination mit Restriktion(5.30b) maximiert die erwartete Stabilität des zu erstellenden Ablaufplans. Mit Hilfe der Gleichung(5.30d) wird die überlappende Bearbeitungszeit des Auftrags a in Szenario sz berechnet. Diese Berechnung wird für alle Aufträge durchgeführt, die bereits zu einem früheren Zeitpunkt eingeplant worden sind, für die aber bisher keine Vorbereitungen an der Arbeitsstation stattgefunden haben und die somit zu der Menge A P t i gehören. Mit Gleichung(5.30c) wird das Stabilitätskriterium für den gesamten Ablaufplan für jedes Szenario sz berechnet. Über die Restriktion(5.30e) wird sichergestellt, dass Aufträge aus den beiden Mengen A R t i und A F t i nicht umgeplant werden können. Hierfür werden die Zuordnungen aus der modifizierten vorherigen Zuordnungslösung x a,a ,m in der aktuellen x a,a ,m fixiert. Restriktion(5.30f) berechnet den Fertigstellungszeitpunkt C a sz aller Aufträge aus( A t i − 1 \ A C t i ) des vorherigen Planungszeitraums unter Berücksichtigung der aktuellen Szenariomenge sowie der modifizierten Zuordnungslösung aus dem zuvor erstellten Ablaufplan ap i − 1 . Des Weiteren 120 5 Konzeption werden über Restriktion(5.30g) evtl. bestehende Vorrangbeziehungen zwischen diesen Aufträgen beachtet. Nebenbedingung(5.30h) stellt sicher, dass die Stabilität eines Ablaufplans für ein Szenario sz einen Wert im Intervall[0 , 1] besitzt. Die Nichtnegativität der Entscheidungsvariablen wird über die Restriktionen(5.30i) und(5.30j) sichergestellt. 5.3.3 Evolutionäre Heuristik für die Ablaufplanung Das im vorherigen Abschnitt aufgestellte Modell(5.30) kann wie auch schon das Modell(5.25) nicht direkt durch einen Solver gelöst werden. Zum einen ermöglicht das verwendete Zielsystem aufgrund der beschriebenen konfliktären Zielfunktionen keine eindeutige Identifizierung einer Lösung. 68 Zum anderen bestehen, wie bereits angesprochen, aufgrund der unendlichen Anzahl von Szenarien der Szenariomenge(|SZ|= ∞) unendlich viele Restriktionen in dem Modell. Des Weiteren stellt das in dem Modell betrachtete Ablaufplanungsproblem bereits für den deterministischen und statischen Fall ein NP-schweres kombinatorisches Optimierungsproblem dar, für das bei größeren Probleminstanzen in der zur Verfügung stehenden Zeit mit Hilfe des Modells keine Lösung ermittelt werden kann. 69 Aus den zuvor genannten Gründen wird in diesem Abschnitt eine evolutionäre Metaheuristik(NSGA-II) verwendet, um die Ablaufpläne auf Basis einer rollierenden Planung zu erstellen. Der Ablauf dieser Heuristik, dargestellt in Abbildung 5.6, orientiert sich am Standardablauf 70 für genetische Algorithmen, der um problemspezifische Anpassungen ergänzt wird und aus den folgenden Schritten besteht: 1. Initialisierung: Erstellung einer endlichen Szenariomenge SZ und Generierung einer Initialpopulation P 0 möglicher Ablaufpläne 2. Evaluation: Jeder Ablaufplan aus P 0 wird auf Basis des Zielsystems bewertet 3. Setze i = 0 4. Selektion: Auswahl der Individuen aus P i , die in die Reproduktion eingehen 5. Reproduktion: a) Rekombination: Aus der Kombination von Merkmalen der zuvor selektierten Ablaufpläne werden neue Ablaufpläne erzeugt, die die Nachfolgepopulation Q i bilden b) Mutation: Die Ablaufpläne aus Q i werden zufälligen Änderungen unterworfen und mit dem Verfahren aus Schritt 2 evaluiert 68 Eine Zusammenfassung der Zielfunktionen durch Gewichte und somit die Beschränkung auf eine eindeutige Lösung soll hier vermieden werden, da die Informationen über die möglichen paretooptimalen Pläne eine wertvolle Entscheidungshilfe für den Entscheidungsträger darstellen. 69 Vgl.[KC93], S. 160 f., mit Verweis auf[GJ79], S. 238, für den deterministischen Fall und[AD08] für den Ein-Maschinen-Fall unter szenariobasierter Unsicherheit der Bearbeitungszeiten. 70 Vgl.[Tal09], S. 205. 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse 121 Initialisierung Evaluation Selektion Reproduktion Rekombination Mutation «decisionInput» i> maxgen Evaluation Ersetzung [Falsch] [Wahr] Abbildung 5.6: Ablauf des genetischen Algorithmus(in Anlehnung an:[Bal11], S. 6816) 6. Ersetzung: Aus R i = P i ∪ Q i werden die Ablaufpläne bestimmt, die in die Population P i +1 für die nächste Generation übernommen werden. 7. Terminierung: Setze i = i + 1. Ein Abbruchkriterium entscheidet darüber, ob die Heuristik beendet wird. Ist dies nicht der Fall, wird Schritt 4 erneut ausgeführt. 8. Ausgabe der Ergebnisse in Form der nicht-dominierten Ablaufpläne Bevor diese Schritte in den Abschnitten 5.3.3.2–5.3.3.7 näher ausgeführt werden, wird im folgenden Abschnitt die Kodierung und Dekodierung der Ablaufpläne beschrieben, die als grundlegende Repräsentation eines Ablaufplans in allen weiteren Schritten der Heuristik verwendet wird. 5.3.3.1 Kodierung und Dekodierung der Ablaufpläne Für die Anwendung eines genetischen Algorithmus ist es notwendig, Lösungen(in diesem Fall also die Ablaufpläne) in Chromosomen zu kodieren. Ein Chromosom entspricht hierbei einem Ablaufplan und die einzelnen Gene einer Zuordnung eines Auftrags zu einer Maschine. Die Gesamtheit der Chromosomen ergibt den Kodierungsraum, auf 122 5 Konzeption Maschine m 1 Maschine m 2 m 2 a 2 a 5 a 1 a 3 a 4 ∗ a 2 a 5 g 1 g 2 g 3 g 4 = g 5 g 6 ps 1 m 1 a 1 a 3 a 4 0 60 120 180 t (a)(b) Abbildung 5.7: Dekodierung eines Individuums zu einem Ablaufplan:(a) Kodierter Ablaufplan(Genotyp)(b) Dekodierter Ablaufplan(Phänotyp) dem die genetischen Operatoren ausgeführt werden. Der Kodierungsraum wird durch die Dekodierung in den Lösungsraum überführt, auf dem die Evaluation stattfindet. Bei der Kodierung sind die in Abschnitt 3.2.2.1 beschriebenen Anforderungen nach der Zulässigkeit, der Gültigkeit sowie der Eindeutigkeit der Zuordnung zwischen einem Chromosom(Genotyp) und der dekodierten Lösung(Phänotyp) zu beachten. Des Weiteren müssen alle zulässigen Ablaufpläne durch die Kodierung darstellbar sein. Im Folgenden wird ein Kodierungsansatz nach Hou et al. 71 verwendet, der für jede Maschine eine Liste von auszuführenden Aufträgen vorsieht. Die Reihenfolge innerhalb der Listen entspricht dabei der Ausführungsreihenfolge auf der entsprechenden Maschine. 72 Dieser Ansatz wird in Kombination mit Partitionierungssymbolen nach Cheng et al. 73 verwendet, um eine Zusammenfassung der einzelnen Listen zu einer Kodierungskette zu erreichen. Bezeichne g η =( g 1 , g 2 ,..., g n + l − 1 ) den Vektor der Gene bzw. das Chromosom des Individuums η , wobei n =|A P t i b | der Anzahl aller planbaren Aufträge und l =|M| der Anzahl der vorhandenen Maschinen entspricht. Jedes Gen g j mit 1 ≤ j ≤( n + l − 1) entspricht entweder einem Auftrag g j ∈ A P t i b oder einem von l − 1 Partitionierungssymbolen g j ∈{∗}. Hierbei bezeichne pos( ps i ) die Position des i -ten Partitionierungssymbols, wobei pos( ps 0 )= 0 und pos( ps l )=( n + l ) gelte. Die Partitionierungssymbole unterteilen die Aufträge und weisen sie somit den Maschinen zu, die die Aufträge ausführen können. Ein Auftrag(kodiert als g j ) ist dabei der Maschine m i mit 1 ≤ i ≤ l zugewiesen, wenn für ihn pos( ps i − 1 ) < j< pos( ps i ) gilt. Abbildung 5.7(a) stellt ein kodiertes Individuum grafisch dar. Zur Dekodierung eines Individuums η werden die Gene von Position j = 1 beginnend nach rechts bis zum letzten Gen an Position j =( n + l − 1) durchlaufen. Für jedes Gen g j wird der durch dieses Gen kodierte Auftrag der nach obiger Ungleichung 71 [HAR94]. 72 Siehe ebd., S. 115. 73 [CGT95]. 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse 123 berechneten Maschine zugeordnet. Bei der Zuordnung sind der Vorranggraph G, mögliche Bereitstellungszeiten r a der Aufträge, das gewählte Szenario sz der Bearbeitungszeiten (vgl. Abschnitt 5.3.3.3) sowie der bereits in der Ausführung befindliche Ablaufplan zu berücksichtigen. Abbildung 5.7 visualisiert die Dekodierung eines Individuums zu einem Ablaufplan. Das Individuum besteht aus fünf Aufträgen und zwei Maschinen, die in kodierter Form vorliegen(siehe Abbildung 5.7(a)). Des Weiteren seien der Vorranggraph G=( A , {( a 2 , a 4 ) , ( a 2 , a 5 )}) und das Szenario sz ={ 50 , 100 , 40 , 50 , 60} gegeben. Es wird angenommen, dass kein vorheriger Ablaufplan zu berücksichtigen ist und r a = 0 für alle Aufträge gilt. Der entsprechende dekodierte Ablaufplan ist in Abbildung 5.7(b) aufgeführt. 5.3.3.2 Initialisierung Die Zielfunktionswerte(5.18),(5.23) und(5.28) können aufgrund der unendlichen Szenariomenge nicht direkt evaluiert werden. Aus diesem Grund soll auf Basis der für jeden Auftrag ermittelten Clusterzugehörigkeit(vgl. Abschnitt 5.3.1.1) und der für ein Cluster hinterlegten Häufigkeitsverteilung eine endliche Menge von Szenarien erzeugt werden. Das Vorgehen ist dabei folgendes: 1. Für jeden Auftrag a ∈ A wird eine Bearbeitungszeit τ a unter Verwendung von Gleichung(5.16) bzw. für bereits gestartete Aufträge unter Verwendung von Gleichung(5.27) erstellt. 2. Es wird ein Ablaufplan Szenario sz i = ap ∗ sz i ermittelt { τ a s 1 z i , (vgl. τ sz i a 2 ,..., τ sz i a n } erzeugt und für dieses ein optimaler 74 Gleichung(5.20)). Anschließend wird das Szenario der Szenariomenge SZ hinzugefügt. 3. Die Schritte 1 und 2 werden solange wiederholt, bis eine angegebene Anzahl 75 von Szenarien erzeugt worden ist. Neben den so erzeugten Szenarien werden vier Spezialszenarien generiert und ebenfalls der Szenariomenge SZ hinzugefügt. Als erstes wird das Szenario erzeugt, in dem jeder Auftrag a ∈ A seine längste Bearbeitungszeit bzw. im Falle der bereits gestarteten Aufträge seine längste Restbearbeitungszeit(siehe Gleichung(5.26)) benötigt: sz ub = τ a τ a = max( I a ) ∧ a ∈ / A R t i ∨ τ a = max( I a Rest ) ∧ a ∈ A R t i (5.31) 74 Dies erfolgt hier aufgrund der Komplexität des Problems ebenfalls mit einem genetischen Algorithmus. Dieser optimiert jedoch ausschließlich die erste Zielfunktion(vgl. Gleichung(5.19)). Die verwendete Kodierung und die genetischen Operatoren sind dabei die gleichen wie für den hier beschriebenen NSGA-II-Algorithmus. Aufgrund der Verwendung einer Heuristik müsste der Begriff optimal präziser mit dem besten durch den GA ermittelten Ablaufplan beschrieben werden, da der gefundene Plan nicht notwendigerweise dem nachweisbar optimalen Ergebnis entspricht. Aus pragmatischen Gründen wird hier und in den folgenden Ausführungen im Zusammenhang mit der evolutionären Heuristik jedoch der Terminus„optimal“ weiter verwendet. 75 Diese Anzahl richtet sich nach den zur Verfügung stehen Ressourcen zur Durchführung der Evaluation und kann in Testläufen ermittelt werden. 124 5 Konzeption Für dieses Szenario wird anschließend der szenariooptimale Ablaufplan ap ∗ sz ub ermittelt und sz ub der Szenariomenge SZ hinzugefügt. Ein weiteres Szenario wird für den Fall erzeugt, dass jeder Auftrag a ∈ A seine kürzeste Bearbeitungszeit bzw. im Falle der bereits gestarteten Aufträge seine kürzeste Restbearbeitungszeit(siehe Gleichung(5.26)) benötigt: sz lb = τ a τ a = min( I a ) ∧ a ∈ / A R t i ∨ τ a = min( I a Rest ) ∧ a ∈ A R t i Für dieses Szenario wird der Ablaufplan ap ∗ sz lb erstellt und sz lb der Szenariomenge SZ hinzugefügt. Für das dritte Spezialszenario wird der jeweilige Erwartungswert der Zufallsvariable X ∼ H C ∗ ermittelt und als Bearbeitungszeitabweichung ∆ τ C ∗ in Gleichung(5.16) bzw. für bereits gestartete Aufträge in Gleichung(5.27) verwendet. Das Szenario wird anschließend folgendermaßen berechnet: sz ex = τ a τ a = τ a ∧ a ∈ / A R t i ∨ τ a = τ a Rest ∧ a ∈ A R t i Es wird erneut der szenariooptimale Ablaufplan ap ∗ sz ex generiert und sz ex der Szenariomenge SZ hinzugefügt. Schließlich wird als letztes Spezialszenario für die Bearbeitungszeiten der Aufträge die über eine Formel 76 abgeschätzte Bearbeitungszeit verwendet: sz co = τ a τ a = τ a ∧ a ∈ / A R t i ∨ τ a = τ a −( t i − s a ) ∧ a ∈ A R t i Der entsprechende szenariooptimale Ablaufplan wird mit ap ∗ sz co bezeichnet und sz co ebenfalls der Szenariomenge SZ hinzugefügt. Die so erstellte Szenariomenge SZ wird für die Evaluation aller Individuen in allen Generationen 77 verwendet. Auf Basis der im vorherigen Abschnitt beschriebenen Kodierung von Ablaufplänen kann im Folgenden eine Population P 0 , d. h. eine Liste 78 von Ablaufplänen, erstellt werden, die als Initialpopulation in dem genetischen Algorithmus verwendet wird. Bei der Erstellung eines Individuums ist darauf zu achten, dass der sich hieraus ergebene Ablaufplan zulässig und gültig ist, d. h., jeder Auftrag der Menge A P t i b muss in dem Individuum kodiert werden und insbesondere die Vorrangbeziehungen zwischen den Aufträgen müssen eingehalten werden. Bezeichne hierfür A p a rec = b b ∈ A P t i b ∧ a = b ∧( b, a ) ∈ E die Menge der direkten Vorgänger für Auftrag a , d. h. Aufträge, die aufgrund der in dem Vorranggraphen G angegebenen Vorrangbeziehungen E direkt vor Auftrag a ausgeführt werden müssen. Sei weiterhin A o t i pen die Menge der noch nicht kodierten Aufträge, die zu Beginn der Menge A P t i b entspricht, und sei A c t i lose die Menge der bereits kodierten Aufträge, die initial 76 Vgl. beispielsweise Gleichung(2.1) auf Seite 18. 77 Dies soll zum einen sicherstellen, dass alle Individuen auf Basis der gleichen Szenarien evaluiert werden, und zum anderen beschränkt es den nötigen Aufwand für die Evaluation, da für jedes Szenario sz i ein optimaler Ablaufplan ap ∗ sz i ermittelt werden muss. 78 Es wird eine Populationsliste statt-menge verwendet, da Duplikate eines Individuums erlaubt sein sollen. Die Notation für Mengen wird jedoch beibehalten. 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse 125 leer ist. Für jede Maschine m wird zusätzlich eine initial leere Liste L m angelegt. Ein Individuum η wird anschließend durch die folgenden Schritte erzeugt: 1. Setze A o t i pen = A P t i b und A c t i lose = ∅ 2. Wähle zufällig einen noch nicht kodierten Auftrag, dessen gesamte Vorgänger bereits kodiert wurden: a ∈ A o t i pen : A p a rec ⊆ A c t i lose 3. Entferne den gerade ausgewählten Auftrag a aus der Menge der noch nicht kodierten Aufträge A o t i pen = A o t i pen \ a und füge diesen der Menge der bereits kodierten Aufträge hinzu: A c t i lose = A c t i lose ∪ a 4. Erzeuge das Gen g j , indem g j = a gesetzt wird. 5. Für die Wahl der Maschine m wird für ein Individuum η alternierend eine der folgenden Strategien ausgewählt: a) Wähle zufällig eine Maschine m aus der Menge M a . b) Wähle unter der Annahme der Bearbeitungszeiten des Szenarios sz ub die Maschine m aus der Menge M a , die am frühsten verfügbar ist. c) Wähle unter der Annahme der Bearbeitungszeiten des Szenarios sz lb die Maschine m aus der Menge M a , die am frühsten verfügbar ist. d) Unter der Annahme der Bearbeitungszeiten des Szenarios sz ex wähle die Maschine m aus der Menge M a , die am frühsten verfügbar ist. Das Gen g j wird dem Ende der Liste L m hinzugefügt. 6. Wiederhole die Schritte 2 bis 5, solange gilt: A o t i pen = ∅ 7. Fasse die erstellten Listen L m 1 ,..., L m l in der Reihenfolge zu dem Chromosom g η des Individuums η zusammen, indem die Listen durch( l − 1) Partitionierungssymbole voneinander getrennt werden. Das zuvor beschriebene Vorgehen wird anschließend( popsize − 8)-mal durchgeführt, um die initiale Population zu erstellen. Jedes erstellte Individuum η k mit 1 ≤ k ≤ popsize wird anschließend der Liste der Initialpopulation P 0 hinzugefügt. Weitere vier Individuen ergeben sich aus den vier für die Spezialszenarien ermittelten und als Individuen kodierten Ablaufplänen. Die verbleibenden vier Individuen werden durch eine Änderung des zweiten Schrittes des zuvor beschriebenen Verfahrens erstellt. Anstatt einer zufälligen Auswahl des als nächstes einzuplanenden Auftrags wird der Auftrag mit dem frühsten Fälligkeitstermin(EDF-Regel) und der kleinsten Identifikationsnummer ausgewählt, dessen Vorgänger bereits eingeplant worden sind. Diese Auswahl ist deterministisch und in Kombination mit den vier Strategien aus Schritt 5 ergeben sich vier zusätzliche Lösungen. Das gesamte Vorgehen zur Erstellung der Initialpopulation ist in Algorithmus 5.7 aufgeführt. Ein Individuum η k wird in den Zeilen 8–25 erstellt. Die Suche nach einem Auftrag, der als nächstes eingeplant werden soll, erfolgt in den Zeilen 11–13, indem zufällig ein Auftrag ausgewählt wird, dessen gesamte Vorgänger bereits eingeplant worden sind. 126 5 Konzeption Algorithmus 5.7: Erstellung der Initialpopulation für den genetischen Algorithmus Input: A P t i b – Die Menge der zum Zeitpunkt t i einzuplanenden Aufträge popsize – Zu erstellende Anzahl an Individuen bzw. Ablaufplänen Output: P 0 – Die Initialpopulation von Individuen bzw. Ablaufplänen 1 P 0 ← ∅; 2 s ← 1; 3 for k ← 1 to popsize − 4 do 4 for i ← 1 to |M| do 5 L m i ← ∅; 6 A o t i pen = A P t i b ; 7 8 A c t i lose = for j ← ∅; 1 to |A P t i b | do 9 a ← null; 10 if k< popsize − 8 then 11 a ← rnd( A o t i pen ) ; 12 13 whi a le ←A r p a n re d c ( AA o t i pc t e i lno ) se ; do 14 else 15 a ← edf( A o t i pen ) ; 16 17 whi a le ←A e p a d re f c ( AA o t i pc t e i lno ) se ; do 18 A o t i pen ← A o t i pen \ a ; 19 A c t i lose ← A c t i lose ∪ a ; 20 g j ← a ; 21 m ← strat s ( M a ) ; // Auswahl einer Maschine nach Strategie s 22 L m ← L m ∪ g j ; 23 for i ← 1 to |M| − 1 do 24 g η k ← g η k ∪ L i ∪{∗}; 25 g η k ← g η k ∪ L m l ; 26 P 0 ← P 0 ∪ η k ; 27 s ← s + 1; 28 if s> 4 then 29 s ← 1; 30 P 0 ← P 0 ∪ ap ∗ sz ub ∪ ap ∗ sz lb ∪ ap ∗ sz ex ∪ ap ∗ sz co ; 31 return P 0 ; 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse 127 Alternativ wird in den Zeilen 15–17 der Auftrag mit dem frühsten Fälligkeitstermin ausgewählt, dessen gesamte Vorgänger bereits eingeplant worden sind. Für den ausgewählten Auftrag wird anschließend in Zeile 21 eine entsprechende Maschine nach der aktuell aktiven Strategie s ausgewählt. Die Erstellung der Population der Größe popsize − 4 erfolgt in den Zeilen 3–29. Schließlich werden die für die Spezialszenarien erzeugten optimalen Ablaufpläne in Zeile 30 der Initialpopulation hinzugefügt. 5.3.3.3 Evaluation der Ablaufpläne auf Basis des Zielsystems Nach der Erstellung der Initialpopulation und nach jeder weiteren Iteration sind die erstellten Individuen auf Basis des in Abschnitt 5.3.1.2 erstellten und in Abschnitt 5.3.2.2 erweiterten Zielsystems zu evaluieren. Hierzu ist in einem ersten Schritt der durch ein Individuum η kodierte Ablaufplan zu dekodieren und mit dem sich bereits in der AeiunesfmühzrwuenitgenbeSficnhdriltitchweinrdAPbllaanuf a p p l ηi anhi a n p si i c − h 1 tlziuchddeemr neuen Plan ap ηi zu kombinieren. In drei Zielfunktionen evaluiert und das Individuum somit bewertet. Die Durchführung der beiden Schritte wird im Folgenden näher erläutert. Der erste Schritt wird durchgeführt, indem die in Abschnitt 5.3.3.1 beschriebene Prozedur zur Dekodierung auf ein Individuum η angewendet wird. Der Auftrag a , der in einem Gen g j kodiert ist, darf allerdings auf der entsprechenden Maschine erst nach den dort evtl. bereits gestarteten oder fixierten Aufträgen eingeplant werden. Der so erstellte temporäre Ablaufplan ap ηi unter Verwendung des Individuums η ist aufgrund der verwendeten Kodierung, die die Vorrangbeziehungen der Aufträge beachtet, hinsichtlich der in Modell(5.30) aufgestellten Restriktionen(bis auf Restriktion(5.25e) aus Modell(5.25)) bereits zulässig. Die Zulässigkeit der Restriktion(5.25e) kann jedoch erst im Lösungsraum bei der Evaluierung von r sched erfolgen. Die Bewertung des Ablaufplans ap ηi stellt den zweiten Schritt dar. Hierzu ist es zunächst notwendig zu testen, ob der Plan die Restriktion(5.25e) einhält. Hierzu ist zu überprüfen, ob für alle Szenarien sz ∈ SZ und für das Worst-Case-Szenario sz worst η die Ungleichung(5.22) gilt. Das Worst-Case-Szenario entspricht für dieses Problem jedoch nicht notwendigerweise einem Extrempunktszenario. 79 Dies führt dazu, dass die Szenariomenge SZ nicht auf eine endliche Anzahl zu betrachtender Szenarien reduziert werden kann, um das Worst-Case-Szenario zu finden. 80 Ein Beispiel 81 ist in Abbildung 5.8 gegeben, bei dem drei Aufträge auf zwei Maschinen einzuplanen sind. Die Bearbeitungszeitintervalle der Aufträge sind dabei als I a 1 =[50 , 50], I a 2 =[20 , 130] und I a 3 =[35 , 35] mit den Fälligkeitsterminen d 1 = 200, d 2 = 90 und d 3 = 40 definiert. Somit ist nur die Bearbeitungszeit des Auftrags a 2 unsicher und es 79 Ein Extrempunktszenario ist ein Szenario, bei dem alle Bearbeitungszeiten τ a der im Ablaufplan ap ηi eingeplanten Aufträge a entweder ihre kürzeste τ a min oder längste τ a max Bearbeitungszeit des zugehörigen Bearbeitungszeitintervalls I a bzw. I a Rest annehmen. 80 Vergleiche beispielsweise die Ablaufplanungsprobleme in[XCLQ13] oder[XLC14], die in Abschnitt 3.2.4 zusammengefasst wurden, in denen das Worst-Case-Szenario einem Extrempunktszenario entspricht. 81 Vergleiche das Beispiel von Kasperski, der das Problem anhand eines Beispiels für das Problem 1 || U i mit einer minmax regret-Zielfunktion illustriert(vgl.[Kas04], S. 287 f.;[Kas08], S. 182). 128 5 Konzeption m 2 a 3 τ a m 2 in sz worst η τ a m 2 ax m 1 a 1 a 2 0 60 120 d 3 d 2 180 t d 1 Abbildung 5.8: Visualisierung eines Worst-Case-Szenarios bei Anwendung des absoluten Regret-Kriteriums, das kein Extrempunktszenario ist(Beispiel in Anlehnung an:[Kas08], S. 182) ergeben und sz 2 sich die ={ τ a s 1 z 2 zwei Extrempunktszenarien = 50 , τ a s 2 z 2 = 130 , τ a s 3 z 2 = 35}. sz 1 ={ τ a s 1 z 1 = 50 , τ a s 2 z 1 = 20 , τ a s 3 z 1 Für diese beiden Szenarien und = 35} den in der Abbildung 5.8 dargestellten Ablaufplan ap gilt R ( ap, sz 1 )= 0 und R ( ap, sz 2 )= 0. Für das da U s ∗ z 3 stellt sz 3 Szenario = 0 gilt, eines der sz 3 ={ τ a s 1 z 3 = 50 , τ a s 2 z 3 = 60 , τ a s 3 z 3 = 35} hingegen ist R ( ap, sz 3 )= 1 / 3 , wenn Auftrag a 2 vor a 1 auf Maschine m 1 eingeplant wird. Somit Worst-Case-Szenarien sz worst η für den durch das Individuum η kodierten Ablaufplan ap ηi dar. Aus dem zuvor erläuterten Grund wird im Folgenden eine alternative Vorgehensweise beschrieben, die ein möglichst ungünstiges Szenario sz dis η für den Ablaufplan ap ηi ermittelt. Hierzu wird für Szenario sz ub (siehe Gleichung(5.31)) die Anzahl 82 U ( ap ηi , sz ub ) säumiger Aufträge bei Verwendung des Individuums η berechnet. Anschließend wird unter Verwendung Ablaufplans des ap ηi Modells(5.32) das Szenario sz dis η ermittelt, das unter zur gleichen Anzahl säumiger Aufträge wie Szenario Beibehaltung des sz ub führt, dabei aber für jeden Auftrag eine möglichst geringe Bearbeitungszeit τ a ausnutzt. Ziel dieses Vorgehens ist es, dass der für das Szenario sz dis η geringere Anzahl säumiger Aufträge aufweist aolpstiAmballaeuAfpbllaanuf a p p la ηi nu a n p te ∗ sz r d η i d s ieeisneemwSeszeenntalirciho und dass somit der Regret maximiert wird. Mengen: A A R t i E M Menge der zum i -ten Planungszeitpunkt t i zu berücksichtigenden Aufträge a , die eine Auswirkung auf die aktuelle Planung haben. Die Menge ergibt sich wie folgt: A= A N t i ∪( A t i − 1 \ A C t i ) Menge der zum Zeitpunkt t i bekannten Aufträge a , die bereits auf den Arbeitsstationen gestartet wurde Menge von Vorrangbeziehungen zwischen den Aufträgen Menge der zur Verfügung stehenden Maschinen m 82 Der Gewichtungsfaktor w a aus Gleichung(5.17) wird hier nicht berücksichtigt. 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse 129 Parameter: d a M ρ r a U ( ap ηi , sz ub ) x a,a ,m Fälligkeitstermin von Auftrag a ∈ A Big M Pseudoauftrag, dessen Bearbeitungszeit, Bereitstellungszeit sowie Gewicht 0 ist. Dieser Auftrag entspricht sowohl dem ersten als auch dem letzten Auftrag, der auf einer Maschine ausgeführt wird. Es gilt: ρ ∈ A Bereitstellungszeit von Auftrag a ∈ A Die Die Anzahl säumiger Aufträge in Zuordnungen aus Ablaufplan A a b p l ηi a.uBfpinlaänr: a 1 p , ηi wuenntnerASuzfetnraagrio a sz ub ∈A direkt vor Auftrag a ∈ A auf Maschine m ∈ M zugewiesen worden ist; 0 in allen anderen Fällen Entscheidungsvariablen: C a Fertigstellungszeitpunkt des Auftrags a ∈ A τ a Bearbeitungszeit des Auftrags a ∈ A y a Binär: 1, wenn für Auftrag a ∈ A die Restriktion(5.32d) relaxiert werden soll; 0 in allen anderen Fällen Zielfunktion: u. B. d. N.: min c dis = τ a a ∈A (5.32a) r a + τ a = C a max r a + τ a , max ∀ ( a i ,a ) ∈E ( C a i + τ a ) , ∀ a ∈ A ∀ m ∈ M( x a ,a,m C a + τ a )= C a C a + M y a > d a |A| − U ( ap ηi , sz ub )= y a a ∈A C a ≥ 0 τ a ∈ I a τ a ∈ I a Rest y a ∈{ 0 , 1} , ∀ a ∈ A: ∃ m ∈ M: x ρ,a,m = 1 ∧ ∀ a i ∈ A:( a i , a ) ∈ / E , ∀ a ∈ A , ∀ a ∈ A , ∀ a ∈ A , ∀ a ∈ A\ A R t i , ∀ a ∈ A R t i , ∀ a ∈ A (5.32b) (5.32c) (5.32d) (5.32e) (5.32f) (5.32g) (5.32h) (5.32i) Die Zielfunktion(5.32a) minimiert die Summe der Bearbeitungszeiten über alle Aufträge. Der Fertigstellungszeitpunkt C a des jeweils ersten Auftrags a auf einer Maschine m , der keine Vorrangbeziehungen zu anderen Aufträgen besitzt, wird mit Hilfe der Restriktion(5.32b) festgelegt. Die Fertigstellungszeitpunkte der anderen Aufträge werden 130 5 Konzeption über Nebenbedingung(5.32c) abgebildet. Für einen Auftrag ergibt sich der Fertigstellungszeitpunkt aus dem Maximum der Summe der eigenen Bereitstellungszeit und der Bearbeitungszeit, der Summe aus dem maximalen Fertigstellungszeitpunkt der über Vorrangbeziehungen verbundenen Aufträge und der eigenen Bearbeitungszeit sowie der Summe des Fertigstellungszeitpunktes des direkten Vorgängerauftrags auf der gleichen Maschine und der eigenen Bearbeitungszeit. 83 Ungleichung(5.32d) fordert, dass der Fertigstellungszeitpunkt C a eines Auftrags a später als sein Fälligkeitstermin d a liegt, sofern y a = 0. Ist y a = 1, so muss dieser Auftrag nicht säumig sein, da aufgrund des Terms M y a die Bedingung bereits eingehalten wird. Über Gleichung(5.32e) wird festgelegt, wie viele Aufträge nicht säumig sein müssen, um die Anzahl U ( ap ηi , sz ub ) säumiger Aufträge des Szenarios sz ub zu erzielen. Die binäre Eigenschaft der Entscheidungsvariable y a wird über die Nebenbedingungen(5.32i) sowie die Nichtnegativität der Entscheidungsvariable C a über die Restriktionen(5.32f) sichergestellt. Über die Nebenbedingungen(5.32g) und(5.32h) wird schließlich die Bearbeitungszeit für Aufträge aus( A\ A R t i ) auf das Bearbeitungszeitintervall I a und für Aufträge aus A R t i auf das Restbearbeitungszeitintervall I a Rest begrenzt. Das Szenario sz dis η ={ τ a | a ∈ A} ergibt sich aus den Entscheidungsvariablen τ a nach Durchführung der Optimierung mit dem Modell(5.32). Die während der Initialisierungsphase 84 erstellte Szenariomenge SZ wird für die Evaluation eines Individuums η jeweils mit dem für dieses spezifisch erzeugte Szenario sz dis η zu der Szenariomenge SZ η = SZ ∪{ sz dis η } kombiniert. Für diese Menge ist zunächst noch der optimale Ablaufplan ap ∗ sz d η is für das individuumspezifische Szenario sz dis η zu bestimmen (vgl. Gleichung(5.20)). 85 Anschließend können die Zielfunktionswerte berechnet und das Individuum η bewertet bzw. dessen Fitness ermittelt werden. Wird die Ungleichung(5.22) von Individuum η nicht eingehalten, so wird es mit entsprechenden Strafkosten sk η belegt, die zu einer geringeren Auswahlwahrscheinlichkeit 86 in der im nächsten Abschnitt zu beschreibenden Selektionsphase führt. Die Strafkosten steigen dabei proportional mit der Überschreitung des Parameters ω an und werden wie folgt berechnet: sk η = max(0 , R max ( ap ) − ω )(5.33) Das gesamte zuvor beschriebene Vorgehen zur Evaluation einer Population P i ist in Algorithmus 5.8 aufgeführt. 5.3.3.4 Selektion und Rekombination von Ablaufplänen Nachdem die Initialpopulation P 0 erstellt und evaluiert worden ist, startet ein iterativer Prozess, in dem in jeder Iteration i durch die Anwendung genetischer Operatoren neue 83 Die Max-Funktion dieser Restriktion wird in dem Solver-Modell durch die Einführung von 0/1Indikator-Variablen und der Modellierung von weiteren Ungleichungen aufgelöst. 84 Siehe Abschnitt 5.3.3.2. 85 Dies geschieht erneut über den in Fußnote 74 auf Seite 123 erläuterten genetischen Algorithmus. 86 Das Individuum wird nicht vollständig entfernt, da der Prozess, zulässige Lösungen zu finden, zunächst über nicht zulässige Lösungen führen kann. 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse 131 Algorithmus 5.8: Ablauf der Evaluation einer Population Input: P i ap i − 1 SZ – Zu evaluierende Population – Aktuell ausgeführter Ablaufplan – Die für die Evaluation zu verwendende Szenariomenge Output: P i – Evaluierte Population 1 foreach η ∈ P i do 2 Fzaussde edmenAAbblalauufpfplalann aapp ηi i − zu 1 smamitmdeenr;durch das Individuum η kodierten Lösung 3 Für das Szenario sz ub ermittle die Anzahl säumiger Aufträge; 4 Ermittle das Szenario sz dis η unter Verwendung von Modell(5.32); 5 Ermittle für das Szenario sz dis η den optimalen Ablaufplan ap ∗ sz d η is ; 6 Erstelle die kombinierte Szenariomenge SZ η = SZ ∪{ sz dis η }; 7 if ap ηi nicht zulässig für Ungleichung (5.22) then 8 Belege ap ηi mit Strafkosten; 9 10 Ermitteln Ermitteln des des Zielfunktionswerts Zielfunktionswerts cr s ϕ scchheedd (( aapp ηiηi ))(siehe (siehe Gleichung Gleichung (5.18)); (5.23)); 11 Ermitteln des Zielfunktionswerts s sched ( ap i − 1 , ap ηi )(siehe Gleichung(5.28)); 12 return P i ; Individuen bzw. Ablaufpläne erzeugt werden. Der erste Operator, der angewendet wird, ist die Rekombination. Bei dieser werden aus der Kombination von je zwei Individuen der Population P i zwei neue Individuen erzeugt. Hierbei ist erneut die Zulässigkeit und Gültigkeit der erzeugten Lösungen zu gewährleisten. Für die Rekombination der Individuen wird hier ein von Corrêa et al. 87 vorgeschlagener Rekombinations-Operator verwendet. 88 Bevor eine Rekombination ausgeführt werden kann, müssen zwei Individuen aus P i ausgewählt werden. Dies geschieht über die zweimalige Anwendung eines binären Tunierselektionsmechanismus. Bei diesem werden zufällig zwei Individuen aus Population P i ausgewählt und auf Basis eines Vergleichsoperators miteinander verglichen, wobei das bessere Individuum zurückgeliefert wird. Der Vergleichsoperator 89 wird dem genetischen Algorithmus NSGA-II entnommen, der drei Werte eines Individuums miteinander vergleicht. Dies sind die Strafkosten für die Überschreitung des Parameters ω , die Dominanz bezüglich der Zielfunktionen sowie ein crowding-distance -Wert, 90 der angibt welchen Abstand ein Individuum zu seinen Nachbarn besitzt. Das erste für die Rekombination 87 Siehe[CFR99], S. 830 f. 88 Die Autoren nutzen die gleiche Kodierung wie Hou et al.[HAR94], verwenden jedoch einen anderen Rekombinations-Operator, da der ursprüngliche nicht alle zulässigen Lösungen erzeugen kann(siehe [CFR99], S. 829). 89 Siehe[DPAM02], S. 192. 90 Siehe ebd., S. 185 f., für eine Erläuterung, wie die crowding-distance berechnet werden kann. 132 5 Konzeption ausgewählte Individuum wird als P 1 mit P 1 ∈ P i und das zweite als P 2 mit P 2 ∈ P i bezeichnet. Mit dem Parameter p cx wird festgelegt, mit welcher Wahrscheinlichkeit für die beiden zuvor ausgewählten Individuen das nachfolgende Verfahren durchgeführt wird. Das Verfahren basiert auf dem Vorranggraphen G=( A , E)(vgl. Abschnitt 2.2.2.2), der die Vorrangbeziehungen zwischen den Aufträgen repräsentiert. Für einen Ablaufplan, der sich aus der Dekodierung eines Individuums ergibt, erweitert sich die Menge E um Vorrangbeziehungen für die Aufträge, die auf der gleichen Maschine eingeplant sind. Diese erweiterte Menge werde als E η bezeichnet, die wie folgt definiert ist: 91 E η = E ∪{( a i , a j )|( a i , a j ) ∈ / E , assigned( a i , η )= assigned( a j , η ) ∧ pos( a i , η )= pos( a j , η ) − 1} , wobei assigned( a i , η ) die Maschine zurückliefert, auf die Auftrag a i in dem durch das Individuum η kodierten Ablaufplan eingeplant ist und pos( a i , η ) die Position des Auftrags auf der zugewiesenen Maschine bezeichne. Des Weiteren bezeichne E η + die transitive Hülle von E η . Zur Durchführung der Rekombination müssen die in P 1 und P 2 kodierten Aufträge zunächst in zwei Submengen unterteilt werden. Sei S= A P t i b , dann werden die folgenden Schritte ausgeführt, solange S = ∅ gilt: 92 1. Wähle zufällig einen Auftrag a ∈ S und eine Zufallszahl β ∈{ 1 , 2}. 2. Wenn β = 1, dann sonst S 1 = S 1 ∪{ a } ∪{ a | a ∈ S ∧( a, a ) ∈( E P + 1 ∪ E P + 2 )} , S 2 = S 2 ∪{ a } ∪{ a | a ∈ S ∧( a, a ) ∈( E P + 1 ∪ E P + 2 )} , wobei E P + 1 bzw. E P + 2 die transitiven Hüllen der aus den Individuen P 1 bzw. P 2 ermittelten Ablaufplänen bezeichne. 3. Setze S= S\ S β . Das erste aus der Rekombination resultierende Individuum bzw. der Ablaufplan wird mit Ch 1 bezeichnet. Dieses wird erzeugt, indem die Aufträge aus S 1 entsprechend der im Individuum P 1 kodierten Abfolge auf den kodierten Maschinen eingeplant werden. Für die Aufträge aus S 2 wird folgendermaßen vorgegangen: 93 1. Wähle einen Auftrag a ∈ S 2 , der den kleinsten Wert für pos( a, P 2 ) besitzt, bzw. zufällig, falls diese Bedingung auf mehrere Aufträge zutrifft. 2. Wähle als Maschine assigned( a, P 2 ). 91 Siehe[CFR99], S. 829. 92 Siehe ebd., S. 830. 93 Siehe ebd. 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse 133 P 1 a 1 a 3 a 4 ∗ a 2 a 5 P 1 a 1 a 3 a 4 ∗ a 2 a 5 Ch 1 a 1 ∗ a 2 a 5 a 3 a 4 Ch 2 a 2 a 1 a 3 a 4 ∗ a 5 P 2 a 2 a 1 ∗ a 5 a 3 a 4 P 2 a 2 a 1 ∗ a 5 a 3 a 4 Abbildung 5.9: Rekombinationsoperator des genetischen Algorithmus Das zweite aus der Rekombination resultierende Individuum bzw. der Ablaufplan wird mit Ch 2 bezeichnet und analog zu dem zuvor beschriebenen Vorgehen erzeugt. Hier werden die Aufträge aus S 1 allerdings nach der Reihenfolge aus P 2 und die Aufträge aus S 2 nach dem oben beschriebenen Verfahren wie in P 1 eingeplant. Das beschriebene Vorgehen stellt sicher, dass aus den zwei Ausgangsindividuen, die jeweils eine zulässige Lösung bzgl. der Vorrangbeziehungen darstellen, zwei Individuen resultieren, die die Vorrangbeziehungen ebenfalls einhalten. 94 In Abbildung 5.9 ist ein Beispiel für den zuvor beschriebenen Rekombinationsoperator aufgeführt. Es sind insgesamt fünf Aufträge auf zwei Maschinen einzuplanen. Der Vorranggraph ist mit E={( a 2 , a 4 ) , ( a 2 , a 5 )} gegeben. Für die ausgewählten Individuen P 1 und P 2 gilt entsprechend E P 1 ={( a 2 , a 4 ) , ( a 2 , a 5 ) , ( a 1 , a 3 ) , ( a 3 , a 4 )} und E P 2 ={( a 2 , a 4 ) , ( a 2 , a 5 ) , ( a 2 , a 1 ) , ( a 5 , a 3 ) , ( a 3 , a 4 )}. Als Submengen wurden durch die Wahl von a 5 mit β = 1 und a 1 mit β = 2 die Submengen S 1 ={ a 5 , a 2 } und S 2 ={ a 1 , a 3 , a 4 } generiert. Die aus der Rekombination resultierenden Individuen Ch 1 und Ch 2 sind in der Abbildung aufgeführt und die übernommenen Gene durch Pfeile markiert. Das zuvor beschriebene Vorgehen wird anschließend( popsize / 2 )-mal durchgeführt, um die Nachfolgepopulation Q i zu erstellen. Jedes erstellte Individuum Ch k mit 1 ≤ k ≤ popsize wird anschließend der Liste der Nachfolgepopulation Q i hinzugefügt. 5.3.3.5 Mutationsoperator für Ablaufpläne Die Mutation von Individuen ist eine weitere Möglichkeit, veränderte Ablaufpläne zu generieren. Sie wird für alle Individuen der im vorherigen Schritt erzeugten Nachfolgegeneration Q i durchgeführt. Hierbei ist erneut die Zulässigkeit und Gültigkeit der erzeugten Lösungen zu gewährleisten. Es können zwei Arten von Mutationen durchgeführt werden. Die erste ändert die Auftragsreihenfolge der auf einer Maschine eingeplanten Aufträge. Die zweite Mutation verändert die Maschine, auf der ein Auftrag ausgeführt wird. Für ein Individuum wird immer nur eine der beiden Mutationsarten ausgeführt. Das Verhältnis der ersten zur zweiten Mutationsart wird dabei über den Parameter p mut gesteuert. 94 Für die entsprechenden Beweise sei auf Corrêa et al.[CFR99] verwiesen. 134 5 Konzeption Ch 1 a 1 ∗ a 2 a 5 a 3 a 4 Ch 2 a 2 a 1 a 3 a 4 ∗ a 5 Ch 1 a 1 ∗ a 2 a 3 a 5 a 4 Ch 2 a 2 a 1 a 4 ∗ a 3 a 5 (a)(b) Abbildung 5.10: Mutationsoperatoren des genetischen Algorithmus:(a) Erste Mutationsart (b) Zweite Mutationsart Für die folgenden Ausführungen bezeichne E Ch 1 bzw. E Ch 2 die jeweiligen Vorranggraphen der Individuen Ch 1 und Ch 2 . Die erste Mutationsart wird durchgeführt, indem für jedes Gen g j mit g j ∈ A P t i b und 1 ≤ j ≤(|A P t i b |+|M| − 1) eines Individuums η ∈ Q i mit einer Wahrscheinlichkeit von pa mut der in diesem Gen kodierte Auftrag mit dem in einem anderen Gen g k ∈ A P t i b kodierten Auftrag vertauscht wird. Für die Auswahl von g k gelte zudem die Zuordnung zur gleichen Maschine assigned( g j , η )= assigned( g k , η ) sowie eine direkte Vorgängerbeziehung pos( g j , η )= pos( g k , η ) − 1. Die Vertauschung wird allerdings nur durchgeführt, sofern der sich ergebene Vorranggraph E Ch 1 ein gerichteter azyklischer Graph ist. Eine Visualisierung dieser Mutationsart ist in Abbildung 5.10(a) aufgeführt. In dem Beispiel wird das aus der vorherigen Rekombination erzeugte Individuum Ch 1 an einer Stelle einer Mutation unterzogen. Die Aufträge a 5 und a 3 auf Maschine m 2 werden hierbei getauscht und somit das Individuum Ch 1 erzeugt. Die zweite Mutationsart verändert die Maschinenzuordnung. Hierfür wird für ein Gen g j mit g j ∈ A P t i b und 1 ≤ j ≤(|A P t i b |+|M| − 1) eines Individuums η ∈ Q i mit einer Wahrscheinlichkeit von pm mut dieses Gen auf eine andere zulässige Maschine m ∈ M g j mit m = assigned( g j , η ) verschoben. Auf dieser Maschine wird es an der ersten möglichen Position eingefügt, sodass der sich ergebene Vorranggraph E Ch 2 weiterhin ein gerichteter azyklischer Graph ist. Abbildung 5.10(b) zeigt die Anwendung dieser Mutationsart für das Individuum Ch 2 aus der vorherigen Rekombination. Der Auftrag a 3 wird hierbei von Maschine m 1 auf Maschine m 2 verschoben und somit das Individuum Ch 2 erzeugt. 5.3.3.6 Ersetzungsstrategie für die Ablaufpläne In diesem Schritt werden die Individuen ausgewählt, die in der nächsten Iteration des Algorithmus verwendet werden sollen. Hierfür wird zunächst eine kombinierte Population R i = P i ∪ Q i der Größe 2 · popsize gebildet, die aus der Ausgangs- und Nachfolgepopulation besteht. Aus dieser sind popsize Individuen für die Population P i +1 zu bestimmen. Als Ersetzungsstrategie wird hier die im NSGA-II-Algorithmus verwendete Strategie eingesetzt. 95 Diese ermittelt zunächst alle Fronten F j nicht-dominierter Individuen 95 Siehe[DPAM02], S. 185 f. 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse 135 aus der kombinierten Population R i . 96 Die erste Front F 1 enthält hierbei alle nicht dominierten bzw. pareto-optimalen 97 Individuen der Population R i . Alle weiteren F j mit j> 1 enthalten jeweils die Individuen, die ausschließlich von Individuen der vorherigen Front dominiert werden. Die Fronten werden beginnend mit F 1 der Population P i +1 hinzugefügt, bis zu Front F l , die nicht vollständig hinzugefügt werden kann, da hierdurch das Limit von| P i +1 |= popsize überschritten würde. Für die Individuen aus F l wird daher der crowding-distance -Wert berechnet. Ein höherer Wert für die Distanz ist mit einer höheren Diversität verbunden. Daher werden die Individuen aus F l mit den höchsten crowding-distance -Werten verwendet, um die verbleibenden( popsize −| P i +1 |)-Stellen aufzufüllen. 5.3.3.7 Terminierung und Auswahl eines Ablaufplans durch den Entscheidungsträger Der iterative Prozess ist nach einer gewissen Anzahl von Iterationen abzubrechen, da es kein spezifisches Terminierungskriterium gibt. Hier wird daher die Anzahl an durchlaufenden Generationen i gewählt und eine maximale Anzahl an Iterationen maxgen vorgegeben. Sobald i> maxgen gilt, wird das Verfahren abgebrochen und die nichtdominierten Ablaufpläne der Population P maxgen werden zurückgeliefert. Eine Terminierung kann darüber hinaus zu jedem beliebigen Zeitpunkt während des iterativen Prozesses stattfinden und die bis dahin ermittelten nicht-dominierten Ablaufpläne können als Ergebnis zurückgegeben werden. Eine vorzeitige Unterbrechung ist bspw. notwendig, wenn nur eine begrenzte Zeit für die Ablaufplanung zur Verfügung steht und diese Grenze eher erreicht ist als die durch maxgen vorgegebene maximale Anzahl an Iterationen. Aus der Menge P maxgen ist schließlich durch den Entscheidungsträger ein Ablaufplan ap p zu bestimmen. 98 Dieser Ablaufplan wird als aktiver Ablaufplan markiert und auf der reaktiven Ebene der Architektur gespeichert und durch die Ablaufsteuerung ausgeführt. 5.3.4 Integration der Personaleinsatzplanung In den Ausführungen der vorherigen Abschnitte wurden lediglich Maschinen als einschränkende Ressource betrachtet. Im Folgenden soll die Betrachtung auf die Einbeziehung von Personalressourcen erweitert werden. Hierzu wird in Abschnitt 5.3.4.1 zunächst die Modellformulierung erweitert und anschließend in Abschnitt 5.3.4.2 eine Heuristik zur Einplanung des Personals vorgestellt. 96 Die Ermittlung der Dominanz erfolgt, wie bei der Selektion(vgl. Abschnitt 5.3.3.4), auf Basis des Vergleichsoperators, der die Strafkosten für die Überschreitung des Parameters ω , die Dominanz bezüglich der Zielfunktionen sowie die crowding-distance eines Individuums miteinander vergleicht. 97 Vgl. Ungleichung(2.3) auf Seite 28. 98 Für die Entscheidung sind durch den Entscheidungsträger Präferenzen bezüglich der Zielfunktionen anzugeben, sodass bspw. auf Basis der aktuellen Situation einer Zielfunktion eine höhere Relevanz zugeordnet wird(vgl. z. B.[ZB12] für A-posteriori-Ansätze). 136 5 Konzeption 5.3.4.1 Erweiterung der Modellformulierung Ausgehend von dem in Abschnitt 2.2.2.3 beschriebenen Problem, das bei der Berücksichtigung von Personalkapazitäten besteht, kann das Mehrzieloptimierungsmodell(5.34) 99 formalisiert werden. Das Modell stellt hierbei eine Erweiterung der Optimierungsmodelle(5.25) und(5.30) dar. Aus diesen werden die Zielfunktionen und die dargestellten Restriktionen übernommen. Des Weiteren ist die Zuordnungslösung des Personals y a,a, wo aus dem Ablaufplan ap i − 1 , der zum Zeitpunkt t i − 1 erstellt worden ist, für die Verwendung in dem Modell(5.34) aufzubereiten. Hierzu wird analog zur Aufbereitung der Maschinenzuordnung(vgl. Abschnitt 5.3.2.3) vorgegangen. Mengen: A A p a rec A s a ucc A Bu / Tr A R t i SZ WO W O Br Menge der zum i -ten Planungszeitpunkt t i zu berücksichtigenden Aufträge a , die eine Auswirkung auf die aktuelle Planung haben. Die Menge ergibt sich folgendermaßen: A= A N t i ∪( A t i − 1 \ A C t i ) Menge aller Aufträge, die vor Auftrag a eingeplant werden können Menge aller Aufträge, die nach Auftrag a eingeplant werden können Menge der Aufbau bzw. Transferaufträge. Es gilt: A Bu / Tr ⊆ A Menge der zum Zeitpunkt t i bekannten Aufträge a , die bereits auf den Arbeitsstationen gestartet wurden Menge aller Szenarien sz , die eine mögliche Realisierung der Bearbeitungszeiten der Aufträge angeben Menge des zur Verfügung stehenden Personals wo Menge des Personals, das nur für Abbauaufträge eingesetzt werden kann. Es gilt: WO Br ⊂ WO Parameter: b a Bedarf an Mitarbeitern für Auftrag a ∈ A M Big M ρ Pseudoauftrag, dessen Bearbeitungszeit, Bereitstellungszeit sowie Gewicht 0 τ a sz y a,a, wo ist. Es gilt: ρ ∈ A sowie ∀ a ∈ A: ρ ∈ A p a rec ∧ ρ ∈ A s a ucc Bearbeitungszeit des Auftrags a ∈ A in Szenario sz ∈ SZ Die Mitarbeiterzuordnungen aus dem Ablaufplan ap i − 1 der zum Zeitpunkt t i − 1 erstellt worden ist. Binär: 1, wenn Auftrag a ∈( A t i − 1 \ A C t i ) direkt vor Auftrag a ∈( A t i − 1 \ A C t i ) von Mitarbeiter wo ∈ WO bearbeitet worden ist; 0 in allen anderen Fällen Entscheidungsvariablen: C a sz Fertigstellungszeitpunkt des Auftrags a ∈ A in Szenario sz ∈ SZ y a,a, wo Binär: 1, wenn Auftrag a ∈ A direkt vor Auftrag a ∈ A von Mitarbeiter wo ∈ WO bearbeitet wird; 0 in allen anderen Fällen 99 Die Grundlage dieses Modells bildet eine Netzwerkformulierung, die ein Tourenplanungsproblem mit aufgeteilten Auslieferungen(engl. Split Delivery Vehicle Routing Problem) beschreibt. Hierbei stellen die Kunden die Aufträge, die Fahrzeuge die Mitarbeiter und eine Tour einen Ablaufplan für einen Mitarbeiter dar(vgl. z. B.[AS08], S. 104 f.). Im Gegensatz zu dem klassischen Vehicle Routing Problem kann ein Kunde bzw. Auftrag von mehreren Fahrzeugen bzw. Mitarbeitern beliefert bzw. bearbeitet werden. 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse 137 Zielfunktionen: (5.25a),(5.25b) und(5.30a) u. B. d. N.: (5.25c)–(5.25s) und(5.30b)–(5.30j) y a,ρ, wo ≤ 1 a ∈A : a = ρ y ρ,a, wo ≤ 1 a ∈A : a = ρ y a,a, wo ≥ 1 wo ∈WO a ∈A p a rec : a = a y a,a, wo ≥ 1 wo ∈WO a ∈A s a ucc : a = a y a,a, wo − y a ,a, wo = 0 a ∈A p a rec : a = a a ∈A s a ucc : a = a C a sz − C a sz +( M − r a ) y a,a, wo ≤ M −( r a + τ a sz ) , ∀ wo ∈ WO , ∀ wo ∈ WO , ∀ a ∈ A: a = ρ , ∀ a ∈ A: a = ρ , ∀ a ∈ A: a = ρ ; ∀ wo ∈ WO , ∀ a ∈ A; ∀ a ∈ A: a = ρ, a = a ; ∀ wo ∈ WO; ∀ sz ∈ SZ (5.34a) (5.34b) (5.34c) (5.34d) (5.34e) (5.34f) y a,a, wo = b a wo ∈WO a ∈A y a,a, wo = 0 a ∈A , ∀ a ∈ A: a = ρ (5.34g) , ∀ a ∈ A Bu / Tr : a = ρ ; ∀ wo ∈ WO Br (5.34h) y a,a, wo = 0 a ∈A y a,a, wo = y a,a, wo y a,a, wo ∈{ 0 , 1} , ∀ a ∈ A Bu / Tr : a = ρ ; ∀ wo ∈ WO Br , ∀ a ∈ A R t i ; ∀ a ∈ A R t i ; ∀ wo ∈ WO , ∀ a ∈ A; ∀ a ∈ A; ∀ wo ∈ WO (5.34i) (5.34j) (5.34k) Die Nebenbedingungen(5.34a) und(5.34b) stellen sicher, dass für jeden Mitarbeiter höchstens ein Auftrag direkt vor bzw. direkt nach dem Pseudoauftrag ρ eingeplant wird. 100 Die(Un-)Gleichungen(5.34c),(5.34d) und(5.34g) sorgen dafür, dass jeder Auftrag von 100 Sind für einen Mitarbeiter keine Aufträge eingeplant, so besitzt der Pseudoauftrag für diesen Mitarbeiter keinen Vorgänger oder Nachfolger. 138 5 Konzeption mindestens einem bzw. genau der benötigten Anzahl Mitarbeiter bearbeitet wird. Die Restriktion(5.34e) stellt sicher, dass jeder Auftrag(ausgenommen des Pseudoauftrags) genauso viele Nachfolger wie Vorgänger besitzt. Der Fertigstellungszeitpunkt C a sz eines Auftrags a in Szenario sz wird mit Hilfe der Restriktion(5.34f) ermittelt. Über die Gleichungen(5.34h) und(5.34i) wird sichergestellt, dass jeder Aufbau- bzw. Transferauftrag lediglich von Mitarbeitern bearbeitet wird, die hierfür qualifiziert sind. Über die Restriktion(5.34j) werden können. 101 wird sichergestellt, dass Aufträge aus der Menge A R t i nicht Hierfür werden die Zuordnungen aus der modifizierten umgeplant vorherigen Zuordnungslösung y a,a, wo in der aktuellen y a,a, wo fixiert. Die binäre Eigenschaft der Entscheidungsvariable y a,a, wo wird über die Nebenbedingung(5.34k) sichergestellt. 5.3.4.2 Heuristik für die Personaleinsatzplanung Wie zuvor die Modelle(5.25) und(5.30) kann auch das im vorherigen Abschnitt aufgestellte Modell(5.34) nicht direkt bzw. nur mit großem Aufwand durch einen Solver gelöst werden. Im Folgenden wird daher eine Heuristik zur Einplanung des Personals entwickelt, die in der beschriebenen Metaheuristik(vgl. Abschnitt 5.3.3) verwendet wird. Hierzu wird nach der Dekodierung eines Individuums η zu dem Ablaufplan ap ηi die nachfolgende Heuristik ausgeführt, bevor die Evaluation auf Basis der drei beschriebenen Zielfunktionen erfolgt. Zunächst wird für jeden Auftrag die längste Bearbeitungszeit angenommen. Für noch nicht gestartete Aufträge ist dies τ a max und für bereits gestartete Aufträge die über Gleichung(5.26) ermittelte maximale Restbearbeitungszeit max( I a Rest ). Mit Hilfe dieses Vorgehens soll die heuristisch ermittelte Mitarbeiterzuordnung möglichst unabhängig bzgl. schwankender Bearbeitungszeiten innerhalb der Intervalle sein. Die Aufträge werden anschließend in aufsteigender Reihenfolge ihres Starttermins geordnet. Für den Auftrag mit dem frühsten Startzeitpunkt wird anschließend ein Mitarbeiter mit den nötigen Fähigkeiten ausgewählt, der diesem Auftrag zugeordnet wird. Hierbei sind drei Fälle zu unterscheiden: 102 1. Alle Mitarbeiter mit den nötigen Fähigkeiten sind bereits vor dem Startzeitpunkt des Auftrags verfügbar. Wähle den Mitarbeiter, der die späteste Verfügbarkeitszeit besitzt, um Leerlaufzeiten zu minimieren. 2. Alle Mitarbeiter mit den nötigen Fähigkeiten sind erst nach dem Startzeitpunkt des Auftrags verfügbar. Wähle den Mitarbeiter, der die frühste Verfügbarkeitszeit besitzt, um Wartezeiten des Auftrags zu minimieren. 3. Einige Mitarbeiter mit den nötigen Fähigkeiten sind bereits vor dem Startzeitpunkt des Auftrags verfügbar, während andere hingegen erst danach zur Verfügung stehen. Verfahre analog zu Fall 1 und ggf. Fall 2. 101 Im Gegensatz zu Gleichung(5.30e), mit der sichergestellt wird, dass sowohl laufende als auch fixierte Aufträge nicht auf eine andere Maschine umgeplant werden, gilt dies bei den Mitarbeitern nur für laufende Aufträge. Für fixierte Aufträge können die Mitarbeiter umgeplant werden, da dies im betrachteten Fall nicht mit zusätzlichen Kosten verbunden ist. 102 Vgl.[ML13], S. 5066. 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse 139 Das beschriebene Vorgehen wird sooft für den Auftrag wiederholt, bis die nötige Anzahl an Mitarbeitern d a erreicht ist. Analog werden die weiteren Aufträge behandelt. Die Evaluation des Individuums η kann anschließend unter Berücksichtigung der zugeordneten Mitarbeiter für die drei Zielfunktionen erfolgen. 5.3.5 Integration der Transportsysteme Transportsysteme stellen nach den Ausführungen in Abschnitt 2.2.2.4 weitere bei der Ablaufplanung zu berücksichtigende Ressourcen dar. In den folgenden Abschnitten wird die Ablaufplanung dahingehend angepasst. In Abschnitt 5.3.5.1 wird zunächst die Modellformulierung erweitert. Hierauf aufbauend wird in Abschnitt 5.3.5.2 die evolutionäre Metaheuristik erweitert, um die Transportsysteme zu berücksichtigen. 5.3.5.1 Erweiterung der Modellformulierung Zur Erweiterung der Modellformulierung um die Betrachtung der Transportsysteme wird das Transportsystem als Graph modelliert und die durch den Ablaufplan erzeugten Flüsse werden innerhalb dieses Systems als Netzwerkflussproblem(spezifischer: Multi-commodity flow problem ) dargestellt. Für das Transportsystem werden zwei identische 103 Netzwerke G Br =( V Br , E Br ) für Abbauaufträge(Break-Netzwerk) und G Bu =( V Bu , E Bu ) für Aufbauaufträge(BuildNetzwerk) verwendet. Bei den Knoten V Br bzw. V Bu kann es sich entweder um Maschinen M, Lagerbereiche L oder um Transferknoten(z. B. Pufferplätze, Gablungen, etc.) handeln. Die ersten beiden können einen bestimmten Bedarf besitzen bzw. ein bestimmtes Angebot liefern, wohingegen Transferknoten die Fracht lediglich weiterleiten. Der Bedarf bzw. das Angebot an einer Maschine ergibt sich aus den Aufträgen, die auf diese Maschine eingeplant sind. Die Mengen für verschiedene Typen von Ladeeinheiten, die durch einen Auftrag a benötigt K a − bzw. bereitgestellt K a + werden, ergeben sich folgendermaßen: • Abbauaufträge: – K a − : die Menge besteht aus der dem Auftrag zugeordneten beladenen Flugzeugladeeinheit sowie leeren Gitterboxen – K a + : die Menge besteht aus der abgebauten Flugzeugladeeinheit sowie den beladenen Gitterboxen • Aufbauaufträge: – K a − : die Menge besteht aus der dem Auftrag zugeordneten leeren Flugzeugladeeinheit sowie beladenen Gitterboxen – K a + : die Menge besteht aus der aufgebauten Flugzeugladeeinheit sowie den entladenen Gitterboxen 103 Für die Formulierung in Modell(5.35) werden zwei Netzwerke verwendet, da Aufbauaufträge zum Teil Fracht benötigen, die zuvor durch Abbauaufträge verfügbar gemacht werden muss. Transferaufträge können als Kombination aus Auf- und Abbauauftrag betrachtet werden. 140 5 Konzeption Die Kanten E Br bzw. E Bu in den beiden Netzwerken beschreiben die Verbindungen(z. B. Transferfahrzeuge, Aufzüge, Förderbänder etc.) zwischen den Knoten. Über diese Kanten können verschiedene Typen von Ladeeinheiten k ∈ K transportiert werden. Für jede Kante( i, j ) der Netzwerke wird eine maximale Transportkapazität c i,j festgelegt sowie unter Berücksichtigung der Ladeeinheit k eine spezifische Transportzeit t i,j,k definiert. 104 Aufbauend auf diesen beiden Netzwerken kann das Modell(5.35) formalisiert werden, das eine Erweiterung der Optimierungsmodelle(5.25),(5.30) und(5.34) darstellt. Mengen: A Br A Bu E Br E Bu K K a + K a − L M V Br V Bu Menge der Abbauaufträge Menge der Aufbauaufträge Menge der Transportstrecken im Break-Netzwerk des Transportsystems Menge der Transportstrecken im Build-Netzwerk des Transportsystems Menge aller Typen von Ladeeinheiten. Es gilt: K= a ∈A ( K a + ∪ K a − ) Menge an Typen von Ladeeinheiten, die von a ∈ A angeboten werden Menge an Typen von Ladeeinheiten, die von a ∈ A benötigt werden Menge der Knoten im Netzwerk, an denen Ladeeinheiten gelagert werden können. Es gilt: L ⊂ V Br bzw. L ⊂ V Bu Menge der zur Verfügung stehenden Maschinen m . Es gilt: M ⊂ V Br bzw. M ⊂ V Bu Menge der Knoten im Break-Netzwerk des Transportsystems Menge der Knoten im Build-Netzwerk des Transportsystems Parameter: cs i Maximale Lagerkapazität im Lagerbereich i ∈ L. Es gilt, dass c i,j für das Break- und Build-Netzwerk jeweils der Hälfte der im tatsächlichen Transportsystem vorhandenen Lagerkapazität für diesen Lagerbereich entspricht ct i,j Maximale Transportkapazität auf der Strecke( i, j ) ∈ E Br bzw.( i, j ) ∈ E Bu . Es gilt, dass c i,j für das Break- und Build-Netzwerk jeweils der Hälfte der im tatsächlichen Transportsystem vorhandenen Kapazität für diese Kante entspricht t i,j,k Transportzeit auf der Strecke( i, j ) ∈ E Br bzw.( i, j ) ∈ E Bu für eine Ladeeinheit vom Typ k ∈ K ζ i,k Binär: 1, wenn Ladeeinheit vom Typ k ∈ K im Lagerbereich i ∈ L gelagert werden kann oder wenn sie den Knoten i ∈ V Br bzw. i ∈ V Bu passieren kann; 0 in allen anderen Fällen Entscheidungsvariablen: b i,k Bedarf( b i,k negativ) bzw. Angebot( b i,k positiv) an Ladeeinheiten vom Typ k ∈ K an Knoten i ∈ V Br bzw. i ∈ V Bu . Gilt b i,k = 0, so handelt es sich um einen Knoten, an dem die Ladeeinheit weitergesendet wird f i,j,k Binär: 1, wenn eine Ladeeinheit vom Typ k ∈ K auf der Strecke( i, j ) ∈ E Br bzw.( i, j ) ∈ E Bu transportiert wird; 0 in allen anderen Fällen r a Zeitbedarf zur Bereitstellung der ersten Ladeeinheit für a ∈ A 104 Diese Angaben sind abhängig von den technischen Spezifikationen der Fördertechnik. 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse 141 Zielfunktionen: (5.25a),(5.25b) und(5.30a) u. B. d. N.: (5.25c)–(5.25s),(5.30b)–(5.30j) und(5.34a)–(5.34k) ζ i,k f i,j,k − ζ i,k f j,i,k = b i,k ( i,j ) ∈E Br ( j,i ) ∈E Br ζ i,k f i,j,k − ζ i,k f j,i,k = b i,k ( i,j ) ∈E Bu ( j,i ) ∈E Bu f i,j,k + f i ,j ,k ≤ ct i,j + ct i ,j k ∈K k ∈K − K a − x a,a ,m = b m,k a ∈A : a = a k ∈K a − , ∀ i ∈ V Br ; ∀ k ∈ K , ∀ i ∈ V Bu ; ∀ k ∈ K , ∀( i, j ) ∈ E Br ; ∀( i, j ) ∈ E Bu , ∀ a ∈ A Br : a = ρ ; ∀ m ∈ M ⊂ V Br K a + x a,a ,m = b m,k a ∈A : a = a k ∈K a + , ∀ a ∈ A Br : a = ρ ; ∀ m ∈ M ⊂ V Br ζ i,k b i,k = − K a + ∀ i ∈L⊂V Br k ∈K a + b i ,k =( − 1) b i,k , ∀ a ∈ A Br : a = ρ , ∀ i ∈ L ⊂ V Bu ∧ ∀ i ∈ L ⊂ V Br : i = i ; ∀ k ∈ K min k ∈K a − t i,j,k f i,j,k ( i,j ) ∈ ( E Br ∪E Bu ) = r a − K a − x a,a ,m = b m,k a ∈A : a = a k ∈K a − , ∀ a ∈ A Br ∪ A Bu , ∀ a ∈ A Bu : a = ρ ; ∀ m ∈ M ⊂ V Bu K a + x a,a ,m = b m,k a ∈A : a = a k ∈K a + , ∀ a ∈ A Bu : a = ρ ; ∀ m ∈ M ⊂ V Bu ζ i,k b i,k = − K a + ∀ i ∈L⊂V Bu k ∈K a + b i,k ≤ cs i k ∈K b i,k ≤ cs i k ∈K f i,j,k ∈{ 0 , 1} b i,k ∈{− 1 , 0 , 1} , ∀ a ∈ A Bu : a = ρ , ∀ i ∈ L ⊂ V Br , ∀ i ∈ L ⊂ V Bu , ∀( i, j ) ∈( E Br ∪ E Bu ); ∀ k ∈ K , ∀ i ∈( V Br ∪ V Bu ); ∀ k ∈ K (5.35a) (5.35b) (5.35c) (5.35d) (5.35e) (5.35f) (5.35g) (5.35h) (5.35i) (5.35j) (5.35k) (5.35l) (5.35m) (5.35n) (5.35o) 142 5 Konzeption Die Restriktionen(5.35a) und(5.35b) stellen den Flusserhalt in beiden Netzwerken sicher. Hierbei wird über den Parameter ζ i,k berücksichtigt, dass bspw. Gitterboxen nur auf Wegen im Sendungslager und Flugzeugladeeinheiten nur auf Wegen im ULD-Lager bewegt werden können. Über die Ungleichung(5.35c) wird der maximal mögliche Fluss über eine Kante begrenzt. Der maximale Fluss, der sich aus technischen Restriktionen des realen Transportsystems ergibt, wird jeweils zur Hälfte auf das Break- bzw. BuildNetzwerk aufgeteilt. Basierend auf der Entscheidung, an welcher Arbeitsstation welcher Auftrag ausgeführt wird, ergeben sich verschiedene Bedarfe an den entsprechenden Maschinen. Mit den Nebenbedingungen(5.35d) und(5.35e) werden der Bedarf bzw. das Angebot der Abbauaufträge modelliert. Mit Restriktion(5.35f) wird entschieden, zu welchen Lagerbereichen das Angebot der Abbauaufträge zugewiesen wird. Über den Parameter ζ i,k wird sichergestellt, dass Gitterboxen im Sendungslager und Flugzeugladeeinheiten im ULD-Lager gelagert werden. Über die Nebenbedingung(5.35g) werden die Nachfrageknoten im Lager des Break-Netzes zu Angebotsknoten im Lager des BuildNetzes transferiert. Mit der Gleichung(5.35h) wird für jeden Auftrag die Ladeeinheit ermittelt, die von diesem Auftrag benötigt wird und den geringsten Zeitbedarf für die Bereitstellung besitzt. Der ermittelte Parameter r a wird auf die Bereitstellungszeit r a des Auftrags aufgeschlagen. 105 Mit den Nebenbedingungen(5.35i) und(5.35j) wird analog zu den Abbauaufträgen der Bedarf bzw. das Angebot für die Aufbauaufträge modelliert. Mit Restriktion(5.35k) wird entschieden, zu welchen Lagerbereichen das Angebot der Aufbauaufträge zugewiesen wird. Über die Ungleichungen(5.35l) und(5.35m) wird die Lagerkapazität im Lagerbereich i ∈ L auf einen maximalen Wert begrenzt. Die maximale Lagerkapazität, die sich aus technischen Restriktionen des realen Transportsystems ergibt, wird jeweils zur Hälfte auf das Break- bzw. Build-Netzwerk aufgeteilt. Die binäre Eigenschaft der Flussvariablen wird über die Nebenbedingung(5.35n) sichergestellt. Schließlich wird über Restriktion(5.35o) festgelegt, dass entweder ein Bedarf( b i,k = − 1) bzw. ein Angebot( b i,k =+1) einer Ladeeinheit k ∈ K an einem Knoten i vorliegt oder der Knoten lediglich als Transferknoten( b i,k = 0) dient. 5.3.5.2 Heuristik für die Materialflusssteuerung Im Folgenden wird die in Abschnitt 5.3.3 beschriebene evolutionäre Metaheuristik erweitert, um die Überlegungen zu dem Materialfluss und den Transportsystemen als weitere einschränkende Ressource aus dem vorherigen Abschnitt zu integrieren. Basierend auf der Information, welchen Ausgangs- und Zielpunkt eine Ladeeinheit hat, ergibt sich der Transportweg dieser Einheit im Transportsystem(vgl. Abschnitt 2.2.2.4). Der Transportweg führt hierbei immer über die kürzeste Verbindung. Daher sind für das Transportsystem einmalig für alle Paare von Knoten v ∈ V und v ∈ V mit v = v die kürzesten Pfade zu bestimmen und zu speichern. 106 Die Informationen über die kürzesten Pfade werden für die Evaluation eines Ablaufplans verwendet. 105 Dies betrifft die Restriktionen(5.25k),(5.30f) und(5.34f). Es soll sichergestellt werden, dass für den Auftrag genügend Zeit für die Bereitstellung der ersten Ladeeinheit eingeplant wird. 106 Dies kann bspw. mit Hilfe von All-pairs shortest path-Algorithmen, wie dem Floyd-WarshallAlgorithmus, erfolgen. 5.3 Multikriterielle Ablaufplanung der Abfertigungsprozesse 143 Die erste Änderung an der Metaheuristik betrifft Schritt 5 der Initialisierung des Algorithmus(vgl. Abschnitt 5.3.3.2). Die Maschine für den aktuell betrachteten Auftrag a wird nicht mehr auf Basis der vier beschriebenen Strategien aus der Menge M a bestimmt, sondern spezifisch ausgewählt, um somit Initiallösungen zu erzeugen, die bereits eine Reduktion der Förderdistanzen und damit der Transportzeiten der Fracht im Lager berücksichtigen. Hierbei ist zwischen Abbau- und Aufbauaufträgen zu unterscheiden. Für erstere ist zum Zeitpunkt der Planung bekannt, an welcher Lagerposition im ULD-Lager sich die Flugzeugladeeinheit befindet, 107 die abgebaut werden muss. Daher wird für einen Abbauauftrag a ∈ A Br mit einer hohen Wahrscheinlichkeit die Maschine m ∗ ∈ M a ausgewählt, die die kürzeste Distanz zu der entsprechenden Lagerposition besitzt, um somit die Transportzeit zu minimieren. Es können jedoch auch weiter entfernte Maschinen m ∈ M a \{ m ∗ } ausgewählt werden, wobei die Auswahlwahrscheinlichkeit mit der Entfernung abnimmt. Dies ist notwendig, wenn nicht alle Aufträge, die auf Maschine m ∗ ∈ M a aufgrund der Distanz eingeplant würden, in der zur Verfügung stehenden Zeit durch die Transportsysteme transportiert werden können. Für Aufbauaufträge hingegen sind zwei Fälle zu unterscheiden. Im ersten Fall ist zum Zeitpunkt der Planung bekannt, an welchen Lagerpositionen innerhalb des Sendungslagers sich die Gitterboxen mit der Fracht zum Aufbau befinden. Darüber hinaus ist die Position des leeren und dem Auftrag zugeordneten Ladehilfsmittels im ULD-Lager bekannt. Als die dem Aufbauauftrag a ∈ A Bu zuzuordnende Maschine m ∗ ∈ M a wird mit hoher Wahrscheinlichkeit diejenige Maschine bestimmt, an der die mittlere Entfernung zu allen Ladeeinheiten und-hilfsmitteln am geringsten ist. Analog zu den Abbauaufträgen können auch hier weiter entfernte Maschinen mit entsprechend geringerer Wahrscheinlichkeit ausgewählt werden. Im zweiten Fall ist lediglich die Position des leeren Ladehilfsmittels im ULD-Lager bekannt. Die darüber hinaus erforderlichen Frachtstücke zum Aufbau müssen zuvor durch einen oder mehrere Abbauaufträge verfügbar gemacht werden. Somit ist die Position der Gitterboxen mit der entsprechenden Fracht zum Zeitpunkt der Planung noch nicht bekannt, sondern abhängig von den einzuplanenden Abbauaufträgen und der Einlagerstrategie des Sendungslagers für die Gitterboxen. Hier bietet es sich an, dem Aufbauauftrag a ∈ A Bu die Maschine m ∗ ∈ M a mit hoher Wahrscheinlichkeit zuzuordnen, deren mittlerer Abstand zu den Maschinen der entsprechenden Abbauaufträge am geringsten ist. Weiter entfernte Maschinen können erneut mit abnehmender Wahrscheinlichkeit ausgewählt werden. Eine weitere Änderung ergibt sich für die in Abschnitt 5.3.3.5 beschriebene zweite Mutationsart des Mutationsoperators. Die zufällige Auswahl einer Maschine m aus der Menge möglicher Maschinen M a für einen Auftrag a wird ergänzt um die Berücksichtigung der Transportentfernungen. Hierbei werden die gleichen Annahmen bzgl. der Auf- und Abbauaufträge wie zuvor bei Schritt 5 der Initialisierung zu Grunde gelegt. Weiter entfernte Maschinen werden ebenfalls mit geringerer Wahrscheinlichkeit ausgewählt als näher liegende. 107 Die Lagerpositionen der benötigten leeren Gitterboxen aus dem Sendungslager sind zu vernachlässigen, da diese durch eine geeignete Betriebsstrategie für das Lager gleichmäßig verteilt werden sollten. Dies ist ebenfalls nötig, da der genaue Bedarf an Gitterboxen für einen Abbauauftrag zum Zeitpunkt der Planung nur geschätzt werden kann. 144 5 Konzeption Nach der Dekodierung eines Individuums η zu dem Ablaufplan ap ηi können die Kanten der beiden Netzwerke G Br und G Bu mit den entsprechenden Flüssen f i,j,k auf Basis des Ausgangs- und Zielpunktes der Fracht und den bekannten kürzesten Wegen belegt werden. Für die Menge K a + wird angenommen, dass die abgebaute Flugzeugladeeinheit und die beladenen Gitterboxen im Falle der Abbauaufträge sowie die aufgebaute Flugzeugladeeinheit und die entladenen Gitterboxen im Falle der Aufbauaufträge jeweils in die Lagerbereiche L transportiert werden, denen sie entnommen worden sind. Nachdem die Flüsse auf den Kanten bestimmt sind, wird für jede Kante über Restriktion(5.35c) ermittelt, ob die entsprechenden Kapazitäten eingehalten werden. Die Summe der Kanten, an denen die Kapazitäten überschritten werden, werden als Strafkosten für das Individuum η berücksichtigt und beeinflussen die Auswahlwahrscheinlichkeit während der Selektionsphase. Die über Gleichung(5.35h) ermittelte Bereitstellungszeit der ersten Ladeeinheit wird auf die Bereitstellungszeit des Auftrags aufgeschlagen. Anschließend kann die Evaluation des Individuums η durchgeführt werden. 5.4 Ablaufsteuerung und Revision von Ablaufplänen Mit der in den vorherigen Abschnitten beschriebenen proaktiven Ablaufplanung werden Ablaufpläne erstellt, die bekannte Schwankungen der Bearbeitungszeiten berücksichtigen und somit weniger anfällig gegenüber Störungen sind. In Abschnitt 2.2.3 wurde bereits aufgezeigt, dass während der Ausführung des Plans Ereignisse eintreten können, deren Auswirkungen zu groß sind, als dass sie durch den robusten Ablaufplan kompensiert werden könnten. Daher wird im Folgenden eine Ablaufsteuerung konzipiert, die beim Auftreten dieser Ereignisse Anpassungen am Ablaufplan vornehmen kann. Hierzu wird in Abschnitt 5.4.1 zunächst beschrieben, wie die Ausführungsüberwachung des aktiven Ablaufplans erfolgt und wie Ereignisse erkannt werden können. Anschließend wird in Abschnitt 5.4.2 dargelegt, wie die erkannten Ereignisse und ihre Auswirkungen den verschiedenen Auftragsmengen zugeordnet und wie entsprechende Verfahren zur Revision des Ablaufplans eingesetzt werden. 5.4.1 Ausführungsüberwachung des aktiven Ablaufplans Der durch den Entscheidungsträger ausgewählte Ablaufplan 108 ap p i für den Zeitraum t i bis zum nächsten Planungszeitpunkt t i +1 der rollierenden Ablaufplanung wird auf der reaktiven Ebene 109 gespeichert und durch diese sukzessiv abgearbeitet, indem Auftragsfreigaben an die entsprechenden Subsysteme gesendet werden, die für den Materialtransport zuständig sind. Des Weiteren werden die entsprechenden Mitarbeiter über die nächsten zu bearbeitenden Aufträge informiert. Der Planfortschritt wird über die Rückmeldungen der Subsysteme und der mobilen Datenerfassung an den Arbeitsstationen überwacht. 110 108 Vergleiche Abschnitt 5.3.3.7. 109 Vergleiche Abschnitt 5.1. 110 Die konkrete Ausgestaltung der Auftragsfreigaben und der Überwachung des Planfortschritts ist Teil der technischen Umsetzung eines konkreten Systems und wird hier nicht weiter behandelt. 5.4 Ablaufsteuerung und Revision von Ablaufplänen 145 Ereignisse wie der Planfortschritt werden über die Subsysteme, insbesondere die mobile Datenerfassung an den Arbeitsstationen, erkannt. Für Aufträge wird die Überschreitung der zugehörigen Bearbeitungszeitintervalle als Ereignis zum Zeitpunkt t ev berücksichtigt. Hierfür wird für jeden gestarteten Auftrag a ∈ A R regelmäßig überprüft, ob für das Restbearbeitungszeitintervall dieses Auftrags I a Rest =[0 , 0] bzw. für die aus der Häufigkeitsverteilung H C ∗ ermittelte Restbearbeitungszeit τ a Rest = 0 gilt. 111 Ist dies der Fall, liegt eine Primärstörung für diesen Auftrag vor, da eine Bearbeitungszeit außerhalb des Intervalls bei der initialen proaktiven Ablaufplanung nicht berücksichtigt worden war. Aufgrund der Abhängigkeiten zwischen den Aufträgen können Sekundärstörungen bei nachgelagerten Aufträgen auftreten. Hierbei bestehen Abhängigkeiten zu • Aufträgen, die auf derselben Maschine wie der verspätete Auftrag eingeplant sind, • Aufträgen, die aufgrund von Vorrangbeziehungen erst nach dem verspäteten Auftrag ausgeführt werden können, • Aufträgen, die durch dieselben Mitarbeiter wie der verspätete Auftrag bearbeitet werden. Die Sekundärstörungen können dabei auf Basis der Abhängigkeiten sowohl bei den direkten als auch bei den indirekten Nachfolgeaufträgen durch die Ausbreitung von Störungen auftreten. Weitere Ereignisse, die bei der Ausführung des Ablaufplans auftreten und durch die Ausführungsüberwachung berücksichtigt werden müssen, sind Maschinen-, Transportsystemund Mitarbeiterausfälle sowie die Ankunft von Eilaufträgen und der Abbruch bereits eingeplanter oder fixierter Aufträge. Die zuvor erläuterten Abhängigkeiten sind auch hier zu berücksichtigen. Die Ereignisse können je nach vorhandenen Systemen und Automatisierungsgrad automatisiert erkannt oder manuell der Planungsarchitektur zur Verfügung gestellt werden. 5.4.2 Ereignisorientierte Revision des aktiven Ablaufplans Wurde durch die Ausführungsüberwachung ein Ereignis festgestellt, ist auf dieses durch geeignete Reparaturstrategien bzw. Umplanungsverfahren zu reagieren. Hierbei ist zwischen den verschiedenen Auftragsmengen zu unterscheiden, da der aktuelle Ausführungsstatus eines Auftrags darüber entscheidet, welche Reparaturverfahren einsetzbar sind. Die konkrete Ausgestaltung dieser Verfahren ist aufgrund der Systemnähe der Ablaufsteuerung von dem konkreten System abhängig und entsprechend zu adaptieren. Daher sind die im Folgenden beschriebenen Vorgehensweisen exemplarisch zu verstehen. Aufträge der Menge A R t ev , die zum Zeitpunkt t ev des Ereignisses ev bereits gestartet sind, können ausschließlich durch eine Primärstörung betroffen sein. Die Möglichkeiten für eine Revision innerhalb dieser Auftragsmenge sind begrenzt und umfassen lediglich den Abbruch und die Verschiebung sowie die zeitliche Aussetzung der weiteren Bearbeitung des betroffenen Auftrags. Der Abbruch und die anschließende Verschiebung des Auftrags 111 Vergleiche Abschnitt 5.3.2.1. 146 5 Konzeption ist im Falle des längerfristigen Ausfalls von Maschinen oder Transportsystemen gegeben, sofern die Möglichkeit besteht, die Fracht von der betroffenen Arbeitsstation auf eine andere Station zu verlegen und dort die Bearbeitung fortzusetzen. Die Aussetzung der Bearbeitung bietet sich bei absehbaren Störungen an. Bei der Überschreitung des für einen Auftrag ermittelten Bearbeitungszeitintervalls sollte von den beiden zuvor genannten Maßnahmen abgesehen und der Auftrag zu Ende bearbeitet werden, da eine Verschiebung nur zu weiteren Verzögerungen führen würde. 112 In jedem Fall bedarf die Störungsdauer einer Quantifizierung als Ausgangsbasis für die Reparaturstrategien, die zur Anwendung bei den anderen Auftragsmengen kommen. Ist dies nicht sofort durchführbar, so wird empfohlen, mit der Anwendung von Umplanungsverfahren abzuwarten, bis eine Quantifizierung möglich bzw. bis die Störung behoben worden ist. 113 Diese Forderung kann im Folgenden abgeschwächt werden, indem die Propagation der Primärstörung vermindert wird. Für alle Aufträge, die dann nicht mehr unmittelbar von der Primärstörung betroffen sind, kann ein Umplanungsverfahren angewendet werden, um den Ablaufplan den Änderungen anzupassen. Zur Reduzierung der Propagation der Primärstörung werden die bestehenden Abhängigkeiten zu anderen Aufträgen minimiert. Die Vorbereitungen für Aufträge, die auf derselben Maschine wie der von der Störung betroffene Auftrag eingeplant sind und der Menge A F t ev angehören, werden – sofern zeitlich möglich – rückgängig gemacht. Anschließend werden diese Aufträge sowie Aufträge der Menge A P t ev für eine erneute Ablaufplanung freigegeben. Für Aufträge, zu denen Vorrangbeziehungen 114 bestehen und die der Menge A F t ev oder A P t ev angehören, werden die Einplanungen auf die Maschinen rückgängig gemacht. Die Aufträge werden markiert und bis zur Auflösung der Störung in der Ablaufplanung nicht mehr berücksichtigt. 115 Die Abhängigkeiten aufgrund der Mitarbeitereinplanungen werden aufgelöst, indem alle weiteren Zuordnungen der Mitarbeiter, die für den von der Störung betroffenen Auftrag eingeplant sind, entfernt werden. Diese Mitarbeiter werden bis zur Auflösung der Störung in der Personaleinsatzplanung nicht mehr berücksichtigt, da sie zur Fertigstellung des betroffenen Auftrags nach Auflösung der Störung benötigt werden. Nach Durchführung der zuvor genannten Anpassungen kann die Ablaufplanung und Personaleinsatzplanung erneut durchgeführt werden. Für die Ablaufplanung können prinzipiell partielle Umplanungsverfahren, wie sie in Abschnitt 3.3.1 dargestellt 112 Hierbei handelt es sich um eine rein reaktive Vorgehensweise. Wird während der Bearbeitung des Auftrags fortlaufend der aufgrund der aktuellen Bearbeitungsgeschwindigkeit und der noch ausstehenden Fracht wahrscheinlich zu erzielende Fertigstellungszeitpunkt ermittelt, so wäre eine antizipative Reaktion möglich. Diese könnte z. B. in der Beschleunigung der Bearbeitung durch Hinzunahme weiterer Mitarbeiter liegen. Auf diese Möglichkeit, die einer Erweiterung der reaktiven Ebene entspräche, wird hier nicht näher eingegangen. 113 Vgl.[QBY06], S. 168. 114 Dies können hier lediglich Aufbauaufträge sein, die selbst keine weiteren Vorrangbeziehungen zu anderen Aufträgen besitzen. 115 Eine alternative Vorgehensweise zur Auflösung einer Vorrangbeziehung zwischen einem Abbau- und einem Aufbauauftrag besteht in der Änderung des Aufbauauftrags, sodass dieser keine Fracht aus dem Abbauauftrag mehr enthält. Hierfür ist allerdings eine Rückkopplung in das für die Auftragserstellung verantwortliche System notwendig, das hier nicht näher betrachtet wird. 5.4 Ablaufsteuerung und Revision von Ablaufplänen 147 worden sind, verwendet werden. Hierbei sollte in jedem Fall das in Abschnitt 5.3.2.2 beschriebene Stabilitätsmaß als Entscheidungsgröße mit berücksichtigt werden. Alternativ kann die hier vorgestellte proaktive Ablaufplanung erneut aufgerufen werden. Für die Personaleinsatzplanung kann die in Abschnitt 5.3.4.2 beschriebene Heuristik verwendet werden. Sobald eine Quantifizierung der Störungsdauer der Primärstörung möglich oder diese behoben bzw. beendet worden ist, können die zuvor entfernten Aufträge und Mitarbeiter erneut in die Ablaufplanung bzw. Personaleinsatzplanung einbezogen werden. Aufträge der Menge A F t ev , die zum Zeitpunkt t ev des Ereignisses ev bereits fixiert worden sind, können – wie zuvor beschrieben – durch Sekundärstörungen betroffen sein. Primärstörungen treten hier ausschließlich durch den Abbruch des fixierten Auftrags auf. Die Möglichkeiten für eine Revision innerhalb dieser Auftragsmenge umfassen, sofern bereits durchgeführte Vorbereitungen rückgängig gemacht werden können, alle zuvor genannten Vorgehen und zusätzlich die Revision durch Umplanungsverfahren. Die Vorbereitungen sollten allerdings nur dann rückgängig gemacht werden, wenn es sich um längerfristige Störungen handelt oder nur ein geringer Prozentsatz der Vorbereitungen abgeschlossen ist. Das zuvor beschriebene Vorgehen zur Reduktion der Propagation der Störung gilt hier analog. Für Aufträge der Menge A P t ev gilt grundsätzlich das zuvor für fixierte Aufträge Geschriebene. Bei ausschließlich eingeplanten Aufträgen besteht jedoch eine größere Flexibilität, da noch keine Arbeitsvorbereitungen – wie die Vorpufferung von Fracht – stattgefunden haben. Daher sollte für diese Aufträge die bestehende Einplanung auf eine Arbeitsstation aufgehoben und der Auftrag erneut für die Ablaufplanung freigegeben werden. 149 6 Validierung In diesem Kapitel erfolgt die Validierung 1 der in den vorangegangenen Abschnitten entwickelten Konzepte für ein Ablaufplanungs- und-steuerungssystem für Frachtabfertigungsprozesse in Luftfrachtterminals auf Basis synthetischer sowie realer 2 Testinstanzen. 3 Ziel ist es, die vorgestellten Verfahren hinsichtlich ihrer Effektivität und Effizienz bezüglich der in Kapitel 2 dargelegten Problemstellung und Anforderungen zu bewerten. Der Aufbau des Kapitels orientiert sich hierbei an den in den Abschnitten 2.2.1 und 2.2.2 identifizierten Problemfeldern und den für deren Lösung in Kapitel 5 vorgestellten Verfahren. In den einzelnen Abschnitten wird jeweils zuerst die Erstellung der Testinstanzen und der Versuchsaufbau der einzelnen Experimente beschrieben, woran sich die Darstellung und Diskussion der Ergebnisse im Hinblick auf die Problemstellung und die gestellten Anforderungen anschließt. In Abschnitt 6.1 wird zunächst die Validierung des Clustering- und Klassifikationsverfahrens für historische Betriebsdaten beschrieben. Schließlich erfolgt in Abschnitt 6.2 die Auswertung der proaktiven Ablaufplanung. 6.1 Validierung der Erstellung des benötigten Informationsstands In diesem Abschnitt erfolgt die Validierung für die beiden in den Abschnitten 5.2.1 und 5.2.2 beschriebenen Verfahren zur Clusterbildung bzw. Klassifikatorentwicklung für historische bzw. unbekannte Aufträge. Hierzu werden zunächst die verwendeten Testinstanzen beschrieben und anschließend werden der Versuchsaufbau sowie die Auswertung der Ergebnisse für jedes Experiment des entsprechenden Moduls erläutert. 6.1.1 Testinstanzen für die Validierung des Clustering- und Klassifikationsverfahrens Für die Validierung des Clustering- und Klassifikationsverfahrens werden sieben Testinstanzen verwendet. Die ersten vier Instanzen(R1–R4) sind Realdaten zu historischen 1 Die Validierung erfolgt auf zwei Intel Xeon E5620 CPUs mit 2.40 GHz, 48 GB RAM und Windows Server 2008 R2 64 Bit. Die Implementierung erfolgte in C# unter.NET Framework 4.5 und wurde als 64-Bit-Anwendung kompiliert. 2 Bei den hier verwendeten realen Testinstanzen handelt es sich um Echtdaten aus einem Luftfrachtterminal, die im Rahmen dieser Arbeit anonymisiert wurden. 3 Auf eine Validierung der rein konzeptionellen Beschreibung der Ablaufsteuerung und die Revision von Ablaufplänen aus Abschnitt 5.4 wird hier aufgrund der Abhängigkeit dieser Verfahren von einem konkreten System verzichtet. 150 6 Validierung Tabelle 6.1: Anzahl der historischen Aufträge in den realen und synthetischen Testinstanzen unterteilt nach den nicht(quasi)stetigen Eigenschaften Instanz Anz. historische Aufträge e 1 = 0 e 1 = 1 e 1 = 2 e 2 = 0 e 2 = 1 e 2 = 0 e 2 = 1 e 2 = 0 e 2 = 1 R1 2271 2870 2077 2782 0 0 R2 1771 2588 2556 3085 0 0 R3 2416 2925 1982 2677 0 0 R4 2435 2928 2123 2514 0 0 S1 2000 2000 2000 2000 1000 1000 S2 100 100 100 100 50 50 S3 650 550 230 220 300 50 Aufträgen, die in einem großen Luftfrachtterminal in verschiedenen Monaten erfasst worden sind. Des Weiteren wurden drei synthetische Testinstanzen(S1–S3) generiert, die jeweils zehn Cluster mit Aufträgen enthalten. Für die Aufträge eines Clusters wurden verschiedene Verteilungen für die auftragsbeschreibenden Eigenschaften sowie für die realisierten Bearbeitungszeiten definiert. Die Aufteilung in Auf-( e 1 = 0), Abbau-( e 1 = 1) und Transferaufträge( e 1 = 2) sowie eine weitere Unterteilung nach dem verwendeten Ladehilfsmittel( e 2 = 0 für Luftfrachtcontainer und e 2 = 1 für-paletten) ist Tabelle 6.1 zu entnehmen. In den realen Testinstanzen traten zwölf verschiedene Typen von Luftfrachtcontainern und sechs Typen von-paletten auf. Diese reichten von kleinen AKH-Containern mit 3 , 4 m 3 bis zu PMC-Paletten mit bis zu 21 , 2 m 3 Ladevolumen. Weitere statistische Informationen zu den realen Testinstanzen sind in Tabelle 6.2 aufgeführt. Aufgegliedert nach Testinstanzen und Typ des Auftrags sind jeweils das arithmetisches Mittel sowie die Populations-Standardabweichung der Bearbeitungszeitabweichung ∆ τ sowie der(quasi)stetigen Eigenschaften p mit p ∈{ 3 ,..., 9} der historischen Aufträge dargestellt. Bei dem in Abschnitt 6.1.2 zu evaluierenden Clusteringverfahren handelt es sich um ein unüberwachtes Lernverfahren zur Suche nach neuen Clustern in den Daten über historische Aufträge. Aufgrund der unbekannten Clusterzugehörigkeit der historischen Aufträge in den realen Testinstanzen werden zur Clustervalidierung und somit zur Bemessung der Qualität des Clusteringergebnisses sogenannte interne Maße 4 verwendet. Die synthetischen Testinstanzen wurden im Hinblick auf die Evaluation des Clusteringverfahrens konstruiert, da es bei diesen möglich ist, im Vorhinein Cluster zu konstruieren, die dann durch das Clusteringverfahren ermittelt werden sollen. Für die gefundenen Cluster der synthetischen Testinstanzen ist eine Clustervalidierung sowohl auf Basis interner 4 Bei internen Maßen zur Clustervalidierung werden Kriterien und Eigenschaften verwendet, die aus den Daten selbst gewonnen werden(z. B. Intra- und Inter-Cluster-Distanzen)(vgl.[HBV01], S. 128 f.; [LLX + 10];[RAAQ11], S. 28 f.;[ZM14], Kapitel 17). 6.1 Validierung der Erstellung des benötigten Informationsstands 151 Tabelle 6.2: Arithmetisches Mittel und Populations-Standardabweichung der Bearbeitungszeitabweichung sowie der(quasi)stetigen Eigenschaften für die realen Testinstanzen Inst. Typ ∆ τ e 3 e 4 e 5 e 6 e 7 e 8 e 9 /%/ m 3 / m 3 / Anz./%/%/%/ Anz. R1 BD 1 6 , 4 ± 11 , 0 8 , 4 ± 3 , 7 6 , 5 ± 3 , 0 23 ± 49 54 , 5 ± 10 , 2 ± 38 , 7 10 , 1 5 , 0 ± 8 , 1 BU 2 16 , 8 ± 21 , 3 8 , 4 ± 3 , 6 7 , 0 ± 3 , 1 18 ± 36 58 , 6 ± 49 , 8 ± 29 , 3 ± 41 , 0 22 , 5 29 , 6 4 ± 5 3 ± 3 R2 BD 1 8 , 1 ± 10 , 3 8 , 7 ± 3 , 7 7 , 9 ± 3 , 4 24 ± 47 41 , 8 ± 15 , 9 ± 7 , 5 ± 40 , 0 13 , 0 10 , 6 BU 2 15 , 3 ± 17 , 3 8 , 2 ± 3 , 7 6 , 4 ± 3 , 0 18 ± 32 56 , 3 ± 35 , 0 ± 18 , 3 ± 41 , 4 18 , 5 20 , 8 4 ± 5 3 ± 3 R3 BD 1 5 , 9 ± 8 , 3 ± 7 , 0 ± 22 ± 46 , 1 ± 27 , 1 ± 12 , 9 ± 8 , 6 3 , 7 3 , 2 40 38 , 8 17 , 4 16 , 2 BU 2 12 , 8 ± 14 , 8 8 , 4 ± 3 , 7 7 , 6 ± 3 , 4 17 ± 27 57 , 7 ± 28 , 5 ± 15 , 1 ± 41 , 1 15 , 9 17 , 0 3 ± 3 4 ± 3 R4 BD 1 5 , 7 ± 8 , 3 ± 6 , 1 ± 22 ± 61 , 6 ± 20 , 3 ± 10 , 5 ± 6 , 3 3 , 7 2 , 8 39 38 , 8 14 , 6 13 , 8 BU 2 12 , 4 ± 12 , 0 8 , 2 ± 3 , 7 7 , 8 ± 3 , 5 17 ± 28 56 , 8 ± 25 , 8 ± 13 , 6 ± 41 , 0 14 , 5 15 , 7 3 ± 3 4 ± 3 Legende: 1 Break-down= Abbauauftrag 2 Build-up= Aufbauauftrag als auch externer Maße 5 möglich, da die Clusterzugehörigkeit bekannt ist. Hierdurch ist ein Vergleich beider Maße und somit eine Beurteilung der Qualität des internen Maßes möglich. 6.1.2 Analyse des Clusteringverfahrens Für die Validierung des Clusteringverfahrens aus Abschnitt 5.2.1 werden im Folgenden zwei Experimente durchgeführt. Das erste dient der Bestimmung, welche der drei beschriebenen Initialisierungsmethoden zur initialen Bestimmung der Clusterzentren(hier: Medoiden) verwendet werden sollte. Mit dem zweiten Experiment wird der Parameter k bestimmt, mit dem die Anzahl der zu bildenden Cluster festgelegt werden kann. 5 Bei externen Maßen zur Clustervalidierung werden Kriterien und Eigenschaften verwendet, die nicht Teil der Daten sind, sondern bspw. in Form von vorherigem Wissen(z. B. Klassenlabel) bekannt sind (vgl.[HBV01], S. 124–128;[RAAQ11], S. 29 f.;[ZM14], Kapitel 17). 152 6 Validierung 6.1.2.1 Auswahl der Initialisierungsmethode Mit dem folgenden Experiment soll die geeignetste Initialisierungsmethode zur Bestimmung der initialen Clusterzentren ermittelt werden. Zur Auswahl stehen die drei in Abschnitt 5.2.1.3 beschriebenen Verfahren: Random , Most-Middle , Farthest-First . Diese werden für jede der sieben Testinstanzen bei einer festgelegten Clusteranzahl( k = 10 für die synthetischen und k = 8 für die realen Testinstanzen) 6 verwendet und der Clusteringalgorithmus wird bis zum Abbruchkriterium bzw. bis zu maximal 50 Iterationen ausgeführt. Für die Initialisierungsmethode Random werden 50 unabhängige Durchläufe durchgeführt und der Mittelwert gebildet. Für die Normalisierungsfaktoren der Distanzfunktion wird die in Gleichung(5.1) auf Seite 86 beschriebene Menge N F und als Gewichtungsfaktor w p = 1 / 9 mit 1 ≤ p ≤ 9 für W(siehe Gleichung(5.2) auf Seite 86) verwendet. Als internes Maß zur Clustervalidierung wird der Silhouettenkoeffizient nach Rousseeuw 7 verwendet. Die Silhouette ist ein Indikator dafür, wie gut ein Objekt geclustert worden ist, indem die durchschnittliche Distanz zu den anderen Objekten des eigenen Clusters mit der durchschnittlichen Distanz zu den Objekten des nächstgelegenen Clusters verglichen wird. Die durchschnittliche Distanz eines historischen Auftrags ha j zu den anderen Aufträgen des eigenen Clusters C ha j wird folgendermaßen berechnet: dist( C ha j , ha j )= 1 |C ha j | ha ∈C ha j dist( ha j , ha ) Die Distanz zum nächstgelegenen Cluster C sei über das Minimum der durchschnittlichen Distanzen zu den Aufträgen in den anderen Clustern definiert: dist( C , ha j )= min C i ∈ C : C i = C ha j 1 |C i | ha ∈C i dist( ha j , ha ) Der Silhouettenkoeffizient eines Auftrags ha j ist dann folgendermaßen definiert:   1 , sc( ha j )=  dist( C, ha j ) − dist( C ha j , ha j ) max { dist( C ha j , ha j ) , dist( C, ha j ) } wenn dist( C ha j , ha j )= 0 in allen anderen Fällen Der Silhouettenkoeffizient ist auf das Intervall[ − 1 , +1] begrenzt. Dabei gibt ein Wert von+1 an, dass der historische Auftrag nah an den anderen Aufträgen des eigenen Clusters liegt und weit entfernt von anderen Clustern ist. Ein Wert von − 1 kennzeichnet einen historischen Auftrag, der näher an einem anderen als dem eigenen Cluster liegt. Für den Fall, dass der Koeffizient 0 ist, kann keine Aussage darüber getroffen werden, 6 Es werden 10 bzw. 8 Cluster verwendet, da durch die Kombination aus der binären Eigenschaft 2 und der nominalen Eigenschaft 1 bereits von 6 Clustern im Falle der synthetischen und 4 Clustern(hier sind keine Transferaufträge aufgetreten, vgl. Tabelle 6.1) im Fall der realen Testinstanzen ausgegangen werden kann. Die restlichen vier Cluster dienen zum Auffinden unbekannter Gruppen. 7 Siehe[Rou87]. 6.1 Validierung der Erstellung des benötigten Informationsstands 153 ob die Zuordnung zum aktuellen oder zum nächstgelegenen Cluster besser ist, da der Auftrag an der Grenze zwischen den beiden Clustern liegt. 8 Für eine Testinstanz i kann der Silhouettenkoeffizient schließlich als arithmetisches Mittel der Silhouetten aller historischen Aufträge A H i dieser Instanz berechnet werden: sc( A H i )= 1 |A H i | sc( ha ) ha ∈A H i (6.1) Ein Wert nahe+1 entspricht hierbei einer guten Aufteilung der Aufträge über die verschiedenen Cluster und somit einem Clusteringergebnis mit einer starken Strukturierung. 9 Als externe Maße zur Clustervalidierung werden das Rand-Maß und der JaccardKoeffizient verwendet. 10 Diese Maße geben an, wie gut das erzielte Clusteringergebnis des zu testenden Verfahrens im Vergleich zu einem a priori bekannten Clustering ist. Die tatsächliche Clusterzugehörigkeit wird somit als externe Information verwendet. 11 Zur Berechnung der Maße bezeichne ha j , ha l ∈ A H i mit j = l zwei unterschiedliche historische Aufträge einer Testinstanz i sowie y j , y l ∈{ 1 ,..., r } die a priori bekannte und y j , y l ∈{ 1 ,..., k } die durch den Clusteralgorithmus ermittelte Clusterzugehörigkeit. Im Folgenden wird von r = k ausgegangen. Der Fall y j = y l wird als positives und y j = y l als negatives Ereignis gewertet. Unter Berücksichtigung der A-priori-Informationen ergeben sich vier Fälle: 12 • Richtig positiv: Die beiden Aufträge ha j und ha l gehören demselben Cluster an und wurden durch das Verfahren auch demselben Cluster zugeordnet. TP =|{( ha j , ha l )| y j = y l ∧ y j = y l }| • Falsch negativ: Die beiden Aufträge ha j und ha l gehören demselben Cluster an, wurden durch das Verfahren jedoch unterschiedlichen Clustern zugeordnet. FN =|{( ha j , ha l )| y j = y l ∧ y j = y l }| • Falsch positiv: Die beiden Aufträge ha j und ha l gehören nicht demselben Cluster an, wurden durch das Verfahren jedoch demselben Cluster zugeordnet. FP =|{( ha j , ha l )| y j = y l ∧ y j = y l }| • Richtig negativ: Die beiden Aufträge ha j und ha l gehören nicht demselben Cluster an und wurden durch das Verfahren auch nicht demselben Cluster zugeordnet. TN =|{( ha j , ha l )| y j = y l ∧ y j = y l }| 8 Siehe[Rou87], S. 56. 9 Vgl.[ZM14], S. 445. 10 Siehe[Ran71] für das Rand-Maß und[Jac12] für den Jaccard-Koeffizient. 11 Vgl.[ZM14], S. 425 f. 12 Siehe ebd., S. 433 f. 154 6 Validierung Tabelle 6.3: Silhouettenkoeffizient, Rand-Maß und Jaccard-Koeffizient der verschiedenen Testinstanzen in Abhängigkeit der gewählten Initialisierungsmethode Instanz Initialisierungsmethode Random Most-Middle Farthest-First sc rand jacc sc rand jacc sc rand jacc R1 0 , 42—— 0 , 43—— 0 , 43—— R2 0 , 41—— 0 , 35—— 0 , 44—— R3 0 , 37—— 0 , 32—— 0 , 39—— R4 0 , 37—— 0 , 33—— 0 , 34—— S1 0 , 34 0 , 93 0 , 53 0 , 25 0 , 88 0 , 37 0 , 51 0 , 97 0 , 78 S2 0 , 35 0 , 93 0 , 56 0 , 39 0 , 95 0 , 60 0 , 50 0 , 98 0 , 81 S3 0 , 30 0 , 90 0 , 50 0 , 25 0 , 87 0 , 32 0 , 48 0 , 98 0 , 88 Das Rand-Maß kann nun als Verhältnis der richtig positiven und negativen zu allen Auftragspaaren wie folgt definiert werden: rand( A H i )= TP + TP FP + TN + FN + TN Das Rand-Maß ist auf das Intervall[0 , 1] beschränkt. Ein Wert nahe+1 entspricht hierbei einem Clusteringergebnis, das sehr nahe an der a priori bekannten Clusterzuordnung liegt. 13 Der Jaccard-Koeffizient ist definiert als das Verhältnis der richtig positiven zu allen Auftragspaaren, ohne Berücksichtigung der richtig negativen Auftragspaare: jacc( A H i )= TP + TP FP + FN Mit diesem Maß kann der für das Clustering wichtigere Wert TP besser berücksichtigt werden. Der Jaccard-Koeffizient ist auf das Intervall[0 , 1] beschränkt. Ein Wert nahe+1 entspricht hierbei einem Clusteringergebnis, das sehr nahe an der a priori bekannten Clusterzuordnung liegt. 14 In Tabelle 6.3 sind die Ergebnisse für die verschiedenen Initialisierungsmethoden aufgeführt. Die zuvor beschriebenen externen Maße, Rand-Maß sowie Jaccard-Koeffizient, werden für die synthetischen und das interne Maß des Silhouettenkoeffizienten für sowohl die synthetischen als auch die realen Testinstanzen angegeben. Es zeigt sich, dass die Initialisierungsmethode Farthest-First in sechs der sieben Testinstanzen die besten Ergebnisse für den Silhouettenkoeffizienten liefert. Die für diesen Koeffizienten ermittelten guten Ergebnisse werden durch die externen Maße bei den synthetischen Testinstanzen bestätigt. Aus diesem Grund wird die Initialisierungsmethode FarthestFirst im Folgenden bei der Parametrisierung der Anzahl Cluster verwendet. 13 Siehe[ZM14], S. 435. 14 Siehe ebd. 6.1 Validierung der Erstellung des benötigten Informationsstands 155 6.1.2.2 Parametrisierung der Anzahl Cluster Nachdem im vorherigen Abschnitt die beste Initialisierungsmethode ermittelt worden ist, wird auf Basis dieser im Folgenden bestimmt, wie viele Cluster jeweils für die sieben Testinstanzen gebildet werden sollten. Hierzu wird ein Parametrisierungsexperiment für den Parameter k des Clusteringalgorithmus durchgeführt. Der Parameter wird dabei im Bereich von 3 bis 30 in Einzelschritten variiert und der Clusteringalgorithmus bis zum Abbruchkriterium bzw. bis zu maximal 50 Iterationen ausgeführt. Als Maß zur Bewertung des Clusteringergebnisses für jede Parametervariation wird erneut der in Gleichung(6.1) beschriebene Silhouettenkoeffizient verwendet, da sich dieser zur Bestimmung der Clusteranzahl eignet. 15 Die Normalisierungs- und Gewichtungsfaktoren werden wie im vorherigen Experiment festgelegt. Für die synthetischen Testinstanzen(S1–S3) ist die Anzahl der zu bildenden Cluster aufgrund der Konstruktion dieser Instanzen bereits bekannt. Erzielt der Silhouettenkoeffizient bei der jeweils bekannten Clusteranzahl für eine Testinstanz den höchsten Wert, so kann von einer Eignung des internen Maßes für die Ermittlung der Anzahl Cluster ausgegangen werden. Für die realen Testinstanzen kann somit auf die unbekannte Anzahl an Clustern geschlossen werden. Die Ergebnisse des Parametrisierungsexperiments sind in Abbildung 6.1 dargestellt. Der Verlauf des Silhouettenkoeffizienten für die synthetischen Testinstanzen für die verschiedenen Ausprägungen des Parameters k ist in Abbildung 6.1(a) aufgezeigt. Analog zeigt Abbildung 6.1(b) die Ergebnisse für die realen Testinstanzen. Es zeigt sich, dass für die Instanzen S1–S3 der Silhouettenkoeffizient genau bei der bekannten Anzahl von jeweils zehn Clustern seinen höchsten Wert erzielt und danach wieder abfällt. Für die realen Testinstanzen lässt sich kein so eindeutiges Ergebnis erzielen. Auf Basis des Silhouettenkoeffizienten sollte jedoch für die Testinstanzen R1 und R4 von jeweils vier, für R2 von neun und für R3 von drei Clustern ausgegangen werden. 6.1.3 Analyse des Klassifikationsverfahrens Die Validierung des in Abschnitt 5.2.2 beschriebenen Klassifikationsverfahrens erfolgt in diesem Abschnitt mittels zweier Experimente. Das erste dient der Quantifizierung der erreichten Klassifikationsgüten für die verschiedenen Testinstanzen anhand von Metriken und somit dem Nachweis der Effektivität des Verfahrens. Des Weiteren wird die Effizienz in Form der benötigten Zeit für eine Klassierung ermittelt. Das zweite Experiment dient zur Detaillierung der im ersten Experiment gewonnen Ergebnisse, indem für eine ausgewählte Testinstanz die abstrakten Metriken näher untersucht werden. 6.1.3.1 Effektivität und Effizienz des Klassifikationsverfahrens Im Folgenden wird die Effektivität und Effizienz des eingesetzten Klassifikationsverfahrens untersucht. Hierzu sind für jede reale und synthetische Testinstanz sowohl eine Trainingsmenge zur Erstellung des Klassifikators(vgl. Abschnitt 5.2.2) als auch eine hiervon 15 Vgl.[ZM14], S. 448. Silhouettenkoeffizient 156 0 , 6 0 , 4 6 Validierung S1 S2 S3 0 , 2 0 0 , 6 0 , 4 10 20 Anz. Cluster (a) 30 R1 R2 R3 R4 Silhouettenkoeffizient 0 , 2 0 10 20 Anz. Cluster (b) 30 Abbildung 6.1: Verläufe des Silhouettenkoeffizienten für verschiedene Parametervariationen der Anzahl Cluster für die untersuchten Testinstanzen:(a) Synthetische Testinstanzen(b) Reale Testinstanzen unabhängige Testmenge, die nicht zur Erstellung des Klassifikators verwendet wird, für die Berechnung der Metriken und Bestimmung der Effektivität notwendig. Die Trainings- und Testmengen werden hier unter Verwendung einer zehnfachen stratifizierten Kreuzvalidierung gewonnen. Hierbei wird die Datenmenge A H i historischer Aufträge einer Testinstanz i in zehn annähernd gleich große Teilmengen A H i,j mit 1 ≤ j ≤ 10 unterteilt. Anschließend werden zehn Testdurchläufe durchgeführt, bei der jeweils die j -te Teilmenge A H i,j als Testmenge R j und die restlichen neun Teilmengen als Trainingsmenge T j verwendet werden. Die Stratifizierung dient dazu, dass sowohl die Testals auch die Trainingsmenge eine repräsentative Anzahl an historischen Aufträgen aus jedem Cluster der Testinstanz beinhaltet. Aufgrund der zufälligen Auswahl der zehn Teilmengen können verschiedene Kreuzvalidierungsdurchläufe verschiedene Ergebnisse liefern. Aus diesem Grund wird das zuvor beschriebene Vorgehen der Kreuzvalidierung zehnmal wiederholt und das arithmetische Mittel der im Folgenden erläuterten Einzelergebnisse der Metriken gebildet. 16 16 Vgl.[WFH11], S. 152 ff. 6.1 Validierung der Erstellung des benötigten Informationsstands 157 Als Maß für die Effektivität werden die drei Metriken Erfolgsrate, quadratischer Verlust sowie Cohens Kappa verwendet. Die Erfolgsrate dient dabei der Quantifizierung, wie häufig das durch den Klassifikator klassierte Cluster 17 für einen historischen Auftrag dem tatsächlichen Klassenlabel bzw. Cluster C h ∗ a dieses Auftrags entspricht. Die Metrik nach Durchführung einer zehnfachen stratifizierten Kreuzvalidierung ist folgendermaßen definiert: sr( A H i )= 1 |A H i | 10 j =1 ha ∈R j δ C h ∗ a = classify( ha ) , mit der Indikatorfunktion δ ( x )= 1 , wenn x wahr ist 0 in allen anderen Fällen Die Zugehörigkeitswahrscheinlichkeit wird bei dieser Metrik nicht berücksichtigt. Mit Hilfe einer quadratischen Verlustfunktion kann die Zugehörigkeitswahrscheinlichkeit berücksichtigt und somit eine Aussage darüber getroffen werden, wie sicher die Entscheidungen bei den korrekt klassierten Aufträgen sind. Ein historischer Auftrag ha kann durch den Klassifikator einem der für die Testinstanz i ermittelten Cluster aus C i ∗ zugewiesen werden, wobei für jedes Cluster eine Zugehörigkeitswahrscheinlichkeit ermittelt wird. Diese seien durch den Vektor p ha gegeben, der für jedes Cluster C j ∗ ∈ C i ∗ eine A-posteriori-Wahrscheinlichkeit 18 p ha ,j enthält, wobei die einzelnen Wahrscheinlichkeiten in Summe eins ergeben. Die tatsächliche Clusterzugehörigkeit kann in Form eines Zuordnungsvektors z ha angegeben werden, der für jedes Cluster C j ∗ ∈ C i ∗ eine Zuordnung z ha ,j ∈{ 0 , 1} enthält. Hierbei hat z ha ,j , mit j der tatsächlichen Clusterzugehörigkeit, den Wert 1 und alle anderen haben den Wert 0. Die quadratische Verlustfunktion nach Durchführung einer zehnfachen stratifizierten Kreuzvalidierung ist dann folgendermaßen definiert: 19 10 ql( A H i )= | C i ∗ | ( p ha ,j − z ha ,j ) 2 l =1 ha ∈R l j =1 Die Funktionswerte sind auf das Intervall[0 , 2|A H i |] beschränkt, wobei der kleinste Wert für den Fall erreicht wird, bei dem für die tatsächlichen Clusterzugehörigkeiten der Aufträge jeweils eine Zugehörigkeitswahrscheinlichkeit von 100% ermittelt wird. Der maximale Wert wird unter der Bedingung erzielt, bei der für jeden Auftrag eine Zugehörigkeitswahrscheinlichkeit von 100% für ein von der tatsächlichen Clusterzugehörigkeit verschiedenes Cluster ermittelt wird. Als weiteres Maß wird Cohens Kappa 20 als ein statistisches Maß für die InterraterReliabilität der Klassierungen von zwei Ratern verwendet. Der erste Rater entspricht 17 Siehe Gleichung(5.14) auf Seite 102. 18 Siehe Gleichung(5.13) auf Seite 102. 19 Vgl.[WFH11], S. 160 f. 20 [Coh60]. 158 6 Validierung dabei den tatsächlichen und der andere den durch den Klassifikator ermittelten Clusterzugehörigkeiten der historischen Aufträge. Sei hierfür eine Kontingenztafel(engl. confusion matrix ) mit den Ergebnissen des ersten Raters als Zeilen und des zweiten Raters als Spalten gegeben(vgl. Tabelle 6.5). Die Matrix besteht somit aus| C i ∗ | ×| C i ∗ | Zellen. Der Inhalt einer Zelle entspricht den absoluten Häufigkeiten nach Durchführung einer zehnfachen stratifizierten Kreuzvalidierung und sei mit h j,l bezeichnet. Zur Berechnung von Cohens Kappa wird als erstes die gemessene Übereinstimmung beider Rater benötigt: 21 p 0 = 1 |A H i | | C i ∗ | j =1 h j,j Als nächstes wird die erwartete zufällige Übereinstimmung beider Rater berechnet: p e = 1 |A H i | 2 | C i ∗ | z j j =1 · s j , wobei z j der Zeilen- und s j der Spaltensumme der Kontingenztafel entspricht. Cohens Kappa ist nach Durchführung einer zehnfachen stratifizierten Kreuzvalidierung schließlich folgendermaßen definiert: κ = p 0 − p e 1 − p e Für κ = 1 gilt eine exakte Übereinstimmung der Zuordnungen beider Rater. Besteht keine Übereinstimmung, die über die erwartete zufällige Übereinstimmung hinausgeht, so ist κ = 0. Zur Bestimmung der Effizienz des Verfahrens wird die durchschnittliche Zeit zur Klassierung eines Auftrags gemessen. Bei der späteren Ablaufplanung müssen die Aufträge, die neu in einen Ablaufplan eingeplant werden sollen, zunächst klassiert werden. 22 Daher sollte dieser Vorgang effizient durchgeführt werden, um möglichst viel Zeit auf die eigentliche Ablaufplanung verwenden zu können. Die Ergebnisse für die zuvor beschriebenen Metriken sind in Tabelle 6.4 für eine zehnfache stratifizierte Kreuzvalidierung mit zehnfacher Wiederholung aufgeführt. Es zeigt sich, dass bei den Klassierungen für alle Testinstanzen eine Erfolgsrate von über 90% erzielt wird. Die Werte für den quadratischen Verlust weisen zudem auf hohe Zugehörigkeitswahrscheinlichkeiten bei der Klassierung und somit auf sichere Zuordnungen hin. Die Ergebnisse für Cohens Kappa zeigen eine hohe Übereinstimmung der beiden Rater und somit ein deutlich besseres Ergebnis im Vergleich zu einer zufälligen Übereinstimmung. Die Laufzeit für eine Klassierung beträgt für jede Testinstanz jeweils unter einer Millisekunde. Für die Ablaufplanung sind diese Laufzeiten zu vernachlässigen, da sie nur zu Beginn einer Planung einmalig für jeden Auftrag der zu planenden Menge A durchgeführt werden müssen. Die Metriken zeigen auf, dass der eingesetzte Klassifikator 21 Vgl.[WFH11], S. 166 f. 22 Vergleiche hierzu Abschnitt 5.3.1.1 auf Seite 105. 6.1 Validierung der Erstellung des benötigten Informationsstands 159 Tabelle 6.4: Metriken zur Bestimmung der Effektivität und Effizienz des Klassifikationsverfahrens für die verschiedenen Testinstanzen Instanz R1 R2 R3 R4 S1 S2 S3 Erfolgsrate in% 97 , 24 93 , 60 98 , 38 98 , 25 98 , 34 98 , 54 96 , 79 Quadratischer Verlust 472 , 02 1018 , 75 315 , 53 340 , 18 306 , 59 12 , 74 103 , 15 Cohens Kappa 0 , 96 0 , 93 0 , 98 0 , 98 0 , 98 0 , 98 0 , 96 Laufzeit in ms 0 , 05 0 , 10 0 , 03 0 , 04 0 , 12 0 , 14 0 , 13 Aufträge zuverlässig den zuvor ermittelten Clustern zuordnen kann. Dies gilt hier auch für den Fall einer kleinen Testinstanz(vgl. Testinstanz S2) und somit wenigen historischen Aufträgen pro Cluster. 6.1.3.2 Ermittlung von Kontingenztafeln Während im vorherigen Abschnitt die Effektivität auf Basis von Metriken, die für jede Testinstanz jeweils einen Ergebniswert ermitteln, bestimmt worden ist, wird in diesem Abschnitt die Testinstanz R2 näher untersucht, da für diese die im Vergleich zu anderen Testinstanzen schlechtesten Ergebnisse erzielt worden sind. Hierfür wird die für die Kappa-Metrik erzeugte Kontingenztafel, die aufzeigt, wie oft die Aufträge, die zu einem Cluster gehören, durch den Klassifikator diesem Cluster zugeordnet worden sind bzw. welchen anderen Clustern sie zugewiesen wurden, näher untersucht. Auf diese Weise lässt sich ermitteln, welche Cluster sich besonders ähnlich sind, weshalb Aufträge dieser Cluster besonders häufig verwechselt werden. Des Weiteren kann jede Zelle dieser Kontingenztafel durch eine Häufigkeitsverteilung angereichert werden, die aufzeigt, welche Zugehörigkeitswahrscheinlichkeit durch den Klassifikator bei der Klassierung zu dem entsprechenden Cluster ermittelt worden ist. Die Ergebnisse für die neun Cluster C 1 ∗ bis C 9 ∗ der Testinstanz R2 nach Durchführung einer zehnfachen stratifizierten Kreuzvalidierung sind in Tabelle 6.5 aufgeführt. Es zeigt sich, dass der Großteil der Aufträge korrekt klassiert wurde(vgl. die Diagonale der Matrix). Einige der Aufträge wurden hingegen einem falschen Cluster zugeordnet, z. B. wurden 93 Aufträge, die zu Cluster C 7 ∗ gehören, durch den Klassifikator dem Cluster C 1 ∗ zugeordnet(vgl. Zelle C 7 ∗ - C 1 ∗ ). Die hierbei ermittelten Zugehörigkeitswahrscheinlichkeiten sind exemplarisch für die Zellen C 5 ∗ - C 8 ∗ und C 7 ∗ - C 1 ∗ in Form einer Häufigkeitsverteilung in Tabelle 6.6 aufgeführt. Als Vergleich dienen die Häufigkeitsverteilungen der berechneten Zugehörigkeitswahrscheinlichkeiten der jeweils korrekt klassierten Aufträge und somit der Zellen C 5 ∗ - C 5 ∗ sowie C 7 ∗ - C 7 ∗ . Es zeigt sich, dass bei einer korrekten Klassierung die Zugehörigkeitswahrscheinlichkeiten häufiger im Intervall(0 , 9; 1 , 0] liegen( 99 , 3% für C 5 ∗ - C 5 ∗ und 87 , 9% für C 7 ∗ - C 7 ∗ ), als dies bei den falschen Klassierungen der Fall ist( 33 , 3% für 160 6 Validierung Tabelle 6.5: Kontingenztafel für Testinstanz R2 nach Durchführung einer zehnfachen stratifizierten Kreuzvalidierung Anz. Zuordnungen Rater 1 Anz. Zuordnungen Rater 2 C 1 ∗ C 2 ∗ C 3 ∗ C 4 ∗ C 5 ∗ C 6 ∗ C 7 ∗ C 8 ∗ C 9 ∗ C 1 ∗ 1005 0 14 0 0 1 37 0 3 C 2 ∗ 0 1362 0 24 0 1 1 49 0 C 3 ∗ 0 0 1799 56 12 0 0 0 0 C 4 ∗ 0 1 33 1165 0 0 33 0 0 C 5 ∗ 0 4 13 0 403 0 0 60 0 C 6 ∗ 5 2 0 0 0 910 72 4 18 C 7 ∗ 93 0 0 0 0 11 1441 0 0 C 8 ∗ 0 4 18 1 0 0 0 612 2 C 9 ∗ 14 0 0 0 0 30 0 21 666 Tabelle 6.6: Durch den Klassifikator ermittelte Zugehörigkeitswahrscheinlichkeiten für vier ausgewählte Zellen der Kontingenztafel von Testinstanz R2 Zugehörigkeitswahrscheinlichkeit [0,0;0,1] (0,1;0,2] (0,2;0,3] (0,3;0,4] (0,4;0,5] (0,5;0,6] (0,6;0,7] (0,7;0,8] (0,8;0,9] (0,9;1,0] Anteil Zuordnungen in% C 5 ∗ - C 5 ∗ C 5 ∗ - C 8 ∗ C 7 ∗ - C 1 ∗ C 7 ∗ - C 7 ∗ 0000 0000 0000 0000 0 , 5 11 , 7 0 0 , 1 0 , 2 38 , 3 14 , 0 0 , 9 0 8 , 3 40 , 9 1 , 2 0 6 , 7 3 , 2 4 , 4 0 1 , 7 2 , 1 5 , 5 99 , 3 33 , 3 39 , 8 87 , 9 C 5 ∗ - C 8 ∗ und 39 , 8% für C 7 ∗ - C 1 ∗ ). Letztere weisen zudem eine größere Streuung über die Intervalle auf. 6.2 Validierung der multikriteriellen Ablaufplanung der Abfertigungsprozesse 161 6.2 Validierung der multikriteriellen Ablaufplanung der Abfertigungsprozesse Im Folgenden erfolgt die Validierung der in Abschnitt 5.3 beschriebenen multikriteriellen Ablaufplanung. Hierzu werden zunächst die verwendeten Testinstanzen in Abschnitt 6.2.1 dargestellt. Für die Validierung werden anschließend drei Experimente durchgeführt. Das erste dient der Ermittlung geeigneter Parameterwerte für die verschiedenen Parameter des genetischen Algorithmus. Auf Basis der ermittelten Parameterkonfiguration werden anschließend im zweiten Experiment die Testinstanzen in der proaktiven Ablaufplanung verwendet und die Effektivität und Effizienz des Verfahrens werden anhand verschiedener Metriken bestimmt. Die Berücksichtigung der Stabilitätszielfunktion erfolgt abschließend im dritten Experiment. 6.2.1 Testinstanzen für die Validierung der multikriteriellen Ablaufplanung Für die Validierung der proaktiven Ablaufplanung werden drei Testinstanzen verwendet. Die einzuplanenden Aufträge der ersten Instanz(R5) werden aus der realen Testinstanz R1 23 nach Durchführung des Clusteringverfahrens, aber vor der Durchführung der Klassifizierung für R1, entnommen. Hierdurch wird sichergestellt, dass diese Aufträge für den Klassifikator unbekannt sind und somit die Situation bei einer realen Ablaufplanung nachgebildet wird, mit dem Unterschied, dass die tatsächlichen Bearbeitungszeiten für die Evaluation der Ablaufplanung zur Verfügung stehen. Der für die Testinstanz R1 trainierte Klassifikator wird im Folgenden zur Klassierung der Aufträge aus R5 verwendet. Des Weiteren werden zwei synthetische Testinstanzen(S4 und S5) mit Hilfe der gleichen Verteilungen, die für die Erstellung der Testinstanzen S1 bzw. S2 24 verwendet wurden, erzeugt. Zur Klassierung wird der für diese Instanzen trainierte Klassifikator verwendet. In Tabelle 6.7 sind die Aufteilungen der drei Testinstanzen in Auf-( e 1 = 0), Abbau-( e 1 = 1) und Transferaufträge( e 1 = 2) sowie eine weitere Unterteilung nach dem verwendeten Ladehilfsmittel( e 2 = 0 für Luftfrachtcontainer und e 2 = 1 für-paletten) aufgeführt. In Abhängigkeit der Auftragsgröße werden in den verwendeten Testinstanzen zwischen zwei und fünf Mitarbeiter benötigt, um einen Auftrag zu bearbeiten. Die Durchschnittswerte liegen für R5 bei 3 , 1 Mitarbeitern, für S4 bei 2 , 0 und für S5 bei 3 , 6 Mitarbeitern. Die für die Testinstanzen zur Verfügung stehenden Ressourcen sind in Tabelle 6.8 aufgeführt. Es gibt Arbeitsstationen, die ausschließlich für Aufbauaufträge(bezeichnet mit BU) bzw. für Abbauaufträge(bezeichnet mit BD) verwendet werden können. Die Transferarbeitsstationen können für beide vorgenannten Auftragstypen sowie für Transferaufträge verwendet werden. Des Weiteren ist die zur Verfügung stehende Menge an Personal für Auf- und Abbauaufträge aufgeführt. Für die reale Testinstanz R5 wurde schließlich, auf Basis des realen Luftfrachtterminals, ein vereinfachtes Netzwerkmodell 23 Vgl. Abschnitt 6.1.1. 24 Vgl. Abschnitt 6.1.1. 162 6 Validierung Tabelle 6.7: Anzahl der einzuplanenden Aufträge in den realen und synthetischen Testinstanzen, unterteilt nach den nicht(quasi)stetigen Eigenschaften Instanz Anz. einzuplanende Aufträge e 1 = 0 e 1 = 1 e 1 = 2 e 2 = 0 e 2 = 1 e 2 = 0 e 2 = 1 e 2 = 0 e 2 = 1 R5 42 39 40 54 0 0 S4 10 15 20 0 0 10 S5 15 15 20 20 10 10 Tabelle 6.8: Für die proaktive Ablaufplanung zur Verfügung stehende Ressourcen Instanz Anz. Arbeitsstationen Anz. Mitarbeiter BU 1 BD 2 Transfer BU 1 BD 2 R5 11 19 15 40 50 S4 36 3 12 16 S5 59 6 45 36 Legende: 1 Build-up= Aufbauauftrag 2 Break-down= Abbauauftrag des innerbetrieblichen Transportsystem erstellt. Für die synthetischen Instanzen S4 und S5 wurde ein abstraktes Netzwerkmodell mit verschiedenen Lagerbereichen und Transportstrecken konstruiert. Als initialer Planungszeitpunkt für die proaktive Ablaufplanung wird jeweils 7:30 Uhr und als Planungszyklus wird eine Stunde festgesetzt. Weitere Planungszeitpunkte werden für die ersten zwei Experimente(siehe Abschnitt 6.2.2 und 6.2.3) nicht betrachtet. Des Weiteren existiert für diese kein in der Ausführung befindlicher Ablaufplan aus einem vorherigen Planungszyklus. Eine Berücksichtigung des Zielkriteriums der Stabilität entfällt daher bei den zwei nachfolgenden Experimenten. Dieses wird in dem Experiment in Abschnitt 6.2.4 berücksichtigt. Für die Instanz R5 werden Aufträge mit einem Fälligkeitstermin zwischen 10:00 Uhr und 14:00 Uhr und für die Instanzen S4 und S5 Aufträge mit einem Fälligkeitstermin zwischen 10:00 Uhr und 12:00 Uhr betrachtet. 6.2.2 Parametrisierungsexperiment für den genetischen Algorithmus Mit dem folgenden Parametrisierungsexperiment soll eine geeignete Konfiguration für die verschiedenen Parameter des genetischen Algorithmus ermittelt werden. Eine Auflistung aller Parameter ist in Tabelle 6.9 aufgeführt. Einige Parameterwerte sind bereits im 6.2 Validierung der multikriteriellen Ablaufplanung der Abfertigungsprozesse 163 Tabelle 6.9: Für die proaktive Ablaufplanung zu ermittelnde Parameterwerte und festgelegte Parameter Parameter Populationsgröße Rekombinationswahrscheinlichkeit Verhältnis erster zu zweiter Mutationsart Mutationswahrscheinlichkeit erste Mutationsart Mutationswahrscheinlichkeit zweite Mutationsart Parameter ω Parameter ϕ Anz. Szenarien+ Anz. Spezialszenarien Prozentsatz des Quantils für alle Cluster Anzahl Klassen pro Cluster Gewichtungsfaktoren der Aufträge Symbol Parameterwerte popsize p cx p mut pa mut pm mut 15, 30 und 50 50%, 70% und 90% 0:1, 1:2, 2:1, 1:0 auto. 1 , 3% und 6% auto. 1 , 3% und 6% ω ϕ |S Z| p C n C ∗ w a 10% 5% 50+ 4 80% 10 w a = 1 / |A| Legende: 1 auto.= Automatische Festlegung der Wahrscheinlichkeit zu 1 / |A| % Vorhinein festgelegt(Parameter ω , ϕ , SZ, p C , n C ∗ und w a ), die anderen werden nacheinander auf Basis der im vorherigen Abschnitt beschriebenen drei Testinstanzen auf ihre Eignung hin überprüft. Die Eignung wird anhand der Entwicklung der Zielfunktionswerte der ersten 25 und zweiten 26 Zielfunktion sowie des Verlaufs der Strafkosten 27 für die Überschreitung der Restriktion(5.22) auf Seite 109 für die Individuen der Front F 1 bzw. durch diese kodierten Ablaufpläne über einen Zeitverlauf von 15 Minuten bemessen. Jede Parameterkonfiguration wird in drei voneinander unabhängigen Läufen ausgewertet und jeweils das arithmetische Mittel gebildet. Die 15 Minuten beginnen nach der Erstellung der initialen Szenariomenge und Population P 0 . Die benötigten Laufzeiten zu deren Erstellung sind in Tabelle 6.10 für jede Testinstanz aufgeführt. Die Zeiten beziehen sich auf die Erstellung von 50 Szenarien und 4 Spezialszenarien sowie 30 Individuen für die Initialpopulation P 0 und ergeben sich aus dem arithmetischen Mittel der in dem Parametrisierungsexperiment ermittelten Laufzeiten. Die Ergebnisse des Parametrisierungsexperiments sind in den Abbildungen 6.2–6.6 dargestellt. Die Abbildungen 6.2(a)–6.2(i) zeigen den Einfluss des Parameters popsize auf die Verläufe 28 der beiden Zielfunktionswerte sowie der Strafkosten aufgrund der 25 Siehe Gleichung(5.19) auf Seite 108. 26 Siehe Gleichung(5.24) auf Seite 109. 27 Siehe Gleichung(5.33) auf Seite 130. 28 Der zu Beginn nicht monoton fallende(erste Zielfunktion) bzw. monoton steigende(zweite Zielfunktion) Verlauf der Zielfunktionswerte lässt sich durch die Dominanz von Individuen bzw. Ablaufplänen mit geringeren Strafkosten in dem verwendeten Selektionsmechanismus des NSGA-II-Algorithmus erklären. Sobald eine zulässige Lösung gefunden worden ist, enthält die Front F 1 ausschließlich zulässige Lösungen und die eigentliche Optimierung der Zielfunktionswerte beginnt. 164 6 Validierung Tabelle 6.10: Arithmetisches Mittel der benötigten Zeiten zur Erstellung von 54 Szenarien und einer Initialpopulation P 0 von 30 Individuen für drei Testinstanzen Instanz Szenarioerstellung Initialpopulation in s in s R5 73 S4 21 S5 35 25 7 12 Restriktionsverletzung. Für die erste Zielfunktion wird bei Verwendung einer mittleren Anzahl von 30 Individuen für den Populationsgrößenparameter popsize bei allen drei Testinstanzen die geringste Anzahl säumiger Aufträge erzielt. Ein ähnliches Bild zeigt sich bei der Wahl dieses Parameters für die zweite Zielfunktion. Hier wird für die Instanz S5 eine hundertprozentige Robustheit, für R5 der beste Wert und für S4 der zweithöchste Zielfunktionswert, der zudem sehr nahe am höchsten Wert liegt, erzielt. Für zwei der drei Testinstanzen(vgl. Abbildung 6.2(g) und 6.2(i)) wird mit 30 Individuen nach ca. 270 s bzw. 160 s eine Lösung gefunden, die die durch den Parameter ω vorgegebene Restriktion einhält. Für die Testinstanz S4 konnte innerhalb des Zeitraums von 15 Minuten lediglich mit der Parametereinstellung von 15 Individuen eine solche Lösung gefunden werden. Diese Einstellung führte für die Testinstanz R5 allerdings nicht zu einem Absinken der Strafkosten auf 0%. Für die nachfolgenden Parameterauswertungen wird daher die Populationsgröße auf 30 Individuen festgelegt. Die Ergebnisse für die Auswertung des Rekombinationswahrscheinlichkeitsparameters p cx sind in den Abbildungen 6.3(a)–6.3(i) dargestellt. Für eine Rekombinationswahrscheinlichkeit von 90% werden für die Testinstanzen R5 und S4 die besten Werte sowohl für die erste als auch die zweite Zielfunktion erzielt. Bei der Instanz S5 wird hingegen das schlechteste Ergebnis im Vergleich zu den beiden anderen Parametereinstellungen erreicht. Dieses liegt allerdings nahe an dem jeweils besten Wert. Eine zulässige Lösung wird bei Wahl dieses Parameterwertes für die Instanz R5 nach ca. 430 s und für S5 nach ca. 110 s gefunden. Für die Instanz S4 konnte bei keinem der getesteten Parameterwerte eine zulässige Lösung gefunden werden. Bei einer Rekombinationswahrscheinlichkeit von 90% werden hier jedoch die geringsten Strafkosten erzielt. Für die nachfolgenden Parameterauswertungen wird der Parameter p cx auf 90% festgelegt. Die Verläufe der Zielfunktionswerte und Strafkosten für den Parametertest zur Variation des Verhältnisses der ersten zur zweiten Mutationsart sind in den Abbildungen 6.4(a)–6.4(i) dargestellt. In den Testinstanzen R5 und S4 zeigen sich bei einer 2:1-Verwendung der ersten(Mutation der Aufträge) zur zweiten(Mutation der Maschinenzuweisung) Mutationsart die besten Ergebnisse für die erste und zweite Zielfunktion. Für die Testinstanz S5 wird jeweils das zweitbeste Ergebnis für die erste und zweite Zielfunktion erzielt. Für die Strafkosten zeigt sich, dass für R5 nach 120 s und für S5 nach 420 s eine zulässige Lösung ermittelt werden kann, was dem besten bzw. drittbesten Ergebnis entspricht. In der Instanz S4 konnte erneut für keine der Parametereinstellungen eine zulässige Lösung innerhalb der 15 Minuten ermittelt werden. 6.2 Validierung der multikriteriellen Ablaufplanung der Abfertigungsprozesse 165 Anz. säumiger Aufträge 31 11 11 28 9 8 25 0 450 (a) R5 100 7 900 0 450 (b) S4 100 5 900 0 450 (c) S5 100 900 Robustheit in % 50 50 50 0 0 450 (d) R5 2 1 0 900 0 450 (e) S4 8 4 0 900 0 450 (f) S5 900 2 15 30 50 1 Strafkosten in % 0 0 0 0 450 900 0 450 900 0 450 900 Laufzeit in s Laufzeit in s Laufzeit in s (g) R5 (h) S4 (i) S5 Abbildung 6.2: Durchschnittliche Verläufe der Zielfunktionswerte und Strafkosten unter Variation der Populationsgröße Für die weiteren Auswertungen wird der Parameter p mut auf ein Verhältnis von 2:1 festgesetzt. Die Abbildungen 6.5(a)–6.5(i) stellen den Einfluss der Mutationswahrscheinlichkeit der ersten Mutationsart auf den Verlauf der Zielfunktionswerte und Strafkosten dar. Die Wahl einer automatisch bestimmten Mutationswahrscheinlichkeit( 1 / |A| %) führte für die Testinstanz R5 zu dem jeweils besten Ergebnis für die erste und zweite Zielfunktion. Für S4 wird bei den beiden Zielfunktionen jeweils das schlechteste Ergebnis und für die Strafkosten das zweitbeste Ergebnis erzielt. Bei der Testinstanz S5 wird für die erste Zielfunktion das schlechteste und für die zweite Zielfunktion und Strafkosten das zweitbeste 166 6 Validierung Anz. säumiger Aufträge 33 12 11 29 10 8 25 0 450 (a) R5 100 8 900 0 450 (b) S4 100 5 900 0 450 (c) S5 100 900 Robustheit in % 50 50 50 0 0 450 (d) R5 4 2 0 900 0 450 (e) S4 10 5 0 900 0 450 (f) S5 900 2 50% 70% 90% 1 Strafkosten in % 0 0 0 0 450 900 0 450 900 0 450 900 Laufzeit in s Laufzeit in s Laufzeit in s (g) R5 (h) S4 (i) S5 Abbildung 6.3: Durchschnittliche Verläufe der Zielfunktionswerte und Strafkosten unter Variation der Rekombinationswahrscheinlichkeit für drei Testinstanzen mit einer Populationsgröße von 30 Ergebnis erreicht. Die im Vergleich hierzu guten Ergebnisse für die Parametereinstellung von 6% müssen im Hinblick auf die Strafkosten in der Testinstanz R5 beurteilt werden. Hier konnten die Strafkosten nicht auf 0% gesenkt werden. Der Parameter pa mut wird daher im Folgenden auf auto. festgelegt, da mit diesem die besten Resultate in der realen Testinstanz R5 erzielt werden konnten. Die Auswertung des Mutationswahrscheinlichkeitsparameters pm mut für die zweite Mutationsart ist in den Abbildungen 6.6(a)–6.6(i) dargestellt. Die Parametereinstellung von 3% wird nicht näher betrachtet, da mit dieser in keiner Testinstanz eine zulässige 6.2 Validierung der multikriteriellen Ablaufplanung der Abfertigungsprozesse 167 Anz. säumiger Aufträge 29 11 11 26 9 8 23 0 450 (a) R5 100 7 900 0 450 (b) S4 100 5 900 0 450 (c) S5 100 900 Robustheit in % 50 50 50 0 0 450 (d) R5 2 1 0 900 0 450 (e) S4 10 5 0 900 0 450 (f) S5 900 4 0:1 1:2 2:1 1:0 2 Strafkosten in % 0 0 0 0 450 900 0 450 900 0 450 900 Laufzeit in s Laufzeit in s Laufzeit in s (g) R5 (h) S4 (i) S5 Abbildung 6.4: Durchschnittliche Verläufe der Zielfunktionswerte und Strafkosten unter Variation des Verhältnisses der ersten zur zweiten Mutationsart für drei Testinstanzen mit einer Populationsgröße von 30 und einer Rekombinationswahrscheinlichkeit von 90% Lösung gefunden werden konnte. Mit der höchsten Parametereinstellung von 6% wird für die Testinstanz R5 das zweitbeste Ergebnis für die erste und das beste Ergebnis für die zweite Zielfunktion erreicht. Für S5 zeigt sich das umgekehrte Bild. Für S4 wird in beiden Zielfunktionen das beste Ergebnis erzielt. Für S4 konnte erneut mit keiner Parametereinstellung eine zulässige Lösung innerhalb von 15 Minuten gefunden werden. Es werden mit 6% jedoch die geringsten Strafkosten erzielt. Der Parameter pm mut wird somit auf den Wert 6% festgelegt. 168 6 Validierung Anz. säumiger Aufträge Robustheit in % 33 11 10 29 9 7 25 0 450 (a) R5 100 7 900 0 100 450 (b) S4 4 900 0 100 450 (c) S5 900 50 50 50 0 0 450 (d) R5 2 1 0 900 0 450 (e) S4 8 4 0 900 0 450 (f) S5 900 4 auto. 3% 6% 2 0 0 0 0 450 900 0 450 900 0 450 900 Laufzeit in s Laufzeit in s Laufzeit in s (g) R5 (h) S4 (i) S5 Abbildung 6.5: Durchschnittliche Verläufe der Zielfunktionswerte und Strafkosten unter Variation der Mutationswahrscheinlichkeit der ersten Mutationsart für drei Testinstanzen mit einer Populationsgröße von 30, einer Rekombinationswahrscheinlichkeit von 90% und einem Verhältnis der ersten zur zweiten Mutationsart von 2:1 Strafkosten in % 6.2 Validierung der multikriteriellen Ablaufplanung der Abfertigungsprozesse 169 Anz. säumiger Aufträge Robustheit in % 31 11 10 28 9 8 25 0 450 (a) R5 100 7 900 0 100 450 (b) S4 6 900 0 100 450 (c) S5 900 50 50 50 0 0 450 (d) R5 2 1 0 900 0 450 (e) S4 8 4 0 900 0 450 (f) S5 900 4 auto. 3% 6% 2 0 0 0 0 450 900 0 450 900 0 450 900 Laufzeit in s Laufzeit in s Laufzeit in s (g) R5 (h) S4 (i) S5 Abbildung 6.6: Durchschnittliche Verläufe der Zielfunktionswerte und Strafkosten unter Variation der Mutationswahrscheinlichkeit der zweiten Mutationsart für drei Testinstanzen mit einer Populationsgröße von 30, einer Rekombinationswahrscheinlichkeit von 90%, einem Verhältnis der ersten zur zweiten Mutationsart von 2:1 und einer Mutationswahrscheinlichkeit von 1 / |A| % (Parameter auto.) für die erste Mutationsart Strafkosten in % 170 6 Validierung In dem vorherigen Parametrisierungsexperiment zeigte sich, dass für die Zielfunktionswerte der ersten Zielfunktion im Verlauf der 15 Minuten nur geringe Verbesserungen erzielt werden können. Dies ist damit zu erklären, dass bei der Erstellung der Initialpopulation P 0 , die für die Spezialszenarien bereits erstellten und hinsichtlich der ersten Zielfunktion optimierten Individuen übernommen werden. 29 Somit sind bereits zu Beginn des Verfahrens gute Lösungen für die erste Zielfunktion in der Population vorhanden. Die verbleibenden säumigen Aufträge am Ende der 15 Minuten lassen sich zum einen mit fehlenden Ressourcen, insbesondere Maschinen, und zum anderen mit der durch den Parameter ω erzeugten Restriktion erklären. Für die Testinstanz S4 wird nur in einem der fünf Fälle mit den getesteten Parametereinstellungen eine zulässige Lösung innerhalb von 15 Minuten gefunden. Dies lässt sich mit einem für diese Testinstanz zu restriktiv gewählten Parameter ω erklären. Eine Reduktion des Parameters um die jeweilige Höhe der Strafkosten am Ende der Laufzeit wäre eine Alternative. Im Folgenden werden für den genetischen Algorithmus der proaktiven Ablaufplanung 30 Individuen pro Generation verwendet. Die Rekombinationswahrscheinlichkeit wird auf 90% festgelegt. Die Auswahlhäufigkeit zwischen erster und zweiter Mutationsart wird mit 2:1 definiert. Somit liegt die Präferenz in der Ermittlung alternativer Auftragsreihenfolgen auf den Arbeitsstationen im Vergleich zum Auffinden alternativer Zuordnungen der Aufträge zu den Arbeitsstationen. Die Mutationswahrscheinlichkeit der ersten Mutationsart wird in Abhängigkeit der Anzahl einzuplanender Aufträge bestimmt und berechnet sich über 1 / |A| %. Die Mutationswahrscheinlichkeit der zweiten Mutationsart wird auf 6% festgelegt. 6.2.3 Effektivität und Effizienz der proaktiven Ablaufplanung Im Folgenden wird die Effektivität und Effizienz der proaktiven Ablaufplanung untersucht. Hierzu werden die im vorausgegangenen Parametrisierungsexperiment ermittelten Parameter sowie die in Tabelle 6.9 bereits festgelegten Parametereinstellungen 30 verwendet und die Ablaufplanung wird für die in Abschnitt 6.2.1 beschriebenen Testinstanzen durchgeführt. Zur Bemessung der Effektivität des Verfahrens wird der durch die proaktive Ablaufplanung ermittelte Ablaufplan mit der höchsten Robustheit(im Folgenden als RA bezeichnet) sowie der Ablaufplan mit der geringsten Anzahl säumiger Aufträge(im Folgenden als PA bezeichnet) unter Berücksichtigung der generierten Szenarien mit den folgenden alternativ 31 erstellten Ablaufplänen hinsichtlich der Einhaltung der Parameter ω und ϕ verglichen: • Erwartungswertoptimaler Ablaufplan(EA): Bei diesem Ablaufplan erfolgt die Optimierung hinsichtlich eines Erwartungswertszenarios für die Bearbeitungszeiten der Aufträge(vgl. Ablaufplan ap ∗ sz ex auf Seite 124). 29 Siehe Abschnitt 5.3.3.2 in dem das Vorgehen erläutert wird. 30 Die Anzahl der generierten Szenarien wird in diesem Experiment auf 100 erhöht. Hinzu kommen, wie zuvor, die vier Spezialszenarien. 31 Siehe Abschnitt 5.3.3.2 für eine Erläuterung, wie diese Ablaufpläne erstellt werden. 6.2 Validierung der multikriteriellen Ablaufplanung der Abfertigungsprozesse 171 Tabelle 6.11: Vergleich der Ablaufpläne RA, PA, EA und CA anhand von vier Metriken für die verschiedenen Testinstanzen Inst. A.-Plan Anz. sz> ω Max. Regret ∅ Regret Robustheit in% in% in% RA R5 PA EA CA 0 6 , 67 2 , 44 96 , 15 0 6 , 67 2 , 44 96 , 15 6 20 , 57 4 , 41 68 , 27 6 22 , 29 4 , 43 60 , 58 RA S4 PA EA CA 12 10 , 48 4 , 41 62 , 50 12 10 , 48 4 , 41 62 , 50 21 27 , 27 4 , 60 51 , 92 18 21 , 82 3 , 64 68 , 27 RA S5 PA EA CA 0 5 , 19 0 , 75 100 , 00 0 5 , 19 0 , 75 100 , 00 2 14 , 44 1 , 82 96 , 15 6 14 , 44 4 , 46 64 , 42 • Optimaler Ablaufplan für die geschätzte Bearbeitungszeit(CA): Unter Verwendung einer Formel zur Abschätzung der Bearbeitungszeit jedes Auftrags wird ein optimaler Ablaufplan erstellt(vgl. Ablaufplan ap ∗ sz co auf Seite 124). Grundlage des Vergleichs bildet der jeweils szenariooptimale Ablaufplan. Dieser Ablaufplan entspricht dem für das jeweilige Szenario besten Ablaufplan. 32 Dieser würde ausgewählt werden, wenn ein deterministisches Planungsumfeld vorliegen würde, bei dem das eintretende Bearbeitungszeitszenario zu Beginn der Planung bekannt wäre. Das Experiment wird unter der Annahme, dass die rollierende Ablaufplanung einen Planungszyklus von einer Stunde aufweist, über einen Zeitraum von jeweils 25 Minuten durchgeführt und wird für jede Testinstanz dreimal wiederholt. Aus den jeweiligen Ergebnissen wird schließlich das arithmetische Mittel gebildet. Die Ergebnisse der Auswertung sind in Tabelle 6.11 aufgeführt. Die Werte für die beiden Ablaufpläne RA und PA sind identisch, da in den jeweiligen Testinstanzen die Front F 1 bei diesem Experiment ausschließlich eine Lösung enthielt, die somit zugleich dem Ablaufplan mit der geringsten Anzahl säumiger Aufträge sowie mit der höchsten Robustheit entsprach. Hierbei zeigt sich, dass aufgrund der Definition der beiden Zielfunktionen eine Reduzierung der durchschnittlichen Anzahl säumiger Aufträge tendenziell mit einer Erhöhung des hier beschriebenen Robustheitsmaßes einhergeht. Eine mögliche Ausnahme, in der beide Zielfunktionen konfliktär zueinander sind und F 1 damit mehrere Ablaufpläne enthielte, ergibt sich in dem folgenden Fall: Ein Ablaufplan nimmt für die Gleichung(5.17) bei einigen Szenarien im Vergleich zu den 32 Hierfür wird auf den für das jeweilige Szenario mit einem genetischen Algorithmus erstellten Ablaufplan zurückgegriffen(siehe Fußnote 74 auf Seite 123). 172 6 Validierung anderen besonders kleine Werte an. Ein anderer Ablaufplan nimmt für den überwiegenden Teil der Szenarien bei der Gleichung(5.17) kleinere Werte als der erste Ablaufplan an. Für einige Szenarien hingegen werden besonders große Werte erzielt, die sich aber noch innerhalb der durch ω festgelegten Restriktion befinden. In diesem Fall könnte der erste im Vergleich zum zweiten Ablaufplan in Abhängigkeit des Parameters ϕ bessere Werte für die erste, aber schlechtere Werte für die zweite Zielfunktion erreichen. Beide Pläne wären somit pareto-optimal. Des Weiteren zeigt sich, dass der Ablaufplan RA bzw. PA in den beiden Testinstanzen R5 und S5 die durch den Parameter ω vorgegebene Restriktion für alle betrachteten Szenarien einhält(siehe dritte Spalte). Der maximale Regret betrug dabei 6 , 67% bzw. 5 , 19% und lag somit unter dem für den Parameter ω festgesetzten 10%(siehe vierte Spalte). Für den Ablaufplan CA wurde der Parameter ω jeweils sechsmal in R5 bzw. S5 und für EA sechs- bzw. zweimal überschritten. Der maximale Regret lag für R5 bei beiden Ablaufplänen über 20% und für S5 bei 14 , 44%. Wie sich schon in dem vorherigen Parametrisierungsexperiment zeigte, ist es für die Testinstanz S4 sehr schwer eine zulässige Lösung zu ermitteln. Dementsprechend stellt keiner der hier ermittelten Ablaufpläne eine zulässige Lösung für diese Instanz dar. Die Anzahl an Szenarien, bei denen ω überschritten wird, und der maximale Regret sind für RA bzw. PA aber erneut deutlich niedriger als für die beiden anderen Ablaufpläne. Für den durchschnittlichen Regret und die ermittelte Robustheit zeigt sich ein ähnliches Bild wie zuvor. Der Ablaufplan RA bzw. PA erzielt hier für die Testinstanzen R5 und S5 die besten Ergebnisse mit einem durchschnittlichen Regret von 2 , 44% bzw. 0 , 75%(siehe fünfte Spalte) sowie einer Robustheit von 96 , 15% und 100%(siehe sechste Spalte). Für die Testinstanz S4 werden die jeweils zweitbesten Ergebnisse erzielt. Hier werden mit dem Ablaufplan CA die besten Werte erreicht, wobei die ermittelte Robustheit vor dem Hintergrund einer nicht zulässigen Lösung zu sehen ist. Zur Beurteilung der Effizienz des Verfahrens werden die Laufzeiten der einzelnen Schritte des genetischen Algorithmus zur proaktiven Ablaufplanung näher betrachtet. Zur Erstellung der 100 Szenarien und 4 Spezialszenarien wird annähernd doppelt so viel Zeit benötigt wie zur Erstellung der 54 Szenarien in Tabelle 6.10. Die Zeit zur Erstellung der Initialpopulation bleibt aufgrund des nicht geänderten Parameters hingegen gleich. In dem iterativen Prozess der Verbesserung der Individuen durch Anwendung der genetischen Operatoren macht die Evaluation der Individuen den größten Teil der benötigten Zeit aus. Hierbei ist die Zeit zur Ermittlung des WorstCase-Szenario sz dis η für ein Individuum η zu vernachlässigen(siehe Tabelle 6.12). Die sich aus dem Modell(5.32) ergebenden Instanzen sind nach Anwendung des Pre-SolveSchrittes des Optimierers Gurobi 33 klein genug, dass für die größte Testinstanz R5 im Durchschnitt nur 21 , 03 ms benötigt werden, um das Modell optimal zu lösen. Der Hauptanteil der Zeit bei der Evaluation eines Individuums η wird für die Ermittlung des optimalen Ablaufplans ap ∗ sz d η is für das Worst-Case-Szenario sz dis η benötigt. Für die Testinstanz R5 sind dies im Durchschnitt 7 , 5 s, für S4 2 , 1 s und für S5 3 , 7 s. Dieser Schritt muss für jedes Individuum in jeder Iteration durchgeführt werden und hat somit 33 Verwendet wurde die Version 6.0.5. 6.2 Validierung der multikriteriellen Ablaufplanung der Abfertigungsprozesse 173 Tabelle 6.12: MIP-Statistiken des Modells zur Berechnung des Worst-Case-Szenarios nach dem Pre-Solve-Schritt für die verschiedenen Testinstanzen Inst. Anz. Anz. Anz. Anz. Solving Rows Columns Nonzeros Binaries Time in ms R5 43 , 03 35 , 38 S4 16 , 82 16 , 64 S5 13 , 45 13 , 21 131 , 45 52 , 50 40 , 86 8 , 14 21 , 03 3 , 21 10 , 00 2 , 72 10 , 00 Tabelle 6.13: Anzahl der Aufträge mit unterschiedlichem Ausführungsstatus für die verschiedenen Testinstanzen zum Zeitpunkt t 1 = 8:30 Uhr Instanz R5 S4 S5 |A C t 1 | 11 1 8 |A R t 1 | 41 12 20 |A F t 1 | 38 12 17 |A P t 1 | 85 30 45 |A N t 1 | 16 28 45 entscheidenden Einfluss auf die innerhalb eines vorgegebenen Zeitraums durchführbaren Evaluationen. 6.2.4 Betrachtung der rollierenden Ablaufplanung In dem folgenden Experiment wird die Stabilitätszielfunktion zusätzlich zu den bereits zuvor betrachteten zwei Zielfunktionen berücksichtigt. 34 Hierfür wird die Situation zum Zeitpunkt 8:55 Uhr betrachtet, zu dem ein Ablaufplan ap p1 aus der Menge AP 1 auszuwählen und um 9:00 Uhr auszuführen ist. Diese Menge wurde von 8:30 Uhr bis 8:55 Uhr erstellt und berücksichtigte den in der Ausführung befindlichen Ablaufplan 35 ap p0 für die Stabilitätsberechnungen sowie für die Instanz R5 alle Aufträge mit einem Fälligkeitstermin bis 15:00 Uhr und für die Instanzen S4 und S5 Aufträge mit einem Fälligkeitstermin bis 13:00 Uhr. 36 In Tabelle 6.13 ist die Anzahl der Aufträge mit unterschiedlichem Ausführungsstatus für die drei Testinstanzen zum Zeitpunkt t 1 = 8:30 Uhr aufgelistet. Die Zuordnungen der Aufträge aus A R t 1 und A F t 1 sind fix, beeinflussen jedoch die Ablaufplanung. Aufträge atiuosn A b P t e 1 rüköcknsniecnhtuigmt gweperladnetn.w 37 erSdoemn,itwsoibnedi Planänderungen durch die Stabilitätszielfunkfür die Erstellung der Ablaufplanmenge AP 1 34 Es wird erneut von der Annahme ausgegangen, dass der Planungszyklus eine Stunde beträgt und die Ablaufplanung über 25 Minuten durchgeführt wird. 35 Der Ablaufplan ap p0 ∈ AP 0 wurde um 7:55 Uhr ausgewählt und um 8:00 Uhr implementiert und ausgeführt. Die Menge AP 0 wurde von dem initialen Planungszeitpunkt um 7:30 Uhr bis um 7:55 Uhr erstellt(siehe Abschnitte 6.2.1 und 6.2.3). 36 Vgl. Abschnitt 6.2.1. 37 Vgl. das Modell(5.30) auf Seite 119 und die Erläuterungen in Abschnitt 5.3.2. 174 6 Validierung 1 1 0 , 5 0 , 5 s sched s sched 0 1 0 , 5 r ϕ sched 0 22 (a) 26 24 c sched 1 0 , 5 0 1 0 , 5 r ϕ sched 0 18 (b) F 1 F 2 PA RA SA 22 20 c sched s sched 0 1 0 , 5 r ϕ sched 0 22 (c) 26 24 c sched 28 Abbildung 6.7: Pareto-Fronten der pareto-optimalen Ablaufpläne für drei Testinstanzen: (a) Testinstanz R5(b) Testinstanz S4(c) Testinstanz S5 die Aufträge aus A P t 1 und A N t 1 einzuplanen, wobei die Aufträge aus A N t 1 erstmalig eingeplant werden. In den Abbildungen 6.7(a)–6.7(c) sind die verschiedenen Pareto-Fronten aus AP 1 für die drei Testinstanzen aufgeführt. 38 Für die Testinstanz R5 wurden 26 unterschiedliche Ablaufpläne ermittelt, von denen 14 auf F 1 entfallen und damit pareto-optimal sind. Für S4 befinden sich alle 8 ermittelten Pläne in der ersten Front, von denen jedoch keiner eine zulässige Lösung darstellt, da der Parameter ω nicht eingehalten wird. Für S5 sind schließlich 18 unterschiedliche Ablaufpläne ermittelt worden, von denen sich 12 in F 1 befinden. 38 Ablaufpläne, die hinsichtlich der Zielfunktionen und Strafkosten identisch waren, wurden entfernt. 6.2 Validierung der multikriteriellen Ablaufplanung der Abfertigungsprozesse 175 Tabelle 6.14: Vergleich der Ablaufpläne RA, PA und SA anhand von sechs Metriken für die verschiedenen Testinstanzen Inst. A.-Plan Anz. sz> ω Max. Regret in% ∅ Regret in% c sched r ϕ sched in% s sched in% RA R5 PA SA 0 6 , 93 3 , 69 22 , 26 85 , 58 44 , 71 0 6 , 93 3 , 69 22 , 26 85 , 58 44 , 71 0 9 , 90 6 , 94 25 , 54 18 , 27 49 , 29 RA S4 PA SA 2 13 , 79 4 , 11 18 , 78 56 , 73 36 , 64 2 13 , 79 4 , 11 18 , 78 56 , 73 36 , 64 25 13 , 79 7 , 71 20 , 87 5 , 77 40 , 91 RA S5 PA SA 0 7 , 78 1 , 54 22 , 65 99 , 04 30 , 06 0 10 , 00 1 , 34 22 , 41 99 , 04 29 , 91 0 10 , 00 4 , 24 25 , 20 66 , 35 38 , 47 Des Weiteren sind in den Abbildungen jeweils PA und RA sowie der Ablaufplan mit der höchsten Stabilität(im Folgenden als SA bezeichnet) aus der Front F 1 hervorgehoben. Für jede Testinstanz werden diese drei Ablaufpläne unter Berücksichtigung der generierten Szenarien und des zugehörigen szenariooptimalen Ablaufplans hinsichtlich der Einhaltung der Parameter ω und ϕ verglichen. Tabelle 6.14 zeigt die Ergebnisse der Auswertung. Im Gegensatz zu Abschnitt 6.2.3 sind bei diesem Experiment PA und RA für S5 nicht identisch, jedoch sehr ähnlich. Beide Ablaufpläne halten in R5 und S5 den Parameter ω für alle Szenarien ein und zeigen gute Werte für den durchschnittlichen Regret sowie für die Robustheit. Bei dem maximalen Regret erzielt RA in S5 die geringsten Werte auf Kosten eines leicht höheren durchschnittlichen Regrets im Vergleich zu PA. Auch in diesem Experiment konnte für die Testinstanz S4 kein zulässiger Ablaufplan gefunden werden(siehe dritte Spalte). Der Parameter ω wird jedoch durch PA bzw. RA in wesentlich mehr Szenarien eingehalten als durch SA. Für SA zeigt sich zudem in jeder Testinstanz der negative Einfluss einer hohen Planstabilität sowohl auf den maximalen als auch den durchschnittlichen Regret und die Robustheit. Eine hohe Planstabilität verringert die Freiheitsgrade, Aufträge aus A P t 1 umplanen zu können und somit bessere Werte für die beiden anderen Zielfunktionen zu erzielen. Demgegenüber ist die Stabilität des Ablaufplans RA nur geringfügig kleiner als für SA. Hier liegt die Trade-Off-Entscheidung, ob die bestmögliche Planstabilität die wesentlich geringere Robustheit aufwiegt oder aber ein ausgewogenerer Ablaufplan vorteilhafter ist, beim Entscheidungsträger. Der zusätzliche zeitliche Aufwand zur Evaluation der Stabilitätszielfunktion beeinträchtigt nicht die Effizienz des Verfahrens zur proaktiven Ablaufplanung. 177 7 Zusammenfassung und Ausblick Das steigende Luftfrachtaufkommen, ein kompetitiver Markt und ein klassischerweise stark kapazitativ beschränktes System stellt die Luftfrachtindustrie vor besondere Herausforderungen. Den Hauptanteil der Transportzeit für Luftfracht machen bodengebundene Prozesse aus, wobei den Luftfrachtterminals als Schnittstelle zwischen dem Land- und Luftverkehr eine zentrale Bedeutung bei der effektiven und effizienten Durchführung von Umschlagprozessen für den Export, Import sowie den Transfer zukommt. 7.1 Zusammenfassung Für eine effektive und effiziente Durchführung der Umschlagprozesse innerhalb des Systems„Luftfrachtterminal“ ist eine Ablaufplanung und-steuerung, die die räumliche und zeitliche Koordination der Frachtabfertigungsaufträge unter Berücksichtigung der zur Verfügung stehenden Ressourcen und vielfältigen Restriktionen vornimmt, essenziell. Das dynamische und durch Nicht-Determinismus geprägte Planungsumfeld stellt einen weiteren Aspekt dar, den es zu beachten gilt. Ziel dieser Arbeit war daher die Konzeption eines Systems zur Ablaufplanung und-steuerung für die im Rahmen der Umschlagprozesse in Luftfrachtterminals durchzuführenden Frachtabfertigungsaufträge unter Berücksichtigung des dynamischen und stochastischen Planungsumfeldes. Aufbauend auf einer Beschreibung der Luftfrachttransportkette und der involvierten Akteure sowie einer detaillierten Darstellung der internen Prozesse im System„Luftfrachtterminal“ erfolgte die Identifizierung von drei Problemfeldern und die Definition von Anforderungen, die es bei der Planung und Steuerung der Abfertigungsprozesse zu berücksichtigen galt: Erstens die Möglichkeit auf Basis einer vorhanden Datenbasis automatisiert einen Informationsstand abzuleiten, der eine probabilistische Bewertung von Bearbeitungszeiten zukünftiger Aufträge erlaubt. Zweitens die eigentliche Ablaufplanung zur Erstellung robuster Ablaufpläne unter Beachtung eines multikriteriellen Zielsystems. Schließlich als drittes Problemfeld die Ablaufsteuerung. Ausgehend von den identifizierten Problemfeldern wurde der Stand der Forschung erarbeitet und bestehende Arbeiten wurden auf ihre Eignung hinsichtlich der definierten Anforderungen analysiert. Für das erste Problemfeld wurden Klassenbildungs- sowie Klassifikationsverfahren betrachtet. Hierbei erwiesen sich das partitionierende k-medoidsVerfahren zur Klassenbildung sowie ein naiver Bayes-Klassifikator zur Klassifikation als geeignete Grundlage zur problemspezifischen Anpassung. Im Anschluss wurden exakte sowie heuristische Verfahren, die eine proaktive Ablaufplanung ermöglichen, näher untersucht und hinsichtlich der Anforderungen für das zweite Problemfeld bewertet. Aufgrund der Komplexität des Problems erwiesen sich evolutionäre Metaheuristiken 178 7 Zusammenfassung und Ausblick als zielführend. Ein Literaturüberblick zeigte, dass keine Arbeiten bekannt sind, die alle zuvor definierten und praxisrelevanten Anforderungen umsetzen. Schließlich wurden für das dritte Problemfeld verschiedene Verfahren zur Umplanung im Rahmen der Ablaufsteuerung untersucht. Partielle Umplanungsverfahren erwiesen sich hierbei als vielversprechender Ansatz. Auf Basis der Literaturanalyse konnte sodann die zu leistende Arbeit durch sieben Arbeitspakete, die den einzelnen Problemfeldern zugeordnet wurden, präzisiert werden. Der Adressierung der einzelnen Arbeitspakete ging die Erstellung einer Architektur voraus, in der die für die Problemfelder zu entwickelnden Verfahren als abstrakte Module eingeordnet und ihre Interdependenzen in Form eines Ablaufprozesses beschrieben wurden. Für die Ableitung eines Informationsstandes aus der-basis wurde ein Prozess beschrieben, der die Daten auf Basis einer Clusteranalyse zu Intervallen und Häufigkeitsverteilungen der Bearbeitungszeitabweichungen aggregiert. Die erstellten Cluster und die in diesen hinterlegten Informationen bildeten anschließend die Ausgangsbasis zur Erstellung eines Klassifikators, der in der proaktiven Ablaufplanung eingesetzt werden kann. Für die proaktive Ablaufplanung wurde zunächst eine Formalisierung des Problems unter der Annahme eines statischen Planungsumfeldes vorgenommen. Berücksichtigt wurde die Zielfunktion zur Minimierung der erwarteten gewichteten Anzahl säumiger Aufträge sowie eine weitere zur Quantifizierung der Robustheit. Das dynamische Planungsumfeld wurde anschließend durch die Einbettung des Modells in eine rollierende Ablaufplanung und die Einführung einer weiteren Zielfunktion – zur Quantifizierung der Planstabilität – in die Formalisierung adressiert. Auf Basis dieses mathematischen Modells wurde eine evolutionäre Metaheuristik auf Grundlage des NSGA-II-Algorithmus entworfen, welche Ablaufpläne unter Berücksichtigung des multikriteriellen Zielsystems erstellt. Anschließend erfolgte die Formalisierung der Personaleinsatzplanung und Materialflussteuerung und deren Integration in die proaktive Ablaufplanung. Zur Berücksichtigung von Ereignissen, deren Auswirkungen größer sind als durch den robusten Ablaufplan kompensiert werden können, wurde eine Ablaufsteuerung konzipiert, die den aktiven Ablaufplan in diesen Fällen anpassen kann. Zur Erkennung dieser Ereignisse wurde die Notwendigkeit einer Ausführungsüberwachung aufgezeigt und eine Unterscheidung in Primär- und Sekundärstörungen vorgenommen. Die Zuordnung der erkannten Ereignisse zu verschiedenen Auftragsmengen determinierte hierbei das zur Verfügung stehende Verfahren bzw. Vorgehen. Für die experimentelle Validierung der konzipierten Verfahren zur Clusterbildung und Klassifikatorerstellung wurden sieben Testinstanzen verwendet. Vier dieser Instanzen basierten auf Realdaten eines großen Luftfrachtterminals. Drei weitere Instanzen wurden synthetisch erstellt. Für die Validierung des Clusteringverfahrens wurden zwei Experimente durchgeführt. Das erste diente dabei der Ermittlung, welche von drei Initialisierungsmethoden zur Bestimmung der initialen Clustermedoiden am geeignetsten ist. Hierbei wurde auf Basis von drei Metriken die Initialisierungsmethode Farthest-First als geeignet identifiziert. Das zweite Experiment diente der Ermittlung der Anzahl zu betrachtender Cluster auf Basis der Veränderung des Silhouettenkoeffizienten. Anschließend wurde die Effektivität und Effizienz des Klassifikationsverfahrens in zwei weiteren 7.2 Weitere Forschungsmöglichkeiten 179 Experimenten untersucht. Die Auswertung von vier Metriken zeigte die Eignung des Verfahrens für eine zuverlässige Klassierung einzuplanender Aufträge. Hinsichtlich der Effizienz wurden Laufzeiten erzielt, die für die Ablaufplanung vernachlässigbar gering sind. Auf Basis einer realen und zweier synthetischer Testinstanzen wurden zur Validierung der proaktiven Ablaufplanung drei weitere Testinstanzen geschaffen. Anschließend wurden drei Experimente durchgeführt: Das erste diente der Parametrisierung des genetischen Algorithmus und wurde für die Parameter„Populationsgröße“,„Rekombinationswahrscheinlichkeit“,„Verhältnis erster zu zweiter Mutationsart“,„Mutationswahrscheinlichkeit erste Mutationsart“ sowie„Mutationswahrscheinlichkeit zweite Mutationsart“ durchgeführt. Das zweite Experiment diente der Ermittlung der Effektivität und Effizienz der proaktiven Ablaufplanung, indem die durch dieses Verfahren erstellten pareto-optimalen Ablaufpläne RA bzw. PA mit einem erwartungswertoptimalen EA und einem für die geschätzte Bearbeitungszeit optimierten Ablaufplan CA hinsichtlich der Einhaltung der Parameter ω und ϕ verglichen wurden. Im Vergleich mit den beiden letztgenannten Ablaufplänen wurde durch den robusten Ablaufplan RA der Parameter ω in zwei der drei Testinstanzen für jedes Szenario eingehalten. Des Weiteren war der maximale und durchschnittliche Regret zur szenariooptimalen Lösung bei diesem signifikant geringer. Die erzielten Laufzeiten zeigten zudem, dass der Einsatz der proaktiven Ablaufplanung in der Praxis durchführbar ist. Schließlich wurde in dem dritten Experiment die Stabilitätszielfunktion berücksichtigt und die Pareto-Fronten für die drei Testinstanzen wurden ermittelt und beschrieben. Für die jeweiligen Ablaufpläne RA, PA und SA wurde erneut die Einhaltung der Parameter ω und ϕ untersucht. Hierbei zeigte sich der negative Einfluss einer hohen Planstabilität – wie sie durch den Ablaufplan SA erzielt wird – auf die beiden anderen Zielfunktionen. Ein ähnlich negativer Einfluss einer hohen – und durch den Ablaufplan RA forcierten – Robustheit auf die Planstabilität konnte nicht festgestellt werden. Mit der Validierung wurde die Eignung der entwickelten Verfahren hinsichtlich der definierten Anforderungen nachgewiesen. Die Integration in eine Architektur stellt dabei das Zusammenwirken der einzelnen Komponenten sicher und ermöglicht eine automatische Adaption an die bestehenden Prozessunsicherheiten auf Basis der Interdependenzen zwischen Datenbasis und Ablaufplanung. Der Entscheidungsträger wird in die Lage versetzt, aus einer Menge pareto-optimaler Ablaufpläne den – im Hinblick auf die Servicequalität für den Kunden – geeignetsten auszuwählen und darüber hinaus, den Grad der Absicherung gegen Unsicherheiten über Parameter zu bestimmen. 7.2 Weitere Forschungsmöglichkeiten Das in dieser Arbeit vorgestellte System zur Ablaufplanung und-steuerung ist für den Kontext von großen und abgesehen von der manuellen Auftragsbearbeitung automatisierten Luftfrachtterminals entwickelt worden. Die Ausgestaltung der einzelnen Module der Architektur durch die in diesen umgesetzten Verfahren und deren Bewertung sind von den Anforderungen eines konkreten Luftfrachtterminals abgeleitet. Eine Ausweitung der Betrachtung auf weitere vergleichbare Luftfrachtterminals und damit der weiteren 180 7 Zusammenfassung und Ausblick Validierung der hier vorgestellten Konzepte sowie die mögliche Erweiterung der Architektur wären interessante Aspekte für zukünftige praxisnahe Arbeiten. Wünschenswert in diesem Zusammenhang wäre insbesondere der Praxiseinsatz im Hinblick auf eine Untersuchung der langfristigen Interdependenzen zwischen ermitteltem Informationsstand, der Qualität der generierten Ablaufpläne und der sich ändernden Datenbasis. Die Ausweitung der beschriebenen Konzepte auf weitere Branchen mit ähnlichen Ablaufplanungsproblemen ist aufgrund der einfachen Austauschbarkeit der Module und damit Verfahren innerhalb der Architektur möglich. Hierfür könnten branchenunabhängige Module aus den hier vorgestellten abgeleitet und durch branchenspezifische ergänzt werden. Weitere Forschungsmöglichkeiten ergeben sich bei der Ermittlung des Worst-CaseSzenarios zur Bewertung eines Ablaufplans und insbesondere bei der Erstellung des optimalen Ablaufplans für dieses Szenario. Diese beiden Schritte nahmen in der robusten Ablaufplanung die meiste Zeit in Anspruch. Eine Alternative zur Evaluation der Ablaufpläne stellt eine weitergehende Approximation dieser beiden Schritte durch die Verwendung von Heuristiken oder Ersatzzielfunktionen(sogenannten Surrogaten) dar. 181 Literaturverzeichnis [AA03] [AA05] [Abd12] [AD08] [AF07] [AGGM05] [AIK + 08] [Air13] [AKW + 09] [ALM + 05] Alagöz, O.; Azizoğlu, M.: Rescheduling of identical parallel machines under machine eligibility constraints. In: European Journal of Operational Research 149.3(2003), S. 523–532. Azizoğlu, M.; Alagöz, O.: Parallel-machine rescheduling with machine disruptions. In: IIE Transactions 37.12(2005), S. 1113–1118. Abdelaziz, F. B.: Solution approaches for the multiobjective stochastic programming. In: European Journal of Operational Research 216.1(2012), S. 1–16. Aloulou, M. A.; Della Croce, F.: Complexity of single machine scheduling problems under scenario-based uncertainty. In: Operations Research Letters 36.3(2008), S. 338–342. Abonyi, J.; Feil, B.: Cluster analysis for data mining and system identification . Basel: Birkhäuser Verlag AG, 2007. Anglani, A.; Grieco, A.; Guerriero, E.; Musmanno, R.: Robust scheduling of parallel machines with sequence-dependent set-up costs. In: European Journal of Operational Research 161.3(2005), S. 704–720. Arnold, D.; Isermann, H.; Kuhn, A.; Tempelmeier, H.; Furmans, K.(Hrsgg.): Handbuch Logistik . 3. Aufl. VDI-Buch. Berlin und Heidelberg: Springer, 2008. Airbus: Airbus global market forecast. Future payloads, freight forecast, 2013–2032 . 2013. url: http://www.airbus.com/presscentre/corpora te-information/key-documents/ (besucht am 22. 01. 2014). Assent, I.; Krieger, R.; Welter, P.; Herbers, J.; Seidl, T.: Data mining for robust flight scheduling. In: Cao, L.; Yu, P. S.; Zhang, C.; Zhang, H.(Hrsgg.): Data mining for business applications . Boston, MA: Springer US, 2009, S. 267–282. Aytug, H.; Lawley, M. A.; McKay, K.; Mohan, S.; Uzsoy, R.: Executing production schedules in the face of uncertainties: a review and some future directions. In: European Journal of Operational Research 161.1 (2005), S. 86–110. 182 Literaturverzeichnis [AMW11] [And73] [AR10] [Arn14] [AS08] [AS1825] [AS97] Ashford, N. J.; Mumayiz, S.; Wright, P. H.: Air cargo facilities. In: Ashford, N. J.; Mumayiz, S.; Wright, P. H.(Hrsgg.): Airport engineering. Planning, design, and development of 21st century airports . 4. Aufl. Hoboken, NJ: John Wiley& Sons, 2011, S. 457–488. Anderberg, M. R.: Cluster analysis for applications . Probability and mathematical statistics 19. New York: Academic Press(Ein Imprint von Elsevier), 1973. Aissi, H.; Roy, B.: Robustness in multi-criteria decision aiding. In: Ehrgott, M.; Figueira, J. R.; Greco, S.(Hrsgg.): Trends in multiple criteria decision analysis . International Series in Operations Research& Management Science 142. New York: Springer, 2010, S. 87–121. Arnaout, J.-P.: Rescheduling of parallel machines with stochastic processing and setup times. In: Journal of Manufacturing Systems 33.3(2014), S. 376–384. Archetti, C.; Speranza, M. G.: The split delivery vehicle routing problem: a survey. In: Golden, B. L.; Raghavan, S.; Wasil, E. A.(Hrsgg.): The vehicle routing problem. Latest advances and new challenges . Operations Research/Computer Science Interfaces 43. Boston, MA: Springer US, 2008, S. 103–122. SAE International: Methodology of calculating aircraft cargo volumes . Standard. 2008. Abumaizar, R. J.; Svestka, J. A.: Rescheduling job shops under random disruptions. In: International Journal of Production Research 35.7(1997), S. 2065–2082. [Bal11] [BAM13] [BBB10] [BBC11] [BBMN91] Balin, S.: Non-identical parallel machine scheduling using genetic algorithm. In: Expert Systems with Applications 38.6(2011), S. 6814–6821. Branke, J.; Avigad, G.; Moshaiov, A.: Multi-objective worst case optimization by means of evolutionary algorithms. Unpublished. Coventry, UK, 2013. url: http:// wrap. warwick. ac. uk/ 55724/ (besucht am 20. 11. 2014). Ben-Tal, A.; Bertsimas, D.; Brown, D. B.: A soft robust model for optimization under ambiguity. In: Operations Research 58.4-part-2(2010), S. 1220–1234. Bertsimas, D.; Brown, D. B.; Caramanis, C.: Theory and applications of robust optimization. In: SIAM Review 53.3(2011), S. 464–501. Bean, J. C.; Birge, J. R.; Mittenthal, J.; Noon, C. E.: Matchup scheduling with multiple resources, release dates and disruptions. In: Operations Research 39.3(1991), S. 470–483. Literaturverzeichnis 183 [BEN09] [BEP + 07] [Ber06] [BFOS84] [BG12] [Bid05] [Bis06] [BL07] [BL11] [BLW14] [BM05] [BM99] [BN00] Ben-Tal, A.; El Ghaoui, L.; Nemirovski, A.: Robust optimization . Princeton series in applied mathematics. Princeton, NJ: Princeton University Press, 2009. Błażewicz, J.; Ecker, K. H.; Pesch, E.; Schmidt, G.; Węglarz, J.: Handbook on scheduling. From theory to applications . International Handbooks on Information Systems. Berlin und Heidelberg: Springer, 2007. Berkhin, P.: A survey of clustering data mining techniques. In: Kogan, J.; Nicholas, C.; Teboulle, M.(Hrsgg.): Grouping multidimensional data. Recent advances in clustering . Berlin und Heidelberg: Springer, 2006, S. 25–71. Breiman, L.; Friedman, J. H.; Olshen, R. A.; Stone, C. J.: Classification and regression trees . Belmont, CA: Wadsworth International Group, 1984. Bernecker, T.; Grandjot, H.-H.: Leitfaden Luftfracht . 3. Aufl. München: Huss-Verlag, 2012. Bidot, J.: A general framework integrating techniques for scheduling under uncertainty . Dissertation. Frankreich: Institut National Polytechnique de Toulouse, Ecole Nationale d’Ingénieurs de Tarbes, 2005. Bishop, C. M.: Pattern recognition and machine learning . Information science and statistics. New York: Springer, 2006. Bishop, C. M.; Lasserre, J.: Generative or discriminative? Getting the best of both worlds. In: Bayesian statistics 8(2007), S. 3–24. Birge, J. R.; Louveaux, F.: Introduction to stochastic programming . 2. Aufl. Springer Series in Operations Research and Financial Engineering. New York: Springer, 2011. Boxnick, S.; Lauck, S.; Weber, J.: A data mining approach to support a data-driven scheduling system for air cargo terminals. In: s. ed.: Proceedings of the IEEE Asia-Pacific world congress on computer science and engineering . 2014, S. 180–187. Branke, J.; Mattfeld, D. C.: Anticipation and flexibility in dynamic scheduling. In: International Journal of Production Research 43.15(2005), S. 3103–3129. Bierwirth, C.; Mattfeld, D. C.: Production scheduling and rescheduling with genetic algorithms. In: Evolutionary computation 7.1(1999), S. 1–17. Ben-Tal, A.; Nemirovski, A.: Robust solutions of linear programming problems contaminated with uncertain data. In: Mathematical Programming 88.3(2000), S. 411–424. 184 Literaturverzeichnis [BN98] [BN99] [Boc08] [Boe14] [Box11] [BPW10] [Bri90] [Bru07] [BS03] [BS04] [BS07] [BSG04] [Bul86] [BVLB09] Ben-Tal, A.; Nemirovski, A.: Robust convex optimization. In: Mathematics of Operations Research 23.4(1998), S. 769–805. Ben-Tal, A.; Nemirovski, A.: Robust solutions of uncertain linear programs. In: Operations Research Letters 25.1(1999), S. 1–13. Bock, H.-H.: Origins and extensions of the k-means algorithm in cluster analysis. In: Journ@l Electronique d’Histoire des Probabilités et de la Statistique 4.2(2008), S. 1–18. Boeing: Boeing world air cargo forecast 2014–2015 . 2014. url: http:// www.boeing.com/boeing/commercial/cargo/ (besucht am 21. 01. 2015). Boxnick, S.: Eine integrierte Lern- und Entscheidungsarchitektur für selbst-adaptive Systeme in nicht-deterministischen Umgebungen . Unveröffentlicht. Masterarbeit. Paderborn: Wirtschaftsinformatik, insbesondere CIM, Heinz Nixdorf Institut, Universität Paderborn, 2011. Bacher, J.; Pöge, A.; Wenzig, K.: Clusteranalyse. Anwendungsorientierte Einführung in Klassifikationsverfahren . 3. Aufl. München: Oldenbourg, 2010. Bridle, J. S.: Probabilistic interpretation of feedforward classification network outputs, with relationships to statistical pattern recognition. In: Soulié, F. F.; Hérault, J.(Hrsgg.): Neurocomputing. Algorithms, architectures and applications . NATO ASI Series(Series F: Computer and Systems Sciences) 68. Berlin und Heidelberg: Springer, 1990, S. 227–236. Brucker, P.: Scheduling algorithms . 5. Aufl. Berlin und Heidelberg: Springer, 2007. Bertsimas, D.; Sim, M.: Robust discrete optimization and network flows. In: Mathematical Programming 98.1-3(2003), S. 49–71. Bertsimas, D.; Sim, M.: The price of robustness. In: Operations Research 52.1(2004), S. 35–53. Beyer, H.-G.; Sendhoff, B.: Robust optimization – a comprehensive survey. In: Computer Methods in Applied Mechanics and Engineering 196.33–34(2007), S. 3190–3218. Bokhorst, J. A. C.; Slomp, J.; Gaalman, G. J. C.: On the who-rule in dual resource constrained(DRC) manufacturing systems. In: International Journal of Production Research 42.23(2004), S. 5049–5074. Bullinger, H.-J.(Hrsg.): Systematische Montageplanung. Handbuch für die Praxis . München: Carl Hanser Verlag, 1986. Bidot, J.; Vidal, T.; Laborie, P.; Beck, J. C.: A theoretic and practical framework for scheduling in a stochastic environment. In: Journal of Scheduling 12.3(2009), S. 315–344. Literaturverzeichnis 185 [CC59] [CCF13] [CCS58] [CD09] [CFR99] [CGT95] [CGT96] [CKY08] [CLM06] [CLV07] [CM07] Charnes, A.; Cooper, W. W.: Chance-constrained programming. In: Management Science 6.1(1959), S. 73–79. Costa, A.; Cappadonna, F. A.; Fichera, S.: A hybrid genetic algorithm for job sequencing and worker allocation in parallel unrelated machines with sequence-dependent setup times. In: The International Journal of Advanced Manufacturing Technology 69.9-12(2013), S. 2799– 2817. Charnes, A.; Cooper, W. W.; Symonds, G. H.: Cost horizons and certainty equivalents: an approach to stochastic programming of heating oil. In: Management Science 4.3(1958), S. 235–263. Chaudhry, I. A.; Drake, P. R.: Minimizing total tardiness for the machine scheduling and worker assignment problems in identical parallel machines using genetic algorithms. In: The International Journal of Advanced Manufacturing Technology 42.5-6(2009), S. 581–594. Corrêa, R. C.; Ferreira, A.; Rebreyend, P.: Scheduling multiprocessor tasks with genetic algorithms. In: IEEE Transactions on Parallel and Distributed Systems 10.8(1999), S. 825–837. Cheng, R.; Gen, M.; Tsujimura, Y.: Minmax earliness/tardiness scheduling in identical parallel machine system using genetic algorithms. In: Computers& Industrial Engineering 29.1–4(1995), S. 513–517. Cheng, R.; Gen, M.; Tsujimura, Y.: A tutorial survey of job-shop scheduling problems using genetic algorithms—I: representation. In: Computers and Industrial Engineering 30.4(1996), S. 983–997. Caruana, R.; Karampatziakis, N.; Yessenalina, A.: An empirical evaluation of supervised learning in high dimensions. In: McCallum, A.; Roweis, S.(Hrsgg.): Proceedings of the twenty-fifth international conference on machine learning . New York: ACM, 2008, S. 96–103. Cheung, R. K.; Lee, A.; Mo, D.: Flow diversion approaches for shipment routing in automatic shipment handling systems. In: s. ed.: Proceedings 2006 IEEE international conference on robotics and automation . S. l.: IEEE, 2006, S. 695–700. Coello Coello, C. A.; Lamont, G. B.; Veldhuizen, D. A. van: Evolutionary algorithms for solving multi-objective problems . 2. Aufl. Genetic and Evolutionary Computation. New York: Springer, 2007. Cakici, E.; Mason, S. J.: Parallel machine scheduling subject to auxiliary resource constraints. In: Production Planning& Control 18.3(2007), S. 217– 225. 186 Literaturverzeichnis [CN06] Caruana, R.; Niculescu-Mizil, A.: An empirical comparison of supervised learning algorithms. In: Cohen, W. W.; Moore, A.(Hrsgg.): Proceedings of the twenty-third international conference on machine learning . New York: ACM, 2006, S. 161–168. [Coe06] Coello Coello, C. A.: Evolutionary multi-objective optimization: a historical view of the field. In: IEEE Computational Intelligence Magazine 1.1(2006), S. 28–36. [Coe14] Coello Coello, C. A.: List of references on evolutionary multiobjective optimization . 2014. url: http://delta.cs.cinvestav.mx/~ccoello/ EMOO/ (besucht am 20. 11. 2014). [Coh60] Cohen, J.: A coefficient of agreement for nominal scales. In: Educational and Psychological Measurement 20.1(1960), S. 37–46. [CU92] Church, L. K.; Uzsoy, R.: Analysis of periodic and event-driven rescheduling policies in dynamic shops. In: International Journal of Computer Integrated Manufacturing 5.3(1992), S. 153–163. [Dan55] Dantzig, G. B.: Linear programming under uncertainty. In: Management Science 1.3–4(1955), S. 197–206. [DC97] Daniels, R. L.; Carrillo, J. E.: β -Robust scheduling for single-machine systems with uncertain processing times. In: IIE Transactions 29.11(1997), S. 977–985. [DD11] Domschke, W.; Drexl, A.: Einführung in Operations Research . 8. Aufl. Berlin: Springer, 2011. [Deb00] Deb, K.: An efficient constraint handling method for genetic algorithms. In: Computer Methods in Applied Mechanics and Engineering 186.2–4 (2000), S. 311–338. [Deb01] Deb, K.: Multi-objective optimization using evolutionary algorithms . WileyInterscience series in systems and optimization. Chichester et al.: Wiley, 2001. [Def77] [DG06] Defays, D.: An efficient algorithm for a complete link method. In: The Computer Journal 20.4(1977), S. 364–366. Deb, K.; Gupta, H.: Introducing robustness in multi-objective optimization. In: Evolutionary computation 14.4(2006), S. 463–494. [DIN 30781] Deutsches Institut für Normung(DIN): DIN 30781-1(1989-0500): Transportkette; Grundbegriffe . Deutsche Norm. 1989. Literaturverzeichnis 187 [DL02] [DL05] [DP96] [DP97] [DPAM02] Dasgupta, S.; Long, P. M.: Performance guarantees for hierarchical clustering. In: Kivinen, J.; Sloan, R. H.(Hrsgg.): Computational learning theory. 15th annual conference on computational learning theory, COLT 2002, Sydney, Australia, July 8-10, 2002. Proceedings . Lecture Notes in Artificial Intelligence 2375. Berlin und Heidelberg: Springer, 2002, S. 351– 363. Dasgupta, S.; Long, P. M.: Performance guarantees for hierarchical clustering. In: Journal of Computer and System Sciences 70.4(2005), S. 555–569. Domingos, P.; Pazzani, M.: Beyond independence: conditions for the optimality of the simple Bayesian classifier. In: Saitta, L.(Hrsg.): Proceedings of the thirteenth international conference on machine learning . San Francisco, CA: Morgan Kaufmann(Ein Imprint von Elsevier), 1996, S. 105–112. Domingos, P.; Pazzani, M.: On the optimality of the simple Bayesian classifier under zero-one loss. In: Machine Learning 29.2–3(1997), S. 103– 130. Deb, K.; Pratap, A.; Agarwal, S.; Meyarivan, T.: A fast and elitist multiobjective genetic algorithm: NSGA-II. In: IEEE Transactions on Evolutionary Computation 6.2(2002), S. 182–197. [Ehr05] [EIS14] [EKX95] [EL97] [EOL98] [EPA00] Ehrgott, M.: Multicriteria optimization . 2. Aufl. Berlin, Heidelberg und New York: Springer, 2005. Ehrgott, M.; Ide, J.; Schöbel, A.: Minmax robustness for multiobjective optimization problems. In: European Journal of Operational Research 239.1(2014), S. 17–31. Ester, M.; Kriegel, H.-P.; Xu, X.: Knowledge discovery in large spatial databases: focusing techniques for efficient class identification. In: Egenhofer, M. J.; Herring, J. R.(Hrsgg.): Advances in spatial databases. 4th international symposium, SSD’95, Portland, ME, USA, August 6- 9, 1995. Proceedings . Lecture Notes in Computer Science 951. Berlin und Heidelberg: Springer, 1995, S. 67–82. El Ghaoui, L.; Lebret, H.: Robust solutions to least-squares problems with uncertain data. In: SIAM Journal on Matrix Analysis and Applications 18.4(1997), S. 1035–1064. El Ghaoui, L.; Oustry, F.; Lebret, H.: Robust solutions to uncertain semidefinite programs. In: SIAM Journal on Optimization 9.1(1998), S. 33–52. ElMaraghy, H.; Patel, V.; Abdallah, I. B.: Scheduling of manufacturing systems under dual-resource constraints using genetic algorithms. In: Journal of Manufacturing Systems 19.3(2000), S. 186–201. 188 Literaturverzeichnis [ES00] [FM09] [FPS96a] [FPS96b] [FPS96c] [FR02] [Fri10] [Fry03] [Fry11] [Fry13] [GD96] [Geb09] Ester, M.; Sander, J.: Knowledge discovery in databases. Techniken und Anwendungen . Berlin und Heidelberg: Springer, 2000. Fischetti, M.; Monaci, M.: Light robustness. In: Ahuja, R. K.; Möhring, R. H.; Zaroliagis, C. D.(Hrsgg.): Robust and online largescale optimization. Models and techniques for transportation systems . Lecture Notes in Computer Science 5868. Berlin und Heidelberg: Springer, 2009, S. 61–84. Fayyad, U.; Piatetsky-Shapiro, G.; Smyth, P.: From data mining to knowledge discovery in databases. In: AI Magazine 17.3(1996), S. 37–54. Fayyad, U. M.; Piatetsky-Shapiro, G.; Smyth, P.: From data mining to knowledge discovery: an overview. In: Fayyad, U. M.; PiatetskyShapiro, G.; Smyth, P.; Uthurusamy, R.(Hrsgg.): Advances in knowledge discovery and data mining . Menlo Park, CA: American Association for Artificial Intelligence, 1996, S. 1–34. Fayyad, U.; Piatetsky-Shapiro, G.; Smyth, P.: The KDD process for extracting useful knowledge from volumes of data. In: Communications of the ACM 39.11(1996), S. 27–34. Fraley, C.; Raftery, A. E.: Model-based clustering, discriminant analysis, and density estimation. In: Journal of the American Statistical Association 97.458(2002), S. 611–631. Friederichs, S.: Air cargo schedule planning. Integrated models and solution procedures . Inauguraldissertation. Köln: Universität zu Köln, 2010. Frye, H.: Luftfracht im Wandel. Wie verändern neue Netz- und Hubstrategien das Verhältnis von Speditionen, Airlines, Airports und Abfertigern?. In: Verein Deutscher Ingenieure(Hrsg.): Luftfracht im Wandel. 8. Jahrestagung Airport Logistics . VDI-Berichte 1801. Düsseldorf: VDI Verlag, 2003, S. 7–16. Frye, H.: Flächenbezogene Optimierung von Luftfrachtterminals . Dissertation. Hrsg. von Jünemann, R. 2. Aufl. Logistik für die Praxis. Dortmund: Verlag Praxiswissen, 2011. Frye, H.: Luftfrachtverkehr. In: Clausen, U.; Geiger, C.(Hrsgg.): Verkehrs- und Transportlogistik . 2. Aufl. VDI-Buch. Berlin und Heidelberg: Springer Vieweg, 2013, S. 217–251. Gargeya, V. B.; Deane, R. H.: Scheduling research in multiple resource constrained job shops: a review and critique. In: International Journal of Production Research 34.8(1996), S. 2077–2097. Gebel, M.: Multivariate calibration of classifier scores into the probability space . Dissertation. Dortmund: Technische Universität Dortmund, 2009. Literaturverzeichnis 189 [GF13] [GJ79] [GLLR79] [GMT14] [GMW07] [GMW13] [Goh07] [Gol89] [Gow71] [GP10] [GRR07] [GS08] [GS15] Gass, S. I.; Fu, M. C.: Encyclopedia of operations research and management science . 3. Aufl. Boston, MA: Springer US, 2013. Garey, M. R.; Johnson, D. S.: Computers and intractability. A guide to the theory of NP-completeness . A series of books in the mathematical sciences. New York: Freeman, 1979. Graham, R. L.; Lawler, E. L.; Lenstra, J. K.; Rinnooy Kan, A. H. G.: Optimization and approximation in deterministic sequencing and scheduling: a survey. In: Hammer, P. L.; Johnson, E. L.; Korte, B. H.(Hrsgg.): Discrete optimization II . Annals of Discrete Mathematics 5. Amsterdam: North-Holland(Ein Imprint von Elsevier), 1979, S. 287–326. Gabrel, V.; Murat, C.; Thiele, A.: Recent advances in robust optimization: an overview. In: European Journal of Operational Research 235.3(2014), S. 471–483. Gan, G.; Ma, C.; Wu, J.: Data clustering. Theory, algorithms, and applications . ASA-SIAM series on statistics and applied probability 20. Philadelphia: Society for Industrial und Applied Mathematics, 2007. Gabrel, V.; Murat, C.; Wu, L.: New models for the robust shortest path problem: complexity, resolution and generalization. In: Annals of Operations Research 207.1(2013), S. 97–120. Goh, C. K.: Evolutionary multi-objective optimization in uncertain environments . PhD thesis. Singapur: Department of Electrical& Computer Engineering, National University of Singapore, 2007. url: http://www. scholarbank.nus.edu.sg/handle/10635/13352 . Goldberg, D. E.: Genetic algorithms in search, optimization, and machine learning . Reading, MA: Addison-Wesley, 1989. Gower, J. C.: A general coefficient of similarity and some of its properties. In: Biometrics 27.4(1971), S. 857–871. Gendreau, M.; Potvin, J.-Y.: Handbook of metaheuristics . 2. Aufl. International Series in Operations Research& Management Science 146. New York: Springer, 2010. Grandjot, H.-H.; Roessler, I.; Roland, A.: Air cargo guide. An introduction to the air cargo industry . Best practice. München: Huss-Verlag, 2007. Goren, S.; Sabuncuoglu, I.: Robustness and stability measures for scheduling: single-machine environment. In: IIE Transactions 40.1(2008), S. 66–83. Goerigk, M.; Schöbel, A.: Algorithm engineering in robust optimization . 2015. arXiv: 1505.04901v2[math.OC] . 190 Literaturverzeichnis [GT09] Goh, C.-K.; Tan, K. C.: Evolutionary multi-objective optimization in uncertain environments. Issues and algorithms . Studies in Computational Intelligence 186. Berlin und Heidelberg: Springer, 2009. [HAR94] [HBV01] [Her99] [HKKR99] [HKP12] [HMS01] [Hol75] [HS85] [HTF09] [Hua98] [HY01] Hou, E. S. H.; Ansari, N.; Ren, H.: A genetic algorithm for multiprocessor scheduling. In: IEEE Transactions on Parallel and Distributed Systems 5.2(1994), S. 113–120. Halkidi, M.; Batistakis, Y.; Vazirgiannis, M.: On clustering validation techniques. In: Journal of Intelligent Information Systems 17.2/3 (2001), S. 107–145. Herrmann, J. W.: A genetic algorithm for minimax optimization problems. In: s. ed.: Proceedings of the 1999 congress on evolutionary computation . 1999, S. 1099–1103. Höppner, F.; Klawonn, F.; Kruse, R.; Runkler, T.: Fuzzy cluster analysis. Methods for classification, data analysis and image recognition . Chichester et al.: John Wiley& Sons, 1999. Han, J.; Kamber, M.; Pei, J.: Data mining. Concepts and techniques . 3. Aufl. The Morgan Kaufmann Series in Data Management Systems. Amsterdam et al.: Morgan Kaufmann(Ein Imprint von Elsevier), 2012. Hand, D. J.; Mannila, H.; Smyth, P.: Principles of data mining . Cambridge, MA: MIT Press, 2001. Holland, J. H.: Adaptation in natural and artificial systems. An introductory analysis with applications to biology, control, and artificial intelligence . Neuauflage von MIT Press 1992 und 1994. Ann Arbor, MI: University of Michigan Press, 1975. Hochbaum, D. S.; Shmoys, D. B.: A best possible heuristic for the k -center problem. In: Mathematics of Operations Research 10.2(1985), S. 180–184. Hastie, T.; Tibshirani, R.; Friedman, J.: The elements of statistical learning. Data mining, inference, and prediction . 2. Aufl. Springer Series in Statistics. New York: Springer, 2009. Huang, Z.: Extensions to the k-means algorithm for clustering large data sets with categorical values. In: Data Mining and Knowledge Discovery 2.3(1998), S. 283–304. Hand, D. J.; Yu, K.: Idiot’s Bayes—not so stupid after all?. In: International Statistical Review 69.3(2001), S. 385–398. [IATA2014] International Air Transport Association(IATA): IATA ULD regulations . Handbuch. 2014. Literaturverzeichnis 191 [IK14] [IS15] [IT14] [Jac12] [Jai10] [JB05] [JD88] [Jen01] [JGL12] [JI07] [JL95] [JMF99] [JN07] Ide, J.; Köbis, E.: Concepts of efficiency for uncertain multi-objective optimization problems based on set order relations. In: Mathematical Methods of Operations Research 80.1(2014), S. 99–127. Ide, J.; Schöbel, A.: Robustness for uncertain multi-objective optimization: a survey and analysis of different concepts. In: OR Spectrum (2015), S. 1–37. Iancu, D. A.; Trichakis, N.: Pareto efficiency in robust optimization. In: Management Science 60.1(2014), S. 130–147. Jaccard, P.: The distribution of the flora in the alpine zone. In: New Phytologist 11.2(1912), S. 37–50. Übersetzung des französischen Originals: Jaccard, Paul: La distribution de la flore dans la zone alpine. In: Revue générale des Sciences, 15.12.1907, S. 961–967. Jain, A. K.: Data clustering: 50 years beyond k-means. In: Pattern Recognition Letters 31.8(2010), S. 651–666. Jin, Y.; Branke, J.: Evolutionary optimization in uncertain environments —a survey. In: IEEE Transactions on Evolutionary Computation 9.3 (2005), S. 303–317. Jain, A. K.; Dubes, R. C.: Algorithms for clustering data . Prentice Hall advanced reference series: Computer science. Englewood Cliffs, NJ: Prentice Hall, 1988. Jensen, M. T.: Robust and flexible scheduling with evolutionary computation . PhD Dissertation. Dänemark: Department of Computer Science, University of Aarhus, 2001. Joe, Y. Y.; Gan, O. P.; Lewis, F. L.: Multi-commodity flow dynamic resource assignment and matrix-based job dispatching for multi-relay transfer in complex material handling systems(MHS). In: Journal of Intelligent Manufacturing 25.4(2012), S. 681–697. Jia, Z.; Ierapetritou, M. G.: Generate pareto optimal solutions of scheduling problems using normal boundary intersection technique. In: Computers& Chemical Engineering 31.4(2007), S. 268–280. John, G. H.; Langley, P.: Estimating continuous distributions in Bayesian classifiers. In: Besnard, P.; Hanks, S.(Hrsgg.): Proceedings of the eleventh conference on uncertainty in artificial intelligence . San Francisco, CA: Morgan Kaufmann(Ein Imprint von Elsevier), 1995, S. 338–345. Jain, A. K.; Murty, M. N.; Flynn, P. J.: Data clustering: a review. In: ACM Computing Surveys 31.3(1999), S. 264–323. Jensen, F. V.; Nielsen, T. D.: Bayesian networks and decision graphs . 2. Aufl. Information science and statistics. New York: Springer, 2007. 192 Literaturverzeichnis [JP14] [JS00] [Kas04] [Kas08] [KC93] [KCS06] [KJF10] [KKK12] [KL07] [KLR06] [KLV12] [KM06] Jaehn, F.; Pesch, E.: Ablaufplanung. Einführung in Scheduling . Wiesbaden: Springer Gabler, 2014. Jünemann, R.; Schmidt, T.: Materialflußsysteme. Systemtechnische Grundlagen . 2. Aufl. Bd. 2. Logistik in Industrie, Handel und Dienstleistungen. Berlin und Heidelberg: Springer, 2000. Kasperski, A.: Minimizing maximal regret in sequencing problems with interval parameters. In: Atanassov, K. T.; Hryniewicz, O.; Kacprzyk, J.(Hrsgg.): Soft computing. Foundations and theoretical aspects . Problemy współczesnej nauki, teoria i zastosowania- Informatyka. Warschau: Exit, 2004, S. 277–290. Kasperski, A.: Discrete optimization with interval data. Minmax regret and fuzzy approach . Studies in Fuzziness and Soft Computing 228. Berlin und Heidelberg: Springer, 2008. Kahlbacher, H. G.; Cheng, T. C. E.: Parallel machine scheduling to minimize costs for earliness and number of tardy jobs. In: Discrete Applied Mathematics 47.2(1993), S. 139–164. Konak, A.; Coit, D. W.; Smith, A. E.: Multi-objective optimization using genetic algorithms: a tutorial. In: Reliability Engineering& System Safety. Special Issue- Genetic Algorithms and Reliability 91.9(2006), S. 992–1007. Kuster, J.; Jannach, D.; Friedrich, G.: Applying local rescheduling in response to schedule disruptions. In: Annals of Operations Research 180.1(2010), S. 265–282. Klaus, P.; Krieger, W.; Krupp, M.(Hrsgg.): Gabler Lexikon Logistik. Management logistischer Netzwerke und Flüsse . 5. Aufl. Wiesbaden: Springer Gabler, 2012. Kalaï, R.; Lamboray, C.: L’ α -robustesse lexicographique: une relaxation de la β -robustesse. In: Roy, B.; Aloulou, M. A.; Kalaï, R. (Hrsgg.): Robustness in OR-DA . Annales du Lamsade 7. Paris: Lamsade, 2007, S. 129–143. Khayat, G. E.; Langevin, A.; Riopel, D.: Integrated production and material handling scheduling using mathematical programming and constraint programming. In: European Journal of Operational Research 175.3(2006), S. 1818–1832. Kalaï, R.; Lamboray, C.; Vanderpooten, D.: Lexicographic α robustness: an alternative to min–max criteria. In: European Journal of Operational Research 220.3(2012), S. 722–728. Kurgan, L. A.; Musilek, P.: A survey of knowledge discovery and data mining process models. In: The Knowledge Engineering Review 21.1 (2006), S. 1–24. Literaturverzeichnis 193 [Koe04] [Kot07] [KP96] [KR86] [KR87] [KR90] [KY97] [KZP06] [Lar05] [Les04] [Leu04] [LHLX06] [LI08] Koether, R.(Hrsg.): Taschenbuch der Logistik . München: Fachbuchverlag Leipzig im Carl Hanser Verlag, 2004. Kotsiantis, S. B.: Supervised machine learning: a review of classification techniques. In: Informatica 31.3(2007), S. 249–268. Kaufmann, H.; Pape, H.: Clusteranalyse. In: Fahrmeir, L.; Hamerle, A.; Tutz, G.(Hrsgg.): Multivariate statistische Verfahren . 2. Aufl. Berlin und New York: de Gruyter, 1996, S. 437–536. Kaufman, L.; Rousseeuw, P. J.: Clustering large data sets. In: Kanal, L. N.; Gelsema, E. S.(Hrsgg.): Pattern recognition in practice II . Amsterdam: North-Holland(Ein Imprint von Elsevier), 1986, S. 425–437. Kaufman, L.; Rousseeuw, P. J.: Clustering by means of medoids. In: Dodge, Y.(Hrsg.): Statistical data analysis: based on the L1-Norm and related methods . Amsterdam: North-Holland(Ein Imprint von Elsevier), 1987, S. 405–416. Kaufman, L.; Rousseeuw, P. J.: Finding groups in data. An introduction to cluster analysis . Hoboken, NJ: John Wiley& Sons, 1990. Kouvelis, P.; Yu, G.: Robust discrete optimization and its applications . Nonconvex Optimization and Its Applications 14. Dordrecht, Boston und London: Kluwer Academic Publishers, 1997. Kotsiantis, S. B.; Zaharakis, I. D.; Pintelas, P. E.: Machine learning: a review of classification and combining techniques. In: Artificial Intelligence Review 26.3(2006), S. 159–190. Larose, D. T.: Discovering knowledge in data. An introduction to data mining . Hoboken, NJ: John Wiley& Sons, 2005. Lessing, H.: Prozess zur multivariaten Prognose von Produktionsprogrammen für eine effiziente mehrperiodische Kapazitätsplanung bei typisierten Dienstleistungen . HNI-Verlagsschriftenreihe 146. Zugl.: Paderborn, Univ., Diss., 2004. Paderborn: Heinz-Nixdorf-Institut, 2004. Leung, J. Y.-T.: Introduction and notation. In: Leung, J. Y.-T.(Hrsg.): Handbook of scheduling. Algorithms, models, and performance analysis . Chapman& Hall/CRC Computer and Information Science Series. Boca Raton, FL et al.: Chapman& Hall/CRC, 2004, S. 1-1–1-9. Lee, C.; Huang, H. C.; Liu, B.; Xu, Z.: Development of timed colour petri net simulation models for air cargo terminal operations. In: Computers & Industrial Engineering 51.1(2006), S. 102–110. Li, Z.; Ierapetritou, M.: Process scheduling under uncertainty: review and challenges. In: Computers& Chemical Engineering 32.4–5(2008), S. 715–727. 194 Literaturverzeichnis [Llo57] [Llo82] [LLX + 10] [LLY06] [LZ06] Lloyd, S. P.: Least squares quantization in PCM . Techn. Ber. Bell Telephone Laboratories Paper. Murray Hill, NJ: Bell Telephone Laboratories, 1957. Lloyd, S. P.: Least squares quantization in PCM. In: IEEE Transactions on Information Theory 28.2(1982), S. 129–137. Liu, Y.; Li, Z.; Xiong, H.; Gao, X.; Wu, J.: Understanding of internal clustering validation measures. In: Webb, G. I.; Liu, B.; Zhang, C.; Gunopulos, D.; Wu, X.(Hrsgg.): 10th IEEE international conference on data mining . 2010, S. 911–916. Lee, C.-Y.; Leung, J. Y.-T.; Yu, G.: Two machine scheduling under disruptions with transportation considerations. In: Journal of Scheduling 9.1(2006), S. 35–48. Lau, H. Y.; Zhao, Y.: Joint scheduling of material handling equipment in automated air cargo terminals. In: Computers in Industry 57.5(2006), S. 398–411. [Mac67] [MCLL09] [Men13] [Mit05] [Mit97] [ML13] [MS96] MacQueen, J.: Some methods for classification and analysis of multivariate observations. In: Le Cam, L. M.; Neyman, J.(Hrsgg.): Proceedings of the fifth Berkeley symposium on mathematical statistics and probability . Berkeley, CA: University of California Press, 1967, S. 281–297. Mo, D. Y.; Cheung, R. K.; Lee, A. W.; Law, G. K.: Flow diversion strategies for routing in integrated automatic shipment handling systems. In: IEEE Transactions on Automation Science and Engineering 6.2(2009), S. 377–384. Mensen, H.: Handbuch der Luftfahrt . 2. Aufl. VDI-Buch. Berlin und Heidelberg: Springer Vieweg, 2013. Mitchell, T. M.: Generative and discriminative classifiers. Naive Bayes and logistic regression . Kapitel Entwurf für 2. Aufl. von Machine Learning . 2005. url: http://www.cs.cmu.edu/~tom/NewChapters.html (besucht am 15. 07. 2014). Mitchell, T. M.: Machine learning . McGraw-Hill series in computer science. New York: McGraw-Hill, 1997. Mehravaran, Y.; Logendran, R.: Non-permutation flowshop scheduling with dual resources. In: Expert Systems with Applications 40.13(2013), S. 5061–5076. Michalewicz, Z.; Schoenauer, M.: Evolutionary algorithms for constrained parameter optimization problems. In: Evolutionary computation 4.1(1996), S. 1–32. Literaturverzeichnis 195 [MWDM64] Macnaughton-Smith, P.; Williams, W. T.; Dale, M. B.; Mockett, L. G.: Dissimilarity analysis: a new technique of hierarchical sub-division. In: Nature 202.4936(1964), S. 1034–1035. [NC05a] [NC05b] [NH02] [NH94] [NJ02] [NR98] [NTD04] Niculescu-Mizil, A.; Caruana, R.: Obtaining calibrated probabilities from boosting. In: Bacchus, F.; Jaakkola, T.(Hrsgg.): Proceedings of the twenty-first conference on uncertainty in artificial intelligence . Arlington, VA: AUAI Press, 2005, S. 28–33. Niculescu-Mizil, A.; Caruana, R.: Predicting good probabilities with supervised learning. In: De Raedt, L.; Wrobel, S.(Hrsgg.): Proceedings of the twenty-second international conference on machine learning . New York: ACM, 2005, S. 625–632. Ng, R. T.; Han, J.: CLARANS: a method for clustering objects for spatial data mining. In: IEEE Transactions on Knowledge and Data Engineering 14.5(2002), S. 1003–1016. Ng, R. T.; Han, J.: Efficient and effective clustering methods for spatial data mining. In: Bocca, J. B.; Jarke, M.; Zaniolo, C.(Hrsgg.): Proceedings of the 20th international conference on very large data bases . San Francisco, CA: Morgan Kaufmann(Ein Imprint von Elsevier), 1994, S. 144–155. Ng, A. Y.; Jordan, M. I.: On discriminative vs. generative classifiers: a comparison of logistic regression and naive Bayes. In: Dietterich, T. G.; Becker, S.; Ghahramani, Z.(Hrsgg.): Advances in neural information processing systems 14 . Cambridge, MA: MIT Press, 2002, S. 841–848. Nobert, Y.; Roy, J.: Freight handling personnel scheduling at air cargo terminals. In: Transportation Science 32.3(1998), S. 295–301. Nsakanda, A. L.; Turcotte, M.; Diaby, M.: Air cargo operations evaluation and analysis through simulation. In: Ingalls, R. G.; Rossetti, M. D.; Smith, J. S.; Peters, B. A.(Hrsgg.): Proceedings of the 2004 winter simulation conference . 2004, S. 711–719. [OA09] [OA11] [OP09] Ozlen, M.; Azizoğlu, M.: Generating all efficient solutions of a rescheduling problem on unrelated parallel machines. In: International Journal of Production Research 47.19(2009), S. 5245–5270. Ozlen, M.; Azizoğlu, M.: Rescheduling unrelated parallel machines with total flow time and total disruption cost criteria. In: Journal of the Operational Research Society 62.1(2011), S. 152–164. Ouelhadj, D.; Petrovic, S.: A survey of dynamic scheduling in manufacturing systems. In: Journal of Scheduling 12.4(2009), S. 417–431. 196 Literaturverzeichnis [Pet05] [Pet07] [Pia07] [Pin12] [PJ09] [PKM11] [Pla00] Petersohn, H.: Data mining. Verfahren, Prozesse, Anwendungsarchitektur . München: Oldenbourg, 2005. Peterson, J.: Air freight industry – white paper . Techn. Ber. The Supply Chain and Logistics Institute, H. Milton Stewart School of Industrial and Systems Engineering, Georgia Institute of Technology, 2007. Piatetsky-Shapiro, G.: Data mining and knowledge discovery 1996 to 2005: overcoming the hype and moving from“university” to“business” and“analytics”. In: Data Mining and Knowledge Discovery 15.1(2007), S. 99–105. Pinedo, M. L.: Scheduling. Theory, algorithms, and systems . 4. Aufl. New York et al.: Springer, 2012. Park, H.-S.; Jun, C.-H.: A simple and fast algorithm for k-medoids clustering. In: Expert Systems with Applications 36.2(2009), S. 3336–3341. Popescu, A.; Keskinocak, P.; Mutawaly, I. al: The air cargo industry. In: Hoel, L. A.; Giuliano, G.; Meyer, M. D.(Hrsgg.): Intermodal transportation. Moving freight in a global economy . Washington, D.C.: Eno Transportation Foundation, 2011, S. 209–237. Platt, J. C.: Probabilities for SV Machines. In: Smola, A. J.; Bartlett, P.; Schölkopf, B.; Schuurmans, D.(Hrsgg.): Advances in large margin classifiers . Neural Information Processing series. Cambridge und London: MIT Press, 2000, S. 61–74. Ebenfalls bekannt unter dem Titel „Probabilistic Outputs for Support Vector Machines and Comparisons to Regularized Likelihood Methods“. [QBY06] [Qui86] [Qui93] Qi, X.; Bard, J. F.; Yu, G.: Disruption management for machine scheduling: the case of SPT schedules. In: International Journal of Production Economics 103.1(2006), S. 166–184. Quinlan, J. R.: Induction of decision trees. In: Machine Learning 1.1 (1986), S. 81–106. Quinlan, J. R.: C4.5: programs for machine learning . San Mateo, CA: Morgan Kaufmann(Ein Imprint von Elsevier), 1993. [RAAQ11] [RAK07] [Ran71] Rendón, E.; Abundez, I.; Arizmendi, A.; Quiroz, E. M.: Internal versus external cluster validation indexes. In: International journal of computers and communications 5.1(2011), S. 27–34. Roy, B.; Aloulou, M. A.; Kalaï, R.(Hrsgg.): Robustness in OR-DA . Annales du Lamsade 7. Paris: Lamsade, 2007. Rand, W. M.: Objective criteria for the evaluation of clustering methods. In: Journal of the American Statistical Association 66.336(1971), S. 846– 850. Literaturverzeichnis 197 [RCB10] [RDL12] [RG09] [Ris01] [RM08] [RN10] [Rok10] [Rou87] [Roy07] [Roy10] [Sal13] [Sau02] Rushton, A.; Croucher, P.; Baker, P.: The handbook of logistics& distribution management . 4. Aufl. London, Philadelphia und Daryaganj: Kogan Page, 2010. Ranjbar, M.; Davari, M.; Leus, R.: Two branch-and-bound algorithms for the robust parallel machine scheduling problem. In: Computers& Operations Research 39.7(2012), S. 1652–1660. Rong, A.; Grunow, M.: Shift designs for freight handling personnel at air cargo terminals. In: Transportation Research Part E: Logistics and Transportation Review 45.5(2009), S. 725–739. Rish, I.: An empirical study of the naive Bayes classifier. In: s. ed.: Proceedings of the 17th international joint conference on artificial intelligence workshop on empirical methods in artificial intelligence . 2001, S. 41–46. Auch: IBM Technical Report RC22230. Rokach, L.; Maimon, O.: Data mining with decision trees. Theory and applications . Series in machine perception and artificial intelligence 69. Singapur: World Scientific, 2008. Russell, S.; Norvig, P.: Artificial intelligence. A modern approach . 3. Aufl. Prentice-Hall series in artificial intelligence. Upper Saddle River, NJ: Prentice Hall(Ein Imprint von Pearson), 2010. Rokach, L.: A survey of clustering algorithms. In: Maimon, O.; Rokach, L.(Hrsgg.): Data mining and knowledge discovery handbook . 2. Aufl. New York: Springer, 2010, S. 269–298. Rousseeuw, P. J.: Silhouettes: a graphical aid to the interpretation and validation of cluster analysis. In: Journal of Computational and Applied Mathematics 20(1987), S. 53–65. Roy, B.: La robustesse en recherche opérationnelle et aide à la décision : Une préoccupation multi facettes. In: Roy, B.; Aloulou, M. A.; Kalaï, R.(Hrsgg.): Robustness in OR-DA . Annales du Lamsade 7. Paris: Lamsade, 2007, S. 209–235. Roy, B.: Robustness in operational research and decision aiding: a multifaceted issue. In: European Journal of Operational Research 200.3(2010), S. 629–638. Sales, M.: The air logistics handbook. Air freight and the global supply chain . Mit einem Vorw. von Branson, Sir R. Abingdon, UK und New York: Routledge(Ein Imprint von Taylor& Francis Group), 2013. Sauer, J.: Multi-Site Scheduling. Hierarchisch koordinierte Ablaufplanung auf mehreren Ebenen . Habilitationsschrift. Oldenburg: Fachbereich Informatik, Universität Oldenburg, 2002. 198 Literaturverzeichnis [SB00] [Sch01] [Sch96] [SCXL10] [SD06] [SDR09] [SF12] [SG09] [Sha13] [Sib73] [Sil04] [Soy73] [Ste12] [Ste56] Sabuncuoglu, I.; Bayız, M.: Analysis of reactive scheduling problems in a job shop environment. In: European Journal of Operational Research 126.3(2000), S. 567–586. Scholl, A.: Robuste Planung und Optimierung. Grundlagen – Konzepte und Methoden – Experimentelle Untersuchungen . Heidelberg: PhysicaVerlag, 2001. Schlüchtermann, J.: Planung in zeitlich offenen Entscheidungsfeldern . Neue betriebswirtschaftliche Forschung 161. Wiesbaden: Gabler Verlag, 1996. Shi, N.; Cheung, R. K.; Xu, H.; Lai, K. K.: An adaptive routing strategy for freight transportation networks. In: Journal of the Operational Research Society 62.4(2010), S. 799–805. Snyder, L. V.; Daskin, M. S.: Stochastic p -robust location problems. In: IIE Transactions 38.11(2006), S. 971–985. Shapiro, A.; Dentcheva, D.; Ruszczyński, A.: Lectures on stochastic programming. Modeling and theory . MOS-SIAM Series on Optimization. Philadelphia: Society for Industrial und Applied Mathematics, 2009. Schapire, R. E.; Freund, Y.: Boosting. Foundations and algorithms . Adaptive computation and machine learning. Cambridge und London: MIT Press, 2012. Sabuncuoglu, I.; Goren, S.: Hedging production schedules against uncertainty in manufacturing environment with a review of robustness and stability research. In: International Journal of Computer Integrated Manufacturing 22.2(2009), S. 138–157. Sharafi, A.: Knowledge Discovery in Databases. Eine Analyse des Änderungsmanagements in der Produktentwicklung . Informationsmanagement und Computer Aided Team. Wiesbaden: Springer Gabler, 2013. Sibson, R.: SLINK: an optimally efficient algorithm for the single-link cluster method. In: The Computer Journal 16.1(1973), S. 30–34. Silver, E. A.: An overview of heuristic solution methods. In: The Journal of the Operational Research Society 55.9(2004), S. 936–956. Soyster, A. L.: Convex programming with set-inclusive constraints and applications to inexact linear programming. In: Operations Research 21.5 (1973), S. 1154–1157. Stein, A.: Umschlagsprozesse in der Logistik. In: Klaus, P.; Krieger, W. ; Krupp, M.(Hrsgg.): Gabler Lexikon Logistik. Management logistischer Netzwerke und Flüsse . 5. Aufl. Wiesbaden: Springer Gabler, 2012, S. 600– 606. Steinhaus, H.: Sur la division des corps matériels en parties. In: Bulletin de l’Académie Polonaise des Sciences 4.12(1956), S. 801–804. Literaturverzeichnis 199 [Tal09] [TBNA12] [TG08] [Thi08] [TK09] [TNL10] [TR14] [TSK06] Talbi, E.-G.: Metaheuristics. From design to implementation . Hoboken, NJ: John Wiley& Sons, 2009. Talbi, E.-G.; Basseur, M.; Nebro, A. J.; Alba, E.: Multi-objective optimization using metaheuristics: non-standard algorithms. In: International Transactions in Operational Research 19.1–2(2012), S. 283–305. Tan, K. C.; Goh, C. K.: Handling uncertainties in evolutionary multiobjective optimization. In: Zurada, J. M.; Yen, G. G.; Wang, J. (Hrsgg.): Computational intelligence: research frontiers . Lecture Notes in Computer Science 5050. Berlin und Heidelberg: Springer, 2008, S. 262–292. Thiele, A.: Robust stochastic programming with uncertain probabilities. In: IMA Journal of Management Mathematics 19.3(2008), S. 289–321. Theodoridis, S.; Koutroumbas, K.: Pattern recognition . 4. Aufl. Amsterdam: Elsevier, 2009. Tang, L. C.; Ng, T. S.; Lam, S. W.: Improving air cargo service through efficient order release. In: Chen, J.(Hrsg.): The 7th international conference on service systems and service management . 2010, S. 136–141. Tulabandhula, T.; Rudin, C.: Robust optimization using machine learning for uncertainty sets . 2014. arXiv: 1407.1097[math.OC] . Tan, P.-N.; Steinbach, M.; Kumar, V.: Introduction to data mining . Nachdruck 2009. Boston et al.: Addison Wesley(Ein Imprint von Pearson), 2006. [UM10] Unlu, Y.; Mason, S. J.: Evaluation of mixed integer programming formulations for non-preemptive parallel machine scheduling problems. In: Computers& Industrial Engineering 58.4(2010), S. 785–800. [VHL00] [VHL03] [VMOR99] Vieira, G. E.; Herrmann, J. W.; Lin, E.: Predicting the performance of rescheduling strategies for parallel machine systems. In: Journal of Manufacturing Systems 19.4(2000), S. 256–266. Vieira, G. E.; Herrmann, J. W.; Lin, E.: Rescheduling manufacturing systems: a framework of strategies, policies, and methods. In: Journal of Scheduling 6.1(2003), S. 39–62. Voß, S.; Martello, S.; Osman, I. H.; Roucairol, C.(Hrsgg.): Metaheuristics. Advances and trends in local search paradigms for optimization . Boston, MA: Springer US, 1999. [WFH11] Witten, I. H.; Frank, E.; Hall, M. A.: Data mining. Practical machine learning tools and techniques . 3. Aufl. The Morgan Kaufmann Series in Data Management Systems. Amsterdam et al.: Morgan Kaufmann(Ein Imprint von Elsevier), 2011. 200 Literaturverzeichnis [WM97] Wilson, D. R.; Martinez, T. R.: Improved heterogeneous distance functions. In: Journal of Artificial Intelligence Research 6(1997), S. 1–34. [XCLQ13] [XLC14] [XT08] [XXX11] [XZMC14] Xu, X.; Cui, W.; Lin, J.; Qian, Y.: Robust makespan minimisation in identical parallel machine scheduling problem with interval data. In: International Journal of Production Research 51.12(2013), S. 1–17. Xu, X.; Lin, J.; Cui, W.: Hedge against total flow time uncertainty of the uniform parallel machine scheduling problem with interval data. In: International Journal of Production Research 52.19(2014), S. 1–15. Xue, J.-H.; Titterington, D. M.: Comment on“On Discriminative vs. Generative Classifiers: A Comparison of Logistic Regression and Naive Bayes”. In: Neural Processing Letters 28.3(2008), S. 169–187. Xu, J.; Xu, X.; Xie, S. Q.: Recent developments in dual resource constrained(DRC) system research. In: European Journal of Operational Research 215.2(2011), S. 309–318. Xu, D.; Zhang, C. W.; Miao, Z.; Cheung, R. K.: A flow allocation strategy for routing over multiple flow classes with an application to air cargo terminals. In: Computers& Operations Research 51(2014), S. 1–10. [YCC06] [YCC08] [Ye03] Yan, S.; Chen, C.-K.; Chen, C.-H.: Cargo terminal shift setting and manpower supplying in short-term operations. In: Journal of Marine Science and Technology 14.2(2006), S. 109–118. Yan, S.; Chen, C.-H.; Chen, C.-K.: Short-term shift setting and manpower supplying under stochastic demands for air cargo terminals. In: Transportation 35.3(2008), S. 425–444. Ye, N.: The handbook of data mining . Mahwah, NJ und London: Lawrence Erlbaum Associates, 2003. [ZB05] [ZB12] [ZE02] Zäpfel, G.; Braune, R.: Moderne Heuristiken der Produktionsplanung. Am Beispiel der Maschinenbelegung . WiSo-Kurzlehrbücher: Reihe Betriebswirtschaft. München: Vahlen, 2005. Zio, E.; Bazzo, R.: A comparison of methods for selecting preferred solutions in multiobjective decision making. In: Kahraman, C.(Hrsg.): Computational intelligence systems in industrial engineering. With recent theory and applications . Atlantis Computational Intelligence Systems 6. Paris: Atlantis Press, 2012, S. 23–43. Zadrozny, B.; Elkan, C.: Transforming classifier scores into accurate multiclass probability estimates. In: Hand, D.; Keim, D.; Ng, R. (Hrsgg.): KDD- 2002. Proceedings of the eighth ACM SIGKDD international conference on knowledge discovery and data mining . 2002, S. 694– 699. Literaturverzeichnis 201 [Zha04] [Zha05] [ZM14] [ZWB12] Zhang, H.: The optimality of naive Bayes. In: Barr, V.; Markov, Z. (Hrsgg.): Proceedings of the seventeenth international Florida artificial intelligence research society conference . Menlo Park, CA: AAAI Press, 2004, S. 562–567. Zhang, H.: Exploring conditions for the optimality of naïve Bayes. In: International Journal of Pattern Recognition and Artificial Intelligence 19.02(2005), S. 183–198. Zaki, M. J.; Meira Jr., W.: Data mining and analysis. Fundamental concepts and algorithms . New York: Cambridge University Press, 2014. Zäpfel, G.; Wasner, M.; Braune, R.: Integration between flow scheduling and personnel allocation in a parallel line system in automotive industry. In: Zeitschrift für Betriebswirtschaft 82.4(2012), S. 417–432.