Auszug aus dem Buch des Zürcher Fotojournalisten Gerd M. Müller. Das ganze Manuskript ist als E-Book-Version auf www.self-publishing.com zu finden.
Ein Beispiel von Big Data im militärischen Einsatz mit tödlichen Irrtümern und Konsequenzen gefällig? Ende August 1988 sollte der neun jährige Krieg zwischen dem Iran und dem Irak mit einigen Hundertausend Toten zu Ende gehen. Seit Jahren griffen die Kriegsparteien im-mer wieder zivile Öltanker am Persischen Golf an. Nach der Bitte Kuweits um Geleitschutz an die USA bewegten die amerikanischen Trup-pen Tankereskorten einzusetzen. Insgesamt waren sechs NATO-Staaten bei dieser Operation beteiligt, um die Strasse von Hormus frei zu halten. Vor Ort war auch der US Kreuzer «USS Vincennes», die über ein vollständiges Luftabwehrsystem aus damals modernsten Radars, umfangreicher Luftabwehrbewaffnung und eigener Luftaufklärungszentrale an Bord verfügte. Im «Combat Information Center» (CIC) laufen alle Fäden zusammen. Das High Tech Radar System «Aegis» hat die Aufgabe komplexe Luftkämpfe mit bis zu 200 Flugzeugen in Echtzeit auszuwerten und eine grosse Anzahl Bedrohungen einzusortieren, sei es durch Raketen vom Boden aus abgeschossen oder zur Erkennung feindlicher Flugzeuge, deren Bewaffnung, Kurs und weiteren Details.
Ebenfalls vor Ort war die «US Montgomery», die der Kapitän der «US Vincennes» zur Unterstützung bei einem Gefecht angefordert hat. Die «US Montgomery verfügte zwar nicht über die selbe hochstehende Luftaufklärungsausrüstung, konnte aber durch einen «Link-II-Datenlink» taktische Informationen mit der «US Vincennes» austauschen und war so in der Lage, dasselbe Echtzeit-Lagebild des «Aegis»-Systems des Schwesterschiffes auf ihrem «CIC» und den zahlreichen Monitoren zu sehen. Derweil die «US Montgomery» von einem feindlichen Boot am 3. Juli 1988 angegriffen wurde tauchte auch ein Flugobjekt am Himmel auf, dass vom Iran aus gestartet war. Zur Identifikation von feindlichen Flugzeugen werden Handbücher mit zivilen Flugplänen, «IFF Codes» und weitere Angaben enthalten. «IFF» steht für Identi-fication, Friend or Foe. Automatisch kam die Antwort, der «Squark Mode», vom Transponder des Flugzeuges zurück. Ein «Squak Mode», der mit II startet, deutet auf ein militärische Flugzeug hin, ein «Squark», der mit III beginnt, auf ein ziviles Luftfahrzeug hin.
Was sich dann abspielte ist eine Abfolge von Chaos, Software-Problemen und Desinformation, die zu einem der tragischsten Flugverkehrs-unglücke vor dem Abschuss eine KLM Maschine durch die Russen in der Ukraine am 17. Juli 2014.zählte, bei dem getroffen wurde und 298 Menschen starben. Um 10.17 hatte Kapitän Mohsen Rezaian den kurzen Routine-Flug von Bandar Abbas nach Dubai gestartet mit 290 Mekka-Pilgern an Bord. Die nur 120 Meilen Flugstrecke erforderten einen kurzen Anstieg der zivilen Verkehrsmaschine vom Typ Airbus 320. Zum Verhängnis wurde dem Flug der Iran Air 655 wohl, dass am Tag zuvor aufgrund der militärischen Luftaufklärung auch Militär-maschinen auf dem Flughafen Bandar Abbas gelandet waren.
Als der weisse Punkt auf dem Radar der «US Vincennes» auftaucht und die Verkehrsmaschine nicht auf die Warnungen des US-Marine-Officers hört und das «Aegis»-System das Flugzeug irrtümlicherweise als ein «IFF Model II», also einen Kampfjet einstufte, eskalierte die Situation. Da offensichtlich auch ein Feuerleitstrahl die iranische Maschine nicht zum Abdrehen bewog, kam es zum Abschuss und über 290 Menschen verloren ihr Leben. Was war die Ursache dafür? Darüber gibt die «Fogarty-Bericht» der parlamentarischen Untersuchung Aufschluss. Aus den Analysen der Black Box der «US Vincennes» geht hervor, dass das «Aegis»-System fehlerfrei arbeitete. Woher rührte daher dann die Falschmeldungen und Fehlinterpretationen Kapitän Rodgers zum Feuerbefehl veranlassten?
Zunächst einmal ist klar, dass wenn ein System in Echtzeit mehrere Dutzend bis hin zu Hunderten von Flugzeugen erfassen und einstufen muss, es sich dabei um ein äusserst komplexes und daher auch fehlerhaftes System handelt. Wenn dieses System oder die Software beginnt eigene Entscheidungen zu treffen und aus den Folgen der Beobachtung Konsequenzen zieht, kann es als durchaus intelligent betrachtet werden und ist dem Menschen weit überlegen, hat aber genaus so seine Tücken und Fehler. Die US-Vincennes war zum Zeitpunkt des Flugzeugabschusses in ein Gefecht mit iranischen Kanonenbooten verwickelt und befand sich in iranischem Hoheitsgewässer. Nach Angaben der US-Regierung war das Flugzeug von der Schiffsbesatzung als eine angreifende feindliche F-14 Tomcat identifiziert worden.
Der Airbus wurde durch eine automatische Anfrage der US-Vincennes beim Transponder der Linienmaschine als Zivilflugzeug erkannt, jedoch identifizierte das Aegis-Kampfsystem der Vincennes eine F-14 Tomcat. Die Besatzung der Vincennes entschied sich, der Meldung des Aegis-Systems zu glauben. Nach Angaben der USA wurden sieben Warnungen auf verschiedenen militärischen Frequenzen an das Flugzeug gesendet, doch die vermutete Tomcat antwortete nicht. Auf der zivilen Notfunkfrequenz seien drei Kontaktversuche unternommen worden, die iranische Besat-zung meldete sich nicht, da sie eine andere Geschwindigkeit flog, als das von der USS Vincennes angerufene „unidentifizierte iranische Flugzeug“.
David Carlson, Kommandant eines weiteren in der Nähe befindlichen amerikanischen Kriegsschiffs, sagte, dass er sich wunderte, als die USS-Vincennes die Absicht verkündete, eine zivile Linienmaschine abzuschiessen. Nach der Untersuchung des Unfalls wurde bekannt, dass drei Faktoren die Ursache für das Unglück seien: 1. Das «Aegis»-System arbeitete fehlerhaft. 2. Die nachrichtendienstlichen Informa-tionen waren falsch. 3. Die Combat-Einsatzszentrale der USS Vincennes traf eine fragwürdige Entscheidung.
Dazu ein weiteres Beispiel aus den Tragödien der Luftfahrtsgeschichte und dem Konflikt zwischen Mensch und Maschine bei der Kollision zweier Flugzeuge bei Überlingen am Bodensee am 1. Juli 2002, bei der die Boing DHL 611 auf ihrem Weg nach Brüssel mit der russischen Tupolew Bashkirian Airlines 2937 auf dem Weg nach Barcelona in der Bodenseeregion zusammenstiessen. Dieser Zusammenstoss zählt zu den schwersten Luftverkehrsunglücken Deutschlands, wurde aber mitunter von einem Schweizer Lotsen verursacht, der dafür letztlich mit seinem Leben zahlen musste, da der Vater einer getöteten Tochter Rache nahm und den Fluglotsen ermordete.
Zurück zum Unfallhergang: Als der Sicherheitsabstand der beiden Flugzeuge gefährlich gering wurde, verarbeiteten beide Flugobjekte mit dem Traffic Alert and Collison Avoidance System «TCAS», die Daten des Kontaktes, wie Kurs und Geschwindigkeit und warnten ihre Besatzungen. Während das System des russischen Piloten, Alexander Gross, anweist, zu steigen, erhält der britische Pilot Paul Philipps die Anweisung zu sinken, was er auch sofort befolgt. Erst jetzt schaltet sich der Fluglotse von «Skyguide» in Zürich zu und es kommt zu einem Mensch-Maschine Entscheidungskonflikt und folgenschweren Eingreifen eines Menschen. Der Fluglotse schickt die Tupolew entgegen den Anweisungen des «TCAS» ebenfalls auf den Sinkflug, worauf es zur folgenschweren Kollision kommt. Die Aufzeichnungen der Blackbox über das Gespräch zwischen Kopilot und Pilot beweisen die Tatsache und Fehlentscheidung des gestressten Fluglotsen. Das zeigt, wann immer eine Maschine eine Entscheidung fällt ist der Mensch überfordert und vertraut eher seinem eigenen Instinkt.
Was zeigen uns diese beiden Beispiele für Big Data und KI im Alltag im kommerziellen Gebrauch bei der Verwendung unserer Daten? Das erste Beispiel zeigt gut auf, dass sich eben auch Maschinen irren können, nicht zu reden von den systematischen Irrtümern, die den Algo-rythmen zugrunde liegen könnten. Das zweite Beispiel zeigt zunächst einmal den Konflikt zwischen Mensch und Maschine auf? Wer hat recht? Wer ist schneller, besser oder zuverlässiger? Eins ist klar, Stress hat die Maschine nicht, sie rechnet und rechnet und spuckt Ergebnisse, Analysen und allenfalls Entscheidungen aus. Bei der Datenmenge, die es zu erfassen und auszuwerten gilt, liegt das Augenmerk auf der Geschwindigkeit und nicht auf der seriösen Strukturierung und wissenschaftlicher Akribie. Man kann es sich ja denken, je weiter die Entwicklung geht, umso mehr werden Maschinen über uns entscheiden, sei es bei der Kranken- und Autoversicherung, bei der Jobsuche und Stellenwahl, bei Kreditvergaben bei politischen Amtern und in den Akten von Behörden und Geheimdiensten. «Google» hat schon 2014 den US Solardrohnenhersteller «Titan Aerospace» gekauft. Der gläserne Mensch ist Realität geworden.
Hier deutet sich der Unterschied zwischen Mensch und Maschine bereits an. Der Sinn für Mystik, Metaphysik, Emphatie, Gefühle oder ein , ein Gewissen, Verantwortung, Solidarität, Reziprozität kennt ein Rechner nicht. Er trifft eiskalte Entscheidungen auch wenn er gerade ein wenig heiss läuft. Persönliche Daten sind das neue Öl des Internets und der New Economy und die neue Gold der digitalen Welt. Big Data ist die Symbiose von Mathematik, Algorythmen und künstlicher Intelligenz auf super schnellen Paralell-Rechnern. In den Nullerjahren began-nen die Unternehmen mit Big Data zur besseren und intensiveren Vermarktung ihrer Produkte über die digitalen Kanäle, vom Wunsch be-seelt, den Umsatz zu steigern. Seither wird nicht nur unser Kaufverhalten, unsere Klicks da und dort, sondern genau gesagt all unsere Aktivi-täten und Bewegungen ganz genau verfolgt und mit anderen Datenquellen vervollständigt. Unsere Telefonate und Chats werden ebenso minituös überwacht, mitgeschnitten, übersetzt sowie ausgewertet, wie mit wem wir interagieren und wohin wir fahren. Das ist beängstigend. Allein die Publikation meiner Buchkapitel rief tausende von Boots auf den Plan, die sich anmeldeten, um jedes Update auf meiner Webseite minitiuös zu überwachen. China, Russland, der Iran und die USA waren besonders intensiv vertreten.
Links: