Immer wieder finden sich in Medien Berichte über “Künstliche Intelligenz” die sich einer Sprache bedienen, die den Eindruck erweckt, als wäre künstliche Intelligenz etwas, das in letzter Konsequenz für Menschen oder die Menscheheit insgesamt gefährlich werden könnte. Bei Schlagzeilen wie “Google’s AI declares Galactic War on Starcraft” (8.8.2017 www.wired.com) – und daraufhin “Googles künstliche Intelligenz erklärt Strategiespiel ‘Starcraft 2’ den Krieg” (10.8.2017 derStandard.at) wird mit dieser Angst gespielt, indem der Begriff der KI mit dem Begriff des Krieges kombiniert wird. Hier merkt man, dass die Gedanken der jeweiligen Redaktion nicht weiter reichen, als bis zu der Vorstellung von möglichst attraktiven und damit klick-intensiven Headlines.

Seit im Mai 1997 der damalige Schachweltmeister Garri Kasparow gegen DeepBlue, den Schachcomputer von IBM, unter Wettbewerbsbedingungen mit 2 1/2  zu 3 1/2  Partien verloren hat, steigern sich die Herausforderungen, denen sich Entwickler von Systemen künstlicher Intelligenz stellen, laufend. So hat  AlphaGO – der GO Computer von Deepmind, der KI-Projektgruppe von Google – im Herbst 2015 einen Profispieler und mehrfachen europäischen Go-Meister geschlagen. Die Grundlage für diese Leistung künstlicher Intelligenz wird in einem in dem Wissenschaftsjournal  Nature  veröffentlichten Paper beschrieben (Mastering the game of Go with deep neural networks and tree search). Daraus ist zu entnehmen, dass dieser Erfolg mit einer Kombination von neuronalen Netzen und einer Baumsuche erzielt werden konnte. Dies bedeutet, dass die neuronalen Netze so trainiert werden, dass die Baumsuche auf eine extrem geringe Anzahl von Verzweigungen reduziert werden kann und das System somit sehr schnell zu optimalen Lösungen kommt.

Diese Netze wurden vorerst mit Millionen von Zügen mittels supervised learning von Experten trainiert und in der Folge mittels reinforcement learning bei Spielen gegen sich selbst mit weiteren Zügen und Daten erweitert.

Aus diesen Darstellungen ist ersichtlich, dass Künstliche Intelligenz, wie sie in solchen Spielen eingesetzt wird, zwar lernfähig auf Basis von neuronalen Netzen und Suchen innerhalb des Rahmens der anzuwendenden Regeln und der vorhandenen Daten sind (je mehr Daten verfügbar sind, desto effizienter können die Auswertungen sein –  ein Fall für BIG DATA ), außerhalb des definierten Rahmens jedoch keinerlei Funktionen, die annähernd intelligent erscheinen mögen, ausführen können.

Die oben genannten Berichte, die KI mit Krieg gleichsam in in einem Atemzug nennen, beziehen sich somit auf den Versuch von Deepmind, das Spiel “Starcraft 2” auf Basis von machine learning und dem damit verbundenen Training optimal, und somit besser als Menschen zu spielen. Wohl gleichbedeutend damit, fix vorgegebene Regeln, und seien diese noch so komplex in ihrem Zusammenwirken, zu interpretieren.

Diese Art von Lösungskompetenz ist maximal ein Teilaspekt von Intelligenz – bezieht man sich auf die Aussage von Theodor W. Adorno:   “Intelligenz ist eine moralische Kategorie” (Minima Moralia, Artikel Wishful Thinking Nr. 127)