Die Auseinandersetzung mit Künstlicher Intelligenz ist nicht unbedingt eine Angelegenheit des aktuellen Jahrhunderts. Seit es Ideen gibt, bestimmte Aufgaben von Computern erledigen zu lassen, wird daran gearbeitet, diese Art von Lösungen zu optimieren.
Mathematische Theoreme und die Entwicklung von Computern bewirkten, dass Ende der 1940er-Jahre neue Forschungsrichtungen entstanden, innerhalb derer Wissenschafter sich die Fragen stellten, ob Computer denken könnten. So veröffentlichte Alan Turing im Jahr 1950 einen Artikel, der sich mit der Frage der Intelligenz von Computern auseinandersetzte. (Turing, 1950) Der nach Alan Turing genannte Turing-Test war ein theoretisches Konstrukt, das ermöglichen sollte festzustellen, ob ein Computer das gleiche Denkvermögen wie ein Mensch haben könnte. Die Testanordnung wurde vielfach beschrieben. Ein Mensch sollte mittels einer Tastatur ohne Sichtkontakt Fragen stellen, die entweder von einem anderen Menschen oder von einem Computer beantwortet werden sollten. Der fragende Mensch sollte dann beurteilen, ob die Antworten von einem Menschen oder doch vom Computer gegeben worden waren. Sobald die fragende Person die Antworten des Computers als menschliche Antworten einschätzte, hätte der Computer den Test bestanden.
Turing selbst nannte diese Anordnung „The Imitation Game“ . Er hielt fest, dass man die Frage, ob „Maschinen denken könnten“ eher durch die Frage „Sind digitale Computer vorstellbar, die in diesem Spiel der Nachahmung erfolgreich sein könnten“ ersetzen sollte. (Turing, 1950, S 442) Das Bestehen des Tests – durch den Computer – ist somit von mehreren Faktoren abhängig. Einerseits von der fragenden Person, von den Antworten des menschlichen Widerparts und vom Computer selbst. Wobei die Fähigkeiten sowohl der fragenden als auch der antwortenden Person und die Intention in diesem Spiel zu täuschen, maßgeblichen Einfluss auf den Ausgang des Tests haben. Gleichwohl wurde dieser Test und die beschriebene Anordnung zur Grundlage der Forschung zu Künstlicher Intelligenz.
Das Gedankenexperiment des Chinesischen Zimmers sollte zeigen, dass menschliche Intelligenz nicht durch Computer simuliert werden kann. (Searle, 1980) Angenommen, eine Person, die weder chinesisch sprechen, noch schreiben oder lesen kann, säße in einem geschlossenen Raum. Diese Person hätte eine Anleitung in ihrer Muttersprache zur Verfügung, die es möglich macht, auf Basis erhaltener chinesischer Symbole, eine Antwort zu geben, die für einen fragenden Beobachter Sinn machen würde.
Dieser Vorgang erfordert kein Verständnis der Fragen und Antworten, denn der Algorithmus der Anleitung genügt. Personen außerhalb des Raumes schließen aus den Antworten, dass in dem Raum ein Mensch sitzt, der Chinesisch beherrscht.
Dieses Experiment sollte zeigen, dass ein Computer einen Algorithmus ausführen und Zeichen verändern kann, ohne diese Zeichen verstehen zu müssen. Bezogen auf den Turing-Test bedeutet dies, dass ein bestandener Turing-Test nicht zwangsläufig auf eine starke künstliche Intelligenz verweist. Auch in den 80er-Jahren des vorigen Jahrhunderts hat sich unter anderen der aus Österreich stammende Wissenschafter Hans Moravec mit Robotik und künstlicher Intelligenz im Rahmen seiner Studien an der Carnegie Mellon Universität in Pittsburgh beschäftigt. Interessant daran ist, dass er bereits damals eine Formulierung fand, die als Moravecsches Paradoxon bekannt wurde. So hatte er festgestellt, dass es wenig aufwendig sei, regelkonformes Denken von Computern durchführen zu lassen. Im Gegensatz dazu wäre es mit immensem Aufwand verbunden, die sensomotorischen Fähigkeiten eines einjährigen Kindes mittels Computern nachzubilden. (Moravec, 1988, S 15) Dies macht es möglich, dass Computer Schach, Dame, Go besser spielen können als Menschen. Damit hat Moravec bereits vor mehr als dreißig Jahren definiert, was heute als schwache KI bezeichnet wird. Diese schwache künstliche Intelligenz übertrifft menschliche Fähigkeiten in abgegrenzten Bereichen an Genauigkeit und Effizienz.
Im Gegensatz dazu könnte starke künstliche Intelligenz in allen Lebensbereichen zumindest das gleiche Niveau wie das menschliche Gehirn erreichen. Auch das hat Hans Moravec als erreichbar und sogar wünschenswert angesehen, weil er meinte, dass diese Art von Intelligenz menschliche Unterschiede auf Basis von Kultur und überlebensnotwendige Eigenschaften, die sich in Machtbestrebungen und Aggressionen äußern, obsolet machen würde. Damit könnte gleichsam ein nächster Evolutionsschritt gesetzt werden.
Diese Art von starker KI meint er, würde bis zum Jahr 2050 möglich sein. (Moravec, 1999)