Im Gegensatz zur schwachen künstlichen Intelligenz wird als starke künstliche Intelligenz (auch Superintelligenz, oder engl.: strong AI oder Artificial General Intelligence AGI ) ein lernfähiges System bezeichnet, das die gleichen intellektuellen Fertigkeiten wie Menschen erreichen kann.
Theory of Mind
Während die zuvor beschrieben KI-Systeme bereits allgegenwärtig sind, auch wenn an weiteren Verbesserungen laufend gearbeitet wird, sind Künstliche Intelligenzen, die Bedürfnisse, Überzeugungen, Emotionen erkennen und damit in der Lage sind, sich in die Gedanken des Gegenübers hineinzuversetzen, der nächste Schritt, an dem geforscht wird. Deshalb auch die Konnotation mit Theory of Mind, denn darunter versteht man in der Psychologie die Fähigkeit, Gefühle, Wahrnehmungen und Gedanken anderer einzuordnen und deren Verhaltensweisen einzuschätzen. (Stangl, 2020).
Dabei geht es um die Integration von Systemen mit künstlicher Intelligenz in den sozialen Alltag, denn ohne Verständnis von menschlichen Gedanken, Emotionen und Erwartungen kann eine Kommunikation zwischen Mensch und Maschine nicht wie gewünscht funktionieren. Eine weitere Forderung dabei wäre, dass diese Systeme auch in der Lage sind, ihr Verhalten an veränderte Bedingungen anzupassen.
AI with Self-Awareness / Intelligenzen mit Selbstbewusstsein
Dies wäre wohl als letzter – von manchen gewünschter – Schritt in der Entwicklung von KI-Systemen zu betrachten. Doch diese Entwicklung fällt heute unter die Rubrik Science-Fiction. Der Begriff des Bewusstseins hat die Philosophie seit jeher als Leib-Seele-Problem, später als Körper-Geist Problem und damit als Frage nach dem Verhältnis von geistigen und körperlichen Zuständen begleitet und kann bis heute nicht zufriedenstellend beantwortet werden.
So eine starke künstliche Intelligenz würde nicht mehr ausschließlich reaktiv, sondern aus eigenem Antrieb handeln. Diese Gedanken lassen Vorstellungen hochkommen, die sich mit dystopischen Ideen einer Welt befassen, in der Menschen mit solchen Maschinen im Wettstreit stehen. Und diesen Kampf aller Voraussicht nach verlieren würden. Nicht umsonst werden solche Gedanken mit dem Frankenstein Mythos verglichen, einer Situation, in der ein technologisches Produkt außer Kontrolle gerät.
Noch ist es ein offensichtlich wissenschaftlicher Wunschtraum, solch eine künstliche Intelligenz zu entwickeln. Vertritt man die Position von Hans Moravec, der, wie bereits erwähnt, die Entwicklung einer starken KI bis zum Jahr 2050 für möglich hält – so ist man gefordert, über Regeln zu diskutieren, die für eine starke KI gelten sollten. Denn diese starke KI sollte die folgenden Eigenschaften aufweisen, um als wirklich intelligent gelten zu können.
- Logisches Denkvermögen
- Entscheidungsfähigkeit auch bei Unsicherheit
- Planungs- und Lernfähigkeit
- Fähigkeit zur Kommunikation in natürlicher Sprache
- Kombinieren aller Fähigkeiten zur Erreichung eines übergeordneten Ziels
Dieser letzte Punkt scheint die essenzielle ethische Frage im Zusammenhang mit künstlicher Intelligenz, welcher Ausprägung auch immer, zu sein. Denn was oder wer immer das übergeordnete Ziel definiert, wird maßgeblich an den Aktionen dieses System teilhaben und dafür wohl auch Verantwortung zu übernehmen haben. Diese Fragen sind essenziell in die Entwicklung solcher intelligenter Systeme mit einzubinden.
„Die Geschichte hat gezeigt, dass Menschen in ihrem Wissensdrang gar nicht so gern an die ethischen Fragen denken und damit auch nicht an die ethischen Konsequenzen, weil es ihnen zuerst einmal darum geht, zu zeigen, dass das – (was sie vorhaben- vom Autor eingefügt) – überhaupt funktioniert“ . (Metzinger, 2017, min 16:40)
In diesem Zusammenhang werden auch Fragen nach einem möglichen Bewusstsein intelligenter Systeme gestellt, wobei auch erörtert wird, ob es so etwas wie Empathie, Selbsterkenntnis, und /oder Gedächtnis geben könnte. Es gibt Zweifel daran, ob so etwas wie Selbstbewusstsein und Ich-Gefühl, das mit der Erfahrung von Vergangenheit einhergeht, bei intelligenten Systemen überhaupt entstehen kann. (Metzinger, 2017, min 29:00) Auch der Begriff der Intelligenz wird im Zusammenhang mit intelligenten Systemen kritisch hinterfragt, denn Lernen und Intelligenz wird als „menschliches Gesamtpaket im Kopf“ (Bostrom, 2017, min 30:00) bezeichnet, das nicht einfach nachgebaut werden könne. Nochmals sei die Aufmerksamkeit auf das übergeordnete Ziel solch eines Systems und die Definition dieses Ziels gelenkt. Wer immer dieses Ziel definiert, muss davon ausgehen, dass dieses Ziel von der künstlichen Intelligenz emotionslos und unter allen Umständen umgesetzt werden würde.
Im Falle, dass als Ziel die optimale Produktion von Büroklammern definiert würde, wird eine mit diesem Ziel ausgestattete Intelligenz sämtliche verfügbaren Ressourcen diesem Ziel unterordnen. Sollte der Mensch dies nicht wollen, so stünde er diesem Ziel im Weg – was könnte wohl die Konsequenz sein? „Wenn wir schon einen Geist in der Flasche haben, würde er eines Tages herauskommen – also ist es nur vernünftig, dass es ein freundlicher Geist ist, den wir erschaffen“ (Bostrom, 2017, min 40:00)
Es ist also an der Zeit, vor der Entwicklung solch starker künstlicher Intelligenzen den Einsatz dieser Systeme zu reglementieren. Auch in dem Bewusstsein, es könnte sich ein Staat oder ein Unternehmen – und damit die in dieser Organisation maßgeblichen Menschen – über diese Regeln hinwegsetzen. „Die großen Risiken liegen weit in der Zukunft, wir haben Zeit, darüber nachzudenken, wir sollten nur damit anfangen.“ (Metzinger, 2017, min 42:15)
Noch weiter in der Zukunft liegt die Idee der
Artificial Super Intelligence (ASI)
Manche sehen die Entwicklung einer Künstlichen Super Intelligenz als Höhepunkt der KI-Forschung. Vor allem die Entwicklung von immer schnelleren Prozessoren und immer größeren und schnelleren Speicherbausteinen lässt Ideen aufkommen, künstliche Intelligenzen könnten die Fähigkeiten von Menschen übertreffen und damit einen Prozess einleiten, der zu einem nächsten Schritt der Evolution führen würde. Diese Entwicklung würde den Menschen ermächtigen, seine biologischen und genetischen Beschränkungen zu überwinden.
Allerdings wird dabei nicht darauf Bedacht genommen, dass eine künstliche Intelligenz nicht an unserer Stelle atmen kann. Sie kann auch nicht „anstelle des Bewusstseins unserer selbst“ das Leben erleben. Aus diesem Blickwinkel ist festzuhalten, dass der Stellenwert von Künstlicher Intelligenz und Mensch sich als von Grund auf unterschiedlich darstellt. Eine Vermengung von beidem kann nicht als zielführend betrachtet werden. (Hashi, 2020)
Nicht zufällig nennt man die oben angesprochene Denkrichtung Transhumanismus, deren Protagonisten von Superintelligenz, Superlanglebigkeit und Superglücklichsein träumen. (https://www.transhumanist.com) Diese Entwicklungen führen aus Sicht der Anhänger zu einem Szenario, das als Singularität bezeichnet wird. (Kurzweil, 2005) Das Versprechen mit superintelligenten Maschinen eine bessere Welt für alle zu schaffen, klingt zwar verlockend. Der Blick in die Geschichte der Menschheit allerdings zeigt, dass solche Utopien schlicht nicht umsetzbar sind oder in einer Katastrophe zu enden drohen. Das wäre schließlich etwas, was man wirklich als Disruption bezeichnen könnte.