Dieser Wettbewerb um Aufmerksamkeit ist also nachweislich mit ökonomischen Aspekten verbunden. Bezogen auf die Welt des Digitalen, die Verlinkung von Webseiten, die Nutzung sozialer Netzwerke, Cloud Computing und der Anwendung künstlicher Intelligenz etc. kommt es dabei zu einem Lock-in Effekt, der es erschwert, diese Mechanismen zu vermeiden oder ihnen zu widerstehen. Die kurzfristig sichtbaren Vorteile durch die Nutzung dieser Dienste sind offensichtlich – ein mögliches Risiko einfach zu weit weg.
Es ist dies mit einem faustischen Pakt vergleichbar, einem Pakt mit dem Teufel, der sofort Erfolg, Reichtum und Glück verspricht. Der Preis dafür wird so weit in die Zukunft oder ins Ungewisse verschoben, dass der notwendigen Bezahlung keine Aufmerksamkeit gewidmet wird.
Dieses Szenario wird oft als Vorteil interpretiert. So kann man die Argumentation hören, dass die vielfache Nutzung dieser Systeme mit dem Ausblick auf positiv zu erwartende emergente Phänomene beschrieben wird. [Bloomberg Originals „Open AI Gründer über die Zukunft der Künstlichen Intelligenz | Exponentially“]
Diese Worte über Emergenz enthalten jedoch einen großen Fehler – Emergenz ist nicht etwas, das vorhergesagt werden kann – Emergenz kann nur bestimmt werden, nachdem sie beobachtet wurde, d.h. ein emergentes Phänomen aufgetreten ist. Man kann auch nicht erwarten, dass in der Vergangenheit aufgetretene positiv eingeschätzte emergente Phänomene sich in der Zukunft wiederholen würden. Sobald man über zukünftige Entwicklungen spricht, kann man nur hoffen, dass etwas entsteht, man kann jedoch nicht sagen was entstehen wird. So werden komplexe Zusammenhänge in einem Licht dargestellt, als könnte man sie beherrschen.
In einer derart global organisierten und digitalisierten Welt mit kulturell unterschiedlichen Bedürfnissen gibt es aufgrund der zunehmenden Komplexität notgedrungen Tendenzen, die einfache Lösungswege aufzuzeigen scheinen – FakeNews!? – einfache Antworten auf komplexe Fragestellungen bieten jedoch in solchen Kontexten keine Lösung. Mögliche Antworten entwickeln sich zu Glaubenssätzen – Ideologien.
So werden die Veränderungen durch Digitalisierung und KI nicht nur zur Herausforderung durch die vielfach angesprochenen gesellschaftlichen Disruptionen bezüglich Arbeitswelt und Kommunikation. Auch für die Vereinbarungen, die als Folge der Aufklärung des 17. und 18. Jahrhunderts heute die Grundlagen unserer Gesellschaften darstelllen gibt es Konsequenzen.
In diesem Sinne ist jetzt wieder so etwas wie eine Zeit der Aufklärung gefordert. Dies konfrontiert uns mit Herausforderungen, die uns erst einmal bewusst werden müssen. Wir leben in einer Zeit, in der die technologische Entwicklung unsere Lebensumstände innerhalb weniger Jahre stark verändert. Dadurch entsteht der Eindruck, dass wir wenig Zeit haben, den Umgang mit Digitalisierung und KI zu regeln – und unter Zeitdruck neigt der Mensch zu Entscheidungen, die sich als fehlerhaft erweisen.
Ein erster Schritt könnte sein, kritisches Denken zu aktivieren und sich dessen bewusst zu werden, dass KI auf der Imitation menschlichen Denkens beruht. Dazu gehört natürlich auch, dass man sich mit der Funktionsweise diverser KI-Modelle auseinandersetzt. Hat man dies getan, lässt man kaum einer Imitation denselben oder sogar einen höheren Stellenwert als einem Original zuteil werden! Auch wenn mögliche Anwendungen manchmal staunend die Ergebnisse betrachten lassen.
Bloomberg Originals, „Open AI Gründer über die Zukunft der Künstlichen Intelligenz |Exponentially“ https://www.youtube.com/watch?v=w5nEf-HahZM zuletzt 22.10.2023[Franck 2014] Franck, Georg: Jenseits von Geld und Information: Zur Ökonomie der Aufmerksamkeit. In: Piwinger M. (Hrsg), Zerfaß A. und (Hrsg.): Handbuch Unternehmenskommunikation. Wiesbaden : Gabler Verlag, 2014
NDR / Ratgeber Gesundheit) https://www.ndr.de/ratgeber/gesundheit/Was-ist-Intelligenz,intelligenz114.html zuletzt 22.10.2023
Übrigens antwortet ChatGPT auf die Frage, ob ein LargeLanguageModel wirklich intelligent sei, mit folgender Antwort:
„The LLM (Language Model) model, developed by OpenAI, is designed to generate human-like text based on the input it receives. While it can generate coherent and contextually relevant responses, it is important to note that this does not imply true intelligence. The LLM model does not possess consciousness or understanding in the way that humans do. It is merely trained through large-scale datasets to predict the likelihood of certain words or phrases following specific prompts. Therefore, while it can produce impressive results, it does not exhibit genuine intelligence.“