“Künstliche Intelligenz nehme ich erst ernst, wenn die menschliche Dummheit abgeschafft ist”, hatte ich unlängst einmal spaßeshalber gesagt, als ein Gespräch auf den akuten KI-Hype kam und ein Zitat des Computeringenieurs Emerson Pugh angefügt: “Wenn unser Gehirn so simpel wäre, dass wir es verstehen könnten, wären wir so simpel, das wir es nicht könnten.” Solange wir also das Gehirn und seine hervorragenden Eigenschaften – allen voran das Bewusstsein – nicht wirklich verstanden haben, solange können alle Versuche, es nachzubauen nur laienhafte Versuche bleiben. Die Unternehmungen des “Re-Engeneering” der Gehirnfunktionen in der Hoffnung, dass so etwas wie Bewusstsein/Intelligenz dabei herauskommt, erinnern ein wenig an den Cargo-Kult von Eingeborenen, die halluzinierten, mit Leuchtfeuern, Holzkopfhörern und Fahnen den fortgesetzten Abwurf von Flugzeugladungen heraufbeschwören wollen. Okay, ganz so verrückt ist es mit den Hoffnungen auf KI nicht mehr, immerhin ist ChatGPT mittlerweile für Bachelor,- und Doktorarbeiten gut, was aber nicht heißt, dass KI vor Halluzinationen, dem Verwechseln von Einbildung und Wirklichkeit, geschützt ist. Die KI-ChatBots haben kein Wissen von der Wirklichkeit, sondern basieren auf Wahrscheinlichkeiten und Prognosen und sind somit zwangsläufig fehlerhaft. Einen zweiten KI-Bot als Faktenchecker dahinter zu schalten, wie ihn ausgerechnet Microsoft jetzt an den Start bringt, entspricht dem Geschäftsmodell: “Der Herr der schickt den Jockel aus” , Dazu Fefe auf seinem Blog:
“Oh Mann. Ich habe ja einen Vortrag auf der Heise Security Tour gehalten…über die Frage, ob uns KI retten wird in der Security. Die Antwort war natürlich Nein. Die Begründung war, dass wir in der Security im Wesentlichen zwei Dinge tun: Sichere Architekturen konstruieren und existierende Dinge prüfen. Beides kann KI nicht. Dass KI Dinge nicht prüfen kann, habe ich damit illustriert, dass man sonst ja einfach eine KI hinter die erste schalten könnte, die auf Halluzinationen prüft. Die Idee ist so auffallend dämlich, dass es eigentlich gar nicht das Detail brauchte, dass das niemand tut, um zu verstehen, wieso das nicht funktioniert. “KI” halluziniert, und der Prüfer würde dann halt auch halluzinieren. Aber hey, keine Sache ist so dämlich, dass sich nicht irgendein Debiler findet, der es trotzdem macht. In diesem Fall: Microsoft. Ob die nach den Testern auch die Entscheider rausgeschmissen und durch “KI” ersetzt haben? Auf so eine bekloppte Idee kann eigentlich kein Mensch gekommen sein, hoffe ich zumindest aus rein eigennützigen Gründen. Ich möchte mir nicht vorstellen, dass meine Spezies so blöde ist. Damit noch Hoffnung besteht.
Die Hoffnung stirbt ja angeblich zuletzt – was möglicherweise damit zu tun hat, dass hier auch einfach ein fehlerhafter Halluzinator hinter den anderen geschaltet wird. Wie auch immer, was bei der IT-Sicherheit nicht geht, weil die KI die Wahrheit der Netzwerkarchitektur nicht wirklich kennt, könnte ja vielleicht auf anderen Feldern funktionieren, also da, wo sich Intelligenz-Bots genau auskennen mit der Wirklichkeit, keinen elektronischen Halluzinationen anheimfallen und fehlerhafte Einschätzungen der menschlichen Intelligenz erfolgreich korrigieren können. Zum Beispiel auf dem ihm Rahmen des Wahrnehmungsmanagments und der Narrativkontrolle so wichtigen Feld der Verschwörungstheorien. Und siehe da: “Durably reducing conspiracy beliefs through dialogues with AI” meldet “Science” die Ergebnisse einer Studie, bei der im Dialog mit der KI der Verschwörungsglaube der Teilnehmer um 20% reduziert worden sein soll, “Mondlandung doch echt ? – KI überzeugt selbst hartgesottene Skeptiker”, setzt “Telepolis” noch einen drauf. Beide Organe zählen ja eigentlich nicht zur YellowPress, aber niemand scheint da auf die Idee von der Beklopptheit der Idee (siehe oben) gekommen zu sein.
Da es in diesen Dialogen mit der KI querbeet um den jeweiligen Verschwörungsglauben der 2190 Versuchskaninchen ging – vom lebenden Elvis über JFK bis zu Aliens und 9/11 – hätte auch ein Blick in das “Lexikon der Verschwörungstheorien” , das ich 2000 mit Robert Anton Wilson herausgebracht habe, wahrscheinlich locker für mindestens 20% “Heilungserfolg” sorgen können. Da davon auszugehen ist, dass eine schlaue KI ein solches Standardwerk kennen sollte, ebenso wie in Sachen Kennedy-Mord zum Beispiel das Buch “JFK -Staatsstreich in Amerika”, wäre ich sehr gespannt , wie mich die KI von meinem Unglauben an die “magische Kugel” und den Einzeltäter Oswald abbringt. Oder mir das 9/11-Märchen von Osama und den 19 Teppichmessern, die mit zwei Flugzeugen drei Wolkenkratzer dem Erdboden gleichmachten, so überzeugend nahebringt, dass ich der Geschichte eine zumindest 20-prozentige Wahrscheinlichkeit zusprechen muss. Weil ein einzelner Verstand nicht so viele Daten sammeln kann wie ein Computer, ist davon auszugehen, das eine gut gefütterte KI deutlich mehr über JFK oder 9/11 weiß als ich und deshalb auch zu deutlich anderen Wahrscheinlichkeiten für die Wahrheit dieser ungeklärten Fälle kommt. Doch dann wäre zu überprüfen, ob sie ein echtes Bild dessen was wirklich geschah zusammensetzt, oder ob sie mal wieder halluziniert – und der “Faktenchecker” kann keine KI sein, es sei denn sie ist noch ein bisschen besser gefüttert, aber dann…siehe oben.
Und: was passiert, wenn unser perfekt gefütterter Chat-Bot erkennt was zB den Einsturz von WTC 7 am 11.9.2001 betrifft, dass als Ursache brennenden Büromöbeln – wie in der offiziellen Version – nur eine Wahrscheinlichkeit von unter 0,5 % zukommt. Entwickelt sich die KI dann selbst zum Konspirologen und verbreitet Zweifel am herrschenden Narrativ oder wird sie von ihren Wärtern dann abgeschaltet, sicherheitshalber, weil sie noch nicht gelernt hat, zwischen offiziell erwünschten und unerwünschten Verschwörungstheorien zu unterscheiden und nur erstere als “wahrscheinlich wahr” durchgehen zu lassen. Ein ChatBot mit einem IQ über Zimmertemperatur, der alle Ungereimtheiten der offiziellen 9/11-Story kennt, könnte sie nicht mehr als historische Realität akzeptieren und wäre dann sicher auch in der Lage, bei einer Studie 20 % der Teilnehmer zum “Verschwörungsglauben” zu bekehren – indem sie darlegt, dass es sich bei der offiziellen 9/11-Version um eine Erzählung handelt , die von der Realität und gerichtsfesten Beweisen nicht gedeckt ist. Wie auch immer: die Maschine kann nur wissen, was ihr an Daten vorliegt, deren Qualität wiederum von der Vielzahl und Zuverlässigkeit der Quellen abhängt.
Auf der Ars Electronica in Linz 1990, nach einer Konferenz über Virtuelle Realität, saß ich in einem schönen Wirtshaus mit dem Bewusstseinsforscher Timothy Leary zusammen als ein weiterer Referent auf der Suche nach etwas Essbarem zu uns stieß: der “Vater” der “Künstlichen Intelligenz” und Gründer des AI-Labors am Massachussets Institute of Technolgy (MIT) Marvin Minsky. Sofort führten die beiden ein angeregtes Gespräch und ich war glücklich, zwischen diesen beiden Pionieren – dem “kalten” Maschinenintelligenzler und dem “heißen” Neuro-Kosmonauten – “Mäuschen” spielen zu können. (Hier meine Reportage über diese Konferenz: “Postymbolische Kommunikation”) Als irgendwann die Rede auf Science-fiction-Filme kam, fragte Leary, ob sich Minksy an einen Streifen aus den fünfziger Jahren erinnere, in dem ein Professor eine Maschine baut und an sein Gehirn anschließt. Den genauen Titel des Films bekam ich nicht mit, aber Minskys begeisterte Antwort: „Na klar kenne ich den, das war doch der Film, nach dem ich beschloss, ein genauso verrückter Wissenschaftler zu werden…“
Der Hype um das “Elektronengehirn”, den er seit Ende der 50er-Jahre entfacht hatte, war mangels praktischer Erfolge zu diesem Zeitpunkt schon ebenso abgeklungen wie die Investitionen in KI. Außer Schachcomputern war wenig “Intelligentes” dabei herausgekommen und auch die waren eigentlich nur schnelle Rechenmaschinen und Minsky mit seinen Prognosen schon deutlich kleinlauter. Drei Jahrzehnte später sind die Rechenmaschinen um ein Vielfaches schneller, Phantastilliarden werden investiert um sie “intelligent” zu machen bzw. zu behaupten sie seien es schon. Dabei sind sie immer noch nichts anderes als Rechner, schnelle Suchmaschinen, auch wenn sie sich wie Perplexity jetzt schon “Antwortmaschine” nennen. Beim Ausprobieren haben wir da natürtlich immer Thomas Pynchon im Sinn: “Wem es gelingt, dir falsche Fragen einzureden, dem braucht auch vor der Antwort nicht zu bangen”.
*
Wenn Sie die Arbeit an diesem Blog unterstützen wollen: kaufen, empfehlen, verschenken Sie meine Bücher. Vielen Dank!
Erschienen am 10. Juni 2024
Mathias Bröckers: Inspiration – Konspiration – Evolution. Gesammelte Berichte aus dem Überall,
Fifty-Fifty (Juni 2024), 464 Seiten, 30 Euro













