Woran man Künstliche Intelligenz immer erkennt

Seit einigen Wochen kann jeder, der bereit ist, sich als Benutzer zu registrieren, mit einem Sprachsystem kommunizieren, welches von seinen Autoren als Artificial Intelligence, als Künstliche Intelligenz, bezeichnet wird.

Man gibt Fragen oder Aufforderungen zum Schreiben eines Textes ein und das System erzeugt eine beeindruckende Menge von Wörtern und Sätzen, die scheinbar die Anforderung erfüllen, die man an das System gestellt hat. Man kann sogar reagieren, zweifeln, korrigieren, weiterfragen, und die Antworten erwecken den Eindruck, vernünftige Reaktionen zu sein, einschließlich Korrekturen und Ergänzungen.

Wie ist es möglich, dass uns Texte, die von einem Algorithmus erstellt werden, beeindrucken, dass wir sie gar für intelligent halten, dass wir dem Computerprogramm eine eigene Art der Intelligenz zugestehen?

In der Tat ist es eine bemerkenswerte Leistung der Programmierer, eine Frage zu analysieren, einen Satz als Anforderung zu interpretieren, den Kern der Fragestellung herauszufinden. Ebenfalls beeindruckend ist es, dass es den Programmierern gelingt, Sätze zu erzeugen, die der deutschen Grammatik genügen, und Informationen zusammenzufügen, die als Antwort auf die gegebene Frage wahrgenommen werden können.

Es kann an dieser Stelle zunächst dahingestellt bleiben, ob die Algorithmen tatsächlich eine systematische, Schritt für Schritt vorgehende Analyse der Frage durchführen und ebenso Schritt für Schritt in riesigen Datenbeständen nach passenden Informationen suchen, die sie dann nach einem strengen Regelwerk zu einem korrekten Text zusammenfügen – oder ob sie in riesigen Textbeständen nach Mustern und Strukturen suchen, und aus den Mustern und Strukturen der Fragen nach den statistischen Maßzahlen der Texte eine passende Wortmenge generieren.

Der Bildschirm als Spiegel

Beides ist eine faszinierende Leistung; es zeugt von der hohen Intelligenz derer, die solche Verfahren erdacht, in Computern implementiert und wiederum Schritt für Schritt in Versuch und Irrtum, mit kreativen Ideen und Intuitionen, auf der Basis von Erfahrungen, Diskussionen und gewagten Thesen verbessert haben. Einer sehr menschlichen Intelligenz allerdings.

Aber ist das Ergebnis selbst intelligent? Ist das Vorgehen, das da programmiert wurde, intelligent? Zeugt der Text, der auf dem Bildschirm erscheint, von einer künstlichen Intelligenz, die da in den vernetzten Großcomputern am Werke ist?

Nach dem berühmten Turing-Test wäre ein System als intelligent zu bezeichnen, wenn wir nicht mehr unterscheiden können, ob sich am anderen Ende des Kommunikationskanals ein Mensch oder ein Computer befindet. Sehen wir einmal davon ab, dass diese Frage im Falle der aktuellen Systeme schon deshalb sehr einfach zu beantworten ist, weil sie auch auf komplexe Anforderungen extrem schnell antworten – dass sie nicht überlegen, nicht nachschlagen, nicht zögern. Das könnte man, wenn man einen Turing-Test durchführen will, leicht simulieren.

Auch die Tatsache, dass ein Computersystem immer sofort grammatikalisch und orthographisch korrekte Texte produziert, spräche eben genau dafür, dass da kein Mensch, sondern eine komplexe Softwarelösung agiert. Dieser Gedanke bringt uns allerdings auf eine Spur, die bei der Beantwortung der Frage hilft, warum wir so bereitwillig die Produkte der Algorithmen für Erzeugnisse einer Intelligenz halten.

Es gilt gemeinhin als Zeichen von Intelligenz, die Regeln der Muttersprache fehlerfrei zu beherrschen und ohne Zeitverzug und umständliche Korrekturen sowohl im Mündlichen als auch im Schriftlichen „druckreife“ Sätze aneinanderzureihen. Wir bewundern die Rednerin, die frei sprechen kann und dabei jeden langen Satz ohne Zögern grammatikalisch korrekt zu Ende bringt.

In den Wissenschaften geht diese Tendenz noch weiter: Studierende lernen, klar strukturierte und formalisierte Texte zu schreiben, der Satzbau verschiedener wissenschaftlicher Arbeiten ähnelt sich zum Verwechseln. Das soll Professionalität, Objektivität und Sachlichkeit signalisieren, wissenschaftliche Rationalität, Vernunft, also all das, was wir heute für die Krone der menschlichen Intelligenz halten. Sachbuch-Texte und Wikipedia-Artikel ahmen diesen Stil nach, um Seriosität und Genauigkeit zum Ausdruck zu bringen.

Es ist klar, dass der Stil solcher Texte von einem Algorithmus besonders schnell erlernt werden kann, und dass es besonders einfach ist, Texte solcher Art zu produzieren, die dann wiederum beim Publikum den Eindruck erwecken, besonders intelligent zu sein, weil sie eben so klingen, als seien sie von einer Wissenschaftlerin oder einem Sachbuchautor verfasst worden.

Die wichtigste Voraussetzung für das Gelingen der sogenannten künstlichen Intelligenz, wie sie uns derzeit immer häufiger begegnet, ist also nicht so sehr das Können der Programmierer, sondern der Umstand, dass wir in der modernen technischen Gesellschaft schon lange damit begonnen haben, unsere menschliche Intelligenz technisch zu normieren – und dass wir für besonders lobenswert halten, was eben auch algorithmisch erzeugt werden kann.

Individuelle Stile, unverwechselbare persönliche Ausdrucksformen sind in den Bereichen, die wir für Königsdisziplinen der menschlichen Intelligenz halten, in den Naturwissenschaften und Ingenieursdisziplinen, unerwünscht. Für klug wird gehalten, was sich in mathematischen Formeln und in formalisierten Sätzen ausdrücken lässt.

Diese Formalisierung erstreckt sich auch längst auf andere Bereiche. Emotionen werden durch Emoticons symbolisiert, die eine klare Sprache sprechen. Diese lassen sich leicht animieren und werden etwa durch Animationsfilme popularisiert. Damit lernen wir wiederum, wie wir eine bestimmte Emotion ausdrücken und darstellen sollen, damit sie erkannt wird. Es ist wenig überraschend, dass wir dann staunen, wie gut humanoide Roboter und Computerinterfaces Emotionen „zeigen“ können.

Es sei angemerkt, dass ein modernes algorithmisches Textmodell natürlich auch hochgradig individuelle, einzigartige Ausdrucksweisen simulieren kann. Vermutlich würde ein Computersystem, dem man die mehr als hundertbändige Gesamtausgabe Martin Heideggers zum Lernen gibt, anschließend Texte produzieren können, die für Laien nicht vom Original zu unterscheiden wären. Selbst wer mit Heideggers Texten vertraut ist, würde womöglich unsicher sein.

Woran würde eine Philosophin, die viele Aufsätze und Tagebucheinträge von Heidegger gelesen hat, am Ende merken, dass sie es mit dem Produkt eines Algorithmus zu tun hat? Sie würde feststellen, dass sie mit dem Text trotz aller Bemühungen, trotz des Versuchs, sich in den Sinn hineinzudenken, nichts anfangen könnte, dass er ihr keine Einsichten und Anregungen verschaffte. Durch ihre lange Beschäftigung mit Heideggers Philosophie hat sie es nämlich zuvor geschafft, sich einen gemeinsamen Denkraum mit dem Freiburger Philosophen zu erschaffen. In diesem Denkraum kann sie sich Heidegger und seinem Werk verständigen. Mit dem Produkt des Computers würde ihr das nicht gelingen – der Turing-Test schlüge fehl.

Um es zu wiederholen: Das, was den Programmierern da gelungen ist, ist ein technisches Meisterwerk. Es demonstriert aber vor allem, wie sehr sich unser Intelligenzbegriff im Lauf der letzten Jahrhunderte auf rein technisch-mathematisches Berechnen und Kombinieren reduziert hat. Er hält uns den Spiegel vor: Nicht eine künstliche Intelligenz tritt uns da entgegen, sondern eine über weite Strecken degenerierte menschliche Intelligenz. Und unsere Bewunderung ist der Versuch, darauf auch noch stolz zu sein.

Dieser Text erschien zuerst am 19.01.2023 auf welt.de