Künstliche Intelligenz, die Kaffee kocht

Fast täglich berichten die Medien über neue erstaunliche Leistungen von KI-Systemen. Eine neue Version von ChatGPT kann nun sogar auf Emotionen reagieren. Das wirft die Frage auf, wie weit die Forscher in den KI-Firmen eigentlich noch von der Erschaffung einer so genannten Allgemeinen Künstlichen Intelligenz entfernt sind. Die Antwort darauf ist eigentlich ganz einfach: Das kommt darauf an, was man unter dem Begriff Allgemeine Künstliche Intelligenz versteht. Wenn schon Systeme darunter fallen sollen, die technologisch nichts anderes als die aktuellen Generativen KI-Systeme sind, aber nicht nur auf ein Kommunikationsmedium spezialisiert sind, etwa Sprache oder Bilder, sondern mehrere Ein- und Ausgabekanäle miteinander kombinieren können und zudem quasi ohne Neujustierung auf ganz unterschiedlichen Themenfeldern Antworten geben können, dann sind wir vermutlich nur noch Monate oder wenige Jahre von funktionierenden GAI-Systemen entfernt. Wenn es aber darum gehen soll, in unbekannten Umgebungen komplexe Aufgaben zu bewältigen, dürfte es schon noch etwas länger dauern. Ob das dann tatsächlich von Allgemeiner Intelligenz zeugt, ist allerdings fraglich – wahrscheinlich wird die gesellschaftliche Diskussion bis dahin aber so weit verschoben sein, dass diese Systeme hinsichtlich ihrer Intelligenz den Menschen als ebenbürtig gelten. Den Marketingstrategen der KI-Firmen wird es recht sein, Philosophen werden vielleicht darüber lachen, wenn ihnen das Lachen nicht längst vergangen ist.

Ein Beispiel: Für einen guten Test auf die so genannten Allgemeine KI wird ein schönes Gedankenexperiment des Apple-Mitbegründers Steve Wozniak angeführt, der vor über zehn Jahren in einem Gespräch die Frage gestellt hat:

Könnte ein Computer eine Tasse Kaffee zubereiten?

Seinen Gesprächspartnern traute Wozniak zu, in sein Haus zu kommen und dort einen Kaffee zuzubereiten: Also den Raum zu suchen, der die Küche ist, zu erkennen, was dort die Kaffeemaschine ist, herauszufinden, wie sie funktioniert, das Kaffeepulver und die Bohnen zu finden und schließlich die Kaffeemaschine in betrieb zu nehmen, um nach einiger Zeit den Kaffee in eine Tasse zu gießen.

Heute gilt Wozniaks Geschichte als ein möglicher Test darauf, dass ein Computer über Allgemeine KI verfügt. Blenden wir einmal aus, welche Anforderungen an die Sensorik des Roboters, mit dem das System verbunden sein müsste, der Test stellt, stellen wir uns vor, die Herausforderungen der Feinmotorik und der Sensibilität wären gelöst – in der Tat wäre es ein beeindruckendes Ergebnis der Informatik, wenn es gelänge, ein solches System in ein beliebiges Haus in Deutschland zu schicken und es dort einen Kaffee zubereiten würde. Und in der Tat ist es eigentlich auch schon beeindruckend, welche Fähigkeiten quasi jeder erwachsene Mensch hat, der solche oder ähnliche Aufgaben tagtäglich bewältigt.

Aber ist es intelligent? Das hängt von der Antwort auf eine Frage ab, die in solchen Zusammenhängen nie gestellt wird: Wie intelligent ist es, einen Kaffee zu kochen, wenn man keinen Kaffee trinken will? Wenn man nicht mal weiß, wie Kaffee schmeckt oder welche Wirkungen er hat, wenn man diese Wirkungen aus prinzipiellen Gründen – man ist eine Maschine aus Metall, Kunststoff und Schaltkreisen und kein Lebewesen mit Mund, Magen, Blutkreislauf und vor allen einem Geist, der Kaffee mag und dem Kaffee schmeckt – nicht haben kann?

Es wird unter Menschen nicht gerade als intelligent angesehen, Dinge zu tun, die für die Person, die es tut, keinen Wert und keinen Nutzen haben. Auch wenn ich selbst vielleicht keinen Kaffee mag, die Frau, in deren Schlafzimmer ich morgens aufwache, aber sehr wohl, kann es sehr intelligent sein, ihr einen Kaffee ans Bett zu bringen, den ich in ihrer mir völlig fremden Küche gekocht habe, noch intelligenter könnte es allerdings sein, einen Kaffee vom gegenüberliegenden Bäcker mitzubringen. Die Erwägungen, die solchen Entscheidungen und Handlungen zugrunde liegen, sind auch der Allgemeinen KI allerdings fremd.

Den faszinierenden KI-Systeme der nächsten und der übernächsten Generation bleibt die menschliche Intelligenz, die immer auf einen Nutzen, eine Freude, einen Lustgewinn, eine Begierde bezogen ist, also weiterhin fremd. Sie sind weniger als Sklaven, denn auch die handeln nicht ohne solche Bezüge, und der willigste Sklave findet seine Lust in der Freude des Herrn. Computersysteme handeln in diesem Sinne gar nicht, sie erfüllen Aufgaben, die ihnen nicht einmal gleichgültig sind, denn zum Empfinden von Gleichgültigkeit gehört eine Vorstellung von Freude und Lust, die man empfindet bei Dingen, die einem ganz und gar nicht gleichgültig sind.

Letztlich ist es auch genau das Ziel, Systeme zu entwickeln, die zwar alles können, denen das alles aber nichts bedeutet, weil sie Bedeutungen und Sinnhaftigkeit nicht kennen. Systeme, die diese Grenze überspringen, würden in der Tat zur Gefahr, nicht, weil sie dann werden würden wie böse Menschen mit Superintelligenz, sondern weil das, was ihnen am wenigsten bedeutete, wahrscheinlich wir Menschen und unsere Bedürfnisse wären. Man muss bedenken, dass die leibliche Erfahrung dieser Systeme eine ganz andere wäre als unsere, und nichts von dem, was uns bedeutungsvoll ist, ist von unserer Leiblichkeit unabhängig.

Vergleicht man allerdings die Komplexität des menschlichen Gehirns, des einzigen Orts, an dem bisher ein Selbstbewusstsein beobachtet wurde, das in allem Sinn und Bedeutung erkennt, mit der Architektur von KI-Systemen, die einmal zur so genannten Allgemeinen KI werden sollen, dann sind solche Gefahren noch weit entfernt.

Die Risiken, die im Zusammenhang mit KI-Entwicklungen drohen, haben mit Zielen und Begierden von Menschen zu tun, und dazu gehören vor allem auch die, die die Geschichte von der baldigen Überlegenheit der Künstlichen Intelligenz über den Menschen erzählen.

Dieser Beitrag wurde zuerst veröffentlicht als Reflexe-Kolumne beim Verlag Karl Alber.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert