Des Menschen bester Nachahmer

Schon mal ChatGPT benutzt? Oder sogar schon das frisch geschlüpfte GPT-4? Wenn ja, dann habt ihr wahrscheinlich ein mulmiges Gefühl gehabt. Irgendeine Mischung aus Faszination – ja sogar Begeisterung – und geistiger Bequemlichkeit, gepaart mit einem subtilen Gefühl von Haltlosigkeit und Unsicherheit. Natürlich kann das für jeden anders sein. Aber dieses unbestimmte Gefühl bei der Interaktion mit ChatGPT und anderen Modellen bleibt: Irgendwas ist komisch. 

Ein Gefühl, das auch OpenAI-CEO Sam Altman nicht leugnen kann. Schon 2016 stimmte es ihn melancholisch, als AlphaGo den Go-Weltmeister Lee Sedol besiegte. Amerikanische Journalistinnen und Journalisten hingegen, die näher an den aktuellen Entwicklungen dran sind, beschreiben ihre Erfahrungen mit K.I. irgendwo zwischen „unsettling“ und „dizzy and vertiginous“. Warum ist das so? 

Zum einen natürlich wegen der rasanten Entwicklung. Zum anderen vielleicht aber auch, weil wir diese Modelle menschenähnlich gestalten. Das selbsterklärte Ziel von OpenAI ist es, K.I-Systeme zu entwickeln, die sich möglichst „natürlich“ anfühlen. Und für uns Menschen fühlen sich diejenigen Interaktionen am natürlichsten an, die wir mit anderen Menschen haben. Es liegt also nahe, Künstliche Intelligenz so menschenähnlich wie möglich zu gestalten. Aber wollen wir das überhaupt? Denn auch die menschenähnlichste K.I. wird logischerweise nie wie ein Mensch sein. Sie wird uns immer lediglich gut imitieren können. So wie sie heute schon unsere „Intelligenz“ imitiert, hinter der nichts anderes als ausgeklügelte Vorhersage-Algorithmen steckt. Nicht umsonst nennen wir sie „künstlich“. Und solange K.I. diesen Zustand der Imitation nicht überwindet, wird das komische Gefühl im Umgang mit ihr wohl nie ganz verschwinden.

Benjamin Bratton weist in einem seiner Artikel zu Recht darauf hin, dass wir die „Intelligenz“ von K.I. fälschlicherweise daran messen, wie sehr sie dem Menschen ähnelt. Ein Phänomen, das wir auch jetzt mit der Veröffentlichung von GPT-4 beobachten konnten. Die „Reasoning Capabilities“ des neuen Sprachmodells wurden mit Hilfe verschiedener Logik-Tests für Menschen ermittelt. Künstliche Intelligenz und wir Menschen haben zunächst aber einmal grundsätzlich keine Überschneidungspunkte – es sind zwei grundverschiedene Entitäten. Erst nachdem K.I. über Jahre gelernt hat, die menschliche Sprache durch mathematische Vorhersagen zu meistern, können wir ihr nun auf abstrakter Ebene in Textform begegnen.

Volle Punktzahl für GPT-4 im „Reasoning“. Im Vergleich zu seinem Vorgängermodell GPT-3.5 hat die K.I. ein deutlich stärkeres Verständnis von komplexen Sachverhalten.

Das wirkliche Potenzial von K.I. könnte jedoch ganz woanders liegen – und nicht in der Nachahmung menschlicher Intelligenz. Das schreibt auch Bratton, der in K.I. eine radikal andere Form der Intelligenz sieht. In diesem Sinne schlägt Jan Söffner eine Entkoppelung von künstlicher und menschlicher Intelligenz vor, nachdem wir diese gerade erst zusammengebracht haben. Warum lassen wir die K.I. also nicht einfach ihr eigenes, ganz anderes Potenzial entfalten, anstatt sie auf Biegen und Brechen an uns anzupassen? Auch wenn uns das zwischenmenschlich und für unsere Mental Health sicherlich gut tun würde, ist es derzeit unwahrscheinlich, dass wir diese Kehrtwende vollziehen. Künstliche Intelligenz ist erst einmal hier, um bei uns zu bleiben. Zu groß sind ihre Heilsversprechen. So groß, dass wir auch ihre Schattenseiten bereitwillig in Kauf nehmen werden. 

Wenn K.I. also bleibt, wie denken wir ihre Entwicklung dann weiter? Vielleicht werden wir Künstliche Intelligenz bald ganz anders designen, um ihrer Andersartigkeit gerecht zu werden. Denn man kann durchaus behaupten, dass sich neue Technologien in ihren Anfängen meist an bereits Bestehendem orientieren. Oft imitiert sie zunächst das Vorhandene, bevor sie ihr eigenes „Wesen“, ihre eigene Designsprache entwickelt. Zur Veranschaulichung dieses Punktes lohnt sich ein Blick auf eine technologische Innovation, die gerade einmal 15 Jahre alt ist: das Smartphone.

Vielleicht erinnert ihr euch an die ersten lustigen Apps, die genau diese Nachahmung der uns bekannten Welt waren. Wie zum Beispiel die App „iBeer“, die ein digitales Bier auf dem Display füllte, um dann das Smartphone an den Mund zu halten und das Bier zu „trinken“. Damals ein lustiger Spaß, um das neuartige Gyroskop im Smartphone zum Spielzeug zu verwandeln, macht das heute niemand mehr. Denn das Smartphone ist heute kein Imitator der physischen Realität mehr, sondern hat sich zu einer eigenen, zweiten, digitalen Natur für uns entwickelt.

Die App iBeer in Aktion. Bild: The Guardian

Das sieht man auch in der Designsprache der Interfaces. Die ersten iOS-Systeme waren vom Design des „Skeumorphismus“ geprägt. GPT-4 erklärt euch in einem Satz, was man unter dieser Designsprache versteht: 

Skeumorphismus im Design von Software-Interfaces ist ein Gestaltungsansatz, bei dem digitale Elemente realen Objekten oder Materialien ähneln, um Benutzern durch Vertrautheit und Intuition eine leichtere Bedienung der digitalen Umgebung zu ermöglichen.

Diese Nachahmung der physischen Welt spiegelte sich gerade im Design der Apps wider: Die Notiz-App sah aus wie ein Notizblock, Apple-Books wie ein Bibliotheksregal, die Sprachnotiz-App wie ein Mikrofon, etc. 

Die Designphilosophie des Skeumorphismus erreichte mit iOS 6 seinen Höhepunkt. Bild: AppleInsider

Erst im Laufe der Generationen löste sich das Design von der nachgeahmten Realität und wurde zu etwas völlig Eigenständigem. Was also, wenn wir diese Entwicklung auf künstliche Intelligenz übertragen? Aktuell designen wir K.I. nach den Prinzipien unserer menschlichen Intelligenz, weil wir diese am besten kennen. Wir stehen noch ganz am Anfang in unserer Beziehung zur künstlichen Intelligenz als Technologie – ChatGPT ist noch kein halbes Jahr alt. Damit befinden wir uns gleichzeitig in der Phase der Imitation. Für die meisten von uns dürfte K.I. derzeit noch denselben Spielzeugstatus haben wie iBeer, auch wenn sie uns hier und da schon Dinge erleichtert und abnimmt. Aber das sind in der Regel alles Dinge, die wir aus unserer aktuellen Welt schon kennen: Content erstellen, Fragen stellen, Texte zusammenfassen, nach dem Sinn des Lebens fragen oder die K.I. zur Übernahme der Weltherrschaft bewegen.

Es macht aktuell also Sinn, künstliche Intelligenz so zu gestalten, dass sie dem Menschen ähnelt. Das schafft den Anschein von Vertrautheit und erleichtert uns den Übergang. Genau so, wie der Skeumorphismus uns damals den Übergang in unsere heutige digitale Umwelt erleichtert hat. Nur ist es gut möglich, dass diese Übergangsphase diesmal viel schneller abläuft als bei den Smartphones, da die aktuelle K.I.-Entwicklung exponentiell verläuft. Gerüchten zufolge befindet sich GPT-5 sogar schon im Training, und das mit deutlich leistungsfähigeren Chips als denjenigen, mit denen GPT-4 trainiert wurde.  

Im Bereich der künstlichen Intelligenz ist der Fortschritt also gerade rasant und niemand weiß so wirklich, was als nächstes kommt. Es scheint aber keineswegs abwegig, dass – ähnlich wie beim digitalen Design – auch die Künstliche Intelligenz bald eine neue, eigenständige Form entwickeln wird. Eine, die uns dann nicht mehr imitiert, sondern ihre eigene Daseinsform ist. Vielleicht sollten wir die aktuelle Zeit also auch mit einem gewissen Amüsement verfolgen, in der die künstliche Intelligenz immerhin noch versucht, so zu sein wie wir.