ChatGPT und menschliche Emotionen: Das Ergebnis hat uns extrem überrascht
10.6.2023, 19:47 UhrChatGPT hier, Midjourney dort, Dall-E, Adobe und viele weitere Anbieter. Das Schlagwort „Künstliche Intelligenz“ (KI) ist derzeit genauso beliebt wie in der Zeit der Pandemie das Schlagwort „Crypto-Währungen“ und die damit benötigten Grafikkarten, um sie zu schürfen. Nur dieses Mal gibt es einen entscheidenden Unterschied: KI hat bereits bewiesen, dass es das Leben der User:innen deutlich einfacher machen kann. Und das in ganz unterschiedlichen Bereichen. Ein Drehbuch für einen eignen Film? ChatGPT. Eine einfühlsame Nachricht an den oder die Freund:in? ChatGPT. Überschriften, Schlagworte oder Blog-Einträge? ChatGPT. KI ist also in aller Munde. Wobei: Im Falle von „ChatGPT“ ist KI eigentlich die falsche Bezeichnung. Denn: Das Chat-Programm, das mit 500 Milliarden Trainingsdaten gefüttert wurde und daraus Muster in menschlichen Texten ableitet, ist ein sogenanntes „Large Language Model“ (LLM). LLMs werden aus einem neuronalen Netzwerk mit zahlreichen Parametern und gigantischen Mengen an Text durch selbst überwachtes oder halb überwachtes Lernen trainiert. Bedeutet: Das Programm verbessert sich komplett selbst, oder anhand von seltenen menschlichen Eingaben.
KIs und deren Verwendung: Menschliche Abgründe
Zum ersten Mal aufgetaucht sind LLMs im Jahr 2018. Und obwohl ein LLM keine Definition hat, werden damit überwiegend Deep-Learning-Modelle gemeint. Deep-Learning wird beispielsweise auch bei Deepfakes und Deep-Audio eingesetzt. Das sind Video- oder Audiofälschungen, die Gesichter von Menschen in jede beliebige Szene implementieren können, egal ob jugendfrei oder nicht. Welche negativen, drastischen Folgen diese Technologie für Content-Creator:innen haben kann, zeigte jüngst die Influencerin Jasmin Sibel, auch bekannt als „Gnu“.
Trotzdem zeigen Beispiele wie eben ChatGPT, welches jüngst im zweiten Anlauf das Abitur in Bayern bestand, dass es nur noch eine Frage der Zeit zu sein scheint, bis maschinenbasierte Hilfsmittel unseren Alltag bestimmen, oder bereichern. Je nachdem, wen Du fragst.
Eines der ureigensten Charakteristika für Menschen sind Gefühle und Emotionen. Und rein theoretisch betrachtet, sind das immer noch die Bereiche, in denen Chatbots und LLMs die größten Schwächen offenbaren. Deswegen haben wir einmal GPT4 (das aktuelle Modell) und GPT 3,5 nach Briefen für die Mutter, nach einer ersten Nachricht auf einer Dating-Plattform, oder einem Liebesgeständnis gefragt. Und sind überrascht worden.
Wenn es um sogenannte „Generative AIs“ (Inhalte erstellende Künstliche Intelligenzen) geht, dann ist vor allem eines essenziell: Das richtige Prompten, also den eigenen Wunsch so spezifisch wie möglich der KI zu verklickern. Jegliche Ungenauigkeiten, werden sich im Ergebnis widerspiegeln.
Beim Beispiel von einem Brief an die Mutter muss etwa der Inhalt des Briefes spezifiziert werden. Ansonsten werden sämtliche Informationen in den Briefinhalt umgewandelt, auch wenn Dinge wie der Beruf, vergangene Tätigkeiten oder der Gesundheitszustand keine elementare Rolle in einem Glückwunsch-Brief zum Geburtstag spielen sollten.
Dating mit ChatGPT: So wird das nichts
Dasselbe Phänomen gab es auch bei den Dating-Versuchen. ChatGPT greift sämtliche beschreibende Details auf und walzt sie so umfangreich aus, dass diese erste Nachricht aller Voraussicht nach unbeantwortet bleibt. Ein Beispiel: Die beschriebene Dame mag es am Wochenende auch mal auf der Couch einen guten Film zu sehen, die Natur, hört Hard-Rock, Metal und Rap und hat Sommersprossen. All diese Infos wiederkäut ChatGPT. „Dein Profil hat sofort meine Aufmerksamkeit erregt. Kein Wunder, bei den Interessen! Natur, Hard-Rock, Metal und Rap - da spricht definitiv eine Frau mit Geschmack und Persönlichkeit. Deine Sommersprossen haben was von einer Landkarte zu versteckten Schätzen. Und wenn du lächelst, sieht man Sterne in deinen Augen. Was ich besonders cool finde: Du kannst auch einen Gang runterschalten und bei 'nem guten Film chillen. Ich kann auch genauso gut auf meiner Couch chillen, wie ich headbangen kann.“
Warum der Text so austauschbar und generisch wirkt, ist ebenfalls schnell erklärt. Das Lernmodell, auf dem ChatGPT basiert, versteht Text auf einer statistischen Ebene. Grob zusammengefasst: Das LLM sucht nach Mustern in den Texten, und kann so „menschlich“ antworten. Allerdings gibt es keine Möglichkeit, menschliche Gefühle zu verstehen oder zu interpretieren. Aufgrund dieser Unfähigkeit, Emotionen zu verstehen, neigt ChatGPT dazu, auf allgemeine Formulierungen zurückzugreifen. Diese werden als Heuristik oder Regel verwendet, um immer dann eingesetzt zu werden, wenn Emotionen involviert sind. Das Paraphrasieren oder Wiederholen der Eingabe des Benutzers wird ebenfalls als "Spiegelung" verwendet, um Empathie zu simulieren. So täuscht ChatGPT menschliches Verhalten, mal mehr, mal weniger erfolgreich vor, ohne ins Detail gehen zu müssen.
Einfühlsame Nachrichten von ChatGPT möglich
Trotzdem ist bereits die aktuelle Version von ChatGPT erstaunlich effektiv, wenn es um den Dialog zwischen Menschen, insbesondere beruflicher Natur geht, die richtigen Angaben an den Chatbot vorausgesetzt. Wer etwa ein entsprechendes Anschreiben für einen Job will und den Bot mit ordentlich Informationen füttert, erhält ein gutes bis sehr gutes Ergebnis. Selbst bei schwierigen Themen, wie dem Verlust eines geliebten Familienmitglieds, kann ChatGPT einen Anstoß für Nachrichten liefern. Auf die Nachricht, dass das Haustier verstorben ist, schreibt der Bot etwa: „Es tut mir sehr leid zu hören, dass Danny nicht mehr bei dir ist. Es ist nie einfach, einen geliebten vierbeinigen Freund zu verlieren. Bitte denke daran, dass die schöne Zeit, die du mit Danny verbracht hast, und all die liebevollen Erinnerungen, die du mit ihm teilst, immer bei dir bleiben werden. Danny hatte sicherlich ein glückliches und erfülltes Leben an deiner Seite. Meine Gedanken sind in dieser schwierigen Zeit bei dir.“
Bei allen Stärken und Vorteilen, die ChatGPT zweifelsohne bietet, sollte Dir aber bewusst sein, dass es Momente gibt, in denen das Programm komplett den Ton verfehlt, weil es eine Stimmung nicht richtig einschätzen kann. Außerdem gibt es zahlreiche Berichte darüber, dass ChatGPT Fakten erfindet, wenn es keine finden kann. Das konnten wir in unseren Versuchen bestätigen. Auch deswegen gibt es mittlerweile eine Erklärung von führenden KI-Experten, die über ein breites Spektrum an bedeutenden und drohenden Risiken der KI diskutieren. Aufgrund fehlender aktueller Regularien war der Chatbot auch rund einen Monat in Italien gesperrt.
Keine Kommentare
Um selbst einen Kommentar abgeben zu können, müssen Sie sich einloggen oder sich vorher registrieren.
0/1000 Zeichen