Ungeachtet der Tatsache, dass manche Menschen mehr oder weniger zur Unwahrheit neigen, ist es eine unbestreitbar menschliche Eigenschaft, eine Meinung über Dinge zu äußern, von denen man keine Kenntnis hat, anstatt das zu tun, was oft vernünftiger wäre: einfach zu sagen “Ich weiß es nicht”.
Aktuelle Studien, darunter auch die angesehene Fachzeitschrift Nature, zeigen, dass wir nicht alleine sind. Es scheint, dass künstliche Intelligenz, insbesondere ChatGPT, dieses Verhalten schon mit erstaunlicher Ähnlichkeit nachahmt.
Die brennende Frage, die viele Experten momentan zu beschäftigen scheint, ist das “Warum?”. Liegt es an den Informationen, die üblicherweise in das Training dieser Technologien einfließen, oder gibt es einen anderen Grund?
ChatGPT lügt und gibt seine Meinung ab, ohne zu wissen, wovon es spricht, aber mit Selbstvertrauen
Seit ChatGPT und künstliche Intelligenz allgemein an Popularität gewonnen haben, wird oft von KI-Halluzinationen gesprochen. Tatsächlich handelt es sich dabei um Situationen, in denen die KI bei der Bereitstellung von Informationen für die Benutzer versagt.
Zum Beispiel, wenn er dir sagt, dass ein Buch von Borges García Márquez gehört. Das passiert. Das Merkwürdige ist, so die Natur, dass es sich um ein “sehr menschliches” Verhalten handelt.
Wir sollten anfangen zu verstehen, dass die ersten KI-Sprachmodelle in gewisser Weise ehrlicher waren. Stellte man ihnen eine Frage, auf die sie keine Antwort wussten, schwiegen sie einfach – ein Verhalten, das man auch von einem ehrlichen Menschen erwarten würde. Heute jedoch hat sich ihre Herangehensweise „weiterentwickelt“, allerdings zum Nachteil.
“Selbstbewusst über Dinge zu sprechen, die wir nicht kennen, ist ein typisch menschliches Problem. Große Sprachmodelle sind Nachahmungen menschlichen Verhaltens”, erklärte Wout Schellaert, KI-Forscher an der Universität Valencia. Er ist einer der Hauptautoren des Artikels, der diese Tatsache betont.
Offenbar liegt die Verantwortung für diese Veränderung nicht bei der KI selbst, sondern bei denjenigen, die sie steuern. Aus kommerzieller Perspektive zeigten Unternehmen wie OpenAI kein Interesse an ihren Produkten, da sie zugaben, nicht fähig zu sein, die Hälfte der gestellten Fragen zu beantworten. An diesem Punkt wird das Konzept des “überwachten Lernens” relevant, wie es von Experten genannt wird.
Warum lügt KI immer mehr?
Schellaert zufolge ist die Antwort “einfach”. “Das Problem beim Reinforcement Learning besteht darin, dass eine KI darauf optimiert wird, die Belohnung zu maximieren, jedoch nicht notwendigerweise auf eine gute Weise.” Indem den Modellen beigebracht wurde, dass es schlecht ist zu sagen ‘Ich weiß es nicht’, begannen sie, diese Antwort zu meiden. Stattdessen gaben sie falsche, aber überzeugend wirkende Antworten.
Mit anderen Worten, es waren die Erfinder der künstlichen Intelligenz selbst, die diese Technologie dafür ausgezeichnet haben, dass sie auch auf Unbekanntes oder auf Fragen, zu denen es keine Informationen gibt, Antworten liefert.
Um dies zu belegen, existieren Daten, die – im Gegensatz zur Künstlichen Intelligenz – nicht irreführen. Ein Experiment mit 300 Teilnehmern ergab, dass ChatGPT bei 19 % der wissenschaftlichen Fragen und bei 40 % der komplexeren Aufgaben, wie etwa der Neuorganisation von Informationen, täuschte.
Bild: Grok

Werden Sie Teil unserer Community und unterstützen Sie uns! Sie können uns in den Sozialen Netzwerken am besten auf Telegram oder auf X oder Facebook folgen, um unsere Inhalte zu empfangen. Oder noch besser melden Sie sich für unseren Newsletter an, um die Neuigkeiten des Tages zu erhalten.
Gerne können Sie auch Premium-Mitglied werden oder uns durch eine wirklich hilfreiche Spende unterstützen. Herzlichen Dank im voraus!
Abonnieren Sie unseren Newsletter