KI-Experte warnt vor falschen Schlüssen

Werden KI-Modelle wie ChatGPT dümmer?

14. September 2023, 11:10 Uhr | Karin Zühlke
Diesen Artikel anhören

Fortsetzung des Artikels von Teil 1

"Das Paradox des Gedächtnisschwunds"

Prof. Barenkamp, der als Vorsitzender des wissenschaftlichen Beirats der Studiengesellschaft für Künstliche Intelligenz e.V. die öffentliche Diskussion über Fragen der Künstlichen Intelligenz mit seiner Expertise unterstützt, spricht in diesem Zusammenhang vom "Paradox des Gedächtnisschwunds". Hierbei bezieht sich "Gedächtnisschwund" darauf, dass GPT-4 trotz seiner enormen Datenkapazität Schwierigkeiten hat, ältere Informationen korrekt zu priorisieren oder zu behalten. Dies legt nahe, dass das Modell trotz kontinuierlicher Dateneingabe möglicherweise nicht alle Daten in einem nützlichen oder zugänglichen Format speichert, schlussfolgert der Experte.

Darüber hinaus wirft die aktuelle Debatte aus seiner Sicht auch die Frage nach der Relevanz der Modellgröße auf: "Ein größeres Modell bedeutet nicht zwangsläufig ein intelligenteres oder effizienteres Modell, wie lange vermutet wurde", stellt Prof. Barenkamp fest. Im Gegenteil könnte es zu einer Verringerung der Effizienz und Genauigkeit führen, insbesondere wenn das Modell auf widersprüchliche oder fehlerhafte Daten stößt.

Um dieses Problem zu verdeutlichen, zieht der KI-Experte einen Vergleich zum menschlichen Leben heran: Die Unterscheidung zwischen Verhalten und Fähigkeiten ist nicht nur in der Welt der Künstlichen Intelligenz relevant, sondern spiegelt auch menschliches Verhalten wider, wie etwa das eines hochbegabten Kindes in einem traditionellen Schulsystem. "Dieses Kind hat die Fähigkeit, hochkomplexe mathematische Probleme zu lösen oder literarische Texte auf einem fortgeschrittenen Niveau zu interpretieren, das die Erwartungen für sein Alter übertrifft", erklärt der Experte. Trotz dieser außergewöhnlichen Fähigkeiten kann das Kind jedoch in einem herkömmlichen Klassenzimmer unangemessenes Verhalten zeigen, etwa durch

Störung aus Langeweile oder sogar Rebellion

Vermeidung von Fehlinterpretationen durch einfache Schlussfolgerungen Prof. Barenkamp weist darauf hin, dass ein solches Verhalten leicht als Mangel an Intelligenz oder Motivation fehlinterpretiert werden könnte, wenn es in Wirklichkeit Unzufriedenheit oder Frustration widerspiegelt. Daher betont er die Bedeutung der Unterscheidung zwischen dem Potenzial eines Modells (Fähigkeiten) und seinen aktuellen Handlungen (Verhalten), so wie es bei Menschen der Fall ist. Ein Modell kann das Potenzial haben, hochkomplexe Aufgaben auszuführen, aber unter bestimmten Umständen oder speziellen Anfragen unerwünschtes Verhalten zeigen. Prof. Barenkamp betrachtet diese Unterscheidung als entscheidend, um die Fähigkeiten von KI oder großen Sprachmodellen objektiv zu bewerten.
"Es mag verlockend sein, einfache Schlussfolgerungen zu ziehen, aber wissenschaftliche Untersuchungen zeigen, dass die Dinge nicht schwarz-weiß sind", schlussfolgert der KI-Experte.

Daher hält er es für wesentlich, das Verhalten von den Fähigkeiten eines Modells zu trennen und zu erkennen, dass unerwünschtes Verhalten nicht zwangsläufig eine Einschränkung der Fähigkeiten eines Modells bedeutet.


  1. Werden KI-Modelle wie ChatGPT dümmer?
  2. "Das Paradox des Gedächtnisschwunds"

Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu elektroniknet

Weitere Artikel zu Künstliche Intelligenz (KI)