KI mit Köpfchen: Kann „o1“ von OpenAI menschliches Denken simulieren?
OpenAIs neue Kl „o1“ soll menschliches Denken simulieren und damit effizienter als herkömmliche KI-Modelle sein.
OpenAI hat mit „o1“ ein neues Sprachmodell entwickelt, das angeblich „denkt“, bevor es antwortet. Doch stellt sich die Frage, ob diese neue Technologie wirklich mehr leistet oder lediglich gut vermarktet wurde. Der KI-Podcast der ARD hat das Modell in einem umfangreichen Test auf Herz und Nieren geprüft.
Herkömmliche KI-Modelle arbeiten ähnlich wie Autokorrektur-Systeme. Sie fügen Wörter anhand von Wahrscheinlichkeiten aneinander und erzeugen so Antworten, die oft flüssig wirken, aber manchmal unsinnig oder fehlerhaft sind. OpenAI, Anthropic und Google DeepMind haben viel investiert, um diese Schwächen zu beheben, jedoch mit gemischtem Erfolg. Obwohl Modelle wie ChatGPT und Claude im Laufe der Zeit robuster wurden, stoßen sie bei komplexen Aufgaben immer noch an ihre Grenzen.
Interner Denkprozess als neues Feature
OpenAI hat mit „o1“ einen neuen Ansatz verfolgt, der einen internen Denkprozess simuliert. Dieser Prozess, der als „Chain of Thought“ bekannt ist, soll das Modell dazu befähigen, bevor es antwortet, verschiedene Lösungsansätze zu prüfen. Nutzer sehen zunächst einen Timer, während o1 im Hintergrund verschiedene Gedankengänge durchläuft. Das Modell überprüft Zwischenergebnisse, ändert bei Bedarf seine Strategie und liefert schließlich eine durchdachte Antwort. Besonders interessant: Das Modell gibt eine kurze Zusammenfassung seines Lösungsweges.
Laut dem Team des KI-Podcasts der ARD bringt dieser Ansatz klare Vorteile, vor allem bei komplexen Aufgaben. Ihre Tests zeigen jedoch, dass „o1“ nicht in allen Bereichen überzeugt.
Erfolge bei komplexen Aufgaben
In einem Experiment stellte das Modell eine Sitzordnung für eine Hochzeit auf, bei der bestimmte Gäste nicht nebeneinander sitzen durften. Frühere KI-Modelle versagten bei dieser Aufgabe, doch „o1“ löste sie souverän. Auch bei wissenschaftlichen und mathematischen Fragestellungen zeigte „o1“ seine Stärken.
Der renommierte Mathematiker Terence Tao verglich das Modell mit einem „mittelmäßigen, aber nicht inkompetenten Masterstudenten“. Er lobte es als deutlichen Fortschritt im Vergleich zu älteren Modellen, die er laut dem BR als „tatsächlich inkompetent“ bezeichnete.
Schwächen bei einfachen Aufgaben
In einem anderen Test zeigte „o1“ jedoch Schwächen. Das Modell verschlüsselte eine Nachricht mit einem einfachen Code. Als es dann gebeten wurde, die unverschlüsselte Nachricht zu liefern, verstrickte es sich in unnötige Überlegungen und gab nach fast drei Minuten ein falsches Ergebnis. Das herkömmliche Modell Claude löste die Aufgabe dagegen problemlos und in kürzester Zeit.
Mehr zum Thema KI:
- The Great Pretender: KI-Modelle liefern immer häufiger Unsinn – und Nutzer merken es nicht
- Überwachung durch KI: Warum OpenAI jetzt im Zentrum der Kritik steht
- Studie offenbart: Wer höflich ist, bekommt von ChatGPT bessere Antworten
Die Zusammenfassungen, die „o1“ während seines „Denkprozesses“ anzeigt, verwirrten die Hosts des Podcasts. Sie verglichen das Modell mit einem „Jahrmarkt-Hellseher“, der unverständliche Beschwörungen murmelt, um Eindruck zu schinden.
Auf dem Weg zur denkenden KI?
Trotz der gemischten Ergebnisse sehen die Experten des KI-Podcasts in „o1“ einen wichtigen Schritt nach vorne. Sie betonen, dass die Fähigkeit, komplexe Aufgaben zu lösen und den Lösungsweg zu dokumentieren, eine wertvolle Weiterentwicklung sei. Diese Fortschritte könnten künftig für die Verkettung von KI-Systemen entscheidend sein.
Die hohen Kosten und der Ressourcenverbrauch von „o1“ werfen jedoch Fragen auf. Es bleibt unklar, ob dieses Modell tatsächlich den erhofften Durchbruch darstellt. Dennoch weist „o1“ in eine Richtung, in der KI-Systeme möglicherweise Denkprozesse simulieren und so menschlichen Fähigkeiten näherkommen.
Was du dir merken solltest:
- OpenAI hat mit dem Modell „o1“ eine neue Technologie entwickelt, die einen internen Denkprozess simuliert, um komplexe Aufgaben besser zu bewältigen.
- In Tests konnte „o1“ beeindruckende Ergebnisse bei schwierigen Aufgaben liefern, zeigte jedoch Schwächen bei einfachen Aufgaben.
- Der KI-Podcast der ARD sieht in „o1“ einen Fortschritt, aber es bleibt unklar, ob dieses Modell den endgültigen Durchbruch darstellt.
Übrigens: Indien setzt auf künstliche Intelligenz, um Elefanten vor Kollisionen mit Zügen zu bewahren und so das Leben der Tiere besser zu schützen. Mehr dazu erfährst du in unserem Artikel.
1 thought on “KI mit Köpfchen: Kann „o1“ von OpenAI menschliches Denken simulieren?”