
Momentary laps of Reason? Not!
Was sind eigentlich Reasoning Modelle?
Sprachmodelle wie GPT-4o sind heute in vielen Unternehmen angekommen. Sie schreiben E-Mails, fassen Meetings zusammen oder helfen beim Programmieren. Doch was passiert, wenn es nicht nur um Sprachverständnis oder die nächste Textvervollständigung geht, sondern um echtes Problemlösen – um das, was man klassisch unter Denken oder Schlussfolgern versteht?
Genau hier beginnt der Unterschied zwischen klassischen Sprachmodellen und sogenannten Reasoning-Modellen.
Sprachmodelle wie GPT-4o – stark in Sprache, begrenzt im „Denken“
Modelle wie GPT-4o basieren im Kern auf einer simplen, aber mächtigen Idee: Sie sagen Wort für Wort vorher, was statistisch wahrscheinlich als nächstes kommt – sogenanntes Next Token Prediction. Das funktioniert gut für viele Aufgaben – solange die Aufgaben nicht zu komplex sind oder sich die Lösung direkt aus dem Kontext ergibt.
Doch sobald es mehrstufige Überlegungen braucht, etwa in der Datenanalyse, bei der Planung oder bei technischen Entscheidungen, geraten diese Modelle an Grenzen. Sie „denken“ nicht im eigentlichen Sinn, sondern vervollständigen Muster. Und das kann leicht zu oberflächlichen oder fehlerhaften Antworten führen.
Der Zwischenschritt: Chain-of-Thought
Um Sprachmodelle dennoch zu mehr Tiefe zu bringen, entwickelte man ein einfaches, aber wirksames Prinzip: Chain-of-Thought (CoT). Statt direkt eine Antwort zu geben, wird das Modell im Prompt dazu aufgefordert, seine Gedankengänge Schritt für Schritt zu formulieren. Das wirkt wie ein externes Notizbuch, in dem das Modell Zwischenüberlegungen sichtbar macht – vergleichbar mit einem Schüler, der nicht nur das Ergebnis hinschreibt, sondern auch den Rechenweg.
CoT ist allerdings kein Teil der Architektur des Modells – es ist eine clevere Prompting-Technik. Und genau hier setzen Reasoning-Modelle an.
Der nächste Schritt: Reasoning-Modelle wie GPT-o1 oder o3
Mit Modellen wie GPT-o1 oder dem aktuellen GPT-o3 geht OpenAI einen Schritt weiter. Diese Modelle wurden gezielt auf reasoning tasks trainiert – also auf Aufgaben, die logisches Denken, schrittweises Ableiten und strategische Planung erfordern. Der technische Unterschied liegt in mehreren Aspekten:
- Trainingsdaten und Aufgabenstruktur: Reasoning-Modelle bekommen speziell kuratierte Daten, bei denen Denkprozesse im Vordergrund stehen – etwa mathematische Beweise, logische Ketten oder komplexe Planungsszenarien.
- Verstärkendes Lernen (Reinforcement Learning): Statt nur „Was ist das wahrscheinlich nächste Wort?“ zu lernen, werden diese Modelle durch Feedback verstärkt – etwa durch menschliche Bewertungen (Human Feedback) oder durch automatisierte Bewertungen, ob ein Denkweg korrekt ist (reasoning traces).
- Explizites Denken als Teil der Modelllogik: Anders als bei CoT, wo das Denken nur nach außen sichtbar gemacht wird, ist bei Reasoning-Modellen das „Denken in Schritten“ Teil der inneren Verarbeitung.
Das Ergebnis: Reasoning-Modelle sind deutlich besser darin, komplexe Aufgaben zu lösen – sei es in der technischen Analyse, bei strategischen Fragestellungen oder in der Automatisierung mehrstufiger Prozesse.
Was bedeutet das für Dein Unternehmen?
Der Einsatz von Reasoning-Modellen eröffnet völlig neue Möglichkeiten – von KI-Systemen, die komplexe Anfragen durchdringen, bis hin zu Agenten, die ganze Aufgabenketten eigenständig bearbeiten. Doch diese Modelle entfalten ihr Potenzial erst dann richtig, wenn man versteht, wie man sie richtig nutzt – durch geeignetes Prompting, durch Strukturierung von Aufgaben, durch sinnvolle Modellwahl.
Genau das vermitteln wir in unseren ChatGPT Prompting-Trainings: Dort zeigen wir, wie man mit den richtigen Techniken aus einem Sprachmodell ein denkendes Werkzeug macht – ob mit GPT-4o, CoT-Prompting oder mit einem echten Reasoning-Modell wie GPT-o3.