Die nächste Stufe nach LLMs – Was ist Hierarchical Reasoning? - Teil 1

Die nächste Stufe nach LLMs – Was ist Hierarchical Reasoning? - Teil 1

Teil 1 einer Serie über das Hierarchical Reasoning Model (HRM) und seinen Einsatz im Unternehmen


Große Sprachmodelle haben in den letzten zwei Jahren alles verändert. Sie schreiben Texte, fassen Dokumente zusammen, generieren Code und beantworten Fragen in einer Qualität, die vor kurzem noch undenkbar war.

Und trotzdem: Wer versucht hat, GPT-4, Claude oder Gemini für echte Entscheidungslogik einzusetzen, kennt das Problem.

Sie klingen überzeugend — aber sie denken nicht wirklich.

Das Problem: LLMs raten, sie schlussfolgern nicht

Große Sprachmodelle sind im Kern Vorhersagemaschinen. Sie berechnen: Welches Wort kommt wahrscheinlich als nächstes? Das machen sie brillant. Aber diese Architektur hat eine fundamentale Schwäche:

LLMs haben kein internes Modell von Logik.

Sie haben Milliarden von Textmustern gesehen, in denen logische Schlussfolgerungen vorkommen. Sie können diese Muster imitieren. Aber sie bauen keine echten Schlussfolgerungsketten auf.

Das zeigt sich in der Praxis:

  • Einfache Logikrätsel bringen LLMs regelmäßig ins Straucheln — obwohl sie auf den ersten Blick trivial wirken.
  • Mehrstufige Planungsaufgaben führen zu Halluzinationen, weil das Modell keinen echten Plan verfolgt, sondern Token für Token „improvisiert".
  • Konsistenz über längere Argumentationsketten ist nicht garantiert — das Modell vergisst oder widerspricht sich.

Die Industrie hat versucht, das mit Tricks zu lösen: Chain-of-Thought Prompting, Tree-of-Thought, Retrieval-Augmented Generation. Diese Methoden helfen — aber sie sind Pflaster auf einer Architektur, die für etwas anderes gebaut wurde.

Ein anderer Ansatz: Hierarchical Reasoning Model (HRM)

Das Startup Sapient Intelligence hat einen radikal anderen Weg eingeschlagen. Statt ein LLM zu nehmen und es zum Denken zu überreden, haben sie eine Architektur gebaut, die von Grund auf für Reasoning konzipiert ist.

Das Ergebnis: das Hierarchical Reasoning Model (HRM).

Die Grundidee ist inspiriert von der Hirnforschung — genauer gesagt von der Beobachtung, dass menschliches Denken auf mehreren Zeitskalen gleichzeitig arbeitet:

  • Langsames, abstraktes Denken: Strategische Planung, Zielsetzung, Priorisierung
  • Schnelles, detailliertes Denken: Ausführung, Reaktion, Feinsteuerung

Daniel Kahneman hat das populär als „System 1" und „System 2" beschrieben. HRM implementiert eine technische Version davon.

Die Architektur: Zwei Netzwerke, zwei Zeitskalen

HRM besteht aus zwei hierarchisch verbundenen rekurrenten Netzwerken:

1. High-Level Network (Der Planer)

  • Arbeitet auf einer langsamen Zeitskala
  • Bildet abstrakte Repräsentationen der Aufgabe
  • Setzt Teilziele und Prioritäten
  • Denkt in größeren Zusammenhängen

2. Low-Level Network (Der Ausführer)

  • Arbeitet auf einer schnellen Zeitskala
  • Erhält Anweisungen vom High-Level Network
  • Führt detaillierte Operationen aus
  • Liefert Feedback zurück nach oben

Die beiden Ebenen kommunizieren bidirektional. Das High-Level Network gibt die Richtung vor, das Low-Level Network setzt um — und meldet zurück, wenn etwas nicht funktioniert.

Das Ergebnis: Echte hierarchische Planung, nicht simulierte.

┌─────────────────────────────────────────────────────┐
│           HIGH-LEVEL NETWORK                        │
│         (Langsam, abstrakt, strategisch)            │
│                                                     │
│    ┌─────────┐    ┌─────────┐    ┌─────────┐        │
│    │ Ziel A  │───▶│ Ziel B  │───▶│ Ziel C  │        │
│    └────┬────┘    └────┬────┘    └────┬────┘        │
│         │              │              │             │
└─────────┼──────────────┼──────────────┼─────────────┘
          │              │              │
          ▼              ▼              ▼
┌─────────────────────────────────────────────────────┐
│           LOW-LEVEL NETWORK                         │
│         (Schnell, detailliert, operativ)            │
│                                                     │
│    ┌──┬──┬──┐    ┌──┬──┬──┐    ┌──┬──┬──┐           │
│    │▸ │▸ │▸ │    │▸ │▸ │▸ │    │▸ │▸ │▸ │           │
│    └──┴──┴──┘    └──┴──┴──┘    └──┴──┴──┘           │
│    Schritte      Schritte      Schritte             │
└─────────────────────────────────────────────────────┘

Die überraschenden Zahlen

Hier wird es interessant — und kontraintuitiv:

Eigenschaft HRM (Sapient) Typisches LLM
Parameter ~27 Millionen 7–400 Milliarden
Trainingsbeispiele ~1.000 Millionen bis Billionen
Pretraining nötig? Nein Ja (Monate, Millionen $)
Hardware CPU reicht GPU-Cluster

Und trotzdem: In Benchmarks für komplexes Reasoning schlägt HRM Modelle wie OpenAI o3-mini, Claude 3.7 und DeepSeek R1.

Wie ist das möglich?

Die Antwort liegt in der Architektur. LLMs sind general-purpose Sprachmaschinen, die Reasoning als Nebeneffekt lernen. HRM ist eine spezialisierte Reasoning-Architektur, die genau dafür optimiert ist.

Es ist der Unterschied zwischen einem Schweizer Taschenmesser und einem Skalpell. Beides hat seinen Platz — aber für Präzisionsarbeit will man das Skalpell.

Konkret: Wie HRM ein Problem löst

Nehmen wir ein Beispiel: Pfadfindung in einem komplexen Labyrinth.

So geht ein LLM vor:

  1. Schaut auf die Aufgabe
  2. Generiert Token für Token eine Antwort
  3. Hofft, dass die Muster aus dem Training passen
  4. Korrigiert sich eventuell mittendrin (oder auch nicht)
  5. Produziert oft Pfade, die in Sackgassen enden oder sich selbst überschneiden

So geht HRM vor:

  1. High-Level Network analysiert das Labyrinth
  2. Identifiziert Schlüsselpunkte (Kreuzungen, Engstellen)
  3. Plant eine abstrakte Route über diese Punkte
  4. Low-Level Network arbeitet die Details aus
  5. Bei Hindernissen: Feedback nach oben, Neuplanung des Teilabschnitts
  6. Ergebnis: ein konsistenter, optimierter Pfad

Der Unterschied ist fundamental: HRM plant, bevor es ausführt. Es zerlegt Probleme in Hierarchien. Es kann Teilziele revidieren, ohne alles zu verwerfen.

Was das für Unternehmen bedeuten könnte

Jetzt die entscheidende Frage: Warum sollte das einen CFO, eine IT-Leiterin oder einen Head of Operations interessieren?

Weil viele Unternehmensprobleme genau die Struktur haben, für die HRM gebaut wurde:

Mehrstufige Entscheidungen

Kreditvergabe, Lieferkettenplanung, Projektpriorisierung — das sind keine Single-Shot-Fragen, sondern verschachtelte Entscheidungsbäume.

Wenig Daten, hohe Komplexität

Nicht jedes Unternehmen hat Millionen von Trainingsdaten. Für seltene, aber wichtige Entscheidungen (M&A, Krisenreaktion, Sonderfälle) gibt es oft nur Dutzende oder Hunderte Beispiele.

Erklärbarkeit als Anforderung

In regulierten Branchen reicht „das Modell sagt so" nicht. Die Entscheidungslogik muss nachvollziehbar sein — genau das, was eine hierarchische Struktur natürlicherweise liefert.

Ressourceneffizienz

Nicht jedes Unternehmen kann GPU-Cluster betreiben. Ein Modell, das auf CPUs läuft und trotzdem komplexes Reasoning beherrscht, öffnet neue Möglichkeiten.


Wo HRM (noch) nicht die Antwort ist

Fairness gebietet, auch die Grenzen zu benennen:

  • Sprachgenerierung: Für Texte, Übersetzungen, kreatives Schreiben sind LLMs überlegen. HRM ist keine Schreibmaschine.
  • Allgemeinwissen: LLMs haben die halbe Weltliteratur gelesen. HRM weiß nur, was man ihm für eine spezifische Aufgabe beibringt.
  • Reife: Die Technologie ist neu. Das Ökosystem (Tools, Frameworks, Community) ist noch im Aufbau.
  • Integration: Es gibt noch keine Out-of-the-box-Lösungen für Enterprise-Systeme.

HRM ist kein LLM-Ersatz — es ist eine Ergänzung für Aufgaben, bei denen echtes Reasoning gefragt ist.


Ausblick: Was diese Serie abdecken wird

Dieser Artikel war der Einstieg. In den kommenden Teilen gehen wir tiefer:

Teil 2: Wo HRM im Unternehmen Sinn macht — konkrete Use Cases von Finance bis Supply Chain

Teil 3: Wie HRM „denkt" — ein Reasoning-Prozess Schritt für Schritt

Teil 4: HRM trainieren — ein Business Use Case von Daten bis Modell

Teil 5: HRM in Produktion — Inferencing, Integration, Monitoring

Teil 6: Pilot-Blueprint — In 8 Wochen zum ersten HRM Use Case


Was du jetzt tun kannst

  1. Reflektieren: Welche Entscheidungen in deinem Bereich sind mehrstufig und erklärungsbedürftig? Das sind potenzielle HRM-Kandidaten.
  2. Beobachten: Verfolge, was Sapient Intelligence veröffentlicht. Die Technologie entwickelt sich schnell.
  3. Weiterlesen: Teil 2 dieser Serie zeigt konkrete Einsatzszenarien — vielleicht ist deines dabei.

Dieser Artikel ist Teil der Serie „HRM für Unternehmen". Er basiert auf öffentlich verfügbaren Informationen über das Hierarchical Reasoning Model von Sapient Intelligence.