- Veröffentlicht am
7 Dinge, die du uber AGI wissen musst (+ ein Startup, das behauptet, sie gelost zu haben)

Einfuhrung
Die Suche nach Artificial General Intelligence (AGI) — Systemen, die Wissen uber vielfaltige Aufgaben hinweg auf menschlichem Niveau verstehen und anwenden konnen — ist von Science-Fiction zum zentralen strategischen Imperativ des Jahres 2025 geworden. Das Aufkommen grosser Sprachmodelle (LLMs) sprengte fruhere Zeitpläne, doch mit der Skalierung dieser Systeme entdecken wir tiefe "Mauern" bei Energie, Kausalitat und physischer Verankerung. Dieser Beitrag verdichtet die aktuelle AGI-Landschaft in 7 kritische technische und gesellschaftliche Pfeiler plus einen Blick auf einen provokanten Neueinsteiger, der behauptet, die Ziellinie uberschritten zu haben.
1. Nicht binar: die AGI-Taxonomie
Die Branche hat sich von der binaren Idee verabschiedet, dass AGI entweder "existiert" oder "nicht existiert". Stattdessen verlassen wir uns auf nuancierte Taxonomien, um den Fortschritt zu messen. Google DeepMind hat dies Ende 2023 formalisiert und zwischen Leistung (Kompetenz) und Generalisierung (Breite) unterschieden.
Aktuelle Frontier-Modelle wie ChatGPT 5.2 und Gemini 3 werden als Level 1: Emerging AGI eingestuft.
- Level 1 (Emerging): Gleichwertig oder etwas besser als ein ungelernter Mensch (z. B. Gemini 3, ChatGPT 5.2).
- Level 2 (Competent): Besser als das 50. Perzentil qualifizierter Erwachsener.
- Level 5 (Superhuman): Ubertrifft 100% der Menschen (z. B. AlphaFold in eng begrenzten Aufgaben, ASI in allgemeinen Aufgaben).
Entscheidend ist, dass Intelligenz von Autonomie zu unterscheiden ist. Wir erleben aktuell einen Wandel von "Beratern" (KI gibt Ratschlage) zu "Agenten" (KI fuhrt mehrstufige Workflows ohne menschliches Eingreifen aus).
2. Der "stochastische Papagei" und die Reasoning-Lucke
Trotz des Erfolgs der Scaling-Hypothese — die behauptet, dass Intelligenz eine emergente Eigenschaft von Skalierung ist — stossen reine LLMs an eine "Reasoning-Mauer". Kritiker argumentieren, dass den aktuellen Modellen System-2-Denken fehlt.
- System 1: Schnelle, intuitive, unmittelbare Token-Generierung (aktuelle LLMs).
- System 2: Langsames, deliberatives, logisches Prufen (menschliches Denken).
Weil LLMs das Wahrscheinliche statt das Wahre vorhersagen, halluzinieren sie. Ausserdem fehlt ihnen ein Weltmodell; sie verstehen die Korrelation zwischen "Rauch" und "Feuer" im Text, aber nicht die kausale physische Realitat, die ein Kind durch das Fallenlassen einer Tasse lernt.
3. Jenseits der Transformer: neue Architekturen
Um die Reasoning-Lucke zu schliessen, hat 2025 eine Wendung hin zu hybriden Architekturen gebracht. Der Transformer ist nicht mehr das einzige Spiel in der Stadt.
- Neuro-symbolische KI: Kombiniert die Lernfahigkeiten neuronaler Netze mit der logischen Strenge symbolischer KI. Dieser Ansatz soll das "Mathe-Defizit" und Halluzinationen beheben, indem Ausgaben in logischer Konsistenz verankert werden.
- JEPA (Joint Embedding Predictive Architecture): Von Meta vorangetrieben, verzichtet diese Architektur darauf, das nachste Wort zu prognostizieren, und sagt stattdessen den abstrakten Zustand der Welt voraus. Ziel ist eine interne Physik-Simulation, eine Voraussetzung fur Level-2+-AGI.
- Verkorperte KI: Es gibt wachsenden Konsens, dass echte Generalitat einen Korper erfordert. Die Integration kognitiver Modelle mit Robotik erlaubt der KI, aus physischem Feedback (Schwerkraft, Reibung) zu lernen und liefert "Alltagswissen", das Text nicht vermitteln kann.
4. Die Physik der Intelligenz: Energie- und Datenmauern
Der Aufstieg zur AGI wird zu einem Kampf gegen die Physik.
- Die Energiekluft: Das menschliche Gehirn arbeitet mit etwa 20 Watt. Ein AGI-Cluster mit menschlicher Leistungsfahigkeit benotigt Gigawatt. Diese enorme Effizienzlucke deutet darauf hin, dass heutige Deep-Learning-Architekturen zu ineffizient fur den Weg zur Superintelligenz (ASI) sein konnen.
- Die Datenmauer: Hochwertiger, offentlich verfugbarer menschlicher Text wird voraussichtlich zwischen 2026 und 2032 erschopft sein.
- Model Collapse: Die Nutzung synthetischer Daten (von KI erzeugte Daten) zum Training neuer Modelle birgt das Risiko eines "Model Collapse", bei dem Modelle Bias verstarken und den Bezug zu seltenen, aber kritischen Konzepten verlieren — sie werden kognitiv gewissermassen inzestuös.
5. Der Kollaps der Zeit: Prognosen
Der Zeitplan fur AGI hat sich dramatisch verkurzt.
- Prognose 2020: Experten sagten AGI fur etwa 2050 voraus.
- Prognose 2024/2025: Prognosemarkte und Experten haben das mediane Ankunftsdatum in den Bereich 2027-2031 verschoben.
Aggregierte Vorhersagen weisen nun eine ~25% Wahrscheinlichkeit fur AGI bis 2027 und eine ~50% Wahrscheinlichkeit bis 2031 aus. Optimistische Fuhrungspersonen grosser Labore glauben, Systeme konnten in 3 bis 5 Jahren in den meisten Bereichen menschliche Leistungsfahigkeit erreichen, wahrend Skeptiker argumentieren, dass die "letzte Meile" kausalen Verstehens Jahrzehnte dauern wird.
6. Geopolitik: ein zweigeteiltes Rennen
Die AGI-Entwicklung ist inzwischen ein zentrales Feld geopolitischer Konkurrenz, insbesondere zwischen den USA und China.
- Vereinigte Staaten: Fokus auf Dominanz in generativer KI und auf das "Abwurgen" des Compute-Zugangs durch Exportkontrollen fur High-End-GPUs (NVIDIA H100/Blackwell). Sicherheitsregulierungen (Executive Order 14110) verlangen nun Meldungen fur Modelle, die uber FLOPs trainiert werden.
- China: Schwenkt zu verkörperter KI (Robotik), um KI in die Fertigung zu integrieren, und nutzt die Dominanz in der Lieferkette. Die Roadmap 2025 zielt auf eine KI-Industrie von uber 1.2 Billionen Yuan und priorisiert industrielle Effizienz ("reale produktive Krafte") uber Consumer-Chatbots.
7. Soziookonomische Auswirkungen: kognitive Automatisierung
Im Gegensatz zur Industriellen Revolution zielt AGI auf kognitive Arbeit.
- Exposition: Goldman Sachs schatzt, dass weltweit 300 Millionen Jobs der Automatisierung ausgesetzt sein konnten.
- Der Wandel: Bis zu zwei Drittel der Jobs in fortgeschrittenen Volkswirtschaften haben ein gewisses Aussetzungsrisiko.
- Ungleichheitsrisiko: Wenn AGI die Kosten fur Intelligenz drastisch senkt (geschatzter 40x-Ruckgang pro Jahr), konnten sich Einkommensanteile entscheidend von Arbeit zu Kapital verschieben, wodurch die Wohlstandslucke zwischen Infrastrukturbesitzern und Nutzern wachst.
8. Der Anspruch auf die "erste AGI"?
Wahrend die Branche uber Zeitpläne debattiert, hat ein Unternehmen eine kühne Erklarung abgegeben. Integral AI hat das vorgestellt, was sie das "erste AGI-fahige Modell" nennen, und stellt damit die Dominanz des aktuellen "Big Tech"-LLM-Ansatzes infrage.
Laut ihrem Manifest muss echte AGI drei strenge Kriterien erfullen, die aktuelle LLMs (die sie "Datenfarmen" nennen) nicht erfüllen:
- Autonomes Skill-Lernen: Die Fahigkeit, in neuen Domänen ohne menschliches Handhalten eigenstandig zu lernen.
- Sichere Meisterschaft: Lernen ohne katastrophale Fehlleistungen (z. B. ein Kochroboter, der nicht die Kueche abfackelt).
- Menschliche Effizienz: Meisterschaft mit Energiekosten in der Größenordnung eines Menschen, nicht eines Gigawatt-Rechenzentrums.
Sie behaupten, dies durch universelle Simulatoren (Weltmodelle) und universelle Operatoren (Agenten) zu erreichen, und sich von brutaler Memorisierung hin zu hierarchischer Abstraktion zu bewegen. Ihren vollstandigen technischen Anspruch kannst du hier nachlesen.
Fazit
Wir erleben eine "Rekonvergenz" in der KI-Geschichte. Die Zukunft liegt nicht im Sieg eines einzigen Paradigmas, sondern in der Synthese aus neuronalen Netzen, symbolischer Logik und Verkörperung. Da sich Intelligenz von der Biologie entkoppelt — und neue Akteure wie Integral AI etablierte Skalierungsgesetze herausfordern — werden die Entscheidungen der nachsten Dekade zu Architektur und Alignment wahrscheinlich die Bahn der menschlichen Spezies bestimmen.
Referenzen
- Integral AI: Das erste AGI-fahige Modell
- Google DeepMind: Levels of AGI
- Goldman Sachs: The Potentially Large Effects of Artificial Intelligence on Economic Growth
- Meta AI: Introduction to JEPA
Fandest du diese Analyse hilfreich? Hinterlasse unten einen Kommentar und teile deine Gedanken zum AGI-Zeitplan. Ein GitHub-Konto ist erforderlich, um an der Diskussion teilzunehmen.
Weiterlesen
Ähnliche Beiträge
Jan 17, 2026
0KommentareDu wirst jede Website mit KI steuern können: Ich ließ Claude Gemini steuern und es ist unglaublich
Gib Claude Augen und Hände! Verwandle deine KI in einen Web-Agenten, indem du Playwright und MCP verbindest, um jede Website zu automatisieren, komplexe Logins zu umgehen und leistungsstarke browserbasierte Workflows zu erstellen.
Dec 7, 2025
0KommentareSichern Sie Ihre Daten, entfesseln Sie die KI: Open WebUI lokal mit externer Ollama-GPU bereitstellen
Diese technische Anleitung beschreibt die Bereitstellung von Open WebUI in einem Docker-Container über WSL, der für die Anbindung an eine entfernte, GPU-beschleunigte Ollama-Instanz in einem lokalen Netzwerk konfiguriert ist. Befolgen Sie diese Schritte für eine entkoppelte, hochleistungsfähige LLM-Schnittstelleneinrichtung.
May 31, 2025
0KommentareDeepSeek-R1-0528 veröffentlicht mit Leistungsverbesserungen und neuen Funktionen
Eine Analyse der Modellveröffentlichung DeepSeek-R1-0528, die ihre wichtigsten Verbesserungen detailliert, darunter verbesserte Benchmark-Leistung, reduzierte Halluzinationen, verbesserte Front-End-Fähigkeiten sowie die Hinzufügung von JSON-Ausgabe und Unterstützung für Funktionsaufrufe. Der Beitrag untersucht die Bedeutung dieser Updates für Benutzer und Entwickler innerhalb des DeepSeek-Ökosystems.