OpenAI-CEO behauptet AGI könnte bereits erreicht sein – Nein, bei weitem nicht!

In dem Beitrag erkläre ich, wie Artificial General Intelligence wirklich definiert ist und warum die Behauptung des OpenAI-CEOs komplett falsch ist.

Künstliche allgemeine Intelligenz (AGI) bezeichnet die Umsetzung allgemeiner menschlicher kognitiver Fähigkeiten in Software. Dadurch ist ein AGI-System in der Lage, auch bei unbekannten Aufgaben Lösungen zu finden. Das Ziel besteht darin, dass ein AGI-System jede Aufgabe ausführen kann, zu der ein Mensch fähig ist. Dass dies mit der bestehenden Technik, die auf Large Language Models (LLM) inklusive Retrieval Augmented Generation (RAG) setzt, nicht funktionieren kann, habe ich bereits in diesem Beitrag erläutert: LLMs sind nicht der Weg zur AGI (Artificial General Intelligence)

Was kann AGI?

In der Informatik bezeichnet AGI ein intelligentes System mit umfassendem oder vollständigem Wissen und kognitiven Rechenfähigkeiten. Zum Zeitpunkt der Veröffentlichung dieses Beitrags gibt es noch keine echten AGI-Systeme, sie sind nach wie vor Stoff für Science-Fiction-Geschichten. Die theoretische Leistungsfähigkeit dieser Systeme wäre von der eines Menschen nicht zu unterscheiden. Aufgrund ihrer breiten intellektuellen Fähigkeiten würde AGI die menschlichen Fähigkeiten jedoch übertreffen, da sie in der Lage ist, mit unglaublicher Geschwindigkeit auf riesige Datenmengen zuzugreifen und diese zu verarbeiten.

Eine echte AGI sollte Aufgaben und Fähigkeiten auf menschlichem Niveau ausführen können, die kein existierender Computer bewältigen kann. Zwar kann KI heute bereits viele Aufgaben ausführen, jedoch nicht auf einem Niveau, das menschlicher oder allgemeiner Intelligenz entsprechen würde.

Ein AGI-System sollte über die folgenden Fähigkeiten und Kenntnisse verfügen: abstraktes Denken, Hintergrundwissen, gesunder Menschenverstand, Verständnis für Ursache und Wirkung, Transferlernen. Zu den praktischen Beispielen für die Fähigkeiten einer AGI gehören Kreativität, Sinneswahrnehmung, Feinmotorik, Verständnis natürlicher Sprache (NLU) und Navigation.

Der Unterschied zwischen AGI und AI

Im Vergleich zur künstlichen allgemeinen Intelligenz (AGI) wird bestehende künstliche Intelligenz als schwache KI bezeichnet. AGI ist ein theoretisches Konzept, während schwache KI heute bereits praktisch eingesetzt wird.

AGI sollte in der Lage sein, jede Aufgabe zu erfüllen, die ein Mensch erfüllen kann, und ohne menschliches Eingreifen eine Reihe von Intelligenzleistungen in verschiedenen Bereichen zu erbringen. Ihre Leistung sollte bei der Lösung von Problemen in den meisten Bereichen genauso gut oder besser sein als die des Menschen.

Im Gegensatz dazu ist schwache KI auf die Bewältigung spezifischer Aufgaben oder Problemtypen ausgerichtet. Viele bestehende KI-Systeme verwenden eine Kombination aus maschinellem Lernen (ML), Deep Learning, einem Teilbereich des maschinellen Lernens, sowie bestärkendem Lernen und natürlicher Sprachverarbeitung, um sich selbst zu verbessern und bestimmte Arten von Problemen zu lösen. Diese Technologien erreichen jedoch nicht die kumulative Leistungsfähigkeit des menschlichen Gehirns.

Beispiele für den heutigen Einsatz von KI sind unter anderem Chatbots im Kundenservice, Sprachassistenten und Empfehlungsmaschinen, KI-gestützte Business-Analytics- und Business-Intelligence-Tools (BI), Bild- und Gesichtserkennungsanwendungen, aber auch ChatGPT und generative Modelle für Bild- und Videoerstellung.

Was der OpenAI CEO behauptet

Im Dezember 2025 behauptete Sam Altman, CEO von OpenAI, dass AGI bereits erreicht sein könnte. Er deutete an, dass der Meilenstein zur AGI möglicherweise bereits erreicht wurde, ohne dass es die große, dramatische Veränderung war, die viele erwartet hatten. Die Technologie habe sich so schnell entwickelt, dass der Moment, in dem die KI menschliches Niveau in vielen Bereichen erreicht hat, fast unbemerkt vorübergegangen sei.

Die gesellschaftlichen Auswirkungen seien geringer ausgefallen als erwartet. Entgegen früheren Weltuntergangs- oder Erlösungsszenarien stellte Altman fest, dass die Welt trotz der enormen Fortschritte weitgehend normal weiterfunktioniere. Die unmittelbaren gesellschaftlichen Erschütterungen seien bisher ausgeblieben.

Er behauptet, dass der Begriff AGI mittlerweile als „schwammig“ und schwer definierbar gilt. Aus diesem Grund schlägt Altman vor, sich weniger auf diesen Begriff zu versteifen. Stattdessen liege das neue Ziel nun auf „Superintelligenz“ – Systemen, die weit über menschliche Fähigkeiten hinausgehen.

Die Diskussion wird auch durch Aussagen von OpenAI-Mitarbeitern befeuert, die das neue Modell o1 (mit verbesserten logischen Fähigkeiten) bereits als eine Form von AGI betrachten, da es in vielen Aufgaben besser abschneide als die meisten Menschen.

Fazit

Wenn man weiß, dass man AGI mit der bestehenden Technologie niemals erreichen kann, dann muss man den Begriff halt umdefinieren. Schließlich muss man die Shareholder (Anteilseigner, Aktionäre) bei Laune halten. OpenAI ist komplett unrentabel und wird den Schuldenberg wohl nie mehr loswerden. Aber vielleicht kann man das Platzen der AI-Blase ja noch so lange wie möglich hinauszögern…

KI (AI) entmystifiziert

Dieses Ebook erklärt auf einfache und humorvolle Weise, was AI wirklich ist. Lesen Sie über die Anfänge von AI. Erfahren Sie warum die Antworten von AI nicht auf Fakten beruhen können. Lesen Sie warum AI nicht schlussfolgern oder gar denken kann. Erfahren Sie warum der KI-Hype absolut übertrieben ist und was diese Technologie nur leisten kann. Warum Big-Tech voll auf AI setzt und was das zur Folge hat. Dieses Buch entmystifiziert das Thema AI.

Online bestellen:
Amazon Kindle, Apple Books, Google Books, Thalia, Hugendubel, bücher.de, Osiander, ebook.de, genialokal.de, Kobo, Barnes & Noble, Orell Füssli, Morawa, ecobookstore, ecolibri, deutsche-buchhandlung.de


Nach oben scrollen