KI Espresso

4,3 Billionen — I think we've achieved AGI

Episode 24

Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.

0:00 | 5:48
SPEAKER_01

24.000 Nvidia GPUs laufen im Supercomputer Jupiter in Jülich und die Telekom hat mal eben 10.000 weitere in ihre Münchner KI-Gigafabrik verbaut. Und genau der Mann, der diese ganze Hardware verkauft, also Nvidia-CEO Jensen Huang, behauptet jetzt einfach ganz offen, AGI, also diese allgemeine künstliche Intelligenz, ist endgültig erreicht.

SPEAKER_00

Ich muss da direkt reingretschen, weil das ist doch.

SPEAKER_01

Moment, lass uns erstmal direkt auf die harten Fakten schauen, bevor du das abwinkst.

SPEAKER_00

Naja, okay.

SPEAKER_01

Nvidia Q1-Umsatz liegt bei unfassbaren 78 Milliarden Dollar. Und noch aussagekräftiger: auf der GTC wurden gerade verbindliche GPU-Bestellungen für die neuen Blackwell und Vera Rubin-Chips verkündet.

SPEAKER_00

Ja, aber das.

SPEAKER_01

Über eine Billion Dollar bis 2027. Eine Billion. Microsoft, Meta, Amazon, die werfen eine komplette Billion Dollar auf das Problem. Da muss doch mehr dahinter stecken als reines Marketing, oder?

SPEAKER_00

Nee, Bettingspin. Das macht er einfach nur, um Nvidia's absurde 4,3 Billionen Dollar Bewertung zu stützen. Ach was? Doch, klar. Er definiert RGI einfach genau so um, wie es seiner eigenen Firma am besten nützt. Dabei entlarvt er sich in den vorliegenden Interviews doch selbst.

SPEAKER_01

Inwiefern das denn?

SPEAKER_00

Naja, auf die direkte Frage, ob eine aktuelle KI ein Unternehmen wie Nvidia von Grund auf aufbauen könnte, antwortete Huang wörtlich, die Chancen stünden bei null Prozent. Okay, aber das System nicht einmal ansatzweise komplexe Unternehmensentscheidungen treffen können, was bedeutet der Begriff RGI dann überhaupt noch? Das ist zu einem reinen Verkaufsbegriff verkommen.

SPEAKER_01

Ich halte das für absolute akademische Haarspalterei von ihr.

SPEAKER_00

Haarspalterei?

SPEAKER_01

Ja, total. Ist dieses sture Beharren auf einer perfekten allwissenden KI nicht exakt so, als hätte man damals das allererste iPhone als völlig nutzlos abgetan, nur weil es noch kein 5G hatte?

SPEAKER_00

Das ist doch ein Äpfel-Birnenvergleich.

SPEAKER_01

Nein. Du forderst hier den perfekten Endzustand. Aber Fakt ist, die KI generiert genau jetzt, in diesem Moment, reale und messbare Werte.

SPEAKER_00

Sie generiert Werte, ja? Das bestreite ich ja gar nicht. Aber wir müssen doch verstehen, wie sie das tut. Kognitionswissenschaftler waren da völlig zu Recht.

SPEAKER_01

Vor was?

SPEAKER_00

Dass wir hier bloße statistische Mustererkennung mit echtem, kausalem Verständnis verwechseln. Sprachmodelle raten im Grunde nur das nächste Wort, basierend auf Wahrscheinlichkeiten.

SPEAKER_01

Ja gut, das ist die Architektur.

SPEAKER_00

Richtig. Sie verstehen nicht, warum ein Apfel zu Boden fällt. Sie haben nur in ihren riesigen Trainingsdaten oft den Satz gelesen, dass er es tut. Und genau da widerspricht Jan Le Kühn der Metachefwissenschaftler Huang Frontal.

SPEAKER_01

Der kritisiert das ja schon länger.

SPEAKER_00

Eben. Er hält aktuelle Systeme für architektonisch fehlerhaft. Le Kühn will KIs bauen, die eine Art inneres Weltmodell besitzen.

SPEAKER_01

Deshalb hat er doch gerade Armin Labs gegründet, oder?

SPEAKER_00

Ha, genau. Und der hat dafür mal eben 1,03 Milliarden Dollar Seed-Finanzierung eingesammelt. Wahnsinn. Ja, um eine echte Alternative abseits dieser aktuellen architektonischen Sackgasse zu bauen. Weil, wenn AGI wirklich da wäre, wie Huang behauptet, wäre Nvidias Monopol ja unantastbar.

SPEAKER_01

Und da sind wir beim eigentlichen Problem für uns hier.

SPEAKER_00

Richtig.

SPEAKER_01

Nahezu die gesamte deutsche KI-Infrastruktur hängt exklusiv an Nvidias proprietärer Plattform, der sogenannten KUDA-Abhängigkeit. Lass uns das kurz für alle einordnen.

SPEAKER_00

Gerne.

SPEAKER_01

Unsere gesamte Infrastruktur hängt an KUDA. Das ist im Grunde Nvidias eigene komplett geschlossene Programmiersprache und Softwareschnittstelle. Fast alle großen KI-Modelle müssen da zwingend drauf laufen.

SPEAKER_00

Richtig. Um es mal greifbar zu machen. Europa kauft gerade für Milliarden die modernsten Züge der Welt. Aber Nvidia verlegt die Schienen.

SPEAKER_01

Und die Spurweite?

SPEAKER_00

Genau, die haben eine ganz bestimmte Spurweite, auf die sonst absolut kein anderer Zug passt. Eine aktuelle Anfrage bei Frag den Staat stellt daher auch völlig berechtigt die brennende Frage, wie digital souverän Europa eigentlich noch sein kann.

SPEAKER_01

Wenn wir komplett in diesem einen geschlossenen Ökosystem gefangen sind, das ist ein massiver Vendor-Lock-in. Absolut. Und damit kommen wir zurück an den Anfang unseres Deep Dives. Denkt bitte noch einmal an diese 24.000 GPUs in Jülich und die 10.000 in der Münchner Gigafabrik.

SPEAKER_00

Das ist eine Menge Holz.

SPEAKER_01

Angesichts dieser fundamentalen KUDA-Abhängigkeit und der völlig umstrittenen Definition von AGI, fragt euch mal, sind das wirklich die unerschütterlichen Grundbausteine unserer digitalen Zukunft? Oder bauen wir das teuerste Kartenhaus Europas? Genau. Denn wenn Nvidias Hardware unsere digitale Souveränität schon heute bedroht, was passiert eigentlich mit den ganzen Jülich-Supercomputern, wenn ein geopolitischer Konflikt die Chip-Lieferketten aus Taiwan morgen komplett lahmlegt?

SPEAKER_00

Um genau solche Risiken in der Praxis für euch mal greifbar zu machen, habe ich drei sehr konkrete Fragen für euren Arbeitsalltag mitgebracht.

SPEAKER_01

Lass hören.

SPEAKER_00

Genau. Habt ihr Alternativen wie Roxam oder OpenCL als Fallback für kritische Workloads überhaupt mal getestet? Zweitens, lest dieses neue Arminabs-Paper von Le Kühn.

SPEAKER_01

Packen wir in die Beschreibung.

SPEAKER_00

Super, weil das zeigt extrem gut, wohin die Post-LMM-Forschung eigentlich geht. Und drittens, fragt im nächsten Sprint Planning einfach mal provokant in die Runde, wenn Nvidia morgen die Preise verdoppelt. Was passiert dann eigentlich mit unserem Machine Learning-Budget?

SPEAKER_01

Wenn euch diese Debatte zum Nachdenken gebracht hat, abonniert KI Espresso jeden Tag eine neue KI-Debatte in sechs Minuten.