Een weddenschap van $32 Miljard op superintelligentie

Wil Peters 2025-12-11 AI een-weddenschap-van-usd32-miljard-op-superintelligentie

Een weddenschap van $32 Miljard op superintelligentie

Ilya Sutskever verliet OpenAI om de AI-race opnieuw te definiëren

Leestijd: 5 minuten

In mei 2024 nam Ilya Sutskever, medeoprichter en voormalig chief scientist van OpenAI, een beslissing die de AI-wereld op zijn kop zette. Na een mislukte poging om CEO Sam Altman te ontslaan — waarbij hij een sleutelrol speelde in wat later bekend zou worden als de "OpenAI-coup" — verliet hij het bedrijf dat hij had helpen oprichten.

Slechts een maand later, in juni 2024, kondigde Sutskever de oprichting aan van Safe Superintelligence Inc. (SSI). Zijn missie? Één doel, één product: veilige superintelligentie.

De meest opmerkelijke investering in de AI-Geschiedenis

Wat volgde was ongekend in de techwereld. Tegen april 2025 had SSI $3 miljard opgehaald tegen een waardering van $32 miljard. Ter vergelijking: deze waardering is hoger dan die van veel gevestigde techbedrijven met duizenden werknemers en miljarden aan omzet.

SSI heeft op dit moment: - Ongeveer 20 medewerkers wereldwijd - Geen enkel gelanceerd product - Een website die niet meer is dan een missie-statement - Kantoren in Palo Alto en Tel Aviv

De investeerders? Greenoaks leidde de ronde met $500 miljoen, met deelname van Andreessen Horowitz, Lightspeed Venture Partners en DST Global. Zelfs Alphabet (Google's moederbedrijf) en NVIDIA zijn investeerders, terwijl Google Cloud TPU's (Tensor Processing Units) levert voor SSI's onderzoek — een zeldzame stap, aangezien Google deze chips voorheen alleen intern gebruikte.

Het is een raadsel hoe Ilya het voor elkaar kreeg om een $32 miljard waardering neer te zetten. "Wat heeft hij tegen die venture capitalists gezegd?".

Het post-scaling tijdperk

De kern van Sutskever's visie draait om wat hij het "post-scaling tijdperk" noemt. In een recent interview legde hij uit dat de AI-industrie drie fasen heeft doorgemaakt:

2012-2020: Het tijdperk van onderzoek Dit was de periode van fundamentele doorbraken, met het beroemde ImageNet-moment in 2012 toen deep learning bewees dat het beeldherkenning kon revolutioneren.

2020-2025: Het tijdperk van schalen De ontdekking dat je door simpelweg meer compute, meer data en meer parameters toe te voegen, betere resultaten kreeg. Dit leidde tot de explosieve groei van modellen als GPT-3, GPT-4, GPT-5 en hun concurrenten.

2025 en verder: Terug naar onderzoek Sutskever's controversiële stelling: "Ik denk niet dat 100x meer schaal alles zou transformeren." De schaal is nu zo groot dat naïef schalen niet meer genoeg is. Er zijn nieuwe algoritmische doorbraken nodig.

"Oneshotting" superintelligentie

Waar andere labs geleidelijk naar superintelligentie toewerken via steeds capabelere producten, wil Sutskever het in één keer goed doen. Hij noemt dit "oneshotting superintelligence" — het bouwen van een systeem dat vanaf het begin veilig en superintelligent is, in plaats van achteraf veiligheidsmaatregelen toe te voegen.

Dit is een radicaal andere aanpak dan die van partijen als OpenAI, Anthropic en Google. Zij zijn verwikkeld in een commercieel gevecht om kwartaal na kwartaal (week na week?) nieuwe producten te lanceren. SSI heeft bewust géén kortetermijn-productcyclus. Alle middelen gaan naar langetermijn fundamenteel onderzoek.

AGI als leervermogen

Een van Sutskever's meest intrigerende ideeën gaat over de definitie van AGI zelf. In zijn visie hebben mensen geen AGI — niemand weet alles — maar ze kunnen wel alles leren wat ze nodig hebben. Hij stelt voor om AGI te definiëren als "een AI die buitengewoon leervermogen heeft, die kan leren wat het moet leren wanneer het dat moet leren."

Dit verschuift de focus van kennisopslag naar adaptief leervermogen, wat fundamenteel andere architecturen vereist dan de huidige transformer-modellen.

De implicaties

Als Sutskever gelijk heeft — als we inderdaad het post-scaling tijdperk zijn binnengegaan — dan heeft dat enorme implicaties:

  1. Voor de AI-race: Puur kapitaal en compute zijn niet meer voldoende. Algoritmische innovatie wordt weer de bepalende factor.

  2. Voor investeerders: De waardering van SSI suggereert dat sommige investeerders wedden op een fundamentele verschuiving in hoe AI-doorbraken worden bereikt.

  3. Voor onderzoekers: Na jaren van "scale is all you need" wordt fundamenteel onderzoek weer cruciaal.

De komende jaren zullen uitwijzen of Sutskever's benadering vruchten afwerpt. Maar één ding is zeker: de man die de schaalwetten populair maakte, gelooft nu dat schalen alleen niet genoeg is.

→ Meer lezen: Verdieping: De schaalwetten uitgelegd