Achtergrond bij de discussie over scaling
De "scaling hypothesis" die Sutskever mede heeft vormgegeven, stelt dat als je een probleem op de juiste manier formuleert, betere resultaten automatisch volgen door meer compute toe te voegen. Dit was revolutionair omdat het suggereerde dat we geen fundamenteel nieuwe doorbraken nodig hadden — alleen meer resources.
De drie dimensies van schalen:
De beroemde "scaling laws" van OpenAI (gepubliceerd door Kaplan et al.) toonden aan dat modelprestaties voorspelbaar verbeteren met elk van deze drie dimensies, met een "power-law"-relatie.
Waarom het nu mogelijk stagneert:
De Alternatieve Schaalwetten:
Toch is niet iedereen overtuigd dat scaling niet meer werkt. Er zijn volgens deskundigen nog zeker een half dozijn schaalwetten die wachten om opgepakt te worden.
Voorbeelden: