OpenAI lanceert GPT-OSS: eerste open taalmodellen sinds GPT-2

OpenAI lanceert GPT-OSS: eerste open taalmodellen sinds GPT-2

De twee nieuwe modellen werken met een Apache 2.0-licentie en zijn sterk in redeneren en snelheid.

OpenAI heeft dinsdag GPT-OSS voorgesteld, een nieuwe reeks taalmodellen met open gewichten. GPT-OSS is de eerste open release van het bedrijf sinds GPT-2 in 2019. De modellen komen in twee formaten: 117 miljard en 21 miljard parameters. Ze zouden vergelijkbare prestaties leveren als o4-mini en o3-mini.

Sneller dankzij Mixture of Experts

De modellen gebruiken een Mixture-of-Experts-architectuur, waarbij maar een deel van de submodellen actief is bij elke prompt. Daardoor zijn ze sneller en efficiënter dan klassieke modellen van gelijke grootte. De 120B-versie werkt op één H100-GPU van 80 GB, de 20B-variant heeft genoeg met slechts 16 GB VRAM.

De modellen werken met een Apache 2.0-licentie, wat betekent dat ze zo open als mogelijk zijn. OpenAI trainde de modellen op Engelstalige datasets met focus op wetenschap, codering en algemene kennis. Ze ondersteunen contextvensters tot 128.000 tokens.

Beveiliging tegen misbruik

OpenAI zegt dat het strenge filters gebruikt om misbruik te voorkomen, bijvoorbeeld rond gevaarlijke chemische toepassingen. Testers konden het model tijdens ontwikkeling niet misleiden, en er loopt een beloning van 500.000 dollar voor wie toch een kwetsbaarheid ontdekt.

Beide modellen zijn gratis beschikbaar op Hugging Face. Ondertussen hintte OpenAI’s CEO Sam Altman op X naar een grotere upgrade deze week. Krijgen we misschien meer info over GPT-5?