IBM lanceert Granite 4.0: hybride taalmodellen met ISO-certificatie

IBM lanceert Granite 4.0: hybride taalmodellen met ISO-certificatie

IBM lanceert Granite 4.0, een reeks open source taalmodellen met een hybride Mamba-transformerarchitectuur.

IBM stelt Granite 4.0 voor, een nieuwe generatie open source taalmodellen met een hybride architectuur. Granite 4.0-modellen combineren transformer- en Mamba-technologie voor betere prestaties met minder geheugenverbruik en kosten. Het is de eerste open modelfamilie met een ISO 42001-certificering.

Minder geheugen, lagere kosten

De Granite 4.0-reeks bestaat uit verschillende modelgroottes: Granite-4.0-H-Small, Granite-4.0-H-Tiny en Granite-4.0-H-Micro. Ze zijn ontwikkeld met een hybride architectuur die Mamba-lagen combineert met transformerlagen. Die aanpak vermindert de geheugenvereisten voor inferentie met meer dan 70% procent in vergelijking met traditionele modellen.

Dankzij die efficiëntie kunnen de modellen draaien op goedkopere hardware, waaronder AMD Instinct MI300X GPU’s en Qualcomm Hexagon NPU’s. Daardoor zijn ze geschikt voor toepassingen aan de edge of op lokale infrastructuur. De modellen ondersteunen langere contextlengtes tot 128.000 tokens en zijn geoptimaliseerd voor agentische AI-taken zoals instructie-opvolging, toolaanroepen en RAG-workflows.

lees ook

IBM en NASA lanceren AI-model om zonnevlammen te voorspellen

Granite 4.0 is open source beschikbaar onder een Apache 2.0-licentie. De modellen worden aangeboden via IBM watsonx.ai en via partners zoals Dell Technologies, Docker Hub, Hugging Face, Nvidia NIM, Kaggle en Replicate. Ondersteuning op Amazon SageMaker en Microsoft Azure is in voorbereiding.

Validatie en veiligheid

Granite 4.0 is de eerste open modelfamilie met een ISO/IEC 42001:2023-certificering. Dat bevestigt dat IBM’s ontwikkelproces voldoet aan internationale normen rond veiligheid, governance en verantwoording in AI. IBM cryptografisch ondertekent alle modelcheckpoints en lanceerde een bug bounty-programma in samenwerking met HackerOne om de modellen verder te beveiligen.

Voor de training gebruikte IBM een dataset van 22 biljoen tokens, samengesteld uit zakelijke en open bronnen. Alle modellen zijn getraind met focus op taal, redeneren, meertaligheid en beveiliging. IBM splitst de modellen voor het eerst op in aparte varianten voor instructievolging en complexe redenering. De instructievarianten zijn nu beschikbaar. Redeneermodellen volgen later in 2025.