Hugging Face: het open alternatief in het AI-landschap 

Hugging Face: het open alternatief in het AI-landschap 

Met meer dan twaalf miljoen gebruikers en miljoenen open AI-modellen is Hugging Face misschien wel een grotere speler dan OpenAI of Anthropic. Welke rol speelt het platform in het AI-ecosysteem? 

Hugging Face bestaat bijna tien jaar en is in die tijd uitgegroeid tot een centrale speler in het wereldwijde AI-ecosysteem. Namen als OpenAI, Google en Anthropic zijn ondertussen alom bekend bij het grote publiek, maar Hugging Face positioneert zich eerder als een open platform voor AI-bouwers.  

Op AWS Re:Invent 2025 spreken we met Jeff Boudier, product lead bij het bedrijf. Hoe evolueert de rol van het platform voor zijn 12 miljoen gebruikers?  “Hugging Face is het leidende open platform voor AI-bouwers,” zegt Boudier. “Dagelijks gebruiken meer dan twaalf miljoen data scientists, onderzoekers, machine learning engineers en steeds vaker ook softwareontwikkelaars ons platform.” 

Hugging Face draait om openheid. Gebruikers kunnen er AI-modellen, datasets en applicaties vinden, delen en gebruiken. Dat is anders dan bij commerciële aanbieders die vooral inzetten op een klein aantal propriëtaire modellen. “Als je een open model wilt gebruiken, dan gebruik je Hugging Face,” stelt Boudier. “Dat is de plek waar al deze modellen worden gehost en gedeeld.” Vergelijk Hugging Face een beetje met Github, maar dan voor AI

lees ook

Hugging Face: het open alternatief in het AI-landschap 

Miljoenen modellen 

Een van de belangrijkste verschillen met de grote AI-merken zit in schaal en diversiteit. “OpenAI biedt misschien vijf modellen aan,” zegt Boudier. “Wij bieden er miljoenen.” Op het Hugging Face-platform zijn meer dan twee miljoen publieke modellen beschikbaar. Daarnaast bestaan er nog eens miljoenen private modellen, ontwikkeld binnen organisaties. “Er zijn meer dan 300.000 organisaties actief op Hugging Face die in teams samenwerken aan private modellen.” 

Die enorme hoeveelheid modellen vertaalt zich ook in uiteenlopende toepassingen. Volgens Boudier is het een misvatting om AI gelijk te stellen aan chatbots en large language models (LLM’s). “Er is een vals beeld ontstaan dat AI altijd LLM’s zijn, AI is veel breder dan dat. LLM is slechts één use case, en misschien wel de meest saaie.”  

Op Hugging Face zijn AI-modellen te vinden voor tekst, spraak, beeld, video en zelfs 3D-data. Ze zijn zelfs vaak gespecialiseerd per sector. “Als je een applicatie bouwt voor juristen, dan wil je uiteraard een model dat uitzonderlijk goed is in juridische content,” legt hij uit.

Van onderzoeksplatform naar ontwikkelomgeving 

Toen Boudier vijf jaar geleden bij Hugging Face begon, lag de focus vooral op AI-onderzoekers. “Het was toen vooral de referentie voor mensen die de grote modellen bouwden,” zegt hij. Sindsdien is het platform sterk geëvolueerd. Eerst kwamen data scientists die modellen aanpasten aan bedrijfsdata, daarna machine learning engineers die moesten opschalen, en nu ziet Hugging Face steeds vaker softwareontwikkelaars op het platform. 

“AI is nu de standaard manier geworden om technologie te bouwen,” stelt Boudier. “Je begint niet meer met duizend regels code, maar met een AI-model.” Die verschuiving verklaart waarom Hugging Face vandaag ook aantrekkelijk is voor klassieke softwareteams. 

lees ook

Hugging Face: het open alternatief in het AI-landschap 

Strategische samenwerking met AWS 

Een belangrijke factor in die groei is de samenwerking met Amazon Web Services. AWS was de eerste strategische partner van Hugging Face. “Toen ik begon, was mijn eerste taak het opzetten van die samenwerking,” vertelt Boudier. Hugging Face draait grotendeels op AWS-infrastructuur, maar de samenwerking gaat verder dan dat. 

Samen werken de bedrijven aan integraties met onder meer Amazon SageMaker. “We maken het makkelijk voor AWS-klanten om Hugging Face-modellen te gebruiken,” zegt Boudier. Dat gebeurt via kant-en-klare containers, SDK’s en directe koppelingen vanuit het Hugging Face-platform naar AWS-diensten. 

Op vlak van hardware is de samenwerking sterk. “We werken heel intensief samen met de teams achter Inferentia en Trainium,” aldus Boudier. “Zodat onze modellen optimaal draaien op AWS-chips en klanten profiteren van de efficiëntie daarvan.” 

Beveiliging en verantwoordelijkheid 

Openheid brengt ook risico’s met zich mee. Hugging Face investeert daarom zwaar in beveiliging van publieke modellen. “Wij nemen de verantwoordelijkheid om publieke modellen te beveiligen,” zegt Boudier. Elk model dat online staat, wordt automatisch gescand op malware, gelekte API-sleutels en persoonsgegevens. Daarvoor werkt Hugging Face samen met bedrijven als Protect AI, JFrog en VirusTotal. 

AI creëert vandaag waarde op miljoenen kleine manieren.

Jeff Boudier, AWS Product Lead

Voor bedrijven ligt een deel van de verantwoordelijkheid echter bij henzelf. Boudier waarschuwt voor shadow AI. “We zien bedrijven met honderden gebruikers die modellen gebruiken zonder dat IT daar zicht op heeft.” Met Hugging Face Enterprise kunnen bedrijven daarom een beleid, toegangsrechten en auditlogs instellen. 

Iedereen kan publiceren 

Net als op GitHub kan eigenlijk iedereen een model publiceren op Hugging Face. “Het is jouw content en jij blijft de eigenaar,” zegt Boudier. Controles gebeuren altijd pas na publicatie, niet vooraf. Voor enterprise-omgevingen bestaan er wel strengere selecties. Zo tonen partners als Dell en Microsoft subsets van modellen aan hun klanten die voldoen aan extra eisen rond licenties en beveiliging. 

“Op Azure AI Foundry zie je alleen modellen die alle scans hebben doorstaan,” aldus Boudier. Dat maakt het platform geschikt voor gereguleerde omgevingen zonder het open karakter volledig los te laten. 

AI in alle sectoren 

Volgens Boudier is er geen enkele sector die geen voordeel uit AI haalt. “Alle industrieën profiteren,” zegt hij. Van kwaliteitscontrole in fabrieken met beeldherkenning tot juridische analyse en documentverwerking. “De use cases zijn vaak anders dan wat je in de media hoort.” 

lees ook

Van workflow tot technobeat: zo laat Siemens AI werken 

Dat brede gebruik weerspiegelt zich in de community. “Je ziet nationale bibliotheken modellen delen, maar ook autofabrikanten en maritieme transportbedrijven,” vertelt hij. Met twaalf miljoen gebruikers staat Hugging Face wereldwijd en voor verschillende sectoren. 

Hype, bubbel of duurzame realiteit? 

Tot slot komt de vraag naar een mogelijke AI-bubbel aan bod. Boudier erkent dat er overinvestering is, vooral gedreven door de droom van algemene AI. “Er is zeker overinvestering in infrastructuur,” zegt hij. Tegelijk ziet hij dat los van de dagelijkse realiteit. “AI creëert vandaag waarde op miljoenen kleine manieren.” 

Nieuwe open modellen verschijnen wekelijks op Hugging Face. “Een ‘DeepSeek-moment’ gebeurt hier elke week,” zegt hij. Dat relativeert de schokgolven op de beurs. Volgens Boudier zal de infrastructuur uiteindelijk worden benut. “Niet voor één model, maar voor de miljoenen modellen die bedrijven nodig hebben om al hun technologie te ondersteunen.” 

lees ook

Binnenwerk DeepSeek-AI beroert gemoederen: hoe werkt het, en wat is gestolen?