Gemini 2.5 verslaat bijna elk menselijk team in programmeerwedstrijd

Gemini 2.5 verslaat bijna elk menselijk team in programmeerwedstrijd
Bron: Google

Gemini 2.5 scoorde beter in een wedstrijd voor het oplossen van complexe algoritmische vraagstukken dan bijna 130 menselijke teams.

Google heeft zijn AI-model Gemini 2.5 laten deelnemen aan de International Collegiate Programming Contest (ICPC), waar het een gouden medaille behaalde. Gemini loste tien van de twaalf algoritmische puzzels op. Dat lukte maar vier van de 139 menselijke teams. Volgens Google is dit “een belangrijke stap op weg naar algemene AI.”

Sneller en slimmer dan bijna iedereen

Tijdens de wedstrijd kregen menselijke deelnemers een voorsprong van 10 minuten. Daarna begon Gemini 2.5 Deep Think, een versie die extra lang kon “doordenken” tijdens de vijf uur durende sessie. Binnen 45 minuten had Gemini al acht correcte oplossingen ingediend en na bijna 12 uur stond de teller op tien correcte antwoorden. Gemini eindigde tweede in het algemene klassement.

Een opvallend hoogtepunt was Probleem C: een ingewikkeld vraagstuk dat door geen enkel menselijk team opgelost werd, maar Gemini kon het wel. De AI vond na dertig minuten de juiste oplossing via dynamisch programmeren en een geneste zoekfunctie.

Wat hierna?

Volgens Google toont dit aan dat AI niet alleen teksten kan samenvatten, maar ook complexe logica en wiskunde aan kan. Het bedrijf ziet toepassingen in sectoren als halfgeleiderontwerp en biotechnologie, waar diepgaande redenering cruciaal is. Interne tests zouden aantonen dat Gemini 2.5 ook op eerdere ICPC-edities (2023 en 2024) goud zou hebben gehaald.

Google deelt geen cijfers over het energieverbruik, maar benadrukt wel dat zo’n krachtige AI duur is om te draaien. Toch denkt het bedrijf dat AI die in deze fase al ongelofelijk complexe problemen kan kraken, die kosten kan rechtvaardigen.

lees ook

Gemini 2.5: Google onthult nieuwe generatie AI-redeneringsmodellen