Microsoft lanceer een ‘correctietool’ om hallucinaties van AI-systemen op te lossen. Experten zijn niet overtuigd over de effectiviteit ervan.
Microsoft onthult in een blog Correction, een tool om AI-hallucinaties op te lossen. Geen enkel LLM, hoeveel parameters het ook telt, is immuun voor hallucinaties, een term die wordt gebruikt om fouten gemaakt door AI aan te duiden. Microsoft denkt met Correction een oplossing te hebben gevonden.
De tool speurt naar hallucinaties in de output van AI-systemen, of resultaten die niet gegrond zijn in de gekoppelde gegevensbronnen. Als er een ongegronde zin wordt gedetecteerd, wordt er een nieuw verzoek om correctie naar het generatieve AI-model gestuurd. Het LLM beoordeelt dan de ongegronde zin aan de hand van het brondocument, legt Microsoft uit.
Verbeteren
Geeft het model zijn fout toe, zijn er twee opties mogelijk. Ofwel wordt de foutieve zin volledig verwijdert als er geen inhoud instaat die gerelateerd is aan het basisdocument. Is dat wel het geval, dan zal het model de zin corrigeren. Optioneel kan je het model ook vragen om een redenering te geven waarom de initiële output fout was.
Microsoft is ervan overtuigd dat Correction een significante doorbraak is. De vrees voor hallucinaties is één van de voornaamste drempel voor bredere AI-adoptie. Foutieve inhoud filteren uit output leidt niet tot de beste gebruikservaring, beweert Microsoft. Foutencorrectie biedt een veel effectievere oplossing voor hallucinaties.
Eén procent
Experten trekken bij TechCrunch de claims van Microsoft toch in twijfel. Een punt van kritiek is dat Correction niet tot in de kern gaat waarom hallucinaties optreden. AI-systemen hallucineren omdat ze geen ‘kennis’ hebben over iets. Modellen zijn louter getraind om statistische patronen te herkennen. Stel je een vraag aan ChatGPT of Copilot, dan voorspelt het model wat het op die vraag moet antwoorden. Het model weet eigenlijk helemaal niet of het antwoord juist of fout is.
Daarnaast vragen de experten zich af hoe Microsoft kan garanderen dat Correction zelf geen fouten maakt. Correction is getraind op datasets die evengoed vertekeningen kunnen bevatten. De tool kan de accuraatheid van AI-systemen misschien wel verhogen van 90 tot 99 procent, maar die foutenmarge van één procent zal niet zomaar worden weggewerkt. Dit kan gebruikers een vals gevoel van veiligheid geven dat hun model wel honderd procent accuraat is.