AI-bedrijf Anthropic past zijn privacybeleid grondig aan. Data wordt vanaf nu gebruikt voor training, tenzij je je afmeldt.
Gebruikers van Claude moeten voor 28 september expliciet bevestigen of hun gesprekken mogen gebruikt worden om AI-modellen te trainen. Zo niet, blijven hun gegevens buiten schot. Wie niets doet, stemt automatisch in.
Gespreksdata vijf jaar bewaard
Tot nu toe werden gesprekken van gratis en betalende Claude-gebruikers (zoals Claude Pro en Claude Max) niet gebruikt voor training. Vanaf eind september verandert dat beleid: gesprekken, inclusief codeeropdrachten, mogen worden ingezet om toekomstige AI-systemen te verbeteren. Data van gebruikers die zich niet afmelden, zal vijf jaar lang bewaard worden. Dat is een pak langer dan de eerdere dertig dagen.
Wie een nieuw account aanmaakt, krijgt direct de vraag of trainingsdata gedeeld mag worden. Bestaande gebruikers zien enkel een pop-up met “Updates aan onze gebruiksvoorwaarden” en een opvallende “Akkoord”-knop. De schakelaar om akkoord te gaan met het delen van data staat standaard aan en is volgens TechCrunch kleiner en subtieler weergegeven, wat tot verwarring kan leiden. Veel mensen lezen de ‘kleine lettertjes’ niet voor ze ergens akkoord mee gaan.

Concurrentiedruk en rechtszaken
Anthropic zegt dat gebruikers bijdragen aan “veiligere en betere AI” als ze hun gesprekken delen. Waarschijnlijk speelt vooral de nood aan trainingsdata een rol. AI-bedrijven zoals Anthropic, OpenAI en Google concurreren fel en hebben enorme hoeveelheden realistische input nodig. Ondertussen groeit het aantal rechtszaken: The New York Times klaagde OpenAI bijvoorbeeld aan in verband met dataretentie.
De keuze ligt dus bij de gebruiker: stilzwijgend toestemmen of expliciet weigeren. Maar kiezen zonder écht goed geïnformeerd te zijn, wordt steeds moeilijker in deze snel evoluerende sector.
lees ook