HackerOne lanceert een richtlijn die AI-onderzoek met goede bedoelingen juridisch beschermt, zodat organisaties en onderzoekers veiliger kunnen samenwerken aan het testen van AI-systemen.
HackerOne heeft de Good Faith AI Research Safe Harbor gelanceerd. Dat is een richtlijn die juridische bescherming biedt aan wie AI-systemen test met goede bedoelingen. De aankondiging is bedoeld om de huidige onduidelijkheden rond AI-onderzoek weg te nemen. Veel AI-tests vallen buiten traditionele kaders voor kwetsbaarheidsrapportage, wat risico’s creëert voor onderzoekers. Dit nieuwe raamwerk moet dat probleem verhelpen.
Bovenop bestaande raamwerk
De richtlijn bouwt voort op de Gold Standard Safe Harbor van HackerOne uit 2022, die eerder al bescherming bood voor klassiek softwareonderzoek. Beide richtlijnen bepalen hoe organisaties onderzoekers expliciet kunnen toelaten en beschermen bij het opsporen van kwetsbaarheden.
Wanneer organisaties het kader omarmen, verbinden ze zich ertoe geen juridische stappen te ondernemen tegen onderzoekers die AI-systemen in goede bedoelingen testen. Ze voorzien ook uitzonderingen op restrictieve gebruiksvoorwaarden en bieden ondersteuning wanneer derden een claim indienen. De bescherming geldt enkel voor AI-systemen die de organisatie zelf beheert of bezit.
Standaard voor veilige AI-tests
Volgens HackerOne is duidelijke communicatie essentieel om de veiligheid van AI-systemen te garanderen. Organisaties willen hun AI laten testen, maar onderzoekers moeten zeker zijn dat ze daardoor niet in juridische problemen komen. Het nieuwe kader moet die kloof overbruggen.
De richtlijn is beschikbaar voor klanten van HackerOne als een apart kader, los van de bestaande Gold Standard. Deelnemende organisaties geven ermee aan dat AI-onderzoek welkom is, wat de kwaliteit van testen en samenwerking moet verbeteren.
