Na verdenkingen van industriële spionage door het Chinese DeepSeek versterkt OpenAI zijn beveiligingsmaatregelen drastisch.
OpenAI heeft zijn interne beveiliging aangepast. Dat zou komen door de lancering van het R1-model van DeepSeek, dat volgens OpenAI gebruikmaakte van distillatie om gevoelige modelkennis te gebruiken. Sindsdien zijn er strikte maatregelen genomen om de intellectuele eigendom van het bedrijf beter te beschermen.
Strikte toegangsregels en strenge bescherming
Interne informatie wordt nu afgeschermd via een systeem dat ‘tenting’ wordt genoemd: medewerkers mogen enkel praten over projecten als ze expliciet tot die ‘tent’ behoren, weet Financial Times. Zo werd tijdens de ontwikkeling van het geheime model “Strawberry” (de projectnaam voor GPT-o1) gecontroleerd of collega’s wel aan hetzelfde project werkten, zelfs in kantoorruimtes.
Daarnaast kunnen gevoelige modellen niet op het internet verschijnen, want ze worden ontwikkeld in een offline omgeving. Een nieuw beleid zorgt ervoor dat niets zomaar verbinding maakt met het internet.
Biometrische beveiliging en screening
Fysieke toegang tot delen van het kantoor is nu enkel mogelijk met biometrische scans, zoals vingerafdrukken. Ook datacenters kregen extra beveiliging. Bovendien worden medewerkers en sollicitanten scherper doorgelicht, omdat veel bedrijven in Silicon Valley op hun hoede zijn voor buitenlandse inmenging.
Hoewel OpenAI benadrukt dat deze maatregelen niet het gevolg zijn van één incident, is het duidelijk dat de geopolitieke spanningen tussen de VS en China het bedrijf aansporen om hun modelinformatie beter te beschermen.