OpenAI in lastig parket wegens veiligheidsproblemen
Veiligheidsproblemen spelen OpenAI op meerdere vlakken parten: de Mac-app was onveilig, en de interne systemen blijken ook niet waterdicht.
OpenAI is sinds november 2022, toen het ChatGPT op de wereld losliet, een belangrijke speler geworden. Je zou verwachten dat het bedrijf ze dan allemaal netjes op een rijtje heeft, maar als het om veiligheid gaat lijkt dat voorlopig toch niet het geval.
Eerder deze week dook Pedro José Pereira Vieito in de ChatGPT-app voor Mac. Vieito ontwikkelt programma’s in Swift, een code die ontwikkeld werd door Apple en waarmee je applicaties voor Apple-toestellen kan ontwikkelen. Ook de ChatGPT-app werd met Swift gebouwd, wat Vieito de mogelijkheid biedt om de code eens te evaluaren. De conclusies die daaruit komen, zijn echter niet mals.
Niet-versleutelde chats
Er zat namelijk een groot probleem in de eerste versies van die app. Chats met het AI-systeem werden op het toestel opgeslagen, maar konden door iedereen ingekeken en nagelezen worden. Ze werden namelijk opgeslagen als platte tekst, in plaats van versleuteld. Dat is een flink veiligheidsrisico, en zou ervoor kunnen zorgen dat cybercriminelen of andere apps je gesprekken kunnen meelezen. Het is de bedoeling dat die gesprekken versleuteld worden, zodat ze onbegrijpbaar zijn voor pottenkijkers.
Normaal gezien verplicht Apple zo’n versleuteling ook: ontwikkelaars dragen de verantwoordelijkheid om eventuele veiligheidsrisico’s te minimaliseren. OpenAI speelt echter niet met dezelfde regels: de ChatGPT-app is namelijk niet beschikbaar via de App Store, maar is enkel te downloaden via de website van OpenAI. Daarom hoeft het AI-bedrijf niet volgens de regels van Apple te spelen. Inmiddels werd een update uitgestuurd die een versleutelingslaag toevoegt aan gesprekken met ChatGPT.
Klokkenluider
Een ander probleem werd ontbloot door The New York Times. De krant schrijft over veiligheidsproblemen in 2023, toen een hacker zichzelf toegang kon verschaffen tot de systemen van OpenAI. Het was technisch programmamanager Leopold Aschenbrenner die toen aan de alarmbel trok, en signaleerde dat er interne veiligheidsproblemen waren. De man zegt nu dat hij ontslagen is omdat hij dat naar buiten bracht, al wordt dat betwist door OpenAI. Daar zeggen ze dat het ontslag niets te maken heeft met het feit dat hij de klok luidde, maar dat het bedrijf en de werknemer op een andere manier overhoop lagen.
De veiligheidsproblemen brengen OpenAI in een lastig parket. Het AI-systeem is, dankzij ChatGPT, Microsofts Copilot én een integratie in Apple-producten, één van de meestverspreide modellen die er zijn. Eerder raakte al bekend dat Apple liever niet samenwerkt met Meta omwille van privacyredenen, maar of OpenAI een positievere beoordeling verdient? Dat is maar de vraag.