Intelligenza artificiale

OpenAI vieta ai dipendenti di denunciare i rischi della sua AI

Una nuova denuncia presentata da alcuni whistleblower accusa l'azienda di imporre clausole illegali al personale per impedirgli di comunicare con le autorità
OpenAI
Il logo di OpenAI su uno smartphoneNurPhoto/Getty Images

OpenAI proibisce ai suoi dipendenti di segnalare alle autorità di regolamentazione i "gravi rischi" posti dai suoi sistemi di intelligenza artificiale. A rivelarlo è il Washington Post, che fa riferimento a una nuova denuncia presentata alla Securities and exchange commission (Sec), l'ente degli Stati Uniti che vigila sulla borsa, da alcuni whistleblower interni all'azienda.

La denuncia dei whistleblower di OpenAI

Il quotidiano statunitense ha avuto accesso a una lettera inviata dagli avvocati dei querelanti al presidente della Sec Gary Gensler. Il documento accusa la startup di imporre ai dipendenti accordi che scoraggiano le possibili denunce, costringendoli a rinunciare diritti come i compensi previsti dalle autorità americane per i whistleblower e obbligandoli ad avvertire la società di qualsiasi comunicazione con enti di regolamentazione. I rappresentanti legali degli informatori affermano di aver presentato alla Sec prove che dimostrano che gli accordi di riservatezza di OpenAI violano la legge, imponendo ai suoi dipendenti contratti illegali.

La denuncia chiede alla Sec di "intraprendere un'azione rapida e aggressiva" per far rispettare all'azienda di Sam Altman le regole previste dalla legge federale statunitense e dall'ordine esecutivo relativo all'industria dell'AI emanato l'anno scorso dal presidente Joe Biden.

"Per quanto riguarda la supervisione dell'AI, siamo all'inizio. Abbiamo bisogno che i dipendenti si facciano avanti e rendano OpenAI un'azienda più aperta e trasparente", ha commentato Stephen Kohn, uno degli avvocati coinvolti nel caso. Una copia della lettera è stata inviata al Washington Post e al Congresso americano dall'ufficio di Chuck Grassley, senatore repubblicano dell'Iowa

Interpellata sulla vicenda, la portavoce di OpenAI Hannah Wong ha affermato che la politica dell'azienda sui whistleblower protegge i diritti dei dipendenti. "Un dibattito rigoroso su questa tecnologia è essenziale e abbiamo già apportato modifiche significative al nostro processo di separazione dai dipendente per eliminare le clausole di non denigrazione", ha commentato Wong.

Scarsa trasparenza

Le clausole imposte da OpenAI ai propri dipendenti sono già state oggetto di critiche in passato. All'inizio di quest'anno, un articolo pubblicato da Vox ha rivelato che l'azienda minacciava di ritirare le azioni maturate dai lavoratori nel quadro dei loro pacchetti retributivi se non avessero firmato un accordo in cui si impegnavano a non criticare l'azienda. L'amministratore delegato della startup Sam Altman aveva dichiarato di non essere a conoscenza dell'esistenza di tali accordi, aggiungendo che la clausola sarebbe stata eliminata e che la società avrebbe modificato i processi per gestire dimissioni e licenziamenti.

Secondo quanto riportato da The Information inoltre l'ad sta valutando la possibilità di trasformare OpenAI in un'organizzazione a scopo di lucro. Il cambiamento consentirebbe all'azienda di ottenere profitti illimitati e faciliterebbe un'eventuale quotazione in borsa.

Nonostante l'enorme successo di ChatGPT, negli ultimi mesi OpenAI è stata messa sotto accusa per le carenze etiche e i problemi sicurezza nei processi di sviluppo dei suoi modelli di intelligenza artificiale. Gli analisti suggeriscono che una modifica nella struttura societaria potrebbe spingere l'organizzazione ad accelerare ulteriormente i progetti con un maggiore potenziale commerciale, una svolta che aumenterebbe però i timori sui rischi legati all'uso di questi sistemi.

Nel frattempo OpenAI è impegnata in una campagna finalizzata ripristinare la fiducia pubblica nell'azienda. A maggio il produttore di ChatGPT ha annunciato la creazione di un comitato per la sicurezza guidato dai membri del consiglio di amministrazione Sam Altman, Adam D'Angelo e Nicole Seligman, che ha il compito di formulare raccomandazioni sulle "decisioni critiche" in materia di sicurezza e controllo nell'ambito dello sviluppo di nuovi progetti.

Questo articolo è apparso originariamente su Wired en español.