5

mercoledì 5 giugno 2024

l'ex dipendente di OpenAI: C'è Il 70% che l'intelligenza artificiale potebbe distruggere l'umanità

l'ex dipendente di OpenAI: C'è Il 70% che l'intelligenza artificiale potebbe distruggere l'umanità

Nella sua corsa per essere la prima a creare l’Intelligenza Generale Artificiale (AGI), OpenAI metterebbe in atto pratiche sconsiderate e rischiose che potrebbero mettere in pericolo un’umanità impreparata a ciò che sta arrivando.Alcuni specialisti di questa tecnologia dirompente hanno legami con l’altruismo efficace, un movimento ispirato all’utilitarismo che negli ultimi anni si è preoccupato di prevenire le minacce esistenziali derivanti dall’intelligenza artificiale. Uno di loro è Daniel Kokotajlo, ex ricercatore nella divisione governance dell'azienda guidata da 

Sam Altman . "OpenAI è davvero entusiasta di costruire l'IAG e sta correndo sconsideratamente per essere il primo a farlo", ha detto Kokotajlo al New York Times .«Il mondo non è pronto, e nemmeno noi. “Sono preoccupato perché stiamo andando avanti frettolosamente e razionalizzando le nostre azioni”, ha scritto al suo team spiegando le sue dimissioni dall’azienda lo scorso aprile.Dopo la sua ultima esperienza, Kokotajlo ritiene che l’IAG potrebbe arrivare nel 2027 e che ci sia una probabilità del 70% che distrugga o causi danni catastrofici all’umanità. Per questo 

motivo, insieme a un gruppo di colleghi, ha pubblicato una lettera aperta  invitando le principali aziende di intelligenza artificiale, tra cui OpenAI, a stabilire maggiore trasparenza e più tutele per gli informatori. "Quando sono entrato in OpenAI, non l'ho fatto per avere questo atteggiamento del tipo 'Buttiamo le cose nel mondo e vediamo cosa succede e sistemiamole più tardi'", ha detto William Saunders, un ingegnere ricercatore che ha lasciato OpenAI a febbraio e è un altro dei firmatari della lettera, sostenuta in forma anonima anche da diversi attuali dipendenti che, secondo Kokotajlo, temono ritorsioni da parte dell'azienda.

Va notato che, dopo tale pubblicazione questo martedì (4 giugno), la risposta della società ha impiegato solo poche ore per arrivare. “Siamo orgogliosi della nostra esperienza nel fornire sistemi di intelligenza artificiale più capaci e sicuri e crediamo nel nostro approccio scientifico per affrontare il rischio. “Siamo d’accordo sul fatto che un dibattito rigoroso sia fondamentale data l’importanza di questa tecnologia, e continueremo a impegnarci con i governi, la società civile e altre comunità in tutto il mondo”, ha commentato Lindsey Held, portavoce di OpenAI.LinkLink

Nessun commento:

Posta un commento