Cerca
Close this search box.

La sicurezza per OpenAI non è mai stata in primo piano

In una sequenza di eventi senza precedenti nell’industria tecnologica, la rimozione e il successivo reinstaurarsi di Sam Altman da parte del consiglio di OpenAI sono stati un susseguirsi di colpi di scena destinati a rimanere nella storia di Silicon Valley come uno degli episodi più esplosivi. Tuttavia, se lo spettacolo iniziale è stato coinvolgente, le conseguenze a lungo termine potrebbero rivelarsi meno piacevoli.

La “cospirazione”, come molti l’hanno definita, è stata principalmente attribuita a uno scontro ideologico tra Altman e il consiglio di OpenAI sulla velocità di sviluppo tecnologico dell’azienda. La narrazione suggerisce che il consiglio, responsabile dell’orientamento dell’organizzazione, fosse preoccupato dalla rapida commercializzazione della tecnologia da parte di Altman, decidendo quindi di espellerlo senza mezzi termini. Altman, sostenuto successivamente dal potente partner finanziatore di OpenAI, Microsoft, insieme alla maggioranza del personale della startup, ha guidato una contro-cospirazione, eliminando i traditori e reintegrando se stesso come leader dell’azienda.

Gran parte del dramma sembra ruotare attorno a questa disputa tra Altman e il consiglio sulla “sicurezza dell’IA”. Questo capitolo turbolento nella storia dell’azienda sembra rappresentare una manifestazione delle due personalità contrastanti di OpenAI: una basata sulla ricerca e sullo sviluppo tecnologico responsabile e l’altra incentrata sulla redditività. Un lato ha chiaramente prevalso sull’altro (suggerimento: è stato il lato economico).

È importante sottolineare che le vere ragioni dell’allontanamento di Altman non sono ancora state rese pubbliche. I membri dell’azienda evitano di parlare delle ragioni o negano categoricamente che il licenziamento di Sam avesse a che fare con la sicurezza dell’IA. Teorie alternative hanno circolato nel frattempo, alcune suggerendo che le ragioni reali dell’uscita aggressiva di Altman fossero decisamente più colorate, come accuse di ricerca di finanziamenti da regimi autocratici del Medio Oriente.

Tuttavia, discutere troppo delle specifiche scatenanti del dramma di OpenAI significa ignorare ciò che l’intero episodio ha rivelato: per quanto riguarda il mondo reale, la “sicurezza dell’IA” nella Silicon Valley è praticamente nulla. Ora sappiamo che, nonostante la struttura organizzativa apparentemente inattaccabile e la dichiarata missione di sviluppo etico dell’IA, a OpenAI non è mai stato permesso di mettere l’etica prima del denaro.

In questi ultimi giorni, il dramma sembra aver radicalizzato ulteriormente un’ideologia anti-sicurezza già radicale, considerandola un ostacolo all’autentico sviluppo tecnologico e al profitto esponenziale. Alla fine, ora sappiamo che non c’è motivo di credere che tali sforzi faranno mai la differenza se l’etica dell’azienda entra in conflitto con il denaro. E quando queste due cose non sono mai entrate in conflitto?

Leggi qui l’intero articolo: After OpenAI’s Blowup, It Seems Pretty Clear That ‘AI Safety’ Isn’t a Real Thing

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto