Cerca
Close this search box.

Ricerca indipendente sull’IA attraverso porti sicuri legali e tecnici

immagine renderizzata di un cervello astratto tridimensionale.

Una valutazione indipendente nell’ambito dell’intelligenza artificiale diventa sempre più importante e necessario, così come l’implementazione di porti sicuri legali e tecnici come fondamentali protezioni per la ricerca indipendente sulla sicurezza e l’affidabilità dell’IA.

Attualmente esistono alcuni programmi di aziende di IA che coinvolgono red teaming e valutazioni indipendenti prima del rilascio dei modelli. Tuttavia, le politiche aziendali attuali non proteggono adeguatamente la ricerca sulla sicurezza e l’affidabilità.
Ci sono due tipi di porti sicuri: uno legale, che protegge i ricercatori da possibili azioni legali delle aziende; e uno tecnico, che mira a rimuovere le deterrenze pratiche che limitano gli sforzi di ricerca, come la sospensione degli account o le limitazioni di velocità.

Il sostegno da parte della comunità accademica , giornalistica e civile ha un ruolo centrale per quanto riguarda la promozione di una valutazione indipendente dell’IA e per implementare le protezioni proposte, così da migliorare le norme dell’ecosistema e favorire sforzi più inclusivi per affrontare i rischi dell’IA generativa.

Leggi l’articolo completi: A safe harbor for AI evaluation and red teaming su aisnakeoil.com.

Foto di Google DeepMind su Pexels.

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto