Cerca
Close this search box.

Google dice di voler rafforzare l’impegno per un’intelligenza artificiale sicura

Google ha annunciato oggi nuove iniziative volte a migliorare la sicurezza e l’affidabilità dell’intelligenza artificiale generativa. L’azienda sta espandendo il proprio Vulnerability Rewards Program per includere anche gli attacchi mirati all’AI generativa, con l’obiettivo di incentivare la ricerca sulla sicurezza dell’AI e portare alla luce potenziali problematiche.

Google sta inoltre revisionando le linee guida per la segnalazione delle vulnerabilità, per tenere conto dei nuovi rischi posti dall’AI generativa, come pregiudizi ingiusti, manipolazione dei modelli o interpretazioni errate dei dati. L’azienda sta adottando un approccio completo per testare e anticipare questi potenziali rischi.

Per rafforzare ulteriormente la sicurezza della supply chain dell’AI, Google sta espandendo il proprio lavoro open source, basandosi sulla collaborazione con l’Open Source Security Foundation. In particolare, verranno utilizzati gli standard SLSA e la tecnologia Sigstore per verificare l’integrità dei sistemi di AI.

Questi sono i primi passi verso lo sviluppo sicuro ed etico dell’AI generativa. L’auspicio di Google è che, incentivando la ricerca sulla sicurezza e collaborando con la comunità open source, si possa rendere l’AI più sicura per tutti.

Fonte: (Google Blog)

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto