Cerca
Close this search box.

Gaffe Microsoft: 38TB di Dati Sensibili Rivelati a Causa di Token SAS Mal Configurati

I ricercatori di Microsoft AI hanno commesso un grave errore: durante la pubblicazione di un insieme di dati di addestramento open-source su GitHub, hanno esposto accidentalmente 38 terabyte di dati privati supplementari, tra cui il backup del disco di due workstation di dipendenti. Il back up conteneva informazioni sensibili come chiavi private, password e oltre 30.000 messaggi interni di Microsoft Teams.

Il “breach” è stato scoperto dal team di ricerca di Wiz nell’ambito del loro continuo lavoro sulla sicurezza dei dati ospitati nel cloud. Utilizzando i token SAS (Shared Access Signature) di Azure per condividere i file, il team di ricerca di Microsoft non ha limitato l’accesso a file specifici, rendendo così l’intero account di archiviazione accessibile. Questo incidente mette in luce i nuovi rischi che le organizzazioni devono affrontare con l’adozione sempre più diffusa dell’AI e la necessità di implementare controlli di sicurezza e garanzie supplementari per proteggere l’enorme quantità di dati manipolati.

I token SAS di Azure sono URL firmati che consentono di concedere l’accesso ai dati di Azure Storage, con livelli di accesso che variano da “sola lettura” a “controllo completo”. Nonostante offrano grande flessibilità agli utenti, creano anche il rischio di concedere accessi eccessivi, come dimostrato dal recente incidente di Microsoft, dove è stato configurato un token che permetteva il “controllo completo” su tutto l’account, praticamente per sempre.

Di fronte a tali rischi, il team di Wiz ha formulato una serie di raccomandazioni per migliorare la sicurezza dei token SAS, invitando alla prudenza nell’uso dei token Account SAS per la condivisione esterna e suggerendo l’adozione di politiche di accesso memorizzate e l’utilizzo di token User Delegation SAS con una durata massima di 7 giorni per limitare i rischi.

I ricercatori hanno anche sollevato preoccupazioni sulle implicazioni più ampie per la sicurezza nel pipeline AI, evidenziando rischi di “condivisione eccessiva” dei dati e potenziali attacchi attraverso l’iniezione di codice maligno nei file dei modelli AI. Suggeriscono una stretta collaborazione tra i team di sicurezza e di ricerca e sviluppo per garantire che siano definiti corretti controlli di sicurezza.

Per prevenire futuri incidenti di questo tipo, gli esperti di Wiz raccomandano di evitare completamente l’uso dei token SAS, se possibile, e di aumentare il monitoraggio e la scansione segreta per identificare e gestire i token SAS a rischio.

Fonte: https://www.wiz.io/blog/38-terabytes-of-private-data-accidentally-exposed-by-microsoft-ai-researchers

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto