“L’intelligenza artificiale ha bisogno di un framework sicuro e di standard applicativi in grado di tenere il passo con la rapida crescita”, afferma Google. Per affrontare queste sfide sarà creata una nuova organizzazione: la Coalition for Safe Artificial Intelligence (CoSAI), lanciata giovedì. Oltre a Google, i membri fondatori includono Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal e Wiz. (Wiz è una startup di sicurezza IT che Google è interessata ad acquisire.)
annuncio
Autorità suprema di controllo e di controllo finanziario Ti piacerebbe lavorare con la scienza, altre organizzazioni e l’industria IT in generale e guidare inizialmente tre gruppi di lavoro: proteggere la catena di fornitura dell’intelligenza artificiale (sicurezza della catena di fornitura del software per i sistemi di intelligenza artificiale), preparare la sicurezza IT ai mutevoli scenari di minaccia grazie all’intelligenza artificiale e per gestire la governance della sicurezza dell’intelligenza artificiale.
Compiti dei tre gruppi di lavoro
Quest’ultimo gruppo dovrebbe, ad esempio, sviluppare un sistema di definizioni in modo che le persone del settore parlino meno tra loro. L’elenco delle cose da fare comprende anche liste di controllo e sistemi di valutazione standardizzati per valutare la preparazione ai problemi di sicurezza nelle applicazioni di intelligenza artificiale, gestirli e monitorarli e segnalare problemi di sicurezza.
Per rafforzare la sicurezza IT nella battaglia contro gli aggressori guidati dall’intelligenza artificiale, il secondo gruppo di lavoro CoSAI creerà un quadro che aiuterà i difensori IT a decidere se investire in misure di mitigazione. Il primo gruppo di lavoro svilupperà istruzioni basate sull’esperienza nell’utilizzo di software classici. Queste guide hanno lo scopo di aiutarti a scoprire come è nato un particolare sistema di intelligenza artificiale (origine e sviluppo) e come potrebbe interagire con offerte di terze parti per dedurre minacce.
Altre iniziative CoSAI In autunno, Google ha ampliato il suo programma di bug bounty per includere prodotti IA per incoraggiare terze parti a ricercare le vulnerabilità dell’IA. Nel giugno dell’anno precedente, la società di dati Un quadro sicuro per l’intelligenza artificiale Pubblicato in collaborazione con partner dell’industria Impegni volontari sull’IA pubblicato.
Contenuti editoriali consigliati
Dopo la tua approvazione, un sondaggio esterno (Opinary GmbH) verrà caricato qui.
Carica sempre i sondaggi
(S)