- L’amministrazione Biden-Harris si è assicurata impegni di sicurezza da parte di otto importanti società di intelligenza artificiale.
- All’annuncio hanno partecipato rappresentanti di Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI e Stability.
- Queste aziende si sono impegnate a svolgere un ruolo fondamentale nel promuovere uno sviluppo dell’IA sicuro e affidabile.
- Gli impegni ruotano attorno alla sicurezza, alla protezione e alla fiducia.
- Le aziende si impegnano a rigorosi test di sicurezza interni ed esterni dei loro sistemi di intelligenza artificiale prima di rilasciarli.
- Condivideranno inoltre attivamente informazioni sulla gestione del rischio legato all’intelligenza artificiale con i governi, la società civile, il mondo accademico e l’industria.
- Le aziende si sono impegnate a investire nella sicurezza informatica e nella protezione dalle minacce interne.
- Faciliteranno la scoperta e la segnalazione di vulnerabilità da parte di terzi nei loro sistemi di intelligenza artificiale.
- Le aziende svilupperanno meccanismi tecnici per indicare quando il contenuto viene generato dall’intelligenza artificiale.
- Riferiranno pubblicamente sulle capacità e sui limiti dei loro sistemi di intelligenza artificiale, coprendo sia i rischi per la sicurezza che quelli per la società.
- Queste aziende svilupperanno e implementeranno sistemi avanzati di intelligenza artificiale per affrontare le sfide sociali.
- L’impegno dell’amministrazione Biden-Harris si estende oltre gli Stati Uniti, coinvolgendo partner e alleati internazionali.
- L’annuncio segna una pietra miliare significativa nello sviluppo responsabile dell’IA, con la collaborazione dei leader del settore e del governo.
- Gli impegni integrano iniziative globali come il vertice del Regno Unito sulla sicurezza dell’intelligenza artificiale e la leadership del Giappone nel processo di Hiroshima del G7.
Lascia un commento