Dagli Stati Uniti arriva un’importante notizia che riguarda il settore dell’intelligenza artificiale e i possibili effetti che tale tecnologia potrebbe avere in materia di sicurezza: lo U.S. Artificial Intelligence Safety Institute, parte del National Institute of Standards and Technology (NIST) del Dipartimento del Commercio ha annunciato di avere raggiunto degli accordi con OpenAI e Anthropic.

In virtù di tali accordi, lo U.S. Artificial Intelligence Safety Institute collaborerà con le due aziende sulla ricerca, i test e la valutazione della sicurezza delle rispettive soluzioni di intelligenza artificiale.

Negli USA provano a rendere più sicura l’intelligenza artificiale

Stando a quanto è stato reso noto, gli accordi raggiunti consentiranno la ricerca collaborativa su come valutare le capacità e i rischi per la sicurezza, oltre che i metodi per mitigare tali rischi.

Elizabeth Kelly, direttrice dello U.S. Artificial Intelligence Safety Institute, ci ha tenuto a sottolineare quanto la sicurezza sia essenziale per alimentare l’innovazione tecnologica rivoluzionaria, aggiungendo che “Questi accordi sono solo l’inizio, ma sono una pietra miliare importante mentre lavoriamo per aiutare a gestire in modo responsabile il futuro dell’IA”.

Inoltre, lo US Artificial Intelligence Safety Institute prevede di fornire sia ad Anthropic che OpenAI dei feedback sui potenziali miglioramenti della sicurezza che potrebbero essere adottati nei loro modelli, il tutto in stretta collaborazione l’AI Safety Institute del Regno Unito.

Alla base di questi accordi vi è la volontà di provare a facilitare una profonda collaborazione tra i vari soggetti che operano nel settore dell’intelligenza artificiale e portare avanti una ricerca esplorativa su sistemi di IA avanzati in una gamma di aree di rischio, il tutto con l’obiettivo finale di promuovere lo sviluppo e l’uso sicuri, protetti e affidabili dell’IA.