L’istituto statunitense per la sicurezza dell’intelligenza artificiale ha annunciato accordi che consentono una collaborazione formale sulla ricerca, i test e la valutazione della sicurezza dell’intelligenza artificiale sia con Anthropic che con OpenAI, aziende che sviluppano rispettivamente i chatbot Claude e ChatGPT.

Il memorandum d’intesa prevede di fornire al’US AI Safety Institute l’accesso ai modelli sia prima che dopo la loro diffusione pubblica.

Gli accordi consentiranno la ricerca collaborativa su come valutare le capacità e i rischi per la sicurezza derivanti dall’utilizzo dell’intelligenza artificiale, nonché metodi per mitigare tali rischi.

Anthropic, OpenAI e il governo USA promuovono lo sviluppo e l’uso sicuri, protetti e affidabili dell’IA

L’agenzia statunitense prevede di fornire feedback a OpenAI e Anthropic su potenziali miglioramenti della sicurezza nei loro modelli, in stretta collaborazione con la sua controparte nel Regno Unito.

Le valutazioni ai sensi di questi accordi promuoveranno il lavoro del NIST (National Institute of Standards and Technology) sull’IA facilitando una profonda collaborazione e una ricerca esplorativa su sistemi di IA avanzati in una gamma di aree di rischio.

Le valutazioni condotte ai sensi di questi accordi contribuiranno a promuovere lo sviluppo e l’uso sicuri, protetti e affidabili dell’intelligenza artificiale, basandosi sull’ordine esecutivo sull’intelligenza artificiale dell’amministrazione Biden-Harris e sugli impegni volontari assunti nei confronti dell’amministrazione dai principali sviluppatori di modelli di intelligenza artificiale.