Un interessante documento spiega come è progettato Apple Intelligence e quali misure adotta il colosso di Cupertino per garantire la sicurezza dei relativi modelli.

Tale documento fornisce anche dei dettagli sulla complessità delle capacità dell’intelligenza artificiale on-device, mettendo in evidenza che le relative funzionalità basate su un modello con 3 miliardi di parametri vengono elaborate esclusivamente su iPhone, iPad e Mac.

Alcuni interessanti dettagli su Apple Intelligence

Il documento in questione è stato realizzato per presentare i modelli linguistici di base sviluppati per potenziare le funzionalità di Apple Intelligence, tra cui un modello con circa 3 miliardi di parametri progettato per essere eseguito in modo efficiente direttamente sui dispositivi e un ampio modello linguistico basato su server progettato per Private Cloud Compute.

Una delle sfide principali da affrontare con l’intelligenza artificiale generativa è riuscire a gestire i materiali “problematici” che il modello IA potrebbe trovare sul Web e rielaborare e a tal proposito nel documento viene messo in evidenza che gli sviluppatori si impegnano per evitare che eventuali stereotipi e pregiudizi possano essere inclusi in ogni fase del processo, in modo che non possano finire per creare danni.

Inoltre, tra i contenuti esclusi vi sono il materiale volgare, quello non sicuro e le informazioni personali identificabili.

L’impegno degli sviluppatori per migliorare i modelli di Apple Intelligence comprende anche l’utilizzo di apposite frasi chiave che potrebbero generare risposte inaccettabili per poi applicare un processo di “decontaminazione” per escluderle.

Ed ancora, dopo la formazione dei contenuti IA, il colosso di Cupertino procede ad analizzarli per assicurarsi che siano allineati con i valori fondamentali dell’azienda (come la protezione della privacy degli utenti e i principi relativi all’intelligenza artificiale responsabile).

Non manca una fase di revisione umana, durante la quale viene effettuato il controllo del rispetto di alcuni criteri, come la precisione, l’utilità, la sicurezza e la presentazione.

Infine, i modelli di Apple Intelligence vengono messi alla prova del “Red teaming”, una serie di azioni (sia da parte del team di sviluppatori che da sistemi automatizzati) volte a testare le vulnerabilità note e a cercare di scoprirne di nuove.

Potete trovare il documento integrale qui.