Ieri sera si è tenuto il Google I/O 2023, occasione in cui l’azienda di Mountain View ha svelato varie novità sia hardware che software. Fra i protagonisti, oltre a Google Pixel 7a, a Google Pixel Fold e a Google Pixel Tablet, c’è stata l’intelligenza artificiale. Sarebbe più appropriato scrivere le intelligenze artificiali, considerando i tanti approcci di Big G in materia, un settore che sta diventando sempre più un mondo presente un po’ dappertutto e che, sottolinea Google, esige un approccio responsabile già da parte delle aziende stesse.

In occasione di questo evento, il colosso ha infatti condiviso una serie di informazioni a tal proposito che spiegano in che modo Google ha applicato e sta applicando l’IA, con l’obiettivo di affrontare l’innovazione in maniera consapevole, cioè seguendo determinati principi autoimposti, peraltro condivisi pubblicamente in una pagina web dedicata all’intelligenza artificiale.

Novità e necessità di un’intelligenza artificiale responsabile, secondo Google

Nonostante l’IA sia presente da tempo perfino nei servizi di Google e non solo che usiamo tutti i giorni, è soprattutto l’approccio particolarmente intuitivo di ChatGPT che ci ha portato in questi ultimi mesi a parlare sempre più spesso di intelligenza artificiale, delle capacità e dei rischi che le tecnologie parte di questo ampio settore potrebbero riservarci in un futuro prossimo.

Il timore della sostituzione di molte attività che ad oggi compiamo è forse quello più rilevante, difficilmente quantificabile per ora ma ben giustificato considerando le potenzialità dei diversi sistemi già disponibili. L’altro grande problema riguarda la questione dell’attendibilità delle informazioni su cui sono addestrati e che forniscono i chatbot derivati, le versioni del modello di linguaggio GPT che stanno alla base di ChatGPT di OpenAI, ma anche di PaLM per Google Bard, ora in versione 2.

Google Bard, PaLM 2 e le altre novità IA

In occasione del Google I/O 2023 di ieri, l’azienda di Mountain View ha colto l’occasione per mostrare al mondo i suoi strumenti di intelligenza artificiale e le altre applicazioni concrete che saranno disponibili a breve. Ha presentato ad esempio una funzione che aiuta a scrivere le e-mail con Gmail, la visione immersiva dei percorsi di Google Maps, un’opzione che permette di creare immagini originali a partire da un testo in Google Presentazioni, la funzionalità Duet AI che capisce il contesto dei dati di una cella in Google Fogli o genera sfondi unici per Google Meet e altro ancora.

Ma la novità più importante è evidente sia Google Bard, arricchita con tante novità che la rendono capace di rispondere “visivamente”, di eseguire app sia di Google che di terzi (un po’ come sta facendo anche ChatGPT con i plugin) e soprattutto ha un nuovo modello di linguaggio su cui basarsi, più intelligente, versatile e multilingua (prossimamente anche in italiano): PaLM 2.

L’intelligenza artificiale responsabile di Google

A parte le novità, di cui trovate vari dettagli nei link aggiunti sopra, torniamo al tema dell’intelligenza artificiale responsabile. Alcuni nodi al riguardo li ha sciolti l’azienda di Mountain View stessa in occasione dell’evento di ieri, pubblicando alcune informazioni in cui descrive in che modo l’azienda si approccia all’IA.

Dal 2018 Google ha stabilito dei principi guida per un approccio responsabile nei confronti dell’intelligenza artificiale, analizzati fra l’altro con dei report annuali relativi che integra vari approfondimenti ed esempi pratici sull’impatto sui vari ambiti in cui l’azienda utilizza l’IA (questo è l’ultimo pubblicato, che riguarda il 2022).

Uno dei problemi più grandi, come anticipato, è l’attendibilità delle informazioni, da cui deriva il rischio della disinformazione che affligge le IA generative come ChatGPT e simili, per ora addestrate su una mole di dati generici e non ancora capaci di distinguere ciò che è vero da ciò che è falso. Fornire assieme al contenuto generato delle fonti, del contesto chiaro e accessibile è per questo fondamentale.

E su questa linea si pone un nuovo strumento che l’azienda integrerà prossimamente nella Ricerca Google, su Chrome e su Google Lens, About this image. Si tratta di uno strumento per le immagini, che fornisce informazioni su quando e dove contenuti simili sono apparsi, ad esempio sui siti di notizie, sui social network o altrove.

Qualcosa di simile c’è anche per quanto riguarda il codice. Google Bard dalla prossima settimana integrerà le citazioni delle fonti quando proporrà un blocco di codice o citerà contenuti terzi, informazioni che saranno accessibili con un clic sulle parti relative evidenziate dal sistema stesso.

Questo riguarda però gli sviluppatori, gli informatici o chiunque chieda aiuto al sistema nella gestione di codice. Resta tuttavia il dubbio sul fatto di come e se una soluzione come Google Bard, che una volta arricchito e provato per bene potrebbe di fatto sostituire il sistema di ricerca di Google, fornisca le fonti di quello che scrive, di qualsiasi sua risposta che dà all’utente. Questo è un po’ il nodo cruciale della questione, perché per evitare la diffusione di notizie false e di informazioni errate è fondamentale dare agli utenti gli strumenti per distinguere un’informazione dall’altra.

Ma chiusa questa parentesi, su cui Google non si è ancora espressa pubblicamente, qualcosa nel campo della responsabilizzazione dei contenuti generati arriverà dal watermarking e dai metadati. Il primo approccio fa sì che nel contenuto (immagini) vengano incorporate determinate informazioni sotto forma di watermark, che rimangono anche in seguito a un processo di editing. E in maniera simile i metadati consentono ai creatori di contenuti di associare un contesto aggiuntivo ai file, fornendo dunque anche in questo caso delle informazioni sull’immagine stessa.

Le prime regole sull’intelligenza artificiale arrivano dall’Europa

Le potenzialità, come i potenziali rischi delle soluzioni di intelligenza artificiale sono molte. Google, OpenAI, le tante altre aziende del settore, ma soprattutto le istituzioni governative sono chiamate a decidere e ad applicare (o a far applicare) dei principi chiari per gestire l’innovazione tecnologica.

Proprio la nostra Europa nella giornata di oggi ha condiviso una prima bozza sulla regolamentazione dell’intelligenza artificiale in senso lato, un passo che mira a garantire uno sviluppo etico e umano-centrico attraverso regole sulla trasparenza e soprattutto sulla gestione dei rischi dei sistemi di IA. È quest’ultimo il fulcro della normativa europea in fase di studio, un approccio che prevede obblighi e divieti da definire via via a seconda dei livelli di rischio che le intelligenze artificiali possono generare in diversi settori.

Fra i divieti indicati nella bozza ci sono ad esempio i sistemi di identificazione biometrica in tempo reale posti negli spazi accessibili al pubblico, i software di riconoscimento delle emozioni utilizzabili dalle forze dell’ordine o altrove, i sistemi di profilazione e altre soluzioni che rientrano nel campo delle intelligenze artificiali, nel significato più ampio e comprensivo di una disciplina particolarmente ampia e ostica da inquadrare.

Ed è anche questo suo essere che riflette la difficoltà di regolamentare un ambito dell’informatica che sarà sempre più centrale nella nostra vita quotidiana. L’Unione Europea, per prima, ci sta provando con una bozza di legge che sarà votata dal Parlamento fra il 12 e il 15 giugno sotto forma di progetto, da aggiustare poi meglio assieme al Consiglio europeo.

Potrebbero interessarti anche: ChatGPT e il futuro dell’intelligenza artificiale, nel lavoro e nella quotidianità e c’è un’intelligenza artificiale che legge il pensiero e lo trasforma in testo

I nostri contenuti da non perdere: