Un articolo del Wall Street Journal sostiene che da un anno a questa parte OpenAI avrebbe già pronto un sistema per applicare una filigrana sul testo creato da ChatGPT e un secondo strumento per rilevarla. Tuttavia, l’azienda sarebbe molto perplessa se rilasciare questi tool: se infatti da una parte sembra essere la cosa più responsabile da fare, dall’altro lato potrebbe evidentemente danneggiare i suoi profitti.

Il watermarking di OpenAI viene descritto dal quotidiano statunitense come un aggiustamento del modo in cui il modello predice le parole e le frasi più probabili che seguiranno quelle precedenti, creando così un pattern rilevabile. Offrire un modo per rilevare il materiale scritto dall’intelligenza artificiale è un potenziale vantaggio per molti: si pensi, per esempio, agli insegnanti che cercano di dissuadere gli studenti dal consegnare i compiti di scrittura all’intelligenza artificiale. Dunque, l’utilità per un utilizzo più consapevole dell’intelligenza artificiale generativa sembrerebbe effettivamente essere riscontrabile, anche alla luce del fatto che il watermarking non influisce sulla qualità del testo prodotto dal suo chatbot.

Dopo la pubblicazione della notizia da parte del Journal, OpenAI ha confermato di aver lavorato al watermarking del testo in un aggiornamento del blog, pubblicato poco fa, in cui l’azienda afferma che il suo metodo è molto accurato (“efficace al 99,9%“, rivela ancora il Wall Street Journal) e resistente a “manomissioni, come la parafrasi“. Tuttavia, afferma anche che tecniche come la riformulazione con un altro modello lo rendono “banalmente aggirabile da parte di malintenzionati“. L’azienda si dice inoltre preoccupata per l’utilità degli strumenti di IA stigmatizzati per i non madrelingua.

Sembra però che OpenAI sia anche preoccupata che l’uso del watermarking possa allontanare gli utenti di ChatGPT: quasi il 30% degli utenti intervistati in un proprio studio avrebbe infatti indicato che avrebbe usato meno il software se fosse stato implementato il watermarking…