L’intelligenza artificiale generativa nel settore dei contenuti digitali: un rischio o un’opportunità?

L’intelligenza artificiale (IA) ha acquisito ormai da diversi anni un ruolo rilevante all’interno del settore dell’intrattenimento. Tra le applicazioni più consolidate nel settore, principalmente vi è la personalizzazione della customer experience: grazie ad algoritmi di intelligenza artificiale infatti è possibile personalizzare, in base alle preferenze di fruizione dell’utente, playlist, librerie e cataloghi oltre che offrire suggerimenti di contenuti in base al comportamento del consumatore o addirittura a fattori ambientali/emotivi. Grazie a questa tecnologia, le piattaforme sono in grado, dunque, di conoscere sempre meglio i propri utenti e di offrire un servizio che possa essere sempre più costruito su misura per loro.

Seppure l’intelligenza artificiale sia da anni adottata all’interno del settore, recentemente è tornata al centro del dibattito per l’aspetto di generazione di nuovi contenuti, con la cosiddetta Generative AI. L’intelligenza artificiale generativa descrive gli algoritmi che possono essere utilizzati per creare nuovi contenuti, tra cui audio, codice, immagini, testo, simulazioni e video e ha il potenziale di rivoluzionare l’approccio alla creazione di contenuti. Queste applicazioni presentano diverse opportunità che possono essere utilizzate a proprio vantaggio soprattutto dagli editori: l’utilizzo di queste tecnologie permette, infatti, di ridurre drasticamente le risorse necessarie alla produzione di contenuti e di semplificarne notevolmente il processo. Gli audiolibri, ad esempio, hanno un processo di produzione oneroso sia in termini di tempo che di costi: per un editore quindi l’IA generativa garantisce una soluzione sicuramente più efficiente rispetto a quella tradizionale. Ne è un esempio il recente progetto di Apple, per cui è stata realizzata, tramite IA generativa, un’intera sezione di Apple Books, dedicata proprio ad audiolibri narrati da una voce sintetica.

Non mancano gli esempi di casi d’uso dell’IA generativa anche in altri settori. Guardando all’editoria, è stato pubblicato “Non siamo mai stati sulla Terra”, opera realizzata dalla collaborazione di un autore umano e di un’IA online. Un altro esempio è “Cyberpunk: Peach John”, nel mondo dei manga, che unisce la storia realizzata da un autore umano ad illustrazioni artificiali . Anche nel settore dell’informazione emergono le prime sperimentazioni. La redazione de “Il Foglio” ha annunciato a marzo 2023 che pubblicherà articoli prodotti dall’IA per 30 giorni, offrendo dei premi in palio per chi riuscirà a distinguerli dai pezzi realizzati da autori umani.

Esistono, inoltre, delle possibili applicazioni in grado di generare tracce musicali o video a partire da un testo descrittivo su cui stanno lavorando attori del calibro di Google, Meta e OpenAI, con la soluzione MuseNet.

Se da un lato sono chiare le opportunità che questa tecnologia offre, dall’altro è essenziale non trascurare i rischi e le criticità che si porta dietro. Proprio per evidenziare i pericoli e la complessità del tema, a fine marzo 2023, è stata diffusa una lettera aperta che trova tra i suoi firmatari anche Elon Musk. Il testo rappresenta un invito a tutti i laboratori di IA a prendersi una pausa di 6 almeno mesi dal lavoro a nuove soluzioni più potenti di GPT-4, per dare modo di approfondire i potenziali effetti di queste tecnologie sulla società.

I rischi che derivano dall’utilizzo di questa tecnologia possono essere di varia natura. In Italia, ad esempio, il Garante della Privacy ha deciso di emanare un blocco verso l’utilizzo di ChatGPT di OpenAI sul territorio nazionale a causa di preoccupazioni relative all’utilizzo di dati personali degli utenti per addestrare l’algoritmo. Inoltre, con lo sviluppo dell’IA i risultati generati diventano sempre più verosimili e realistici al punto tale che sarà sempre più difficile riconoscere ciò che è vero da ciò che è stato prodotto artificialmente, con evidenti rischi di disinformazione. Attraverso i cosiddetti deep fake è, infatti, possibile realizzare immagini e video di personaggi famosi, ritraendoli in qualsiasi scena. Tra gli esempi più recenti di queste applicazioni si annoverano immagini false dell’arresto di Donald Trump e del presidente francese Macron impegnato nelle proteste francesi per la riforma delle pensioni. È evidente, dunque, che l’utilizzo di queste tecnologie si porta dietro una serie di rischi legati ad applicazioni illecite e potenzialmente dannose per la società.

L’applicazione di queste tecnologie solleva degli importanti quesiti anche da un punto di vista etico. Un caso esemplare è il documentario di Netflix sull’artista Andy Warhol in cui l’IA è stata utilizzata per ricreare la voce dell’artista defunto. Nonostante la produzione abbia adottato un approccio trasparente, evidenziando in ogni puntata l’utilizzo dell’IA per dare voce all’artista, restano le domande su quanto sia lecito utilizzare, seppur in buona fede, le voci sintetiche applicate a personaggi defunti, che non possono quindi dare il loro consenso.

Un altro aspetto delicato legato ai contenuti sintetici riguarda la tutela del diritto d’autore. Al momento, l’IA viene addestrata ricevendo in input grandi volumi di dati che vengono poi rielaborati per produrre il nuovo contenuto. Tuttavia, non è chiaro quali contenuti vengano effettivamente forniti all’algoritmo e questo tipo di utilizzo, se non adeguatamente normato, potrebbe violare il diritto d’autore non riconoscendo una equa compensazione al titolare del diritto. Oltre a questo, una volta generato e creato il contenuto sintetico, risulta difficile stabilire a chi appartenga il relativo diritto d’autore e, di conseguenza, capire come possa essere utilizzato e monetizzato.

Ad oggi non è inoltre nota la modalità con cui gli algoritmi di intelligenza artificiale vengano alimentati. Il training di questi algoritmi consiste infatti nell’immissione di un volume ingente di dati, che però potrebbe includere anche dati di non specificata qualità, potenzialmente non veritieri, violenti o illeciti, piuttosto che contenuti protetti da diritto d’autore che però non sono riconosciuti come tali.

In conclusione, se da un lato i potenziali vantaggi in termini di efficienza di produzione appaiono chiari, è fondamentale non rimanere miopi di fronte alle criticità che questa tecnologia comporta. L’IA agisce come una sorta di black box di cui neanche gli stessi sviluppatori sono in grado di prevedere le decisioni. Sicuramente il momento di grande attenzione che questa tecnologia sta vivendo ci mette di fronte a una serie di questioni: risulta sempre più necessaria una regolamentazione e chiare e condivise normative per garantire il corretto utilizzo di queste tecnologie che possano quindi fungere da volano per fare una innovazione lecita e sostenibile.

A cura di

Cristina Marengon

Cristina Marengon

Digital Content, Startup Thinking e Startup Hi-tech

Ricercatrice degli Osservatori Digital Content, Startup Thinking e Startup Hi-tech

Irene Rinaldi

Irene Rinaldi

Digital Content

Ricercatrice dell'Osservatorio Digital Content

Siamo a tua disposizione per informazioni e assistenza

Martina Vertemati

Martina Vertemati

Acquisti e abbonamenti Da Lunedì al Venerdì, dalle 09 alle 18
Alessia Barone

Alessia Barone

Assistenza Da Lunedì al Venerdì, dalle 09 alle 18
L’intelligenza artificiale generativa nel settore dei contenuti digitali: un rischio o un’opportunità?

Le migliori Aziende italiane si aggiornano su Osservatori.net