L’utilizzo dell'intelligenza artificiale (IA) nello svolgimento di attività generative, come la creazione di testi e immagini, solleva questioni complesse in ambito di proprietà intellettuale (PI). Per comprendere pienamente le implicazioni legali di tali tecnologie, è necessario esaminare i meccanismi tecnici alla base del loro funzionamento e identificare le fasi in cui possono emergere rischi legati alla violazione dei diritti d'autore. Questo articolo esplorerà i principali modelli utilizzati dall'IA generativa, evidenziando le potenziali criticità connesse alla proprietà intellettuale, nonché le strategie adottate per mitigare tali rischi.
Di seguito un estratto dal libro Regolamento Europeo sull'Intelligenza Artificiale - cartaceo
Al fine di poter comprendere la rilevanza dell’AI Act nel settore della proprietà intellettuale, occorre individuare come – da un punto di vista tecnico – operino i sistemi di IA e in quali fasi del loro funzionamento venga in rilievo la PI.
L'articolo continua dopo la pubblicità
Al fine di poter analizzare il rapporto tra attività generativa realizzata con l’IA e PI – e, conseguentemente, al fine di poter comprendere eventuali profili di criticità – è necessario comprendere in che modo l’intelligenza artificiale generi, ad esempio, testi e immagini.
Innanzitutto, occorre premettere che i sistemi di IA cd. generativa utilizzano diversi modelli a seconda dell’output richiesto dall’utente. Tanto premesso, ci si può chiedere se si tratti di sistemi realmente “intelligenti” e/o davvero “creativi”.
Una delle attività generative possibili si riferisce alla generazione di testi. Quando chiediamo a un sistema di IA di generare un testo, come una poesia, un saggio, un articolo divulgativo o un riassunto, il risultato (cd. output) che ci viene fornito appare, a primo impatto, alla stessa stregua di un testo creato da un essere umano, presentando una struttura e delle parole che riflettono il nostro normale linguaggio. Tuttavia, occorre sottolineare come tale risultato non si basi affatto su un vero “ragionamento”, bensì sul funzionamento di un algoritmo che – sulla base dei dati acquisiti in fase di training – cerca di riprodurre, in maniera probabilistica e “mimetica”, una risposta che “suoni umana”.
Estratto dal libro Regolamento Europeo sull'Intelligenza Artificiale - cartaceo
In particolare, per quanto riguarda specificamente la generazione di testi, uno dei modelli utilizzati dall’IA prende il nome di feed forward[1]. Sostanzialmente, tramite tale tecnica, il sistema di IA seleziona le parole da inserire con riferimento al tema richiesto, sulla base di calcoli probabilistici. Più nello specifico, esso sceglie le parole che, in termini probabilistici/statistici, sarebbero state scelte con maggiore probabilità nel caso in cui il testo fosse stato scritto da un umano, prelevandole da una quantità significativa di testi precedentemente utilizzati per l’addestramento del sistema.
Il meccanismo di creazione – rectius, di composizione – prevede infatti la generazione di stringhe di testo in cui l’algoritmo cerca di indovinare quale sia la parola più appropriata da aggiungere alle precedenti, in modo da dare una risposta che appaia quanto più credibile possibile e nello stile di un essere umano.
In sintesi: l’umano rivolge una richiesta all’IA inserendo un testo, l’IA riceve tale testo e – sulla base dei dati a propria disposizione – determina quali parole (rectius, “tokens”, che sono parti di parole) statisticamente sono più strettamente collegate a tale frase, per poi utilizzarle nel generare un output, aggiungendo dopo ogni parola quella statisticamente più probabile.
Pertanto, l’output che viene generato dal sistema non rappresenta affatto una risposta intelligente, ma una mera imitazione di una probabile risposta di un essere umano.
Questo fenomeno nel mondo del machine learning è metaforicamente chiamato “stochastic parrot”[2], per descrivere il fatto che i large language models, seppure capaci di generare testi “plausibili”, non comprendono il significato delle frasi che creano (proprio come un pappagallo che pronuncia parole assemblate a caso). Del resto, è proprio l’assenza di un vero ragionamento da parte dell’IA che spiega le cosiddette “allucinazioni”: risposte che sono sintatticamente perfette e “plausibili”, ma che non sono vere poiché inventate di sana pianta dall’IA.
Bisogna inoltre rilevare che la differenza di qualità tra i diversi output generati da sistemi di IA non discende solo dalla qualità dell’algoritmo, ma, soprattutto, dalla quantità e qualità dei dati inseriti per l’allenamento dello stesso.
Estratto dal libro Regolamento Europeo sull'Intelligenza Artificiale - cartaceo
Da quanto sopra, risulta evidente come il rischio di violazione di opere preesistenti possa considerarsi una componente intrinseca e sistemica – rispetto all’utilizzo dei sistemi di IA, soprattutto per quanto concerne la generazione di testi.
Infatti, dietro a qualsiasi contenuto composto dall’IA, risiedono sempre contenuti precedenti generati dall’uomo, e quindi potenzialmente coperti dal diritto d’autore, che sono stati utilizzati per addestrare l’algoritmo e per creare i token (ossia le piccole unità di testo) che l’IA utilizza per comporre le sue risposte.
I responsabili dei sistemi di IA, ben consapevoli dei rischi sottesi alla generazione di testo, adottano essi stessi alcuni accorgimenti al fine di diminuire la possibilità di plagio di testi già esistenti.
In primo luogo, l’algoritmo stesso non sceglie sempre come parola successiva quella più probabile, optando talvolta per la seconda o la terza più probabile, attenuando però, così facendo, la precisione e la coerenza della risposta generata.
In secondo luogo, alcune delle piattaforme di generazione di testo disponibili sul mercato “filtrano” loro stesse i propri output tramite un software anti-plagio, in grado di verificare il livello di vicinanza del testo composto dall’IA rispetto ai testi preesistenti.
Estratto dal libro Regolamento Europeo sull'Intelligenza Artificiale - cartaceo
Passando ora all’analisi dei sistemi di IA che generano immagini, questi si basano su diversi modelli e tecnologie, tra cui si intende menzionare, in primo luogo, quella basata su reti Generative Adversarial Network (GAN). Tale tecnologia è stata introdotta per la prima volta nel 2014 da Ian Goodfellow, all’epoca ricercatore presso l’Università di Montreal.
Sostanzialmente, le GAN sono costituite da due moduli, un generator e un discriminator:
Pertanto, anche in questo caso, più che di creazione dovrebbe parlarsi più propriamente di composizione (o ri-composizione) e selezione sulla base di processi di associazione statistici.
Le GAN hanno rappresentato per anni i modelli di IA di riferimento per la generazione di immagini. Tuttavia, ultimamente, stanno proliferando ulteriori modelli generativi, che utilizzano altri sistemi per le creazioni di immagini “sintetiche”, come, ad esempio, i cd. modelli di diffusione (Diffusion Models), in grado di creare nuove immagini apportando modifiche casuali rispetto ad un campione di dati iniziale. Semplificando, in una prima fase, chiamata “diffusione in avanti” (forward process o diffusion process), i modelli aggiungono “rumore” (“noise”, ossia leggere modifiche) ai dati esistenti presenti nel sistema, rendendoli progressivamente sempre meno simili agli originali.
In un secondo momento, dopo aver aggiunto “rumore” in diverse iterazioni, il modello di diffusione inverte il processo, attraverso la “diffusione all’indietro” (backward process o reverse diffusion process), per produrre un nuovo campione di dati.
Anche per quanto riguarda le immagini, pertanto, il rischio di plagio è elevato, dal momento che anche i sistemi sopra illustrati non sono in grado di creare da zero un’immagine, partendo in ogni caso da immagini preesistenti.
Ciononostante, verificare un’eventuale somiglianza tra le immagini create dall’IA e quelle preesistenti utilizzate come punto di partenza dai modelli sopra descritti è molto più complesso rispetto a quanto avviene per i testi (3 ), ma esistono comunque vari tool che permettono questo tipo di ricerche (Google Image, TinEye, ImageRaider, Pixsy, Bytescare).
Tanto premesso, per quanto riguarda la generazione di testo e immagini, come si osserverà nei paragrafi successivi, si rileva fin da ora come il tema della trasparenza rappresenti un punto centrale in merito alla regolazione dell’IA, con evidenti conseguenze anche relativamente alla possibilità di provare eventuali violazioni dei diritti su opere, invenzioni o segreti commerciali protetti.
Estratto dal libro Regolamento Europeo sull'Intelligenza Artificiale - cartaceo
[1] S. Wolfram, What Is ChatGPT Doing ... and Why Does It Work?, in writings.stephenwolfram.com.
[2] E.M. Bender, T. Gebru, A. McMillan-Major and S. Shmitchell, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, New York, marzo 2021, pp. 610-623, in dl.acm.org.