Regolamento Europeo sull'Intelligenza Artificiale-carta

Regolamento Europeo sull'Intelligenza Artificiale-carta

Commento al Reg. UE n. 1689/2024 - Giuseppe Cassano, Enzo Maria Tripodi - Maggioli Editore - 976 pagine

Leggi dettagli prodotto

In Promozione

94,00 € + 0% IVA

89,30 € + 0% IVA
(89,30 € IVA Compresa)
Data: 24/09/2024
Tipologia: Libro-di-Carta


Dettagli prodotto

Con la diffusione inarrestabile dell’Intelligenza Artificiale nella quotidianità, gli operatori del diritto sono chiamati a interrogarsi sulla capacità dell’attuale tessuto normativo – nazionale, europeo e internazionale – di reggere la forza d’urto dell’IA garantendo al tempo stesso la tutela dei diritti fondamentali a singoli e collettività o, piuttosto, sulla indispensabilità di un nuovo approccio normativo.
Il Legislatore europeo è intervenuto dettando la nuova normativa dell’AI ACT, il Regolamento n. 1689/2024, che si muove lungo più direttrici: raggiungere un mercato unico dell’IA, aumentare la fiducia dei consociati, prevenire e mitigarne i rischi e, infine, sostenere anche l’innovazione della medesima IA. In un contesto di così ampio respiro, e in continuo divenire, qual è il ruolo del giurista?
Il volume offre al lettore un primo strumento organico approfondito ed esaustivo per mettere a fuoco l’oggetto delle questioni e la soluzione alle stesse come poste dalla normativaeurounionale, dallo stato dell’arte tecnico e giuridico alle problematiche in campo: la proprietà intellettuale, le pratiche di IA proibite, il rapporto con il GDPR e la compliance per l’IA in base al rischio, i nuovi obblighi a carico di imprese, fornitori e utenti.

Giuseppe Cassano
Direttore del Dipartimento di Scienze Giuridiche della European School of Economics di Roma e Milano, ha insegnato Istituzioni di Diritto Privato presso l’Università Luiss di Roma. Avvocato cassazionista, studioso dei diritti della persona, del diritto di famiglia, della responsabilità civile e del diritto di Internet, ha pubblicato numerosissimi contributi in tema, fra volumi, trattati, voci enciclopediche, note e saggi.

Enzo Maria Tripodi
Giurista specializzato nella contrattua listica d’impresa, nella disciplina della distribuzione commerciale, nel diritto delle nuove tecnologie e della privacy e la tutela dei consumatori. Già docente presso la LUISS Business School e professore a contratto di Diritto Privato presso la facoltà di Economia della Luiss Guido Carli di Roma. Ha insegnato in numerosi Master post-laurea ed è autore di numerose pubblicazioni con le più importanti case editrici. 

Indice prodotto

Introduzione – La difesa dei diritti e il ruolo dell’avvocato nella applicazione dei sistemi di intelligenza artificiale, di Guido Alpa
1. Premessa
2. Le iniziative dei Paesi del G7 
3. Il ruolo degli avvocati 
4. I modelli normativi 
5. Le definizioni di IA 
6. L’organizzazione degli studi professionali
7. Difesa dei diritti e giustizia

Capitolo 1 – Profili comparati dell’IA: cenni generali sullo stato dell’arte tecnico e giuridico, di Roberta Raimondo 
1. L’Intelligenza Artificiale e la “società del rischio”
2. L’approccio europeo 
3. L’approccio italiano 
4. Conclusioni

Capitolo 2 – IA: diritti costituzionali e discriminazione, di Massimiliano Marotta
1. L’essenza dell’intelligenza artificiale e l’impatto col dettato costituzionale
2. I diritti fondamentali nell’UE quale misura naturale del fenomeno e il compito del legislatore
3. Spiegabilità e trasparenza: i principi informatori di un’applicazione costituzionale dell’IA
4. Intelligenza artificiale ed effetti sulla sovranità popolare
5. Il raccordo con il diritto al lavoro
6. Le influenze sul diritto alla salute
7. I rischi di una giustizia amministrata in nome dell’algoritmo
8. Tutela della riservatezza e trattamento dei dati personali
9. I diritti fondamentali nel nuovo Regolamento sull’intelligenza artificiale e l’irrinunciabile contributo umano 
10. La discriminazione quale effetto dell’emulazione umana
11. La risposta dell’AI Act alle esigenze di tutela

Capitolo 3 – IA e diritto amministrativo, di Antonino Mazza Laboccetta
1. IA come fenomeno non unitario 
1.1. ... e non privo di conseguenze 
2. La digitalizzazione della pubblica amministrazione
3. Sistemi di intelligenza artificiale nella pubblica amministrazione 
4. Le sfide per la pubblica amministrazione
5. L’impatto dell’algoritmo sull’organizzazione amministrativa, sul procedimento e sul sistema di imputabilità della decisione 
5.1. Provvedimenti vincolati e provvedimenti discrezionali
6. L’IA e il giudice amministrativo 
7. Conclusioni (necessariamente parziali) 

Capitolo 4 – IA e diritto dei contratti, di Matteo Tofanelli
1. Premessa
2. L’IA: uno strumento bifronte
3. La causa algoritmica del contratto: dalla funzione economico-individuale agli interessi algoritmicamente raccolti dalle parti. I nuovi istituti della blockchain e i ccdd. “smart contracts”
4. L’IA e la (non) responsabilità

Capitolo 5 – L’urgente necessità di un’etica (almeno soft) dell’IA: cenni sulle problematiche in campo, di Alfonso Contaldo
1. L’etica e le prospettive tecnologiche: brevi cenni 
2. Brevi cenni sull’esperienza etica dell’IA 
2.1. La Carta europea della roboetica (2017) del Parlamento europeo
2.2. Lo Statement on Artificial Intelligence, Robotics and Autonomous Systems (2018) del Gruppo europeo di Etica (EGE)
2.3. Il Report “AI in the UK” (2018) della Camera dei Lord del Regno Unito 
3. Brevi conclusioni

Capitolo 6 – Lo sviluppo delle competenze sull’IA, di Fabrizio Paonessa 
1. Introduzione allo sviluppo delle competenze sull’IA 
1.1. L’importanza della formazione continua nell’era dell’AI Act europeo
1.2. Panoramica delle competenze fondamentali richieste nel settore dell’IA
1.3. L’impatto delle normative europee sullo sviluppo delle competenze
2. Metodi di formazione in IA
2.1. Educazione formale: università e corsi specializzati
2.2. Formazione pratica: stage, lavoro sul campo e progetti reali
2.3. Formazione continua e aggiornamento professionale attraverso workshop e seminari
3. Impatto dell’IA sul mercato del lavoro
3.1. Cambiamenti nei profili professionali e nelle competenze richieste
3.2. Nuove opportunità di lavoro e la necessità di riconversione professionale
4. Politiche per il sostegno allo sviluppo delle competenze
4.1. Iniziative governative e internazionali per la promozione delle competenze in IA
4.2. Collaborazioni strategiche tra il settore accademico e quello industriale
5. Futuro delle competenze in IA e preparazione
5.1. Tendenze future e nuove tecnologie all’orizzonte nel campo dell’IA
5.2. Strategie per prepararsi a un futuro professionale guidato dall’IA
6. Conclusioni e sintesi delle riflessioni sullo sviluppo delle competenze in IA e sull’importanza di una formazione continua

Capitolo 7 – Sistemi di IA e proprietà intellettuale, di Massimo Sterpi e Francesca Di Lazzaro
Introduzione
1. L’IA nello svolgimento di attività generative: temi di proprietà intellettuale 
1.1. L’attività generativa realizzata con l’IA
1.2. Il Text and Data Mining 
2. L’AI Act e le previsioni in materia di proprietà intellettuale
2.1. Cenni introduttivi
2.2. Rinvio espresso alle norme in tema di diritto di autore
2.3. Gli obblighi di trasparenza e la proprietà intellettuale
3. Impatto delle previsioni dell’AI Act con riferimento alla proprietà intellettuale
3.1. Il diritto d’autore 
3.2. Le privative industriali – brevetti
3.3. Le privative industriali – marchi
4. EU AI Act: direzione Brussels Effect?
5. Conclusioni

Capitolo 8 – Il trasferimento scientifico e tecnologico, di Fabrizio Paonessa
1. Introduzione al trasferimento scientifico e tecnologico 
1.1. Il ruolo dell’AI Act nel facilitare il trasferimento tecnologico.
1.2. Principali meccanismi e modelli di trasferimento tecnologico nell’IA
1.3. L’importanza delle politiche pubbliche nel supportare il trasferimento tecnologico 
1.4. L’impatto economico globale dell’IA 
2. Vantaggi del trasferimento tecnologico per l’industria e la ricerca
3. Sfide nella realizzazione del trasferimento tecnologico efficace
4. Strategie per migliorare il trasferimento tecnologico
4.1. Collaborazioni tra università e industria per l’innovazione
4.2. Iniziative internazionali per rafforzare il trasferimento tecnologico
5. Conclusioni
5.1. Prospettive future e raccomandazioni per politiche efficaci

Capitolo 9 – Sistemi di IA e sicurezza dei prodotti, di Giovanna Capilli
1. La sicurezza dei prodotti nell’era dell’intelligenza artificiale
2. Il quadro normativo: complementarità tra regolamento sulla sicurezza dei prodotti e regolamento sull’intelligenza artificiale
3. Sicurezza e rischio
4. La gestione del rischio e riflessi sulla responsabilità in caso di deficit di sicurezza 
5. Le caratteristiche dei sistemi di intelligenza artificiale e l’impatto sulla sicurezza
6. Rischio cyber, sicurezza dei prodotti e certificazioni
7. Garantire la sicurezza dei prodotti nell’era dell’intelligenza artificiale.Conclusioni 

Capitolo 10 – I rapporti tra AI Act e gli altri regolamenti in materia di dati, di Saverio Cavalcanti e Gilberto Nava 
1. Introduzione 
2. La “relazione di complementarità” tra Normativa Privacy e AI Act 
2.1. Segue: influenze interpretative tra Normativa Privacy e AI Act
2.1.1. Dati biometrici
2.1.2. La definizione di “rischio”
2.1.3. Le tecniche di documentazione
3. Il diritto di accesso degli interessati tra GDPR e AI Act
3.1. Diritto di accesso: inquadramento
3.2. Segue: il diritto di accesso (e alla portabilità dei dati) nell’AI Act
4. Profili soggettivi di criticità derivanti dall’applicazione del GDPR ai sistemi di IA

Capitolo 11 – AI Act e GDPR, di Enzo Maria Tripodi
1. Introduzione. Il contesto
2. Questioni generali 
3. Assonanze e dissonanze
3.1. L’analisi del rischio 
3.2. Segue: DPIA e FRIA
3.3. Il principio di trasparenza
3.4. Correttezza e accuratezza dei dati
4. Poche conclusioni

Capitolo 12 – Le decisioni automatizzate e il rischio di black box society, di Bartolo Dattola
1. Metodo scientifico e black box 
2. Scatole nere, scatole bianche 
3. Trasparenza, trasparenze 

Capitolo 13 – Intelligenza artificiale e cybersicurezza, di Francesco Amendola e Paolo Sferlazza
1. Introduzione 
2. Vantaggi e opportunità 
2.1. Importanza dell’IA nella cybersicurezza 
2.2. L’efficacia dell’IA nel rilevare le minacce cyber
2.2.1. Apprendimento automatico e deep learning
2.2.2. Efficacia dell’IA contro malware zero-day e APT
2.2.3. Accelerazione del tempo di risposta agli incidenti
2.3. Automazione dei processi di sicurezza 
2.3.1. Vantaggi dell’automazione
2.3.2. Integrazione e sviluppo continuo
2.4. Personalizzazione della sicurezza basata sull’analisi comportamentale
2.5. Casi di studio ed esempi pratici
2.5.1. Rilevazione di malware avanzati grazie all’IA 
2.5.2. Prevenzione delle frodi mediante algoritmi di apprendimento automatico
2.5.3. Sistemi di sicurezza autonomi basati su IA
2.5.4. IA nella sicurezza del Cloud e nella protezione dei dati 
2.6. Impatto della Direttiva NIS 2 e del Regolamento DORA sulla gestione degli incidenti cyber
2.6.1. NIS 2
2.6.2. Regolamento DORA
2.6.3. Il Ruolo dell’IA nel conformarsi a NIS 2 e a DORA
3. Sfide e criticità
3.1. Impatto della Direttiva NIS 2 e del Regolamento DORA sulla gestione degli incidenti cyber
3.2. Affidabilità e rischi di automazione eccessiva
3.2.1. Falsi positivi e decisioni errate
3.2.2. Incapacità di interpretare contesti complessi
3.2.3. Rischi di interruzione delle operazioni aziendali
3.3. Vulnerabilità degli stessi strumenti di IA ad attacchi cyber
3.4. Deepfake
3.5. Scalabilità e gestione dei costi
4. Dati e bias 
5. Standard internazionali
5.1. ISO/IEC 27001 e ISO/IEC 42001 
5.2. Ulteriori norme ISO 
5.3. AI Act
6. Conclusioni

Capitolo 14 – IA e digital-robowars, di Stefano Aterno e Paola Patriarca
1. La militarizzazione del cyberspazio 
2. L’intelligenza artificiale è entrata in guerra 
3. L’esclusione dall’AI Act
4. Conclusioni

Capitolo 15 – IA e Impresa, di Antonio Maria Russo 
1. Introduzione 
2. Una nuova rivoluzione industriale
3. IA nella gestione di impresa
4. Riflessioni conclusive

Capitolo 16 – La genesi del Regolamento, di Livia Marafioti
1. Lo scenario nel quale si inserisce la Proposta della Commissione europea 
2. La proposta della Commissione europea
3. Lo stato dell’arte attuale e uno sguardo oltreoceano 

Capitolo 17 – Obiettivi del Regolamento, di Giuseppe Maria Marsico 
1. Premessa
2. Sulla diffusione di un’intelligenza artificiale (IA) antropocentrica e affidabile: il difficile equilibrio tra livello elevato di protezione della salute, della sicurezza e dei diritti fondamentali
3. Obiettivi dell’AI Act: tra gestione del rischio e innovazione
4. AI Act: tra General Purpose AI Model, Codici di condotta volontari e previsione di meccanismi sanzionatori proporzionali e armonizzati 
5. Brevi conclusioni: tra previsioni in punto di governance nell’AI Act e bilanciamento di interessi 

Capitolo 18 – Caratteri essenziali e ambito di applicazione del Regolamento, di Livia Marafioti
1. Struttura ed elementi principali
2. Ambito di applicazione
3. Esclusioni 

Capitolo 19 – L’approccio basato sul rischio, di Giuseppe Maria Marsico 
1. Introduzione: una prospettiva regolatoria comparata tra soft e hard law 
2. Profili sistematici e ricostruttivi in tema di approccio basato sul rischio
3. AI Act: tra gestione del rischio, bilanciamento di interessi e innovazione
4. Brevi riflessioni conclusive: tra allocazione del rischio, profili dogmatici e responsabilità 

Capitolo 20 – I sistemi di IA, di Filippo Loré
1. Premessa: un’analisi di contesto 
2. Artificial Intelligence: principali profili applicativi
3. Il risk based approach e la lacunosa allocazione dell’accuracy
4. Considerazioni conclusive 
Capitolo 21 – I livelli di rischio dell’IA, di Silvia Cal 
1. Il contemperamento tra sviluppo di IA e rischi per l’uomo 
2. La classificazione dei livelli di rischio: il rischio inaccettabile
3. Il rischio alto 
3.1. Il rischio alto nell’identificazione biometrica e nel trattamento dei dati personali
3.2. Il rischio alto nelle infrastrutture critiche
4. Il rischio minimo e il rischio limitato

Capitolo 22 – Le applicazioni e le pratiche proibite di IA, di Chiara
Pappalardo
1. Introduzione 
2. I sistemi di IA manipolatori
2.1. Le caratteriste della pratica vietata 
2.2. Un esempio di sistema di IA manipolatorio? 
2.3. Rapporto con la disciplina delle pratiche commerciali sleali 
2.4. Esclusioni e pratiche lecite
3. Sistemi di IA che sfruttano le vulnerabilità
4. Sistemi di IA di punteggio sociale
4.1. I sistemi di punteggio sociale
4.2. Esempi di sistemi di punteggio sociale dalla Cina all’Italia
4.3. Destinatari e limiti del divieto
5. Sistemi di IA per la previsione dei reati 
5.1. L’oggetto del divieto
5.2. Esempi di sistemi di predizione dei reati
5.3. Compatibilità con i diritti fondamentali 
5.4. Limiti del divieto e utilizzi leciti
6. Sistemi di IA per la creazione o l’ampliamento di banche dati di riconoscimento facciale 
6.1. Che cos’è lo scraping
6.2. Precedenti in tema di webscraping
6.3. Ratio del divieto
7. Sistemi di IA per il riconoscimento delle emozioni
7.1. Teoria del riconoscimento delle emozioni
7.2. Ratio e limiti del divieto 
8. Sistemi di IA di categorizzazione biometrica 

Capitolo 23 – Segue: l’identificazione biometrica remota, di Chiara Pappalardo
1. Introduzione 
1.1. Identificazione e autenticazione biometrica
1.2. Il momento dell’identificazione: i sistemi in tempo reale e quelli a posteriori 
1.3. L’ambito del divieto: l’uso in spazi accessibili al pubblico e la finalità di contrasto 
1.4. Esempi di sistemi di identificazione biometrica remota in tempo reale
1.5. Diritti fondamentali e sistemi di identificazione biometrica remota 
2. Il divieto e le eccezioni di utilizzo 
3. Ulteriori limitazioni all’uso di sistemi di identificazione remota
4. La riserva di legge
5. Valutazione d’impatto e registrazione del sistema
6. L’uso nel caso specifico: la riserva di giurisdizione
7. Obblighi di notifica

Capitolo 24 – I sistemi di IA ad alto rischio, di Andrea Del Forno
1. L’AI Act e l’approccio basato sul rischio
2. I sistemi di intelligenza artificiale ad alto rischio: l’art. 6, paragrafo 1 
3. I sistemi di intelligenza artificiale ad alto rischio: l’art. 6, paragrafo 2 
4. Settore ad alto rischio: la biometria
5. Settore ad alto rischio: le infrastrutture critiche
6. Settore ad alto rischio: istruzione e formazione professionale
7. Settore ad alto rischio: occupazione, gestione dei lavoratori e accesso al lavoro autonomo
8. Settore ad alto rischio: accesso a servizi privati essenziali e a prestazioni e servizi pubblici essenziali e fruizione degli stessi 
9. Settore ad alto rischio: attività di contrasto, nella misura in cui il pertinente diritto dell’Unione o nazionale ne permette l’uso
10. Settore ad alto rischio: migrazione, asilo e gestione del controllo delle frontiere, nella misura in cui il pertinente diritto dell’Unione o nazionale ne permette l’uso 
11. Sistema ad alto rischio: amministrazione della giustizia e processi democratici 
12. Le ipotesi di deroga previste dell’art. 6 paragrafo 3 

Capitolo 25 – Le modalità di realizzazione dei sistemi e la governance sui dati, di Francesco D’Amora e Ilaria Uletto 
1. La ricerca del giusto equilibrio tra costi e benefici
2. Le modalità di realizzazione dei sistemi di IA: la gestione dei rischi e l’individuazione delle misure di sicurezza
2.1. Le modalità tecnico-informatiche di realizzazione e sviluppo dei sistemi di IA 
2.2. Il risk based approach: individuazione di tipologia ed entità di rischio
2.3. Il duplice ordine di misure di cui deve essere dotata la tecnologia di IA con implementazione di un sistema di gestione dei rischi
2.4. Con quali modalità di modo e di tempo verificare la confor-
me e corretta realizzazione del sistema di IA?
3. La governance sui dati immessi nei sistemi di IA 
3.1. Le caratteristiche dei set di dati di addestramento, convalida e prova: adeguatezza, correttezza e pertinenza
3.2. Il controllo e la gestione dei set di dati: le pratiche di governance
3.3. Le regole che devono ispirare l’eventuale trattamento di dati personali 
4. L’approccio dell’Italia

Capitolo 26 – la resilienza dei sistemi e il controllo umano, di Francesco D’Amora e Ilaria Uletto 
1. Immissione sul mercato di sistemi di IA ad alto rischio con il più elevato livello di sicurezza: accuratezza, robustezza e cybersicurezza
2. Supervisione, sorveglianza e controllo umano: necessari punti di contatto tra uomo e sistemi di intelligenza artificiale a garanzia della sicurezza e affidabilità del sistema di IA ad alto rischio
3. Condizioni necessarie per l’adeguato esercizio della sorveglianza umana e i compiti dei “sorveglianti”
4. Gli obblighi dei fornitori e (se del caso) dei deployers
5. Le attività di controllo aggiuntive per i sistemi di identificazione biometrica remota 
6. La capacità di autocontrollo del sistema e la sorveglianza dall’esternotramite l’intervento umano: i requisiti fondamentali per il buon an-damento dell’intelligenza artificiale

Capitolo 27 – Gli obblighi dei fornitori: la trasparenza, di Giuseppina Napoli e Francesco Serino 
1. I fornitori nell’AI ACT: eterogeneità della catena di approvvigionamento e responsabilità 
2. Quali contenuti per il principio di trasparenza: la regola “aperta”
3. Il sistema delle responsabilità declinato dal legislatore in rapporto agli obblighi dei fornitori
4. Approccio teleologico: la trasparenza del regolatore come principio di salvaguardia in ogni settore
5. Conclusioni

Capitolo 28 – La compliance per l’IA ad alto rischio (qualità, conformità, ecc.), di Mario Cigno e Amalia Serena Scimè
1. Introduzione e inquadramento 
2. Definizione di IA ad alto rischio
3. I fornitori di IA ad alto rischio 
4. Requisiti di qualità e conformità
4.1. Qualità dei dati
4.2. Trasparenza e tracciabilità
4.3. Il sistema di qualità 
5. Norme armonizzate 
6. Valutazione della conformità
6.1. La procedura di controllo interno
6.2. La procedura di valutazione tramite organismi certificati
7. Dichiarazione di conformità e marcatura CE
7.1. Conformità e altre normative comunitarie 
8. Registrazione
9. Conclusione

Capitolo 29 – La distribuzione commerciale dei sistemi di IA ad alto rischio: obblighi degli importatori, distributori e intermediari, di Mario Cigno e Amalia Serena Scimè
1. Introduzione
2. Obblighi degli importatori 
3. Obblighi dei distributori 
4. Obblighi degli intermediari 
5. La divisione delle responsabilità lungo la value chain: equivalenza con i fornitori 
6. Sanzioni e responsabilità
6.1. Tipi di sanzioni
6.2. Misure di mitigazione e azioni correttive
7. Conclusioni

Capitolo 30 – Gli obblighi a carico degli utenti, di Francesco D’Amora e Ilaria Uletto 
1. La necessaria cooperazione lungo tutta la catena 
2. La definizione della categoria dei deployers
3. Il rispetto delle indicazioni già fornite e l’indispensabile “dialogo” con gli altri soggetti parte della catena
4. Gli adempimenti aggiuntivi a carico dei deployers: quali attività devo-
no porre in essere per garantire un utilizzo in condizioni di massima sicurezza dell’intelligenza artificiale?
5. La valutazione d’impatto sui diritti fondamentali per i sistemi ad alto rischio 
6. Particolari tipologie di sistemi di intelligenza artificiale e obblighi derivanti dal loro utilizzo 
7. Limitazioni all’utilizzo dell’intelligenza artificiale 
8. Gli ulteriori obblighi a carico dei deployers che rivestono particolari ruoli nella società e posseggono determinati poteri, caratteristiche e qualità
9. Il deployer nelle vesti del provider e i corrispondenti aggiuntivi obblighi

Capitolo 31 – Le IA che si rapportano con umani, di Ludovico Anselmi 
1. Il principio della trasparenza nell’assetto normativo dell’AI Act
2. Il “DDL IA”
3. Gli obblighi di trasparenza dei fornitori nei confronti dei deployer
4. Gli obblighi di trasparenza dei fornitori e dei deployer nei confronti degli utenti
4.1. La comunicazione dell’interazione con un sistema di IA
4.2. La notifica dell’uso dell’IA nella generazione di un contenuto 
4.3. La comunicazione dell’uso dell’IA ai soggetti di un’attività di identificazione biometrica 
4.4. La notifica dell’uso dell’IA nella generazione di un deepfake
4.5. Modalità e tempi di fornitura delle informazioni
4.6. Clausola di rinvio
4.7. I codici di buona condotta
4.8. Ulteriori obblighi di informazione 
5. Sanzioni 

Capitolo 32 – L’IA generativa per finalità generali, di Micaela Unfer 
1. Definizioni
2. Obblighi di trasparenza 
3. Il diritto d’autore
3.1. Segue: uno sguardo “in casa”
Capitolo 33 – Segue: ChatGPT e sistemi similari, di Micaela Unfer
1. Brevi cenni su ChatGPT e altri sistemi similari
2. New York Times vs OpenAI + Microsoft 

Capitolo 34 – L’IA che genera immagini e video, di Laura Chimienti
1. Premessa
2. Fonti normative
3. “Creazione” e “Generazione” 
3.1. L’input
3.2. L’output
4. Conclusioni

Capitolo 35 – Gli organismi notificati e le valutazioni di conformità,di Giulia Escurolle e Federico Di Croce
1. Introduzione: il Regolamento e le valutazioni di conformità 
2. Autorità di notifica e organismi notificati 
3. Le procedure di valutazione della conformità
3.1. La procedura di valutazione della conformità basata sul controllo interno
3.2. La procedura di valutazione con il coinvolgimento di un organismo notificato
4. Le procedure da applicare ai diversi sistemi di IA
5. La deroga alla procedura di valutazione della conformità 
Capitolo 36 – I codici di condotta, di Nicola Sepe e Bruno Urbani 
1. Il codice di condotta in un mondo connesso
2. Il codice di condotta nel Regolamento UE 
3. Intervento e sorveglianza umani 
4. Robustezza tecnica e sicurezza 
5. Vita privata e governance dei dati 
6. Trasparenza e spiegabilità
7. Diversità, non discriminazione ed equità 
8. Benessere sociale e ambientale 
9. Applicazione alle AI 
10. Codici di condotta per l’applicazione volontaria di requisiti specifici 
11. Sanzioni specifiche 
12. Codice di condotta concordato dai Paesi del G7
13. Il Codice di condotta tecnologica 

Capitolo 37 – La governance a livello dell’Unione Europea. Il Comitato europeo per l’intelligenza artificiale e gli altri organismi di supporto, di Carlo Calenda 
1. L’architettura della governance a livello dell’Unione Europea 
2. Il Comitato europeo per l’intelligenza artificiale 
2.1. I compiti e i poteri del Comitato
2.2. La promozione della cd. alfabetizzazione in materia di IA 
2.3. Il ruolo del Comitato europeo per l’IA nella diffusione delle misure a sostegno dell’innovazione 
3. Il Gruppo di esperti scientifici indipendenti 
3.1. I requisiti di competenza, indipendenza e riservatezza del Gruppo di esperti
3.2. La segnalazione qualificata di possibili rischi sistemici
3.3. Gli altri compiti del Gruppo di esperti scientifici indipendenti
3.4. L’accesso al Gruppo di esperti da parte degli Stati membri
4. Il Forum consultivo
5. L’Ufficio europeo per l’intelligenza artificiale 
5.1. Compiti dell’Ufficio IA. In particolare il sostegno all’esecuzione del Regolamento sull’IA e la vigilanza sull’applicazione delle norme relative ai sistemi di IA a scopo generale
5.2. Segue: l’attività di valutazione e il potere di richiedere ai fornitori di adottare misure correttive
5.3. Segue: l’incentivazione dello sviluppo di un IA affidabile e l’incoraggiamento alla diffusione di buone pratiche e di Codici di condotta

Capitolo 38 – Le Autorità nazionali competenti, di Elio Guarnaccia e Giorgio Bonaventura 
1. Autorità nazionali competenti nell’AI Act: ruolo, funzioni e poteri
2. La strategia di governance a livello nazionale del legislatore europeo 
3. Le autorità nazionali designate in Italia per l’AI: AgID e ACN 
3.1. L’Agenzia per l’Italia digitale (AgID)
3.2. L’Agenzia per la cybersicurezza nazionale (ACN)
3.3. La posizione del Garante privacy

Capitolo 39 – I compiti della Commissione per la tenuta della banca dati delle IA ad alto rischio, di Simone Bonavita e Marco Alagna
1. Introduzione: il concetto di IA ad alto rischio e il ruolo della Commissione
2. La nozione di banca dati nel quadro europeo e italiano 
3. La banca dati UE per le IA ad alto rischio
3.1. Il consolidato approccio europeo ai database centralizzati e il paragone con l’Italia
3.2. L’obbligo di registrazione e i dati da fornire
3.3. Sull’accessibilità e sulle specifiche funzionali
3.4. Sul ruolo della Commissione come soggetto istitutore e manutentore della banca dati e in qualità di titolare del trattamento ai sensi della normativa vigente 
4. Conclusioni

Capitolo 40 – Gli altri comitati nazionali e internazionali sull’IA, di Andrea Mezzetti e Caterina Chiari 
1. Introduzione
2. AI Advisory Body delle Nazioni Unite
2.1. I principi cardine e le funzioni istituzionali dell’Interim Report
3. Il ruolo delle altre organizzazioni internazionali: OCSE, Banca Mondiale e OMS
3.1. La Raccomandazione dell’OCSE
3.2. Due esempi di interventi settoriali: Banca Mondiale e OMS . 
4. Il ruolo del G7 nella definizione della governance dell’IA 
5. Il Comitato Nazionale Italiano  
6. Quali i punti di contatto e quali le criticità dei piani di governance analizzati 

Capitolo 41 – Il monitoraggio dopo l’immissione sul mercato, di Giovanni Adamo e Norma de Gregorio 
1. La seduta plenaria del 12 marzo 2024, tra dibattiti e interventi fioriti all’interno dell’Europarlamento
2. Gli indirizzi normativi perseguiti fino ad oggi: riflessioni a margine dell’armonizzazione europea 
3. Regole di immissione sul mercato e ambito applicativo della disciplina 
4. Pratiche di intelligenza artificiale vietate sul mercato
5. Pratiche consentite e obblighi informativi nei confronti delle Authorities 
6. Sistemi di IA “ad alto rischio” e monitoraggio successivo alla circolazione sul mercato
7. Il caso particolare del monitoraggio dei modelli di IA per finalità generali Bibliografia 

Capitolo 42 – La segnalazione degli incidenti e dei malfunzionamenti,di Giovanni Adamo e Norma de Gregorio
1. Intelligenza artificiale tra esigenze di conformità e gestione dei rischi 
2. La segnalazione degli incidenti: il topos del bilanciamento tra informazione e riservatezza
3. Il ruolo delle autorità di vigilanza del mercato sulla scorta del rinvio al Regolamento (UE) 1020/2019 
4. Intelligenza artificiale e settore sanitario: riflessioni a margine di un potenziale panorama applicativo
Bibliografia 

Capitolo 43 – La vigilanza e i sistemi di controllo, di Gianvito Boccone 
1. Premessa
2. Autorità nazionali competenti
3. L’applicazione del Regolamento AI Act
4. Assistenza reciproca, vigilanza del mercato e controllo dei sistemi di IA per finalità generali
5. Controllo delle prove in condizioni reali da parte delle autorità di vigilanza del mercato
6. Poteri di controllo delle autorità che tutelano i diritti fondamentali
7. Poteri dell’autorità di vigilanza in materia di riservatezza  

Capitolo 44 – I sistemi che presentano rischi e, in particolare, rischi a
livello nazionale, di Gianvito Boccone
1. Premessa
2. Ambito di applicazione ed esclusioni di particolari scopi di interesse nazionale 
3. Pratiche di intelligenza artificiale vietate
4. Sistemi di IA ad alto rischio
5. Modelli per finalità generali e rischi sistemici
6. Obblighi dei fornitori di modelli di IA per finalità generali 
7. Modelli con rischio sistemico 
8. Poteri delle autorità che tutelano i diritti fondamentali
9. Procedura per i sistemi di IA classificati dal fornitore come non ad alto rischio in applicazione dell’Allegato III
10. Procedura a livello nazionale per i sistemi di IA che presentano un rischio

Capitolo 45 – Sanzioni e procedure sanzionatorie, di Flaviano Peluso e Chiara Matteoni
1. Attribuzioni degli Stati membri
1.1. Le sanzioni: violazioni ex art. 5 e violazioni minori
1.2. Criteri di applicazione delle sanzioni
1.3. Sanzioni per istituzioni dell’Unione
1.4. Modelli di IA per finalità generali
1.5. Procedura sanzionatoria 
Capitolo 46 – Riservatezza e segretezza, di Flaviano Peluso e Giorgia Mari
1. Il principio di riservatezza e segretezza. Cenni introduttivi
2. La riservatezza alla luce della Direttiva UE 2016/943 
3. Intelligenza artificiale e ruolo della protezione dei dati personali
4. La configurazione del principio di riservatezza e segretezza nell’art. 78 dell’AI Act
5. La declinazione della riservatezza nel quadro d’insieme dell’AI Act
6. La declinazione della segretezza emergente dall’esame del combinato disposto dell’AI Act

Capitolo 47 – Le misure di sostegno, di Fabrizio Paonessa
1. Introduzione alle misure di sostegno all’innovazione nell’IA 
1.1. Contesto del AI Act europeo e le misure di sostegno all’innovazione
1.2. Impatto delle misure di sostegno dell’AI Act europeo sul progresso tecnologico
2. Efficienza delle disposizioni attuali 
2.1. Valutazione dell’impatto delle misure esistenti
2.2. Analisi delle lacune normative
3. Proposte per migliorare il sostegno 
3.1. Raccomandazioni per l’espansione delle misure di sostegno
3.2. Strategie per un ambiente normativo più efficace
4. Conclusioni
4.1. Sintesi delle riflessioni sulle politiche di sostegno e direzioni future

Capitolo 48 – Le modifiche alla disciplina europea, di Saverio Cavalcanti e Gilberto Nava 
1. Le modifiche espresse alle “altre normative di armonizzazione”
2. Cenni sulla “normativa di armonizzazione dell’Unione in base al nuovo quadro legislativo”
3. Ratio delle modifiche alle “altre normative di armonizzazione”. Rilievi sull’ambito di applicazione oggettivo 
4. L’impatto del Regolamento AI Act nei settori de quo
5. Il “sistema di gestione dei rischi” 

Capitolo 49 – Le regole per le IA già esistenti, di Saverio Cavalcanti e Gilberto Nava 
1. Entrata in vigore, efficacia, disposizioni transitorie 
2. L’applicabilità del Regolamento ai sistemi di IA già immessi sul mercato/messi in servizio: il principio di finalità tra AI Act e GDPR 
3. Le disposizioni transitorie per i “modelli di IA per finalità generali” 
4. Segue: le disposizioni transitorie per i “modelli di IA per finalità generali”

Capitolo 50 – Il Disegno di legge italiano in materia di intelligenza artificiale. Prime osservazioni, di Giuseppe Cassano 
1. Introduzione 
2. La nuova normativa: principi e finalità 
3. Sul rapporto tra IA e informazione e riservatezza dei dati personali
4. IA e sviluppo economico 
5. Disposizioni in materia di sicurezza e difesa nazionale
6. Utilizzo dell’IA in ambito sanitario e di disabilità
7. Utilizzo dell’IA in materia di lavoro
8. IA e professioni intellettuali
9. Principi in materia di pubblica amministrazione
10. L’utilizzo dell’intelligenza artificiale nell’attività giudiziaria 
11. Strategia nazionale, autorità competenti e risorse
12. Misure di sostegno ai giovani e allo sport
13. Investimenti nei settori dell’IA
14. Delega al Governo in materia di IA
15. Tutela degli utenti e del diritto d’autore
16. IA e disposizioni penali
17. IA e disposizioni finanziarie

Descrizione breve

PRINCIPALI ARGOMENTI
◾ Autorità nazionali competenti
◾ Sviluppo delle competenze sull’IA
◾ Sistemi di IA e proprietà intellettuale
◾ Rapporto tra AI Act e GDPR
◾ L’approccio basato sul rischio
◾ Applicazioni e pratiche di IA proibite
◾ Identificazione biometrica remota
◾ Governance dei dati
◾ Compliance per l’IA ad alto rischio
◾ Obblighi dei fornitori, distributori ed utenti
◾ ChatGPT e similari

Isbn: 8891670885



SKU FT-50396 - Ulteriori informazioni: cat1libri_di_carta / cat2libri_di_carta_2017