CoLAB-AI Observatory
Direttori di ricerca
Lucilla Gatt, Ilaria Caggiano, Loredana Cristaldi
Componenti
Area Scienze Giuridiche:
Maria Cristina Gaeta (Coordinatore), Ranieri Razzante, Veronica Scotti, Paola
Grimaldi, Anita Mollo, Livia Aulino, Irene Coppola, Emiliano Troisi, Valeria
Manzo, Luigi Izzo, Davide Silvio D'aloia, Chiara Vitagliano, Simona Ghionzoli.
Area Scienze Computazionali:
Christian Carmine Esposito; Raffele Montella, Roberto Trasarti, Roberta Savella.
Area Design&HMI:
Roberto Montanari, Arianna Fantesini
Area Comunicazione:
Stefano Balassone, Marco Bottigliero, Chiara Tagliaferri
Introduzione
Il nuovo scenario che la rapida diffusione ed evoluzione dell'Intelligenza Artificiale (IA) va disegnando impone necessarie riflessioni da condursi in via interdisciplinare, al fine di assicurare l'affidabilità richiesta alle nuove tecnologie di intelligenza artificiale (IA). Generalmente al progresso viene assegnato il compito di promuovere il benessere diffuso nonostante spesso venga riproposta quella visione dualistica che attribuisce caratteristiche tanto positive quanto negative alle nuove scoperte. Certamente non sfugge a questa logica l'Intelligenza Artificiale in molti casi considerata come una minaccia grave per l'umanità.
In questo contesto nasce l'CoLAB-AI Observatory che studia lo sviluppo dell'IA con metodo analitico, valutandone i rischi, con riflessioni de iure condito e de iure condendo per un'effettiva regolamentazione legale e tecnica. Esso ha lo scopo di superare incertezze e problematiche collegate alle nuove tecnologie di IA, applicando un approccio trasversale ed olistico che esalti le caratteristiche positive delle intelligenze artificiali affinché esse possano, non solo garantire la necessaria affidabilità tecnica, ma assumano una prospettiva antropocentrica, che possa assicurare il rispetto dei diritti fondamentali garantiti agli esseri umani. Più in generale, lo scopo dell'Osservatorio è garantire lo sviluppo di un'IA sostenibile a tutto tondo, sul piano sociale, economico e ambientale.
Nell'ambito dell'attività dell'Osservatorio centralità è attribuita alle attività di misurazione, sia preventive allo sviluppo di un'IA, che contestuali o conseguenti alla commercializzazione, al fine di monitorarne le performance della stessa per verificarne in concreto l'impatto sull'essere umano. Le problematiche associate agli aspetti della misurazione, in termini soprattutto di qualità dei dati utilizzati dalle IA, per lo svolgimento delle funzioni, rappresentano un aspetto problematico di questo ambito di studio (privacy, affidabilità, condizionamento umano) che richiede analisi puntuali e metodi rigorosi per evitare pericolose ed imprevedibili derive.
L'Osservatorio si fonda sulla collaborazione tra il Centro di Ricerca in Diritto Privato Europeo (ReCEPL), il Politecnico di Milano e il Consiglio Nazionale delle Ricerche (CNR)-ISTI, ed è costituito da un gruppo di lavoro italiano (Working group - WG) composto da esperti afferenti all'area delle scienze giuridiche, dell'ingegneria informatica, della psicologia cognitiva e della comunicazione) per studiare le declinazioni dell'intelligenza artificiale in ambito applicativo nell'ambito e al di fuori de nuovo Regolamento Europeo sull'IA (Reg. Reg. 2024/1689/UE) e offrire soluzioni di regolamentazione e governance in ordine all'intelligenza artificiale posta al servizio dell'uomo nella certezza, uniformità e tempestività delle istanze sociali.
La composizione essenzialmente accademica dell'osservatorio è volta a garantirne l'imparzialità, così come la sua collocazione nell'ambito della rete di ricerca RES4NET è finalizzata a favorire sinergie e interscambi allo scopo di migliorare lo sviluppo delle intelligenze artificiali (AIs), nel rispetto della normativa vigente e dei principi etici a tutela dei diritti fondamentali dell'uomo.
Mission
Attraverso un lavoro interdisciplinare, l'Osservatorio mia a regolamentare l'IA con norme giuridiche (hard law), principi etici (soft law), ma anche con norme tecniche (standard e technoregulation). La propsettiva è quella dello sviluppo di sistemi di IA trasparenti e garantisti dei diritti fondamentali e, più in generale, sostenibili, nel rispetto del framework dei valori morali e dei principi etici condivisi a livello europeo e internazionale.
Sotto la guida dei Direttori di ricerca, i componenti dell'Osservatorio conducono e supportano le attività del WG grazie alle loro competenze multidisciplinari alla luce di un principio cardine: il principio della innovazione tecnologica sostenibile. L'osservatorio intende infatti porre a confronto le diverse scienze che concorrono allo sviluppo, produzione, diffusione e utilizzo dell'IA allo scopo di condurre analisi trasversali riconoscendo rilevanza a ciascuna singola disciplina in modo da implementare il quadro di indagine e valutazione.
L'apporto del diritto e delle scienze umanistiche risulta fondamentale affinché possa essere effettuata la necessaria valutazione preventiva della compatibilità e conformità delle nuove tecnologie di IA rispetto alla protezione dei diritti fondamentali. L'imprescindibile lavoro sinergico con i tecnici scienziati del settore, unitamente alla partecipazione di esperti di altri ambiti, aumenta la consapevolezza sia delle potenzialità dei nuovi sistemi di IA, che dei relativi limiti, tecnici, legali ed etici, da porre a base di ogni nuova iniziativa.
Occorre essere attenti ad osservare e a comprendere i cambiamenti in corso, dato che le potenzialità dell'applicazione dell'IA (anche generativa) muta la realtà quotidiana sociale ed economica, oltre ad incidere direttamente sull'ambiente.
L'osservatorio, con l'intento di offrire una prospettiva dinamica ed integrata del settore dell'IA, si pone come realtà di collegamento tra le varie discipline coinvolte garantendo a ciascuna la propria affermazione e assicurando che tutte le voci del settore siano rappresentate e possano contribuire ad uno sviluppo consapevole, sostenibile e diffuso delle nuove tecnologie di IA.
In definitiva, l'Osservatorio ha l'obiettivo di proporre soluzioni per la migliore utilizzazione dell'IA, in una visione sistematica e sistemica basata sulla corretta valutazione rischi-benefici.
Tematiche oggetto d'indagine
- Analisi delle tematiche di IA secondo prospettive interdisciplinari e
promuovendo l'incontro e il confronto tra gli esperti delle diverse discipline
coinvolte;
- Ricostruzione dello stato dell'arte internazionale ed europeo sull'IA,
costruendo un approccio trasversale e stimolando la produzione di norme
tecniche;
- Studio dell'I.A. e della sua sostenibilità in rapporto al tipo di rischio e
valutazioni di impatto sui diritti fondamentali;
- Individuazione dei vantaggi e degli svantaggi dello sviluppo dell'IA in una
prospettiva a medio-lungo termine;
- Rapporto tra intelligenza umana ed intelligenza artificiale in una nuova
visione della vita sul pianeta;
- Predisposizione di strumenti tecnologici di supporto alla misurazione
dell'impatto dell'IA.
Approfondimenti
Un organismo permanente e stabile come l'osservatorio, oltre a consentire aggiornamenti frequenti sulle tematiche inerenti l'IA da differenti prospettive, favorisce l'individuazione di nuove linee di azione e l'identificazione, anche preventiva, di posizioni soggettive che richiedano protezione in conseguenza dell'introduzione di nuove tecnologie, passando attraverso la promozione di valori etici e morali universalmente condivisi che possano costituire la base per lo sviluppo di un'IA affidabile (Trustworthy AI).
L'Osservatorio, infatti mira anche a fornire un quadro dei progetti di
ricerca, delle proposte scientifiche e delle iniziative ed eventi su cui
costantemente lavora l'intero WG, organizzati nelle seguenti sotto sezioni
dedicate a:
- Iniziative ed eventi in tema di regolamentazione della Trustworthy AI;
- Progetti di ricerca e proposte scientifiche sui temi legati al giusto
bilanciamento tra innovazione e sostenibilità;
- Pubblicazioni: degli studiosi componenti del team di ricerca sui vari aspetti
legati allo sviluppo e all'innovazione dell'IA sostenibile;
- Segnalazione di interessanti iniziative legislative internazionali, europee e
nazionali in tema di IA
- Link utili di informazione ed aggiornamento sui temi oggetto di analisi
dell'Osservatorio.
XHTML 1.0 | CSS 2.1 | Conforme alle linee guida per l'accessibilità ai contenuti del Web - livello tripla A
© 2004/25 Università degli Studi Suor Orsola Benincasa - Napoli | Crediti