Intelligenza artificiale: sfide e opportunità per la politica e la pubblica amministrazione

Trieste – Lo scorso mese di marzo, presso l’Aula del Consiglio regionale, si è tenuto un seminario dal titolo “L’intelligenza artificiale: le sfide alla politica e alle PA”. Nel corso della giornata moltissimi esperti del settore tra cui avvocati, professori delle Università di Trieste, Udine e Venezia, ricercatori sono intervenuti offrendo un’ampia e completa visione delle potenzialità e delle criticità di un settore – quello dell’IA, Intelligenza Artificiale – in rapida espansione.

Ad aprire il convegno è stato il Presidente del Consiglio Regionale FVG Mauro Bordin; si sono poi susseguiti una serie di interventi (Ernesto Belisario, Avvocato esperto in materia di IA; Luca Bortolussi, Università di Trieste; Luca Tangi, Joint Research Centre – AI Observatory ed altri) incentrati sull’IA, sui cambiamenti che questa apporterà in futuro e sul ruolo dell’Europa in tutto ciò.

Nel pomeriggio altri interventi hanno messo al centro del dibattito i temi di lavoro, società, economia e il ruolo che l’IA avrà sul futuro della democrazia (in particolare su quest’ultimo tema è intervenuto anche il Presidente della Regione Massimiliano Fedriga). Cos’è, dunque, l’Intelligenza Artificiale? Quali sono le sue applicazioni? Esse coinvolgono davvero qualsiasi campo? Quali sono i principali rischi?

IA: cos’è e come funziona

Prima di esplorare i campi d’applicazione dell’IA e le conseguenze che essa porterà in futuro è necessario comprendere cos’è l’Intelligenza Artificiale e come lavora. Il Parlamento Europeo in un articolo pubblicato il 3 novembre 2020 nel proprio sito ufficiale (https://www.europarl.europa.eu) definisce l’IA come “l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività”. Tali abilità sono proprie degli esseri umani e, più in generale, della natura (esseri viventi).

Una delle tecniche più diffuse per la produzione di sistemi di IA è il machine learning, una famiglia di tecniche di intelligenza artificiale basate sull’apprendimento automatico ed autonomo. Il machine learning -apprendimento delle macchine – non è l’unica tecnica mesa in campo per produrre un’IA: ne esistono altre tra cui la famiglia degli “alberi di decisione”, metodologia che, ad esempio, viene utilizzata per generare i nemici in un videogioco.

L’allenamento delle macchine parte dall’immissione di dati (input) dai quali viene generato un modello statistico che, sulla base di nuovi dati immessi fornisce una predizione (ciò che l’IA ci propone: testi, immagini, video, ecc.). In circolazione vi sono moltissimi modelli con caratteristiche differenti.

Tra le tecniche più diffuse e più note della famiglia del machine learning vi sono le reti neurali artificiali che, come suggerisce il nome, cercano di imitare i processi cognitivi umani (basati per l’appunto sulle nostre reti neurali). La rete neurale artificiale permette all’IA di apprendere, valutare, discriminare (riconoscere) attraverso dinamiche che vogliono essere il più fedeli possibile a quelle umane. È necessario però tenere conto che il campo delle neuroscienze è ancora pieno di domande e paragonare il funzionamento di una rete neurale artificiale al funzionamento del nostro cervello (come a volte capita di leggere o ascoltare) è un azzardo.

Le GAN alla base della “creatività” dell’IA

Particolari architetture di reti neurali sono le Generative Adversarial Networks (Reti Generative Avversarie o GAN) che, in sintesi, sono costituite da due reti neurali in competizione tra loro: il generatore e il discriminatore. La prima ha il compito di generare dati “fake” mentre la seconda ha il compito di distinguere i dati “fake” generati dalla prima dai dati reali e attendibili precedentemente forniti. Questo processo permette non solo di allenare l’IA ma anche di generare contenuti “artificiali”, gli stessi che ci vengono proposti.

Questo sistema è alla base di quella che erroneamente definiamo come “creatività” delle macchine: la generazione di nuove idee e nuovi contenuti originali sempre più realistici ed attendibili deriva dal fatto che i modelli di machine learning forniscono, semplicemente, risposte statisticamente sempre più accurate. Chiedendo ad esempio ad un’IA di generare un volto questa è in grado di fornirci un’immagine talmente realistica da non riuscire a determinare con certezza se il volto è completamente artificiale o appartenente ad una persona in carne ed ossa.

Tra i modelli di IA basati sulle GAN vi sono Dall-E (che permette di generare immagini a partire da un testo), MidJourney e GPT-4, sviluppato dalla società co-fondata da Elon Musk OpenAI, diventato celebre da qualche anno e fruibile grazie all’applicazione ChatGPT, per i dispositivi mobili, o tramite il sito www.chatgpt.com. A rendere ChatGPT uno dei prodotti migliori è la gratuità del servizio (è richiesta solamente l’iscrizione, ormai necessaria per la maggior parte delle attività online), anche se per ottenere funzioni avanzate vi sono programmi di abbonamento.

L’IA è vecchia di sessant’anni

Nell’immaginario comune l’Intelligenza Artificiale è un’assoluta novità: prima dell’uscita di ChatGPT nel novembre del 2022 solo in pochi si occupavano del tema. L’IA, però, esiste già da molti anni e noi tutti, inconsciamente, ne facevamo uso.

L’IA nasce nel secolo scorso: nel 1943 Warren McCulloch e Walter Pitt idearono una delle prime reti neurali (versioni “primitive” che non avevano nulla a che vedere con quelle a cui siamo abituati oggi). Dagli anni ’50 l’interesse per questo “nuovo” campo aumenta: Alan Turing è il primo ad immaginare un computer che simuli i processi cognitivi umani.

Nel 1956 viene coniato il termine “Artificial Intelligence” dal matematico John McCarthy che sviluppò i primi linguaggi di programmazione interamente dedicati all’IA (Lisp e Prolog).

Negli anni ’80 si riscontrano numerosi progressi; negli anni ’90 vengono introdotte le GPU (Graphics Processing Unit, chip per l’elaborazione grafica ovvero microprocessori solitamente in silicio sui quali sono “stampati” circuiti elettrici) che in seguito, sostituite poi dalle TPU, verranno utilizzate per il machine learning. Il 27 settembre 1998 nasce il motore di ricerca Google, che sfrutta meccanismi di IA per offrire un elenco di siti web a partire da ciò che l’utente digita sulla barra di ricerca. Dagli anni duemila il settore dell’Intelligenza Artificiale è in rapida espansione grazie anche ai social media, enormi banche dati utilizzate per l’allenamento dei sistemi di IA.

A seguito dell’uscita di ChatGPT l’attenzione delle persone verso le nuove tecnologie è aumentata; a crescere è anche il numero delle applicazioni che sfruttano modelli generativi e che permettono di generare immagini, video, testi, riassunti, schemi e mappe, programmi. Tra i principali vi sono Bard, Dall-E, MidJourney, Pictory, GetResponse, Descript e moltissimi altri.

Le applicazioni dell’IA

L’Intelligenza Artificiale è applicata in svariati campi molti dei quali vicinissimi alla nostra vita quotidiana. L’IA è già parte integrante della nostra quotidianità e spesso ne siamo inconsapevoli.

Per quanto concerne la Salute si utilizzano sistemi basati sull’IA per migliorare i meccanismi diagnostici e di prevenzione; ancora non vi è un’applicazione estesa (molti progetti sono in fase sperimentale o di sviluppo) ma in un futuro prossimo l’IA aiuterà e semplificherà il lavoro dei medici. Il Friuli Venezia Giulia è in prima linea nel settore: la scorsa estate la Regione ha investito in due progetti legati al futuro dell’IA nella sanità in FVG. Il primo introdurrà l’IA nel settore Biomedicale, contribuendo all’individuazione e classificazione di malattie specifiche, e nei Modelli di previsione utilizzati nella ricerca farmacologica per individuare molecole “promettenti” da utilizzare in ambito clinico. Il secondo avrà un ruolo chiave nella Telemedicina e nella Medicina di precisione identificando le varianti genetiche che contribuiscono all’insorgere di particolari malattie.

Il Servizio Sanitario Regionale procederà anche all’acquisto di un “supercomputer” inserito in un Datacenter di nuova generazione in grado di sviluppare nuovi algoritmi per abbreviare i tempi di diagnosi e cura di malattie rare: ad oggi tali patologie sono caratterizzate da un gap diagnostico di almeno 8 anni. Per il progetto pilota a livello nazionale sono stati stanziati cinque milioni di euro; a dirigerlo è l’Azienda sanitaria universitaria Friuli Centrale e il responsabile scientifico è il prof. Maurizio Scarpa, direttore del Centro di Coordinamento Regionale delle malattie rare.

Nel settore dei trasporti l’IA è in grado, ad esempio, di migliorare il traffico ferroviario. In agricoltura può essere utilizzata per costruire un sistema alimentare sostenibile europeo: diminuzione dell’uso di pesticidi, miglioramento dell’irrigazione, uso di robot in grado di rimuovere le erbe infestanti dai campi (distinguendole dalle colture) sono solamente alcune delle soluzioni individuate dall’Europa per agevolare il lavoro degli agricoltori. Nell’allevamento l’IA è in grado di monitorare temperatura, alimentazione, comportamento del bestiame. Nell’industria oggigiorno moltissime mansioni sono affidate ai robot e a sistemi automatizzati (basti pensare all’industria automobilistica).

Vi sono poi applicazioni dell’IA di cui tutti facciamo uso quotidianamente: dai software di traduzione automatica (uno tra tutti Google Translate) alle pubblicità suggeriteci a seconda dei nostri interessi e movimenti online. Ruolo fondamentale lo hanno i cookies, piccoli pacchetti di informazioni con i quali i siti web in cui navighiamo registrano i nostri spostamenti e le nostre attività online; queste informazioni vengono poi vendute alle aziende pubblicitarie che le utilizzano per proporci offerte e prodotti. Cercando ad esempio un determinato modello di scarpe non è un caso che qualche giorno dopo navigando ci si imbatta in una pubblicità relativa al modello di scarpe che avevamo cercato in precedenza.

I siti web ed i social media utilizzano i cookies e più in generale le nostre attività online per la creazione di “camere dell’eco” e “bolle algoritmiche”: vi sarà capitato di ricevere una notifica da Amazon (o qualsiasi altro servizio di e-commerce) che recita qualcosa del tipo “abbiamo pensato che ti possa interessare…” e di essere veramente interessati a ciò che ci viene proposto; tutto ciò perché abbiamo selezionato, talvolta involontariamente, l’icona “Accetta tutti i cookies” comparsa non appena siamo entrati in un qualsiasi sito web.

Un altro esempio di bolla algoritmica è la piattaforma TikTok, che si basa su questo meccanismo: più video guardiamo con una determinata tematica più la piattaforma ce ne proporrà in futuro, aggiungendo talvolta contenuti nuovi per sondare la nostra curiosità e il nostro interesse.  Altre applicazioni dell’IA sono le innumerevoli funzioni nelle autovetture più moderne che assistono e migliorano la guida e i sistemi che a nostra insaputa analizzano i contenuti nei social media individuando fake news, parole ed espressioni sospette offrendoci di conseguenza una navigazione più sicura.

Le applicazioni dell’IA non sono, però, sempre positive. Un’inchiesta condotta da +972 Magazine e Local Call fa emergere come Israele abbia utilizzato, soprattutto nelle prime fasi del conflitto scoppiato lo scorso 7 ottobre, un sistema di Intelligenza Artificiale chiamato Lavender per identificare e colpire potenziali obiettivi.

L’IA individuava i sospetti militari palestinesi (e le loro case) e un operatore umano, dopo aver verificato che il sospetto fosse di sesso maschile, aveva un tempo di 20 secondi per autorizzare il bombardamento. Oltre 37mila palestinesi sarebbero stati individuati tramite Lavender con un errore stimato del 10%. Tutto ciò sarebbe stato rivelato da sei funzionari dell’intelligence israeliana. La Cnn riporta che l’Idf (l’esercito israeliano) ha negato l’utilizzo di sistemi di IA per l’individuazione di potenziali terroristi sostenendo di aver minimizzato i rischi per la popolazione civile.

L’IA è davvero intelligente?

Il primo a coniare il termine “Intelligenza Artificiale” è stato l’informatico statunitense John McCarty nel 1956. Quando pensiamo al termine “intelligenza” inevitabilmente associamo la capacità degli esseri umani di prendere decisioni, di mettere in atto una serie di operazioni per risolvere un problema. L’intelligenza delle macchine, d’altro canto, non ha nulla a che vedere con l’intelligenza umana. Ad oggi le macchine non sono in grado di prendere delle decisioni autonome (cosa che esseri umani e animali fanno): i sistemi di Intelligenza Artificiale, anche quelli che sembrano “pensare”, rispondono a comandi, input che hanno una matrice umana. Alla base, dunque, c’è sempre un cervello umano.

Si potrebbe dire che un algoritmo è definito dall’uomo come intelligente se l’uomo non si rende conto di interagire con una macchina. L’idea di ingannare l’essere umano proponendogli una “macchina intelligente” si fa risalire a Joseph Weizenbaum nel 1966: egli creò Eliza, una chatbot che sostituiva in frasi “preconfezionate” delle semplici parole; per pochi minuti si aveva l’illusione di comunicare con una persona reale, ma man mano che la conversazione procedeva era sempre più facile “smascherare” Eliza. L’illusione di interloquire con una macchina “intelligente” derivava dal fatto che non se ne conosceva il funzionamento (l’inganno) e dal valore che l’uomo, a differenza dei computer, è in grado di attribuire alle parole. Ad oggi le chatbot sono estremamente più “evolute” e forniscono risposte coerenti alle domande a cui sono sottoposte.

La maggior parte dei sistemi di Intelligenza Artificiale oggi è pensata per risolvere compiti estremamente specifici: l’insieme di questi algoritmi è detta intelligenza artificiale debole. Per essere definita “forte” l’intelligenza artificiale deve essere applicabile anche fuori dal contesto specifico di riferimento: gli algoritmi devono essere più elaborati e complessi; l’IA general purpose (lett. “scopo generale) è l’ultimo passo e consiste in un’IA in grado di pensare autonomamente. Fantascienza.

Il linguaggio è estremamente importante: chiamare “intelligenza” qualcosa che intelligente non è genera paura, timore, disagio e preoccupazione soprattutto tra i meno esperti. Quando il nostro pensiero viene inconsapevolmente influenzato dal solo fatto di chiamare qualcosa in un determinato modo stiamo commettendo un bias cognitivo ovvero un errore logico. La realtà e il nostro giudizio sulle cose sono dunque influenzati dalle parole che vengono utilizzate.

È essenziale non cadere in tranelli linguistici di questo tipo che possono risultare particolarmente insidiosi minacciando la credibilità e la serietà di un campo vastissimo – quello delle nuove tecnologie e dei nuovi sistemi di intelligenza artificiale – e non riducibile ad una semplice “ribellione delle macchine”, immaginario puramente cinematografico.

Il linguaggio è molto potente e influenza il nostro giudizio sulle cose. L’informatico Carlo Quintarelli propone una definizione di IA scientificamente più accurata che, però, risulta “bizzarra”: SALAMI. L’acronimo sta per Systematic Approaches to Learning Algorithms and Machine Inferences (Approcci sistematici agli algoritmi di apprendimento e alle inferenze delle macchine). Dopodiché Quintarelli propone una serie di domande, che spesso ci poniamo quando parliamo di Intelligenza Artificiale, che hanno come soggetto il nuovo acronimo SALAMI tra cui: “possono i SALAMI avere emozioni?”; l’effetto che produce una domanda del genere è ben diverso da quello prodotto dalla domanda analoga nella quale SALAMI è sostituito con IA (“possono le IA avere emozioni?”). La provocazione di Quintarelli pone l’attenzione sul pregiudizio che l’uomo ha riguardo a queste nuove tecnologie ritenute da molti dannose o nocive per il solo fatto di essere definite “intelligenti” – cosa che non sono.

I rischi dell’IA

Le innumerevoli applicazioni dell’Intelligenza Artificiale comportano, inevitabilmente, rischi e problematiche da non sottovalutare. Per l’allenamento dei sistemi di IA le aziende sviluppatrici necessitano di un’enorme quantità di dati e informazioni. Non solo: l’IA può essere utilizzata per la profilazione degli utenti e per scopi commerciali, per prevedere le abitudini e i comportamenti dei consumatori. Queste operazioni minano la privacy degli utenti: le aziende raccolgono i dati personali degli utenti e li utilizzano per creare profili dettagliati dei loro clienti vendendo tali informazioni alle aziende pubblicitarie.

A rischio non sono solamente i dati sensibili della popolazione ma anche i posti di lavoro: il 12 giugno 2023 Confartigianato ha presentato tramite un webinar il 25° report “Intelligenza artificiale, lavoro e imprese”. A rischio sarebbero 8,4 milioni di posti di lavoro in Italia per effetto della diffusione dell’IA. Le professioni più esposte sono quelle che richiedono una qualifica maggiore e a contenuto intellettuale e amministrativo: i settori più minacciati sono quelli dell’informazione e della comunicazione, delle scienze commerciali e amministrative. In Italia il 36,2% degli occupati subirà l’impatto delle trasformazioni tecnologiche e dei processi di automazione entro i prossimi due decenni; la percentuale italiana rimane inferiore a quella europea (39,5%). In FVG la quota di personale a rischio è poco inferiore al 23%.

Si pensa che l’Intelligenza Artificiale comporterà la creazione di nuovi posti di lavoro e l’introduzione di nuove figure professionali. Nel Rapporto 2023 del World Economic Forum si prevede che circa un quarto dei posti di lavoro cambierà nei prossimi cinque anni: globalmente si prevede la creazione di 69 milioni di nuovi posti di lavoro e l’eliminazione di 83 milioni, con una diminuzione netta di 14 milioni di posti di lavoro, pari al 2% dell’occupazione attuale.

Altri rischi correlati all’IA sono l’opacità dei processi alla base dei sistemi di intelligenza artificiale (ovvero la difficoltà nel dimostrare eventuali errori di valutazione), gli effetti discriminanti qualora si verificassero errori nella progettazione o nell’immissione delle informazioni, le alterazioni del dibattito pubblico, la formazione di posizioni dominanti nei settori tecnologici, gli effetti sulla protezione dei diritti d’autore e molti altri.

IA Act: la strategia europea

Nell’Aprile 2021 la Commissione Europea ha presentato la proposta di un Regolamento (direttamente applicabile in tutti gli Stati membri dell’Unione) denominato “IA Act” che ha come scopo il regolare la produzione, l’immissione sul mercato e l’utilizzazione dei sistemi di intelligenza artificiale all’interno dell’UE. Il Regolamento è stato approvato lo scorso 13 marzo.

I sistemi di IA sono classificati mediante 4 categorie: i sistemi a rischio inaccettabile (che violano i diritti fondamentali dei cittadini e costituiscono una minaccia per la sicurezza di questi) sono proibiti; i sistemi ad alto rischio (che presentano rischi elevati in particolare negli ambienti lavorativi) sono soggetti a molti obblighi di conformità e dovranno essere valutati prima di essere immessi nel mercato; i sistemi a rischio limitato devono sottostare a generali obblighi di trasparenza mentre i sistemi a rischio minimo o nullo possono circolare liberamente. Alcuni sistemi anche a rischio inaccettabile sono concessi per scopi militari o di pubblica sicurezza per la prevenzione e il contrasto del crimine e del terrorismo; tra questi rientra l’identificazione biometrica in tempo reale in spazi pubblici.

L’IA Act è il primo atto normativo del suo genere e potrebbe diventare un punto di riferimento globale per la regolamentazione dell’IA, un settore ad oggi ancora in fase di sviluppo.

Come annunciato da Brando Benifei, Parlamentare europeo e Relatore AI Act, nel suo intervento lo scorso 11 marzo “Entro maggio, questo testo verrà confermato dal Consiglio d’Europa e diventerà legge da applicare anche in Italia. Sono previste comunque tempistiche graduali per consentire ad aziende e realtà pubbliche di adeguarsi”.

Il FVG non si fa cogliere impreparato

Di fronte a quella che è definita da alcuni come la “Quarta rivoluzione” – la terza è consistita nella rivoluzione digitale – è essenziale essere preparati per sfruttarne al meglio le possibilità e minimizzare i rischi in materia di sicurezza, privacy, lavoro. L’Agid (Agenzia per l’Italia digitale) ha proposto di creare spazi di prova dell’intelligenza artificiale: un collegamento tra chi sviluppa e chi utilizza i sistemi di IA valutandone l’impatto e le conseguenze.

Nemmeno il Friuli Venezia Giulia vuole farsi cogliere impreparato: sono diversi gli investimenti nell’ambito dell’IA e della sua introduzione in moltissimi contesti lavorativi. Essenziale è la formazione di personale qualificato in materia di IA e la sensibilizzazione dei più giovani tramite conferenze, webinar e percorsi nelle scuole. Lo scorso anno all’Università degli Studi di Trieste è stato istituito il corso triennale in Intelligenza Artificiale e Data Analytics che porterà alla formazione di esperti del settore, sempre più richiesti.

L’informazione dei cittadini è dunque l’arma più potente, al momento, contro i rischi provenienti dalla disinformazione e dai repentini cambiamenti in ambito tecnologico, dell’informazione, sociali apportati anche grazie all’introduzione dell’Intelligenza Artificiale in ogni ambito della nostra quotidianità. A tal proposito si è espresso il Presidente di Regione e Presidente della Conferenza delle Regioni italiane, Massimiliano Fedriga, presso l’Aula del Consiglio regionale lo scorso 11 marzo. Il Presidente sottolinea l’importanza del “Formare la capacità critica del singolo cittadino, in modo da aiutarlo a vagliare le informazioni che riceve. Una fascia di popolazione particolarmente a rischio mi sembra quella delle persone meno giovani, che rischiano di confondere le notizie di giornali e televisioni con quelle che arrivano da altre fonti non attendibili”.

L’Intelligenza Artificiale lancia dunque nuove sfide, opportunità e problematiche: i suoi benefici sono immensi, tuttavia non possono essere ignorate le implicazioni che essa avrà in ambito etico, sociale, lavorativo, politico. Il quotidiano “La Sicilia” in un articolo del 27 ottobre 2023 definisce il Friuli Venezia Giulia “un faro per l’applicazione delle intelligenze artificiali” confermando l’impegno e la centralità della Regione nell’ambito dell’IA tramite iniziative, investimenti e sperimentazioni volte a consapevolizzare la popolazione e giocare un ruolo chiave nella “Quarta rivoluzione”.

Print Friendly, PDF & Email
Condividi