ANALISI E COMMENTI – INTELLIGENZA ARTIFICIALE – Quali regole per la rivoluzione AI: le scelte dell’Europa e del mondo

Quali regole per la rivoluzione AI: le scelte
dell’Europa e del mondo


Il Parlamento UE ha appena emendato l’AI Act anche e soprattutto per
includere i nuovi sistemi di intelligenza artificiale generativa.
Nel mondo ci sono diversi approcci alla regolazione dell’AI però e
opinioni contrastanti degli esperti. Ecco un quadro
di Marco Martorana
avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI
11697:2017
L’ascesa di alcune sempre più popolari applicazioni dell’Intelligenza Artificiale
generativa sta animando il dibattito mondiale sulla regolamentazione delle
nuove tecnologie. Pensiamo a ChatGPT e a tutte le discussioni da questa
sollevate, ma anche alle dispute relative all’uso di Midjourney e altre
applicazioni simili in vari contesti dove, fino a qualche mese fa, dominava la
creatività umana. È inevitabile che questi sviluppi così dirompenti abbiano una
qualche influenza sul processo legislativo volto a disciplinare l’IA, che
nell’Unione Europea si sta focalizzando sull’emanazione dell’attesissimo “AI
Act”, che è stato appena emendato dal Parlamento UE anche e soprattutto
per includere i nuovi sistemi generativi.
Parlamentari dell’UE hanno proposto nuove distinzioni e definizioni da inserire
nel futuro Regolamento, e il 27 aprile hanno trovato un accordo politico sulla
bozza di testo, che sembra ora destinato al voto in plenaria il prossimo
giugno.
Vari esperti, pur chiedendo a gran voce la formalizzazione di regole specifiche
per questo settore, mettono anche in guardia le istituzioni dal farsi influenzare
troppo dalla tecnologia del momento.
Le nuove definizioni proposte per l’AI Act e l’accordo
raggiunto in seno al Parlamento europeo
L’approccio dei parlamentari si è assestato su tre livelli di regolamentazione,
che riguardano:

  1. La distribuzione della responsabilità lungo tutta la filiera dell’IA;
  2. La previsione di specifiche salvaguardie per i foundation model;
  3. La risoluzione di questioni specifiche legate ai modelli di IA generativa.
    Una grossa novità inserita nella nuova bozza è la distinzione tra foundation
    model, per cui viene previsto un regime più stringente, e le general purpose
    AI.
    Un foundation model è definito come un modello di sistema di IA che è stato
    addestrato su quantità di dati su larga scala, che è stato progettato per una
    generalità di output e che può essere adattato a una grande varietà di funzioni
    specifiche.
    La general purpose AI, invece, viene definita un sistema di IA che può essere
    utilizzato e adattato per una grande varietà di applicazioni per le quali non era
    stato intenzionalmente e specificamente progettato.
    Per quanto riguarda la prima categoria, vengono previsti una serie di obblighi
    per i produttori, che comprendono vari test e la minimizzazione dei rischi
    ragionevolmente prevedibili per la salute, la sicurezza, i diritti fondamentali,
    l’ambiente, la democrazia e il principio di legalità. In questi processi devono
    essere coinvolti anche esperti indipendenti. Sono previste inoltre misure di
    data governance, comprensive di verifiche sulla sostenibilità delle fonti dei
    dati, su possibili bias e i modi appropriati per minimizzarli. Questi modelli
    dovranno poi essere monitorati per garantirne il corretto funzionamento
    durante tutto il loro periodo di utilizzo e dovranno essere registrati in un
    database europeo.
    Se i foundation models rientrano anche nella categoria di IA generativa
    (pensiamo al famoso ChatGPT), sono soggetti a ulteriori requisiti di
    trasparenza: è previsto l’obbligo di pubblicare un documento riassuntivo
    relativamente all’utilizzo, in fase di addestramento dei modelli, di dati che
    ricomprendano informazioni protette da normative sul copyright. Inizialmente
    era stato proposto un approccio molto più stringente, con un divieto di utilizzo
    di questo materiale nella creazione delle IA generative, ma questa linea è
    stata abbandonata, preferendo la trasparenza come metodo per proteggere i
    diritti degli individui favorendo al contempo l’innovazione.
    È interessante notare come sia stato dato sufficientemente rilievo anche al
    tema ambientale: viene infatti affidato all’AI Office il compito di fornire
    indicazioni e consigli sul consumo di energia connesso all’addestramento dei
    foundation model, mentre i produttori di questi sistemi devono rendere noti i
    consumi effettuati e il tempo necessario per questa fase di creazione dell’IA.
    In generale, i foundation model devono rispettare gli standard ambientali
    europei.
    Per quanto riguarda i modelli di IA generativa, all’ultimo minuto in fase di
    accordo nel Parlamento europeo è stata inserita la previsione per cui questi
    sistemi devono essere progettati e sviluppati rispettando la normativa europea
    e i diritti fondamentali, compresa la libertà di espressione.
    Cenni su altre questioni decise dal Parlamento nell’ultima bozza dell’AI Act
    Abbiamo visto fin qui le nuove previsioni specificamente introdotte per le
    general purpose AI e per l’IA generativa. Nella bozza di Regolamento oggetto
    dell’accordo politico del 27 aprile i parlamentari europei hanno però raggiunto
    una quadra anche su altre questioni dibattute relativamente alla disciplina
    dell’IA in generale:
    ● Il divieto di utilizzo di software di identificazione biometrica, previsto
    inizialmente solo per i casi di uso real-time, viene esteso anche
    all’utilizzo ex-post, tranne che nei casi di crimini gravi (per i quali è
    comunque necessaria un’approvazione preliminare);
    ● Viene vietato l’uso di software di IA per il riconoscimento delle emozioni
    nelle attività di polizia, di controllo delle frontiere, sui luoghi di lavoro e
    nei contesti educativi;
    ● Il divieto di polizia predittiva viene esteso agli illeciti amministrativi;
    ● Viene confermato che un sistema che rientra nell’elenco dell’Allegato III
    potrà essere considerato ad alto rischio solo se pone un rischio
    significativo per la salute, la sicurezza o i diritti fondamentali. Anche le
    IA utilizzate per gestire infrastrutture critiche come quelle energetiche o
    di distribuzione dell’acqua potranno essere classificate come ad alto
    rischio se comporteranno un pericolo ambientale grave. Allo stesso
    modo, rientreranno in questa categoria i sistemi di raccomandazione
    delle piattaforme online molto grandi (le “very large online platforms”
    così come definite nel Digital Services Act);
    ● I parlamentari hanno previsto delle ulteriori tutele per individuare bias
    quando i produttori di modelli di IA ad alto rischio possono trattare dati
    particolari (ad esempio l’orientamento sessuale o la fede religiosa);
    ● Vengono indicati dei principi generali che devono essere rispettati da
    tutti i modelli di IA: la sorveglianza e l’intervento umano, la robustezza
    tecnica e la sicurezza, la tutela della privacy e la data governance, la
    trasparenza, il benessere sociale e ambientale, la diversità, la non
    discriminazione e la correttezza.
    Le cinque considerazioni degli esperti
    Un gruppo internazionale di esperti sull’Intelligenza Artificiale fondato dalla
    ricercatrice Timnit Gebru e che ricomprende anche firmatari istituzionali come
    l’AI Now Institute, AlgorithmWatch, l’Algorithmic Justice League con Joy
    Buolamwini e tanti altri ha pubblicato un documento di indirizzo sulla
    regolamentazione delle general purpose AI nell’AI Act nel quale vengono
    enunciate cinque considerazioni che dovrebbero essere poste alla base della
    stesura del Regolamento per quanto riguarda queste specifiche IA.
    Nell’introduzione, gli esperti mettono però in guardia contro il rischio di
    adattamento eccessivo (“overfitting”) della nuova disciplina alle “questioni del
    giorno”: l’ingombrante presenza nel dibattito contemporaneo di applicazioni
    come ChatGPT, DALL-E 2, Bard, potrebbe far perdere di vista il fatto che
    queste sono solo “la punta dell’iceberg”, e che quindi il tema delle general
    purpose AI si estende ben oltre queste tecnologie oggi tanto discusse.
    L’obiettivo del documento è fornire invece delle linee guida di ampio respiro,
    che consentano di arrivare alla stesura di una regolamentazione resistente
    alla prova del tempo.
    Vediamo quindi nel dettaglio le cinque considerazioni degli esperti:
  4. La definizione delle general purpose AI deve tenere conto del fatto che
    si tratta di una categoria vasta e in continua espansione, per cui deve
    essere scritta in modo da potersi applicare a un ampio spettro di
    prodotti. Non è opportuno, quindi, focalizzarsi sulle IA generative di testi
    o immagini (quelle che oggi suscitano più scalpore), ma bisogna
    considerare anche IA forse meno affascinanti per l’opinione pubblica,
    come i complessi modelli statistici usati per prevedere rischi per la
    salute a partire da informazioni raccolte da aziende sanitarie, o quelli
    utilizzati per distribuire benefici pubblici grazie ad analisi di dati
    amministrativi. Queste ultime, infatti, presentano comunque
    caratteristiche tali da mettere a rischio la società tanto quanto le più
    famose IA generative. Bisognerebbe rendere la definizione di general
    purpose AI tecnologicamente neutra, e per fare questo il focus
    dovrebbe essere sul fatto che il modello sia talmente versatile da poter
    essere applicato a una moltitudine di usi diversi, anche ad alto rischio.
    Vedremo nel prossimo paragrafo che i parlamentari europei hanno
    trovato un accordo su questa definizione, introducendo anche una
    importante distinzione.
  5. I modelli di general purpose AI contengono dei rischi congeniti, ben
    evidenti fin dal loro utilizzo come base per tecnologie più complesse o
    per usi ulteriori. È ormai chiaro, infatti, che anche semplicemente il
    modo in cui si forma il dataset necessario all’”addestramento” degli
    algoritmi ha un impatto fondamentale su possibili bias della versione
    finale dell’IA, oltre al fatto che la raccolta stessa dei dati potrebbe
    essere fatta violando diritti e garanzie per gli individui, ad esempio
    formando un enorme database di immagini tramite sorveglianza di
    massa. È importante considerare anche se e come questi dati vengano
    conservati.
  6. Le general purpose AI dovrebbero essere regolamentate durante tutto il
    ciclo di vita del prodotto e le società che sviluppano questi modelli
    devono essere responsabili per il trattamento dei dati e per le scelte di
    progettazione che fanno. In molti casi, infatti, gli utenti o i fornitori finali
    dei sistemi di IA non hanno le capacità per accedere al modello alla
    base dell’applicazione o per comprenderne il funzionamento. Non
    prevedere regole per la fase di sviluppo significherebbe quindi
    consentire a chi progetta questi sistemi di ottenere profitti dal loro
    utilizzo in applicazioni successive, che usano le general purpose AI
    come base per il proprio funzionamento, senza però avere alcuna
    responsabilità per eventuali problemi derivanti dalla creazione del
    modello stesso.
  7. La normativa non deve contenere la possibilità per gli sviluppatori delle
    IA di esimersi da responsabilità con clausole contrattuali standard e
    disclaimer. Non seguire questo approccio significherebbe far ricadere il
    rischio sugli ultimi “anelli” della catena di produzione che, in molti casi,
    non hanno alcun margine di azione per mitigarlo. La possibilità di
    inserire una clausola di esonero da responsabilità in complessi
    documenti legali (come, ad esempio, nei Termini e Condizioni di utilizzo)
    potrebbe essere un disincentivo a comportamenti diligenti e prudenti in
    fase di progettazione delle general purpose AI.
  8. Il Regolamento dovrebbe evitare di prevedere dei metodi di valutazione
    e scrutinio delle general purpose AI troppo stringenti e predefiniti, che
    rischierebbero di diventare delle valutazioni meramente formali e
    superficiali. Ci troviamo, infatti, in una area di ricerca e sviluppo
    particolarmente attiva e dibattuta, che dovrebbe essere soggetta ad
    ampie consultazioni che ricomprendano anche ricercatori e altri attori
    non strettamente coinvolti nello sviluppo e nella commercializzazione di
    questi sistemi. Siamo di fronte a questioni che riguardano la società
    tutta, e quindi bisognerebbe consentire valutazioni e discussioni sulle
    general purpose AI coinvolgendo una moltitudine di soggetti, anche non
    tecnici o istituzionali. Secondo gli esperti, quindi, bisogna evitare di
    fissare parametri troppo rigorosi in questo contesto, favorendo invece
    dialoghi e riflessioni più ampie.
    Approcci diversi al mondo
    Finora i governi stanno adottando tre approcci diversi.
    A un’estremità dello spettro c’è la Gran Bretagna, che ha proposto un approccio
    “light-touch” senza nuove regole o organismi di regolamentazione, ma applicando le
    normative esistenti ai sistemi Ai. L’obiettivo è quello di stimolare gli investimenti e
    trasformare la Gran Bretagna in una “superpotenza dell’Ai”. L’America ha adottato un
    approccio simile, anche se l’amministrazione Biden sta ora cercando pareri pubblici
    su come potrebbe essere un regolamento.
    L’UE sta adottando una linea più dura, come sappiamo: la sua proposta di legge
    classifica i diversi usi dell’Ai in base al grado di rischio e richiede un monitoraggio e
    una divulgazione sempre più severi man mano che il grado di rischio aumenta, ad
    esempio, dai consigli musicali alle auto a guida autonoma. Alcuni usi dell’Ai sono del
    tutto vietati, come la pubblicità subliminale e la biometria a distanza. Le aziende che
    violano le regole saranno multate. Per alcuni critici, queste norme sono troppo
    restrittive ovvero è difficile applicarle per i sistemi general purpose, come le AI
    generative dove il rischio cambia a seconda dei contesti e applicazioni.
    Ma altri sostengono che sia necessario un approccio ancora più severo. I governi
    dovrebbero trattare le Ai come i farmaci, con un regolatore dedicato, test rigorosi e
    una pre-approvazione prima del rilascio al pubblico. E’ l’approccio della Cina che
    richiede alle aziende di registrare i prodotti di Ai e di sottoporli a un controllo di
    sicurezza prima del rilascio. Ma la sicurezza potrebbe essere una motivazione meno
    importante della politica: un requisito fondamentale è che i prodotti di Ai riflettano il
    “valore fondamentale del socialismo”.
    Questo certo è troppo per i valori occidentali.
    Di fondo però se l’Ai è una tecnologia importante come le automobili, gli aerei e i
    farmaci – e ci sono buone ragioni per credere che lo sia – allora avrà bisogno di
    nuove regole. Di conseguenza, il modello dell’UE è il più efficace al momento anche
    se il suo sistema di classificazione affronterà la sfida di doversi confrontare con la
    realtà complicata dell’innovazione.
    Potrebbe essere opportuno istituire un’autorità di regolamentazione specifica, così
    come potrebbero essere necessari trattati intergovernativi, simili a quelli che
    regolano le armi nucleari, qualora emergessero prove plausibili di un rischio
    esistenziale. Per monitorare tale rischio, i governi potrebbero formare un organismo
    sul modello del Cern, un laboratorio di fisica delle particelle, che potrebbe anche
    studiare la sicurezza e l’etica dell’ai, settori in cui le aziende non sono incentivate a
    investire quanto la società vorrebbe. Come propongono esperti come Gary Marcus.
    Un organismo internazionale è necessario non solo per uniformare le norme, almeno
    in Occidenti, così da dirigerle a favore dell’interesse generale senza danneggiare
    l’innovazione; ma anche per vigilare sul rispetto delle stesse (anche con audit, come
    avviene appunto per limitare la proliferazione nucleare) e per sviluppare strumenti e
    competenze di studio e controllo degli impatti dell’AI.
    Redazione
    Conclusioni
    Negli ultimi mesi il ritmo dello sviluppo tecnologico ha raggiunto una velocità
    allarmante, tanto che si è arrivati addirittura a un appello, pubblicato dal
    Future of Life Institute e firmato da Elon Musk e molte altre personalità
    importanti del settore, per chiedere di sospendere per almeno 6 mesi la
    creazione di IA più potenti di GPT-4.
    Si fa sentire quindi sempre di più la necessità di una regolamentazione forte di
    questi nuovi sistemi, ma la sfida è creare testi normativi che resistano alla
    prova del tempo: è ormai chiaro che anche nel giro di poche settimane
    potremmo assistere a cambiamenti radicali e a novità inimmaginabili. Per
    questo è importante seguire le indicazioni degli esperti, modellando le nuove
    regole sulla base di forti principi, rendendole così adattabili anche alle IA che
    verranno.
    fonte: AGENDA DIGITALE

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.