ANALISI E CURIOSITA ‘- Accesso ai dati, sviluppo delle competenze e fiducia nella tecnologia: le tre sfide da vincere per sfruttare appieno il potenziale dell’intelligenza artificiale

Businessman using tablet and la

Accesso ai dati, sviluppo delle competenze e
fiducia nella tecnologia: le tre sfide da
vincere per sfruttare appieno il potenziale
dell’intelligenza artificiale

di Michelle Crisantemi

Nel 2016 Geoffrey Hinton, informatico britannico considerato tra i padri
fondatori del Deep Learning, disse che negli Stati Uniti non sarebbe stato più
necessario formare radiologi perché da lì a cinque anni le macchine
avrebbero svolto quel lavoro meglio degli umani. “Ma la realtà è che oggi non
abbiamo abbastanza radiologi e che l’Intelligenza Artificiale ha ancora un
impatto marginale in questo settore”, spiega Jim Bessen, Executive Director
della Technology & Policy Research Initiative alla Boston University School of
Law.
Anche se nell’immaginario collettivo quando si parla di Intelligenza Artificiale
(AI) si pensa spesso a macchine super intelligenti che si contrappongono
all’uomo per intelligenza e capacità, la realtà è ben diversa. Infatti, siamo
“lontani almeno 80 anni da arrivare ad applicazioni di un’intelligenza artificiale
generale”, spiega Daron Acemoglu, Professore di economia al MIT, il
Massachusetts Institute of Technology.
Nonostante questo, le persone guardano ancora con diffidenza l’Intelligenza
Artificiale e lo fanno, principalmente, per due motivi: non si fidano di come
aziende e governi raccolgono e utilizzano i dati personali o temono di perdere
il posto di lavoro a causa dell’AI.
Promuovere la fiducia nella tecnologia è essenziale allo sviluppo del
mercato dell’AI. Per raggiungere questo scopo, tuttavia, i regolatori si trovano
davanti alla sfida di affrontare le disuguaglianze – sociali e non – causate sia
da uno squilibrio nell’accesso ai dati necessari per realizzare applicazioni di
AI, sia dall’impatto che la tecnologia ha sui lavoratori e sul mercato del lavoro.
Di questi temi si è parlato nel corso della prima giornata di discussioni
nell’ambito della conferenza internazionale sull’Intelligenza Artificiale
promossa dall’Ocse, l’Organizzazione per la cooperazione e lo sviluppo
economico, in programma dal 21 al 25 febbraio, che chiama a raccolta
esponenti del mondo accademico, politico e industriale per affrontare i temi
caldi che riguardano l’AI, tra promesse ancora non pienamente realizzate,
possibilità e sfide legate al cambiamento.
Il monopolio di pochi giganti polarizza il mercato
Una delle sfide più importanti riguarda l’accesso ai dati, che ha anche
pesanti ripercussioni sulla composizione del mercato.
Le aziende che ad oggi sono in grado di sfruttare grandi pool di dati per
applicazioni di AI riescono infatti a sbloccare vantaggi competitivi che gli
forniscono una posizione di mercato più forte rispetto alle altre: si tratta di
aziende con un grado di digitalizzazione in media più elevato, capaci di
attirare i migliori talenti e maggiormente internazionalizzate rispetto a quelle
aziende che ancora si trovano indietro nello sviluppo di strategie di data
analysis.
Questo ha portato negli anni a una polarizzazione del mercato, con
l’aumento del divario di produttività tra chi utilizza l’AI e i non adopter, in un
modello del tipo “winner-takes-all” che, in economie caratterizzate dalla
prevalenza di piccole e medie imprese, rischia di compromettere gli equilibri di
mercato, oltre ad avere ripercussioni sociali non trascurabili.
“Quello che è cambiato, rispetto alle tecnologie del passato, è che prima le
grandi aziende erano disposte a rendere disponibili al mercato, attraverso
delle licenze, le loro soluzioni. Con l’AI, invece, vediamo la concentrazione
del potere in poche grandi aziende, che tutelano gelosamente la loro
proprietà intellettuale”, spiega Bessen.
Una situazione a cui hanno contribuito, secondo Bessen, regole più stringenti
in materia di proprietà intellettuale – che hanno introdotto frizioni nel
trasferimento delle conoscenze – e anche le normative vigenti in materia di
privacy e trattamento dei dati, come il regolamento europeo (GDPR), che se
da un lato introduce criteri a tutela dei consumatori, dall’altro richiede uno
sforzo maggiore alle aziende per assicurare la compliance.
Uno sforzo che le grandi aziende hanno assorbito con più facilità rispetto alle
PMI e alle start-up, sia perché avevano già in casa le competenze necessarie
per poter gestire la compliance, oppure perché avevano a disposizione delle
risorse maggiori per cercarle esternamente.
“Quando si alza il livello del cost of compliance, le grandi aziende possono
affrontarlo mentre le piccole aziende hanno più difficoltà, quindi si sta dando
un vantaggio competitivo alle grandi imprese“, commenta Bessen.
Cosa possono fare i policy maker per democratizzare
l’AI?
Una situazione che ha portato a una riduzione della mobilità dei lavoratori
e a un crescente divario tra le condizioni lavorative e la composizione della
forza lavoro tra le aziende in grado di implementare strategie basate
sull’analisi dei dati e quelle che ancora non hanno pienamente accesso alle
applicazioni di AI.
Democratizzare l’accesso alla tecnologia è però importante anche per
promuovere lo sviluppo di applicazioni di AI: è proprio a causa dell’adozione
ancora troppo limitata, infatti, che non è ancora possibile quantificare gli effetti
dell’utilizzo dell’Intelligenza Artificiale in molti ambienti, soprattutto per quanto
riguarda l’aumento di produttività.
Ma come si può “democratizzare” una tecnologia? È in questa direzione che si
sta muovendo l’Unione Europea, con diverse proposte legislative e azioni di
policy volte proprio a creare un quadro di riferimento chiaro che stimoli, da un
lato, la fiducia nei cittadini nei confronti dell’AI e, dall’altro, che metta in
condizioni le PMI – che rappresentano il 99% del sistema imprenditoriale
dell’Unione – di accedere alla tecnologia e sperimentare applicazioni che
portino valore aggiunto.
“Da una nostra indagine abbiamo riscontrato che per il 65% dei business la
mancanza di fiducia nell’AI rappresenta una delle principali barriere di
accesso. L’AI ha questa reputazione di tecnologia che può portare a
violazioni di diritti fondamentali e della sicurezza nazionale”, commenta Lucilla
Sioli, che all’interno del Direttorato Generale della Commissione Europea
dedicato alle Reti di comunicazione, dei contenuti e delle tecnologie (DG
Connect) dirige la divisione dedicata proprio all’Intelligenza Artificiale e
l’Industria digitale.
Ed è proprio per superare queste barriere e, al tempo stesso, fornire un
quadro normativo chiaro, che guidi lo sviluppo della tecnologia e protegga i
diritti fondamentali dei cittadini, che la Commissione Europea ha presentato il
suo regolamento sull’Intelligenza Artificiale, il primo nel suo genere.
“Quello che stiamo facendo è costruire delle regole per governare l’utilizzo
dell’AI in alcuni contesti rischiosi. Solamente in questi contesti pensiamo che
le regole dovrebbero applicarsi”, continua.
Il regolamento, infatti, si applica ai sistemi di AI commercializzati all’interno
dell’Unione. Una scelta presa, spiega Sioli, proprio per non limitare la ricerca
sull’Intelligenza Artificiale ma, al tempo stesso, fornire indicazioni chiare alle
imprese, per evitare che lavorino a soluzioni che, una volta messe sul
mercato, siano invece considerate rischiose per i cittadini.
Ma fornire strumenti di tutela non è sufficiente per garantire lo sviluppo di un
ecosistema di innovazione europeo basato sull’Intelligenza Artificiale perché
se è vero che la fiducia è fondamentale, altrettanto importanti sono
consapevolezza, accesso ai servizi e alle competenze necessarie per poter
costruire e utilizzare applicazioni. In questi ambiti, la Commissione Europea si
sta muovendo in diverse direzioni:
● diffondere la consapevolezza dei vantaggi del digitale e dell’AI tra le
imprese europee, aiutando le PMI ad essere più competitive e
promuovendo la contaminazione di idee e il trasferimento del know-how
tra i Paesi membri. A questi scopi si rivolge la rete dei Digital Innovation
Hub europei, i poli di innovazione digitale europei
● favorire l’accesso delle PMI ai dati, creando un mercato unico europeo
dei dati (Data Act)
● creazione di strutture di sperimentazione e testing per testare
l’utilizzo di applicazioni di AI in ambienti fisici
● favorire la creazione delle competenze rilevanti per l’analisi dei dati e
l’utilizzo delle applicazioni di AI nei diversi settori dell’economia
Per quanto riguarda le competenze, l’Unione Europea sta portando avanti
diverse policy di intervento – tra cui rientra l’Agenda per le competenze,
parte integrante della strategia industriale europea – rivolte sia alla formazione
delle future generazioni di lavoratori che ai percorsi di reskilling rivolti alla
forza lavoro già attiva.
Competenze e formazione: occorre fare di più, ma anche
essere realistici
Del bisogno di cambiare approccio alla formazione si discute da tempo. La
digitalizzazione dell’economia e della società ha accelerato i cambiamenti del
mercato del lavoro e delle competenze richieste: il focus si sposta non solo
sulle competenze tecniche necessarie per sfruttare le nuove tecnologie, ma
anche su quelle competenze interpersonali (le cosiddette soft skill) necessarie
a navigare in un mercato dove con l’automazione di task a basso valore
cognitivo restituisce importanza a quelle capacità che ci rendono umani, come
le capacità di comunicazione, collaborazione, problem solving e molto altro.
Competenze che diventano trasversali alle professioni, proprio perché le
tecnologie digitali, tra cui l’AI, trovano applicazioni in diversi contesti lavorativi.
“La sfida è cambiare l’approccio all’insegnamento: veniamo da una realtà
dove la scuola è il principale educatore che fornisce delle competenze che
pensavamo potessero bastare per una vita intera. Adesso vediamo che non è
così, le competenze stanno cambiando e quindi abbiamo bisogno di nuove
istituzioni e nuovi modi per impartire una formazione continua“, spiega Jim
Bessen.
Si tratta quindi di ripensare ai curricula di studio rivolti ai giovani, inserendo
percorsi base di programmazione anche in quei percorsi di studio non
STEM, proprio perché le competenze richieste per utilizzare sistemi di AI e ML
diventeranno indispensabili in un numero sempre maggiore di professioni.
“Sta anche a noi indirizzare i giovani verso quei percorsi accademici che
risponderanno alle esigenze future del mercato del lavoro e possiamo farlo,
ad esempio, promuovendo borse di studio legate all’AI anche in quei percorsi
non STEM, come stiamo già facendo, continuando a lavorare per offrire
opportunità di internship nel digitale e, soprattutto, migliorare nella diversità
di genere“, spiega Sioli.
Sulla necessità di fare di più per attrarre anche la forza lavoro femminile nelle
materie STEM insiste anche Francesca Lazzeri, Principle Data Scientist
Manager per Microsoft e Adjunct Professor per la Columbia University.
“Non è solo una questione di inclusione, abbiamo bisogno di talenti per lo
sviluppo delle applicazioni di AI e ML. Dobbiamo quindi lavorare per
rimuovere quelle convinzioni che queste materie non siano accessibili ad
alcuni gruppi sociali, perché nel futuro ci saranno molti ruoli e professioni
legate all’utilizzo di queste tecnologie”, commenta.
Ma questo non è sufficiente, perché se da un lato vanno intensificati anche i
percorsi di reskilling rivolti alla forza lavoro già impiegata, va anche affrontata
una realtà un più scomoda: non tutti i lavoratori possono essere
riqualificati.
Dagli studi effettuati sul mercato del lavoro statunitense, emerge che sono i
lavoratori di mezza età, quelli più vicini all’età del pensionamento, tra le
categorie più esposte alla perdita del lavoro come conseguenza
dell’automazione di alcune task.
“Dobbiamo essere realistici su quanto effettivamente possiamo fare per
questi lavoratori. Non tutti i lavoratori possono essere riqualificati e per coloro
che non possiamo riqualificare dobbiamo prevedere delle reti sociali di
sicurezza, delle policy che li tutelino”, commenta Daron Acemoglu.
AI e diritti: come riconciliare la tecnologia con il
processo democratico?
Secondo Acemoglu, infatti, per quanto la formazione all’utilizzo delle
tecnologie digitali e dell’AI sia importante viene troppo spesso vista come il
fattore chiave per guidare il corretto utilizzo della tecnologia.
“La formazione è troppo spesso una scusa dietro cui si nascondono molti
economisti per ‘giustificare’ l’uso scorretto dell’Intelligenza Artificiale”, spiega.
Un esempio fatto dal Professore – che in una recente pubblicazione ha
analizzato i rischi legati all’utilizzo dell’AI, tra cui anche i possibili danni al
processo democratico – riguarda l’utilizzo dei social media. Se è vero che
l’educazione è importante per rendere la popolazione consapevole dei rischi
che queste piattaforme possono comportare al dibattito democratico, è
altrettanto vero che da sola l’educazione non basta.
Pensiamo, ad esempio, agli algoritmi che servono a connettere persone con
interessi comuni o a sponsorizzare prodotti, pagine e gruppi in base al
comportamento dell’utente. Si creano spesso vere e proprie camere dell’eco,
dove l’utente viene esposto allo stesso messaggio (giusto o sbagliato che sia),
trovando negli utenti intorno a lui la conferma dell’esattezza del messaggio
stesso.
Ed è in tali contesti che è semplicistico e riduttivo, secondo il Acemoglu,
indicare l’educazione all’uso delle tecnologie come unico strumento di
risoluzione di queste frizioni.
“Pensare che attraverso piccoli cambiamenti possiamo cambiare aziende
come Meta è una fantasia. Non basta l’educazione per tutelare il processo
democratico, dobbiamo cambiare i modelli di business”, spiega.
Modelli che devono distaccarsi dal marketing basato sulla target dell’utente
con campagne pubblicitarie mirate. Una percorso necessario per riportare
l’Intelligenza Artificiale lungo il corretto cammino, riprendendo quella
promessa che, secondo Acemoglu, è ad oggi disattesa: la promessa di uno
sviluppo umano-centrico, dove le tecnologie sono a servizio dell’uomo,
senza sostituirlo, ma complementandolo ed esaltandone le qualità che lo
rendono umano.
“È un cambiamento che i business non faranno da soli, ma che i regolatori
devono imporre. Che noi dobbiamo imporre. Tecnologia e formazione devono
incontrarsi a metà strada, non si tratta di cambiare l’adozione della tecnologia,
quanto di cambiare la tecnologia stessa e il modo con cui la utilizziamo”,
conclude.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.