Intelligenza Artificiale:
condividere esperienze e linguaggi con le macchine
Già
numerosi i campi di applicazione per i sistemi dotati di Intelligenza
artificiale, ma i punti su cui porre attenzione non sono pochi: dalla
fase di istruzione del sistema, corretta ed etica, allo sviluppo di
un vissuto uomo-macchina che consenta di capire il senso e la logica
delle risposte. Mentre si tenta di definire un quadro normativo per
questi software che impatteranno sempre più su lavoro e società
di Stefano Uberti Foppa
L'Intelligenza Artificiale ha vissuto
sempre di un'attenzione a fasi alterne: è nata ambiziosissima nel
1955, quando il matematico John Mc Carthy costituì un gruppo di
scienziati informatici (con lui vi furono Marvin Minsky, Nathaniel
Rochester e Claude Shannon, che già studiavano il rapporto tra
tecnologia e pensiero) con l'obiettivo, avveniristico per quegli
anni, di esplorare i limiti delle macchine nella loro capacità di
simulare connessioni, apprendimenti e ragionamenti tipici dell'essere
umano. E' poi sparita per decenni, sviluppandosi a livello teorico e
sperimentale nei laboratori di ricerca, restando sottotraccia per
mancanza di capacità di calcolo computazionale che desse una qualche
possibilità di applicazione pratica. Oggi è risorta alle cronache,
sempre più pervasiva e integrata nei servizi e nelle applicazioni
che usiamo.
E' certo che l'Intelligenza Artificiale
sta già cambiando parecchi aspetti del nostro modo di vivere e della
nostra società e probabilmente in futuro li cambierà in meglio, ma
non senza contraccolpi (si dice “disruption”). Perchè
l'Intelligenza Artificiale, come tutte le grandi innovazioni
tecnologiche avvenute anche in passato, non è una tecnologia a sé,
ma è trasversale e integrabile in ogni cosa, sovverte modelli
produttivi, sociali e comportamentali, impatta sull'economia e,
soprattutto nel caso di una tecnologia che vuole, attraverso tecniche
di autoapprendimento, avere una simulazione di pensiero umano, apre
innumerevoli questioni di tipo etico e del ruolo che potrà avere
nello sviluppo collettivo.
I campi di applicazione sono già oggi
numerosi: proprio di recente l'Esa, (European Space Agency) ha
annunciato a breve il lancio di PhiSat, un satellite dotato di
software di Intelligenza Artificiale che rappresenta un nuovo livello
nell'osservazione della terra dallo spazio. Scatterà, come altri
satelliti, immagini del nostro pianeta, ma prima di inviarle a terra
le analizzerà in rapporto alla loro efficacia scientifica (sistema
istruito in base alle esigenze dei ricercatori e dei progetti in
corso). Questo approccio serve per ottimizzare la trasmissione
dell'enorme quantità di dati legati alle immagini e per affinare
sempre di più la “formazione” dei software di machine learning a
trattare dati davvero utili alla ricerca scientifica. E' la direzione
verso cui andranno sempre più i satelliti che gravitano attorno alla
terra, destinati ai più svariati scopi: di sicurezza nazionale,
spionaggio militare, prevenzione ambientale e del territorio, analisi
meteorologica, cambiamento climatico e così via. Si tratta dei
cosiddetti Big data, che solo le tecniche di Intelligenza Artificiale
potranno rendere davvero utili e fruibili, analizzandoli di continuo,
eliminando quelli inutili, affinando, da questi dati, nuovi modelli
logici (i cosiddetti pattern) per migliorare le risposte alle più
disparate esigenze.
![]() |
I due CubeSats della missione FSSCat. Su uno di questi si poggerà PhiSat |
Ovviamente l'Intelligenza Artificiale è
entrata anche nel mondo business. Nelle aziende, ad esempio,
integrata nelle soluzioni software orientate a ottimizzare e rendere
efficienti l'organizzazione e le attività sul mercato, per
intercettare e capire meglio le esigenze e le aspettative delle
diverse comunità di clienti con differenti profili, migliorando la
capacità di proposta di nuovi prodotti e servizi. Ed è entrata
anche nella vita di tutti i giorni: la
diffusione nelle città, nelle case, in ogni luogo e in ogni oggetto
di sensori che rilevano e trasmettono dati (Internet of Things), si
presta allo sviluppo di sistemi intelligenti di analisi, basati su AI
e machine learning, per aiutare le persone nelle loro attività
quotidiane e nella loro vita. La società di ricerche di
mercato IDC ha di recente stimato che la spesa aziendale in
sistemi di AI, cognitive computing e machine learning, raggiungerà
nel 2022 i 77,6 miliardi di dollari a livello mondiale, oltre tre
volte il valore di 24,2 miliardi di dollari rilevato nel 2018. Il
comparto retail (la distribuzione) e la Sanità saranno quelli a
maggiore crescita.
Istruire le macchine: non è un
lavoro semplice
Con le tecniche di Machine learning
(macchine che migliorano da un apprendimento continuo la loro
capacità decisionale) la soluzione corretta di un problema è
strettamente legata alla fase di istruzione del sistema ed è in
rapporto alla sua capacità di apprendere sulla base di un algoritmo
generico. Ma la percentuale di errore è fisiologica, esisterà
sempre in quanto si tratta di algoritmi basati su ragionamenti
probabilistici e statistici. La certezza manca, anche se i livelli di
errore sono molto spesso inferiori a quelli umani. E' qui che si apre
il dibattito etico: sia nell'istruzione dei sistemi, sia
nell'accettazione delle soluzioni proposte. Nel primo caso, istruire
un sistema di machine learning può essere volutamente condizionante
o dovuto a involontarietà. L'attenzione nell'istruire la macchina è
una fase critica e fondamentale, ma non ancora ben padroneggiata. In
ambito bancario, ad esempio, se si è istruito il sistema ad
accettare le richieste di mutuo senza accorgersi che la maggior parte
di quelle accettate provenivano da persone di sesso maschile, il
sistema recepirà questa correlazione, svilupperà un'intelligenza
orientata a considerare tra i parametri primari di accettazione
l'identità sessuale e quindi tenderà a bocciare maggiormente la
richiesta se proveniente dal sesso femminile. Ed ecco realizzata la
discriminazione.
Un rapporto di fiducia da costruire
Nel secondo caso, accettare cioè le
soluzioni proposte dal sistema, non è semplice, fa parte di quella
costruzione di un nuovo linguaggio che connoterà il lavoro
dell'essere umano in un rapporto sempre più stretto con sistemi di
Intelligenza Artificiale. Di recente Francesca Rossi, scienziata di
livello internazionale (nonché AI Ethics Global Leader di IBM),
presente nei principali comitati di etica e sviluppo
dell'Intelligenza Artificiale e al centro di un recente incontro
presso la Fondazione Feltrinelli di Milano, ha sostenuto come
oggi si debba ancora costruire del tutto un concetto di fiducia
uomo-macchina, evitando gli estremi: il grande scetticismo o
l'eccessiva fede. Il medico, ad esempio, deve saper porre la giusta
domanda alla macchina, ma il sistema deve anche essere in grado di
spiegare perchè e come è arrivato a una determinata decisione
proposta. Non c'è mai stata, fino ad oggi, tra uomo e macchina, una
condivisione di valori, di esperienza, di vissuto reciproco, ed è
per questo che i sistemi di machine learning sono ancora “black
box”, sistemi opachi non in grado di spiegare all'essere umano
perchè suggeriscono determinate soluzioni. Questo è un punto
considerato centrale oggi, dagli scienziati, per uno sviluppo
corretto del concetto di “Augmented intelligence”, l'intelligenza
aumentata che si integrerà alla vita, sia professionale sia
personale, di ognuno di noi nei prossimi anni, perchè è soprattutto
su questa direttrice che si prevede si svilupperanno i software di
Intelligenza Artificiale.
![]() |
Francesca Rossi, AI Ethics Global Leader, IBM |
Saper lavorare con queste tecnologie
rappresenterà per le persone, ad ogni livello professionale, la vera
sfida di riqualificazione, formazione, crescita di competenze. Come
modificare, tenendo conto dei sistemi di AI, i propri processi
decisionali? Come verificare se il percorso di formazione e
apprendimento della macchina è stato effettuato in modo corretto,
non discriminatorio e di valore? E secondo quali obiettivi: di
qualità, di quantità/produttività, di sicurezza, ecc? Le questioni
sono innumerevoli.
Istituzioni al lavoro
Proprio per questi motivi è
fondamentale capire qual è il punto di partenza nello sviluppo e
nell'utilizzo di questi sistemi. L'Unione Europea, presentando
prima dell'estate un codice etico di sette principi sull'Intelligenza
Artificiale, ha ribadito, attraverso la Commissaria al digitale
Maryia Gabriel, che “al centro si trova l'uomo, è l'uomo che
domanda; questo è l'approccio europeo”. Dopo una fase di messa a
punto, sarà poi compito dell'Europa, ha dichiarato la Commissione,
attivarsi perchè questa piattaforma di sviluppo tecnologico e di
linee guida etiche sia adottata dal maggior numero di paesi nel
mondo, dove gli approcci, se pensiamo ad esempio ad Usa e Cina, sono
ad oggi meno sensibili al tema dell'impatto etico. Tra i punti del
codice troviamo: un controllo e un indirizzo costante da parte delle
istituzioni per migliorare l'agire umano e i diritti, non per ridurre
l'autonomia; algoritmi sicuri, affidabili e trasparenti; costante
informazione alle persone circa l'utilizzo dei propri dati personali
da parte di questi sistemi; tracciabilità, non discriminazione e
garanzia della diversità; meccanismi di recupero umano a garanzia
del controllo sugli algoritmi; orientamento al benessere sociale ed
ambientale... Sono i primi tentativi di definire un quadro di
riferimento di uno sviluppo tecnologico tumultuoso ma che dovremo
però riuscire a indirizzare sempre più a misura di essere umano.
Nessun commento:
Posta un commento