martedì 22 ottobre 2019


Intelligenza Artificiale: condividere esperienze e linguaggi con le macchine


Già numerosi i campi di applicazione per i sistemi dotati di Intelligenza artificiale, ma i punti su cui porre attenzione non sono pochi: dalla fase di istruzione del sistema, corretta ed etica, allo sviluppo di un vissuto uomo-macchina che consenta di capire il senso e la logica delle risposte. Mentre si tenta di definire un quadro normativo per questi software che impatteranno sempre più su lavoro e società


di Stefano Uberti Foppa



L'Intelligenza Artificiale ha vissuto sempre di un'attenzione a fasi alterne: è nata ambiziosissima nel 1955, quando il matematico John Mc Carthy costituì un gruppo di scienziati informatici (con lui vi furono Marvin Minsky, Nathaniel Rochester e Claude Shannon, che già studiavano il rapporto tra tecnologia e pensiero) con l'obiettivo, avveniristico per quegli anni, di esplorare i limiti delle macchine nella loro capacità di simulare connessioni, apprendimenti e ragionamenti tipici dell'essere umano. E' poi sparita per decenni, sviluppandosi a livello teorico e sperimentale nei laboratori di ricerca, restando sottotraccia per mancanza di capacità di calcolo computazionale che desse una qualche possibilità di applicazione pratica. Oggi è risorta alle cronache, sempre più pervasiva e integrata nei servizi e nelle applicazioni che usiamo.
E' certo che l'Intelligenza Artificiale sta già cambiando parecchi aspetti del nostro modo di vivere e della nostra società e probabilmente in futuro li cambierà in meglio, ma non senza contraccolpi (si dice “disruption”). Perchè l'Intelligenza Artificiale, come tutte le grandi innovazioni tecnologiche avvenute anche in passato, non è una tecnologia a sé, ma è trasversale e integrabile in ogni cosa, sovverte modelli produttivi, sociali e comportamentali, impatta sull'economia e, soprattutto nel caso di una tecnologia che vuole, attraverso tecniche di autoapprendimento, avere una simulazione di pensiero umano, apre innumerevoli questioni di tipo etico e del ruolo che potrà avere nello sviluppo collettivo.
I campi di applicazione sono già oggi numerosi: proprio di recente l'Esa, (European Space Agency) ha annunciato a breve il lancio di PhiSat, un satellite dotato di software di Intelligenza Artificiale che rappresenta un nuovo livello nell'osservazione della terra dallo spazio. Scatterà, come altri satelliti, immagini del nostro pianeta, ma prima di inviarle a terra le analizzerà in rapporto alla loro efficacia scientifica (sistema istruito in base alle esigenze dei ricercatori e dei progetti in corso). Questo approccio serve per ottimizzare la trasmissione dell'enorme quantità di dati legati alle immagini e per affinare sempre di più la “formazione” dei software di machine learning a trattare dati davvero utili alla ricerca scientifica. E' la direzione verso cui andranno sempre più i satelliti che gravitano attorno alla terra, destinati ai più svariati scopi: di sicurezza nazionale, spionaggio militare, prevenzione ambientale e del territorio, analisi meteorologica, cambiamento climatico e così via. Si tratta dei cosiddetti Big data, che solo le tecniche di Intelligenza Artificiale potranno rendere davvero utili e fruibili, analizzandoli di continuo, eliminando quelli inutili, affinando, da questi dati, nuovi modelli logici (i cosiddetti pattern) per migliorare le risposte alle più disparate esigenze.

I due CubeSats della missione FSSCat. Su uno di questi si poggerà PhiSat

Ovviamente l'Intelligenza Artificiale è entrata anche nel mondo business. Nelle aziende, ad esempio, integrata nelle soluzioni software orientate a ottimizzare e rendere efficienti l'organizzazione e le attività sul mercato, per intercettare e capire meglio le esigenze e le aspettative delle diverse comunità di clienti con differenti profili, migliorando la capacità di proposta di nuovi prodotti e servizi. Ed è entrata anche nella vita di tutti i giorni: la diffusione nelle città, nelle case, in ogni luogo e in ogni oggetto di sensori che rilevano e trasmettono dati (Internet of Things), si presta allo sviluppo di sistemi intelligenti di analisi, basati su AI e machine learning, per aiutare le persone nelle loro attività quotidiane e nella loro vita. La società di ricerche di mercato IDC ha di recente stimato che la spesa aziendale in sistemi di AI, cognitive computing e machine learning, raggiungerà nel 2022 i 77,6 miliardi di dollari a livello mondiale, oltre tre volte il valore di 24,2 miliardi di dollari rilevato nel 2018. Il comparto retail (la distribuzione) e la Sanità saranno quelli a maggiore crescita.

Istruire le macchine: non è un lavoro semplice
Con le tecniche di Machine learning (macchine che migliorano da un apprendimento continuo la loro capacità decisionale) la soluzione corretta di un problema è strettamente legata alla fase di istruzione del sistema ed è in rapporto alla sua capacità di apprendere sulla base di un algoritmo generico. Ma la percentuale di errore è fisiologica, esisterà sempre in quanto si tratta di algoritmi basati su ragionamenti probabilistici e statistici. La certezza manca, anche se i livelli di errore sono molto spesso inferiori a quelli umani. E' qui che si apre il dibattito etico: sia nell'istruzione dei sistemi, sia nell'accettazione delle soluzioni proposte. Nel primo caso, istruire un sistema di machine learning può essere volutamente condizionante o dovuto a involontarietà. L'attenzione nell'istruire la macchina è una fase critica e fondamentale, ma non ancora ben padroneggiata. In ambito bancario, ad esempio, se si è istruito il sistema ad accettare le richieste di mutuo senza accorgersi che la maggior parte di quelle accettate provenivano da persone di sesso maschile, il sistema recepirà questa correlazione, svilupperà un'intelligenza orientata a considerare tra i parametri primari di accettazione l'identità sessuale e quindi tenderà a bocciare maggiormente la richiesta se proveniente dal sesso femminile. Ed ecco realizzata la discriminazione.

Un rapporto di fiducia da costruire
Nel secondo caso, accettare cioè le soluzioni proposte dal sistema, non è semplice, fa parte di quella costruzione di un nuovo linguaggio che connoterà il lavoro dell'essere umano in un rapporto sempre più stretto con sistemi di Intelligenza Artificiale. Di recente Francesca Rossi, scienziata di livello internazionale (nonché AI Ethics Global Leader di IBM), presente nei principali comitati di etica e sviluppo dell'Intelligenza Artificiale e al centro di un recente incontro presso la Fondazione Feltrinelli di Milano, ha sostenuto come oggi si debba ancora costruire del tutto un concetto di fiducia uomo-macchina, evitando gli estremi: il grande scetticismo o l'eccessiva fede. Il medico, ad esempio, deve saper porre la giusta domanda alla macchina, ma il sistema deve anche essere in grado di spiegare perchè e come è arrivato a una determinata decisione proposta. Non c'è mai stata, fino ad oggi, tra uomo e macchina, una condivisione di valori, di esperienza, di vissuto reciproco, ed è per questo che i sistemi di machine learning sono ancora “black box”, sistemi opachi non in grado di spiegare all'essere umano perchè suggeriscono determinate soluzioni. Questo è un punto considerato centrale oggi, dagli scienziati, per uno sviluppo corretto del concetto di “Augmented intelligence”, l'intelligenza aumentata che si integrerà alla vita, sia professionale sia personale, di ognuno di noi nei prossimi anni, perchè è soprattutto su questa direttrice che si prevede si svilupperanno i software di Intelligenza Artificiale.
Francesca Rossi, AI Ethics Global Leader, IBM

Saper lavorare con queste tecnologie rappresenterà per le persone, ad ogni livello professionale, la vera sfida di riqualificazione, formazione, crescita di competenze. Come modificare, tenendo conto dei sistemi di AI, i propri processi decisionali? Come verificare se il percorso di formazione e apprendimento della macchina è stato effettuato in modo corretto, non discriminatorio e di valore? E secondo quali obiettivi: di qualità, di quantità/produttività, di sicurezza, ecc? Le questioni sono innumerevoli.

Istituzioni al lavoro
Proprio per questi motivi è fondamentale capire qual è il punto di partenza nello sviluppo e nell'utilizzo di questi sistemi. L'Unione Europea, presentando prima dell'estate un codice etico di sette principi sull'Intelligenza Artificiale, ha ribadito, attraverso la Commissaria al digitale Maryia Gabriel, che “al centro si trova l'uomo, è l'uomo che domanda; questo è l'approccio europeo”. Dopo una fase di messa a punto, sarà poi compito dell'Europa, ha dichiarato la Commissione, attivarsi perchè questa piattaforma di sviluppo tecnologico e di linee guida etiche sia adottata dal maggior numero di paesi nel mondo, dove gli approcci, se pensiamo ad esempio ad Usa e Cina, sono ad oggi meno sensibili al tema dell'impatto etico. Tra i punti del codice troviamo: un controllo e un indirizzo costante da parte delle istituzioni per migliorare l'agire umano e i diritti, non per ridurre l'autonomia; algoritmi sicuri, affidabili e trasparenti; costante informazione alle persone circa l'utilizzo dei propri dati personali da parte di questi sistemi; tracciabilità, non discriminazione e garanzia della diversità; meccanismi di recupero umano a garanzia del controllo sugli algoritmi; orientamento al benessere sociale ed ambientale... Sono i primi tentativi di definire un quadro di riferimento di uno sviluppo tecnologico tumultuoso ma che dovremo però riuscire a indirizzare sempre più a misura di essere umano.


Nessun commento:

Posta un commento

  Intelligenza Artificiale: percorsi di implementazione, ostacoli da rimuovere  Uno studio IBM, su un campione internazionale di oltre 4500 ...