Ehi IA, sei buona o cattiva?

Da tempo ormai, l’intelligenza artificiale (IA) è divenuta parte integrante del nostro vivere quotidiano. Si pensi agli assistenti virtuali personali creati dalle maggiori aziende tecnologiche quali Google (Google Assistant), Apple (Siri), Amazon (Alexa) e Microsoft (Cortana) che organizzano la nostra agenda su nostra indicazione, al GPS che ci guida nel traffico o all’uso dei traduttori automatici multilingua. Oltre ad aiutarci nelle piccole cose quotidiane, l’intelligenza artificiale può essere impiegata nelle strutture sanitarie e nelle apparecchiature per aiutare i medici nelle diagnosi più accurate non invasive e a personalizzare le cure per i pazienti. Tutto ciò lascia intendere come il futuro porrà maggiore importanza sull’utilizzo dell’IA affiancandola all’uomo.

Così sarà. Visto il programma europeo, presentato lo scorso 25 aprile dalla commissione europea, con cui si cerca di rafforzare la competitività dell’Europa in questo settore. Infatti, entro il 2020, saranno stanziati 20 miliardi di euro in ricerca e sviluppo nel campo dell’intelligenza artificiale.

Spesso si fa riferimento all’ascesa dell’automatizzazione dei processi, lavorativi e non, alla sostituzione dell’uomo con la macchina. Se in parte può essere vero, non bisogna sottovalutare come l’impiego delle macchine possa abbassare i consumi energetici, ottimizzando la gestione delle risorse dei processi, insomma, riducendo la presenza dell’umano errore.

Un importante passo lo sta già facendo Google che il mese scorso ha presentato, ancora in fase sperimentale, Google Duplex, in cui un’intelligenza artificiale sarà in grado di ordinare cibo o prendere appuntamenti  parlando come fosse una persona reale. 

Per chi si fosse perso la presentazione di Google Duplex, durante il Google I/O,  qui  trovate un estratto dell’evento in inglese.

Liberi sì, ma non schiavi

Di contro, uno dei rischi più grandi è affidare responsabilità alle macchine, dovendo, invece, ricordare che a programmare i loro algoritmi sia stato l’uomo.
Liberi sì, ma non schiavi. Motivo per cui anche nel team-up uomo-macchina la responsabilità dovrà essere sempre e solo dell’uomo.

Di questo parere è Luciano Floridi, docente di filosofia ed etica dell’informazione, University of Oxford e Direttore del Digital Ethics Lab dell’Oxford Internet Institute, che aggiunge alla lista dei problemi uomo-intelligenza artificiale “la manipolazione degli esseri umani da parte degli algoritmi”.

“Da sempre l’essere umano ha ben presente la differenza tra ciò che vuole e ciò che è bene. Immaginiamo Mario, nascerà tra cinque anni. Crescerà in un mondo popolato di algoritmi. Da quando è nato è sempre stato a contatto con loro. Gli hanno sempre consigliato cosa comprare, dove andare in vacanza, cosa scegliere al ristorante. Il rischio è che Mario sarà plasmato dagli algoritmi. Questo problema dell’influenzabilità di massa è moto serio e ben poco trattato finora.  Se ciò accadesse, si soffocherebbe una caratteristica dell’uomo: l’apertura all’indecisione, all’incertezza.” Mentre, il profilo generato dall’algoritmo è la negazione della nostra consapevolezza, la scelta.

Proprio per la potenzialità di addestramento di una IA che possediamo, i ricercatori del MIT hanno creato Norman,in onore del protagonista di Psycho Norman Bates, la prima intelligenza artificiale psicopatica, dimostrando come possono i dati con cui si addestra una IA influire su di essa.

Norman è capace di osservare immagini e capirne il contenuto dopo aver costruito un database da immagini precedenti. L’IA è stata allenata con delle immagini di persone morenti prese da Reddit, in parallelo invece è stata allenata un’altra IA con foto normali di persone e animali.

Ad entrambe le IA è stato posto il test di Rorschach, che consiste nell’interpretare macchie di inchiostro indistinte per capirne la personalità.

Le differenze tra le interpretazioni delle due IA sono risultate evidenti. Se l’intelligenza ‘normale’ interpretava come ‘un gruppo di uccellini su un ramo’ per Norman era ‘un uomo che subiva una scarica elettrica’. Un ‘vaso di fiori’ era interpretato come ‘un uomo a cui hanno sparato a morte’.

 

I ricercatori del MIT concludono: “Norman nasce dal fatto che i dati che vengono usati per addestrare un algoritmo influenzano significativamente il comportamento. Quindi quando le persone parlano di algoritmi ‘razzisti’ o ‘scorretti’ il problema non è nell’algoritmo in sé, ma nei dati usati”.

Il mondo dell’intelligenza artificiale non è ancora regolamentato da leggi e normative. Questo è un grande problema che l’Europa sta cercando di risolvere. Infatti il 18 giugno, a Bruxelles, sono stati nominati cinquantadue esperti, di cui quattro italiani: Andrea Renda, Francesca Rossi, Giuseppe Stefano Quintarelli e Luciano Floridi, con il compito di consigliare la commissione riguardo l’etica e lo sviluppo delle intelligenze artificiali, lavorando insieme al Gruppo europeo di etica delle scienze e delle nuove tecnologie e con l’Agenzia dell’Unione europea per i diritti fondamentali.

I punti che andranno ad affrontare fanno parte di un campo ancora inesplorato, ma: equità, sicurezza, trasparenza, tutela della vita privata e dei dati personali, la dignità e la non discriminazione, sono solo alcuni degli aspetti su cui, da qui ai prossimi anni, si dovrà scrivere un nuovo manuale di regole, sconosciuto ai più, con l’obbligo poi di farlo rispettare. Senza così preoccuparsi della manipolazione di massa, ma di essere felici, abbandonando un possibile scetticismo, di entrare in un ospedale avendo fiducia nel farsi analizzare anche da un’intelligenza artificiale.

Commenti Facebook

About the Author:

Il mare è la sua casa, ma da quando sta a Trieste per studio ha scoperto la montagna...e la radio! Sempre alla ricerca di nuovi cantanti da scoprire, italiani e stranieri, senza fossilizzarsi sui generi musicali. Le parole prima di tutto, subito dopo il sound. Appassionato di calcio, ma non troppo. È convinto che il senso dell'umorismo ci salverà tutti, ma qualche freddura non deve mancare.