martedì 5 febbraio 2019

ALGORITMI E INTELLIGENZA ARTIFICIALE

Ma, come funzionano gli algoritmi? 

Come funziona questa intelligenza artificiale? 

Come vengono analizzati i profili online?


Omero: profilo online n° 1

Omero: profilo online n° 2

Confesso la mia abissale ignoranza in materia, un’ignoranza che potrebbe configurarsi come “colpa grave” in un momento storico nel quale gli algoritmi e le varie applicazioni della cosiddetta Intelligenza Artificiale hanno già cominciato a intercettare la nostra vita, le nostre abitudini, i nostri desideri e il modo col quale noi e gli altri ci interfacciamo vicendevolmente.



Le domande sul funzionamento degli algoritmi mi sono sorte in tutta la loro urgenza quando, qualche giorno fa, sulla mia posta elettronica personale ho ricevuto il seguente messaggio:

A:p_borzini@.......                    21 gen alle ore 05:57
Buongiorno ,
mi chiamo L……  e sono il responsabile Area Professionisti del portale dei professionisti numero uno in Italia. In questo momento stiamo ricevendo numerose richieste per Disinfestazioni e cerchiamo nuovi professionisti per soddisfarle. Dal vostro profilo online emerge che siete in linea con ciò che i nostri clienti si attendono in termini di qualità e professionalità. Per scoprire come aiutiamo i professionisti a trovare nuovi clienti, lasci qualche informazione a questo link. Rimango a sua disposizione per eventuali dubbi o domande. Buona giornata e buon lavoro.

Disinfestatore professionale
Bene, chi ha la ventura di conoscermi personalmente o anche attraverso la rete sa bene che nel mio profilo professionale, o in quello online, tra i miei interessi e nel mio passato professionale non c’è nulla che assomigli neppure lontanamente al concetto di “Disinfestazione”. Nei miei profili online compaio prevalentemente armato di libri. 

Foto da un mio profilo online 
Come è possibile, quindi, che l'algoritmo usato dal Sig. L abbia potuto prendere un così colossale abbaglio? Esiste poi il problema di come il Sig. L abbia potuto entrare in possesso del mio indirizzo di posta elettronica personale. Su quest’ultima questione – che ha dei possibili risvolti giudiziari – evito per il momento di esprimermi. Rimane il problema degli algoritmi, che mi affascina assai di più.

Chi usa la rete sa che ogni dato personale che inserisce, ogni ricerca che effettua in rete, ogni documento che legge, carica o scarica può essere letto e utilizzato da terzi con le migliori o le peggiori intenzioni del mondo. Sapendo ciò, è raccomandabile una certa prudenza. Ma sapendo come funzione la rete non si possono incolpare terzi di leggere, interpretare, o utilizzare i dati che noi stessi inseriamo. Le pubblicità mirate sui nostri interessi possono essere un effetto che noi stessi invochiamo dalla rete. Violazioni della privacy a parte (grande e insoluto problema) quello che più mi interessa è capire come funzionano questi benedetti algoritmi e quanto affidabili ed efficaci essi siano. La simpatica storia del disinfestatore mi fa sospettare che possano talora essere ben poco affidabili.

Algoritmi e informazioni sul traffico
Ci sono Intelligenze Artificiali a cui vengono somministrate informazioni specifiche (milioni e milioni di informazioni) in modo tale da consentire a macchine di eseguire per noi numerosi compiti. Google Traffic, per esempio, leggendo posizioni e movimenti degli smartphone che tutti hanno in tasca, ci informa sulle condizioni del traffico e di possibili ingorghi. Ottimo. Ci sono algoritmi, per esempio IBM Watson, che può spalleggiare il medico nel processo diagnostico. Ce ne sono altri, per esempio quelli di riconoscimento facciale, che setacciano aree sensibili alla caccia di noti malintenzionati. Ce sono alcuni, in uso presso strutture giudiziarie americane, che valutano la pericolosità dei reclusi che richiedono la libertà condizionale. Ce ne sono altri, sempre in uso nel sistema giuridico americano, che sono in grado, nel caso di alcuni crimini, di comminare assoluzioni o condanne, supportando il lavoro di giudici umani. La domanda è: se questi algoritmi sono affidabili come quello che mi ha etichettato come “disinfestatore”, non è possibile che io possa patire qualche serio danno qualora una macchina si occupasse della mia salute, della mia pericolosità, della mia sicurezza?

Ci possono essere errori grossolani, ma a questi si può forse porre rimedio facilmente. Ma ce ne sono altri assai più sottili e subdoli. Un allarmante esempio in questo senso è stato recentemente lanciato da VOX, una testata giornalistica americana online. In un articolo intitolato “Si, l’Intelligenza Artificiale può esse Razzista” (LINK), articolo ripreso in Italia da Scienza in Rete (LINK), si mostrano i rischi non tanto delle elaborazioni delle informazioni fornite scientemente alle machine da operatori umani, ma piuttosto delle elaborazioni compiute da macchine le cui reti neurali assorbono informazioni direttamente dalla rete, quell’enorme deposito incontrollato e incontrollabile di informazioni in cui tutti noi quotidianamente immettiamo dati. I problemi, con le macchine che imparano da sole attingendo al grande supermercato della rete, sono soprattutto due. Il primo riguarda la “bontà” (tecnica e morale) dell’informazione elaborata. Poiché la rete è piena zeppa di informazioni sbagliate (l’esempio dei NoVax è solo uno dei mille possibili), false, a contenuto razzistico o di odio (religioso, sociale, politico, di genere) e così via, una macchina che impara dalla rete può prendere per buone una quantità di informazioni che non aiutano certo a prendere “decisioni sagge”. Il secondo problema, ancora più sottile, è quello delle "relazioni tra parole" - elaborate come "associazioni fattuali tra cose" - che la macchina utilizza come “informazioni” necessarie per decidere. Un esempio molto interessante riportato da VOX è quello della associazione tra le parole ingegnere, infermiera, maschio, e femmina. Poiché tra i miliardi di dati disponibili in rete la parola “infermiera” è molto più frequentemente associata alla parola “femmina” che non a “maschio” e, viceversa, la parola “ingegnere” è molto più frequentemente associata alla parola “maschio” che non a “femmina”, l’algoritmo “deciderà” di associare ingegnere a maschio e infermiera a femmina. Così facendo l’algoritmo imparerà a elaborare spontaneamente differenze di genere che un operatore umano dovrebbe considerare sbagliate. Ragionamenti analoghi possono essere fatti a proposito di discriminazioni razziali, religiose, culturali di ogni genere. La conclusione è che, in assenza di filtri adeguati, gli algoritmi elaboreranno informazioni assorbendo direttamente dalla rete i pregiudizi (razziali, religiosi, di genere e altri) di cui la rete pullula.


La conclusione è che l’Intelligenza Artificiale, pur fornendo applicazioni sempre più utili, deve comunque essere presa con le molle e valutata con prudenza senza tralasciare il fatto che, come afferma Marc Mézard (direttore della École Normale Supérieure di Parigi), non essendo capaci di elaborare processi creativi, gli algoritmi non possono essere chiamati “intelligenti”, per lo meno se si attribuisce alla parola intelligenza lo stesso valore che diamo all’intelligenza umana. Quanto alla stupidità o al pregiudizio … se ne può discutere.  

Nessun commento:

Posta un commento