mercoledì 2 gennaio 2019

ROBÉTICA - ETICA E ROBOT

Un gruppo di esperti nominato dal Consiglio d’Europa ha recentemente proposto una linea guida per un indirizzo etico da applicare ai dispositivi dotati di Intelligenza Artificiale. Ma cosa si intende con questo termine?  

Per Intelligenza Artificiale (IA) si può intendere la “facoltà” di dispositivi artificiali ad “agire” e a “scegliere” in modo autonomo (svolgendo compiti, assumendo decisioni, risolvendo problemi) apprendendo ed effettuando “ragionamenti” che imitano quelle che riteniamo essere le procedure e le strutture logiche – i cosiddetti algoritmi – tipiche della mente umana.
Se qualcuno non se ne fosse ancora accorto, l’IA è già entrata nella nostra vita di tutti i giorni e sta già condizionando alcuni dei nostri comportamenti. L’ingresso di dispositivi intelligenti nella nostra vita è avvenuto con maggiore o con minore enfasi a seconda dell’utilizzo che ne viene fatto. Là dove i dispositivi vengono “venduti” per migliorare esplicitamente certe funzioni umane, l’enfasi è elevata. Là dove, invece, l’uso è più subdolo ed è inteso ad effettuare profili del consumatore per indirizzarne le scelte, l’enfasi è quasi totalmente assente. Quel che è certo che l’IA sarà sempre più presente nelle nostre vite. Macchine intelligenti, capaci di imparare senza l’intervento diretto dell’uomo, capaci di autoripararsi o di autoincrementare la loro stessa intelligenza, capaci di comunicare e interagire tra loro formando reti autonome, scambiandosi informazioni sensibili e dando vita a forme di “cultura” autonome e istruendo esse stesse i loro “partner” umani, “vivranno” sempre di più accanto a noi, aiutandoci e indirizzandoci.
Stando così le cose, ESPERTI e ISTITUZIONI hanno cominciato ad accorgersi (cinquant’anni dopo Isaac Asimov) che questo genere di macchine necessita, fin dal momento della loro progettazione, di un algoritmo etico che impedisca loro di “comportarsi male”. Ecco allora che gli “esperti” riscoprono l’idea dell’Albero del Bene e del Male, un’idea da riproporre in versione 2.0 alle nuove generazioni di Robot (dopo che il Grande Costruttore aveva cercato di imporla ad Adamo ed Eva).

Raffigurazione dell'albero della Conoscenza del Bene e del Male
Ma torniamo al panel di esperti del Consiglio d’Europa. Ecco i cinque punti della linea guida da loro proposta.
1) l’IA deve essere sviluppata per promuovere il benessere degli individui e della società nel suo complesso (principio di Beneficenza); 2) l’IA non deve nuocere agli uomini (principio di Non Maleficenza). Già in fase di progettazione deve essere fatto in modo che l’IA non sia lesiva della dignità, della libertà, della riservatezza e della sicurezza degli esseri umani nella società e al lavoro; 3) deve essere assicurata agli esseri umani la libertà dalla coercizione e dalla subordinazione ai sistemi di IA. Gli esseri umani che vi interagiscono devono poter mantenere la propria autodeterminazione (principio di autonomia); 4) l’IA deve essere improntata all’equità, preservando le minoranze da pregiudizi e discriminazioni e garantendo pari opportunità (principio di equità); 5) è necessario assicurare trasparenza alla tecnologia e all’uso che ne viene fatto. La tecnologia deve essere comprensibile all'uomo che la utilizza e deve essere assoggettabile al suo controllo. Devono essere noti gli scopi e le intenzioni per cui i dispositivi dotati di IA vengono progettati e utilizzati (principio di Comprensibilità). 

Il Robot universale inventato dal drammaturgo ceco Karel Čapek (1920)
Fin dalla prima lettura di questi punti, al di là delle buone intenzioni di principio, appaiono evidenti tre motivi di perplessità. Il primo è l’evidente tentativo di inserire in queste linee guida aspetti giuridici tipici delle moderne normative sul lavoro o sulla privacy. Tali principi – altamente auspicabili nel diritto del lavoro – sembrano però collidere con alcuni aspetti specifici e desiderabili dell’IA: quelli che hanno a che fare con l'affrancamento dell’essere umano da alcuni dei suoi limiti (maggior lentezza computazionale e lentezza decisionale in particolari situazioni di emergenza). La perplessità sul principio di Comprensibilità sorge, per esempio, nei casi in cui alcuni sistemi intelligenti siano pianificati per fare male a specifiche persone per difenderne altre: sistemi di allarme e di difesa, sistemi di difesa “preventiva”, bombe intelligenti e altre amenità ove l’uso della IA è già piuttosto avanzato. Il secondo motivo di perplessità è dato dallo spostamento dell’intenzione etica dagli aspetti che sono tipici della riflessione etica europea (prevalentemente impostati sulla dignità dell’uomo), a favore dei principi normativi dell’etica nordamericana (che danno molta maggiore enfasi all’autonomia e alla libertà decisionale) [Vedi anche l’articolo Un’Etica per i Robot. La Lettura #369, 23 dicembre 2018] Questo evidente tentativo di sintesi tra due diverse correnti etiche finisce col far apparire la proposta come una sorta di ibrido, ove le opposte opzioni etiche si annacquano vicendevolmente invece di corroborarsi, come era forse nelle intenzioni. Il terzo motivo di perplessità è forse il più grave e complesso. Il documento degli “esperti” del Consiglio d’Europa fa riferimento esplicito e implicito alla società nel suo complesso, come se questa fosse costituita da un’unica architettura di componenti all’interno della quale il significato di concetti di beneficienza, non maleficenza, libertà, autonomia, equità, giustizia, riservatezza e autodeterminazione fossero ugualmente condivisi da tutte le componenti di tutte le società, individui o gruppi sociali che siano. Questo presupposto è fondamentalmente sbagliato. Ogni società è immersa in una sorta di atmosfera culturale che dà significato e valore particolare a ciascuno dei concetti astratti sopra menzionati e li traduce in comportamenti individuali o sociali che, rappresentando tavolozze di valori etici, morali e normativi differenti, possono essere assai diversi da società a società, da componente sociale a componente sociale, da individuo a individuo. Voler fornire un set di linee guida unico per ogni società pensando che questo possa adattarsi a tutte le società indipendentemente dai particolari codici etici che esse esprimono significa due cose: A) presumere l’esistenza di una società ideale che non esiste (o addirittura presumere che la nostra società sia il modello unico cui tutte le altre debbano conformarsi); B) condannare la linea guida ad essere disattese.
Al di là delle buone intenzioni, pertanto, il documento degli esperti del Consiglio d’Europa mi sembra presuntuoso nei presupposti, troppo ambizioso nel programma e destinato, nella pratica, al più totale fallimento.

Io robot, film (2004), tratto dalla omonima raccolta di racconti di Isaac Asimov (1950)
Il famoso scrittore di fantascienza Isaac Asimov ha lavorato a lungo sull’etica applicata all’Intelligenza Artificiale ed aveva sintetizzato il problema limitando il campo d’azione dell’etica dei Robot in funzione del pericolo che le scelte e i  comportamenti delle intelligenze artificiali avrebbero potuto essere fonte di danno per l’uomo. Limitandosi quindi al solo principio di Non Maleficenza e considerando implicito nell’uso dei robot il principio di Beneficienza, nel 1942 – nel racconto Girotondo – egli definiva le tre famose Leggi della Robotica, cui dovevano attenersi tutti i robot nell’espletamento delle loro funzioni e tutti i costruttori di robot fin dal momento della loro progettazione:
Prima Legge. Un robot non può recar danno a un essere umano e non può permettere che, a causa di un suo mancato intervento, un essere umano riceva danno. Seconda Legge. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge. Terza Legge. Un robot deve proteggere la propria esistenza, purché la sua autodifesa non contrasti con la Prima o con la Seconda Legge.
A quasi ottant’anni dalla formulazione di queste leggi, gli sforzi degli esperti del Consiglio d’Europa, pur nella loro buona volontà e tentando di realizzare un programma di indirizzo etico più strutturato di quello di Asimov, mi pare abbiano fatto più passi indietro che non veri progressi.
 

Nessun commento:

Posta un commento