Democrazia e Intelligenza Artificiale: L’importanza della Society-in-the-Loop - Alan Advantage

L’introduzione dell’Intelligenza Artificiale nei vari aspetti della propria vita, dal lavoro al contesto domestico, come gli assistenti vocali e le varie apparecchiature ‘smart’ per regolare l’illuminazione o il riscaldamento, ha portato con sé una nuova ondata di entusiasmo per i miracoli dell’alta tecnologia. Il mercato è sempre alla ricerca di nuovi prodotti all’avanguardia e i vari paesi e aziende quasi fanno a gara per avere il primato in una particolare tecnologia, contribuendo al veloce sviluppo tecno-scientifico che caratterizza questi anni.

Photo by Priscilla Du Preez on Unsplash

In un articolo precedente abbiamo visto come, però, lo sviluppo sfrenato della tecnologia per il solo fine di primeggiare nel campo dell’innovazione distragga dal focus principale dello sviluppo tecno-scientifico, cioè l’essere di supporto all’uomo in primis. La corsa sfrenata al primato avanguardistico ha portato con sé non pochi dubbi sull’etica e sull’efficienza di molte nuove innovazioni. Come può un robot, programmato secondo un algoritmo e un codice ben preciso sapere cosa è giusto fare, oltre alle sole azioni che gli vengono affidate?

Negli ultimi anni si è, quindi, cercato di reintrodurre la supervisione umana nella robotica. Uno dei traguardi nella teoria robotica è stato includere l’uomo nel circolo di costante evoluzione, con il concetto di Human-in-the-Loop (HITL): una supervisione più attenta da parte umana della performance robotica in un movimento di apprendimento reciproco. Già negli scorsi decenni, in ambito supervisory control, si è sviluppata l’idea di rafforzare la componente umana nei processi meccanici dei computer, ma è solo ultimamente, con l’evoluzione delle interazioni uomo-computer (HCI, human-computer interaction), che si comincia a comprendere l’importanza della presenza umana nei processi di machine learning delle Intelligenze Artificiali.

Inserire l’uomo nel loop significa mettere in primo piano un controllo maggiore nel processo in cui sia l’IA che l’uomo imparano reciprocamente l’un l’altro. Un esempio estremamente semplice è la cartella “spam” del proprio indirizzo e-mail: etichettando come spam le e-mail indesiderate il computer comprenderà da quali indirizzi rigirare la posta nella cartella “spam” automaticamente. In questo modo, l’uomo prende parte al processo di apprendimento dell’algoritmo della macchina, che impara come servirlo al meglio.

Inoltre, secondo Iyad Rahwan (2017), professore al MIT Media Lab, la presenza umana nel loop di interazione uomo-computer è fondamentale per due funzioni importanti:

1) l’uomo può fungere da supervisore nel momento in cui viene rilevato un comportamento non corretto da parte della macchina (come la supervisione necessaria per droni da combattimento);

2) l’uomo può servire da soggetto responsabile, tenuto a rispondere per le sue azioni in caso di infrazioni o danno ad altri umani, incentivando a minimizzare la probabilità di sfruttamento dei computer a danno di terze parti.

Human Thinking (ph. by Dierk Schaefer/Flickr)

Nonostante ciò, l’Unione Europea ha in progetto la compilazione di un corpo di leggi civili applicabili alle “azioni” dei bot e dei computer, rendendoli dei soggetti giuridici imputabili. La mozione è stata approvata nel 2016, con l’obiettivo di dare responsabilità giuridica ai computer e creare un’agenzia europea apposita per la regolamentazione dell’alta tecnologia nell’Unione, oltre a molte altre considerazioni sull’etica e l’utilizzo delle macchine.

Tuttavia, cosa succede quando a un computer viene affidato un compito che ha un impatto sociale più ampio, come, per esempio, un algoritmo che possa influenzare le preferenze politiche di milioni di cittadini o a cui venga affidata la mediazione di risorse e manodopera all’interno della società? Iyad Rahwan ha, quindi, proposto un’estensione del sistema HITL: se un’IA HITL si basa sul giudizio di singoli individui per dei compiti ben precisi, un’IA con delle implicazioni maggiori deve basarsi sul giudizio del contesto sociale più ampio. Introducendo, in questo modo, un sistema Society-in-the-loop (SITL). La differenza principale è che un sistema SITL supervisiona non solo la performance e il comportamento della macchina, ma anche le implicazioni morali ed etiche dei suoi codici di programmazione e dei suoi algoritmi, nella difesa dei diritti degli utenti e della società.

La società, però, è composta da singoli individui non sempre in accordo su cosa sia giusto e cosa sbagliato. Bisognerebbe, quindi, accordare tutti i diversi interessi dei vari attori sociali, dalle sfere governative a quelle governate. Questo nasce dall’assenza di una precisa definizione di quale sia il contratto sociale che regola la società in cui viviamo. Per trovare una probabile soluzione dobbiamo quindi fare un passo indietro nei secoli e cercare di definire quale sia la matrice dell’ordine sociale come lo conosciamo oggi.

Una prima fase della teoria del contratto sociale la si deve a Thomas Hobbes che, nel suo Leviatano, vedeva l’ordine nell’abilità che ha il governo centrale di affidare il potere contrattuale a delle terze parti (le istituzioni) che possano regolare la vita dei singoli individui in un complesso sociale. Hobbes ha, però, anche visto l’inizio dell’ordine sociale in un compromesso che i singoli hanno dovuto accettare nel donare parte delle loro libertà a una sola istituzione centrale, incarnata nella figura del regnante incontrastabile (da qui il leviatano), per poter vivere in pace in un sistema di leggi. È, infatti, a Rousseau che dobbiamo la teorizzazione del governo centrale come regolatore non solo della pace e dell’ordine, ma anche della volontà generale del popolo, essendo legittimato a regnare dai cittadini stessi.

Ma perché dovrebbe interessarci questa digressione filosofica nella ricerca di una supervisione sociale nel mondo della robotica? Perché, come affrontato da Citron e Pasquale (2014), allo stesso modo, chi decide e programma gli algoritmi e le funzioni di una macchina ha un’influenza non trascurabile sulla vita altrui: senza una regolazione democratica del mondo dell’hi-tech, si potrebbe star scadendo in “un nuovo ordine feudale”, in cui una ristretta cerchia decide per molti.

È necessario, quindi, che il mondo dell’alta tecnologia diventi una proiezione del sistema democratico vigente nella società. Un modello SITL (che Rahwan identifica nell’equazione “SITL = HITL + Contratto Sociale”) può ampliare il potere decisionale a molte più persone, oltre che al singolo individuo supervisore. Un modello HITL non include due aspetti fondamentali che un sistema SITL può invece includere: 1) scelte di buon senso che un’IA non può affrontare, non avendo la morale che una mente umana ha (come delle scelte fra efficienza e sicurezza o su cosa è giusto fare anche se non matematicamente esatto); 2) comprendere i costi e i guadagni sociali dell’introduzione di una nuova innovazione sul mercato. Se una self-driving car deve prestare più attenzione al conducente che al pedone, o viceversa, non può essere deciso dalla macchina stessa, ma va precedentemente programmato algoritmicamente.

Bisogna, quindi, muoversi verso una più responsabile e democratica visione del mondo dell’alta tecnologia, che possa inserire tutti gli interessi sociali in un loop di apprendimento reciproco. La supervisione umana non è abbastanza. È necessario dare delle basi e supervisionare anche gli umani dietro la programmazione delle macchine.

Quis custodiet ipsos custodes? (Photo by Giammarco Boscaro on Unsplash)

Secondo un articolo dell’anno scorso del MIT Technology Review, l’Italia è riuscita ad affermarsi come paese esportatore di alta tecnologia. La bravura dei nostri ingegneri e programmatori è riconosciuta in tutto il mondo e, almeno fino all’anno scorso, siamo la seconda manifattura più grande d’Europa, con manifatturiere fra le più sostenibili nel continente; il terzo esportatore europeo di tecnologie a sistema di produzione flessibile, inclusa la robotica, con US$9.6mld in esportazioni solo verso gli Stati Uniti; e fra le cinque nazioni al mondo con un surplus manifatturiero che supera i US$100mld.

Alan Advantage con le sue iniziative, ad esempio Re:Humanism Art Prize, si sta facendo promotrice di un cambio culturale, con l’obiettivo di stimolare le tante eccellenze presenti, visto l’estremo potenziale, e l’attenzione innata agli aspetti umanistici, importantissime anche per lo studio, la definizione e l’ispirazione su cui si dovrebbe fondare un Contratto Sociale nell’accezione vista prima. L’Italia ha il potenziale, quindi, non solo di proporsi come nuova realtà manifatturiera e ingegneristica, ma può anche gettare le basi di un modello che vede un coinvolgimento maggiore della società nelle proprie innovazioni.

Referenze Bibliografiche

Citron, D. K., & Pasquale, F. A. (2014). The scored society: due process for automated predictions. Washington Law Review, 89, 1–33.

Rahwan, I. (2017). Society-in-the-Loop: programming the algorithmic social contract. Ethics and Information Technology. DOI 10.1007/s10676–017–9430–8

SCOPRI COME POSSIAMO AIUTARTI

Sei interessato alle tematiche del blog e desideri parlare con noi?