Explainable Artificial Intelligence per una Intelligenza Artificiale socialmente accettabile - Alan Advantage

Qual è lo stato dell’arte dell’Explainable AI e come si può raggiungere questo obiettivo di spiegabilità degli algoritmi.

Parto da un esempio veloce ed abbastanza noto, per inquadrare la necessità di avere modelli di Deep Learning spiegabili, interpretabili. I modelli alla base di Waze, il navigatore acquisito da Google, hanno determinato diverse volte un effetto collaterale devastante per i residenti di alcune zone del mondo, il cui Waze di fatto, per ridurre il traffico sulle principali arterie, dirottava grandi flussi di automobili rendendo di fatto invivibili alcune località, con conseguenti proteste feroci da parte dei residenti.

Ora la Explainable AI, al di là dei tanti casi in cui se ne è già sentita la mancanza, è diventata e lo sarà sempre di più rilevante per via delle questioni di carattere normativo, come il famigerato GDPR e le tante altre normative analoghe a livello mondiale e quelle in arrivo.

“Explainable Artificial Intelligence for socially acceptable AI” - RE:HUMANIZE! Alan Advantage — 15 NOV 2021
“Explainable Artificial Intelligence for socially acceptable AI” — RE:HUMANIZE! Alan Advantage — 15 NOV 2021

La spiegabilità dei modelli AI si valuta attraverso:

⁃ L’interpretabilità di un modello: fornire una spiegazione logica della previsione o della scelta effettuata dal modello di machine Learning che determina come vengono messi in relazione i dati di ingresso con quelli in uscita.

⁃ La spiegabilità di un modello cerca di spiegare il comportamento del modello, come sia arrivato a compiere una determinata previsione o scelta.

Tra i metodi più utilizzati nella Explainable AI ci sono il LIME (Local Interpretable Model-Agnostic), il SHAP (SHapley Additive exPlanations) e il LRP (Layer-Wise Relevance Propagation) e molte loro derivazioni. Si differenziano per i differenti aspetti matematici che li caratterizzano, il LRP è quello più consolidato e tradizionale.

Da un punto di vista progettuale, una tecnica diffusa è quella del proxy modeling, che consiste nel creare una differente versione del modello con una struttura più semplice del modello da esaminare (modello più snello). Quindi sono utili al fine di avere una spiegabilità ma vanno maneggiati con cura da persone molto esperte.

Un approccio alternativo consiste nel semplificare il modello da esaminare (struttura del modello semplificata), limitando le opzioni di apprendimento e respingendo il campo dei dati utilizzato, con il rischio che manchi l’adeguata accuratezza.

Nel prossimo futuro, la ricerca in quest’ambito verso quali traguardi ci può portare.

Da un punto di vista teorico, sarebbe possibile codificare le linee guida etiche per i sistemi AI in modo che si comportino eticamente in modo autonomo. E’ però un futuro ancora abbastanza lontano. Pertanto nell’immediato è più pratico insegnare a progettare sistemi affinché siano etici.

Ma molti filoni di ricerca stanno progredendo nella direzione della “Etica come servizio”, che potrà essere usata dai sistemi AI al fine di essere “etici”.

Uno di questi filoni è quello che lavora a migliorare ed ampliare gli attuali Foundation Model di cui GPT3 è l’esempio più celebre. Si sta lavorando sodo a:

⁃ Caratterizzare i comportamenti dei Foundation Model.

⁃ Spiegare il comportamento dei Foundation Model.

⁃ Caratterizzare i meccanismi dei modelli.

Ci sono alcune principali buone ragioni per giustificare i tentativi di ingegneri, scienziati e accademici di costruire macchine che seguano uno o più principi etici per guidare il proprio comportamento:

1. I sistemi autonomi in via di sviluppo dovranno prendere decisioni morali.

2. Una macchina in grado di produrre ragionamenti etici espliciti sarebbe in grado di spiegare, e in un certo senso giustificare, i giudizi che ha prodotto.

3. Le macchine con capacità di ragionamento etico potrebbero anche migliorare il comportamento etico degli esseri umani.

4. Iniziare a comprendere la computabilità della morale servirà per prevenire i pericoli di una super intelligenza non allineata.

RIFERIMENTI

1. InDepth: Layer-Wise Relevance Propagation (Eugen Lindwurm)

2. An introduction to explainable AI with Shapley values

3. LIME — Local Interpretable Model-Agnostic Explanations, Marco Tulio Ribeiro