L’algoritmo come il farmaco

È socialmente accettabile che un’intelligenza artificiale prenda decisioni che vadano a vantaggio della maggioranza delle persone pur danneggiandone altre? Un modo per regolamentare gli algoritmi è possibile.

Negli anni ottanta del secolo scorso si reputava “intelligente” la calcolatrice in grado di eseguire calcoli matematici fino a quel momento caratteristici della sola intelligenza umana. Il computer ha alzato ulteriormente l’asticella, permettendoci di automatizzare procedimenti algoritmici e affrontare così operazioni ripetitive che, fino a quel momento, erano appannaggio della sola intelligenza umana.

Nel momento in cui si digitalizza un procedimento, la sua natura cambia, perché le macchine riescono ad operare ad una velocità e scala enormemente maggiore di quella umana. Ora, l’automazione sta entrando in un’era in cui, con l’intelligenza artificiale, si possono realizzare nuove tipologie di applicazioni in grado di automatizzare attività di percezione, classificazione e predizione che fino a poco tempo fa erano caratteristiche esclusivamente umane.

Arthur Bloch, umorista statunitense, ha scritto: <<per pulire una cosa bisogna sporcarne un’altra>>. Mentre qualcuno si rafforza, qualcun altro si danneggia. Ogni azione ha degli effetti, alcuni positivi, altri negativi. Ci poniamo dunque la questione relativa a come regolamentare le nuove tecnologie per massimizzare il vantaggio e al contempo minimizzare le conseguenze negative.

Ogni regolamentazione è sostenuta da un sistema di vigilanza, controllo e sanzionamento. In molti casi, però, le nostre istituzioni non sono in grado di affrontare i loro compiti a causa della quantità di episodi da trattare e per via della velocità di reazione richiesta; difatti, molte questioni vengono delegate ad imprese nativamente digitali.

È il caso, ad esempio, della censura di informazioni dannose durante la recente epidemia tutt’ora in corso o del contrasto al commercio di sostanze proibite, della lotta alla contraffazione, della tutela del copyright eccetera.  

Queste aziende ricorrono a strumenti di intelligenza artificiale e il sistema non è privo di conseguenze: chi garantisce i diritti delle persone penalizzate? In caso di ingiusta valutazione e di privazione dei diritti di una persona, come si può esercitare il diritto di appello? A chi lo si indirizza? In che tempi e a quali costi, con tutte le complessità burocratiche?

Dobbiamo partire dal dato di fatto che, qualunque sistema di controllo o vigilanza basato sull’intelligenza artificiale, perfettamente funzionante, prenderà certamente anche decisioni sbagliate. Il sistema non è deterministico, come potrebbe essere, ad esempio, un autovelox: se si supera il limite di velocità con la propria auto, l’autovelox lo rileva e la multa diviene inevitabile.

Si può ricorrere contro la sanzione ma il guidatore è pur sempre colpevole fino a prova contraria. Un sistema deterministico perfettamente funzionante, certificato e verificato, può decidere chi è colpevole. Un sistema di intelligenza artificiale, invece, perfettamente funzionante, non è altro che un agente statistico e necessariamente produce risultati probabilistici la cui decisione potrebbe risultare giusta nel 98% dei casi e sbagliata nel restante 2% (inopportuno classificarle come “errori”). Dunque, per il 2% dei casi, una persona viene riconosciuta colpevole anche se non lo è.

Per quella persona, la decisione sbagliata può avere ripercussioni ben oltre la portata della decisione stessa: opportunità perse, biasimo sociale, feedback negativi e altri effetti che possono facilmente diffondersi nel web e diventare impossibili da rimuovere.

In certi casi, la procedura di ricorso può addirittura mancare o, se esiste, può essere inefficiente o avere un costo spropositato non accessibile a chiunque, o ancora, può richiedere un tempo eccessivo e non essere in grado di rettificare le ricadute causate dall’errore. Immaginate di trovarvi ora rinchiusi dietro le celle perché un sistema di intelligenza artificiale ha identificato voi come il colpevole di un crimine, poiché ha attribuito una probabilità pari al 75% della vostra somiglianza all’identikit fornito dalla vittima. Fortunatamente, ora non siete in prigione, altrimenti non stareste leggendo questo articolo. Da altre parti, però, è una realtà affermata.

Ci si può interrogare su cosa conviene fare per cogliere il meglio delle opportunità offerte dall’intelligenza artificiale e orientare la tecnologia verso la crescita del benessere collettivo. Ogni valutazione, non può prescindere, da valori condivisi che stanno alla base della nostra società. È esattamente su questo piano che vogliamo soffermarci: il benessere collettivo.

È socialmente accettabile che un’intelligenza artificiale prenda decisioni che vadano a vantaggio della maggioranza delle persone pur danneggiandone altre? In alcune culture orientali la risposta è sostanzialmente “si”: il malcapitato è vittima dell’interesse superiore della collettività che viene sempre prima dell’individuo. Nella cultura occidentale, invece, il giudizio è molto più sfumato e generalmente la tutela dell’individuo è considerata (quasi) irrinunciabile.

Si pensi, ad esempio, ad un’intelligenza artificiale che decide chi deve essere recluso e chi no. Alcune culture, in particolar modo quelle orientali – per le dittature è una regola di base – accettano l’idea che qualche errore di valutazione e quindi, qualche innocente in prigione, giustifichi l’effetto positivo complessivo. Si potrebbe pensare: “meglio un innocente in più in carcere che un colpevole in più in libertà”. Nel nostro sistema di valori vale l’opposto.

In un sistema democratico, la valutazione del bilanciamento tra beneficio della collettività e rischio di nocumento del singolo, è svolta da organismi appositi tramite procedure rigorose. Facciamo un esperimento mentale considerando un esempio relativo a futuribili auto a guida autonoma: l’amministratore delegato di una casa automobilistica vende i suoi prodotti (non difettosi) agli utenti, già sapendo che 10 mila di loro moriranno sicuramente durante la guida. La causa dei decessi non sta nei prodotti, il problema è la guida umana. L’AD non è responsabile di questi decessi, bensì, sono i consumatori ad essere colpevoli.

Immaginiamo ora che, tale casa automobilistica, introduca una futuribile tecnologia di guida autonoma che permetta di abbassare il numero di vittime da 10 mila a 50. Sarebbe un guadagno meraviglioso per la società ma, quasi certamente, le famiglie delle vittime faranno comunque causa all’azienda e denunceranno l’amministratore delegato. Ipotizziamo che l’azienda si tuteli, dal punto di vista della responsabilità civile, attraverso una polizza assicurativa in modo da evitare la bancarotta a seguito dei risarcimenti per danni e responsabilità; l’AD potrebbe comunque rischiare la prigione per avere immesso sul mercato un prodotto che ha causato dei decessi.

Ecco che un sistema di intelligenza artificiale non difettoso produce in ogni caso – purtroppo e fortunatamente – predizioni errate. “Purtroppo” perché è davvero difficile dare una spiegazione del perché l’algoritmo abbia preso quella determinata decisione. “Fortunatamente” perché è un sistema che funziona: abbatte la mortalità da 10 mila a 50 vittime. Essendo dunque un approccio statistico, “errare” è concesso in quanto è “necessario” per consentirgli di funzionare al meglio.

L’amministratore, a questo punto, per difendersi dovrebbe dimostrare che il suo sistema di guida autonoma non è difettoso e che gli errori di predizione, che causano incidenti mortali, rientrano nella tolleranza dei dati di targa dichiarati e accettati dal consumatore (e avallati dai tribunali).

Quali devono essere questi dati di targa? Quali valori sono socialmente accettabili e rappresentano un vantaggio per la società e quindi una tecnologia da promuovere? E come valutarli?

Ci troviamo in un caso in cui, da un lato è possibile che l’effetto di una predizione errata possa generare impatti rilevanti sulla vita di un individuo, dall’altro la sua mancata adozione può avere impatti altrettanto rilevanti, questa volta per l’intera comunità. Quale direzione intraprendiamo? Va sicuramente trovato un compresso!

Un impianto regolamentare che ci può guidare in situazioni simili esiste già: quello dei farmaci. Sappiamo che, in alcuni casi e se usati in modo appropriato, certi farmaci possono avere effetti collaterali, persino mortali. Ma normalmente funzionano.

Lo sviluppo dell’industria farmaceutica si è basato su un solido impianto normativo, stabilito con processi democratici e socialmente condiviso, che obbliga le società farmaceutiche a:

– Dichiarare a cosa servono le medicine;

– Dichiarare come dovrebbero essere usate;

– Dichiarare gli eventuali effetti collaterali negativi;

– Eseguire test su animali e, in caso di successo, richiedere l’autorizzazione per i test sull’uomo;

– Monitorare e tracciare ogni fase di utilizzo successivo;

Abbiamo già leggi che regolamentano tutto questo. Immaginiamo ora che si presenti una patologia mortale: se non si fa nulla, avremo 10 mila vittime, se forniamo un farmaco, avremo 16 vittime. Nessuno può dubitare che un tale farmaco sarebbe un guadagno meraviglioso per la società; e soprattutto, che non siano responsabili, l’azienda farmaceutica civilmente e l’AD penalmente, per i casi avversi.

Probabilmente, anche per l’intelligenza artificiale, sarebbe utile un’infrastruttura normativa, in grado di valutare la responsabilità delle aziende, non in relazione al singolo incidente ma all’effetto complessivo: imponendo l’obbligo di fare test appropriati, dichiarando ciò che viene ottimizzato, seguendo appropriati iter autorizzativi, legando la responsabilità alla conformità di questi protocolli e istituendo organismi di vigilanza e controllo.

Solo in questo modo, fissando esattamente il punto di equilibrio tra garanzie individuali e benefici collettivi per le applicazioni che comportano maggiori impatti sulla vita delle persone, si possono sgravare le aziende e i loro amministratori di responsabilità che altrimenti potrebbero risultare inibenti, con l’effetto di privare l’intera comunità dei benefici che l’intelligenza artificiale può apportare.

Naturalmente, non tutte le applicazioni dell’intelligenza artificiale dovrebbero seguire un regime così stringente e oneroso di collaudo, certificazione e controllo, ma solo quelle che si ritiene possano determinare impatti rilevanti sulla vita delle persone.

A ben vedere, anche la regolamentazione farmaceutica, non è bianca o nera ma vi è un continuum tra farmaceutica e alimentazione: dai prodotti che possono essere utilizzati solo sotto la supervisione di un medico a quelli prescrivibili dal medico, a quelli da banco, alla nutraceutica e ai prodotti alimentari generici. Per ciascuna di queste categorie vi sono regole e organismi di controllo diversi appropriati alla necessità. Anche i sistemi di intelligenza artificiale potrebbero essere ottimizzati rispetto al quadro regolatorio.

In questo modo, non dobbiamo trattare l’intelligenza artificiale alle stregua di una nuova forma di vita esoterica, che in qualche modo sfugge alle questioni morali. Possiamo trattarla per quello che è: uno strumento che, per ogni settore, dovrebbe essere valutato serenamente, considerando quanto migliora il nostro modo di operare rispetto ai metodi tradizionali.

LINK UTILI:

Artificial Intelligence in Pharmaceuticals, Biologics, and Medical Devices

How should we regulate Artificial Intelligence?

Il Pensiero Artificiale

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *