Il rovescio della medaglia

Se si escludono i benefici straordinari che l’utilizzo dell’intelligenza artificiale porta allo sviluppo della scienza, il suo utilizzo da parte delle aziende e degli enti pubblici presenta una serie di rischi e di problemi etici. I rischi possono essere conseguenza della qualità dei dati utilizzati, in particolare, ma non solo, quelli non strutturati (immagini, video, suoni) che possono essere soggetti ad errori o irregolarità nella fase di raccolta, aggregazione o etichettatura; se non c’è una procedura testata per la correzione, tutto il processo di deep learning (DL) può essere inficiato, portandolo ad analisi inaccurate ed a decisioni non affidabili.

Un aspetto particolare di questo problema è quello del pregiudizio, che accade quando un algoritmo, a causa di una programmazione non corretta o per una scarsa qualità dei dati e delle etichettature, produce risultati a detrimento di alcuni gruppi sociali, con gravi conseguenze a carico dei soggetti discriminati, e possibili danni economici e reputazionali degli enti che li hanno utilizzati. Un’altra criticità riguarda la possibilità da parte dei programmi di intelligenza artificiale di manipolare il consumatore, sfruttando i suoi pregiudizi o il suo stato emozionale. Le grandi catene commerciali, grazie all’enorme quantità di dati che riescono a raccogliere e alla sofisticazione dei softwares di DL utilizzati, hanno la possibilità di elaborare non solo le preferenze di acquisto e la sensibilità al prezzo dei loro clienti, ma anche, grazie al monitoraggio della loro attività online, riescono a profilarli in maniera dettagliata e ad adattare le offerte al loro profilo comportamentale, con l’obiettivo di sfruttarne certe caratteristiche per incrementare i consumi.

Questi sono solo alcuni banali esempi dei rischi dell’applicazione pratica di AI; molti studiosi stanno effettuando analisi approfondite, esaminando altri ambiti quali il controllo dell’informazione, gli effetti sul mercato del lavoro, la sua influenza sulla comunicazione e la democrazia1, etc.I rischi sono legati anche all’opacità dei risultati dei programmi di AI che usano sistemi “neurali” (ANN – Artificial Neural Networks), in grado di elaborare una massa enorme di dati e di “imparare” e correggere automaticamente gli errori. La difficoltà di analisi degli ANN da parte degli utenti, e degli stessi programmatori, è legata alla sua architettura, strutturata in molti livelli nascosti (come le bambole russe chiamate “matrioshka”). Il processo di DL avviene tramite la modifica automatica dei “pesi” attribuiti ai vari parametri, ma l’enorme massa di questi, unita a quella dei pesi e dei dati, elaborati un numero gigantesco di volte, rompe il legame con il problema originale, impedendo la comprensione dei risultati. 

Per ovviare all’opacità del DL negli ultimi anni l’attenzione di molti ricercatori, dei politici e del pubblico è passata almeno in parte dall’accuratezza dei risultati alla loro comprensibilità, dando origine alla ricerca sullo sviluppo di quella che viene definita “intelligenza artificiale comprensibile” (XAI – Explainable Artificial Intelligence), che aiuterebbe gli utenti a capire perché una macchina ha raggiunto una determinata decisione, e se questa sia affidabile. Mi sembra però prematuro pensare che questa tecnologia più comprensibile – e più facile da controllare e regolamentare – diventi prevalente nel breve periodo.L’aspetto etico delle applicazioni dell’intelligenza artificiale è ben presente fra chi si occupa di questa nuova disciplina, in quanto a nessuno sfugge il rischio dei pericoli insiti in essa, anche in considerazione dell’influenza crescente che ha sulla nostra vita privata e professionale. Già da qualche tempo si è cercato di identificare alcuni aspetti che dovrebbero indicare il sentiero da seguire, con l’adozione di linee guida da parte degli attori principali; sono anche nate associazioni con questo scopo (es.: Partnership on AI).

Da notare però che i codici etici adottati sono, secondo una recente analisi, concentrati su aspetti specifici, senza tenere conto dei più ampli contesti dove AI viene utilizzata, con le relative implicazioni: le lacune sul principio di responsabilità, ed in particolare sul principio di colpevolezza e sulla responsabilità morale.Per quanto riguarda la colpevolezza, un elevato numero di attori rende opaco chi è tenuto a rispondere di un eventuale danno: per esempio, chi è il responsabile in un incidente stradale causato da un veicolo a guida autonoma? Nei fatti, ci sono una serie di agenti diversi coinvolti: i data miners ed i data analysts, i fornitori del software del sistema di guida, il fabbricante dell’auto che lo applica ed i suoi programmatori che lo adattano al veicolo, gli enti pubblici che ne hanno autorizzato l’utilizzo, il proprietario del veicolo.Il concetto di responsabilità morale nell’applicazione dell’intelligenza artificiale è legato invece al dovere di spiegare le proprie decisioni: si pensi per esempio ad un medico che non è in grado di spiegare nel dettaglio al paziente la propria diagnosi, in quanto effettuata con programmi di AI di cui non è in grado di capire il funzionamento, od al funzionario di banca che deve giustificare la mancata concessione di un credito decisa dal software del suo istituto.Il dubbio è che i codici etici volontari rappresentino solo un’indicazione al pubblico che le imprese sono in grado di affrontare questi problemi in maniera autonoma, con il rischio che l’adozione di protocolli o la partecipazione alle associazioni rappresenti un alibi per cercare di arginare legislazioni stringenti. Quanto accade con i codici di comportamento ESG delle aziende mi sembra un parallelo calzante.

Tuttavia, per ridurre i rischi legati all’utilizzo dell’intelligenza artificiale, da più parti si sta pensando alla creazione di regolamenti nei quali inquadrare i prodotti che la utilizzano, come ha proposto la Commissione Europea la scorsa primavera. Ma sarebbero necessari protocolli, da adottare a livello globale, sufficientemente elastici da non impattare sullo sviluppo di AI, pur imponendone confini che ne garantiscano la trasparenza e l’adesione ai più condivisi principi etici.Impegno ambizioso. Per ora non resta che sperare che venga almeno applicato il primo enunciato della prima legge sulla robotica di Asimov.

 

 

© Gianluca Sabbadini – The Adam Smith Society

 

Condividi articolo:
Torna in alto