L’Intelligenza Artificiale e le implicazioni sui diritti umani

[Traduzione a cura di Luciana Buttini dall’articolo originale di Jonathan Drake pubblicato su openDemocracy]

L’Intelligenza Artificiale sta crescendo a ritmo sostenuto sollevando seri problemi nel campo dell’etica e dei diritti umani.

Voi siete peggio di un idiota; voi non avete alcun rispetto per la vostra specie. Per più di migliaia di anni gli uomini non hanno fatto altro che sognare patti con i demoni. Ora tali cose sono possibili.

Quando, nel 1984, William Gibson scriveva queste parole nel suo romanzo rivoluzionario, Neuromante, l’Intelligenza Artificiale (IA) rientrava quasi interamente nel regno della fantascienza.  Tuttavia, oggi, la convergenza di algoritmi complessi, lo sviluppo di Big Data (o grandi dati), e la crescita esponenziale della potenza di calcolo hanno dato vita a un mondo in cui l’IA solleva una serie di problemi importanti nel campo dell’etica e dei diritti umani, coinvolgendo un insieme di diritti che va da quello alla privacy al diritto a un equo processo. Pertanto, al fine di affrontare tali problematiche ci sarà bisogno di un notevole contributo da parte di esperti di un’ampia gamma di discipline quali le politiche sociali, l’economia, la giustizia penale, l’etica e perfino la filosofia.

Oggi molte nuove invenzioni presentano spesso conseguenze involontarie. Tuttavia, l’IA è unica in quanto le decisioni che danno origine a tali conseguenze vengono solitamente prese senza l’intervento umano. La più grave di queste potenziali conseguenze nefaste scaturisce da sistemi progettati appositamente per apportare danni sin dalla loro creazione, come ad esempio i sistemi di armamento.

Dopo essere state a lungo l’elemento principale dei film di fantascienza, le armi che comprendono vari gradi di autonomia di funzionamento, esistono in realtà da diverso tempo; e le mine terrestri rappresentano uno degli esempi più semplici di questa tecnologia ma anche uno dei più problematici in materia di diritti umani.  Tuttavia, oggi, la scienza dell’IA ha fatto dei passi in avanti al punto da arrivare a pensare ad un’ipotetica costruzione di sofisticati robot completamente autonomi.

A seguito di ciò, nel 2012 è stata lanciata la campagna internazionale “Stop Killer Robots” da parte di una coalizione di ONG, la quale cerca di garantire che la possibilità di prendere decisioni di vita o di morte resti strettamente di competenza dell’uomo. In quello stesso anno anche il ministero della Difesa americano, sebbene non fosse legato a questa campagna, ha emanato la Direttiva 3000.09. Quest’ultima definisce la sua politica e stabilisce che i sistemi di armamento completamente autonomi “devono essere utilizzati soltanto per ricorrere alla forza non letale e non cinetica come alcune forme di attacco elettronico.” Infatti secondo l’attuale politica, la forza letale necessita del controllo umano.

La rapida crescita dell'Intelligenza Artificiale sta causando problemi significativi nel campo dell'etica e dei diritti umani. Foto ripresa da Pixabay/geralt. Alcuni diritti riservati.
La rapida crescita dell’Intelligenza Artificiale sta causando notevoli problemi nel campo dell’etica e dei diritti umani. Foto ripresa da Pixabay/geralt. Alcuni diritti riservati.

Sebbene in maniera meno radicale rispetto alle applicazioni militari, lo sviluppo dell’IA in campo civile apre anche la strada a problematiche rilevanti nell’ambito dei diritti umani, quali la discriminazione e il razzismo sistematico. Negli Stati Uniti, ad esempio, le forze di polizia ricorrono sempre di più a sistemi automatici di “polizia predittiva”. Quest’ultimi immagazzinano grandi quantità di dati circa le attività criminali, la demografia e i modelli geospaziali per poter realizzare, a loro volta, delle mappe in cui gli algoritmi, sulla base di dati statistici, riescono a prevedere con quanta probabilità possa verificarsi un crimine.

In materia di diritti umani, le implicazioni di questa tecnologia appaiono perfino più gravi nel momento in cui tale sistema non si accontenta solo di prevedere il luogo del delitto ma cerca anche di capire quali siano i soggetti suscettibili a commettere tali reati. Questo è l’approccio adottato dalla città di Chicago, la quale ha impiegato l’IA per stilare una “Lista strategica” di potenziali criminali. Questi vengono non solo “visitati” dalla polizia ma anche informati di essere individui ad alto rischio.

Sebbene i fautori di questi sistemi sostengano la loro capacità di ridurre i tassi di criminalità e addirittura i pregiudizi nelle attività di polizia, finora gli elementi esistenti sono a dir poco confusi. Inoltre, gli scettici hanno fatto notare che l’IA potrebbe finire, in realtà, per rafforzare, piuttosto che attenuare, qualsiasi pregiudizio preesistente – e questo non solo per quanto riguarda le attività delle forze dell’ordine. Gli algoritmi – obiettano i critici – vengono elaborati sulla base di attuali pratiche di governo, spesso inique, che danno origine a diversi impatti in vari settori – in particolar modo nel mantenimento dell’ordine pubblico, negli investimenti di infrastrutture pubbliche, nell’accesso a un “equo processo” e nel diritto alla libertà di riunione.

Quando l’IA è indirizzata in queste direzioni ha le potenzialità per rafforzare e intensificare tali discriminazioni ma anche per togliere la possibilità a queste politiche di essere interpretate e riformate, e questo rappresenta forse l’aspetto più preoccupante. In questo modo, i pronostici dell’IA potrebbero trasformarsi in profezie autorealizzanti, che violano valori come la libertà di informazione e “il giusto processo”, con ulteriori implicazioni a tutto campo dei diritti civili, politici, economici, sociali e culturali.

Anche in situazioni apparentemente innocue, l’uso dell’IA è capace di sollevare questioni spinose in materia di diritti umani, come le aspettative di privacy di un individuo. Ad esempio nel 2012, Target, il gigante americano della grande distribuzione, impiegava l’analisi predittiva per cercare di determinare lo stato di gravidanza delle sue clienti al fine di poter intraprendere, di fatto, azioni commerciali nei confronti dei futuri genitori.  Tuttavia, ad un certo punto questo sistema ha preso come bersaglio un’adolescente e ha dato il meglio di sé nel momento in cui le ha inviato a casa dei buoni sconto da utilizzare sui prodotti per neonati, ancor prima che i suoi genitori fossero al corrente della sua maternità. Così, la crescente prevalenza di assistenti personali virtuali come Siri di Apple e Alexa di Amazon pone problemi simili sulla privacy, mentre l’efficacia che sta alla base dell’IA dipende dalla raccolta e dall’analisi di grandi quantità di informazioni personali sui loro utenti.

Quando l’IA viene unita a meccanismi che interagiscono con il mondo reale, la capacità di produrre effetti destabilizzanti viene rafforzata ulteriormente, sia sul piano individuale sia su quello sociale. Infatti, ad esempio, sin dalla fine dell’ultima recessione, la produzione manifatturiera negli Stati Uniti è aumentata di oltre il 20%, ma nello stesso settore l’occupazione è salita soltanto di un quarto. Questa tendenza può essere solo l’inizio.

Uno studio condotto nel 2013 dai ricercatori dell’Università di Oxford rivela che, poiché i sistemi robotici generici stanno diventando sempre più performanti e più facilmente programmabili, il 47% dei lavori in America è a rischio “automazione. La politica e le implicazioni etiche di un tale sviluppo sarebbero particolarmente gravi poiché, come fa notare lo studio, molti dei lavori che rischiano di essere automatizzati equivalgono a impieghi poco qualificati che oggi vengono svolti in modo sproporzionato dai lavoratori di bassa estrazione. Così, nei Paesi che difendono il diritto alla protezione contro la disoccupazione (Articolo 23.1 nella DUDU-Dichiarazione Universale dei Diritti Umani), tali sviluppi possono anche avere significative conseguenze giuridiche.

Nel romanzo di Gibson, il protagonista vive in un futuro misterioso in cui gli uomini e le loro intelligenze artificiali si trovano in uno stato continuo di antagonismo reciproco.  “Nessuno si fida di quelle fottute bastarde[…]” narra il romanzo, “ma nel minuto, voglio dire nel nanosecondo in cui qualcuna comincia a immaginare qualche mezzuccio per diventare più intelligente, Turing la spazzerebbe via.” Anche se ciò potrebbe ancora avvenire, l’immagine popolare della minaccia rappresentata dall’Intelligenza Artificiale, in cui un computer senziente cerca di accrescere la propria intelligenza a spese dei suoi creatori umani, resta speculativa. Tuttavia, i rischi causati da questa tecnologia ad altri campi dei diritti umani incombono già su di noi. Le violazioni dei diritti alla privacy e a un “equo processo” possono rappresentare sono l’inizio.

Luciana Buttini

Laureata in Scienze della Mediazione Linguistica, ha in programma di specializzarsi in Lingue per la cooperazione e la collaborazione internazionale. Nel frattempo lavora come traduttrice freelance dal francese e dall'inglese in vari ambiti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *