Ho alcune spiegazioni da fare

Autore: Roger Morrison
Data Della Creazione: 28 Settembre 2021
Data Di Aggiornamento: 19 Giugno 2024
Anonim
Cosa possiamo imparare dal conflitto Russia e Ucraina
Video: Cosa possiamo imparare dal conflitto Russia e Ucraina

Contenuto


Fonte: Sdecoret / Dreamstime.com

Porta via:

Per fidarsi dell'output di un sistema di intelligenza artificiale, è essenziale essere in grado di comprendere i suoi processi e sapere come è arrivato alle sue conclusioni. L'intelligenza artificiale spiegabile è la chiave per eliminare qualsiasi potenziale pregiudizio.

Puoi fidarti dell'IA? Dovresti accettare i suoi risultati come oggettivamente validi senza dubbio? Il problema è che anche mettere in discussione l'IA stessa non darebbe risposte chiare.

I sistemi di intelligenza artificiale hanno generalmente funzionato come una scatola nera: i dati vengono immessi e i dati vengono emessi, ma i processi che trasformano tali dati sono un mistero. Questo crea un duplice problema. Uno è che non è chiaro quali siano le prestazioni degli algoritmi più affidabili. L'altro è che i risultati apparentemente oggettivi possono essere distorti dai valori e dai pregiudizi degli umani che programmano i sistemi. Questo è il motivo per cui c'è bisogno di trasparenza per i processi di pensiero virtuale che tali sistemi usano, o "AI spiegabili".


L'imperativo etico è diventato legale per chiunque sia soggetto al GDPR, il che ha un impatto non solo sulle aziende con sede nell'UE ma anche su quelle che hanno rapporti con persone o organizzazioni. Contiene una serie di disposizioni sulla protezione dei dati che si estendono ai cittadini dell'UE "il diritto a non essere soggetti esclusivamente al processo decisionale automatizzato, tranne in determinate situazioni" e "il diritto di ricevere informazioni significative sulla logica implicata nella decisione “.

In altre parole, non è più sufficiente dire "L'algoritmo ha respinto la tua domanda". Esiste un mandato legale per spiegare la linea di pensiero che ha portato alla conclusione che ha un impatto sulla vita delle persone. (Per ulteriori informazioni sui pro e contro dell'IA, dai un'occhiata a Le promesse e le insidie ​​dell'apprendimento automatico.)

Risultati distorti

Una preoccupazione che alcune persone hanno sollevato in merito alle decisioni algoritmiche è che, pur sostenendo un ragionamento oggettivo, possono rafforzare i pregiudizi. Questo è il punto cruciale dell'argomentazione di Cathy ONeil in "Armi di distruzione della matematica: come i big data aumentano le disuguaglianze e minaccia la democrazia". L'aspetto stesso dell'obiettività associato ai big data è ciò che lo rende così dannoso nelle sue applicazioni che rafforzano effettivamente i pregiudizi .


Ciò che lei chiama "distruzione matematica" è il "risultato di modelli che rafforzano le barriere, mantenendo svantaggiate particolari popolazioni demografiche identificandole come meno meritevoli di credito, istruzione, opportunità di lavoro, parole, ecc."

Non è sola a trovare pregiudizi algoritmici. Nel 2016, Pro Publica ha condiviso le sue scoperte secondo cui gli algoritmi prevedevano tassi di recidiva più elevati per i neri rispetto ai bianchi, un fattore che si è tradotto in diverse pene detentive per gli stessi tipi di crimini. Un articolo di Guardian del 2017 ha esteso la propensione al genere.

Il problema è che questi sistemi vengono programmati con conseguenze di vasta portata. In un'intervista telefonica Stijn Christiaens, co-fondatrice e CTO di Collibra, ha spiegato che l'IA consente un "processo decisionale automatizzato", che può superare più di 10 mila decisioni al secondo.

Nessun bug, nessuno stress: la tua guida passo passo alla creazione di software che ti cambia la vita senza distruggere la tua vita

Non puoi migliorare le tue capacità di programmazione quando a nessuno importa della qualità del software.

Ciò significa che un sistema basato su decisioni sbagliate ne prenderà molte di più molto più rapidamente di quanto qualsiasi umano possa fare. Se il sistema ha una propensione, quell'enorme numero di decisioni può essere "dannoso per determinate popolazioni", con conseguenze molto serie e diffuse, ha affermato Christiaens.

Cura e alimentazione degli algoritmi

Certamente, ci sono errori che derivano da dati incompleti o scadenti. Questo è il motivo per cui alcuni esperti citati nell'articolo Guardian sopra citato hanno fornito risultati di algoritmo distorti. Sandra Wachter dell'Università di Oxford ha riassunto il seguente: "Il mondo è distorto, i dati storici sono distorti, quindi non sorprende che riceviamo risultati distorti".

Sulla stessa linea, Christiaens ha detto: "Essendo basato su osservazioni del mondo reale," AI "osserva i nostri pregiudizi e produce risultati sessisti o razzisti". Applicando i suoi termini a ciò che è popolarmente noto come immondizia, immondizia (GIGO ), ha affermato che il problema potrebbe essere "l'alimento" che costituisce i dati di allenamento perché è sbagliato, incompleto o distorto.

I risultati razzisti e sessisti possono essere formati nel sistema da dati che non rappresentano adeguatamente le differenze nella popolazione. Ha offerto il caso di attingere a dati di formazione basati su relatori a conferenze in cui le donne possono avere solo il 20% di rappresentanza. Se addestrato su tale rappresentazione distorta, l'algoritmo avrà un pregiudizio incorporato.

AI Alchemy

Il problema di distorsione dell'intelligenza artificiale non è sempre dovuto al feed di dati, ma anche al modo in cui prende le sue decisioni. Il mistero di quelle operazioni colpì così tanto Ali Rahimi e Ben Recht che lo paragonarono all'alchimia.

Mentre l'alchimia può avere il suo posto, non è quello che la gente vuole come risposta alle loro domande sulle decisioni automatizzate con gravi conseguenze. Come affermano Rahimi e Recht: "Ma ora stiamo costruendo sistemi che regolano l'assistenza sanitaria e la nostra partecipazione al dibattito civile. Mi piacerebbe vivere in un mondo i cui sistemi sono basati su conoscenze rigorose, affidabili, verificabili e non su alchimia. "(Per ulteriori informazioni sull'intelligenza artificiale nell'assistenza sanitaria, vedere I 5 progressi più sorprendenti dell'IA nell'assistenza sanitaria.)

Oltre la scatola nera: scoprire cosa determina le decisioni

Questo è il motivo per cui alcuni stanno spingendo per un modo per introdurre trasparenza nel processo di pensiero dei sistemi di intelligenza artificiale, spiegando perché è arrivato alle conclusioni che ha fatto. Ci sono stati sforzi da vari luoghi.

Nel 2016 un gruppo di tre professori e ricercatori delle università americane ha lavorato a una soluzione che hanno chiamato Local Interpretable Model-Agnostic Explanations (LIME). Spiegano il loro approccio in questo video:

Sebbene sia stato un passo nella giusta direzione, la soluzione non ha funzionato perfettamente. E così la ricerca continua, e alla luce del GDPR, coloro che sono collegati all'UE hanno un interesse particolare nel raggiungere un'IA spiegabile.

Il laboratorio di intelligenza artificiale dell'Università di Brussel, un'istituzione dalla quale è emersa la compagnia di Christiaens, è uno dei luoghi dedicati a tale ricerca. Il laboratorio ha trovato il modo di lavorare con il riconoscimento delle immagini e ha "la rete che spiega linguisticamente ciò che è stato visto e perché" giunge alle conclusioni che fa su ciò che è nella foto, ha detto.

"Gli algoritmi funzionano sempre allo stesso modo", ha spiegato Christiaens. "I dati di input vengono tradotti in funzionalità". Nel laboratorio di intelligenza artificiale, hanno i mezzi "per eseguire il drill down e vedere cosa è successo nella struttura decisionale". Su tale base, è possibile "vedere i percorsi che sono stati seguiti" per vedere dove qualcosa è andato storto e poi "adattarsi e riqualificarsi".

IBM ha anche indirizzato la sua attenzione al problema della scatola nera e ha recentemente annunciato l'offerta di un servizio software, che prenderà in considerazione i pregiudizi e terrà conto delle decisioni dell'IA anche mentre il sistema è in esecuzione attraverso il cloud IBM. Oltre all'avviso tempestivo, offre suggerimenti su quali dati sono necessari per contrastare i risultati distorti.

Oltre al servizio cloud, IBM offre consulenza alle aziende che stanno costruendo sistemi di apprendimento automatico per cercare di ridurre i risultati distorti in futuro. Forse anche altri esperti di intelligenza artificiale saranno coinvolti nella consulenza per aiutare a costruire sistemi migliori e offrire un controllo per possibili errori che vengono programmati.

Dobbiamo ricordare che i sistemi di intelligenza artificiale sono soggetti a errori quanto gli umani che li hanno creati, e quindi nessuno è al di sopra di dare un resoconto delle decisioni.