Con grandi progressi arriva una grande responsabilità

Autore: Roger Morrison
Data Della Creazione: 27 Settembre 2021
Data Di Aggiornamento: 9 Maggio 2024
Anonim
Con grandi progressi arriva una grande responsabilità - Tecnologia
Con grandi progressi arriva una grande responsabilità - Tecnologia

Contenuto


Fonte: Mike2focus / Dreamstime.com

Porta via:

Il consumo dei media si sta evolvendo parallelamente ai progressi tecnologici come l'intelligenza artificiale (AI). Mentre generalmente abbracciamo il progresso, dobbiamo anche essere consapevoli degli svantaggi di alcune forme di tecnologia. C'è un lato oscuro nelle capacità dell'IA quando viene utilizzato nella promozione di notizie false.

Il lato oscuro della tecnologia è stato tra gli argomenti esplorati alla seconda conferenza Machines + Media di New York Media Lab, che è stata sponsorizzata e ospitata da Bloomberg nella sua sede globale in città il 15 maggio. Sebbene alcune delle sessioni riguardassero più di quale tecnologia è attualmente disponibile per i media, anche quelli che hanno portato l'ombra della manipolazione e della disinformazione.

Una buona storia è più avvincente dell'intera verità

Nella sessione intitolata "Stato dell'arte", Gilad Lotan, vicepresidente della scienza dei dati, Buzzfeed, ha sottolineato che il problema delle notizie false o fuorvianti non può essere attribuito esclusivamente alle società di media o alle nuove tecnologie. "Le persone non sono necessariamente alla ricerca di fatti", ha detto. "I lettori vogliono storie."


Ha aggiunto che alimentare quel desiderio di storie e narrazioni privilegiate può tradursi in notizie false che sono "più manipolazioni che informazioni false". In effetti, la storia fornita potrebbe non includere nulla di falso. Ciò che è falso al riguardo è che i fatti riportati sono stati raccolti e rimossi dalla più grande "truffa" al fine di condurre "i lettori verso una conclusione".

Allo stesso modo, nella sessione "Platform + Media", Kelly Born della Us Democracy Initiative della William and Flora Hewlett Foundation ha dichiarato: "Alle persone piacciono le notizie che rafforzano le loro convinzioni, e soprattutto se scatenano l'indignazione". Ha avvertito che la capitalizzazione dei media su quella tendenza può portare a una "tempesta perfetta" che fa emergere il peggio in noi. Ciò è aggravato dalla possibilità di presentazioni completamente fabbricate.


Vedere sta ancora credendo?

La tecnologia gioca un ruolo nel raccontare la storia attraverso immagini e video. Di solito crediamo a ciò che vediamo a meno che non ci siano evidenti segni di manipolazione. Tuttavia, poiché l'IA migliora il realismo dei video falsi, ora è possibile letteralmente mettere le parole in bocca a personaggi pubblici. (L'intelligenza artificiale non viene utilizzata solo per scopi nefasti. Dai un'occhiata ad alcuni costruttivi in ​​5 modi in cui le aziende potrebbero voler prendere in considerazione l'utilizzo dell'IA.)

Il pericolo della produzione di AI di video molto credibili è stato dimostrato nella sessione intitolata "Soluzioni per il lato oscuro dei media basati su macchine". È iniziato con un video in cui Barack Obama diceva cose che l'ex presidente non ha mai effettivamente detto. Il movimento era ancora leggermente non sincronizzato con le parole, quindi ha alcuni segni di un video falso e la maggior parte del pubblico ha affermato di poterlo riconoscere come un falso.

Il fatto che la manipolazione video di Obama non ha raggiunto il realismo di resuscitare Peter Cushing come Grand Moff Tarkin per "Rogue One". Come ha spiegato un articolo del New York Times, l'effetto è stato ottenuto facendo indossare a un attore "materiale motion-capture in testa" mentre davanti alla macchina da presa "in modo che il suo volto potesse essere sostituito con una ricostruzione digitale di Cushing". Il direttore creativo / supervisore senior degli effetti visivi del film, l'ha definita "una versione super high-tech e ad alta intensità di lavoro trucco."

Falsi non rilevabili

Ora, grazie ai progressi dell'IA, in particolare alle reti generative contraddittorie (GAN), è più facile che mai ottenere effetti magici sui film. Utilizzando i GAN, un sistema di intelligenza artificiale perfeziona le riprese fino a quando non è abbastanza buono per essere accettato come reale da un sistema di intelligenza artificiale progettato per rilevare i falsi.

Nessun bug, nessuno stress: la tua guida passo passo alla creazione di software che ti cambia la vita senza distruggere la tua vita

Non puoi migliorare le tue capacità di programmazione quando a nessuno importa della qualità del software.

In questo video, puoi vedere i ricercatori dimostrare come un attore può dirigere i movimenti del volto di una figura pubblica per produrre qualsiasi espressione e pronuncia con il livello di fedeltà che di solito non si trova nei video con documenti.

Sebbene al momento non tutte le persone che giocano con i video dispongano di un tale sistema, il software sarà alla portata di più persone nel prossimo futuro.

Conseguenze possibili

Dhruv Ghulati, fondatore e CEO, Factmata, afferma di essere “molto preoccupato” di come questa capacità possa essere applicata per mettere nei video non solo i volti dei leader mondiali, ma anche quelli dei CEO e delle celebrità come prova del loro modo di dire o di fare cose che non hanno . I poteri distruttivi del video sarebbero intensificati ottenendo un effetto virale dalle botnet.

Significa che "non possiamo più fidarci dei nostri occhi bugiardi", ha dichiarato Mor Naaman, professore associato di scienze dell'informazione, Cornell Tech. Era preoccupato che ciò avrebbe portato a una perdita di fiducia.

Altri sono preoccupati per aver acceso le fiamme della violenza. Già "i video leggermente modificati" sono "usati per provocare violenza nei paesi in via di sviluppo", ha osservato Aviv Ovadya, capo tecnologo del Centro per la responsabilità dei social media. (I social media possono essere un modo efficace per diffondere informazioni false. Dai un'occhiata ai 4 principali attacchi di feed più devastanti.)

Sarah Hudson, partner, Investing in US, ha espresso preoccupazione per il fatto che le immagini manipolate "su larga scala" rappresentino "un'incredibile minaccia per la sicurezza pubblica".

Pianificazione proattiva

È imperativo "prevenire il più possibile di tali abusi", ha detto Ovadya. Ecco perché è importante "pensare in anticipo mentre si sviluppa la tecnologia" su "come mitigare gli effetti negativi" e "dedicare risorse per affrontare quelle conseguenze indesiderate".

È impossibile tornare indietro sui progressi, ma ciò che dobbiamo fare è garantire che la direzione che prendiamo sia pensata e pianificata. Ciò significa non solo lavorare sulla tecnologia per vedere cosa si può fare, ma per pensare a cosa si può fare che dovrebbe essere evitato.

La via da seguire per l'innovazione tecnologica è riflettere su quali possano essere gli effetti e pianificare misure di salvaguardia prima che i pericoli si materializzino. Per fare ciò, avremo bisogno della cooperazione tra ricercatori, società tecnologiche e agenzie governative per stabilire standard e migliori pratiche a cui le persone aderiranno. Questa dovrebbe essere una priorità per tutti gli interessati.