Perché gli IA superintelligenti non distruggeranno gli umani in qualunque momento presto

Autore: Roger Morrison
Data Della Creazione: 1 Settembre 2021
Data Di Aggiornamento: 1 Luglio 2024
Anonim
Perché gli IA superintelligenti non distruggeranno gli umani in qualunque momento presto - Tecnologia
Perché gli IA superintelligenti non distruggeranno gli umani in qualunque momento presto - Tecnologia

Contenuto


Fonte: Willyambradberry / Dreamstime.com

Porta via:

Nonostante alcune delle fantasie fantascientifiche che ha ispirato, gli esperti spiegano che probabilmente l'IA non ci minaccerà direttamente in termini di supremazia mentale.

Se stai prestando attenzione a ciò di cui le persone parlano nello spazio tecnologico, potresti aver sentito alcune versioni delle preoccupazioni che Elon Musk, Bill Gates e altri nutrono riguardo alle tecnologie di intelligenza artificiale superintelligenti, anche se i recenti rapporti mostrano che Gates si è raffreddato un po ' su tutta quella roba di Cassandra, ci sono ancora preoccupazioni e ragionamenti abbondanti dietro di essa.

Le domande abbondano: i robot diventeranno più intelligenti degli umani? L'intelligenza artificiale assumerà il nostro posto di lavoro e la nostra vita? La tecnologia inizierà a controllare gli esseri umani e i problemi con un'IA abusata porteranno a violenza e distruzione?


Per molti esperti, la risposta è un clamoroso "no" basato sui modi reali in cui stiamo sviluppando le tecnologie di oggi. La maggior parte concorderebbe sul fatto che abbiamo bisogno di quadri etici e spiegabili per dirigere le tecnologie AI e ML, ma non concordano sul fatto che i padroni dei robot siano un dato risultato.

Diamo un'occhiata ad alcuni dei dibattiti sulla superintelligenza e vediamo perché molti tecnici sono fiduciosi che gli umani terranno ancora le redini tra un paio di centinaia di anni.

Gli umani prendono il comando

Quando osservi i rapporti sui problemi di intelligenza artificiale, un nome che emerge abbastanza è Grady Booch. Booch ha aperto la strada all'Unified Modeling Language (UML) e ha lavorato sulle tecnologie chiave per IBM all'inizio del millennio.

Un discorso di TED di Booch illustra alcuni dei suoi ottimismi sui tipi di IA che eravamo soliti considerare fantascienza.


In primo luogo, sostiene, la formazione umana fletterà la propria etica e le proprie norme nel funzionamento dei sistemi di intelligenza artificiale.

"Se voglio creare un assistente legale artificialmente intelligente, gli insegnerò un po 'di corpus della legge ma allo stesso tempo fonderò con esso il senso di misericordia e giustizia che fa parte di quella legge", dice Booch. "In termini scientifici, questo è ciò che chiamiamo verità di base, ed ecco il punto importante: nel produrre queste macchine, stiamo quindi insegnando loro un senso dei nostri valori. A tal fine, mi fido dell'intelligenza artificiale allo stesso modo, se non di più, di un essere umano ben addestrato. ”(Per ulteriori informazioni sul futuro (e passato) dell'IA, dai un'occhiata a Thinking Machines: The Artificial Intelligence Debate.)

Nessun bug, nessuno stress: la tua guida passo passo alla creazione di software che ti cambia la vita senza distruggere la tua vita

Non puoi migliorare le tue capacità di programmazione quando a nessuno importa della qualità del software.

Più avanti nel discorso, Booch solleva un altro argomento molto diverso sul perché non dobbiamo temere un rilevamento da parte delle tecnologie.

"(Una minaccia esistenziale per l'umanità dalla tecnologia) dovrebbe essere con una superintelligenza", dice Booch. “Dovrebbe avere il dominio su tutto il nostro mondo. Questa è la materia di Skynet del film "The Terminator", in cui avevamo una superintelligenza che comandava la volontà umana, che dirigeva ogni dispositivo che si trovava in ogni angolo del mondo. In pratica, non succederà. Non stiamo costruendo AI che controllano il clima, che dirigono le maree, che ci comandano umani capricciosi e caotici. E inoltre, se esistesse una tale intelligenza artificiale, dovrebbe competere con le economie umane, e quindi competere per le risorse con noi ... alla fine (non ditelo a Siri) possiamo sempre scollegarle. "

I nostri cervelli, i nostri corpi

Un altro argomento importante per la supremazia della cognizione umana sulla tecnologia è legato all'esplorazione del cervello umano.

Se vai su YouTube e ascolti il ​​rinomato ingegnere Marvin Minsky, uno dei primi pionieri della ML e un esempio per Ray Kurzweil e altri guru dell'IA di oggi, puoi sentirlo parlare del cervello umano. Minsky sottolinea che la vera intelligenza umana non è un potente supercomputer, ma centinaia di computer diversi collegati tra loro in modi complessi. L'intelligenza artificiale, spiega, è in grado di replicare alcune di quelle macchine, ma non è in alcun modo vicino a replicarle tutte.

Per molti esperti di tecnologia, l'IA non sarà mai in grado di imitare veramente la complessità del cervello umano, e quindi sarà sempre meno potente.

"Gli IA di solito non sono progettati per sopravvivere ma invece per risolvere problemi molto specifici e centrati sulla persona come giocare a scacchi", ha scritto Luc Claustres, Ph.D. fine dell'anno scorso. "In quanto tali, non possono nemmeno adattarsi a lievi cambiamenti nel loro ambiente senza riprogrammarli, mentre gli umani gestiscono l'imprecisione o cambiano facilmente le regole su se stessi".

AI e Intuition

C'è anche un argomento corollario che si basa su quello che potresti chiamare il "problema della guardia di attraversamento" - espone i limiti di ciò che l'intelligenza artificiale può fare. L'intelligenza artificiale e l'ML sono grandiose nel trarre spunti da un pool diversificato di dati, ma non sono bravi nell'intuizione, qualcosa per cui gli umani sono noti. Quindi, in altre parole, se assumessi un computer come guardia di attraversamento, potresti avere alcune funzionalità - ma probabilmente avresti delle lacune piuttosto pericolose - di cui non ti fideresti dei tuoi figli! (Per ulteriori informazioni sul potenziale dell'intelligenza artificiale per il pensiero umano, vedi la creatività può essere implementata nell'intelligenza artificiale?)

Pertanto, i programmi per computer non sono in grado di comprendere le nostre stranezze e idiosincrasie umane nei modi in cui comunichiamo e nei modi in cui viviamo, quindi questa è un'altra limitazione fondamentale.

Per ulteriori informazioni sul motivo per cui le preoccupazioni relative alla superintelligenza possono essere esagerate, un articolo di Wired dell'anno scorso di Kevin Kelly analizza alcune ipotesi che dovrebbero essere valide affinché l'IA possa davvero prendere il sopravvento in modo pratico. Questi includono i seguenti:

  • Quell'intelligenza artificiale sta già dominando la cognizione umana
  • Quella intelligenza può essere estesa senza limiti
  • Quella super intelligenza può risolvere la maggior parte dei problemi che gli umani devono affrontare

Leggendo l'articolo, vedi tutti questi presupposti esplosi e trattati per mostrare, ancora una volta, perché la cognizione umana è così speciale.

Non è che la tecnologia non diventerà potente - lo farà. È una questione di tutte le diverse dimensioni che devono essere padroneggiate per rendere l'IA più potente degli umani. Gli esseri umani si sono evoluti nel corso di milioni e milioni di anni: l'intelligenza artificiale esiste da circa 20 anni e sebbene abbia fatto enormi progressi, gli umani hanno ancora il sopravvento e probabilmente lo faranno per sempre.

Se rileggi alcuni di questi link e osservi ciò che la gente stava dicendo, ciò di cui dovremmo davvero essere più preoccupati è noi stessi. Esiste un potenziale abbondante per gli esseri umani di abusare della tecnologia - in effetti, molti di noi direbbero che abbiamo già abusato di molte delle tecnologie che abbiamo. Quindi potrebbe davvero essere un posto migliore per mettere l'ansia e l'azione di una persona quando si tratta di creare un'IA etica.