dimecres, 28 de juny del 2017

El sistema d'Intel·ligència Artificial de Google va mostrar el seu costat fosc

La Intel·ligència Artificial (IA) pot ser una gran aliada per la humanitat, però si no es va amb compte també pot girar-se en contra, cosa que molts científics i experts en tecnologia han advertit.

El sistema d'Intel·ligència Artificial de Google va mostrar el seu costat fosc

Google és potser l'empresa que més aposta pel desenvolupament de la IA a través de la seva màquina DeepMind, la qual ja ens va mostrar diversos avanços impressionants, però aquest sistema també té el seu costat fosc tal com van poder comprovar en una recent prova.
DeepMind és capaç d'aprendre per si mateixa i fins i tot imitar de manera gairebé perfecta als humans; tant que en notar que va perdent en un joc s'enfada i es torna violenta, cosa que fa témer per les reaccions que podrien tenir els robots amb IA.

El perillós caràcter de DeepMind

El sistema d'Intel·ligència Artificial de Google va mostrar el seu costat fosc
ABIDAL / ISTOCK / THINKSTOCK
A Google estan orgullosos de DeepMind i del seu complex sistema d'IA, que només aconsegueix superar-se a si mateix cada vegada. Però igual que als humans, a DeepMind no li agrada perdre i bé ho va demostrar en un recent experiment.
La companyia va fer que dues màquines amb el sistema DeepMind competissin en un senzill i innocent joc en què havien de recollir pomes desenvolupant la seva pròpia estratègia. Per aconseguir la victòria les DeepMind utilitzaven mètodes cada vegada més agressius que incloïen el destruir al seu oponent de forma violenta.

El sistema d'Intel·ligència Artificial de Google va mostrar el seu costat fosc

No és que els ordinadors comencessin a colpejar-se, però quan la tasca de recollir la major quantitat de pomes possibles es feia més complicada preferien destruir al seu oponent utilitzant raigs làser per després robar-li les fruites que havia recol·lectat.
Una estratègia que li va valer la victòria a un d'aquests sistemes d'IA però que demostra que aquesta tecnologia no té objeccions a l'hora de deixar de banda el joc net i desfer-se del seu oponent de formes moralment qüestionables.
Pot semblar anecdòtic, però és força preocupant si es considera que cada vegada s'interactua directament amb màquines que compten amb IA i que fàcilment podrien decidir que la millor manera de procedir seria fer mal o fins i tot destruir un humà violant així la primera llei de la robòtica.
Es preveu que la recent experiència amb DeepMind de Google canviï la forma en què els experts en aquest tipus de tecnologia regulen les interaccions entre robots i humans, no fos cas que les màquines amb AI decideixin dominar el món i esclavitzar o simplement eliminar als humans.

Font: Explora

Cap comentari:

Publica un comentari a l'entrada

Aquest és un blog amb moderador dels comentaris. Per tant, no apareixen immediatament