dimarts, 15 de maig del 2018

L'ètica de les futures màquines de guerra autònomes

L'àmbit més inquietant on les màquines poden prendre decisions autònomes és el militar. De moment, ja són factibles les màquines capaces de matar persones que es controlen per ordinador, les anomenades LAR (Robots Autònoms Letals, de les sigles en anglès).

L'ètica de les futures màquines de guerra autònomes

Si bé els governs amb capacitat per produir LAR han assenyalat que no contemplen el seu ús durant conflictes armats o altres situacions, no es pot estar segur que aquesta situació continuï controlada.

Ètica per a la màquina
Per aquesta raó, al 2008, la Marina nord-americana ja va encarregar al Grup d'Ètica i Ciències Emergents de la Universitat Politècnica de Califòrnia la creació d'un informe que revisés les qüestions ètiques que comporten els LAR. L'informe presenta també els dos enfocaments possibles per a la construcció de robots autònoms ètics: de dalt a baix i de baix a dalt.
En l'enfocament de dalt a baix, totes les regles que governen les decisions del sistema estan programades amb antelació, i el robot simplement obeeix les regles "sense canvis ni flexibilitat". El major problema d'aquest enfocament és que no resulta gens senzill de preveure totes les circumstàncies.

L'ètica de les futures màquines de guerra autònomes

En l'enfocament baix a dalt, es programa el robot amb unes poques regles rudimentàries i se li permet interactuar amb el món. Utilitzant tècniques d'aprenentatge automàtic, desenvoluparà el seu propi codi moral, adaptant-lo a noves situacions a mesura que apareguin.
En teoria, a quants més dilemes faci front el sistema, més exhaustius seran els seus judicis morals. Però l'enfocament de baix a dalt ofereix problemes fins i tot més delicats, com objecta Nicholas Carr en el seu llibre Atrapats:
En primer lloc, és impracticable; encara s'ha d'inventar algoritmes d'aprenentatge de màquines prou subtils i sòlids per a la presa de decisions morals. En segon lloc, no hi ha espai per a l'assaig i error en situacions de vida o mort; l'enfocament mateix seria immoral. Finalment, no es garanteix quina moralitat desenvoluparà un ordinador perquè reflecteixi o guardi harmonia amb la moralitat humana.

L'ètica de les futures màquines de guerra autònomes

Si bé tots els aparells actuen encara sota supervisió humana, robots com el SGR-A1, fabricat per Samsung Techwin, posseeix algoritmes capaços de distingir entre militars i civils desarmats i prendre mesures en funció d'aquesta identificació: per exemple, disparant bales de goma. El robot també pot il·luminar els intrusos o sol·licitar una contrasenya per verificar que no es tracta de soldats amics desorientats. Actualment, a la frontera entre les dues Corees, la del Sud ja està emprant aquestes unitats semiautònomes de vigilància.

Font: Xalaka

Cap comentari:

Publica un comentari a l'entrada

Aquest és un blog amb moderador dels comentaris. Per tant, no apareixen immediatament