
L’ ètica dels soldats robots
Els robots militars que lluitaran en les guerres del futur han de ser programats per a regir-se per un “codi militar“. En cas contrari, ens arriscarem a patir atrocitats terribles a les seves mans d’acer.
Un informe de la Marina dels Estats Units, realitza aquesta advertència i inclou consideracions sobre un escenari a l’estil de ‘Terminator’ en el qual els robots es tornen contra els seus amos humans.
L’informe, sobre l’ètica dels robots soldats, prefigura per a un futur proper una era en la qual els robots seran prou intel·ligents com per prendre decisions en el camp de batalla que fins ara s’han reservat als humans. Els robots podrien arribar a desenvolupar capacitats intel.lectuals superiors a les dels soldats humans.
“Hi ha un error : creure que els robots només faran el que estiguin programats a fer” , diu l’informe. “Tal creença ja no és vàlida: data d’un temps en què els programes només podien ser escrits per una única persona”. Els programes moderns tenen codis de milions de línies i els escriuen equips de programadors, cap dels quals coneix el programa complet. Cap individu podria predir com interactuarien les diferents parts dels programes grans.
La solució serà combinar una programació basada en les normes amb un període de ‘aprenentatge’ de les coses que es poden i no es poden fer a la guerra.
L’informe planteja una sèrie de preguntes: Com protegirem els nostres exèrcits de robots contra els ‘hackers’ de bandes terroristes o els errors informàtics? A qui culpabilitzarem si un robot es torna boig davant d’una multitud de civils: al robot, al seu creador, al president dels EUA? ¿Cal que els robots tinguin una ‘opció suïcidi’ o haurien de ser programats per defensar la seva vida?
L’informe crida a l’exèrcit nord-americà a anar amb molta precaució ara que els dissenyadors de robots militars estan ficats en la cursa per arribar al mercat i s’està incrementant el ritme dels avenços en intel·ligència artificial. Pensem que el 2010 una tercera part de tots els avions d’atac operatius seran no pilotats i el 2015 ho serà també una tercera part de tots els vehicles de combat d’infanteria.
És imprescindible inculcar codis ètics als robots. Un senzill codi ètic en la línia de les’ Tres Lleis de la Robòtica’ que va proposar el 1950 Isaac Asimov no serà suficient per garantir un comportament ètic per part de les màquines militars autònomes. “Aquests artefactes són militars, i no poden ser pacifistes, així que hem de pensar en termes de l’ètica de la guerra. Necessitarem un codi del guerrer“.
Un informe de la Marina dels Estats Units, realitza aquesta advertència i inclou consideracions sobre un escenari a l’estil de ‘Terminator’ en el qual els robots es tornen contra els seus amos humans.
L’informe, sobre l’ètica dels robots soldats, prefigura per a un futur proper una era en la qual els robots seran prou intel·ligents com per prendre decisions en el camp de batalla que fins ara s’han reservat als humans. Els robots podrien arribar a desenvolupar capacitats intel.lectuals superiors a les dels soldats humans.
“Hi ha un error : creure que els robots només faran el que estiguin programats a fer” , diu l’informe. “Tal creença ja no és vàlida: data d’un temps en què els programes només podien ser escrits per una única persona”. Els programes moderns tenen codis de milions de línies i els escriuen equips de programadors, cap dels quals coneix el programa complet. Cap individu podria predir com interactuarien les diferents parts dels programes grans.
La solució serà combinar una programació basada en les normes amb un període de ‘aprenentatge’ de les coses que es poden i no es poden fer a la guerra.
L’informe planteja una sèrie de preguntes: Com protegirem els nostres exèrcits de robots contra els ‘hackers’ de bandes terroristes o els errors informàtics? A qui culpabilitzarem si un robot es torna boig davant d’una multitud de civils: al robot, al seu creador, al president dels EUA? ¿Cal que els robots tinguin una ‘opció suïcidi’ o haurien de ser programats per defensar la seva vida?
L’informe crida a l’exèrcit nord-americà a anar amb molta precaució ara que els dissenyadors de robots militars estan ficats en la cursa per arribar al mercat i s’està incrementant el ritme dels avenços en intel·ligència artificial. Pensem que el 2010 una tercera part de tots els avions d’atac operatius seran no pilotats i el 2015 ho serà també una tercera part de tots els vehicles de combat d’infanteria.
És imprescindible inculcar codis ètics als robots. Un senzill codi ètic en la línia de les’ Tres Lleis de la Robòtica’ que va proposar el 1950 Isaac Asimov no serà suficient per garantir un comportament ètic per part de les màquines militars autònomes. “Aquests artefactes són militars, i no poden ser pacifistes, així que hem de pensar en termes de l’ètica de la guerra. Necessitarem un codi del guerrer“.
El Mundo 19.2.09 (adaptat i traduit)
1.De què ens parla l’ article?
2.No seria millor no fabricar soldats robots?
3.És bona l’ opció “suicidi”?
4.Quin hauria de ser el primer principi ètic a programar en un soldat robot?
5.És cert que els soldats robot no poden ser pacifistes?
6.Qui guanyarà les guerres en el futur?
7.Ampliacions voluntàries.