Compartir estrestopics.com en facebookCompartir estrestopics.com en twitterCompartir estrestopics.com en Google´´+Recibir estrestopics.com por rss

Recibe nuestras noticias por email

jueves, noviembre 22, 2012

La Ong "Human Rights Watch" contra el desarrollo del "Terminator".

La Ong "Human Rights Watch" ha pedido que los gobiernos prohíban el desarrollo de robots militares automáticos que busquen objetivos para atacar y tomen por su cuenta la decisión de matar.

Pedimos una prohibición del desarrollo, producción y uso de estas armas completamente autónomas, tanto a nivel nacional de Estados Unidos como a través de un tratado internacional que las prohíba de forma integral”, instó Steve Goose, director de la división de Armas de esta ONG, en una rueda de prensa que tuvo lugar el lunes en Washington.

En la comparecencia Goose presentó el informe preparado por la organización titulado ‘Losing Humanity: The Case against Killer Robots' ('Perdiendo la humanidad: el caso contra los robots asesinos'). Según Human Rights Watch entre los países involucrados en el desarrollo de estas armas están EE.UU., China, Rusia, Corea del Sur, Israel, Alemania y el Reino Unido.

En el informe Human Rights Watch advierte que aunque la creación de robots militares completamente autónomos puede tardar 20 o 30 años, ya existen tecnologías que necesitan poca intervención humana.

El mecanismo quizá más parecido a una especie de ‘Terminator’ es un robot de guardia elaborado por Samsung y usado en Corea del Sur. El robot es capaz de registrar movimientos en el territorio, conversar con los visitantes y, en caso de recibir la autorización de un controlador humano, disparar.

Muchos países están muy interesados en crear robots capaces de atacar sin intervención humana para poder minimizar la intervención de tropas y disminuir la cantidad de muertes de los soldados, destacó Goose en la rueda de prensa. Pero, alertó, la aplicación de robots que seleccionan objetivos para atacar pone en peligro a los civiles, porque los robots no distinguirán si una persona es militar, ni sienten compasión o enfado. 

Por otro lado, el organismo asegura en el informe que dificulta la búsqueda de responsabilidades, porque los robots no pueden ser condenados por sus actos ni está claro quién podría asumir la responsabilidad en la jerarquía militar. “Si un robot se vuelve loco, ¿quién va a ser responsable? Seguramente no el robot”, dice Noel Sharkey, profesor de robótica de la Universidad de Sheffield. “No hay ninguna manera de definir quién tiene que asumir la responsabilidad, algo que es muy importante para la ley marcial”. Además, cree que se entraría en guerras con mayor facilidad y los regímenes dictatoriales podrían usarlo para ir en contra de su propia población.

No hay comentarios:

Publicar un comentario