Publicado: 28.07.2015 18:30 |Actualizado: 28.07.2015 18:30

Expertos como Hawking advierten
de los peligros que conllevan las armas de inteligencia artificial

Temen que terminen en el mercado negro, en manos de terroristas y señores de guerra. Añaden que es "factible" que nos encontremos con equipos capaces de seleccionar, fijar y atacar objetivos sin ninguna intervención humana.

Publicidad
Media: 4.67
Votos: 3
Comentarios:
Yuri Milner y Stephen Hawking, durante la presentación. EFE/Andy Rain

Yuri Milner y Stephen Hawking. EFE/Andy Rain

BUENOS AIRES.- Expertos en tecnología, científicos como Stephen Hawking y filósofos como Noam Chomsky, entre otros referentes culturales y científicos, firmaron una carta en contra del desarrollo de armas de inteligencia artificial, difundida este martes en un congreso en Buenos Aires.

Centenares de investigadores de todo el mundo rubrican un texto que advierte sobre la aplicación de la inteligencia artificial al desarrollo de armas a nivel global, ya que es "factible" que en cuestión de "años, no décadas" nos encontremos con equipos capaces de seleccionar, fijar y atacar objetivos sin ninguna intervención humana.



En la carta presentada en la Conferencia Internacional de Inteligencia Artificial apuntan: "Si algún poder militar principal empuja hacia el desarrollo de armas de inteligencia artificial, una carrera armamentística global es virtualmente inevitable y el final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los Kalashnikovs del mañana".

También firman el texto el cofundador de Apple, Steve Wozniak; Elon Musk, presidente de Tesla y SpaceXel; y el responsable de inteligencia artificial de Google, Demis Hassabis, entre otros.

Agregan, además, que sería solo cuestión de tiempo que esas armas terminen en el mercado negro y en manos de terroristas y señores de la guerra, ya que, a diferencia de las armas nucleares, no requieren costosos materiales difíciles de obtener y se volverían baratas de obtener y de producir masivamente.

Son ideales para tareas como asesinatos selectivos de personas o grupos étnicos o desestabilización de naciones, por lo que los firmantes recalcan que la inteligencia artificial militar "no sería beneficiosa para la humanidad", pese a que se defiendan ventajas como que minimizarían el número de bajas en las operaciones.