Jefe de compañía de robótica advierte sobre las consecuencias catastróficas para la humanidad si la Inteligencia artificial se usa en los conflictos militares


En noviembre, un informe de Army Times detalló cómo el ejército de los Estados Unidos planea mejorar las capacidades de los soldados a través de una fusión hombre-máquina, incluida la conexión de cerebros humanos a las computadoras para controlar vehículos.

Rich Walker, el jefe de Shadow Robot Company, advirtió de las consecuencias catastróficas para la humanidad si la inteligencia artificial se usa en conflictos militares. En una entrevista con el Daily Express, afirmó que las organizaciones que estudian el uso de sistemas de armas autónomas en conflictos dicen que usar IA en estas circunstancias es una mala idea. «Los aspectos positivos de hacerlo son muy pequeños en comparación con la gran cantidad de negativos, por lo que realmente no deberíamos estar haciendo esto», dijo Walker citando a las organizaciones.

Dijo que la comunidad internacional debería tratar esta tecnología de la misma manera que trata otras tecnologías peligrosas a las que las personas recurren en situaciones desesperadas. «No permitimos que las personas usen armas químicas en la guerra, no permitimos que las personas usen armas biológicas y el uso de minas terrestres y minas en racimo está muy regulado o controlado», explicó Walker.

Confesó que está en contra del modelo estadounidense de prueba de armas, que describió como «veamos qué sale mal y qué podemos hacer al respecto». «En general, con la IA y la guerra, podemos ver algunas de las cosas que podrían ocurrir». mal, así que evitemos que sucedan si podemos ”, dijo Walker.

En septiembre, el presidente de Microsoft, Brad Smith, dijo que el mundo necesita una convención mundial sobre el uso de sistemas de armas autónomos y subrayó que «no se debe permitir que los robots decidan por sí mismos participar en el combate y a quién matar».

Fuente

Comentarios:

Cargando ...