El mundo está cambiando de una forma controlada por los humanos de administrar una variedad de sectores, incluidos los militares, hacia la inteligencia artificial (IA). El Pentágono ordenó recientemente la creación de un sistema de inteligencia artificial para sus drones de ataque. El Dr. Mark Gubrud, profesor adjunto adjunto de paz, guerra y defensa en la Universidad de Carolina del Norte, ha compartido su opinión sobre las posibles amenazas que los sistemas militares guiados por la IA podrían provocar para las personas.

¿Cómo evalúa el impulso del Pentágono por la inteligencia artificial, especialmente uno con la capacidad de ordenar a los humanos cuándo presionar el botón «disparar» para misiles nucleares?

Dr. Mark Gubrud: AI tiene un potencial obvio para ser usado en armas. Los humanos son mejores para juzgar las situaciones más complicadas y ambiguas, pero cuando las cosas son simples y claras, las máquinas pueden reaccionar más rápido y con mayor precisión. Desafortunadamente, en la guerra, los errores son a menudo irreversibles, y si los sistemas automatizados comienzan a pelear entre sí, es posible que no podamos detenerlos, o incluso entender lo que está sucediendo, antes de que sea demasiado tarde.

Por lo tanto, no debemos permitir ninguna relajación del control humano. Necesitamos un tratado sólido que haga que el control humano de todas las armas sea una cuestión de ley y que verifique que las armas autónomas no están en uso.

Desafortunadamente, los países que lideran el desarrollo de armas autónomas impulsadas por la IA, incluidos los Estados Unidos, China y Rusia, se han resistido a la creación de dicho tratado. El control humano es un principio esencial, pero no es suficiente, porque los humanos cometen errores o pueden optar por recibir consejos de máquinas que cometen errores.

Según los informes, los EE. UU. Están desarrollando sistemas de inteligencia artificial para el análisis de inteligencia que podrían advertir sobre un inminente ataque nuclear de Corea del Norte, y sistemas similares también pueden terminar vigilando a Rusia y China. Lo que hace que esto sea especialmente peligroso es que los sistemas están destinados a acelerar el proceso, haciendo el análisis más rápido de lo que los humanos pueden verificarlo o desarrollar un análisis alternativo.

Si un presidente de los Estados Unidos se despierta a las 3 de la mañana y le dice a la IA que está advirtiendo de un ataque inminente, ¿qué hará? Puede haber respuestas por debajo de la orden de un ataque nuclear preventivo inmediato, pero también podrían ser escaladoras y conducir al mismo resultado.

¿Cuáles podrían ser las consecuencias de una IA conectada al arsenal nuclear de un país? ¿Cuán realista es tal escenario?

Dr. Mark Gubrud: Creo que es poco probable que EE. UU. O alguna nación habilite una computadora para lanzar armas nucleares sin una decisión humana. Según los informes, Rusia tiene un sistema automatizado que puede reaccionar si un primer ataque destruye a los principales líderes, y algunos autores estadounidenses ahora están pidiendo a los EE. UU. Que desarrollen un sistema similar. Sin embargo, creo que el sistema ruso involucra humanos y solo se activaría si se temiera un ataque inminente.

Desafortunadamente, ese es el momento más peligroso. Por ejemplo, en 1983, las computadoras soviéticas advirtieron sobre un ataque con misiles de EE. UU., Y el teniente coronel ruso Stan Petrov hizo la llamada de que era una advertencia falsa, en parte porque no había razón para esperar un ataque en ese momento. Nadie puede decir que la guerra nuclear nunca podría ocurrir por accidente, pero creo que el peligro más realista es que entramos directamente con los ojos bien abiertos, asumiendo riesgos cada vez mayores para evitar retroceder en alguna crisis.

Eso es exactamente lo que estamos haciendo hoy con la trituración de los tratados y la llamada nueva carrera armamentista, con nuevas armas nucleares y no nucleares que acortan los tiempos de ataque y respuesta. Con la pérdida del Tratado INF, es muy importante que EE. UU. Y Rusia renueven START y consideren nuevas iniciativas, como las pruebas de misiles y los límites de despliegue, la prohibición de pruebas de vuelo hipersónicas, la prohibición de armas antisatélite y espaciales y una prohibición de los robots asesinos.

Necesitamos pensar creativamente. Por ejemplo, como un pequeño comienzo, creo que a raíz del reciente accidente de Rusia, sería un buen momento para que EE. UU. Sugiera una prohibición permanente de los misiles o aviones de propulsión nuclear, que ambas naciones han intentado desarrollar y decidir previamente eran demasiado peligrosos e innecesarios

¿Qué tan confiable sería un sistema de IA?

Dr. Mark Gubrud: Los sistemas complejos siempre pueden fallar, pero en este caso, hay un problema más profundo. El problema fundamental con la disuasión nuclear es que solo funciona si puede fallar, es decir, si la guerra nuclear sigue siendo una posibilidad.

Con nuestros sistemas de advertencia, intentamos asegurarnos de que nunca darán una falsa alarma, pero también de que no dejarán de advertirnos de un ataque real. Estos son objetivos contradictorios. Como saben los médicos, la policía y los agentes de seguridad, es imposible minimizar simultáneamente los «falsos positivos» y los «falsos negativos».

Con nuestros sistemas de comando y control nuclear, intentamos asegurarnos de que el sistema no pueda ser activado por una orden no autorizada, un pirata informático o un error interno, sino también que funcionen según lo previsto, incluso bajo ataque, si se da una orden adecuada. dado. De nuevo, el mismo problema, objetivos contradictorios.

Todo esto es cierto si estamos hablando de IA o sistemas humanos. Pero cuando los humanos están involucrados, incluso cuando su rol oficial es uno que una máquina podría cumplir, aportan toda su inteligencia y comprensión al trabajo. Los humanos quieren vivir, quieren que vivan sus familias y el mundo, y siempre comprobarán y comprobarán nuevamente si no hay un error o una salida. El control humano es esencial, pero no es suficiente. La única seguridad verdadera es terminar con la carrera armamentista y acabar con las armas nucleares.

Anteriormente, el Pentágono solicitó a la empresa matriz de Google, Alphabet Inc., la creación de un sistema de inteligencia artificial para sus drones de ataque. ¿Cómo se correlaciona esto con las recientes afirmaciones de que las compañías de redes sociales deberían mantenerse alejadas de los asuntos del estado?

Dr. Mark Gubrud: El Proyecto Maven supuestamente trataba de desarrollar algoritmos que pudieran acelerar el trabajo de los analistas humanos, pero el mismo trabajo eventualmente podría contribuir a sistemas letales totalmente autónomos, y los trabajadores tecnológicos reconocen correctamente el peligro de esta carrera armamentista.

Como ha declarado Will Roper del Pentágono, Google rescindir su contrato solo significaba cambiar a otras compañías, pero era importante porque creaba conciencia política entre los trabajadores tecnológicos, que todavía está creciendo.

Esa es la razón del rechazo de los defensores de los robots asesinos. Es una reminiscencia de la famosa declaración de Hermann Goering de que cualquier persona puede ser conducida a la guerra si «les dice que están siendo atacados y denuncia a los pacifistas por falta de patriotismo y exponiendo al país al peligro. Funciona de la misma manera en cualquier país».

Fuente

Etiquetas: ; ; ;