El día del juicio

El dia del juicio. Las aterradoras advertencias de los expertos en IA sugieren que la Inteligencia Artificial podría impulsar una guerra nuclear para 2040 que podría destruir nuestra civilización, y que no hay nada que podamos hacer al respecto.

Un estudio reciente realizado por destacados expertos en seguridad cree que lo avanzado en el campo de la Inteligencia Artificial podría conducir a la creación del día final de las maquinas y podría causar que las naciones de todo el mundo asuman riesgos apocalípticos con sus arsenales nucleares.

Para entender de qué hablan los expertos, hagamos un viaje de regreso a la Guerra Fría.

En aquel entonces, una condición conocida como destrucción mutuamente asegurada (Mad): una doctrina de estrategia militar y política de seguridad nacional en la que un uso a gran escala de armas nucleares por parte de dos o más bandos opuestos provocaría la aniquilación total del atacante. y el defensor mantuvo una paz incómoda entre las superpotencias.

Ambas partes que poseen armas de destrucción masiva tenían muy poca iniciativa para lanzar un ataque tan devastador, ya que habría sido respondido por una represalia igualmente devastadora.

NO OLVIDES SUSCRIBIRTE A NUESTRO CANAL DE YOUTUBE

Sin embargo, la guerra fría ya pasó, y hemos entrado en una era militarista moderna donde los avances en el campo de la Inteligencia Artificial ya no garantizan esto.

Expertos de la Corporación Rand, una organización sin fines de lucro con sede en Santa Mónica, California, dicen que este escenario abre una serie de problemas, incluida la posibilidad de eliminar la capacidad del enemigo para lanzar una contraofensiva, y puede haber muy poco podemos hacer al respecto.

La Corporación de Rand ofrece investigación y análisis a las fuerzas armadas de los Estados Unidos sobre cuestiones de política mundial.

Dicen que dados los numerosos avances en el campo de la inteligencia artificial, en las próximas décadas la inteligencia artificial prácticamente podría anular la capacidad de Mad para mantener las tensiones nucleares a gusto.

El nuevo estudio explica cómo los agentes de inteligencia artificial futuristas, junto con los sensores y los datos de fuente abierta podrían convencer a los países de que sus capacidades nucleares están en riesgo.

El informe sostiene que esto puede causar que los países tomen medidas más drásticas para mantenerse al día con los principales países militares como Estados Unidos.

El día del juicio

Hablando sobre este tema, Andrew Lohn, coautor del artículo e ingeniero asociado de Rand, dijo: “Algunos expertos temen que una mayor dependencia de la inteligencia artificial pueda conducir a nuevos tipos de errores catastróficos“.

Puede haber presión para usar AI antes de que esté tecnológicamente maduro, o puede ser susceptible de subversión adversarial. Por lo tanto, mantener la estabilidad estratégica en las próximas décadas puede resultar extremadamente difícil, y todas las potencias nucleares deben participar en el cultivo de instituciones para ayudar a limitar el riesgo nuclear “.

Pero podría haber una amenaza aún mayor acechando en las sombras, dicen los expertos de la Corporación de Rand: los comandantes militares podrían tomar la decisión equivocada de lanzar un ataque basado en el asesoramiento de la Inteligencia Artificial a la que se le ha dado información errónea.

También puede interesarte:Mujer Arrastrada por una Ola Aparece Viva 18 Meses después en el Mismo lugar y con la Misma Ropa

Pero además del peligro de ser alimentados con información corrupta, IA también corre el riesgo de hackear, lo que a su vez abre la posibilidad de que terceros malintencionados puedan desencadenar, al igual que los villanos en las películas de Hollywood, un conflicto global.

Puede leer más sobre el estudio en el sitio web de Rand.

Referencia: Science Daily: En 2040, la inteligencia artificial podría trastornar la estabilidad nuclear

Crédito de la imagen destacada: Pixabay / Shutterstock

Fuente: Acient Code


0 comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *