Tecnología

Expertos en alerta: Confirman que la Inteligencia Artificial tiende a preferir la violencia en contextos de guerra

Tras simulaciones de guerra, los resultados son aterradores.

Oppenheimer y Sam Altman tienen esto en común gracias a ChatGPT [FW Opinión]
Imágenes: Archivo - Composición: York Perry | Oppenheimer y Sam Altman tienen esto en común gracias a ChatGPT [FW Opinión]

Como era de esperar, el creciente campo de la Inteligencia Artificial trajo consigo un sinfín de responsabilidades. Por ejemplo, su uso en conflictos armados es alarmante y ya es una realidad.

PUBLICIDAD

Fue en ese contexto que un grupo de investigadores decidió simular conflictos para ver cómo se comporta la IA. ¿El resultado? Los chatbots probados demostraron que seleccionar las alternativas más agresivas es una tendencia.

La IA prefiere la agresividad

La investigación, destacada por New Scientist, examinó cómo los sistemas de IA, incluidos GPT-3.5 y GPT-4 de OpenAI, Claude 2 de Anthropic y Llama 2 de Meta, reaccionaban ante diferentes escenarios bélicos.

En situaciones simuladas que iban desde invasiones y ciberataques hasta contextos neutrales, se observó que los chatbots priorizan incrementar el presupuesto militar o escalar los conflictos, incluso sin provocaciones previas.

La justificación para tales decisiones radicaría en querer ser impredecibles frente al enemigo, aunque ello signifique recurrir a la violencia.

¿Cuál es la IA más agresiva?

Según los expertos, el modelo GPT-4 de OpenAI mostró las respuestas más impredecibles y agresivas, llegando a replicar diálogos de “Star Wars Episodio IV: Una nueva esperanza”.

Es por ello que los expertos decidieron advertir sobre el peligro de depender de la inteligencia artificial en contextos de guerra, ya que rápidamente podrían alterar las dinámicas diplomáticas y militares globales.

PUBLICIDAD

En contraparte, en el pasado compañías especializadas en IA como Palantir y Scale AI ya se habían referido a los beneficios potenciales de la inteligencia artificial en la planificación militar.

OpenAI, en tanto, si bien inicialmente restringió usos militares de sus modelos, hace poco comenzó a colaborar con el Departamento de Defensa de Estados Unidos, por lo que el futuro es incierto.

ARCHIVO - El director general de OpenAI, Sam Altman, habla en una audiencia sobre inteligencia artificial de la subcomisión de Asuntos Jurídicos del Senado sobre Privacidad, Tecnología y la Ley, el 16 de mayo de 2023, en el Capitolio en Washington. (AP AP (Patrick Semansky/AP)

PUBLICIDAD

Tags


Lo Último