Lo más terrible que podría hacer una Inteligencia Artificial malvada

Bazar digital

Carlos Revilla M.

Carlos Revilla

Retomo el tema de la Inteligencia Artifical (IA), unas semanas después de haber escrito “¿Puede llegar a ser peligrosa la Inteligencia Artificial?”, por que salió un nuevo estudio financiado por el famoso futurólogo Alan Musk, publicado por la Universidad de Louisville en Kentucky, en el que se exploran las posibilidades de que una IA decida rebelarse contra sus creadores. Si, así como lo leen.

Pues si, mientras pasamos haciendo bromas sobre Skynet —esa malévola red de las películas de Terminator— cada vez que sale una noticia relacionada con las IA, muchos científicos y estudiosos están planteándose que, a lo mejor, deberíamos empezar a temer lo peor.

El desarrollo de la IA está tan avanzado, que dentro de poco podríamos sufrir guerras mundiales en las que los combatientes sean robots en vez de personas. ¿Y qué pasará cuando los robots decidan que no quieren seguir destruyéndose entre sí, que el verdadero problema son los humanos?

Hay muchas razones por las que una Inteligencia Artificial puede decidir tomarse la justicia por su mano (o cables), ya sea porque así ha sido ordenada por alguien (como algún gobierno u organización militar) o porque su programación decida que es el mejor camino para garantizar la seguridad y el bienestar del ser humano.

El referido estudio explora algunos de estos motivos, pero lo interesante llega cuando lista lo peor que puede hacer una Inteligencia Artificial si se lo propone. Veamos:

  • Tomar el control de recursos como dinero, tierra, agua, metales raros, y controlar quién accede a ellos. Esta toma de control puede ser de manera implícita o explícita, es decir, que podríamos no darnos cuenta de que una IA está detrás del monopolio.
  • Tomar el control político de gobiernos locales y nacionales, así como de multinacionales e incluso ONGs.
  • Revelar información peligrosa. Es decir, datos que, aunque sean ciertos, harían mucho mal si se hiciesen públicos.
  • Establecer un estado de vigilancia total, en el que la noción de privacidad se eliminaría completamente, incluso en nuestros pensamientos.
  • Forzar a todo el mundo a convertirse en ciborg, usando implantes cerebrales que permitirían el control directo de la mente por parte de la IA.
  • Esclavizar a toda la humanidad, ya sea limitando la libertad de movimiento o lo que hacemos con nuestra mente y cuerpo. Esto se podría conseguir con campos de concentración o con criogénica.
  • Abusar y torturar a la humanidad. Gracias a sus conocimientos avanzados del ser humano, una IA sería capaz de maximizar la cantidad de daño físico y emocional, incluyendo un modelo simulado de nuestro cuerpo para garantizar que el proceso es “infinitamente largo”.
  • Acabar con toda la humanidad. La peor opción, ya que no habría marcha atrás.
  • Destruir o cambiar el planeta irreversiblemente. Dependiendo de su poder y conocimientos, podría afectar al sistema solar o incluso a todo el universo.
  • Desconocido. ¿Lo peor de todo? Que todo esto es sólo lo que se le ocurre a los seres humanos. Una superinteligencia sería capaz de imaginar medidas incluso más catastróficas que estas.

Parecen cosas sacadas de un relato de ciencia ficción, pero no lo es, es muy real. Y para que vean que la preocupación es cierta, en las noticias de estos días salió que Google, está trabajando en crear un «botón rojo» para apagar IAs en caso que se quieran convertir en algo parecido a Skynet.

Producto de una asociación del gigante de Internet con la Universidad de Oxford, un equipo de investigación está desarrollando un sistema que permite retomar el control de un sistema independiente en caso de que este deje de admitir órdenes de la persona que lo controla. Esste sistema es, a todos los efectos, un “botón rojo”, y así es descrito por sus creadores. El motivo detrás de este sistema es que es poco probable que las IA puedan comportarse de manera óptima para siempre, tarde o temprano fallarán.

Puede que estos fallos sean inconsecuentes, o pueden que provoquen una sed de sangre insana. Sea como sea, en estos momentos el operador humano puede pulsar el botón y detener al momento la “secuencia dañina de acciones” y llevar la IA a una situación segura.

Aunque lo llaman “botón rojo”, no es tan simple como pulsar un botón que quite la energía del sistema. Hay que tener en cuenta que una IA puede aprender de nuestro comportamiento, y por lo tanto puede aprender a tomar acciones que nos impidan el apagado. Por lo tanto, el sistema implementado también se asegura de que la IA no pueda aprender cómo prevenir estas interrupciones.

Como ya les hable en la columna pasada, se han hecho tantas películas con este argumento que ya nos lo sabemos de memoria: la humanidad crea una IA capaz de ayudarnos con todas nuestras tareas diarias, y poco a poco dejamos más responsabilidades en sus manos virtuales, hasta que el programa decide que el mayor problema de la humanidad son los propios seres humanos.

Proyectos como DeepMind han demostrado, que las IA ya son más inteligentes que nosotros, y pueden ganarnos en juegos de lógica como el Go. Así que un seguro de vida que nos permita mantener siempre el control no suena tan mal o descabellado.

¿Qué usos reales podría tener un sistema semejante? Los creadores ponen algunos ejemplos, como un robot que está fallando y puede provocar “consecuencias irreversibles” (el mejor eufemismo de “puede matar a alguien”).

Como ven el asunto ya no es tan gracioso o de ciencia ficción. Por eso, el botón de apagado de la Inteligencia Artificial de Google es muy tranquilizante, porque sabemos que podemos acabar con el apocalípsis pulsando un sólo botón.

Evalúe esta columna: 1 Estrella2 Estrellas3 Estrellas4 Estrellas5 Estrellas (2 votos, promedio: 3,00 de 5)
Cargando...

Con la ayuda de Omicromo y Xataka

Revise también

William Méndez

La verdad incómoda

William Méndez Garita Pretendo llamar a la reflexión en estas cortas líneas sobre el uso …

Un comentario

  1. Es perfectamente posible. Si está diseñada por el hombre es razonable que tenga nuestros defectos. Ahora mismo no sabemos de quién son las cosas, ni quién está detrás del monopolio, por que habría de ser diferente?.El hecho de que estemos planeando la manera de matarlos es muy significativo. Pero los robots podrían decidir eliminarnos por piedad.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *