¿Puede llegar a ser peligrosa la Inteligencia Artificial?

Bazar digital

Carlos Revilla M.

Carlos Revilla

En los últimos tiempos, conforme se ha ido avanzando la ciencia y la tecnología, ha cobrado mucho relevancia, lo que antes casi solo era un concepto teórico y si se quiere del ambiento casi exclusivo de la ciencia ficción, me refiero a la Inteligencia Artificial o como se le conoce por su siglas IA o AI (en inglés).

Bueno, lo mejor es empezar por el principio, ¿qué se conoce por IA?

La definición dice que la inteligencia artificial (IA) es un área multidisciplinaria, que a través de ciencias como las ciencias de la computación, la matemática, la lógica y la filosofía, estudia la creación y diseño de sistemas capaces de resolver problemas cotidianos por sí mismas utilizando como paradigma la inteligencia humana.

El concepto de IA es aún demasiado difuso. Contextualizando, y teniendo en cuenta un punto de vista científico, podríamos englobar a esta ciencia como la encargada de imitar una persona, y no su cuerpo, sino imitar al cerebro, en todas sus funciones, existentes en el humano o inventadas sobre el desarrollo de una máquina inteligente.

Como ven algo muy grueso, es poner a las máquinas, algo así como a pensar, decidir por si mismas la toma de decisiones. Esto que parece algo muy sencillo (el concepto, no su implementación), conlleva un sinnúmero de problemas de toda índole, incluso éticos.

La gran pregunta aquí con la IA, es ¿hasta adonde llegar? Para contestar esto tengo que hablar de Stephen Hawking, quien incluso llegó a calificarla a la IA como el peor error que podría cometer la humanidad, y probablemente el último. Para que lo ubiquen, Hawking es un físico, de fama mundial, con una gran reputación en la comunidad científica, que padece de esclerosis lateral amiotrófica (ELA) por lo que pasa en una silla de ruedas, y utiliza un sintetizador de voz para poder comunicarse.

Hawking publicó un artículo conjunto con el especialista en computación Stuart Russell, y los físicos Max Tegmark y Frank Wilczek donde nos alerta sobre los peligros de la IA.

Algunos extractos de ese artículo se los transcribo a continuación (pueden leerlo completo —en inglés— aquí.

Si miramos hacia el futuro, no hay límites a que lo podemos lograr en este campo [I.A.]. No hay ninguna ley física que impida que las partículas en un sistema de inteligencia artificial se re-ordenen a sí mismas para realizar cálculos más complejos de los que somos capaces de hacer los seres humanos. Es perfectamente posible que se produzca un salto radical e inesperado. Como Irving Good ya apuntó en 1965, un sistema de inteligencia artificial puede decidir mejorar su propio diseño por su cuenta, dando lugar a lo que Vernor Vinge denominó una singularidad, o lo que Johny Depp llama Trascendencia en la reciente película que protagoniza.

No es difícil imaginar una tecnología semejante dominando completamente los mercados financieros, sobrepasando los diseños de sus propios creadores, manipulando líderes, o encontrando maneras de construir armas que no seríamos capaces ni de comprender. Aunque el impacto a corto plazo de un sistema de inteligencia artificial depende de quien lo controla, la cuestión a largo plazo es si un sistema así puede ser controlado por seres humanos.

Estamos ante un futuro de incalculables posibilidades, oportunidades y riesgos. Es lógico pensar que los científicos están tomando todas las precauciones para asegurar el mejor resultado posible, ¿verdad? Pues no es así. ¿Si una civilización del espacio exterior nos enviara un mensaje diciendo: «Llegamos en unos años», nuestra respuesta sería: «¡Ok! Avisennos cuando estén llegando para dejar las luces encendidas»? Probablemente no, pero eso es más o menos lo que está ocurriendo con la inteligencia artificial. Aunque sabemos que la I.A. tiene el potencial para ser el mayor acierto, o el peor error de la humanidad, no se están investigando seriamente sus implicaciones Las únicas organizaciones que están estudiando esto son el Centro Cambridge para el estudio del riesgo existencial, el Instituto para el futuro de la humanidad, el Centro de Investigación de Inteligencia Artificial, o el Instituto Vida Futura. Todos nosotros deberíamos preguntarnos desde hoy mismo qué puede hacerse para aprovechar lo mejor de la inteligencia artificial y evitar lo peor.

Resumiendo, el peligro de la IA está en que si se deja a la libre su desarrollo, los humanos podremos crear sistemas (computadoras, robots, máquinas, etc.) que piensen por si mismas, pero sin límite. Máquinas que lleguen incluso a ser superiores a su creador ¿les suena conocido? Si no se hace algo, las consecuencias pueden ser terribles y créanme, esto no es algo tan lejano o de ciencia ficción.

Para ir aterrizando (tengo que hacerlo en algún momento, aunque el tema es fascinante), ya algunos autores, precisamente de ciencia ficción habían elaborado sobre el problema, siendo uno de los más notorios Isaac Asimov con su serie de relatos «Yo Robot«, donde esbozó, lo que a mi juicio es una de los puntos brillantes del género, que se conoce como las tres leyes de la robótica, que paso a enumerar a continuación:

  1. Ningún robot causará daño a un ser humano o permitirá, con su inacción, que un ser humano resulte dañado.
  2. Todo robot obedecerá las órdenes recibidas de los seres humanos, excepto cuando esas órdenes puedan entrar en contradicción con la primera ley.
  3. Todo robot debe proteger su propia existencia, siempre y cuando esta protección no entre en contradicción con la primera o la segunda ley.

Brillante, sencillamente brillante. Con estás tres leyes Asimov acaba con el problema, en sus relatos están implantadas en los cerebros positrónicos de los robots, sea lo que sea un cerebro positrónico. Lo que vale aquí son las tres leyes que es hasta la fecha, la solución más elegante que conozco al problema de la IA. Claro, esto es pura ficción, pero ¿no les parece genial?

La primera vez que me topé con estas leyes fue en la biblioteca del colegio, donde había varias novelas de Asimov, no tengo que contarles que me las devoré todas en pocos días.

No quiero terminar, sin un breve recuento de algunas películas que tratan el tema, que por cierto esto fue lo que me hizo escribir sobre esto, pues acabo de ver por Internet, una película interesantísima llamada “Ex Machina” que precisamente aborda el problema.

Robots pensantes y cosas de esas, casi que empezaron con la ciencia ficción. En el cine se ve en la película de 1927 “Metrópolis” de Fritz Lang, un clásico del cine mudo.

No quiero hacer de esto un recuento, solo voy a mencionar algunos íconos del cine como “Hal” de 2001 Odisea del Espacio, la computadora de la nave espacial que desobedece al humano Dave, y que ejemplifica de alguna forma el problema.

Más recientemente está la película “Trascendente” que nos menciona Hawking en su artículo y que aborda el problema.

Por supuesto al mejor estilo hollywoodense está la serie de “Terminator” y Skynet la red de máquinas que se vuelven contra el hombre, que es una visión apocalíptica del problema.

No puedo dejar por fuera el clásico “Blade Runner” dirigido por Ridley Scott, película estrenada en 1982 y basada parcialmente en el cuento de Philip K. Dick ¿Sueñan los androides con ovejas eléctricas? (1968).

“I.A. Inteligencia Artificial” es otra película del 2001 dirigida por Steven Spielberg. La película está basada en el relato de ciencia ficción «Los superjuguetes duran todo el verano» de Brian Aldiss, e incorpora elementos de la obra italiana «Las aventuras de Pinocho».

“El hombre bicentenario” es una película de 1999 de ciencia ficción con un reparto protagonizado por Robin Williams, Sam Neill y Embeth Davidtz. Está basada en el cuento homónimo de Isaac Asimov y en la novela «El hombre positrónico» de Asimov y Robert Silverberg.

“Yo, Robot” es una película de ciencia ficción distópica producida en 2004, dirigida por Alex Proyas y protagonizada por Will Smith. Aunque se atribuye la historia a las Series de Robots de Isaac Asimov, que incluye una recopilación de cuentos del mismo nombre, «Yo, robot», en realidad está basada en un guion de Jeff Vintar, titulado Hardwired.

Finalmente está la película “Her” que le da un giro interesante, cual es que un programador se enamora del sistema operativo, que habla al estilo Siri o Cortana, los famosos asistentes personales de los smartphones.

 
La canción del video (Here she conmes de Bonnie Tyler), una de mis favoritas de todos los tiempos, es parte del soundtrack de 1984, del remake de Metrópolis y hace referencia al personaje de María.

Fuera de películas y ciencia ficción, el problema de la IA ya esta aquí, y hay que hacer algo. Las advertencias me parece son muy válidas.

Evalue este artículo: 1 Estrella2 Estrellas3 Estrellas4 Estrellas5 Estrellas (2 votos, promedio: 5,00 de 5)
Cargando...

Revise también

Rodrigo Facio

26 de marzo: Cumpleaños de Rodrigo Facio

26 de marzo de 1917 nace Rodrigo Facio. Un año menor que José Joaquín Trejos, …

Un comentario

  1. Julián Solano Bentes

    Excelente artículo. Agradable e inteligente. Sólo que discrepo del término » inteligencia» para máquinas. Depende de lo que califiquemos como tal. Si es producto de la mente y va más allá del mero procesamiento de datos, se debe buscar otro concepto porque nunca habrá » inteligencia» en una máquina, por poderosa que sea. Claro, aquí entramos en el terreno filosófico de la existencia de una mente más allá del mero funcionamiento cerebral.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Cambio Político
Este sitio usa cookies. Leer las políticas de privacidad.