Joaquín Sevilla, Universidad Pública de Navarra
Hace 25 años, en febrero de 1996, tuvo lugar la primera victoria de una computadora sobre el campeón mundial de ajedrez. El día 10, Garry Kaspárov cedía la primera partida contra el ordenador de IBM denominado Deep Blue. Aunque acabó remontándolo en los siguientes días (4-2), un año más tarde perdía el encuentro (3½–2½) contra una versión mejorada. Ya podía considerarse a una máquina como la campeona del mundo.
Esta partida tuvo una enorme repercusión mediática. De alguna manera, aquella fue una derrota simbólica de toda la humanidad en una lucha entre la inteligencia natural y su creación, la inteligencia artificial.
El camino que inició Galileo (con Kepler y Copérnico) al echarnos del centro del universo, y continuó Darwin al sacarnos del centro de la creación, encuentra en esta derrota un nuevo golpe para la autoestima de la especie humana. Tampoco podemos ya basar nuestra percepción de singularidad en nuestro maravilloso cerebro. Con sus decenas de billones de sinapsis en el encéfalo, lo consideramos el sistema más complejo del universo. Es fuente de comportamientos adaptativos, complejos y originales, capaz de generar maravillosos sentimientos, el juego y la creatividad. Y a pesar de ello, en una actividad como el ajedrez, paradigma de esas capacidades, nos gana una máquina.
Quizá podamos salvar la situación si analizamos el funcionamiento de Deep Blue. Se puede argumentar que aquello no era inteligencia sino fuerza bruta, una inmensa capacidad de cálculo y una enorme base de datos de partidas. En efecto, la estrategia de IBM en aquel sistema consistía en evaluar la idoneidad de millones de movimientos posibles para elegir el menor. Para confeccionar la función matemática con la que evaluar esa idoneidad se utilizaron bases de datos de miles de partidas en un proceso de ponderación y ajuste guiado por varios grandes maestros del ajedrez, por supuesto, humanos.
Derrotados en nuestros juegos favoritos
Los siguientes años han demostrada vana esa esperanza. Diversos sistemas informáticos han ido venciendo en multitud de actividades que consideraríamos genuinamente humanas. En 2011, Watson (otra creación de IBM) era capaz de interpretar el lenguaje natural y acceder a información en tiempo real como para ganar en concursos televisivos, en concreto Jeopardy!, el análogo estadounidense de Saber y Ganar.
El go, un juego mucho más difícil de computar que el ajedrez, caía del lado informático en 2016 gracias a AlphaGo, de Google. Ya no se puede hablar solo de fuerza bruta, aquí se incorporan redes neuronales artificiales, sistemas que aprenden de ejemplos de forma muy autónoma, sin que se requiera un ajuste detallado realizado por especialistas.
También en el póker, un juego con información asimétrica, hay una inteligencia artificial (DeepStack) que ha vencido a todos los jugadores profesionales con los que se ha enfrentado.
Todas estas victorias no dejan de ser símbolos del enorme desarrollo que ha experimentado el campo de la inteligencia artificial en estos 25 años. Un desarrollo que no se limita a eventos mediáticos, sino que ha ido dando lugar a multitud de productos que se van colando en nuestra vida diaria. Podríamos decir que hay algunas inteligencias artificiales que nos conocen mejor que nuestra madre.
Spotify, Netflix y Amazon son capaces de recomendarnos música, películas y libros, y acertar con nuestros gustos de forma espectacular. Solo tenemos que convivir un poco con esas inteligencias para que nos acaben conociendo; lo mismo que necesita un ser humano para conseguirlo. Tras este nombre genérico de “inteligencia artificial” hay un conjunto de algoritmos de aprendizaje automático (machine learning) que funcionan ajustando sus parámetros a partir de ejemplos, algo que podemos traducir con la expresión “aprenden de la experiencia”.
Esa forma de aprender extrae características de la muestra de datos de la que aprende. Por eso también, si se pone a una IA a aprender a partir de mensajes humanos sin seleccionar (de redes sociales, por ejemplo) es probable que se acabe volviéndose machista o racista. El algoritmo no pone nada que no estuviera antes, simplemente extrae ese conocimiento del trato con esa comunidad y reproduce sus sesgos.
La cosa puede ser aún peor si la selección de datos de entrenamiento introduce sesgos extra. Por eso es especialmente importante que los desarrolladores tomen conciencia y evite sesgos indeseados, o más allá, que incluyan estrategias activas de evitación, por ejemplo en algoritmos con finalidades sanitarias.
La celebración del cuarto de siglo de aquella victoria nos sirve para darnos cuenta de que, efectivamente, señalaba un camino imparable en el que estamos hoy plenamente inmersos. Es un camino lleno de éxitos y oportunidades, pero no exento de riesgos en los que es necesario trabajar.
Joaquín Sevilla, Director de la Cátedra de Cultura Científica UPNA- Laboral Kutxa y Catedrático de de Tec. Electrónica, Universidad Pública de Navarra
This article is republished from The Conversation under a Creative Commons license. Read the original article.