martes, 21 de enero de 2020

¿Por qué los ordenadores no son supersticiosos?

La respuesta más sencilla a la pregunta de por qué los ordenadores no son supersticiosos es porque no son personas y las supersticiones forman parte indisoluble de la condición humana. Desde las más simples (el martes y 13, la sal derramada, el paraguas abierto en casa…) hasta aquellas otras que determinan cuándo comenzar la batalla o sacar una empresa a bolsa.
Todas ellas tienen algo en común: sirven para disminuir nuestra angustia ante la incertidumbre. Por eso, mientras que la informática precisaba de la intervención del usuario, jamás nos preguntamos sobre la posibilidad de que un ordenador fuera supersticioso. Ya nos encargábamos nosotros de ello.
Pero con la llegada de la inteligencia artificial las cosas cambiaron. Porque para que exista inteligencia artificial han de darse dos circunstancias: la autonomía y la adaptabilidad.
La primera (como se explica en Elements of AI, de la universidad de Helsinki) se refiere a la capacidad de realizar tareas en entornos complejos sin la guía constante del usuario. La segunda, a la capacidad de mejorar el rendimiento aprendiendo de la experiencia.
Esa relativa emancipación de la IA del ser humano dio paso a la irrupción de la ciencia ficción en este campo. Y con ella, inevitablemente, a la visión antropocéntrica que tanto nos caracteriza.
Un buen ejemplo es la robótica. Cuanto más se parece un androide al ser humano, mayores son sus angustias y supersticiones. Esto es algo que vemos claramente entre la algorítmica serenidad del R2D2 de Star Wars y la emocionalidad incontrolada de C3PO. Porque el primero se asemeja más a una lavadora y el segundo, a un adolescente enlatado.
Pero volvamos a la realidad. Lo que pretende la IA (como nosotros) es resolver problemas. Problemas que pueden expresarse como procesos de búsqueda. Y como todo proceso, debe comenzar por formular las opciones alternativas y sus consecuencias.
Lo que sí hace ese tipo de inteligencia (a diferencia de nosotros) es enfrentarse a la incertidumbre que dicho proceso conlleva de una forma cuantitativa, eliminando los elementos emocionales.
La IA no necesita cruzar los dedos o evitar pasar por debajo de una escalera porque trabaja con el cálculo de probabilidades de forma exclusivamente cuantitativa. Es decir, como algo que puede medirse.
Así consiguió Turing en los albores de la computación descifrar los códigos de Enigma o el superordenador Deep Blue de IBM vencer a Kaspárov en su famosa partida de ajedrez.
Pero ¿esto será siempre así? Hay dos noticias recientes que están revolucionando el panorama. La primera es que Google ha anunciado ya la fabricación del primer ordenador capaz de alcanzar la supremacía cuántica. Es decir, de superar de forma abismal al procesador digital más avanzado del mundo.
La segunda, más reciente todavía, es la construcción por parte de un grupo de científicos norteamericanos del primer robot vivo. Y aunque se trata todavía de organismos simples de apenas un milímetro, lo cierto es que es un paso gigantesco en la creación de los primeros biobots de la historia con funciones personalizadas basadas en un algoritmo evolutivo.
Todo esto nos lleva al hecho de que la IA podrá abordar problemas cada vez más complejos. Pero entonces tendrá que enfrentarse a mayores niveles de incertidumbre, fruto de la información faltante o el engaño deliberado (esos errores e imprecisiones que los expertos denominan «ruido») en los que las operaciones cuantitativas serán insuficientes.
Y quién sabe, tal vez entones la inteligencia artificial más evolucionada termine tocando madera o acariciando su pata de conejo antes de decidir cuál es la opción más acertada.

No hay comentarios: