Uno de los pioneros de la inteligencia artificial, el economista Herbert Simon, afirmó en la década de los 50 del siglo pasado que "en un futuro visible, el rango de problemas que podrán manejar las máquinas se igualará con el de la mente humana".
En aquel momento, no parecía una previsión tan ingenua: ya se había logrado hacer que un ordenador jugase a las damas... y aprendiera de sus propios errores. Pero Simon murió en 2001 sin haber presenciado esa tecnología que le había parecido tan cercana. Lo peor es que nosotros tampoco la hemos visto aún.
La Paradoja de Moravec: lo fácil es difícil
Y es que, si bien podríamos pensar que si la IA ya ha sido capaz de superarnos en campos muy complejos (como jugar al Go) o de mostrar habilidades que nosotros jamás hemos tenido (como detectar el sexo de una persona mediante una foto del interior de su ojo), debería resultarle sencillo copiar nuestras habilidades más ordinarias, las pequeñas acciones del día a día que solemos llevar a cabo de manera inconsciente.
Sin embargo, dichas habilidades (atar el lazo de un zapato, movernos con agilidad sobre dos piernas, ser capaces de no chocarnos mientras nos movemos por la calle y vamos pensando en cualquier otra cosa, etc) no son sencillas ni por asomo, sólo nos lo parecen porque son parte intrínseca de lo que somos: como cualquier fisioterapeuta podría recordarnos, la habilidad de caminar no es fácil de enseñar ni siquiera a los humanos.
No, realmente esa y otras habilidades no son sino el complejo resultado de una programación escrita y optimizada por la evolución natural durante millones de años.
Por eso, a una IA le podemos pedir que solucione problemas abstractos, y podrá llevar a cabo la tarea ejecutando un esfuerzo computacional asumible... pero deberemos gastar cantidades ingentes de recursos para llevar a cabo tareas sencillas que cualquier niño de 4 años domina. ¿Cómo es esto posible?
Hans Moravec, un investigador de robótica austriaco, formuló (con la colaboración de otros nombres notables de la disciplina, como Rodney Brooks o Marvin Minsky) esta paradoja que ahora lleva su nombre:
"Es relativamente fácil conseguir que los ordenadores muestren capacidades similares a las de un humano adulto en un test de inteligencia o a la hora de jugar a las damas, y muy difícil lograr que adquieran las habilidades perceptivas y motoras de un bebé de un año".
O, dicho de otro modo: confía en una máquina para jugar al ajedrez... pero cuando termine la partida pídele a un humano que se encargue él de guardar las piezas en su caja y guardarlas.
El argumento de Moravec a la hora de formular su Paradoja es sencillo: cuando desarrollamos inteligencia artificial, no hacemos sino aplicar ingeniería inversa sobre nuestra propia inteligencia. Y el esfuerzo necesario para copiar cada habilidad humana es proporcional a la antigüedad con que ésta apareció en nuestro árbol genealógico.
En el caso del conocimiento sensorial motor... bueno, nuestros antepasados aún tenían escamas cuando empezaron a desarrollarlo. Pero devolvamos la palabra a Moravec: "Sin embargo, el pensamiento abstracto es un truco nuevo, quizás con menos de 100.000 años de antigüedad. Todavía no lo hemos dominado. No es del todo intrínsecamente difícil; sólo parece así cuando lo realizamos".
O, tal y como resume el psicólogo Steven Pinker, "la principal lección de treinta y cinco años de investigación en Inteligencia Artificial es que los problemas difíciles son fáciles y los problemas fáciles son difíciles".
Si lo pensamos un momento, es fascinante pensar que la capacidad de razonar, la que entendemos que nos separa radicalmente del resto del Reino Animal, no sólo es lo más 'fácil' de reproducir artificialmente, sino que resultar ser tan sólo "un truco nuevo que aún no tenemos dominado".
El 'test de Kamprad'
Hace ahora un año, un grupo de investigadores de la Universidad Tecnológica de Nanyang (Singapur), anunciaron que habían conseguido que un par de robots industriales montaran "la mayor parte" de un mueble de IKEA (una silla STEFAN, para más señas). Llamaron a esta prueba 'el Test de Kamprad' (en honor a Ingvar Kamprad, el fundador de IKEA que acababa de fallecer unos meses antes).
El resultado fue desalentador: las máquinas se pasaron 11 largos minutos escaneando su entorno y planificando sus movimientos... pese a que se les había echado una mano proporcionándoles instrucciones precisas pensando en la tarea que iban a realizar, y agrupando parte de las piezas para facilitar su manipulación.
Luego, necesitaron otros 9 minutos para completar la misión encomendada, durante la cual cometieron varios errores como dejar caer pasadores, desalinear piezas, etc. Pese a eso, los investigadores recibieron los resultados como una buena noticia: conocían la complejidad real de la tarea que habían encomendado a las máquinas...
... y también que los actuales sistemas de IA son, fundamentalmente, motores de reconocimiento de patrones, a los que logramos entrenar proporcionándoles miles o millones de ejemplos con la esperanza de que, a partir de los mismos, logren inferir reglas que puedan aplicarse de forma generalizada en el mundo real. Pero eso no significa que comprendan dicho mundo.
Tu retina es más potente que esa CPU
Moravec explicaba en su artículo "Robots, la re-evolución de la mente" (2000) que los robots industriales con capacidad de movimiento que se fabricaban a finales de los 80 fracasaron comercialmente porque
"estaban guiados por marcadores de navegación diseñados ex-profeso (como códigos de barras detectados por láser), y por características preexistentes (como paredes, esquinas y puertas). El trabajo del casco de colocación de los cables guía se reemplaza mediante la programación cuidadosamente sintonizada para cada segmento de ruta".
Por supuesto, la situación desde los 80 ha cambiado mucho: ahora contamos con cámaras potentes que permiten dotar de visión artificial a cualquier robot (o vehículo), y el propio Moravec señala que este es el camino a seguir.
Sin embargo, también nos recuerda que conocemos la retina de los vertebrados lo bastante bien como para usarla de "Piedra Rosetta" capaz de establecer una medida de comparación entre tejido nervioso y capacidad de cálculo:
"Además de los detectores de luz, la retina contiene circuitos de detección de bordes y movimiento, agrupados en una pequeña área de dos centímetros de ancho y diez centímetros de ancho que informa simultáneamente sobre un millón de regiones de imágenes unas diez veces por segundo a través del nervio óptico".
"En la visión robótica, detecciones similares requieren la ejecución de varios cientos de instrucciones de computadora, lo que provoca que los 10 millones de detecciones por segundo de la retina supongan más de 1.000 MIPS [millón de instrucciones por segundo]".
"En 1999, los PCs se equipararon al sistema nervioso de los insectos, pero no alcanzaron el nivel de la retina humana, ni el del cerebro de un pez dorado (de 0,1 gramos). Y eran un millón de veces demasiado débiles para hacer el trabajo de un cerebro humano".
Moravec acompañaba su artículo con este ilustrativo gráfico, que equipara la evolución tecnológica (hasta el año 2030) con sus equivalentes biológicos en términos de capacidad de procesamiento:

Pero, cuidado, a veces lo difícil es... difícil
Ningún investigador o teórico relevante del ámbito de la inteligencia artificial discrepa del punto de vista de Moravec: la paradoja que señala es obvia, y la explicación elaborada por éste, recurriendo a la explicación evolucionista, cuenta con un amplio respaldo.
Pero... ¿es cierto que las tareas a aprender se dividen únicamente en las evolutivamente recientes (fáciles de replicar y no innatas) y aquellas desarrolladas hace millones de años (innatas y difíciles de replicar)?
Quizá eso es cierto cuando contraponemos únicamente psicomotricidad y cálculo, pero... ¿dónde queda la creatividad en esa división?
Esa es la duda del psicofisiólogo israelí Vadim Rotemberg, quien ha elaborado una de las pocas críticas a la Paradoja de Moravec que podemos encontrar en el ámbito académico (o, más bien, a la explicación evolucionista de la misma elaborada por su autor, que Rotemberg considera que adolece de "restricciones y puntos débiles").
La clave de su crítica reside que, si bien la creatividad es una de las últimas habilidades que aparecieron en la evolución biológica (y el área del cerebro responsable de la misma ha sido la última en madurar), "es muy difícil -y, hasta ahora incluso imposible- encontrar un algoritmo capaz de procesar e informatizar la creatividad".
"Supongo que la explicación de estas contradicciones, así como la de la paradoja de Moravec, está relacionada con las diferentes funciones [y diferentes estrategias de pensamiento] de los hemisferios izquierdo y derecho de los humanos".
Así, mientras que el pensamiento lógico formal del hemisferio izquierdo organiza la información en "un contexto monosemántico estrictamente ordenado y sin ambigüedades [...] Tal estrategia de pensamiento hace posible construir un modelo de realidad pragmáticamente conveniente pero simplificado".
En contraste, la función del hemisferio derecho es la de "capturar simultáneamente un número infinito de conexiones reales y dar forma a un contexto polisemántico integral pero ambiguo". Este hemisferio desempeña un papel clave en la creatividad... pero también "está especialmente relacionado con el sistema límbico, que controla las funciones corporales".
"Así, el hemisferio derecho muestra, por un lado, un sistema que determina una integración natural del sujeto en el mundo polidimensional y, por otro lado, es responsable de la creatividad que también requiere una visión integradora del mundo".
Rotemberg señala que nuestra facilidad para informatizar las tareas del hemisferio izquierdo deriva de la naturaleza "en cierta forma artificial" de éstas, pues "para construir un contexto monosemántico es necesario desintegrar lo holístico, seleccionar partes del mismo y elegir relaciones bien definidas entre éstas".
Sin embargo, "el mundo real, con todas sus interrelaciones polidimensionales" (es decir, lo que analizamos usando el hemisferio derecho), no sería igual de 'digerible' por mecanismos artificiales. Para Rosemberg, por tanto, el problema no sería cuantitativo (capacidad de cálculo) sino cualitativo (la incompatibilidad de las 'mentes artificiales' con determinadas capacidades humanas).
Sin embargo esta crítica, publicada ya en 2013, no parece haber tenido eco en el campo de la investigación de la inteligencia artificial (quizá porque, sólo un año después, Christian Jarrett publicaba 'Grandes mitos del cerebro' criticando la radical separación funcional entre hemisferios cerebrales).
Ver 16 comentarios
16 comentarios
Urien
Tremendo artículo!
whisper5
Es un artículo muy interesante.
Existe acuerdo en que la inteligencia surgió de la necesidad de moverse por el mundo. Inicialmente no se era realmente inteligencia, pero sí unos sistemas nerviosos que ayudaran a captar el entorno y a moverse. La evolución ha hecho que mejore hasta llegar a nosotros. Existe un animalito de mar que se suele poner de ejemplo para corroborar esto: https://es.wikipedia.org/wiki/Urochordata
Llega un momento en su vida en que deja de moverse y se asienta en el lecho del mar. A partir de ahí reduce mucho su sistema nervioso porque ya no lo necesita para moverse.
Quizá por esto los sentidos y la capacidad motriz están tan desarrollados en el mundo animal, de tal forma que lo que es capaz de hacer un bebe, como dijo Moravec, resulta tan fácil para nosotros y tan difícil para la IA.
Respecto a la creatividad y el ingenio, existen animales, como los córvidos o los cefalópodos, con una inteligencia alta y que son capaces de resolver problemas con ingenio. Esto es además muy interesante porque muchas veces se destaca como fuente de nuestra inteligencia el neocortex (algo que sólo tienen los mamíferos), pero ni los cefalópodos ni los córvidos tienen neocortex. Hay una zona del cerebro de los pájaros que podría asemejarse al neocortex, pero el sistema cerebral de un pulpo es tan distinto al nuestro que parece haber llegado de otro planeta.
eufrasio
El problema de la IA es conseguir que está sea consciente de ella misma y del entorno. Una vez se consiga eso todo lo demás se solucionará. Si no se consigue todo será muy difícil y limitado.
NullPointerException
Es que la inteligencia artificial no tiene nada de inteligencia, el que inventó el termino se lució...
Primero hay que separar conceptos, AI es un conjunto de técnicas que emulan un comportamiento inteligente (podrían ser cadenas de if-then-else y regex tranquilamente), dentro AI existe un subconjunto que es lo que está de moda, el Machine Learning (ML) que básicamente acaba siendo probabilidad bayesiana y regresión en cantidades ingentes gracias a la automatización que provee la computación y la programación. Dentro del Machine Learning existe otro subconjunto, el Deep Learning, que trata las redes neuronales, otro término para generar confusión, porqué al final son algo así como "regresiones anidadas", basicamente cada "neurona" es una función lineal (Wa+b) activada por una función no lineal g, tipo tanh o ReLU, con lo que una "neurona" en realidad es una función lineal matemática comprendida en otra función no lineal matemática (g o f).
La cosa es que esto es una herramienta que va a suponer un punto de inflexión como la computación o la electricidad en su momento porque permite atacar problemas de gran complejidad que la computación estandar no se puede permitir, pero de inteligencia no tiene nada.
da-beat
"...confía en una máquina para jugar al ajedrez... pero cuando termine la partida pídele a un humano que se encargue él de guardar las piezas en su caja y guardarlas."
Y por eso acabaremos siendo sus esclavos xD
Usuario desactivado
Tremendamente interesante, como me ocurre con la astronomia apabulla cuanto desconocemos aun. Por eso si bien las noticias sobre IA ganando en juegos a humanos son interesantes demuestran que aun queda mucho trecho.
kinterodiego
On the subject of this there is a magnificent game for all highly recommended
htt://descargar.games/speedcar
kinterodiego
https: //descargar.games/ speedcar/
On the subject of this there is a magnificent game for all highly recommended
jmzp8165
"No, realmente esa y otras habilidades no son sino el complejo resultado de una programación escrita y optimizada por la evolución natural durante millones de años."
Entonces dejemos una computador lanzando randoms una y otra vez esperando si algun dia un programa que pueda repararse a si mismo emerga de la aleatoriedad.
No tiene sentido pensar eso, si nosotros programamos las cosas como podemos esperar que seres tan complejos no hubieramos sido programados y optimizados por alguien superior a nosotros sino que confiamos en el azar para ello 🤦🏾♂️