Uno de los pioneros de la inteligencia artificial, el economista Herbert Simon, afirmó en la década de los 50 del siglo pasado que «en un futuro visible, el rango de problemas que podrán manejar las máquinas se igualará con el de la mente humana«.
En aquel momento, no parecía una previsión tan ingenua: ya se había logrado hacer que un ordenador jugase a las damas… y aprendiera de sus propios errores. Pero Simon murió en 2001 sin haber presenciado esa tecnología que le había parecido tan cercana. Lo peor es que nosotros tampoco la hemos visto aún.
La Paradoja de Moravec: lo fácil es difícil
Y es que, si bien podríamos pensar que si la IA ya ha sido capaz de superarnos en campos muy complejos (como jugar al Go) o de mostrar habilidades que nosotros jamás hemos tenido (como detectar el sexo de una persona mediante una foto del interior de su ojo), debería resultarle sencillo copiar nuestras habilidades más ordinarias, las pequeñas acciones del día a día que solemos llevar a cabo de manera inconsciente.
Sin embargo, dichas habilidades (atar el lazo de un zapato, movernos con agilidad sobre dos piernas, ser capaces de no chocarnos mientras nos movemos por la calle y vamos pensando en cualquier otra cosa, etc) no son sencillas ni por asomo, sólo nos lo parecen porque son parte intrínseca de lo que somos: como cualquier fisioterapeuta podría recordarnos, la habilidad de caminar no es fácil de enseñar ni siquiera a los humanos.
No, realmente esa y otras habilidades no son sino el complejo resultado de una programación escrita y optimizada por la evolución natural durante millones de años.
Por eso, a una IA le podemos pedir que solucione problemas abstractos, y podrá llevar a cabo la tarea ejecutando un esfuerzo computacional asumible… pero deberemos gastar cantidades ingentes de recursos para llevar a cabo tareas sencillas que cualquier niño de 4 años domina. ¿Cómo es esto posible?
Hans Moravec, un investigador de robótica austriaco, formuló (con la colaboración de otros nombres notables de la disciplina, como Rodney Brooks o Marvin Minsky) esta paradoja que ahora lleva su nombre.
«Es relativamente fácil conseguir que los ordenadores muestren capacidades similares a las de un humano adulto en un test de inteligencia o a la hora de jugar a las damas, y muy difícil lograr que adquieran las habilidades perceptivas y motoras de un bebé de un año».
O, dicho de otro modo: confía en una máquina para jugar al ajedrez… pero cuando termine la partida pídele a un humano que se encargue él de guardar las piezas en su caja y guardarlas.
El argumento de Moravec a la hora de formular su Paradoja es sencillo: cuando desarrollamos inteligencia artificial, no hacemos sino aplicar ingeniería inversa sobre nuestra propia inteligencia. Y el esfuerzo necesario para copiar cada habilidad humana es proporcional a la antigüedad con que ésta apareció en nuestro árbol genealógico.
En el caso del conocimiento sensorial motor… bueno, nuestros antepasados aún tenían escamas cuando empezaron a desarrollarlo. Pero devolvamos la palabra a Moravec: «Sin embargo, el pensamiento abstracto es un truco nuevo, quizás con menos de 100.000 años de antigüedad. Todavía no lo hemos dominado. No es del todo intrínsecamente difícil; sólo parece así cuando lo realizamos».
O, tal y como resume el psicólogo Steven Pinker, «la principal lección de treinta y cinco años de investigación en Inteligencia Artificial es que los problemas difíciles son fáciles y los problemas fáciles son difíciles».
Si lo pensamos un momento, es fascinante pensar que la capacidad de razonar, la que entendemos que nos separa radicalmente del resto del Reino Animal, no sólo es lo más ‘fácil’ de reproducir artificialmente, sino que resultar ser tan sólo «un truco nuevo que aún no tenemos dominado».
Fuente: Xataka
¿Quieres profundizar tu conocimiento sobre la inteligencia artificial (IA)? Nuestra amplia oferta de cursos y seminarios incluye uno sobre Machine Learning, en el cual aprenderás sobre la revolución de la IA.
- El teclado para ‘copiar y pegar’ código de Stack Overflow, una inocentada convertida en gadget (y ya en preventa) – 6 octubre, 2021
- Los papeles de Pandora: cómo Python y el aprendizaje automático han sido clave en una investigación mundial con datos masivos – 5 octubre, 2021
- China marca las directrices éticas de la IA nacional: un mayor control frente a los algoritmos de las grandes tecnológicas – 4 octubre, 2021
Deja una respuesta