El Machine Intelligence Research Institute (MIRI) de Berkeley, una destacada institutción científica en el campo de la inteligencia artificial, se ha convertido en la primera en dejar de publicar todos sus hallazgos y en optar por una política de «investigación no revelada por defecto»:
«La mayoría de los hallazgos realizados dentro del MIRI permancerán a nivel interno, a menos que haya una decisión explícita de publicar esos resultados».
Hoy en día, se suele asumir que la publicación de los resultados de las investigaciones científicas -con el objetivo de que puedan ser consultados, citados y reproducidos por otros expertos- es uno de los pilares básicos de la ampliación del conocimiento humano.
En ocasiones, se promulga incluso que el acceso a los mismos sea totalmente abierto, desde la convicción de que todo conocimiento es un bien común que debe ser puesto al servicio de la sociedad.
Pero, ¿y si el bien común de la sociedad exigiera, precisamente, que dichos resultados jamás se hicieran públicos? Actualmente ya existen diversos campos del saber, como la investigación nuclear, militar y de inteligencia, que mantienen sus conclusiones en secreto.
¿Empezará, acaso, a sumarse el sector de la inteligencia artificial a esta selecta lista?
«Los ingenieros no son filósofos»
Brent Hecht, profesor de computación en la Univ. Northwestern, es coautor de un documento de la Association of Computer Machinery, que propone reflexionar acerca del modo en que los investigadores deberían enfrentarse a las consecuencias negativas de sus investigaciones; y resume así la situación actual del debate:
«Un principio muy importante de la comunidad informática es que la apertura constituye un bien fundamental. [Pero] los acontecimientos recientes han hecho que mis colegas y yo empecemos a cuestionar dicho principio».
Según los autores del documento de la ACM, existe «un grave y vergonzoso lapso intelectual» entre las perspectivas positivas de los investigadores sobre su propio trabajo y la realidad. Esta última nos recuerda constantemente que muchos de los grandes avances en el campo de la inteligencia artificial pueden ser utilizados con fines poco éticos por gobiernos, grandes compañías o terroristas.
Hetch defiende, pese a todo, que todo trabajo científico potencialmente negativo debería publicarse, siempre y cuando el mismo aborde soluciones a los posibles efectos dañinos.
Pero cuando su documento se debatió en Hacker News, hubo quien defendió que «los ingenieros no son filósofos y no se debe esperar que lo sean, no tenemos las herramientas para hacerlo».
Jack Clark, director de estrategia e investigaciones de OpenAI, reconoce que implantar la apertura selectiva de hallazgos en IA retrasaría el ritmo de los mismos, pero que no puede anteponerse por sistema el progreso científico a la estabilidad social. La propia OpenAI ya indica en su carta de constitución que confían en «que las preocupaciones de seguridad y protección reduzcan nuestra publicación tradicional en el futuro».
Además, en palabras de Clark, «es útil que una organización de investigación de IA haya dado este paso, aunque sólo sea para que proporcione datos a la comunidad sobre cuáles son las consecuencias de dar dicho paso».
La investigación en IA entendida como ‘notas en sucio’
En los últimos años, el MIRI ha recibido financiación por parte de magnates como Elon Musk o Peter Thiel, que se han destacado por denunciar el lado oscuro de la inteligencia artificial, lo que puede haber influido en su decisión.
Nate Soares, director ejecutivo del MIRI, trata de justificar su nueva política en el documento «Nuestras nuevas direcciones de investigación«. En el mismo expone la «versión breve» de su explicación, afirmando lo siguiente:
«Del mismo modo en que los diarios de Faraday no son tan útiles [para el investigador promedio] como las ecuaciones de Maxwell, no creemos que sea útil intentar compartir un gran número de pensamientos medio confusos con un grupo amplio de personas».
Maxwell siempre atribuyó sus fundamentales avances en el estudio del electromagnetismo al estudio de los diarios de Faraday, extensos escritos a veces confusamente redactados por no haber estado en ningún momento más que al uso personal.
Quizá la investigación en inteligencia artificial necesite también unos años de ‘notas en sucio’ antes de poder ofrecer conclusiones seguras al público.
- Encuesta septiembre 2021: ¿Cómo crees que afectan las tecnologías de la información en la educación? – 6 septiembre, 2021
- ¡Ya llega Programmer’s Week 2021! – 3 septiembre, 2021
- Encuesta agosto 2021: ¿En qué sector IT te desarrollas o te gustaría desarrollarte? – 6 agosto, 2021
Deja una respuesta