Es especialista en aprendizaje de las máquinas en Google y cuenta cómo les enseña a pensar a las computadoras

Martín Abadi es científico en computación, argentino y trabaja en las oficinas centrales del gigante informático, en Mountain View. Conoce cómo aprenden los cerebros digitales y los usos que tienen.

 

Martín Abadi es argentino, científico en computación y está especializado en el estudio de inteligencia artificial. Desde 2014 trabaja en las oficinas centrales de Google, en Mountain View. Tiene un doctorado de la Universidad de Stanford y si bien desde un comienzo estuvo interesado en la inteligencia artificial, durante años recorrió otros caminos: trabajó en lógica, criptografía y ciberseguridad.

 

Con el avance del poder de procesamiento de las computadoras y los nuevos estudios sobre las redes neuronales, el aprendizaje de las máquinas se volvió un área en constante progreso. Y para Abadi fue el momento de abocarse de lleno a su pasión inicial.

 

Así es que hace cuatro años se incorporó al equipo de trabajo de Investigación y Aprendizaje de las máquinas (antes el área se conocía como «Brain») de Google. «Estos temas requieren sobre todo algoritmos de base de aprendizaje pero también sistemas de software y hardware para realizar esos algoritmos, que en algunos casos existen hace 20 años. Pero Recién ahora están siendo realizados a gran escala y con grandes resultados».

 

¿Cómo se trabaja en el área de Investigación y Aprendizaje de las máquinas de Google?

En el equipo hacemos trabajo sobre los algoritmos y sobre los sistemas para implementar estos algoritmos. También hay una mirada sobre las implicancias que tiene para la sociedad. Hay gente que se ocupa de aplicaciones médicas, o la creación de música pero también hay una mirada sobre los problemas. En el caso de los datos médicos está el tema de garantizar la privacidad de todos esos datos. Hay todo un trabajo teórico y práctico para tratar de entender ese problema.

 

El aprendizaje de las máquinas está logrando que la inteligencia artificial se vaya sofisticando cada vez más (istock)

 

¿Esos datos médicos se usan para desarrollar mecanismos de prevención? ¿Hay redes de hospitales que busquen generar una base de datos global?

No puedo ver lo que están pasando de los hospitales. Sé que tenemos acuerdos con algunas instituciones médicas para trabajar con ellos pero no sé qué está pasando entre ellos. Sé que los intercambio de datos entre hospitales suele ser laborioso porque hay formatos diferentes entre cada uno, pero se está trabajando en mejorar eso.

 

¿En qué países se implementa?

Brain está basado en Estados Unidos y desde aquí se usó información de sitios basados en Estados Unidos. También trabajamos de cerca con DeepMind, que también es parte de Alphabet. Tiene trabajo sobre los datos del Reino Unido y tiene reglas diferentes y aplicaciones diferentes. El sistema de salud de Estados Unidos y el Reino Unido son muy diferentes.

 

¿En Latinoamérica se está llevando adelante algo así?

Nosotros no, pero sé que hay equipos médicos de la UBA (Universidad de Buenos Aires) que utilizan aprendizaje para diagnósticos médicos, que es una aplicación muy obvia, muy importante porque puede ahorrar muchos costos y salvar muchas vidas. Por eso muchas universidades y compañías se interesan en este tema y quiero creer que lo hacemos muy bien.

 

¿Cuáles son los principales desafíos que hay a la hora entrenar algoritmos?

Antes de contestar esa pregunta quiero ir un poco más atrás y decir que el aprendizaje automático es parte de la inteligencia artificial. La Inteligencia artificial son programas o máquinas que demuestran cierto comportamiento. Ese comportamiento puede estar basado sobre reglas programadas a mano. El aprendizaje automático, en cambio, se trata de derivar esas reglas, de inferirlas, a partir de observaciones.

 

¿Cómo son esas observaciones?

Las observaciones pueden estar dadas por conjuntos de datos estáticos, por ejemplo videos de YouTube, donde por cada video tenemos etiquetas puestas por un humano que dice qué es lo que muestra el vídeo o bien puede estar basadas sobre un método interactivo, por ejemplo cuando nuestros colegas de DeepMind hicieron un sistema para jugar al Go. No había sólo una base de datos de partida de Go, sino que el programa también podía jugar e ir experimentando y derivando sus propios datos para aprender, tal como aprende una persona, que no aprende solo de libros, sino que también aprende de la experiencia.

 

¿Y cuál es la dificultad en estos casos?

Uno de los grandes problemas del aprendizaje es cómo derivar estos datos de manera eficiente. A veces tenemos muchos datos, a veces menos; y a veces tenemos muchos datos sobre un tema y queremos aprender sobre otra cosa relacionada pero diferente. Por ejemplo, puede ser que sepamos reconocer a las personas que se mueven en esta oficina, pero nos interesa reconocer los animales en un zoológico, que no es lo mismo, pero hay algunos factores en común como son los contornos, el movimiento, delinear un individuo, todo lo que se llama transferencia de aprendizaje de un tema a otro. En el aprendizaje más interactivo está el tema de hacerlo con más experiencia. Uno tiene que sacar el máximo de información de cada partido de Go, por ejemplo. Otro tema fundamental del aprendizaje es entender qué está pasando. Por momento los resultados que tenemos son fabulosos, pero los resultados prácticos van mas allá de lo que la teoría puede funcionar.

Abadi trabaja en las oficinas centrales de Google, en Mountain View.

¿Cómo es eso?

Tenemos unas teorías, pero no tenemos una teoría matemática completamente convincente sobre este tema. Otro problema interesante, volviendo a la relación entre la inteligencia artificial y machine learning, es cómo combinar cosas que ya sabemos, escritas como reglas, con cosas que aprendemos del mundo real por interacción o a partir de bases de datos. Las cosas que están escritas como reglas tienen un carácter binario: esto es así o no es así; mientras que en el mundo hay muchas excepciones, cosas que son probabilísticas y combinar estos dos tipos de razonamientos es algo que requiere mucho trabajo, hay mucho hecho pero también queda mucho por hacer.

 

¿Cree que alguna vez las máquinas van a dominar el mundo como en Terminator?

Ya lo dominan, ¿no? (risas). No, no creo.


¿Piensa que siempre van a se aliadas de los humanos? ¿que nunca se van a escapar del control humano?

Volviendo a los problemas fundamentales, otro de los temas que estamos trabajando mucho es el de la interpretabilidad, entender lo que están haciendo las máquinas. Por ejemplo, cuando tenés una red de neuronas y decide que una imagen es una imagen de un gato ¿por qué dice que es una imagen de un gato y no dice que es la imagen de un perro? ¿Que está mirando en la imagen? Lo mismo cuando una máquina dice «el acusado es culpable o inocente». ¿Cómo considera la evidencia? Y poder entender lo que hacen las computadoras es esencial para poder controlarlas. Hay toda una serie de trabajos en esa dirección y es uno de los pilares de lo que nosotros vemos como la inteligencia artificial responsable.

Martín Abadi es científico en computación, argentino y trabaja en las oficinas centrales del gigante informático, en Mountain View.

¿Es decir que hay cosas que hacen las máquinas que no sabemos cómo las hacen?

Siempre las hubo, por supuesto, eso no es novedad. Cuando vos reservás un pasaje de avión, supongo, no tenés, supongo, idea de los precios que te muestra y los no te muestra.

 

Pero imagino que el que creó el sistema lo sabe ¿o no?

A veces. Creo que se está complicando cada vez más ahora. Con estos sistema de inteligencia artificial no se entiende exactamente cuáles son los elementos que hace que el sistema diga qué es un gato o no, a menos que el sistema sea diseñado expresamente con el objetivo de dar ese tipo de explicaciones.

 

¿O sea que es cada vez más difícil entender a las máquinas?

A menos que uno haga un trabajo específico para entenderlas, creo que sí: son más complejas y usan datos de manera cada vez más sofisticada y a veces usan correlaciones que no son completamente evidentes para los seres humanos, aún si están realmente ahí.

 

¿O sea que al diseñar un sistema de machine learning es como tirar los datos sin saber cuál va a ser el resultado que va a surgir, en algún punto?

Depende de cómo lo hagas. Si lo hacés con cuidado y de una manera controlada sí podes saber qué resultado va a surgir. Te hablaba antes de la posibilidad de combinar reglas con sistemas basados sobre los datos, entonces se puede pensar en imponer reglas sobre el espacio de resultados posibles para que el resultado sea uno que satisfaga ciertas reglas de base. Un ejemplo muy simple y que no da miedo: imaginate que tenemos una oración y que la tenemos que descomponer en palabras y hacer un árbol sintáctico, como se hacía el análisis sintáctico en la escuela secundaria. El tamaño de este árbol y el largo de la oración está muy relacionado: la oración tiene el mismo número de palabras que el árbol. Esa regla, esa igualdad se puede imponer sobre el sistema de machine learning para que cuando el sistema nos dé una interpretación de la oración esta propiedad sea verdad.

 

¿Y cómo sería la forma irresponsable de diseñar machine learning?

En este caso como no hay grandes peligros, no creo que haya una forma particularmente irresponsable, pero una forma irresponsable sería tirar muchos datos, entrenar al sistema y después ni siquiera testearlo. Hay también toda una serie de trabajos en los que estudiamos, no yo personalmente pero la gente de este dominio, cómo tomar un sistema de machine learning para, a posteriori, entender qué tipo de comportamientos le son posibles. Se puede preguntar, por ejemplo, este sistema que dice que si una imagen es un gato y un perro ¿es posible que diga que un humano es un gato? y que analice si esa respuesta es posible o no. Se puede analizar todas las posibles respuestas de un sistema para evaluarlo.

 

Entiendo que la compañía publicó una serie de principios sobre el desarrollo de inteligencia artificial donde dijo que se compromete a trabajar de manera responsable en este campo y, dentro de esos principios, estableció que no se utilizará inteligencia artificial para generar armas letales, pero lo cierto es que la inteligencia artificial ya se usa en el mundo para fines bélicos y el desarrollo de armas destructivas, ¿eso se podrá detener alguna vez a nivel global?

Depende mucho de la voluntad es como las armas nucleares, requiere de un trabajo político no es solamente un trabajo técnico.

 

Lo veo difícil entonces

Pero nuestra compañía al menos tomó un punto de vista fuerte en ese sentido al no estar involucrada en el desarrollo de armas letales usando inteligencia artificial.

 

 

 

 

Fuente: Infobae

 

Comments

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.