Investigadores de la Academia de Inteligencia Artifical de Pekín (BAAI, en sus siglas oficiales en inglés) han otorgado detalles sobre la segunda versión de Wu Dao, un modelo de Inteligencia Artificial (IA) multimodal diez veces más grande que GPT-3, la más grande hasta la fecha, y capaz de soportar 1,75 billones (millones de millones) de parámetros.
La BAAI ha anunciado el lanzamiento de su nuevo modelo de aprendizaje profundo Wu Dao 2.0 en su conferencia anual este martes, según informa Engadget, unos meses después de la presentación de la primera versión del modelo, en marzo de este año.
La Academia ha desvelado que el modelo ha sido entrenado con 1,75 billones de parámetros, diez veces más que el modelo de OpenAI, GPT-3, lanzado en mayo de 2020, y hasta ahora “el modelo de lenguaje más grande y avanzado del mundo”, según aseguró en septiembre Microsoft, cuando se alió con OpenAI para llegar este modelo a sus soluciones.
El modelo chino es multimodal, lo que supone que puede realizar varias tareas a la vez. Como recogen en Engadget, este puede escribir ensayos, poemas y coplas en chino tradicional, así como crear textos alternativos en base a una imagen estática e imágenes de carácter cercano al fotorrealismo según descripciones hechas en lenguaje natural.
La BAAI también ha demostrado que la IA puede generar ídolos virtuales ayudado por el chatbot social de Microsoft en China, Xiaolce, además de predecir las estructuras en tres dimensiones de proteínas.
Para entrenar al modelo en tantos parámetros y con tanta rapidez los investigadores desarrollaron un sistema de aprendizaje de código abierto denominado FastMoE. Este funciona en PyTorch y es similar al Mixture of Experts de Google, aunque tiene mayor flexibilidad debido a que permitió entrenar a la IA en GPUs convencionales y en supercomputadoras, y se puede ejecutar en hardware estándar.
La Academia indicó en la conferencia que los modelos grandes y los ordenadores de gran computación son el futuro de la Inteligencia Artificial. El presidente de BAAI, el Dr. Zhang Hongjiang, indicó que están construyendo “una planta de energía para el futuro de la IA, con megadatos y gran poder computacional”, y que con ello pueden “transformar los datos para alimentar las aplicaciones de IA del futuro”.
Fuente: La Nación
¿Eres un apasionado por la Inteligencia Artificial (IA), y quieres conocer más? En EducaciónIT ofrecemos un curso de Machine Learning Fundamentos-Inteligencia Artificial, donde desarrollarás un perfil técnico mediante el cual comprenderás los desafíos sociales e industriales que la IA representa, sus correspondientes algoritmos, y muchos más.
- El teclado para ‘copiar y pegar’ código de Stack Overflow, una inocentada convertida en gadget (y ya en preventa) – 6 octubre, 2021
- Los papeles de Pandora: cómo Python y el aprendizaje automático han sido clave en una investigación mundial con datos masivos – 5 octubre, 2021
- China marca las directrices éticas de la IA nacional: un mayor control frente a los algoritmos de las grandes tecnológicas – 4 octubre, 2021
Deja una respuesta