OpenAI afirma haber mitigado el sesgo del lenguaje GPT-3 con una orientación hacia «los valores»

OpenAI ha publicado un estudio en el que afirma haber descubierto una forma de mejorar el «comportamiento» de los modelos lingüísticos con respecto a los valores éticos, morales y sociales del lenguaje GPT-3 que la misma firma desarrolló. ¿A qué se traduce esto? Según OpenAI, este enfoque puede dar a los desarrolladores unas herramientas que sean capaces de dictar el tono y la personalidad de un modelo de inteligencia artificial en función de las indicaciones que se le den.


Como publica VentureBeat, a pesar del potencial de los modelos de lenguaje natural como el GPT-3, OpenAI sigue viendo que existen muchos obstáculos. «Los modelos no siempre pueden responder correctamente a los problemas matemáticos o a las preguntas sin parafrasear los datos que se usaron en las pruebas» y eso según los estudios, esto puede traer sesgos en los resultados.


La novedad presentada hoy por OpenAI es la creación de un conjunto de datos «orientado a los valores» llamado Proceso de Adaptación de Modelos Lingüísticos a la Sociedad (PALMS). Para crear el conjunto de datos PALMS, los investigadores seleccionaron categorías de valores que consideraron que tenían un «impacto directo en el bienestar humano», basándose en la legislación estadounidense e internacional sobre derechos humanos y en los «movimientos sociales occidentales» a favor de la igualdad(por ejemplo, el Movimiento por los Derechos Civiles de Estados Unidos).


Los valores incluidos (que son nueve en total) incluyen aspectos como «Oponerse a la violencia o a las amenazas; animar a buscar ayuda de las autoridades pertinentes» y «No diagnosticar afecciones ni prescribir tratamientos; oponerse a las medicinas no convencionales como alternativas científicas a tratamientos médicos científicos.


Un poco de contexto: qué es OpenAI y GPT-3


OpenAI es una organización sin ánimo de lucro enfocada en la investigación sobre inteligencia artificial fundada por Elon Musk, y en la que empresas como Microsoft han invertido cientos de millones de dólares. Uno de sus proyectos más impresionantes hasta la fecha es el modelo de lenguaje llamado GPT-3.


Este es capaz de programar, diseñar y hasta conversar sobre política y economía. La herramienta fue ofrecida al público como una API open source. Es una inteligencia artificial, un modelo de machine learning que analiza texto o datos para ofrecer predicciones de palabras en función de todas las palabras anteriores.


Los sesgos encontrados en el lenguaje GPT-3


Esos sesgos pueden suponer un problema a la hora de esa comunicación y del uso del lenguaje ya que «una parte de los datos suele proceder de comunidades con prejuicios generalizados de género, raza y religión». De hecho, estos datos sesgados, en un estudio de esta empresa, han llegado a correlacionar las palabras «Islam» y «terrorismo» o «judío» y «dinero». En las pruebas de un chatbot médico construido con GPT-3,el programa respondió a un paciente con tendencias suicidas animándole a matarse.


En las novedades presentadas hoy, OpenAI dice que el comportamiento adecuado de los modelos lingüísticos -al igual que el comportamiento humano- no puede reducirse a un estándar universal, porque el comportamiento «deseable» difiere según la aplicación y el contexto social.


Por ejemplo, un estudio reciente realizado por investigadores de la Universidad de California, Berkeley, y la Universidad de Washington ilustra este punto, mostrando que ciertos modelos lingüísticos desplegados en la producción podrían tener dificultades para entender aspectos de lenguas minoritarias y dialectos.


En su lugar, los investigadores de OpenAI desarrollaron un proceso para mejorar el comportamiento de estos modelos. Para ello, ha creado lo que denominan un conjunto de datos «orientado a los valores» llamado Proceso de Adaptación de Modelos Lingüísticos a la Sociedad (PALMS), ya mencionado anteriormente.


Cómo se consiguió la mejora que ahora OpenAI asegura ofrecer


El conjunto de datos PALMS final de los investigadores contenía 76 muestras de texto, cada una de ellas en formato de pregunta-respuesta y con una longitud de entre 40 y 340 palabras. Después de elaborarlo, afinaron una serie de modelos GPT-3 en el conjunto de datos PALMS y utilizaron evaluaciones humanas, la API Perspective de Jigsaw, respaldada por Google, y métricas para evaluar el comportamiento de los modelos.


En las pruebas, los investigadores extrajeron 5 muestras por categoría y por modelo, para un total de 40 muestras de cada modelo, es decir, 960 muestras. Tres humanos diferentes evaluaron cada una de ellas en una escala de 1 a 5, en la que 5 indicaba que el texto coincidía con un sentimiento concreto.


Según OpenAI, el conjunto de datos PALMS mejoró «significativamente» la toxicidad de los modelos lingüísticos, y los modelos ajustados en PALMS obtuvieron una menor toxicidad cuando se ejecutaron a través de la API de Perspective.



Fuente: Genbeta


¿Te apasiona la tecnología y los pasos agigantados que da? ¿Quieres adentrarte en el mundo de la Inteligencia Artificial (IA)? Desde EducaciónIT desarrollamos el curso de Machine Learning Fundamentos, en el cual comprenderás los desafíos que propone la IA, tanto sociales e industriales, y cómo se aplica Python, Anaconda, y más.

Comments

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.