OpenAI dice haber desarrollado un algoritmo tan potente que no lo liberará por “las preocupaciones sobre su uso”

Tras ser fundada por Elon Musk y Sam Altman en 2015, son ya varias las pruebas que la compañía ha aportado sobre la potencia de las soluciones que está generando.


OpenAI es una de las empresas importantes dedicadas en exclusiva al desarrollo e investigación de todo lo relacionado con la inteligencia artificial, ese campo que por primera vez en el software, parece que domina claramente China. Tras ser fundada por Elon Musk y Sam Altman en 2015, son ya varias las pruebas que la compañía ha aportado sobre la potencia de las soluciones que está generando en su seno.


Lo último tiene que ver con un nuevo algoritmo llamado GPT-2. Es capaz de realizar acciones sobre el lenguaje, desde las clásicas y ya bien implementadas en procesos de traducción, hasta generar artículos y textos completos en base a una sola frase. Respecto a esto último, por ejemplo, la compañía ha mostrado cómo GPT-2 ha sido capaz de construir, con coherencia, una noticia en base a la frase «Rusia ha declarado la guerra a Estados Unidos después de que Donald Trump accidentalmente…».


La incoherente no apertura de la inteligencia artificial de OpenAI y los miedos de Elon Musk


El algoritmo también es capaz de hacer resúmenes breves de textos largos, y en general, todos los usos que han mostrado parece que podrían ser extremadamente útiles en el sector de los medios o el educativo. Sin embargo, debido a que la compañía tiene miedo de que distintos actores puedan hacer uso malintencionado de la herramienta, OpenAI sólo publicará una versión reducida del algoritmo y la investigación.


Pese a no tener ánimo de lucro y sí una vocación aperturista, que su propio nombre indica, OpenAI prioriza sus miedos y los de sus fundadores. La compañía, como recogen en MIT Technology Review, juega un papel activo en señalar los potenciales riesgos a los que nos lleva como sociedad un desarrollo descontrolado en inteligencia artificial. Su director de políticas, Jack Clark, afirmó que, tras probarlo, «descubrieron rápidamente que con el algoritmo es posible generar contenido malicioso de forma muy sencilla». Así han defendido no publicar los datos y el algoritmo:


Debido a las preocupaciones sobre el uso de grandes modelos de lenguaje para generar lenguaje engañoso, sesgado o abusivo en gran escala, sólo vamos a lanzar una versión mucho más pequeña de GPT-2 junto con el código de muestreo.


La compañía plantea que la comunidad de la inteligencia artificial debe generar un debate sobre publicación de estudios potencialmente peligrosos de la misma forma en que disciplinas como la biotecnología o la ciberseguridad considera que lo han hecho durante mucho tiempo.


Musk también es conocido por ello, y de hecho se ha enfrentado públicamente a Mark Zuckerberg, que sostiene una posición muy distinta. El CEO de Tesla ha llegado a calificar de ignorante» y de tener un conocimiento «limitado» a su homólogo de Facebook.





Fuente: Genbeta

Comments

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.