Inteligencia Artificial escribe textos realistas

Hoy una serie de investigadores han anunciado que desarrollaron un generador de textos usando Inteligencia Artificial, el cual es muy bueno, y lo es a tal grado que se mantienen en privado los detalles de dicho software.

Desarrollos como programas inteligentes para generar textos realistas se han puesto en secreto por el temor de que sean usados para fines malintencionados.

 

La aplicación, desarrollada por OpenAI podría ser usada para generar nuevas historias, hacer revisión de productos y otros tipos de escritos, los cuales parecen ser mucho más humanos que todos los programas anteriores que habían trabajado en el tema.

OpenAI es un centro de investigación en Inteligencia Artificial, apoyado por Elon Musk y Microsoft, el cual indica que “la aplicación logra estar en el estado del arte en lo que se refiere a desempeño en muchos lenguajes de acuerdo a los modelos de prueba”, incluyendo el hacer resúmenes y traducciones.

Pero a pesar de todas estas virtudes, el programa no estará disponible al público. “Debido a nuestra preocupación sobre las aplicaciones maliciosas de la tecnología, no estamos mostrando al público el modelo entrenado”, dicen los investigadores de OpenAI en un artículo de blog el jueves pasado.

La novedad podría representar un hito en los intentos por desarrollar textos generados por computadoras que puedan ser creíbles, que a la vez son potencialmente peligrosos. Los investigadores dijeron que hay muchas maneras de que el programa se pudiese usar para propósitos maliciosos, por ejemplo, generar “fake news” robando identidad de otros en línea y poner contenido falso en las redes sociales.

Pero para entender qué hace el software, se le dio un texto que decía: “una horda de unicornios que viven en un valle remoto e inexplorado, en los Andes”, y el programa escribió un texto de 300 palabras con una historia sobre el mismo.

“El público al final del día, tendrá que aprender a ser más escéptico sobre los textos que encuentra en línea, que es lo que ya está pasando con las llamadas “deep fakes”, imágenes falsas de personajes públicos en situaciones comprometedoras, que son en realidad composiciones de video muy sofisticadas y cada vez más difíciles de detectar y que están a la alza”, dicen los investigadores.

Los investigadores dijeron que su modelo, llamado GPT-2, “sobrepasa los modelos en otros idiomas”, entrenado con tareas como entradas de Wikipedia, noticias, o libros, sin necesitar de un entrenamiento específico.

Habrá que ver cuánto dura este auto-veto. Si estos investigadores no muestran sus hallazgos, llegarán otros que estén trabajando en este tema, y que nos enseñarán lo que están haciendo.

 

 


 

No es la primera vez que vemos la utilización de IAs haciéndose pasar por humanos en redes sociales y otros ámbitos, como  dar respuestas en sistemas de ayudas en linea o soporte de alguna empresa. Hoy por hoy estamos ante un bombardeo de posibilidades que terminan muchas veces en utilizaciones indebidas y en la desinformación  en noticias personalizadas. Las Fake News están ahí y como dice el viejo dicho: “Cuando la gallina cacarea, es porque puso un huevo…”.

 

Hasta la próxima

 

David (10% Nori-El)
foto-perfil-300

 

«Hay mayor realidad que nuestra mayor ficción»

Maestro Nori-El

 


 

Mas Información y Fuentes:

Unocero.com – ciencia