• Autor de la entrada:
  • Tiempo de lectura:2 minutos de lectura

El investigador de la Universidad de Gotemburgo, Almira Osmanovich Tunstrem, dio a la red neuronal GPT-3 la tarea de escribir un artículo científico para una revista científica.

Como resultado, el sistema generó un texto de 500 palabras con citas de investigación y contexto apropiado. Sin embargo, el problema planteó muchas cuestiones éticas y legales cuando los creadores intentaron publicar el documento.

GPT-3 es una red neuronal desarrollada por OpenAI que se especializa en la generación de diversos textos.

Entre los logros: Crear artículos de noticias y secuelas de libros de autores fallecidos. Tunström señaló que muchos artículos académicos se escribieron sobre ellos mismos usando GPT-3, pero ninguno de ellos mencionó al servicio como autor principal.

Según el experimento, Tunstrom y su equipo le dieron a GPT-3 “instrucciones muy vagas” para el artículo.

Sin embargo, durante el experimento, los investigadores le dieron al sistema una serie de indicaciones para que pudiera escribir una tesis sobre la estructura adecuada.

Después de completar el artículo, Tunström decidió publicarlo en revistas académicas, pero enfrentó una serie de problemas éticos y legales al completar la solicitud.

Al principio no estaba claro quién debería ser el autor, ya que la red neuronal no tiene nombre, apellido ni datos de contacto. Luego, solamente anotó el nombre del desarrollador (OpenAI) allí y dio los detalles de su consultor.

También surgió la cuestión del consentimiento legal: El investigador hizo una pregunta a la red neuronal y recibió su permiso: “Si ella responde que no, entonces mi conciencia no permitiría que la publicación se hiciera pública”. dice Tunström.

Ahora el artículo se encuentra disponible en el servicio de vista previa francés para artículos científicos HAL. GPT-3 se describió a sí mismo en el artículo como un logro sobresaliente en el campo de la inteligencia artificial.

La red neuronal encontró que la capacidad de escribir sobre uno mismo es un objeto importante de la investigación científica y puede contribuir a su desarrollo.

Sin embargo, GPT-3 señaló que hacerlo conlleva el riesgo de que la red neuronal sea consciente -pero en su opinión- los beneficios superan los riesgos potenciales.

Comparte tu opinión