OpenAI, en colaboración con la empresa de datos de entrenamiento Handshake AI, ha comenzado a solicitar a contratistas que suban ejemplos de trabajos reales que han realizado en sus empleos pasados o actuales. Este esfuerzo pretende establecer un referente humano que permita comparar el desempeño de sus modelos de inteligencia artificial en diversas tareas laborales.
Desde el lanzamiento de un nuevo proceso de evaluación en septiembre, OpenAI ha enfatizado la importancia de medir el rendimiento de sus modelos de IA frente a profesionales humanos en múltiples sectores.
La meta final es avanzar hacia la creación de un sistema de inteligencia artificial general (AGI) que pueda superar a los humanos en tareas económicamente significativas.
El enfoque de OpenAI para recopilar datos reales
En un documento confidencial, OpenAI explica que ha reclutado a personas de diversas ocupaciones con el fin de recoger ejemplos de tareas reales que reflejen su trabajo cotidiano. La idea es que los contratistas tomen proyectos complejos que hayan realizado y los conviertan en tareas específicas que puedan ser evaluadas.
Se espera que estas tareas sean representativas del trabajo real que han llevado a cabo.
Instrucciones para los contratistas
Los contratistas deben describir las tareas realizadas en sus trabajos anteriores y subir ejemplos concretos de su trabajo, incluyendo documentos como Word, PDFs, presentaciones de PowerPoint, hojas de cálculo de Excel, imágenes y repositorios. OpenAI aclara que es fundamental que los ejemplos sean salidas concretas, no meras descripciones, lo que significa que deben proporcionar el archivo real en lugar de un resumen.
Además, OpenAI ha proporcionado pautas claras para asegurar que los documentos subidos no contengan información confidencial. Se les ha instruido a eliminar datos personales y propiedad intelectual antes de subir cualquier archivo. Para facilitar este proceso, se menciona una herramienta llamada Superstar Scrubbing, diseñada para ayudar a los contratistas a eliminar información sensible.
Riesgos legales y preocupaciones sobre la confidencialidad
A pesar de las precauciones, surgen preocupaciones sobre los riesgos legales asociados con esta práctica.
Según el abogado de propiedad intelectual Evan Brown, las empresas de IA que reciben información confidencial de contratistas corren el riesgo de enfrentar reclamaciones por apropiación indebida de secretos comerciales. Esto se debe a que los contratos de confidencialidad establecidos por los anteriores empleadores podrían verse comprometidos si se sube información sensible, incluso si se ha intentado eliminar.
Brown señala que al confiar en que los contratistas determinen qué información es confidencial, OpenAI se está exponiendo a riesgos significativos. Si se filtra información sensible, podría haber consecuencias legales tanto para los contratistas como para la empresa que recopila los datos.
La importancia de la transparencia en el proceso
La práctica de solicitar trabajos reales de contratistas no es única de OpenAI; muchas empresas de inteligencia artificial están adoptando enfoques similares. Sin embargo, la forma en que se maneje esta información será crucial para el éxito y la reputación de estas empresas. La cadena de confianza entre las empresas de IA y sus contratistas debe ser sólida para evitar problemas legales y éticos.
En conclusión, el esfuerzo de OpenAI por mejorar sus modelos de inteligencia artificial a través de trabajos reales de contratistas representa un paso importante hacia la creación de sistemas más efectivos. Sin embargo, también plantea serias preocupaciones sobre la confidencialidad y la gestión de información sensible, lo que requiere una atención cuidadosa y un manejo responsable de los datos recopilados.


