OpenAI ha iniciado un proceso innovador para desarrollar y evaluar modelos de inteligencia artificial más avanzados. La empresa ha comenzado a solicitar a sus contratistas que carguen ejemplos reales de tareas que han realizado en sus empleos anteriores o actuales. Esta iniciativa, que documenta la colaboración con la firma de datos de entrenamiento Handshake AI, busca establecer una base de comparación entre el rendimiento humano y el de la IA.
El objetivo de OpenAI es crear un punto de referencia humano que permita evaluar cómo sus modelos de IA se comparan con el trabajo de profesionales en diversas industrias. En septiembre, la compañía introdujo un proceso de evaluación que mide el rendimiento de sus modelos en relación con el trabajo humano, un avance que consideran crucial para alcanzar la inteligencia general artificial (AGI).
El proceso de recolección de datos
De acuerdo con un documento confidencial, OpenAI busca que los contratistas describan las tareas que han realizado y suban ejemplos concretos de su trabajo. Esto incluye documentos como Word, PDFs, presentaciones de PowerPoint, hojas de cálculo de Excel, imágenes y más. La instrucción es clara: no se aceptan resúmenes, solo archivos concretos que reflejen el trabajo real ejecutado.
Ejemplos de tareas recopiladas
Un ejemplo proporcionado en la presentación de OpenAI describe una tarea llevada a cabo por un ‘Gerente de Estilo de Vida Senior’ en una empresa de conserjería de lujo.
La tarea consistía en preparar un documento PDF que resumiera un itinerario de siete días para una familia que viajaba a las Bahamas por primera vez. Este caso ilustra cómo OpenAI espera que los contratistas suban itinerarios reales que hayan creado para sus clientes.
Además, la empresa ha enfatizado la importancia de que los ejemplos compartidos sean trabajos que los contratistas realmente hayan ejecutado. Se les insta a eliminar cualquier propiedad intelectual corporativa y datos personales de los archivos que se suban, dado que compartir información sensible podría violar acuerdos de confidencialidad.
Riesgos asociados y consideraciones legales
El abogado de propiedad intelectual, Evan Brown, ha advertido sobre los riesgos que enfrentan los contratistas al compartir documentos. Aunque OpenAI solicita a los trabajadores que eliminen información sensible, siempre existe el riesgo de que algún dato se escape. Esto podría dar pie a reclamaciones por apropiación indebida de secretos comerciales, lo que coloca a los contratistas y a OpenAI en una situación delicada.
La confianza entre OpenAI y sus contratistas
Brown ha señalado que la confianza que OpenAI deposita en sus contratistas para decidir qué información es confidencial puede resultar problemática. Si se filtra información sensible, esto podría tener serias repercusiones legales. La confianza en la capacidad de los contratistas para filtrar información confidencial es un aspecto crucial que podría traer complicaciones para todos los involucrados.
A medida que OpenAI avanza en la construcción de modelos de inteligencia artificial más competentes, la recopilación de datos reales y la comparación con el rendimiento humano son pasos esenciales. Sin embargo, es fundamental abordar los riesgos legales y la protección de información confidencial para garantizar que este proceso no comprometa la integridad de la empresa ni de sus contratistas.

