in

OpenAI Busca Ejemplos de Trabajo Real para Evaluar su Inteligencia Artificial

OpenAI está en busca de ejemplos concretos de trabajos realizados por contratistas con el fin de optimizar su inteligencia artificial y establecer un estándar humano de calidad.

openai busca ejemplos de trabajo real para evaluar su inteligencia artificial 1768179641

OpenAI ha iniciado un proceso innovador para desarrollar y evaluar modelos de inteligencia artificial más avanzados. La empresa ha comenzado a solicitar a sus contratistas que carguen ejemplos reales de tareas que han realizado en sus empleos anteriores o actuales. Esta iniciativa, que documenta la colaboración con la firma de datos de entrenamiento Handshake AI, busca establecer una base de comparación entre el rendimiento humano y el de la IA.

El objetivo de OpenAI es crear un punto de referencia humano que permita evaluar cómo sus modelos de IA se comparan con el trabajo de profesionales en diversas industrias. En septiembre, la compañía introdujo un proceso de evaluación que mide el rendimiento de sus modelos en relación con el trabajo humano, un avance que consideran crucial para alcanzar la inteligencia general artificial (AGI).

El proceso de recolección de datos

De acuerdo con un documento confidencial, OpenAI busca que los contratistas describan las tareas que han realizado y suban ejemplos concretos de su trabajo. Esto incluye documentos como Word, PDFs, presentaciones de PowerPoint, hojas de cálculo de Excel, imágenes y más. La instrucción es clara: no se aceptan resúmenes, solo archivos concretos que reflejen el trabajo real ejecutado.

Ejemplos de tareas recopiladas

Un ejemplo proporcionado en la presentación de OpenAI describe una tarea llevada a cabo por un ‘Gerente de Estilo de Vida Senior’ en una empresa de conserjería de lujo.

La tarea consistía en preparar un documento PDF que resumiera un itinerario de siete días para una familia que viajaba a las Bahamas por primera vez. Este caso ilustra cómo OpenAI espera que los contratistas suban itinerarios reales que hayan creado para sus clientes.

Además, la empresa ha enfatizado la importancia de que los ejemplos compartidos sean trabajos que los contratistas realmente hayan ejecutado. Se les insta a eliminar cualquier propiedad intelectual corporativa y datos personales de los archivos que se suban, dado que compartir información sensible podría violar acuerdos de confidencialidad.

Riesgos asociados y consideraciones legales

El abogado de propiedad intelectual, Evan Brown, ha advertido sobre los riesgos que enfrentan los contratistas al compartir documentos. Aunque OpenAI solicita a los trabajadores que eliminen información sensible, siempre existe el riesgo de que algún dato se escape. Esto podría dar pie a reclamaciones por apropiación indebida de secretos comerciales, lo que coloca a los contratistas y a OpenAI en una situación delicada.

La confianza entre OpenAI y sus contratistas

Brown ha señalado que la confianza que OpenAI deposita en sus contratistas para decidir qué información es confidencial puede resultar problemática. Si se filtra información sensible, esto podría tener serias repercusiones legales. La confianza en la capacidad de los contratistas para filtrar información confidencial es un aspecto crucial que podría traer complicaciones para todos los involucrados.

A medida que OpenAI avanza en la construcción de modelos de inteligencia artificial más competentes, la recopilación de datos reales y la comparación con el rendimiento humano son pasos esenciales. Sin embargo, es fundamental abordar los riesgos legales y la protección de información confidencial para garantizar que este proceso no comprometa la integridad de la empresa ni de sus contratistas.

¿Qué piensas?

Escrito por Staff

gigabyte revela su innovadora linea de productos en el ces 2026 descubre las novedades 1768176049

Gigabyte Revela su Innovadora Línea de Productos en el CES 2026: ¡Descubre las Novedades!