En un esfuerzo por avanzar en la evaluación de sus modelos de inteligencia artificial, OpenAI ha comenzado a solicitar a sus contratistas ejemplos de trabajos reales de sus empleos anteriores o actuales. Esta iniciativa busca establecer un punto de referencia humano que permita comparar el rendimiento de sus sistemas de IA con el de profesionales en diversas industrias.
Según documentos internos, OpenAI se encuentra en una fase de recopilación de datos para poner a prueba la capacidad de sus modelos de IA en tareas específicas.
La meta es clara: medir la eficacia de la IA en comparación con el trabajo que realizan los humanos. Esta comparación es fundamental para desarrollar una inteligencia artificial que supere a los seres humanos en tareas de alta demanda económica.
Recolección de datos y ejemplos concretos
La empresa ha solicitado a sus colaboradores que describan experiencias laborales y suban ejemplos de trabajos que han realizado. Como se detalla en una presentación interna, cada ejemplo debe ser un resultado tangible y no solo un resumen.
Esto incluye documentos en formatos como Word, PDF, o incluso imágenes y repositorios de código. OpenAI permite que los contratistas presenten ejemplos ficticios que simulan su respuesta en situaciones específicas.
El proceso de evaluación
El enfoque en la recolección de datos se basa en dos componentes clave: la solicitud de tarea y el resultado entregado. La solicitud se refiere a lo que un gerente o colega indica que debe hacerse, mientras que el resultado es el producto final.
OpenAI enfatiza que los ejemplos deben reflejar trabajos reales que el individuo ha completado en su entorno laboral.
Por ejemplo, en una tarea asignada a un gerente de estilo de vida en una empresa de conserjería de lujo, se le pide que prepare un itinerario de dos páginas para un viaje en yate a las Bahamas. Este documento incluirá detalles sobre los intereses de la familia y el itinerario propuesto.
El entregable, por lo tanto, sería el itinerario real que el contratista ha creado para un cliente.
Consideraciones legales y de privacidad
OpenAI también ha sido clara en cuanto a las precauciones que deben tomar los contratistas. Se les instruye que eliminen cualquier información confidencial o propiedad intelectual de los documentos que suban. En una sección titulada «Recordatorios importantes», OpenAI menciona que se debe anonymizar cualquier dato personal o información sensible que pueda estar contenida en los archivos.
Un aspecto notable es la aparición de una herramienta llamada “Superstar Scrubbing”, que ayuda a los contratistas a eliminar información confidencial de sus documentos antes de enviarlos. Esto es crucial, ya que el abogado de propiedad intelectual, Evan Brown, advierte que la recolección de datos de este tipo podría exponer a OpenAI a demandas por apropiación indebida de secretos comerciales si se filtran datos sensibles.
Confianza y riesgos en la recolección de datos
El dilema se centra en la confianza que OpenAI deposita en sus contratistas para decidir qué información es confidencial. Si se produce una filtración, sería necesario evaluar si OpenAI está tomando las medidas adecuadas para proteger la información sensible. Esto plantea un riesgo significativo para la compañía, que podría enfrentarse a consecuencias legales si se violan acuerdos de confidencialidad de los empleados anteriores.
OpenAI está en una carrera por mejorar sus modelos de IA y, al mismo tiempo, enfrenta desafíos éticos y legales en la recolección de datos laborales. Esta iniciativa podría marcar un hito en la evolución de la inteligencia artificial, siempre que se maneje con la debida diligencia y consideración hacia la privacidad y la protección de datos.


