Un nuevo informe ha revelado una práctica creciente entre los trabajadores australianos: el uso de herramientas de inteligencia artificial generativa sin la aprobación de sus empleadores. Según el análisis de Jobs and Skills Australia, se estima que entre el 21% y el 27% de los empleados, especialmente en sectores de oficinas, están utilizando estas tecnologías sin informar a sus jefes. Este fenómeno, conocido como “uso en la sombra”, plantea importantes preguntas sobre la gobernanza y la regulación del uso de la IA en el entorno laboral. ¿Te has preguntado alguna vez si esto también ocurre en tu país?
El fenómeno del uso en la sombra de la IA
El informe titulado “Nuestra transición a la IA generativa: implicaciones para el trabajo y las habilidades” destaca que, a pesar de las exhortaciones de los líderes gubernamentales para maximizar el uso de la IA, muchos trabajadores optan por no informar a sus superiores sobre su uso. Las razones son variadas; algunos sienten que no hay un marco claro que les permita experimentar con estas herramientas sin miedo a repercusiones. Pero, ¿es realmente negativo este uso no autorizado? En muchos casos, estos trabajadores clandestinos están impulsando innovaciones desde abajo, lo que podría ser beneficioso para sus empresas a largo plazo.
A pesar de sus ventajas, este uso oculto conlleva serios riesgos. La falta de supervisión puede llevar a problemas de seguridad de datos y a la creación de prácticas laborales inconsistentes. Como advierte el informe, “el uso en la sombra puede proliferar en ausencia de una gobernanza clara, lo que resulta en prácticas difíciles de escalar y que aumentan los riesgos de responsabilidad y cumplimiento”.
La necesidad de una gobernanza nacional clara
El informe hace un llamado a la creación de un marco nacional coordinado para la transición de Australia hacia la IA generativa, que incluya una mejora en las habilidades digitales y de IA para toda la población. Esto es fundamental, ya que la actual falta de regulación deja a los trabajadores y empleadores en la oscuridad sobre cómo proceder adecuadamente. ¿Te imaginas trabajando en un entorno donde las reglas cambian constantemente? La situación se complica aún más por la variabilidad de las reglas de uso de IA entre los diferentes estados de Australia, donde las leyes pueden cambiar drásticamente al cruzar una frontera estatal.
Ejemplos recientes ilustran esta falta de claridad. En Victoria, un trabajador de protección infantil introdujo información sensible en ChatGPT, lo que llevó a prohibiciones temporales sobre el uso de IA por parte de los empleados del estado. Estas inconsistencias resaltan la urgencia de establecer un marco uniforme que proteja tanto a los trabajadores como a los empleadores.
Cómo abordar el uso no autorizado de IA
Ante la posibilidad de que los trabajadores continúen utilizando IA en secreto, los empleadores deben actuar. Implementar políticas claras y ofrecer capacitación adecuada puede ser un primer paso para reducir la brecha de confianza entre empleador y empleado. Algunas profesiones, como la legal, ya están comenzando a ofrecer directrices claras sobre el uso de IA, aunque esto aún no es suficiente. Con un marco regulatorio nacional claro, sería posible proteger a todos los trabajadores, independientemente de su ubicación geográfica.
Sin un enfoque coordinado y proactivo hacia la gobernanza de la IA, los empleadores se encontrarán navegando en un campo minado regulatorio, expuestos a posibles infracciones y con los trabajadores sintiéndose obligados a recurrir al uso clandestino por miedo a ser vistos como deshonestos. La clave para evitar este problema radica en la colaboración y la creación de un entorno de trabajo donde la innovación y el uso de nuevas tecnologías sean alentados y regulados adecuadamente.