Por qué los manuales del empleado generados por IA están causando el caos en las empresas que los utilizan
Las políticas de empresa generadas por ChatGPT están exponiendo a los empleadores a un buffet de riesgos legales y financieros.

A principios de este año, Carly Holm, CEO de la consultora de RRHH Humani, recibió una llamada de un cliente. En ese caso, un empleador. Resulta que uno de sus empleados había iniciado una demanda por acoso laboral contra otro, y la situación se estaba agravando. Pero cuando Holm le pidió a esta persona una copia de su manual del empleado, como parte de una comprobación rutinaria de cumplimiento, tropezaron. Dijeron un poco avergonzados: "Bueno, acá está, lo escribió ChatGPT”, dijo Holm a Forbes.

Para Holm, que ha revisado políticas escritas por IA para docenas de sus clientes, la revelación no fue una sorpresa. Pero en este caso había un problema importante: el manual generado por la IA no tenía ninguna política contra el acoso.

“Si el lugar de trabajo no cuenta con políticas adecuadas, como una política de tolerancia cero para el acoso sexual, la violencia en el lugar de trabajo, etc., la investigación se dirigirá entonces al empleador, y habrá consecuencias”, dijo. “Así que se dieron cuenta que deberían haber contratado a profesionales para redactar estas políticas de la forma adecuada”.

 

Las empresas recurren cada vez más a la IA para generar documentos laborales importantes, muchas veces, legalmente vinculantes: desde manuales de empresa y políticas del lugar de trabajo hasta contratos como cartas de oferta y acuerdos de separación, según las entrevistas con cuatro proveedores de servicios de RRHH y nóminas. 

Y en varios casos, estos documentos, hilados con herramientas de IA como ChatGPT, pasan por alto cláusulas clave y cuestiones cruciales que ponen a los empleadores en grave riesgo legal y financiero, según explicaron a Forbes consultores de RRHH que han trabajado directamente con estas empresas.

Mientras que algunas empresas contratan a expertos en RRHH para que revisen sus políticas generadas por IA antes de publicarlas, otras buscan ayuda profesional después de que surjan los problemas. Por ejemplo, una empresa con sede en California y 200 empleados utilizó la IA para generar su manual de empresa, según explicó a Forbes Daniel Grace, director de la consultora global de RRHH Iris. Pero tras distribuirlo por toda la empresa, los directivos descubrieron que no incluía una política de horas extraordinarias, un requisito legal en el estado. Cuando los empleados trabajaron varias horas extraordinarias, la empresa se encontró con una factura salarial masiva e inesperada.

 

“Volvieron a mirar el manual y había una sección sobre horas extraordinarias, pero estaba en blanco”, dijo Grace.

Otro ejemplo: En el Reino Unido, un equipo de RR.HH. utilizó el copiloto de IA de Microsoft Bing para elaborar un acuerdo de despido, explicó Grace. El documento jurídicamente vinculante, que omitía información esencial, se envió entonces al asesor jurídico del empleado.

"Su abogado lo tiró por la ventana y dijo que esto no servía para nada. Realmente empañó su propia negociación y acabaron teniendo que pagar una cantidad de liquidación mayor", dijo Grace.

 

Los manuales y las políticas del lugar de trabajo suelen tener cientos de páginas. Cada uno de estos documentos exhaustivos se adapta para reflejar la cultura de la empresa e incorporar las leyes locales que se aplican de forma exclusiva a los empleados de las empresas. 

Pero aunque las herramientas de IA pueden ayudar a elaborar un primer borrador de estos documentos en cuestión de segundos, sus conjuntos de datos de formación subyacentes suelen estar desfasados cuando se trata de leyes laborales en constante evolución, dijo Ben Houghton, vicepresidente de ingeniería de Iris. Además, hay una serie de problemas de privacidad. Si se introducen datos confidenciales de la empresa en la versión gratuita de ChatGPT y similares, podrían utilizarse para entrenar modelos de IA o filtrarse al público.

Paul Cortissoz, director general de HRSoul, una consultora de recursos humanos con sede en Florida, dijo a Forbes que apoyarse demasiado en la IA para estas políticas puede tener efectos dominó desordenados. Contó el caso de una empresa remota de SaaS que lo contrató después de que un empleado hubiera presentado una queja interna. El manual de la empresa, conjurado con la ayuda de ChatGPT, asignaba cinco días de permiso retribuido en virtud de su política de duelo, pero en el estado en el que vivía la empleada, los trabajadores tenían derecho a hasta 10 días de permiso retribuido.

 

“Ése fue en cierto modo el punto doloroso para que dijeran: 'Oh, ¿sabe qué?, quizá necesitemos traer a alguien que realmente sepa lo que está haciendo'”, dijo Cortissoz, añadiendo que desde entonces se ha pedido a su empresa que rehaga varios manuales del empleado generados por IA.

Aunque la IA se está aplicando a una serie de tareas de RR.HH. -redactar descripciones de puestos de trabajo, encontrar talentos, seleccionar y entrevistar a candidatos, asignar bonificaciones-, aún no está lo suficientemente afinada como para generar políticas empresariales precisas, lo que expone a las empresas que las utilizan a enfrentarse a graves secuelas legales y financieras.

“Seamos realistas, la gente está utilizando herramientas de inteligencia artificial para acelerar las cosas... y realmente no deberían... Estas cosas tienen problemas iniciales", dijo Grace. "Están generando estos documentos. Nadie los está corrigiendo, los están publicando y está causando más problemas de los que habría causado si se hubieran tomado el tiempo de hacer el manual con éxito en primera instancia”.

 

Nota publicada en Forbes US.