0

California cambia las reglas del juego laboral: todo negocio debe conocer la NUEVA LEY que entra en vigor en octubre

California obliga a empresas a responder por decisiones laborales con IA y a conservar todos los registros de contratación y evaluaciones durante cuatro años.

Empresas en California deberán cumplir nuevas reglas sobre IA
Empresas en California deberán cumplir nuevas reglas sobre IA | Fuente: EFE

A partir del 1 de octubre de 2025, todas las empresas y consultoras que operen en California deberán asumir plena responsabilidad por cualquier decisión de empleo tomada mediante inteligencia artificial o sistemas automatizados. La medida afecta a empleadores, agencias de reclutamiento y proveedores tecnológicos, obligando a revisar y documentar procesos de selección, evaluación, promociones y despidos. Esta regulación busca prevenir discriminación digital y garantizar transparencia en la gestión de personal, de acuerdo con el Consejo de Derechos Civiles de California (CRD).

Esta legislación también establece que toda decisión tomada por IA debe quedar registrada durante al menos cuatro años, incluyendo algoritmos utilizados, datos procesados y resultados generados, para que pueda ser auditada por trabajadores o autoridades estatales. El objetivo es cerrar vacíos legales y reforzar la protección de derechos laborales frente a la automatización.

California

Responsabilidad total para empleadores frente a decisiones automatizadas en RR.HH.

¿Qué empresas y procesos están bajo la normativa?

La ley aplica a:

  • Departamentos internos de recursos humanos.
  • Consultoras externas y firmas de reclutamiento.
  • Proveedores tecnológicos que desarrollen o implementen sistemas de IA para selección y evaluación de personal.

Incluso empresas ubicadas fuera de California deberán cumplir con la normativa si afectan a trabajadores dentro del estado. Los “partners” de reclutamiento se equiparan legalmente con los empleadores, lo que significa que subcontratar procesos de selección no exime de responsabilidad.

Además, el reglamento prohíbe expresamente cualquier práctica que implique acceso no autorizado a información médica o de discapacidad a través de sistemas automatizados, incluyendo tests, cuestionarios o dinámicas digitales. La normativa exige auditorías periódicas para identificar y corregir sesgos algorítmicos y asegura el derecho de los empleados a revisar los registros completos de decisiones automatizadas.

Impacto esperado y cumplimiento

El CRD prevé que esta medida reducirá incidentes de discriminación algorítmica y obligará a las empresas a invertir en auditorías y capacitación de personal. Las sanciones por incumplimiento incluyen multas, nulidad de decisiones y restricciones para operar dentro del estado. La ley refuerza la FEHA y se convierte en un modelo que podría replicarse en otros estados de EE.UU.

Notas Recomendadas

Ofertas

Lo Más Reciente

Últimas noticias

Estados Unidos

Estados Unidos

Fútbol Peruano