
(Ilustração de Elena Lacey/The Washington Post; iStock)
https://www.washingtonpost.com/business/2025/12/01/ai-work-regulations-california
01 dez 2025
[Nota do Website: Matéria que desperta o quanto a IA pode substituir a decisão humana para fortalecer a discriminação de todo o gênero na sociedade. Da forma como se vê os oligarcas das Big Techs estarem se posicionando politica e ideologicamente falando, essa realidade sem dúvida, infelizmente, poderá a vir a se instalar no mundo. O que será dos negros, dos latinos, dos árabes e de outras etnias como os povos originários quando forem enfrentar os algoritmos totalmente formatados pela ideologia supremacista branca e tecnofascista que está se percebendo dominar os corações e mentes dos fundamentalistas das Big Techs?].
Os trabalhadores da Califórnia têm mais poder para lutar contra o uso da inteligência artificial no local de trabalho.
Um trabalhador negro com mais de 40 anos afirma sofrer de ansiedade e depressão e sabe o principal motivo de não ter sido contratado: os empregadores usavam o software Workday. A alegação, revelada em uma ação coletiva em um tribunal da Califórnia, afirma que a Workday o discriminou, assim como outros, durante o processo de contratação.
Mobley alega, em um processo judicial aberto em 2023 no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia, que a Workday forneceu ferramentas de triagem que utilizavam julgamentos subjetivos na avaliação de candidatos a vagas de emprego. O processo afirma que a Workday permitiu a pré-seleção de candidatos que não pertenciam a categorias protegidas. O caso está tramitando no sistema judicial federal. A Workday afirma que as alegações são falsas e que suas ferramentas de recrutamento com IA não tomam decisões de contratação, nem são treinadas para usar ou identificar características protegidas.
A inteligência artificial e os sistemas automatizados estão sendo cada vez mais analisados pelos estados devido ao potencial de permitirem discriminação no emprego. A Califórnia é o estado mais recente a implementar uma regulamentação que pode dar aos trabalhadores mais poder para contestar decisões tomadas ou auxiliadas por sistemas automatizados e IA. Outros estados que aprovaram regulamentações semelhantes incluem Nova York, Illinois e Colorado, com a legislação do Colorado prevista para entrar em vigor no próximo ano. À medida que mais estados aderem a essa tendência, o resultado do caso de Mobley pode ter implicações sobre como os tribunais lidam com alegações de discriminação no local de trabalho relacionadas à IA e outras tecnologias, disseram advogados.
“Quanto maior for o empregador, maior será o alvo”, disse Michael Manoukian, sócio do escritório da Lathrop GPM em San Jose. “Acho que veremos uma enxurrada de processos judiciais contra empresas que usam esses sistemas.”
Na Califórnia, uma norma que entrou em vigor em outubro fornece novas orientações sobre como as leis antidiscriminação existentes se aplicam ao uso de IA e outros sistemas automatizados.
Muitos estados protegem os funcionários contra assédio ou discriminação no local de trabalho devido à idade, cor, deficiência, raça, religião, gênero ou orientação sexual, entre outras características. Mas a atualização na Califórnia também especifica que candidatos a emprego e funcionários são igualmente protegidos contra discriminação resultante de “sistemas automatizados de decisão”, ou seja, qualquer sistema que utilize inteligência artificial, aprendizado de máquina, algoritmos, estatística ou outras técnicas de processamento de dados para tomar uma decisão ou facilitar a tomada de decisão humana.
“Existe uma infinidade de ferramentas que os empregadores podem usar ao longo do ciclo de vida do emprego — para contratação, integração, gestão de desempenho e, posteriormente, para desligamentos e rescisões”, disse Manoukian. “Este é o processo legal tentando acompanhar os sistemas que estão sendo usados pelas empresas.”
O Departamento de Direitos Civis da Califórnia implementou as regras porque a IA e outros sistemas automatizados são cada vez mais usados no mercado de trabalho “para facilitar uma ampla gama de decisões” e podem “exacerbar preconceitos existentes”, afirmou em um comunicado anunciando a regulamentação.
“Eles querem humanizar o processo de contratação”, disse Alexander Reich, sócio do escritório de advocacia Saul Ewing, em Chicago, sobre a agência estadual. “Embora os sistemas de rastreamento de candidatos e a IA possam ser ferramentas úteis para aumentar a produtividade, eles também podem aumentar a discriminação.”
Poder dos trabalhadores
Regulamentações como as da Califórnia, Nova York, Illinois e Colorado podem dar aos trabalhadores mais poder para se defenderem de empregadores que suspeitem de práticas discriminatórias relacionadas a sistemas de software usados no processo de tomada de decisão, disseram advogados.
Candidatos a emprego e funcionários na Califórnia que suspeitarem ter sido eliminados ou tratados injustamente devido a um sistema automatizado podem registrar uma queixa junto ao Departamento de Direitos Civis da Califórnia e também solicitar ao empregador que forneça documentação, por exemplo, disse Reich. A agência estadual então avaliará a situação para determinar se abrirá uma investigação.
Por exemplo, pode haver debate sobre o que caracteriza um sistema de decisão automatizado, quais dados precisam ser preservados, onde se traça a linha em termos de viés na IA, como um funcionário pode comprovar um caso e como um empregador pode defender seus processos. Se um gerente de nível médio usar IA para redigir a avaliação de um funcionário, que seja negativa e tenha efeitos adversos para o funcionário, este pode ter motivos para argumentar que essa foi uma prática ilegal e discriminatória, disse Reich.
As empresas arcam com o ônus.
Os funcionários terão a responsabilidade de fornecer provas suficientes para dar início a uma investigação, mas, se o fizerem, isso poderá criar grandes problemas para um empregador despreparado.
“Se o funcionário acreditar que houve uma prática ilegal, caberá ao empregador se defender”, disse Manoukian.
As empresas que utilizam IA ou sistemas automatizados de tomada de decisão em qualquer parte de suas práticas de emprego precisarão ser proativas na manutenção de registros, na avaliação de terceiros, na auditoria de suas ferramentas e na compreensão de como funciona o software proprietário ou licenciado.
“O mais importante é que os empregadores saibam no que estão se metendo”, disse Reich sobre a aplicação de softwares em decisões no ambiente de trabalho. “É preciso entender o que o sistema está fazendo e garantir a conformidade de forma proativa.”
Isso significa que os empregadores devem realizar auditorias em todos os softwares que utilizam, garantir que os fornecedores possuam protocolos antidiscriminatórios e que as responsabilidades e obrigações de indenização relacionadas às novas leis estejam claramente definidas em todos os contratos de software, afirmaram os advogados. Eles também devem testar o software para verificar se ele produz resultados preocupantes antes de implementá-lo no ambiente de trabalho.
“A legislação reconhece a realidade de que [a IA] é, de certa forma, uma caixa-preta neste momento”, disse Scott Jang, sócio principal do escritório de advocacia Jackson Lewis, em São Francisco. “Eles estão colocando a pressão e a responsabilidade sobre o empregador para forçar a entrada nessa caixa-preta.”
Os empregadores também precisam manter uma documentação clara de todas as decisões relacionadas a pessoal por quatro anos. E, caso ainda não o tenham feito, devem criar e comunicar claramente políticas de IA, afirmaram os advogados.
Embora a IA possa ser a maior preocupação, os empregadores não devem ignorar outros softwares automatizados, como os sistemas de rastreamento de candidatos, que também podem levar a decisões tendenciosas. Por exemplo, um empregador pode usar um filtro para selecionar, em um grande número de candidatos, trabalhadores mais experientes, mas acidentalmente excluir grupos protegidos, como gestantes, disse Reich.
“Eu teria cautela ao usar qualquer tipo de filtro que dê o controle a um software”, disse ele. “Tome medidas para garantir que isso não tenha consequências indesejadas, como a exclusão de certas pessoas.”
Os sistemas de IA e as ferramentas de triagem da Workday dependem de algoritmos e de informações fornecidas por humanos, que muitas vezes têm motivações intrínsecas para discriminar, alega ele. Em 2024, o tribunal rejeitou as alegações de Mobley de que a Workday o “discriminou intencionalmente”. Em 2025, o tribunal concedeu uma “certificação coletiva” preliminar, o que significa que os indivíduos afetados pelo problema teriam que optar por participar.
Ferramentas como essas “permitem que os empregadores discriminem, consciente ou inconscientemente, indivíduos com base em raça e/ou deficiência ao tomar decisões de contratação”, afirma o processo. “Não há nenhuma necessidade comercial que justifique o impacto desproporcional sobre os indivíduos.”
Tradução livre, parcial, de Luiz Jacques Saldanha, dezembro de 2025