O racismo algorítmico do Linkedin: o que ele diz das mulheres negras
O racismo no Linkedin não é um erro técnico, é um projeto. Não vão nos silenciar. Nossa dor é denúncia. Nossa escrita é ferramenta. Nossa presença é algoritmo insubmisso
“Uma das maneiras que consegui mudar o algoritmo foi adicionando pessoas pretas de qualquer área, e adicionando pessoas brancas da minha área de atuação. Desde então parou de vir.” [“Maria”, grifo meu]
Recebi essa mensagem no chat do meu perfil no LinkedIn de uma mulher negra (estou chamando-a Maria para manter seu desejo de não ser identificada) após minha denúncia de racismo algorítmico que venho sofrendo desde o dia 26 de maio deste ano (2025) por esta plataforma.

Entre os dias 26 de maio a 17 de julho, recebi exclusivamente do LinkedIn vagas de emprego para auxiliar de serviços gerais. Qual o problema dessas ofertas? Elas não dialogam com minha formação, experiências profissionais, nicho de atuação e atividades/conexões na plataforma.
(Foto: WOCinTech Chat / Flickr)
Esse relato me atravessou profundamente, senti que nos encontramos na dororidade[1] de nossas experiências profissionais serem apagadas e desrespeitadas nessa rede social. Além disso, no momento em que li a mensagem, automaticamente lembrei do livro Pele Negra, Máscaras Brancas de Frantz Fanon.
Vou contar como é que foi, para quem não conhece essa minha história.
Entre os dias 26 de maio a 17 de julho, recebi exclusivamente do LinkedIn vagas de emprego para auxiliar de serviços gerais. Qual o problema dessas ofertas? Elas não dialogam com minha formação, experiências profissionais, nicho de atuação e atividades/conexões na plataforma.
Sou formada em Nutrição há 10 anos, possuo mestrado em Ciências Sociais, sou empresária há 8 anos, além do fato de estar ocupando um cargo nível sênior numa organização de expressão internacional na minha área de atuação. Enquanto uma intelectual e pensadora que sou, não seria possível dissociar esse comportamento do algoritmo da plataforma de uma prática racista já que a única explicação factível entre o meu currículo e trabalhos como auxiliar de serviços gerais é o conjunto de crenças colonialistas que vincula mulheres negras a trabalhos braçais, especialmente o de empregadas domésticas.
Desde o momento em que percebi que estava sendo vítima de tamanha crueldade também inferi que não, certamente eu não era um caso isolado. Mesmo agredida, me sentindo constrangida e decepcionada, tirei forças do ódio que metabolizo diariamente por viver numa sociedade racista, sexista e classista, reagi. Gritei com as ferramentas que tinha, chorei refletindo sobre o impacto disso na minha história e como ela também é uma agressão geracional e uma experiência racial coletiva dos nossos tempos. Não era somente sobre a minha dor individualizada, mas o sangrar coletivo que a partir da nossa geração, também é algoritmicamente distribuído.
Mapeamento da discriminação algorítmica
O meu caso foi inserido no Mapeamento de Danos e Discriminação Algorítmica[2] criado e mantido por Tarcízio Silva e colegas para dar visibilidade e corporiedade ao racismo algorítmico que acontece em todas as redes sociais e nas diferentes funcionalidades de automação geradas por meio da inteligência artificial oprimindo, violentando, marginalizando e apagamento as experiências de pessoas negras nesses ecossistemas.
Tarcízio define racismo algorítmico como o conjunto de práticas, processos e efeitos em que sistemas automatizados de decisão, inteligência artificial e algoritmos reproduzem, aprofundam ou atualizam o racismo estrutural.
Para o autor, configura-se enquanto uma expressão contemporânea da colonialidade, que opera por meio de dados enviesados, classificações raciais implícitas e lógicas de exclusão que reforçam desigualdades históricas, muitas vezes sob a aparência de neutralidade tecnológica.
Outras pessoas estudiosas nesse campo que é transdisciplinar, como a doutora em Arte, Tecnologia e IA Larissa Macêdo e o professor da Universidade do Ceará e pós-doutor em Estudos Linguísticos Júlio Araújo, comentaram o meu caso, evidenciando em suas explicações de que maneira essa atrocidade criminosa (racismo – seja ele qual for – é crime no Brasil) é uma expressão nítida das falhas de como nossos dados, carregados de marcas sociais e históricas, alimentam os sistemas de IA e ajudam a construir representações distorcidas. Também chamaram a atenção para o fato de que, provavelmente, vagas de trabalhos compatíveis com o meu currículo deixaram de ser mostrada para mim, da mesma forma que – provavelmente – meu currículo deixa de ser apresentado a recrutadores que buscam pessoas com meu grau de escolaridade e trajetória profissional coesas e alinhadas a carreira que me especializei para construir.
Com o objetivo de historicizar e publicizar a minha perspectiva dos fatos, escrevi uma nota de esclarecimento com uma linha do tempo dos acontecimentos, as definições dos conceitos de algoritmo e inteligência artificial e racismo algorítmico, incentivo a leitura.
Em confluência, a jornalista Catiane Pereira, escreveu uma matéria para a Revista Afirmativa trazendo a história de outras mulheres negras, inclusive a dela própria, que também sofrem com a oferta de oportunidades de emprego inferiores ao nível de escolaridade e histórico de carreira dessas mulheres.
Como versa Preta Rara: “a senzala moderna é o quartinho da empregada”; e ele também é digital. Ele também assombra as filhas e as netas de empregadas domésticas que limparam muita privada para que a gente pudesse estudar o que elas não puderam, nos especializarmos como elas não puderam e pudéssemos ter uma vida melhor. Mesmo assim, a supremacia branca retroalimentada pelo colonialismo humilha nossas histórias e tiram o nosso sono enquanto dorme, já que digitalizaram suas opressões. A vassoura está sempre a disposição para pessoas como nós e ela é ofertada para você independente do quanto suas mais velhas tenham lutado para te tirar desse espaço inferiorizado.
Raça e algoritmo: não é “caso isolado” ou “erro técnico”
Tenho certeza de que quanto mais procurarmos, mais relatos semelhantes aos nossos virão porque não se trata de um “equívoco”, “caso isolado” ou “erro técnico”, significa a dinâmica societária racista que viemos, seja ela analógica ou digital. Eu não sou exceção. Nem a moça que me escreveu é.
Somos a regra que esse sistema insiste em negar. Estamos falando de um algoritmo que não erra — ele acerta no alvo quando nos empurra de volta para a senzala, travestida de plataforma de networking, mesmo quando temos competências e habilidades para ocupar cargos com excelência por nossas lutas, suor e ciência de sermos quem somos.
Como Fanon nos lembrou, a máscara branca não é só uma fantasia: é um sintoma do mundo que exige que a gente se apague para existir. Mas eu não nasci pra ser apagada. E como tantas de nós, me recuso a sorrir pra máquina que me nega.
A estratégia da máscara branca digital
A estratégia de construir uma máscara branca na performance digital, conforme a mensagem que abre este texto, a partir das conexões profissionais estabelecidas retrata o que Fanon discute como uma experiência de mutilação psíquica motivada por um desejo de reconhecimento, que neste caso é a busca por oportunidades melhores de trabalho e que se enquadrem com a sua formação e desejo de exercer.
O esforço em mudar o algoritmo adicionando pessoas brancas da sua área de atuação é a tentativa de receber ofertas de emprego compatíveis com a sua formação e nicho de atuação. Qual o motivo desse esforço? Driblar o comportamento racista do algoritmo do LinkedIn em associar o perfil de uma mulher negra a vagas de trabalho subalternizadas.
O algoritmo olha para Maria a partir de pares específicos, e eles precisam ser necessariamente pessoas brancas, logo, ela também deve estar apta para ocupar os espaços que suas conexões ocupam. Cruel, você não acha? O racismo estrutural se artificializando por meio dessa inteligência construída a partir de parâmetros sociais constituído como fruta da colonialidade.
Dororidade
É pela dororidade que sigo — essa aliança que não nasce do afeto ingênuo, mas da dor partilhada que nos atravessa como faca e também como fio. Como diz Vilma Piedade, é uma sororidade que dói, que lateja, que se recusa a silenciar diante do apagamento.
Por isso costuro nossos nomes no tecido rasgado da história, para que não digam depois que a gente não avisou. Porque avisamos. Denunciamos. Nomeamos. O racismo não é um erro técnico, é um projeto. E se o sistema nos lê como subalternas, é porque ainda se alimenta do código colonial que insiste em nos manter em segundo plano.
Mas nós somos o plano. O projeto. A tecnologia viva. E não vão nos silenciar. Nossa dor é denúncia. Nossa escrita é ferramenta. Nossa presença é algoritmo insubmisso. E seguiremos reprogramando esse mundo.
Enquanto a inteligência artificial for treinada para reproduzir os padrões da branquitude dominante, nós continuaremos a ser feridas, invisibilizadas e distorcidas em nossas imagens e trajetórias. Este artigo não é um desabafo: é um chamado à reparação, à escuta comprometida e à reconstrução de um futuro digital em que nossas presenças não precisem performar máscaras brancas para serem consideradas legítimas.
Que essa denúncia se some a outras e reverbere como um manifesto: nós não aceitaremos mais sermos reduzidas a dados corrompidos por sistemas de opressão.
(*) Bruna Crioula é nutricionista ecológica, mestra em ciências sociais e pesquisadora alimentar. É matrigestora da Crioula Curadoria Alimentar – ecossistema comprometido com a criação de soluções ancestrais e ecológicas para sistemas alimentares. Acompanhe nas redes por @brunacrioula e @crioulacuradoria























