Nota de editor:
Devido à grande extensão deste texto – Poder Artificial: Relatório sobre o Panorama de 2025 – o mesmo é publicado em 5 partes – A (Sumário Executivo), B (capítulo 1, C (capítulo 2), D (capítulo 3) e E (Capítulo 4).
Hoje publicamos a quinta e última parte do Capítulo 3.
Seleção e tradução de Júlio Marques Mota
5 min de leitura
Texto 41 D – Poder Artificial: Relatório sobre o Panorama de 2025. Capítulo 3 – Consultando o Registo- a IA Falha Consistentemente com o Utilizador Comum (5/5)
Por Kate Brennan, Amba Kak, e Dr. Sarah Myers West
Publicado por
Índice
Sumário Executivo
Capítulo 1: Os Falsos Deuses da IA
Capítulo 2: Sai cara, ganho eu, sai coroa perde você. Como as empresas de tecnologia manipularam o mercado de IA
Capítulo 3: Consultando o registo. A IA falha sistematicamente ao público
Capítulo 4: Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso.
—-
Capítulo 3: Consultando o Registo- a IA Falha Consistentemente com o Utilizador Comum (5/5)
5. A utilização da IA é frequentemente coerciva, violando direitos e enfraquecendo os procedimentos legais
Embora o ponto de entrada na inteligência artificial para muitas pessoas seja feito através de sistemas como o ChatGPT, com mais frequência estamos interagindo com tecnologias de IA que não são utilizadas por nós, mas sobre nós — moldando o nosso acesso a recursos em áreas como finanças, recrutamento e habitação. Como esses tipos de sistemas de IA são geralmente utilizados por atores institucionais poderosos, são eles que se tornam os verdadeiros beneficiários de assimetrias de informação. E ainda mais do que outros tipos de tecnologias, é a aplicação da IA nesses contextos que é especialmente — e frequentemente — coerciva, oferecendo pouca transparência para aqueles que são submetidos a essas tecnologias e nenhuma capacidade significativa de optar por não participar.
A rápida introdução de sistemas de inteligência artificial em infraestruturas sociais críticas levanta preocupações iminentes sobre a violação de diversos direitos e leis essenciais para a realização da justiça, liberdade e dignidade, tanto individual quanto coletivamente — incluindo o devido processo legal, a privacidade e os direitos civis. Isso torna-se especialmente evidente na utilização crescente da IA na aplicação das leis de imigração, onde abusos de direitos humanos são comuns e normas legais são rotineiramente violadas — mesmo antes da introdução da IA nesse contexto.
A aplicação das leis de imigração exige uma quantidade significativa de recolha e processamento de dados: os arquivos de uma única solicitação de imigração podem chegar a milhares de páginas e incluir decisões jurídicas complexas e outros documentos. Como resultado, as agências de imigração vinculadas ao Departamento de Segurança Interna (DHS) integraram rapidamente tecnologias de inteligência artificial em diversos aspetos da fiscalização migratória, mas com pouca ou nenhuma supervisão significativa. Embora o DHS tenha publicado um conjunto de princípios sobre o uso responsável da IA, defensores dos direitos dos imigrantes constataram que a agência frequentemente ignora essas obrigações [190].
Por exemplo, o Serviço de Cidadania e Imigração dos Estados Unidos (USCIS) utiliza ferramentas preditivas para automatizar a tomada de decisões da agência, como o “Asylum Text Analytics”, que analisa pedidos de asilo e de suspensão de deportação para determinar quais são fraudulentos. Essas ferramentas demonstraram, entre outras falhas, altas taxas de classificação incorreta quando aplicadas a textos de pessoas que não são falantes nativos de inglês [191]. E as consequências da identificação errónea de fraude são graves: podem levar à deportação, proibição vitalícia de entrada nos Estados Unidos e prisão de até dez anos. Ainda assim, há pouca ou nenhuma transparência para aqueles sobre os quais esses sistemas são utilizados, não havendo nenhuma possibilidade de recusa ou de procurar reparação quando decisões erradas são tomadas, e — tão importante quanto isso—há poucas evidências de que a eficácia dessas ferramentas tenha sido, ou possa ser, melhorada.
O Departamento de Imigração e Controle de Alfândega (ICE) também utiliza análises preditivas e avaliações de risco para tomar decisões sobre detenção e libertação: por exemplo, uma “pontuação de furacão” é utilizada pela agência para determinar os termos da vigilância eletrónica com base em previsões sobre a probabilidade de uma pessoa “fugir” ou o nível de “ameaça à comunidade” que ela representa. Uma “pontuação de calibração de risco”, usada para orientar decisões de detenção, foi ajustada em diversos momentos pelo ICE de forma que não recomendasse a libertação de nenhum indivíduo avaliado por ela, o que levou a agência a ser processada em 2020 por violar os direitos ao devido processo legal garantidos pela Quinta Emenda [192].
Um banco de dados desenvolvido pela Palantir para o ICE, chamado Investigative Case Management (ICM), é utilizado no processo de tomada de decisões, incluindo a escolha de quais as pessoas que serão alvo de prisão durante operações de rusgas sobre os imigrantes [193]. O ICM é uma ferramenta abrangente que permite filtrar e consultar um banco de dados com centenas de categorias, como “características físicas únicas”, “afiliações criminosas”, “registos de falência” e “local de trabalho”, entre outras, possibilitando que agentes construam relatórios sobre os mesmos alvos [194].
Em 2022, a Palantir anunciou um contrato de cinco anos com o Departamento de Segurança Interna (DHS), no valor de 95,9 milhões de dólares, para manter o sistema [195]. O ICM liga-se a outros bancos de dados governamentais, incluindo registos de todas as pessoas admitidas com visto de estudante, mapas em tempo real das ferramentas de rastreamento de localização do ICE e dados de localização obtidos por leitores de placas de veículos, entre outras fontes de informação [196].
Um novo contrato anunciado pela Palantir com o DHS incluirá uma nova plataforma chamada ImmigrationOS, prevista para setembro de 2025, que dará ao ICE “visibilidade quase em tempo real” sobre pessoas que se estão a auto-deportar dos EUA [197]. Essa plataforma incluirá um “banco de dados mestre” que supostamente integrará dados da Administração da Seguridade Social, do IRS (Receita Federal dos EUA) e do Departamento de Saúde e Serviços Humanos, incluindo dados obtidos por equipas DOGE sem seguir requisitos legais ou processuais [198).
O governo federal também investiu significativamente em tecnologia de reconhecimento facial — usado predominantemente para vigiar e rastrear imigrantes, solicitantes de asilo e ativistas — e que foi considerada tendenciosa e propensa a erros. Por exemplo, a Clearview AI, uma empresa de reconhecimento facial criada com a intenção de aplicar tecnologia de vigilância contra imigrantes, pessoas de cor e contra as pessoas politicamente de esquerda, recebeu quase 4 milhões de dólares em contratos com o ICE, apesar de ter sido processada em diversos estados [199].
Relatórios de Government Accountability Office dos EUA mostram que, entre abril de 2018 e março de 2022, a Clearview foi utilizada por mais agências federais de aplicação da lei do que qualquer outra empresa privada — incluindo o Serviço de Inspeção Postal dos EUA, que usou a Clearview para identificar manifestantes do movimento Black Lives Matter; e a Alfândega e Proteção de Fronteiras (CBP), que utiliza um aplicativo de reconhecimento facial para triagem de solicitantes de asilo [200].
Apesar da legalidade duvidosa e das falhas conhecidas de muitos desses sistemas, a integração da inteligência artificial na fiscalização da imigração parece prestes a intensificar-se: o diretor interino do ICE, Todd Lyons, manifestou aspirações de que a agência conduza deportações como “Amazon Prime para seres humanos” e utilize IA para “libertar vagas [em centros de detenção]” e “encher aviões” [201]. O Departamento de Segurança Interna (DHS) também está a experimentar tecnologia de reconhecimento facial para rastrear crianças migrantes — potencialmente desde a infância — e monitorizá-las à medida que crescem [202].
O uso dessas ferramentas oferece uma aparência de objetividade que oculta não apenas o racismo e a xenofobia explícitos, mas também a intensa pressão política sobre as agências de imigração para restringir o asilo, o auxílio humanitário e outras formas de imigração — pressões que antecedem o governo Trump, mas que se intensificaram drasticamente desde então [203]. Como afirmam especialistas em imigração da organização Just Futures: “independentemente de quão ‘preciso’ seja o programa de IA ao recomendar detenção e deportação, nas mãos das agências de imigração e policiamento, a tecnologia promove uma missão fundamentalmente violenta de direcionar comunidades para detenção e deportação” [204].
Além disso, a inteligência artificial permite que agências federais realizem ações de fiscalização migratória de maneiras profundamente e cada vez mais opacas, tornando ainda mais difícil para aqueles que possam ser falsamente envolvidos ou acusados se desembaraçarem da situação. Muitas dessas ferramentas só são conhecidas pelo público devido a processos judiciais e não estão divulgadas no inventário de IA do Departamento de Segurança Interna (DHS). Mesmo quando são descobertas, ainda temos muito pouca informação sobre como são calibradas ou quais dados foram utilizados no seu treino, o que enfraquece ainda mais a capacidade dos indivíduos de reivindicar os seus direitos a um devido processo legal. Essas ferramentas também dependem de vigilância invasiva da população, desde a análise de textos nas redes sociais; ao uso de reconhecimento facial, vigilância aérea e outras técnicas de monitorização; até a compra de grandes volumes de informações sobre a população através dos corretores de dados como a LexisNexis [205].
Compreender a natureza coerciva desses sistemas é importante para entender como tantos indivíduos que não estão a violar a lei — e que, em alguns casos, são cidadãos naturalizados dos EUA ou portadores de green card — foram detidos ilegalmente pelas autoridades de imigração. O mais preocupante é que a opacidade dos sistemas de IA impede a reparação desses danos. Mas talvez essa falha faça parte do objetivo. Os sistemas de IA, mesmo quando em erro, atuam sempre a favor dos agentes que precisam de cumprir metas de deportação e prisão — quaisquer que sejam os meios, quaisquer que sejam os custos. No fim das contas, tudo isso é bom para os negócios.
Notas
- Julie Mao et al., Automating Deportation: The Artificial Intelligence Behind the Department of Homeland Security’s Immigration Enforcement Regime, Just Futures Law and Mijente, June 2024, https://mijente.net/wp-content/uploads/2024/06/Automating-Deportation.pdf. Back
- Weixin Liang et al., “GPT Detectors Are Biased Against Non-Native English Writers,” arXiv, July 10, 2023, arXiv:2304.02819. Back
- Adi Robertson, “ICE Rigged Its Algorithms to Keep Immigrants in Jail, Claims Lawsuit,” Verge,Mar. 3, 2020, https://www.theverge.com/2020/3/3/21163013/ice-new-york-risk-assessment-algorithm-rigged-lawsuit-nyclu-josevelesaca. Back
- Mijente, The War Against Immigrants,August 2019, 4, https://mijente.net/wp-content/uploads/2019/08/Mijente-The-War-Against-Immigrants_-Trumps-Tech-Tools-Powered-by-Palantir_.pdf; National Immigration Project et al., Who’s Behind ICE? The Tech and Data Companies Fueling Deportations, October 2018, 3, https://surveillanceresistancelab.org/resources/whos-behind-ice. Back
- Jason Koebler, “Inside a Powerful Database ICE Uses to Identify and Deport People,” 404 Media, April 9, 2025, https://www.404media.co/inside-a-powerful-database-ice-uses-to-identify-and-deport-people. Back
- Palantir, “Homeland Security Investigations Renews Partnership with Palantir for Case Management Software,” press release, September 26, 2022, https://www.palantir.com/newsroom/press-releases/homeland-security-investigations-renews-partnership-with-palantir. Back
- Koebler, “Inside a Powerful Database ICE Uses to Identify and Deport People.” Back
- Alayna Alvarez, “Palantir’s Partnership with ICE Deepens,” Axios, May 1, 2025, https://www.axios.com/local/denver/2025/05/01/palantir-deportations-ice-immigration-trump. Back
- U.S. House of Representatives, Committee on Oversight and Government Reform, “Letter to Michelle L. Anderson, Assistant Inspector General for Audit, Social Security Administration,” April 17, 2025, https://oversightdemocrats.house.gov/sites/evo-subsites/democrats-oversight.house.gov/files/evo-media-document/2025-04-17.gec-to-ssa-oig-master-data.pdf. Back
- Luke O’Brien, “The Shocking Far-Right Agenda Behind the Facial Recognition Tech Used by ICE and the FBI,” Mother Jones, 2025, https://www.motherjones.com/politics/2025/04/clearview-ai-immigration-ice-fbi-surveillance-facial-recognition-hoan-ton-that-hal-lambert-trump. Back
- Ibid. Back
- Marina Dunbar, “Ice Director Wants to Run Deportations like ‘Amazon Prime for Human Beings’,” Guardian, April 9, 2025, https://www.theguardian.com/us-news/2025/apr/09/ice-todd-lyons-deporation-amazon. Back
- Eileen Guo, “The US Wants to Use Facial Recognition to Identify Migrant Children as They Age,” Technology Review, August 14, 2024, https://www.technologyreview.com/2024/08/14/1096534/homeland-security-facial-recognition-immigration-border. Back
- Mao et al., “Automating Deportation,” 16. Back
- Ibid. Back
- Sam Biddle, “LexisNexis Is Selling Your Personal Data to ICE So It Can Try to Predict Crimes,” Intercept, June 20, 2023, https://theintercept.com/2023/06/20/lexisnexis-ice-surveillance-license-plates. Back
As autoras:

