Nota de editor:
Devido à grande extensão deste texto – Poder Artificial: Relatório sobre o Panorama de 2025 – o mesmo é publicado em 5 partes – A (Sumário Executivo), B (capítulo 1, C (capítulo 2), D (capítulo 3) e E (Capítulo 4).
Hoje publicamos a quarta parte do Capítulo 4, que é editado em 5 partes..
Seleção e tradução de Júlio Marques Mota
9 min de leitura
Texto 41 E – Poder Artificial: Relatório sobre o Panorama de 2025. Capítulo 4 – Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso (4/5)
Por Kate Brennan, Amba Kak, e Dr. Sarah Myers West
Publicado por
em 2 de Junho de 2025 (original aqui)
Índice
Sumário Executivo
Capítulo 1: Os Falsos Deuses da IA
Capítulo 2: Sai cara, ganho eu, sai coroa perde você. Como as empresas de tecnologia manipularam o mercado de IA
Capítulo 3: Consultando o registo. A IA falha sistematicamente ao público
Capítulo 4: Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso.
____
Capítulo 4: Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso (4/5)
(continuação)
Interligar redes de conhecimentos, políticas e narrativas para reforçar a defesa da IA
Visões limitadas, que falham em perceber de forma concreta os diferentes componentes da cadeia de abastecimento de IA e que muitas vezes se concentram num único tema, têm frequentemente prejudicado a defesa e a formulação de políticas sobre IA. É fácil deixar passar as maneiras pelas quais narrativas amplas (ver Capítulos 1.1–1.4 sobre os Falsos Deuses da IA) se manifestam na prática em disputas políticas. Estruturas em “silos” podem enfraquecer a criatividade estratégica, dificultando alianças ou a troca de ideias entre diferentes áreas, entre diferentes regiões.
No nosso relatório de 2023, buscamos maneiras de identificar e criar pontes entre alguns desses silos — por exemplo, elaborando uma estratégia unificada em torno das políticas de privacidade e concorrência; ou compreendendo a política industrial como parte central (e não separada) do debate sobre a regulação da IA [112]. Aqui, destacamos áreas adicionais e emergentes de troca e integração, com o objetivo de reforçar e fortalecer as nossas estratégias:
1. A Segurança Nacional como Vetor Tanto a Favor Quanto Contra a Responsabilização da IA
Os argumentos de segurança nacional são um vetor central que impulsiona a agenda de aceleração da infraestrutura de IA. Da mesma forma, argumentos relacionados com a segurança nacional também dão suporte a iniciativas que buscam padrões mais rigorosos de privacidade, segurança e precisão, além de ações que combatem mercados de infraestrutura concentrados, vistos como uma ameaça à resiliência.
Como detalhámos no Capítulo 1.3 sobre IA e Geopolítica, propostas recentes de políticas de segurança nacional (durante o governo Biden e agora no governo Trump), bem como a perspetiva da concorrência chinesa em IA, têm consistentemente aberto o caminho para a expansão da indústria por meio da construção de infraestruturas [113]. Mais recentemente, mecanismos básicos de transparência relacionados com a expansão de centros de dados — previstos no projeto de lei HB 2035 da Virgínia [114] — foram bloqueados com base em preocupações de segurança nacional, incluindo uma suposta resistência do Departamento de Segurança Interna (Homeland Security) [115].
Por outro lado, imperativos de segurança nacional (resiliência, confiabilidade, segurança) podem servir como um vetor estratégico para exigir maior responsabilidade da indústria de IA, além de representarem uma oportunidade para envolver especialistas em segurança em debates mais amplos sobre responsabilização na área de IA. Tanto ex-militares como especialistas em segurança têm dado o alarme sobre vulnerabilidades inerentes à utilização de modelos de linguagem comerciais em contextos militares [116] — e embora essas preocupações intratáveis (as falhas em sistemas de IA em larga escala sejam características, não defeitos, como destacámos no Capítulo 3) e sejam inadmissíveis em ambientes de combate de alto risco, elas são igualmente preocupantes para muitas outras áreas de aplicação na economia e na sociedade.
Grupos anti monopólio também estão a realçar cada vez mais as vulnerabilidades estruturais criadas por uma infraestrutura de IA concentrada em pouquíssimas empresas e em diferentes pontos da cadeia de abastecimento de IA [117]. A criação de pontos únicos de falha — recentemente, uma atualização incorreta do sistema operacional da Microsoft feita pela empresa de cibersegurança CrowdStrike — desencadeou a maior pane de TI da história, afetando empresas globais, hospitais, aeroportos, tribunais e governos [118]. A CrowdStrike é apenas o exemplo mais evidente da fragilidade de uma infraestrutura altamente concentrada — a estrutura da IA está repleta de pontos de estrangulamento, desde chips até cabos submarinos — e estamos a imaginar esse risco amplificar-se com erros em modelos fundamentais de IA, que podem sustentar aplicações em diversos setores da economia [119]. O ex-presidente da SEC, Gary Gensler, observou que a concentração no mercado de modelos de IA poderia criar condições que nos levassem à próxima crise financeira [120].
Essas vulnerabilidades tornam-se mais agudas no setor público, especialmente à medida que uma proporção crescente do governo opera em infraestrutura de nuvem de grandes empresas de tecnologia. Isso inevitavelmente aumentará exponencialmente com o impulso apressado de expandir a adoção de ferramentas de IA comercialmente disponíveis [121] (por meio dos esforços do DOGE, entre outras iniciativas pré-existentes, como a Task Force Lima do Departamento de Defesa) [122]. Os grandes operadores em IA fizeram a sua parte ao promoverem-se diretamente junto aos serviços governamentais, destacando as suas credenciais de segurança [123], mas subestimaram as implicações de longo prazo de introduzir pontos únicos de falha na infraestrutura de segurança nacional. Em julho de 2023, a Microsoft revelou uma invasão realizada por hackers apoiados pelo Estado chinês que acederam a e-mails de altos funcionários dos EUA, após uma falha de segurança anterior envolvendo os atacantes apoiados pela Rússia da SolarWinds, que acederam a dados do governo [124]. Abordar essas sérias preocupações de segurança teria implicações benéficas para o uso de IA em toda a economia.
2. Privacidade como uma Questão de Justiça Económica: Interrompendo o Pipeline da Vigilância para a Automatização
Seja pelos atores de Hollywood que resistem a exames corporais invasivos como forma de criar réplicas digitais de si mesmos que, eventualmente, poderiam substituí-los [125] ou pelo aumento no mercado de ferramentas de vigilância portáteis no local de trabalho, que depois serão usadas para treinar “robôs humanoides” [126], as ligações entre vigilância e o eventual deslocamento ou desvalorização dos trabalhadores estão-se a tornar cada vez mais explícitas. Os governos dos EUA e do Reino Unido, por sua vez, afirmam que podem treinar sistemas de IA com base em fluxos de trabalho governamentais, o que automatizaria grande parte do trabalho do governo [127].
Esse canal de vigilância para automatização situa as ferramentas tradicionais de privacidade (como consentimento, as opções de não inscrição, finalidades proibidas e minimização de dados) como alavancas centrais para possibilitar condições económicas mais justas. A estudiosa Ifeoma Ajunwa argumenta que os dados dos trabalhadores devem ser vistos como “capital capturado” para as empresas, nos quais os trabalhadores correm o risco de ter os seus dados usados para treinar tecnologias que, eventualmente, os substituirão (ou criarão condições para reduzir os seus salários), ou de ter seus dados vendidos ao maior lance por meio de uma rede crescente de corretores de dados, sem controle ou compensação [128]. Enquanto isso, à medida que a indústria de IA corre para encontrar um modelo de negócios definitivo, todas as tendências apontam para uma proliferação de casos de utilizações empresariais que parecem depender da captura de dados de fluxo de trabalho (por meio do aumento da vigilância no local de trabalho), os quais podem então ser utilizados para automatizar ainda mais fluxos de trabalho [129]. Também estamos a ver práticas extrativas a proliferarem no contexto de prisões altamente vigiadas, que estão a ser cada vez mais alvo de pequenas empresas de IA que veem os trabalhadores encarcerados como uma fonte barata de mão-de-obra para treinar os seus algoritmos de IA. Esses “trabalhadores de clique” ou “rotuladores humanos” são pagos em cêntimos de dólar — se é que recebem alguma coisa — por pequenas empresas como a Vainu, que ironicamente se gaba de estar “a criar empregos por causa da IA [para] empregar e capacitar a nova classe trabalhadora.”
Isso exige reconfigurar a privacidade dos trabalhadores como um elemento central da agenda de justiça económica em torno da IA. Especificamente, requer identificar o ponto de coleta (ou seja, a vigilância) como o alvo apropriado para resistência, dado o modo como isso poderá ser usado como ferramenta contra os interesses dos trabalhadores em etapas posteriores. Em termos regulatórios, isso poderia significar dar prioridade a regras de minimização de dados que limitem a coleta de certos tipos de informações dos trabalhadores ou restrinjam o uso de dados coletados num contexto para treinar IA. A reflexão sobre privacidade de dados também precisará de se expandir para responder ao momento — revendo noções restritas do que conta como informação pessoal e priorizando restrições estruturais e absolutas à vigilância no local de trabalho, que não dependam de mecanismos baseados em consentimento.
Refletir sobre a privacidade de dados também precisará se expandir para atender ao momento — revendo noções restritas sobre o que conta como informação pessoal e priorizando restrições estruturais e absolutas à vigilância no local de trabalho, que não dependam de mecanismos baseados no consentimento.
Grupos de defesa estaduais já estão a priorizar essas questões [130], nomeadamente nas seguintes propostas:
- Os empregadores devem notificar os trabalhadores quando um sistema de vigilância for introduzido no local de trabalho e os empregadores estão proibidos de monitorizar eletronicamente os funcionários fora das funções essenciais do trabalho (CA [131], CT [132], MA [133], VT [134], WA [135]).
- Os empregadores estão proibidos de compartilhar dados dos trabalhadores com terceiros (CA [136]).
- Os empregadores estão proibidos de utilizar as tecnologias de vigilância de reconhecimento facial ou de emoções nos trabalhadores (CA [137]).
Da mesma forma, a legislação existente é aplicável aos casos de uso de IA:
- Os empregadores estão sujeitos às limitações da Lei de Relatórios de Crédito Justos (Fair Credit Reporting Act) quando a IA é utilizada em trabalhadores e aos candidatos a emprego [138].
3. Privacidade e Concorrência na Era da IA Generativa: Minimização de Dados para Interromper os Fossos de Dados
No nosso relatório de 2023, alertámos que as áreas de privacidade, concorrência e as suas ferramentas costumam estar isoladas umas das outras, o que leva a intervenções que facilmente comprometem os objetivos de uma dessas questões em detrimento da outra [139]. As empresas continuam a aproveitar-se disso para acumular assimetrias de informação, o que contribui ainda mais para a concentração do seu poder.
Destacamos a necessidade de um escrutínio mais rigoroso sobre “fusões de dados” [140] — ou seja, analisar como as empresas utilizam ferramentas e estratégias de vigilância comercial para ampliarem o seu poder —, bem como a importância de regras de publicidade digital (adtech) que limitem a coleta de dados primários (first-party data) para fins publicitários, pois tais medidas trazem benefícios simultâneos tanto para a privacidade quanto para a concorrência.
Essa disseminação cruzada é ainda mais importante agora: os dados são um estrangulamento crucial no desenvolvimento da IA generativa e um ponto estratégico de intervenção tanto para proteger a privacidade quanto para limitar que as Big Tech consolidem as suas vantagens de dados no mercado de IA. A ideia de que dados disponíveis gratuitamente e acessíveis publicamente estão “em toda a parte” — e, portanto, não são um recurso escasso — é intuitivamente atraente, mas ignora a questão central. Conjuntos de dados com altos níveis de curadoria e feedback humano, além de garantias de precisão, legitimidade e diversidade em grande escala, estão-se a tornar um recurso cada vez mais escasso — e as empresas estão a proteger esses ativos de perto. À medida que as empresas atingem os limites dos dados publicamente disponíveis (especialmente com mais companhias erguendo barreiras em torno de dados que antes eram abertos), os dados proprietários passam a desempenhar um papel cada vez mais importante no treino de IA — o que significa que as Big Tech, com os seus vastos ciclos de feedback de dados em todo o ecossistema, têm acesso quase ilimitado a dados valiosos e diversos [141]. À medida que os recursos de dados de alta qualidade se esgotam para empresas fora do círculo das Big Tech, elas recorrerão aos dados sintéticos — ou seja, conjuntos de dados contendo informações geradas por outros modelos ou conteúdos gerados por IA (de baixa qualidade) que circulam por toda a internet [142]. Embora isso possa reduzir temporariamente as barreiras de acesso aos dados, é importante refletir sobre o que acontecerá com a qualidade dos novos modelos, que serão treinados repetidamente em dados sintéticos de qualidade cada vez menor — enquanto as empresas incumbentes, com acesso ilimitado a novos dados, continuarão a manter a sua vantagem competitiva baseada em dados.
Há uma necessidade de reforçar a defesa da minimização de dados para impedir que as Big Tech usem a IA como justificativa genérica para coletar, combinar dados de diferentes contextos e armazená-los indefinidamente, além de limitar estratégias agressivas de aquisição de empresas e bancos de dados com o objetivo de fortalecer as suas vantagens competitivas em setores de alto valor ou eliminar concorrentes [143]. Revelações recentes de que as operações do DOGE, decididas por Elon Musk, podem estar a alimentar dados governamentais sensíveis (nomeadamente informações de Medicare, pagamentos da Seguridade Social e dados de contribuintes) para treinar modelos de IA [144] da sua empresa xAI trouxeram essas duas preocupações à tona.
Os dados do governo — especialmente aqueles obtidos de e sobre a população — são ativos extremamente valiosos para o treino de IA. Altamente qualificados, verificados e estruturados, esses dados abrangem uma série de setores de alto valor, incluindo saúde, finanças e contratos federais. No contexto de uma competição frenética em IA, o vasto acesso da DOGE a dados federais pode conceder à empresa uma vantagem injusta sobre concorrentes — além de criar um claro conflito de interesses, dado o envolvimento direto de Musk na direção de DOGE. Além disso, trata-se de dados extremamente sensíveis, capazes de serem utilizados contra os interesses de indivíduos e grupos, sem o controle dessas pessoas. Essa combinação de riscos à privacidade e de riscos à concorrência tende a aumentar, e será fundamental articular essas preocupações nas discussões políticas e de defesa de direitos, além de continuar a monitorizar as chamadas fusões de dados [145], tanto de forma direta como indireta.
|
A tecnologia pode ser grande, mas não é um monolito Alcançar vitórias legislativas tem sido particularmente desafiador, dado o ambiente geral de entusiasmo em relação à IA e o medo de que qualquer intervenção possa prejudicar as perspetivas futuras de inovação. Pontos de fratura emergentes dentro da indústria oferecem algumas possibilidades de alavancagem para atingir objetivos de políticas públicas. Por exemplo:
|
(continua)
Notas
- Amba Kak and Sarah Myers West, 2023 Landscape: Confronting Tech Power, AI Now Institute, April 11, 2023, https://ainowinstitute.org/publications/research/2023-landscape-confronting-tech-power. Back
- See also AI Now Institute, “Tracking the US and China AI Arms Race,” April 11, 2023, https://ainowinstitute.org/publications/tracking-the-us-and-china-ai-arms-race. Back
- H.B. 2035, Reg. Sess. (Va. 2025). Back
- Because H.B. 2035 was stricken from the docket, it was never discussed on the record. However, the Senate version of the bill is instructive: The original Senate bill closely mirrors H.B. 2035. S.B. 1353, Reg. Sess. (Va. 2025) (Introduced), https://lis.blob.core.windows.net/files/1019728.PDF. The bill’s substitute version, however, directly discusses national security concerns. See S.B. 1353, Reg. Sess. (Va. 2025) (Senate Substitute), https://lis.blob.core.windows.net/files/1034365.PDF. Back
- See examples in Heidy Khlaaf and Sarah M. West, “The Rush to A.I. Threatens National Security,” New York Times, January 27, 2025, https://www.nytimes.com/2025/01/27/opinion/ai-trump-military-national-security.html. Back
- Former FTC Chair Lina Khan urged skepticism toward the argument that the United States must coddle its domestic monopolies—or “national champions”—to maintain global dominance. In her remarks to the FTC Technology Summit last year, she discussed the pitfalls of policymakers shielding large corporations from competition and identified the “decline and degradation” of Boeing as an example of this historically failed strategy. “The difference between Boeing and many of [the other corporations coddled by policymakers],” she said, “is there’s simply no masking airplanes falling apart in the sky.” See Lina Khan, “Remarks of Chair Lina M. Khan FTC Tech Summit,” speech, Federal Trade Commission, January 25, 2024, https://www.ftc.gov/system/files/ftc_gov/pdf/2024.01.25-chair-khan-remarks-at-ot-tech-summit.pdf; and Lina Khan, “Remarks by Chair Lina M. Khan As Prepared for Delivery,” speech, Carnegie Endowment for International Peace, March 13, 2024, https://www.ftc.gov/system/files/ftc_gov/pdf/2024.03.13-chair-khan-remarks-at-the-carnegie-endowment-for-intl-peace.pdf. Back
- Microsoft was quick to find a scapegoat by reviewing whether EU digital regulations may have come into play in the incident. See Competition Policy International, “Microsoft Investigates European Commission’s Role in Recent CrowdStrike Outage,” July 22, 2024, https://www.pymnts.com/cpi-posts/microsoft-investigates-european-commissions-role-in-recent-crowdstrike-outage; and Cristiano Lima-Strong and Cat Zakrzewski, “Microsoft’s Global Sprawl Comes Under Fire After Historic Outage,” Washington Post, July 20, 2024, https://www.washingtonpost.com/technology/2024/07/20/microsoft-outage-crowdstrike-regulatory-scrutiny. Back
- Declan Harty and Steven Overly, “Gensler’s Warning: Unchecked AI Could Spark Future Financial Meltdown,” Politico, March 19, 2024, https://www.politico.com/news/2024/03/19/sec-gensler-artificial-intelligence-00147665. Back
- In addition, we’re seeing AI systems used to manage and distribute public benefits and essential services. The flaws of large-scale AI models—like leakage, hallucinations, and bias (see Chapter 3)—are even more dangerous in these circumstances because they risk directly undermining vital public services. See U.S. Department of Health & Human Services, “Plan for Promoting Responsible Use of Artificial Intelligence in Automated and Algorithmic Systems by State, Local, Tribal, and Territorial Governments in Public Benefit Administration,” March 28, 2024, https://www.hhs.gov/sites/default/files/public-benefits-and-ai.pdf. Back
- Heidy Khlaaf, Sarah Myers West and Meredith Whittaker. Mind the Gap: Foundation Models and the Covert Proliferation of Military Intelligence, Surveillance, and Targeting. AI Now Institute, October 18, 2024, https://arxiv.org/abs/2410.14831. Back
- U.S. Department of Defense, “DOD Announces Establishment of Generative AI Task Force,” press release, August 10, 2023, https://www.defense.gov/News/Releases/Release/Article/3489803/dod-announces-establishment-of-generative-ai-task-force. Back
- See Amazon, “The Trusted Cloud for Government,” accessed May 18, 2025, https://aws.amazon.com/government-education/government; and Karen Dahut and Phil Venables, “How to Build a Secure Foundation for American Leadership in AI,” Google, October 18, 2023, https://blog.google/technology/ai/how-to-build-a-secure-foundation-for-american-leadership-in-ai. Back
- Associated Press, “Scathing Federal Report Rips Microsoft for Response to Chinese Hack,” Voice of America (VOA), April 3, 2024, https://www.voanews.com/a/scathing-federal-report-rips-microsoft-for-response-to-chinese-hack/7556113.html. Back
- Pranshu Verma, “Digital Clones Made by AI Tech Could Make Hollywood Extras Obsolete,” Washington Post, July 19, 2023, https://www.washingtonpost.com/technology/2023/07/19/ai-actors-fear-sag-strike-hollywood. Back
- Jacob Biba, “Top 27 Humanoid Robots in Use Right Now,” Built In, updated March 10, 2025, https://builtin.com/robotics/humanoid-robots. Back
- See for example Jack Aldane and Richard Johnstone, “UK Deputy PM Says Embracing AI ‘Will Reduce Civil Service Headcount’, Estonia’s ‘Personal Government’ Vision, and More,” Global Government Forum, March 7, 2024, https://www.globalgovernmentforum.com/uk-deputy-pm-says-embracing-ai-will-reduce-civil-service-headcount-estonias-personal-government-vision-and-more; and Matteo Wong, “DOGE’s Plans to Replace Humans with AI Are Already Under Way,” Atlantic, March 10, 2025, https://www.theatlantic.com/technology/archive/2025/03/gsa-chat-doge-ai/681987. Back
- Ifeoma Ajunwa, “A.I. and Captured Capital,” Yale Law Journal Forum134 (2025): https://www.yalelawjournal.org/forum/ai-and-captured-capital. Back
- Ben Thompson, “Enterprise Philosophy and the First Wave of AI,” Stratechery, September 24, 2024, https://stratechery.com/2024/enterprise-philosophy-and-the-first-wave-of-ai. Back
- Tyler Katzenberger and Chase DiFeliciantonio, “Labor Channels George Orwell on AI,” Politico, March 4, 2025, https://www.politico.com/newsletters/politico-technology-california-decoded-preview/2025/03/04/labor-channels-george-orwell-on-ai-211284. Back
- A.B. 1331, Reg. Sess. (Cal. 2025). Back
- S.B. 1484, Gen. Assemb. (Conn. 2025). Back
- S.B. 838, 194th Gen. Court (Mass. 2025). Back
- H.B. 262, Reg. Sess. (Vt. 2025). Back
- H.B. 1672, Reg. Sess. (Wash. 2025). Back
- A.B. 1331, Reg. Sess. (Cal. 2025). Back
- A.B. 1221, Reg. Sess. (Cal. 2025). Back
- Seth Frotman and Erie Meyer, “Comment on Request on Automated Worker Surveillance and Management,” Consumer Financial Protection Bureau, June 20, 2023, https://files.consumerfinance.gov/f/documents/CFPB_Comment-Letter-to-White-House-OSTP-RFI-on-Worker-Surveillance_06-2023.pdf. Back
- Kak and West, 2023 Landscape: Confronting Tech Power. Back
- AI Now Institute, “Toxic Competition: Regulating Big Tech’s Data Advantage,” in 2023 Landscape: Confronting Tech Power, April 11, 2023, https://ainowinstitute.org/publications/toxic-competition. Back
- See AI Now Institute, “Toxic Competition”; Open Markets, Stopping Big Tech from Becoming Big AI: A Roadmap for Using competition Policy to Keep Artificial Intelligence Open for All, October 17, 2024, https://www.openmarketsinstitute.org/publications/report-stopping-big-tech-big-ai-roadmap; and Tejas N. Narechania and Ganesh Sitaraman, “An Antimonopoly Approach to Governing Artificial Intelligence,” Yale Law and Policy Review43, no. 1 (Fall 2024), https://yalelawandpolicy.org/antimonopoly-approach-governing-artificial-intelligence. Back
- Cade Metz et al., “How Tech Giants Cut Corners to Harvest Data for A.I.,” New York Times, April 6, 2024, https://www.nytimes.com/2024/04/06/technology/tech-giants-harvest-data-artificial-intelligence.html. Back
- Amba Kak, Executive Director, AI Now Institute, Safeguarding Data and Innovation: Building the Foundation for the Use of Artificial Intelligence, Before U.S. House Committee on Energy, Commerce, Subcommittee on Innovation, Data, and Commerce, 118th Cong., 2023. Back
- Charles Rollet and Zack Whittaker, “Elon Musk Staffer Created a DOGE AI Assistant for Making Government ‘Less Dumb,’” TechCrunch, February 18, 2025, https://techcrunch.com/2025/02/18/elon-musk-staffer-created-a-doge-ai-assistant-for-making-government-less-dumb. Back
- Kak and West, 2023 Landscape: Confronting Tech Power. Back
- Marc Andreessen and Ben Horowitz, “The Little Tech Agenda,” a16z, July 5, 2024, https://a16z.com/the-little-tech-agenda. Back
- See, e.g., Brad Smith, Testimony, “Developing and Deploying AI Responsibly: Elements of an Effective Legislative Framework to Regulate AI,” U.S. Senate Judiciary Committee Subcommittee on Privacy, Technology, and the Law, September 12, 2023, https://www.judiciary.senate.gov/imo/media/doc/2023-09-12_pm_-_testimony_-_smith.pdf(calling for federal licensing regimes and a new agency to regulate AI platforms on behalf of Microsoft). Back
- Paris Marx, “Silicon Valley’s Dangerous Plan for a Second Trump Term,” Disconnect(blog), July 19, 2024, https://www.disconnect.blog/p/silicon-valleys-dangerous-plan-for-a-second-trump-term-2. Back
- Kylie Robinson, “Inside Elon Musk’s Messy Breakup with OpenAI,” Verge, November 18, 2024, https://www.theverge.com/2024/11/18/24299787/elon-musk-openai-lawsuit-sam-altman-xai-google-deepmind. Back
- Kevin Breuninger, “Musk Undercuts Trump on Stargate AI Investment Announcement,” CNBC, January 22, 2025, https://www.cnbc.com/2025/01/22/musk-trump-ai-stargate-openai-softbank.html. Back
- Mohammad Khatami et al., “Google Fired Us for Protesting Its Complicity in the War on Gaza. But We Won’t Be Silenced,”Nation, April 29, 2024, https://www.thenation.com/article/activism/google-firings-gaza-project-nimbus; Alix Dunn, “Protesting Project Nimbus: Employee Organizing to End Google’s Contract With Israel w/ Dr. Kate Sim,” Says Maybe (podcast), May 23, 2024, https://www.saysmaybe.com/podcast/protesting-project-nimbus. Back
- Matt O’Brien, “Microsoft Employees Protest at 50th Anniversary Party Over Israel Contract,” Associated Press, April 4, 2025, https://apnews.com/article/microsoft-ai-protest-israel-gaza-50th-anniversary-fadcb37bcce7e067f896ec5502d187b6. Back
- Anthony Ha, “Google’s DeepMind UK Team Reportedly Seeks to Unionize,” TechCrunch, April 26, 2025, https://techcrunch.com/2025/04/26/googles-deepmind-uk-team-reportedly-seeks-to-unionize. Back
As autoras:
Kate Brennan é diretora associada do AI Now Institute. Tem um J. D. da Faculdade de direito de Yale e um duplo B. A. da Universidade Brown em cultura moderna e Media e Estudos de género e sexualidade. Como Diretora Associada do AI Now, Kate, lidera programas de política e pesquisa para moldar a indústria de IA no interesse público. Tem uma década de experiência na indústria de tecnologia para a AI Now, trabalhando em várias funções tanto no marketing de produtos quanto na política. Antes de ingressar na AI Now, Kate ocupou vários cargos na indústria de tecnologia. Como comerciante de produtos na Jigsaw do Google, Kate supervisionou lançamentos de produtos e iniciativas de pesquisa que enfrentavam desinformação, censura e assédio online. Anteriormente, Kate construiu e gerenciou um programa nacional para apoiar as mulheres na indústria de jogos, lançando jogos por criadores de jogos sub-representados e comissionando pesquisas de ponta sobre a dinâmica de gênero na indústria de jogos. Ela começou sua carreira administrando marketing digital para organizações sem fins lucrativos e sindicatos politicamente progressistas. Na Faculdade de direito, Kate atuou como editora-chefe do Yale Journal of Law and Feminism e foi membro da Technology Accountability Clinic, um projeto da Clínica de liberdade de mídia e acesso à informação da Yale Law School que enfrenta o poder excessivo na indústria de tecnologia. Como membro da clínica, trabalhou em questões como a vigilância biométrica nas prisões e o acesso à informação sobre o aborto online. Como estagiária jurídica do Neighborhood Legal Services of Los Angeles County, representou trabalhadores de baixa renda em Los Angeles em audiências administrativas para recuperar benefícios e aconselhou trabalhadores sobre roubo salarial, desemprego e reivindicações de retaliação.
Amba Kak,é co-diretora executiva do AI Now Institute. Formada como advogada, é licenciada em BA LLB (Hons) pela Universidade Nacional de Ciências Jurídicas da Índia e é ex-beneficiária da Google Policy Fellowship e da Mozilla Policy Fellowship. Ela tem um Mestrado em Direito (BCL) e um Mestrado em Ciências Sociais da Internet na Universidade de Oxford, que frequentou como Rhodes Scholar. passou os últimos quinze anos projetando e defendendo políticas tecnológicas de interesse público, que vão desde a neutralidade da rede até à privacidade e à responsabilidade algorítmica, em todo o governo, indústria e sociedade civil – e em muitas partes do mundo. completou recentemente seu mandato como Consultora Sênior em IA na Federal Trade Commission. Antes da AI Now, ela foi Consultora de políticas globais na Mozilla; e também atuou anteriormente como consultora Jurídica do regulador de telecomunicações da Índia (TRAI) sobre regras de neutralidade da rede. Aconselha regularmente membros do Congresso, da Casa Branca, da Comissão Europeia, do governo do Reino Unido, da cidade de Nova Iorque, dos EUA e de outras agências reguladoras em todo o mundo; é amplamente publicada em locais académicos e populares e seu trabalho foi apresentado no The Atlantic, The Financial Times, MIT Tech Review, Nature, The Washington Post e The Wall Street Journal, entre outros. Amba atualmente faz parte do Conselho de Administração da Signal Foundation e do Comitê de IA do Conselho da Mozilla Foundation, e é afiliada como pesquisadora sênior visitante no Instituto de segurança cibernética e Privacidade da Northeastern University.
Dr. Sarah Myers West, é doutora e mestra pela Universidade do Sul da Califórnia. É co-diretora executiva do AI Now Institute. Passou os últimos quinze anos a interrogar o papel das empresas de tecnologia e a sua emergência como poderosos actores políticos nas linhas de frente da governação internacional. O seu próximo livro, Tracing Code (University of California Press) desenha em anos de histórico e pesquisa em ciências sociais para analisar as origens de dados do capitalismo comercial e de vigilância. A pesquisa premiada de Sarah é apresentada em importantes revistas acadêmicas e plataformas de mídia proeminentes, incluindo The Washington Post, The Atlantic, The Financial Times, Nature e The Wall Street Journal. Assessora regularmente membros do Congresso, da casa branca, da Comissão Europeia, do governo do Reino Unido, do Consumer Financial Protection Board e de outras agências reguladoras dos EUA e internacionais e da cidade de Nova Iorque, e testemunhou perante o Congresso sobre questões como inteligência artificial, concorrência e privacidade de dados. Concluiu recentemente um mandato como consultora Sénior em IA na Federal Trade Commission, onde aconselhou a Agência sobre o papel da inteligência artificial na formação da economia, trabalhando em questões de concorrência e Defesa do consumidor. Atualmente, ela atua no grupo de trabalho AI Futures da OCDE.



