Nota de editor:
Devido à grande extensão deste texto – Poder Artificial: Relatório sobre o Panorama de 2025 – o mesmo é publicado em 5 partes – A (Sumário Executivo), B (capítulo 1, C (capítulo 2), D (capítulo 3) e E (Capítulo 4).
Hoje publicamos a primeira parte do Capítulo 4, que será editado em 5 partes..
Seleção e tradução de Júlio Marques Mota
7 min de leitura
Texto 41 E – Poder Artificial: Relatório sobre o Panorama de 2025. Capítulo 4 – Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso (1/5)
Por Kate Brennan, Amba Kak, e Dr. Sarah Myers West
Publicado por
em 2 de Junho de 2025 (original aqui)
Índice
Sumário Executivo
Capítulo 1: Os Falsos Deuses da IA
Capítulo 2: Sai cara, ganho eu, sai coroa perde você. Como as empresas de tecnologia manipularam o mercado de IA
Capítulo 3: Consultando o registo. A IA falha sistematicamente ao público
Capítulo 4: Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso.
—-
Capítulo 4: Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso (1/5)
No fragor de acalorados debates públicos sobre inteligência artificial, desde previsões especulativas do Juízo Final até visões estreladas de uma utopia de IA, as pessoas de ambos os lados do argumento tendem a posicionar a sociedade como um objeto dessa transformação “inevitável”: somos todos testemunhas passivas dessa marcha da tecnologia, que dotamos de ação quase divina.
Mas, como argumentámos cuidadosamente ao longo deste relatório, trata-se de uma luta pelo poder, não pelo progresso. Não precisamos de nos reconciliar com o alarme passivo, nem envolvermo-nos numa celebração descuidada de futuros especulativos: em vez disso, o caminho a seguir exige recuperar a ação sobre a trajetória da IA. Para construir um movimento em direcção a uma sociedade justa e democrática, temos de contestar a forma como a IA é utilizada para a evitar. Só quando o fazemos é que podemos abrir um novo caminho definido pela autonomia, dignidade, respeito e justiça para todos nós.
Aqui, oferecemos um roteiro de alto nível de alavancas estratégicas e estudos de caso para iluminar a oportunidade diante de nós. Alguns deles falam mais directamente das campanhas de defesa e da estratégia narrativa; outros oferecem orientações regulamentares para controlar e reequilibrar o poder irresponsável e o poder de reequilíbrio:
- Ver como a indústria de IA trabalha contra os interesses das pessoas comuns
- Promover a organização dos trabalhadores para proteger o público e as nossas instituições da captura possibilitada pela IA
- Promulgar uma agenda política de “confiança zero” para a IA
- Interligar redes de conhecimentos, políticas e narrativas para reforçar a defesa da IA
- Recuperar uma agenda positiva para a inovação centrada no público sem a IA no centro.
Vamos examinar cada um destes pontos.
Ver como a indústria de IA trabalha contra os interesses das pessoas comuns
Depois de décadas de desigualdade crescente, os fundamentos de uma vida boa foram precificados fora do alcance da maioria das pessoas a tal ponto que, após as eleições de 2024, há um consenso crescente em todo o espectro ideológico de que focar nas condições materiais e interesses económicos dos trabalhadores é fundamental para construir o poder político [1]. Embora a campanha de Trump tenha conseguido transmitir uma mensagem pró-classe trabalhadora, esta pode de facto ser a principal vulnerabilidade da administração [2], dado que grande parte da orientação política da administração até agora tem comandado com sucesso a lealdade das elites tecnológicas e financeiras. Há ímpeto e urgência em encontrar maneiras de abrir uma brecha nesta hipocrisia. O roteiro que apresentamos nesta seção explora maneiras de garantir que a luta da IA gira em torno da acumulação de poder da indústria de tecnologia que afeta profundamente o dia-a-dia das pessoas — não em torno do progresso.
O facto de a indústria de a IA ser fundamentalmente incentivada a prejudicar os interesses dos trabalhadores e das famílias parece ainda não ser amplamente compreendido — em parte porque as narrativas mais importantes em torno do risco da IA estão relacionadas com questões de preconceitos tecnicamente enquadrados ou riscos existenciais, que muitas vezes estão desconectados das realidades materiais das pessoas. E o facto de os conhecimentos especializados em IA circularem em grande parte nos corredores de elite e urbanos só agrava o problema. Como demonstrámos ao longo deste relatório, o investimento e o interesse na IA não têm a ver com apoiar o progresso de muitos, mas com acumular poder para poucos, e fazê-lo por todos os meios disponíveis: controlo assimétrico sobre a informação; controlo da infra-estrutura; esvaziamento da intervenção para os cidadãos, trabalhadores e consumidores; ou apoio a aliados políticos, financeiramente ou não, que estejam do lado da grande tecnologia.
Para aqueles de nós cuja investigação e ativismo estão centradas na IA, isto significa que não precisamos apenas de tornar as questões relacionadas com a IA mais relevantes para os movimentos que lutam pelo populismo económico e contra a oligarquia tecnológica; também precisamos de melhor visar a indústria da IA como um actor-chave que trabalha contra os interesses do público trabalhador. A escrita está na parede: precisamos priorizar questões políticas que estão enraizadas nas experiências vividas pelas pessoas com a IA, particularmente aquelas que atingem as suas condições materiais mais urgentes. Isso envolve dar ao público em geral uma maneira de “ver” os sistemas de IA como as infraestruturas invisíveis que medeiam as suas vidas—muitas vezes para pior—e ajudá-los a conectar os pontos entre os danos da IA e o poder descontrolado da grande tecnologia. Felizmente, existem janelas de oportunidade para fazer exatamente isso:
1. Oposição ao DOGE [Departamento de Eficiência Governamental]
A evisceração de agências governamentais pelo DOGE traz para dentro de casa os danos que os oligarcas da tecnologia podem fazer sobre o público. Isso faz com que seja uma frente importante para a resistência à IA. Existe um descontentamento generalizado com o funcionamento das equipas DOGE, mesmo entre aqueles que defendem uma maior eficiência governamental [3]; e os relatórios documentam exaustivamente o fracasso do DOGE em atingir os seus objectivos declarados [4]. Embora os funcionários do DOGE afirmem que a “IA” pode ser usada para identificar cortes orçamentais, detectar fraudes [5], automatizar tarefas do governo [6], e determinar se o trabalho de alguém é “de missão crítica” [7], existem relatórios que desmantelaram repetidamente que essas equipas e a tecnologia que estão a usar não estão à altura da tarefa [8]. E embora ainda não esteja claro exatamente o que os funcionários do DOGE estão a fazer com os dados aos quais obtiveram acesso, é muito claro que muitos desses dados são altamente lucrativos e podem ser usados para promover os interesses comerciais de Musk — nomeadamente onde estão armazenados e se estão a ser usados para treinar modelos de IA para as próprias empresas de Musk [9].
A indignação com o DOGE oferece um ponto de entrada não apenas para chamar a atenção para os danos que as agências governamentais estão a criar com o uso da IA, mas também para deixar claro que o trabalho do DOGE nunca foi realmente sobre tornar os nossos serviços mais “eficientes” — o objetivo foi sempre desmantelar os serviços governamentais e centralizar o poder (ver Capítulo 3) [10]. As campanhas que ligam a oposição ao DOGE ao padrão mais amplo de esvaziamento dos serviços sociais em nome da “eficiência” habilitada pela IA — desde os serviços infantis até à prestação de habitação, o acesso aos cuidados de saúde — com parceiros como funcionários do Governo Federal Americano, rede de sindicalistas federais e trabalhadores federais contra o DOGE é um ponto de partida crucial. Muitos desses parceiros já fizeram avanços significativos para ajudar o público a entender e a mobilizar-se em torno dos danos do DOGE aos trabalhadores; ampliar a discussão para mostrar como Musk está a usar a IA para ajudar o governo Trump a promulgar uma agenda de austeridade que empobrece e priva a classe trabalhadora, as comunidades de cor, os deficientes e as comunidades rurais poderia levar a uma mudança realmente significativa [11].
2. Centros de Dados
O crescimento descontrolado da infraestrutura de IA é a prova do incrível êxito das grandes tecnológicas ao defenderem que a IA – especialmente a IA em grande escala – é digna de apoio e investimento excepcionais de atores públicos. Mas as razões pelas quais a IA em larga escala é uma utilização que vale a pena dos recursos, do dinheiro dos contribuintes e da terra baseiam-se no crescimento económico potencial, cujas projecções são geralmente baseadas em pressupostos infundados (ver Capítulo 2: Cara ganho eu, Coroa perde você). Entretanto, os danos são definitivos e documentados, como os evidenciados pelos centros de dados da Meta e da Blackstone na Geórgia rural [12] (ver capítulo 1.2: Demasiado grande para falir e Capítulo 1.3: Corrida armamentista 2.0) [13].
O terreno está maduro para a mobilização local em torno dos impactos materiais da construção da infraestrutura de IA-não apenas construindo, organizando e fazendo campanhas focadas no setor de tecnologia, mas também formando alianças com o movimento de justiça ambiental, que tem longa e profunda experiência na luta contra políticas que resultam numa degradação física dos recursos naturais, bem como movimentos de reforma de serviços públicos e justiça racial. Os centros de dados têm impactos directos no ambiente e na saúde da comunidade, nomeadamente (mas não se limitando a) o aumento das emissões de gases com efeito de estufa, o aumento das taxas de poluição e a expansão da infra-estrutura de gás e das centrais a carvão [14]. Também recorrem frequentemente a aquíferos públicos para acesso ao abastecimento de água necessário para arrefecer as suas prateleiras de servidores [15]. Isto é particularmente preocupante, tendo em conta os planos de expansão da construção de centros de dados em áreas já tensas do sudoeste [16]. Nos Países Baixos [17] e no Chile [18], o ativismo a nível comunitário levou a uma pausa na construção de centros de dados, o que sugere que a organização que visa o governo local pode ser uma alavanca eficaz para reduzir a implantação de centros de dados. Estas questões – juntamente com outras consequências, como custos mais elevados de energia e abusos laborais em toda a cadeia de abastecimento – também são bipartidárias e atingem particularmente os eleitores rurais e as comunidades autóctones [19], proporcionando outras oportunidades críticas para uma nova organização.
Por outro lado, as empresas que defendem a construção de centros de dados têm poucas provas de que os centros de dados realmente proporcionam benefícios económicos às comunidades onde estão localizados. As provas que os actores da indústria forneceram até agora parecem, na melhor das hipóteses, especulativas, muitas vezes falhando em delinear entre projecções de emprego para funções a tempo inteiro ligadas às operações de centros de dados e funções a curto prazo na construção e no sector dos serviços [20]. Ignoram igualmente o impacto económico que os custos energéticos mais elevados e os serviços desviados podem ter nas empresas locais [21]. Entretanto, as comunidades estaduais e locais podem perder bilhões de dólares em receitas fiscais como resultado dos pacotes de incentivos fiscais que as empresas exigem antes de concordarem em construir [22]. Trata-se, mais uma vez, de uma oportunidade única para uma organização de coligação de base alargada, uma vez que tanto os grupos de livre mercado como as organizações económicas progressistas criticaram a desconexão entre as grandes isenções fiscais das empresas e a falta de benefícios tangíveis para as comunidades [23]. Algumas organizações locais já assumiram o bastão: Citizens Action Coalition em Indiana, por exemplo, apelou a uma moratória sobre a construção de novos centros de dados hiperescaladores devido às enormes restrições de recursos e encargos de custos que os grandes centros de dados representam para as comunidades locais [24]. E a comunidade de Memphis contra a poluição no Tennessee recusou os impactos ambientais e de saúde pública pela construção de centros de dados xIA de Elon Musk perto de bairros historicamente negros que já enfrentam riscos elevados de cancro e asma [25].
3. Preços algorítmicos e salários
Em toda a economia, desde mercearias a mercados on-line e corretores de seguros, a capacidade das empresas de usar a IA para definir preços para os clientes e calibrar salários para os trabalhadores usando informações detalhadas, muitas vezes íntimas, extraídas de nós, está a aprofundar a desigualdade. Isso torna os preços e salários algorítmicos um terreno especialmente fértil para a mobilização em torno dos impactos económicos da IA nas pessoas comuns [26].
Existe uma coordenação crescente entre os organizadores do trabalho e os grupos antimonopólio e de justiça económica que trabalham para lidar com esta questão. Em fevereiro de 2025, por exemplo, juntamente com uma coligação de organizações e especialistas, a AI Now publicou um relatório que investigava a amplitude da utilização de práticas algorítmicas de fixação de preços e de salários e salientava as formas como regras claras poderiam evitar danos [27], incluindo a proibição total de preços e salários de vigilância individualizados e a eliminação de lacunas que as empresas poderiam explorar para continuar essa prática [28]. Nesta sessão legislativa já se verificou um movimento considerável nos Estados para proibir tanto a fixação algorítmica de preços como a fixação de salários, nomeadamente a introdução de projetos de lei na Califórnia, Colorado, Geórgia e Illinois [29].
(continua)
Notas
- Ver Elizabeth Wilkins, “Restoring Economic Democracy: Progressive Ideas for Stability and Prosperity,” Roosevelt Institute, April 29, 2025, https://rooseveltinstitute.org/publications/restoring-economic-democracy; Ezra Klein, “Would Bernie Have Won?” Ezra Klein Show,November 26, 2024, https://www.nytimes.com/2024/11/26/opinion/ezra-klein-podcast-faiz-shakir.html; Pippa Norris et al., “Trump, Brexit, and the Rise of Populism: Economic Have-Nots and Cultural Backlash,” unpublished research project, HKS Faculty Research Working Paper Series RWP16-026, Harvard Kennedy School, 2016; and George Hawley, “The Political Economy of Right-Wing Populism in the United States,” Promarket, May 24, 2024, https://www.promarket.org/author/george_hawley. Back
- Patrick Wintour, “Did Trump’s Tariffs Kill Economic Populism?” Guardian, April 12, 2025, https://www.theguardian.com/world/2025/apr/12/did-trump-tariffs-economic-populism-globalisation; Alexander R. Ross, “Steve Bannon and Elon Musk Are Battling for the Soul of Trumpism,” New Lines Magazine, April 15, 2025, https://newlinesmag.com/argument/steve-bannon-and-elon-musk-are-battling-for-the-soul-of-trumpism. Back
- Ezra Klein, “In This House, We’re Angry When Government Fails,” Ezra Klein Show, November 22, 2024, https://www.nytimes.com/2024/11/22/opinion/ezra-klein-podcast-jennifer-pahlka-steven-teles.html. Back
- David A. Fahrenthold and Jeremy Singer-Vine, “DOGE is Far Short of Its Goal, and Still Overstating Its Progress, New York Times, April 13, 2025, https://www.nytimes.com/2025/04/13/us/politics/doge-contracts-savings.html?smid=nytcore-ios-share&referringSource=articleShare. Back
- Kate Conger, Ryan Mac, and Madeleine Ngo, “Musk Allies Discuss Deploying A.I. to Find Budget Savings,” New York Times, February 3, 2025, https://www.nytimes.com/2025/02/03/technology/musk-allies-ai-government.html. Back
- Makena Kelly and Zoe Schiffer, “DOGE Has Deployed Its GSAi Custom Chatbot for 1,500 Federal Workers,” Wired, March 7, 2025, https://www.wired.com/story/gsai-chatbot-1500-federal-workers. Back
- Courtney Kube et al., “DOGE Will Use AI to Assess the Responses of Federal Workers Who Were Told to Justify Their Jobs via Email,” NBC News, February 25, 2025, https://www.nbcnews.com/politics/doge/federal-workers-agencies-push-back-elon-musks-email-ultimatum-rcna193439. Back
- Aatish Bhatia et al., “DOGE’s Only Public Ledger is Riddled with Mistakes,” New York Times, February 28, 2025, https://www.nytimes.com/2025/02/21/upshot/doge-musk-trump-errors.html; Fahrenthold and Singer-Vine, “DOGE Far Short of Its Goal.” Back
- Donald S. Beyer Jr. et al., to Russell Vought, February 12, 2025, https://beyer.house.gov/uploadedfiles/letter_from_congress_to_omb_director_on_restoring_public_access_to_federal_data.pdf. Back
- Robert Weissman, “DOGE Delusions, A Real-World Plan to Crack Down on Corporate Handouts, Tax the Rich and Invest for the Future,” Public Citizen, January 15, 2025, https://www.citizen.org/article/doge-delusions. Back
- Kevin De Liban, Inescapable AI, TechTonic Justice, November 2024, https://www.techtonicjustice.org/reports/inescapable-ai. Back
- “I Live 400 Yards From Mark Zuckerberg’s Massive Data Center,” More Perfect Union, March 27, 2025, YouTube video, https://www.youtube.com/watch?v=DGjj7wDYaiI&ab_channel=MorePerfectUnion. Back
- OpenAI, “OpenAI’s Infrastructure Blueprint for the US,” November 13, 2024, https://media.datacenterdynamics.com/media/documents/OpenAI_Blueprint-DCD.pdf; Abeba Birhane et al., “The Forgotten Margins of AI Ethics,” in 2022 ACM Conference on Fairness, Accountability, and Transparency(2022): 948–958, https://dl.acm.org/doi/10.1145/3531146.3533157; and Abeba Birhane, “AI: Potential Benefits, Proven Risks, Abeba Birhane,” Better Ways (Agile Greece Summit), March 12, 2025, YouTube video, https://www.youtube.com/watch?v=P-p_n4XU0Y8&ab_channel=BetterWays%28AgileGreeceSummit%29. Back
- Lois Parshley, “The Hidden Environmental Impact of AI,” Jacobin, June 20, 2024, https://jacobin.com/2024/06/ai-data-center-energy-usage-environment; Stand.earth, “A Growing Climate Concern Around Microsoft’s Expanding Data Center Operations,” December 5, 2024, https://stand.earth/insights/a-growing-climate-concern-around-microsofts-expanding-data-center-operations; Yusuf Sar, “The Silent Burden of AI: Unveiling the Hidden Environmental Costs of Data Centers by 2030,” Forbes, August 16, 2024, https://www.forbes.com/councils/forbestechcouncil/2024/08/16/the-silent-burden-of-ai-unveiling-the-hidden-environmental-costs-of-data-centers-by-2030. Back
- Nikitha Sattiraju, “The Secret Cost of Google’s Data Centers: Billions of Gallons of Water to Cool Servers,” Time, April 2, 2020, https://time.com/5814276/google-data-centers-water; Christopher Tozzi, “How the Groundwater Crisis May Impact Data Centers,” Data Center Knowledge, March 12, 2024, https://www.datacenterknowledge.com/data-center-site-selection/how-the-groundwater-crisis-may-impact-data-centers.Back
- Ireland is another extreme example of this problem. See Heidi Vella, “Ireland’s Data Centre Nightmare – and What Others Can Learn From It,” Tech Monitor, February 18, 2025, https://www.techmonitor.ai/hardware/data-centres/irelands-data-centre-nightmare.Back
- “Dutch Call a Halt to New Massive Data Centres, While Rules are Worked Out,” DutchNews, February 17. 2022, https://www.dutchnews.nl/2022/02/dutch-call-a-halt-to-new-massive-data-centres-while-rules-are-worked-out; Mark Ballard, “Hyperscale Data Centers Under Fire in Holland,” Data Center Knowledge, February 7, 2022, https://www.datacenterknowledge.com/hyperscalers/hyperscale-data-centers-under-fire-in-holland.Back
- “Google Says It Will Rethink Its Plans for a Big Data Center in Chile Over Water Worries,” Associated Press, September 17, 2024, https://apnews.com/article/chile-google-data-center-water-drought-environment-d1c6a7a8e8e6e45257ac84fb750b2162. Back
- Chief Sheldon Sunshine to Premier Smith, January 13, 2024, https://www.sturgeonlake.ca/wp-content/uploads/2020/07/13-01-25-Chief-Sunshine-Open-Letter-Premier-Smith-Re-O-Leary.pdf; Julia Simon, “Demand for Minerals Sparks Fear of Mining Abuses on Indigenous Peoples’ Lands,”NPR, January 29, 2024, https://www.npr.org/2024/01/29/1226125617/demand-for-minerals-sparks-fear-of-mining-abuses-on-indigenous-peoples-lands. Back
- Sarah O’Connor, “Anatomy of a Jobs Promise,” Financial Times, January 21, 2025, https://www.ft.com/content/2f25065d-3eeb-49f6-a5eb-8d22ed4697a5. Back
- Saijel Kishan, “‘It’s a Money Loser’: Tax Breaks for Data Centers Are Under Fire.” Bloomberg, May 9, 2024, https://www.bloomberg.com/news/articles/2024-05-09/ai-boom-has-some-states-rethinking-subsidies-for-data-centers; Kasia Tarczynska, “Will Data Center Job Creation Live Up to Hype? I Have Some Concerns.” Good Jobs First, February 12, 2025, https://goodjobsfirst.org/will-data-center-job-creation-live-up-to-hype-i-have-some-concerns; Lulu Ramadan and Sydney Brownstone, “How a Washington Tax Break for Data Centers Snowballed Into One of the State’s Biggest Corporate Giveaways,” ProPublica, August 4, 2024, https://www.propublica.org/article/washington-data-centers-tech-jobs-tax-break; Tom Dotan, “The AI Data-Center Boom Is a Job-Creation Bust.” Wall Street Journal, February 25, 2025, https://www.wsj.com/tech/ai-data-center-job-creation-48038b67Back
- Zach Schiller, “Indefensible Tax Breaks for Data Centers Will Cost Ohio,” Policy Matters Ohio, January 7, 2025, https://policymattersohio.org/research/indefensible-tax-breaks-for-data-centers-will-cost-ohio; “At $1 Billion, Amazon’s Oregon Subsidy is Largest Known in Company’s History,” Good Jobs First, May 19, 2023, https://goodjobsfirst.org/at-1-billion-amazons-oregon-subsidy-is-largest-known-in-history. Back
- Kishan, “It’s a Money Loser”; Jarrett Skorup, “Michigan Has Authorized $4.7 Billion in Taxpayer-Funded Business Subsidies,” Mackinac Center, January 27, 2025, https://www.mackinac.org/pressroom/2025/michigan-has-authorized-4-7-billion-in-taxpayer-funded-business-subsidies; American Economic Liberties Project, “Tools for Taking on the Corporate Subsidy Machine: Introduction,” September 13, 2022, https://www.economicliberties.us/our-work/subsidy-toolkit-intro; and Greg LeRoy, The Great American Jobs Scam: Corporate Tax Dodging and the Myth of Job Creation(Berrett Koehler, 2005). Back
- Citizens Action Coalition, “CAC Calls for Data Center Moratorium,” October 15, 2024, https://www.citact.org/news/cac-calls-data-center-moratorium. Back
- Andrew R. Chow, “Elon Musk’s New AI Data Center Raises Alarms Over Pollution, Time, September 17, 2024, https://time.com/7021709/elon-musk-xai-grok-memphis/. Back
- Veena Dubal, “On Algorithmic Wage Discrimination,”Columbia Law Review 123, no. 7 (2023): 1929–92, https://columbialawreview.org/content/on-algorithmic-wage-discrimination. Back
- AI Now Institute et al., AI Now Coauthors Report on Surveillance Prices and Wages, February 20, 2025, https://ainowinstitute.org/publication/ai-now-coauthors-report-on-surveillance-prices-and-wages. Back
- Por exemplo, nos casos em que os Estados prevejam excepções estreitas para a discriminação de preços ou salários com base em dados de vigilância, as empresas devem ter o ónus de estabelecer claramente que a excepção se aplica. Back
- Will Oremus and Lauren Kaori Gurley, “States Eye Bans on ‘Surveillance Pricing’ that Exploits Personal Data,” Washington Post, February 20, 2025, https://www.washingtonpost.com/politics/2025/02/20/surveillance-prices-wages-california-ban. Back
As autoras:
Kate Brennan é diretora associada do AI Now Institute. Tem um J. D. da Faculdade de direito de Yale e um duplo B. A. da Universidade Brown em cultura moderna e Media e Estudos de género e sexualidade. Como Diretora Associada do AI Now, Kate, lidera programas de política e pesquisa para moldar a indústria de IA no interesse público. Tem uma década de experiência na indústria de tecnologia para a AI Now, trabalhando em várias funções tanto no marketing de produtos quanto na política. Antes de ingressar na AI Now, Kate ocupou vários cargos na indústria de tecnologia. Como comerciante de produtos na Jigsaw do Google, Kate supervisionou lançamentos de produtos e iniciativas de pesquisa que enfrentavam desinformação, censura e assédio online. Anteriormente, Kate construiu e gerenciou um programa nacional para apoiar as mulheres na indústria de jogos, lançando jogos por criadores de jogos sub-representados e comissionando pesquisas de ponta sobre a dinâmica de gênero na indústria de jogos. Ela começou sua carreira administrando marketing digital para organizações sem fins lucrativos e sindicatos politicamente progressistas. Na Faculdade de direito, Kate atuou como editora-chefe do Yale Journal of Law and Feminism e foi membro da Technology Accountability Clinic, um projeto da Clínica de liberdade de mídia e acesso à informação da Yale Law School que enfrenta o poder excessivo na indústria de tecnologia. Como membro da clínica, trabalhou em questões como a vigilância biométrica nas prisões e o acesso à informação sobre o aborto online. Como estagiária jurídica do Neighborhood Legal Services of Los Angeles County, representou trabalhadores de baixa renda em Los Angeles em audiências administrativas para recuperar benefícios e aconselhou trabalhadores sobre roubo salarial, desemprego e reivindicações de retaliação.
Amba Kak,é co-diretora executiva do AI Now Institute. Formada como advogada, é licenciada em BA LLB (Hons) pela Universidade Nacional de Ciências Jurídicas da Índia e é ex-beneficiária da Google Policy Fellowship e da Mozilla Policy Fellowship. Ela tem um Mestrado em Direito (BCL) e um Mestrado em Ciências Sociais da Internet na Universidade de Oxford, que frequentou como Rhodes Scholar. passou os últimos quinze anos projetando e defendendo políticas tecnológicas de interesse público, que vão desde a neutralidade da rede até à privacidade e à responsabilidade algorítmica, em todo o governo, indústria e sociedade civil – e em muitas partes do mundo. completou recentemente seu mandato como Consultora Sênior em IA na Federal Trade Commission. Antes da AI Now, ela foi Consultora de políticas globais na Mozilla; e também atuou anteriormente como consultora Jurídica do regulador de telecomunicações da Índia (TRAI) sobre regras de neutralidade da rede. Aconselha regularmente membros do Congresso, da Casa Branca, da Comissão Europeia, do governo do Reino Unido, da cidade de Nova Iorque, dos EUA e de outras agências reguladoras em todo o mundo; é amplamente publicada em locais académicos e populares e seu trabalho foi apresentado no The Atlantic, The Financial Times, MIT Tech Review, Nature, The Washington Post e The Wall Street Journal, entre outros. Amba atualmente faz parte do Conselho de Administração da Signal Foundation e do Comitê de IA do Conselho da Mozilla Foundation, e é afiliada como pesquisadora sênior visitante no Instituto de segurança cibernética e Privacidade da Northeastern University.
Dr. Sarah Myers West, é doutora e mestra pela Universidade do Sul da Califórnia. É co-diretora executiva do AI Now Institute. Passou os últimos quinze anos a interrogar o papel das empresas de tecnologia e a sua emergência como poderosos actores políticos nas linhas de frente da governação internacional. O seu próximo livro, Tracing Code (University of California Press) desenha em anos de histórico e pesquisa em ciências sociais para analisar as origens de dados do capitalismo comercial e de vigilância. A pesquisa premiada de Sarah é apresentada em importantes revistas acadêmicas e plataformas de mídia proeminentes, incluindo The Washington Post, The Atlantic, The Financial Times, Nature e The Wall Street Journal. Assessora regularmente membros do Congresso, da casa branca, da Comissão Europeia, do governo do Reino Unido, do Consumer Financial Protection Board e de outras agências reguladoras dos EUA e internacionais e da cidade de Nova Iorque, e testemunhou perante o Congresso sobre questões como inteligência artificial, concorrência e privacidade de dados. Concluiu recentemente um mandato como consultora Sénior em IA na Federal Trade Commission, onde aconselhou a Agência sobre o papel da inteligência artificial na formação da economia, trabalhando em questões de concorrência e Defesa do consumidor. Atualmente, ela atua no grupo de trabalho AI Futures da OCDE.



