Nota de editor:
Devido à grande extensão deste texto – Poder Artificial: Relatório sobre o Panorama de 2025 – o mesmo é publicado em 5 partes – A (Sumário Executivo), B (capítulo 1, por sua vez repartido em 4 partes), C (capítulo 2), D (capítulo 3) e E (Capítulo 4).
Hoje publicamos a terceira parte do Capítulo 1,
Seleção e tradução de Júlio Marques Mota
6 min de leitura
Texto 41 B – Poder Artificial: Relatório sobre o Panorama de 2025. Capítulo 1 – Os Falsos Deuses da IA (3/4) – Corrida Armamentista da IA 2.0: Da Desregulamentação à Política Industrial
Por Kate Brennan, Amba Kak, e Dr. Sarah Myers West
Publicado por
em 2 de Junho de 2025 (original aqui)
Índice
Sumário Executivo
Capítulo 1: Os Falsos Deuses da IA
1.1 A mitologia da IAG: o argumento para terminar com todos os argumentos
1.2 Demasiado grande para falir: infraestrutura e intensificação do capital
1.3 Corrida armamentista da IA 2.0: da desregulamentação à política industrial
1.4 Reformulação da regulamentação como obstáculo à inovação
Capítulo 2: Sai cara, ganho eu, sai coroa perde você. Como as empresas de tecnologia manipularam o mercado de IA
Capítulo 3: Consultando o registo. A IA falha sistematicamente ao público
Capítulo 4: Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso.
—-
1.3 Corrida Armamentista da IA 2.0: Da Desregulamentação à Política Industrial
- Um Novo Consenso no Vale do Silício: De Anúncios Direcionados a Armas de IA Direcionadas?
- Uma faca de dois gumes: difusão de chips e “soberania de IA”
A fusão dos objetivos de segurança económica e nacional sob o rótulo da corrida armamentista de IA entre EUA e China é um trunfo crucial para as empresas de IA norte-americanas: isso garante-lhes apoio não apenas do seu próprio governo, mas potencialmente de muitos outros Estados-nação que procuram uma possibilidade de competir nesse mercado; isso protege-as de atritos regulatórios, ao enquadrar qualquer exigência por responsabilização como sendo não apenas anti inovação, mas como sendo também prejudicial aos interesses nacionais; e — como exploramos no Capítulo 1.2: Demasiado grande para falir — é um fator-chave para posicioná-las não apenas como grandes demais mas como estrategicamente demasiado importantes para falir.
Os Estados-nação desenvolveram as suas próprias versões de “nacionalismos de IA”, lançando iniciativas projetadas tanto para apoiar o desenvolvimento local e infraestruturas soberanas, livres da dependência de empresas de tecnologia dos EUA, como para atrair investimentos em IA [1]. No entanto, embora o nacionalismo em IA esteja em ascensão globalmente, o discurso em torno da corrida armamentista de IA ainda se concentra em dois polos: os EUA e a China. Desde meados da década de 2010, a noção de uma corrida armamentista de IA entre EUA e China tem sido utilizada principalmente por agentes ligados à indústria para resistir a regulamentações consideradas obstáculos à sua expansão. Um tema frequente em discussões políticas nos momentos em que a indústria procurou conter a maré regulatória, a ideia de uma corrida armamentista foi um dos principais argumentos usados contra a introdução de uma lei federal de proteção de dados, um pacote de reformas antitruste direcionado ao setor de tecnologia em 2022 e um projeto abrangente de Lei de Responsabilidade em IA que passou pelo Congresso [2].
Nos últimos dois anos, essa suposta corrida assumiu um novo carácter (vamos chamá-lo de “corrida armamentista da IA 2.0”), tomando a forma de uma série de medidas que vão muito além da desregulamentação para incorporar investimentos diretos, subsídios e controles de exportação, com o objetivo de favorecer os interesses das grandes empresas de IA sob o argumento de que o seu avanço é do interesse nacional (o que designamos como política industrial de IA [3]). Essa abordagem é anterior ao governo de Trump. Pode-se argumentar que várias das principais medidas que sustentam a corrida armamentista da IA 2.0 foram delineadas durante o governo Biden; Jake Sullivan [conselheiro de segurança nacional com Biden], em particular, foi um defensor aberto das lógicas da segurança económica [4]. A ordem executiva sobre IA da administração Biden [5], o memorando de Segurança Nacional [6] e os controles de exportação [7] estabeleceram a intenção do governo dos EUA de adotar amplamente a IA e desobstruir o caminho para a expansão da indústria por meio da construção de infraestrutura, ao mesmo tempo em que dificultam o avanço de adversários estratégicos, como a China, limitando a exportação de chips de última geração. Como era de esperar, essa postura alinhou-se com as plataformas de lóbi de empresas como a OpenAI, que procuraram obter cooperação governamental com uma lista restrita de condicionalidades, como a utilização de energia renovável e o cumprimento de medidas de segurança [8]. A OpenAI, em particular, ameaçou realocar as suas atividades caso não recebesse apoio proporcional do governo dos EUA [9]. Desde a tomada de posse, a administração Trump intensificou o apoio à indústria de IA, revogando as condicionalidades estabelecidas pela administração Biden ao anular a ordem executiva sobre IA e substituí-la por uma declaração abrangente: “É política dos Estados Unidos sustentar e reforçar o domínio global da América em IA, a fim de promover o florescimento humano, a competitividade económica e a segurança nacional” [10].
Um Novo Consenso no Vale do Silício: De Anúncios Direcionados a Armas de IA Direcionadas?
Enquanto o governo Trump consolidou a IA como um ativo estratégico nacional, é provável que espere que a indústria aja de forma mais alinhada com os interesses do Estado. Os detalhes disso são deliberadamente deixados vagos, mas um discurso comum tem sido o de que as empresas deveriam dedicar-se menos a anúncios direcionados e mais à IA que fortaleça a segurança nacional — e a tecnologia de defesa está cada vez mais no centro de eventos como o Fórum Hill & Valley [11], uma conferência anual que reúne elites do Vale do Silício e legisladores de Washington, realizada pela primeira vez em março de 2023 para combater a influência chinesa na indústria de tecnologia americana.[12].
Cofundado por Jacob Helberg, da Palantir, o Fórum Hill & Valley está mais alinhado do que nunca com os interesses de segurança nacional do Estado [13] assim como está Helberg [14], ou ainda como estão Michael Kratsios e David Sacks, e Helberg é um dos muitos representantes da indústria que assumiram papéis-chave na formulação de políticas sob o governo Trump [15].
Até agora, a indústria parece apoiar esta visão. Isso fica mais evidente na retórica do CEO da Palantir, Alex Karp, que há muito tempo descreve a missão da empresa como respondendo a uma necessidade civilizacional de sustentar a supremacia democrática e ocidental através da tecnologia de ponta. Mas, encorajado pela intenção de Trump de ampliar deportações em massa e a vigilância policial, Karp intensificou o seu discurso, declarando numa conferência com investidores no início de 2025: “Estamos a dedicar a nossa empresa ao serviço do Ocidente e dos Estados Unidos da América, e temos orgulho do papel que desempenhamos, especialmente em lugares sobre os quais não podemos falar. A Palantir está aqui para provocar disrupção. E, quando necessário, assustar os nossos inimigos e, em algumas ocasiões, matá-los” [16].
Karp não está sozinho. Desde que o governo Biden passou a tratar a IA como uma questão de segurança em 2024, empresas que historicamente se mantinham afastadas do setor militar também passaram a envolver-se mais com a segurança nacional. Depois de fazer uma alteração à sua política de utilização admissível, permitindo que as suas ferramentas sejam utilizadas pelos militares [17], a OpenAI passou a defender publicamente a utilização da IA com base em argumentos de segurança [18], chegando a afirmar que expandir a utilização justa (fair use) na lei de direitos autorais para incluir o desenvolvimento de IA é um imperativo de segurança [19]. Em fevereiro de 2025, o Google alterou as suas diretrizes para permitir que as suas tecnologias de IA fossem utilizadas em armamentos e vigilância militar, apesar dos protestos contínuos dos seus funcionários e de uma antiga proibição quanto à utilização da sua tecnologia em armamentos, estabelecida após os protestos contra o Projeto Maven em 2018 [20]. E, em novembro de 2024, a Meta anunciou que disponibilizaria os seus modelos Llama ao governo dos EUA para fins de segurança nacional [21].
Entretanto, o CEO da Anthropic, Dario Amodei, escreveu recentemente sobre a ameaça de governos autoritários estarem a estabelecer o domínio militar em IA como sendo isto uma forte razão para acelerar a liderança dos EUA [22] e a empresa de capital de risco de Andreessen Horowitz mantém uma prática chamada “American Dynamism” (“Dinamismo Americano”), projetada expressamente para apoiar o interesse nacional em setores estrategicamente importantes: aeroespacial, defesa, segurança pública, educação, habitação, cadeia de fornecimentos, industriais e indústria transformadora [23].
Uma faca de dois gumes: difusão de chips e “soberania de IA”
Vale a pena destacar que a corrida armamentista da IA 2.0 deixou de ser uma vantagem política absoluta para o conjunto do setor tecnológico e tornou-se uma faca de dois gumes para alguns: as restrições agressivas à exportação de chips estão a fechar um enorme mercado para as empresas norte-americanas de hardware de IA e produtos de centros de dados, deixando empresas como Nvidia e Oracle profundamente insatisfeitas [24]. Durante o governo Biden, a implementação de controles de exportação que restringem a venda de semicondutores para certos países por meio do “framework de difusão” foi alvo da maior parte das críticas, com várias empresas de fortes investimentos no mercado global de chips a ficarem especialmente revoltadas com o impacto sobre os seus negócios [25]. A administração Trump pode fazer alterações na regra de difusão [26] e está internamente dividida entre fações favoráveis a tarifas e linha-dura contra a China e aquelas interessadas na expansão global do mercado de IA [27].
Por sua vez, a Nvidia — a principal empresa de semicondutores e que é a mais diretamente afetada pelos controles de exportação — iniciou uma campanha em defesa da ‘IA soberana’, um termo cunhado pela própria empresa para se referir à capacidade das nações de produzirem a sua própria inteligência artificial utilizando alguma combinação de infraestruturas locais, dados, força de trabalho e redes empresaria [28].
A posição da Nvidia é um exemplo de uma estratégia de expansão de mercado. Como fornecedora de chips de computação para infraestruturas de centros de dados centrais para as iniciativas de soberania, a empresa pode beneficiar do crescente interesse dos Estados nacionais em desenvolver as suas próprias indústrias locais e atrair investimentos em IA. Para os fabricantes de chips, o impulso em direção à IA soberana pode ser visto como uma forma de diversificar a sua base de clientes, reduzindo a dependência dos grandes operadores e protegendo os seus negócios contra uma possível queda na procura dessas empresas [29].
A União Europeia e os seus Estados-membros também demonstraram interesse em investimentos soberanos em IA, numa tentativa de competir na vanguarda. A Comissão Europeia tem, gradualmente, redirecionado a sua capacidade existente de supercomputação de alto desempenho para o treino de modelos de IA em grande escala [30]. Para intensificar ainda mais os esforços, a Comissão anunciou a iniciativa InvestAI, no valor de €20 mil milhões, com o objetivo de estabelecer “gigafábricas” europeias que abrigariam cem mil GPUs, com o intuito de facilitar o treino de modelos com “centenas de triliões” de parâmetros [31].
O investimento também ganhou força entre os Estados-membros. Em fevereiro de 2025, a França sediou a Cimeira de Ação em IA de Paris, durante a qual o presidente Emmanuel Macron anunciou cerca de €110 mil milhões em compromissos de investimento para impulsionar o setor de IA no país, com foco em investimentos em infraestrutura [32] [33]. Na Alemanha, a nova coligação de governo concordou em abrigar pelo menos uma das gigafábricas, juntamente com o compromisso de desenvolver uma pilha tecnológica soberana, além do apoio ao nascente movimento “Eurostack” — uma coligação informal [34] ao nível europeu que visa reduzir as dependências tecnológicas da Europa através de desenvolvimento de alternativas internas [35].
Estes investimentos, tanto a nível da UE como dos seus Estados-membros, ainda são insignificantes em comparação com a escala dos planos de investimento privado nos EUA, como o fundo de joint venture Stargate de US$ 500 mil milhões, anunciado em janeiro de 2025 – um fundo que, pode-se argumentar, consolida o domínio monopolista de um cartel de empresas sediadas nos EUA [36]. Enquanto isso, os Emirados Árabes Unidos (EAU) e a Arábia Saudita, que são Estados geopolíticos oscilantes, dado o seu capital financeiro para sustentar a construção de infraestrutura, têm inundado o mercado com dinheiro por meio dos fundos de IA MGX, G42 e o Fundo de Investimento Público Saudita (PIF) para IA [37], dinheiro que os líderes das empresas de IA estão avidamente a querer atrair [38].
O nacionalismo, portanto, ainda permanece uma força crítica na moldagem das políticas de IA: a ‘corrida armamentista da IA’ tornou-se, de certa forma, cada vez mais complexa e num momento de incerteza geopolítica, sendo utilizada por empresas tanto para evitar regulamentação como para atrair investimentos.
Notas
- Amba Kak et al., AI Nationalism(s): Global Industrial Policy Approaches to AI, AI Now Institute, 12 de março de 2024, https://ainowinstitute.org/ai-nationalisms. Back
- AI Now Institute, Tracking the US and China AI Arms Race, April 11, 2023, https://ainowinstitute.org/publications/tracking-the-us-and-china-ai-arms-race. Back
- Amba Kak and Sarah M. West, “A Modern Industrial Strategy for AI?: Interrogating the US Approach,” AI Now Institute, 12 de março de 2024, https://ainowinstitute.org/publications/a-modern-industrial-strategy-for-aiinterrogating-the-us-approach. Back
- Jake Sullivan, “Remarks by National Security Advisor Jake Sullivan on Renewing American Economic Leadership at the Brookings Institution” (speech, Washington, DC, 27 de abril de 2023), The White House, https://bidenwhitehouse.archives.gov/briefing-room/speeches-remarks/2023/04/27/remarks-by-national-security-advisor-jake-sullivan-on-renewing-american-economic-leadership-at-the-brookings-institution; Jake Sullivan, “Remarks by APNSA Jake Sullivan at the Brokings Institution” (speech, Washington, DC, 23 de outubro de 2024), The White House, https://bidenwhitehouse.archives.gov/briefing-room/speeches-remarks/2024/10/23/remarks-by-apnsa-jake-sullivan-at-the-brookings-institution/. Back
- “Executive Order 14110 of October 30, 2023, Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence,” Code of Federal Regulations, title 88 (2023): 75191-75226, https://www.federalregister.gov/documents/2023/11/01/2023-24283/safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence. Back
- White House, “Memorandum on Advancing the United States’ Leadership in Artificial Intelligence; Harnessing Artificial Intelligence to Fulfill National Security Objectives; and Fostering the Safety, Security, and Trustworthiness of Artificial Intelligence,” 24 de outubro de 2024, https://bidenwhitehouse.archives.gov/briefing-room/presidential-actions/2024/10/24/memorandum-on-advancing-the-united-states-leadership-in-artificial-intelligence-harnessing-artificial-intelligence-to-fulfill-national-security-objectives-and-fostering-the-safety-security. Back
- “Export Control Framework for Artificial Intelligence Diffusion,” Code of Federal Regulations, title 15 (2024): 740, 774, https://www.govinfo.gov/content/pkg/CFR-2024-title15-vol2/pdf/CFR-2024-title15-vol2-part740.pdf. Back
- Cade Metz and Tripp Mickle, “Behind OpenAI’s Audacious Plan to Make A.I. Flow Like Electricity,” New York Times, 25 de setembro de 2024 https://www.nytimes.com/2024/09/25/business/openai-plan-electricity.html. Back
- Jordan Wolman and Mohar Chatterjee, “White House Weighing Executive Action to Spur Data Centers,” Politico, 11 de dezembro de 2024, https://subscriber.politicopro.com/article/2024/12/white-house-weighing-executive-action-to-spur-data-centers-00193846. Back
- White House, “Removing Barriers to American Leadership in Artificial Intelligence,” January 23, 2024, https://www.whitehouse.gov/presidential-actions/2025/01/removing-barriers-to-american-leadership-in-artificial-intelligence. Back
- “The Hill & Valley Forum 2025,” The Hill & Valley Forum, 30 de abril de 2025, https://www.thehillandvalleyforum.com. Back
- Elizabeth Dwoskin, “Tech Leaders Were on the Outside Looking In. Now They Own Washington,” Washington Post, 6 de março de 2025, https://www.washingtonpost.com/politics/2025/03/06/tech-leaders-were-outside-looking-now-they-own-washington. Back
- Mohar Chatterjee, “Silicon Valley Comes to Washington — Singing Trump’s Tune,” Politico, 30 de abril de 2025 https://www.politico.com/newsletters/digital-future-daily/2025/04/30/silicon-valley-comes-to-washington-singing-trumps-tune-00319538; and Dwoskin, “Tech Leaders.” Back
- Jacob Helberg (@jacobhelberg), “Thank you, Mr. President. I am deeply honored and humbled by the trust that you have placed in me.” X, 10 de dezembro de 2024, https://x.com/jacobhelberg/status/1866626272203509803. Back
- Helberg foi nomeado para o cargo de Subsecretário para ao Crescimento Económico, Energie e Meio Ambiente. Michael Kratsios, de cale AI, é director do Office of Science and Technology Policy. David Sacks é o Czar da IA da Casa Branca, veja-se Nitasha Tiku, Cat Zakrzewski, e Elizabeth Dwoskin, “A Podcast Star Rallied Silicon Valley to Back Trump. Now He’s the Nation’s Tech Czar,” Washington Post, 13 de abril de 2025 https://www.washingtonpost.com/technology/2025/04/13/david-sacks-ai-crypto-trump; e Madison Alder, “Trump Taps Michael Kratsios, Lynne Parker for Tech and Science Roles,” Fedscoop, 23 de dezembro de 2024 https://fedscoop.com/trump-taps-michael-kratsios-lynne-parker-tech-science-roles. Back
- Sophie Hurwitz, “The Gleeful Profiteers of Trump’s Police State,” Mother Jones, 6 de fevereiro de 2025 https://www.motherjones.com/politics/2025/02/palantir-alex-karp-trump-private-prisons-profiteers. Back
- Sam Biddle, “OpenAI Quietly Deletes Ban on Using ChatGPT for ‘Military and Warfare’,” Intercept, 12 de Janeiro de 2024 https://theintercept.com/2024/01/12/open-ai-military-ban-chatgpt. Back
- OpenAI, “OpenAI’s Approach to AI and National Security,” 24 de outubro de 2024 https://openai.com/global-affairs/openais-approach-to-ai-and-national-security. Back
- Emma Roth, “OpenAI and Google Ask the Government to Let Them Train AI on Content They Don’t Own,” The Verge, 14 de março de 2025 https://www.theverge.com/news/630079/openai-google-copyright-fair-use-exception. Back
- Lucy Hooker and Chris Vallance, “Concern Over Google Ending Ban on AI Weapons,” BBC, 5 de fevereiro de 2025 https://www.bbc.com/news/articles/cy081nqx2zjo; Ina Fried, “Google’s Hassabis Explains Shift on Military Use of AI,” Axios, 14 de fevereiro de 2025 https://www.axios.com/2025/02/14/google-hassabis-ai-military-use; Scott Shane and Daisuke Wakabayashi, “‘The Business of War’: Google Employees Protest Work for the Pentagon,” New York Times, 4 de abril de 2018, https://www.nytimes.com/2018/04/04/technology/google-letter-ceo-pentagon-project.html. Back
- Patrick Moorhead, “Meta Extends Llama Support to U.S. Government For National Security,” Forbes, 4 de novembro de 2024 https://www.forbes.com/sites/patrickmoorhead/2024/11/04/meta-extends-llama-support-to-us-government-for-national-security. Back
- Anthropic, “Statement from Dario Amodei on the Paris AI Action Summit,” 11 de fevereiro de 2025 https://www.anthropic.com/news/paris-ai-summit. Back
- Andreessen Horowitz, “What We Believe,” accessed a 24 de abril de 2024, https://a16z.com/american-dynamism. Back
- Ken Glueck, “Export Control Diffusion Confusion,” Oracle(blog), 5 de Janeiro de 2025 https://www.oracle.com/news/announcement/blog/export-control-diffusion-confusion-2025-01-05. Back
- Information Technology & Innovation Foundation (ITIF), “AI Diffusion Rule Threatens US Leadership, Warns ITIF,” 13 de Janeiro de 2025 https://itif.org/publications/2025/01/13/ai-diffusion-rule-threatens-us-leadership-warns-itif. Back
- Karen Freifeld, “Exclusive: Trump Officials Eye Changes to Biden’s AI Chip Export Rule, Sources Say,” Reuters, 29 de abril de 2025 https://www.reuters.com/world/china/trump-officials-eye-changes-bidens-ai-chip-export-rule-sources-say-2025-04-29. Back
- Sydney J. Freedberg Jr., “White House Tries to Tighten AI Export Controls Amidst Industry Outrage,” Breaking Defense, 24 de Janeiro de 2025 https://breakingdefense.com/2025/01/white-house-tries-to-tighten-ai-export-controls-amidst-industry-outrage. Back
- Angie Lee, “What is Sovereign AI?” NVIDIA (blog), 28 de fevereiro de 2024, https://blogs.nvidia.com/blog/what-is-sovereign-ai. Back
- Frederike Kaltheuner, Leevi Saari, and AI Now Institute, “German Election, China’s AI Rise, and the MAGAfication of Big Tech,” EU AI Industrial Policy Monitor (blog), 14 de janeiro de 2025, https://euaipolicymonitor.substack.com/i/154749386/nvidia-parachutes. Back
- Em 2024, esses supercomputadores, combinados com um ecossistema complementar de processamento de dados e talentos, foram rebatizados como “Fábricas de IA” para funcionarem como os principais nós do desenvolvimento de IA na Europa. Espera-se que pelo menos treze dessas fábricas estejam operacionais até 2026.. European Commission, “AI Factories,” com acesso em 1 de maio de 2025 https://digital-strategy.ec.europa.eu/en/policies/ai-factories. Back
- European Commission, “AI Continent Action Plan,” última edição em 7 de maio de 2025 https://digital-strategy.ec.europa.eu/en/factpages/ai-continent-action-plan. Back
- AI Now Institute, Frederike Kaltheuner, and Leevi Saari, “The Week When Decades Happened,” EU AI Industrial Policy Monitor(blog), 21 de fevereiro de 2025 https://euaipolicymonitor.substack.com/i/155921632/investments-it-is-about-the-money-stupid. Back
- “Details of 110 Billion Euros in Investment Pledges at France’s AI Summit,” Reuters, 10 de fevereiro de 2025 https://www.reuters.com/technology/artificial-intelligence/details-110-billion-euros-investment-pledges-frances-ai-summit-2025-02-10. Back
- “EuroStack – Why, What and How,”EuroStack, com acesso em 24 de abril de 2025 https://euro-stack.eu. Back
- Max Helleberg, “The Role of Artificial Intelligence in the 21st Legislative Period: An Evalution of the Coalition Agreement,” Noerr, 11 de abril de 2025 the-role-of-artificial-intelligence-in-the-21st-legislative-period-an-evaluation-of-the-coalition-agreementBack
- Madhavi Singh, “Stargate or StarGatekeepers? Why This Joint Venture Deserves Scrutiny,” Berkeley Technology Law Journal41 (forthcoming), https://dx.doi.org/10.2139/ssrn.5184657. Back
- Ver Kate Rooney and Kevin Schmidt, “Middle Eastern Funds Are Plowing Billions of Dollars Into Hottest AI Startups,” CNBC, 22 de setembro de 2024 https://www.cnbc.com/2024/09/22/middle-eastern-funds-plowing-billions-into-the-hottest-ai-start-ups-.htm; e Adam Satariano e Paul Mozur, “‘To the Future’: Saudi Arabia Spends Big to Become an A.I. Superpower,” New York Times, 26 de abril de 2024 https://www.nytimes.com/2024/04/25/technology/saudi-arabia-ai.html. Back
- Jason Karaian, “Elon Musk, Sam Altman and Other C.E.O.s Join Trump at U.S.-Saudi Lunch,” New York Times, 13 de maio de 2025 https://www.nytimes.com/2025/05/13/us/politics/trump-saudi-business-lunch-musk-altman.html. Back
As autoras:
Kate Brennan é diretora associada do AI Now Institute. Tem um J. D. da Faculdade de direito de Yale e um duplo B. A. da Universidade Brown em cultura moderna e Media e Estudos de género e sexualidade. Como Diretora Associada do AI Now, Kate, lidera programas de política e pesquisa para moldar a indústria de IA no interesse público. Tem uma década de experiência na indústria de tecnologia para a AI Now, trabalhando em várias funções tanto no marketing de produtos quanto na política. Antes de ingressar na AI Now, Kate ocupou vários cargos na indústria de tecnologia. Como comerciante de produtos na Jigsaw do Google, Kate supervisionou lançamentos de produtos e iniciativas de pesquisa que enfrentavam desinformação, censura e assédio online. Anteriormente, Kate construiu e gerenciou um programa nacional para apoiar as mulheres na indústria de jogos, lançando jogos por criadores de jogos sub-representados e comissionando pesquisas de ponta sobre a dinâmica de gênero na indústria de jogos. Ela começou sua carreira administrando marketing digital para organizações sem fins lucrativos e sindicatos politicamente progressistas. Na Faculdade de direito, Kate atuou como editora-chefe do Yale Journal of Law and Feminism e foi membro da Technology Accountability Clinic, um projeto da Clínica de liberdade de mídia e acesso à informação da Yale Law School que enfrenta o poder excessivo na indústria de tecnologia. Como membro da clínica, trabalhou em questões como a vigilância biométrica nas prisões e o acesso à informação sobre o aborto online. Como estagiária jurídica do Neighborhood Legal Services of Los Angeles County, representou trabalhadores de baixa renda em Los Angeles em audiências administrativas para recuperar benefícios e aconselhou trabalhadores sobre roubo salarial, desemprego e reivindicações de retaliação.
Amba Kak,é co-diretora executiva do AI Now Institute. Formada como advogada, é licenciada em BA LLB (Hons) pela Universidade Nacional de Ciências Jurídicas da Índia e é ex-beneficiária da Google Policy Fellowship e da Mozilla Policy Fellowship. Ela tem um Mestrado em Direito (BCL) e um Mestrado em Ciências Sociais da Internet na Universidade de Oxford, que frequentou como Rhodes Scholar. passou os últimos quinze anos projetando e defendendo políticas tecnológicas de interesse público, que vão desde a neutralidade da rede até à privacidade e à responsabilidade algorítmica, em todo o governo, indústria e sociedade civil – e em muitas partes do mundo. completou recentemente seu mandato como Consultora Sênior em IA na Federal Trade Commission. Antes da AI Now, ela foi Consultora de políticas globais na Mozilla; e também atuou anteriormente como consultora Jurídica do regulador de telecomunicações da Índia (TRAI) sobre regras de neutralidade da rede. Aconselha regularmente membros do Congresso, da Casa Branca, da Comissão Europeia, do governo do Reino Unido, da cidade de Nova Iorque, dos EUA e de outras agências reguladoras em todo o mundo; é amplamente publicada em locais académicos e populares e seu trabalho foi apresentado no The Atlantic, The Financial Times, MIT Tech Review, Nature, The Washington Post e The Wall Street Journal, entre outros. Amba atualmente faz parte do Conselho de Administração da Signal Foundation e do Comitê de IA do Conselho da Mozilla Foundation, e é afiliada como pesquisadora sênior visitante no Instituto de segurança cibernética e Privacidade da Northeastern University.
Dr. Sarah Myers West, é doutora e mestra pela Universidade do Sul da Califórnia. É co-diretora executiva do AI Now Institute. Passou os últimos quinze anos a interrogar o papel das empresas de tecnologia e a sua emergência como poderosos actores políticos nas linhas de frente da governação internacional. O seu próximo livro, Tracing Code (University of California Press) desenha em anos de histórico e pesquisa em ciências sociais para analisar as origens de dados do capitalismo comercial e de vigilância. A pesquisa premiada de Sarah é apresentada em importantes revistas acadêmicas e plataformas de mídia proeminentes, incluindo The Washington Post, The Atlantic, The Financial Times, Nature e The Wall Street Journal. Assessora regularmente membros do Congresso, da casa branca, da Comissão Europeia, do governo do Reino Unido, do Consumer Financial Protection Board e de outras agências reguladoras dos EUA e internacionais e da cidade de Nova Iorque, e testemunhou perante o Congresso sobre questões como inteligência artificial, concorrência e privacidade de dados. Concluiu recentemente um mandato como consultora Sénior em IA na Federal Trade Commission, onde aconselhou a Agência sobre o papel da inteligência artificial na formação da economia, trabalhando em questões de concorrência e Defesa do consumidor. Atualmente, ela atua no grupo de trabalho AI Futures da OCDE.



