Site icon A Viagem dos Argonautas

Inteligência Artificial — Texto 41 E – Poder Artificial: Relatório sobre o Panorama de 2025. Capítulo 4 – Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso (3/5). Por Kate Brennan, Amba Kak, e Dr. Sarah Myers West

Nota de editor:

Devido à grande extensão deste texto – Poder Artificial: Relatório sobre o Panorama de 2025 – o mesmo é publicado em 5 partes – A (Sumário Executivo), B (capítulo 1, C (capítulo 2), D (capítulo 3) e E (Capítulo 4).

Hoje publicamos a terceira parte do Capítulo 4, que é editado em 5 partes.. 


Seleção e tradução de Júlio Marques Mota

15 min  de leitura

Texto 41 E – Poder Artificial: Relatório sobre o Panorama de 2025. Capítulo 4 – Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso (3/5)

Por Kate Brennan, Amba Kak, e Dr. Sarah Myers West

Publicado por em 2 de Junho de 2025 (original aqui)

 

 

Índice

Sumário Executivo

Capítulo 1: Os Falsos Deuses da IA

Capítulo 2: Sai cara, ganho eu, sai coroa perde você. Como as empresas de tecnologia manipularam o mercado de IA

Capítulo 3: Consultando o registo. A IA falha sistematicamente ao público

Capítulo 4: Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso.

____

Capítulo 4: Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso (3/5)

(continuação)

 

Promulgar uma agenda política de “confiança zero” para a IA

Em 2023, juntamente com o Electronic Privacy Information Center (EPIC) e a Accountable Tech [58], recomendámos três pilares para orientar a ação política no mercado da IA:

  1. O tempo é essencial – comece por aplicar vigorosamente as leis existentes.
  2. São necessárias regras arrojadas, facilmente administráveis e claras.
  3. Em cada fase do ciclo de vida do sistema de IA, o ónus deve recair sobre as empresas—incluindo os utilizadores finais—para provar que os seus sistemas funcionam como alegado e não são prejudiciais.

“Dadas as apostas monumentais, a confiança cega na benevolência [das empresas de tecnologia] não é uma opção”, argumentámos então. Esse aviso soa ainda mais forte hoje.

 

1 . Construir uma bateria de regras claras que restrinjam os usos mais prejudiciais da IA em grande escala ou limitem a capacidade das empresas de recolher e usar dados de maneiras específicas

Regras arrojadas e claras que restringem aplicações de IA prejudiciais ou tipos de recolha de dados para IA enviam uma mensagem clara de que o público determina se, em que contextos e como os sistemas de IA serão utilizados. Comparado com estruturas que dependem de processo baseado em garantias (como AI de auditoria ou regimes de avaliação de risco) que, muitas vezes, na prática, tendia a fortalecer mais os líderes da indústria e assentam em robusta capacidade reguladora para a aplicação eficaz da lei [59], estas regras claras têm a vantagem de ser facilmente administráveis e visarem o tipo de danos que não podem ser prevenidas ou corrigidas somente por meio de salvaguardas. Há uma lista crescente de metas prontas para esses tipos de proibições claras. Por exemplo: [60]

 

2. Regular ao longo de todo o ciclo de vida da IA. Isto significa não haver isenções amplas para fornecedores de modelos de base, desenvolvedores de aplicações ou usuários finais.

A IA deve ser regulamentada ao longo de todo o ciclo de vida do desenvolvimento, desde a forma como os dados são recolhidos durante o processo de treino, passando pelo ajustamento fino e desenvolvimento de aplicações, até à sua implantação. Os atores apropriados devem ser responsabilizados pela tomada de decisões em cada uma dessas etapas e obrigados a fornecer transparência e divulgações que permitam que os atores mais à frente na cadeia cumpram as suas próprias obrigações [61].

Figura 1: Origem do risco e proliferação do risco na cadeia de abastecimento dos modelos de base

Fonte: Ada Lovelace Institute, 2023

 

Os regimes de transparência são a base para uma regulação eficaz da tecnologia — necessários, mas nunca suficientes [62] — e, ainda assim, nos últimos anos vimos uma resistência intensa e em grande parte bem-sucedida da indústria de IA em relação a exigências básicas de divulgação. Isso ocorre tanto na fase de modelos de uso geral, em que a indústria tem usado direitos autorais e segredos comerciais como escudo para evitar a divulgação dos dados de treino, quanto na fase final, em que esses sistemas são implantados [63].

Exigências de transparência e divulgação proativas (ou seja, em que o consumidor não precisa solicitar essas informações individualmente) [64] têm gerado forte reação negativa da indústria. O exemplo mais recente foi a alegação de que as disposições de divulgação contidas na lei de IA do Colorado, aprovada em 2024, impunham um “ónus indevido” sobre as empresas [65]. Na prática, isso significa que, em muitos contextos em que a IA está a ser utilizada, as pessoas afetadas por um sistema de IA jamais serão informadas sobre o papel que este sistema desempenha em decisões que podem ter consequências significativas nas suas vidas — muito menos terão a possibilidade de contestar esse sistema.

A indústria também tem exercido um esforço de lóbi coordenado para colocar toda a responsabilidade nos desenvolvedores finais, ao mesmo tempo em que isenta os desenvolvedores dos chamados sistemas de “propósito geral” [66]. Em 2021, juntamente com mais de cinquenta especialistas globais em IA, o AI Now publicou uma carta instando a Comissão Europeia a rejeitar essa abordagem no contexto da Lei de IA da UE [67]. É importante que a IA seja avaliada em todas as etapas do seu ciclo de vida. Certos aspetos dos modelos de IA serão mais bem avaliados na fase de aplicação: é nesse estágio que os testes e validações pré-implantação fornecem mais informações sobre a eficácia e a segurança de utilizações específicas da IA [68]. No entanto, os desenvolvedores de modelos fundamentais e aqueles envolvidos na construção de conjuntos de dados não devem ser isentos de escrutínio — especialmente porque, em geral, são os atores mais poderosos e com mais recursos do mercado [69], e têm demonstrado uma tendência crescente para a opacidade, oferecendo cada vez menos detalhes sobre como treinam os seus sistemas [70].A introdução de requisitos mais rigorosos de responsabilização na camada dos modelos fundamentais motivaria uma reestruturação das práticas de desenvolvimento e, potencialmente, do próprio modelo operacional das empresas de IA. Por si só, esses mecanismos criariam maior transparência e responsabilidade internas nas empresas de IA, o que traria benefícios sociais e auxiliaria o trabalho dos órgãos de fiscalização quando precisassem de investigar essas empresas. Estruturas regulatórias que colocam a responsabilidade exclusivamente na fase de aplicação ignoram o facto de que esses desenvolvedores, assim como compradores e implementadores, podem não ter as informações necessárias para garantir o cumprimento da legislação existente, na ausência de intervenções nas etapas anteriores do processo [71]. Além disso, os utilizadores finais dos sistemas de IA, em muitos casos, não são consumidores individuais, mas empresas ou órgãos públicos, que também precisam ser examinados quanto à forma como a utilização desses sistemas afeta consumidores, trabalhadores e membros da população em geral.

 

3. A indústria de IA não deveria avaliar o seu próprio trabalho: a supervisão do desenvolvimento de modelos de IA deve ser independente.

A indústria tende a depender excessivamente de “red-teaming” [n.t. processo para testar a efectividade da ciberseguridade em que piratas informáticos éticos realizam um ciberataque simulado e não destrutivo], “model cards” [n.t. são documentos breves que acompanham os modelos treinados de aprendizagem automática (ML) que proporcionam uma avaliação comparativa numa variedade de condições, como em diferentes grupos culturais, demográficos ou fenotípicos e grupos interseccionais que são relevantes para os domínios de aplicação previstos] e abordagens similares para a avaliação de sistemas, nas quais as próprias empresas são as principais responsáveis por determinar se os seus sistemas funcionam conforme o esperado e para mitigar danos [72]. Essa abordagem apresenta muitos problemas; ela ignora, por exemplo, os conflitos de interesse significativos envolvidos e falha no emprego de metodologias robustas [73].

As empresas afirmaram que possuem a expertise técnica única necessária para avaliar os seus próprios sistemas [74], a fim de executar o que é essencialmente uma abordagem totalmente autorregulatória de governança, fazendo um conjunto de “compromissos voluntários” com a administração Biden em 2023 [75]. Quando questionadas um ano depois sobre o progresso desses compromissos, a resposta foi pusilânime: embora as empresas tenham relatado ações como a realização de testes internos para mitigar riscos de cibersegurança, não foram capazes de validar se alguma dessas ações realmente reduziu o risco subjacente; e, ao focarem em áreas como armas biológicas, ignoraram o universo mais amplo de danos, como exploração de consumidores e trabalhadores, privacidade e direitos autorais [76]. E a OpenAI recuou até mesmo do cumprimento das obrigações básicas desses compromissos no lançamento do GPT-4.1, optando por não divulgar um “model card” sob o argumento de que o modelo “não está na fronteira” [77].

Isso ilustra um ponto que, a esta altura, já deveria estar abundantemente claro: as empresas não podem ser responsáveis pela sua própria autoavaliação e, na ausência de uma base de lei aplicável, têm poucos incentivos para cumprir quaisquer promessas que façam:

 

4. Criar medidas que atinjam a raiz do poder da IA: os dados.

Não precisamos de nos limitar ao conjunto padrão de ferramentas de políticas de IA: uma ampla gama de medidas criativas poderia ser aplicada pelas agências de fiscalização para atingir a raiz do poder das empresas de IA. Isso inclui medidas tais como:

 

5. Precisamos de um kit de ferramentas para a concorrência agressiva para desarmar o mercado de IA e perceber como é que a IA molda o poder de mercado entre os setores.

No meio das preocupações de que o domínio das grandes tecnológicas em IA se torne mais proeminente num mercado frenético, os órgãos de defesa da concorrência em todo o mundo têm se mostrado longe de ficarem silenciosos. Nos últimos anos, vimos várias investigações iniciais sobre os chamados acordos de parceria entre empresas emergentes de IA e grandes fornecedores de infraestrutura tecnológica [84]; diversos estudos de mercado sobre concentração no setor de nuvem, do Japão à Holanda, do Reino Unido aos EUA [85]; e relatórios detalhados destacando possíveis pontos de estrangulamento e riscos concorrenciais em toda a cadeia de abastecimento de IA [86]. O DOJ, FTC, CMA e a CE chegaram a emitir uma declaração conjunta sobre preocupações concorrenciais envolvendo IA, alertando que parcerias e investimentos poderiam ser usados para minar a concorrência [87]. Esse já é um afastamento promissor da postura passiva da última década em relação à indústria de tecnologia de consumo, que deixou os reguladores a lutarem para acompanhar e reparar os danos — desde aquisições pelo Facebook do WhatsApp e Instagram [88] até ao vasto monopólio de busca do Google. [89].

No entanto, apesar de muitos dos “sons corretos”, grande parte dessa atividade não se concretizou em ações de fiscalização efetivas ou mudanças legislativas, nem estabeleceu limites claros que proibissem práticas comerciais específicas anticompetitivas. Uma dinâmica familiar tem consistido em interpretações limitadas e restritivas dos padrões legais existentes para ação de fiscalização. Por exemplo, as condições tradicionais de análise de fusões não conseguem capturar meios mais indiretos de dependência e controle entre empresas emergentes de IA e os grandes fornecedores de nuvem. Ou considere o limiar estabelecido pelo Hart-Scott-Rodino Act dos EUA, que significava que aquisições menores por grandes empresas tecnológicas não estavam sujeitas a escrutínio, como Rockset (adquirida pela OpenAI), DeciAI (adquirida pela NVIDIA), OctoAI (também adquirida pela NVIDIA).

Em todas essas questões persiste uma limitação mais fundamental: as “viseiras artificiais” que impedem os reguladores de lidar plenamente com as múltiplas dimensões de poder e controle que as grandes empresas tecnológicas exercem através dos seus ecossistemas expansivos. Um relatório recente da Competition and Markets Authority (CMA) no Reino Unido publicou um diagrama (ver Fig. 2) mostrando a presença da Amazon, Apple, Google, Meta e Microsoft ao longo da cadeia de abastecimento de IA — esclarecendo quais as formas pelas quais a sua presença nesses mercados permite efeitos de rede, ciclos de feedback de dados e acesso incomparável a mercados monetizáveis para os seus produtos de IA. (exploramos isso no Capítulo 2: Cara ganho eu, Coroa perde você) [90].

Fig. 2: Como Amazon, Apple, Google, Meta e Microsoft permeiam a cadeia de abastecimento de IA. 

Fonte: CMA; Design Gráfico: Mozilla Foundation.

 

Ainda assim, a ironia é que a CMA, entre outros órgãos equivalentes, falhou em agir de maneiras que poderiam interromper esse controle do ecossistema. O alcance da intervenção é limitado tanto por limites legais restritivos quanto pelo ambiente de lóbi empresarial em torno da IA, que enquadra qualquer intervenção de mercado não apenas como anti-inovação (veja Capítulo 1.4: Reformulando a Regulamentação), mas também como fundamentalmente prejudicial ao interesse nacional, dado o que está em jogo na chamada corrida armamentista de IA (veja Capítulo 1.3: Corrida Armamentista de IA 2.0).

Mantendo-nos na análise do exemplo do Reino Unido, a Microsoft anunciou um investimento massivo em capacidade de processamento na esteira de duas ações significativas de fiscalização que afetaram a empresa: a decisão da CMA de não bloquear a fusão Microsoft-Activision e a abertura de uma investigação pela CMA sobre preocupações de concorrência no mercado de nuvem. As empresas de IA usam o investimento como uma estratégia clara para se proteger do risco muito real de que a CMA tome medidas que possam ameaçar os lucros das empresas.

Olhando para o futuro, vemos uma oportunidade de reunir esforços em torno de um conjunto de intervenções direcionadas que poderiam enfrentar o controle das grandes empresas de tecnologia sobre o ecossistema tecnológico mais amplo e poderiam avançar significativamente na mudança das dinâmicas “viciadas” do mercado de IA (veja o Capítulo 2: Cara eu ganho, coroa você perde). Destacamos aqui algumas direções políticas-chave que identificam pontos de intervenção de elevado valor [91].

 

6. Supervisão rigorosa para o desenvolvimento e a operação de novos centros de dados

À medida que a IA impulsiona o crescimento do desenvolvimento de centros de dados em todo o mundo e projeta procuras impressionantes por energia, os formuladores de políticas públicas precisam lidar com a incompatibilidade entre esse crescimento desenfreado e os nossos ambientes já limitados em recursos. As comunidades próximas aos centros de dados enfrentam realidades como poluição do ar, falta de água adequada e poluição sonora [92], com impactos desproporcionais sobre comunidades negras e morenas que estão na linha de frente [93].

No entanto, os centros de dados não afetam apenas aqueles que vivem mais próximos deles: para financiar os enormes investimentos necessários para construir a infraestrutura que alimenta os centros de dados de IA (como a produção de energia e linhas de transmissão), as empresas de serviços públicos de energia podem transferir esses custos para os consumidores comuns [94]. Nos Estados Unidos, as pessoas já estão a ver o aumento das tarifas de eletricidade [95] — e espera-se que isso só piore.

Enquanto isso, estados e municípios estão a distribuir milhares de milhões de dólares em subsídios fiscais para as empresas para estas desenvolverem os seus centros de dados, isentando-as do pagamento de impostos sobre vendas, uso e propriedade, ou oferecendo reduções nas suas taxas [96]. Isso ocorre diretamente à custa das comunidades, que perdem receitas fiscais destinadas a escolas locais, infraestrutura e outras necessidades comunitárias.

Apesar dos milhares de milhões de dólares em investimentos e subsídios governamentais, grande parte do atual processo de desenvolvimento de centros de dados ocorre de forma obscura [97]. Muitos centros de dados não fornecem nem mesmo informações básicas sobre o seu consumo de recursos, nomeadamente a utilização de energia e consumo de água. Isso impede que os estados planeiem adequadamente a oferta e a procura, ameaçando a estabilidade da rede elétrica. Além disso, muitos acordos entre centros de dados e companhias de serviços públicos são aprovados por órgãos reguladores em processos que geralmente não sofrem contestação pública, o que impede que os consumidores compreendam os impactos que esses grandes clientes podem ter sobre as suas tarifas [98].

No entanto, esse caminho atual de crescimento desenfreado de centros de dados não é inevitável. Cada vez mais comunidades estão a perceber  que o desenvolvimento económico bem-sucedido não pode depender de danos ambientais, à saúde e à economia: recentemente, dois condados em Atlanta suspenderam temporariamente todos os novos projetos de centros de dados para garantir adequadamente que o desenvolvimento proteja os interesses da comunidade [99]; e um conselho de supervisores de um condado na Virgínia rejeitou um plano para uma fábrica a gás e um campus de centros de dados devido a preocupações sobre o aumento da poluição e o impacto ambiental negativo que causaria na área circundante [100]. O desenvolvedor está agora a considerar construir moradias em seu lugar.

Os formuladores de políticas devem tomar medidas rápidas e decisivas para garantir que o desenvolvimento de centros de dados apoie, em vez de prejudicar, as necessidades das comunidades locais e os recursos disponíveis no nosso planeta, tais como:

 

(continua)


Notas

  1. Accountable Tech et al., Zero Trust AI Governance, August 10, 2023, https://ainowinstitute.org/wp-content/uploads/2023/08/Zero-Trust-AI-Governance.pdfBack
  2. AI Now Institute, “Algorithmic Accountability: Moving Beyond Audits,”in 2023 Landscape: Confronting Tech Power, AI Now Institutehttps://ainowinstitute.org/publications/algorithmic-accountabilityBack
  3. A range of bills of this variety have appeared across state legislatures. See Public Citizen, “Tracker: State Legislation on Intimate Deepfakes,” last updated April 15, 2025, https://www.citizen.org/article/tracker-intimate-deepfakes-state-legislation; Public Citizen, “Tracker: State Legislation on Deepfakes in Elections,” last Updated April 17, 2025, https://www.citizen.org/article/tracker-legislation-on-deepfakes-in-elections; and California Education Code § 87359.2 (2024); H.B. 1709, 89th Leg. (Tex. 2025); H.B. 1709, 89th Leg. (Tex. 2025). Back
  4. Cybersecurity & Infrastructure Security Agency, “CISA and UK NCSC Unveil Joint Guidelines for Secure AI System Development,” November 26, 2023, https://www.cisa.gov/news-events/alerts/2023/11/26/cisa-and-uk-ncsc-unveil-joint-guidelines-secure-ai-system-developmentBack
  5. Chloe Xiant, “OpenAI’s GPT-4 Is Closed Source and Shrouded in Secrecy,” Vice, March 16, 2023,https://www.vice.com/en/article/ak3w5a/openais-gpt-4-is-closed-source-and-shrouded-in-secrecyBack
  6. Kyle Wiggers, “Many companies won’t say if they’ll comply with California’s AI training transparency law,” TechCrunch, October 4, 2024, https://techcrunch.com/2024/10/04/many-companies-wont-say-if-theyll-comply-with-californias-ai-training-transparency-lawBack
  7. Matt Scherer, “FAQ on Colorado’s Consumer Artificial Intelligence Act (SB 24-205),” Center for Democracy and Technology, December 17, 2024, https://cdt.org/insights/faq-on-colorados-consumer-artificial-intelligence-act-sb-24-205/#h-the-law-requires-companies-to-give-some-information-to-consumers-proactively-without-the-consumer-having-to-request-it-why-is-that-proactive-disclosure-necessaryBack
  8. Tamara Chuang, “Attempt to Tweak Colorado’s Controversial, First-in-the-Nation Artificial Intelligence Law is Killed,” Colorado Sun, May 5, 2025, https://coloradosun.com/2025/05/05/colorado-artificial-intelligence-law-killedBack
  9. Matt Perault, “Regulate AI Use, Not AI Development,” Andreesen Horowitz, January 27, 2025, https://a16z.com/regulate-ai-use-not-ai-development; Jacob Helberg, “11 Elements of American AI Dominance,” Republic, July 26, 2024, https://therepublicjournal.com/journal/11-elements-of-american-ai-supremacyBack
  10. AI Now Institute, “General Purpose AI Poses Serious Risks, Should Not Be Excluded From the EU’s AI Act,” policy brief, April 13, 2023, https://ainowinstitute.org/publications/gpai-is-high-risk-should-not-be-excluded-from-eu-ai-actBack
  11. Anna Lenhart and Sarah Myers West, Lessons from the FDA for AI, AI Now Institute, August 1, 2024, https://ainowinstitute.org/publications/research/lessons-from-the-fda-for-aiBack
  12. Amba Kak and Sarah Myers West, “General Purpose AI Poses Serious Risks, Should Not Be Excluded from the EU’s AI Act,” policy report, AI Now Institute, April 13, 2023, https://ainowinstitute.org/publication/gpai-is-high-risk-should-not-be-excluded-from-eu-ai-actBack
  13. See Margaret Mitchell et al., “Model Cards for Model Reporting,” FACCT, January 29, 2019, https://doi.org/10.1145/3287560.3287596; Jessica Ji, “What Does AI Red-Teaming Actually Mean?” Center for Security and Emerging Technology (CSET), October 24, 2023, ​​https://cset.georgetown.edu/article/what-does-ai-red-teaming-actually-mean; and Heidy Khlaaf and Sarah Myers West, “Safety Co-Option and Compromised National Security: The Self-Fulfilling Prophecy of Weakened AI Risk Thresholds,” April 21, 2025, https://arxiv.org/abs/2504.15088Back
  14. Lenhart and West, Lessons from the FDA for AIBack
  15. OpenAI, “Advancing Red Teaming With People and AI,” November 21, 2024, https://openai.com/index/advancing-red-teaming-with-people-and-ai; Microsoft AI Red Team, Lessons from Red Teaming 100 Generative AI Products, Microsoft, 2024, https://ashy-coast-00aeb501e.6.azurestaticapps.net/MS_AIRT_Lessons_eBook.pdf; Rebecca Pifer, “CHAI Launches Registry for Health AI Model Cards,” Healthcare Dive, February 28, 2025, https://www.healthcaredive.com/news/coalition-health-ai-model-card-registry/741037Back
  16. Khlaaf and West, “Safety Co-Option and Compromised National Security.” Back
  17. “Fmr. Google CEO Says No One in Government Can Get AI Regulation ‘Right’,” NBC News, May 15, 2023, https://www.nbcnews.com/meet-the-press/video/fmr-google-ceo-says-no-one-in-government-can-get-ai-regulation-right-174442053869Back
  18. White House, “FACT SHEET: Biden-Harris Administration Secures Voluntary Commitments from Eight Additional Artificial Intelligence Companies to Manage the Risks Posed by AI,” September 12, 2023, https://bidenwhitehouse.archives.gov/briefing-room/statements-releases/2023/09/12/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-eight-additional-artificial-intelligence-companies-to-manage-the-risks-posed-by-aiBack
  19. Melissa Heikkilä, “AI Companies Promised to Self-Regulate One Year Ago. What’s Changed?” Technology Review, July 22, 2024, https://www.technologyreview.com/2024/07/22/1095193/ai-companies-promised-the-white-house-to-self-regulate-one-year-ago-whats-changedBack
  20. Maxwell Zeff, “OpenAI Ships GPT-4.1 Without a Safety Report,” TechCrunch, April 15, 2025, https://techcrunch.com/2025/04/15/openai-ships-gpt-4-1-without-a-safety-reportBack
  21. See Lauren Feiner, “The Technology Team at Financial Regulator CFPB Has Been gutted,” Verge, February 14, 2025, https://www.theverge.com/policy/612933/cfpb-tech-team-gutted-trump-doge-elon-musk; and Lauren Feiner and Alex Heath, “DOGE Has Arrived at the FTC,” Verge, April 4, 2025, https://www.theverge.com/news/643674/doge-members-spotted-ftc-elon-musk.Back
  22. Laura Weidinger et al., “Toward an Evaluation Science for Generative AI Systems,” arXiv, updated March 13, 2025, https://arxiv.org/abs/2503.05336Back
  23. evan Hutson and Ben Winters, “America’s Next ‘Stop Model!’: Model Deletion,” Georgia Law Technology Review, September 20, 2022. https://doi.org/10.2139/ssrn.4225003; Tiffany C. Li, “Algorithmic Destruction,” Southern Methodist University Law Review75, no. 479 (2022), https://doi.org/10.25172/smulr.75.3.2; Cristina Caffarra and Robin Berjon, “‘Google is a Monopolist’—Wrong and Right Ways to Think About Remedies,” Tech Policy Press, August 9, 2024, https://www.techpolicy.press/google-is-a-monopolist-wrong-and-right-ways-to-think-about-remediesBack
  24. United States v. Amazon.com, No. 2:23-cv-00811-TL (W.D. Wash. July 21, 2023); See also Rohit Chopra, “Prepared Remarks of CFPB Director Rohit Chopra at the Federal Reserve Bank of Philadelphia on the Personal Financial Data Rights Rule,” Consumer Financial Protection Bureau, October 22, 2024, https://www.consumerfinance.gov/about-us/newsroom/prepared-remarks-of-cfpb-director-rohit-chopra-at-the-federal-reserve-bank-of-philadelphia-on-the-personal-financial-data-rights-ruleBack
  25. Plaintiffs’ Initial Proposed Final Judgment, United States v. Google, No. 1:20-cv-03010-APM, (D.D.C August 5, 2024) and Colorado v. Google, Case No. 20-cv-3715-APM, (D.D.C. August 5, 2024). Back
  26. US General Services Administration, “Frequently Asked Questions: Suspension & Debarment,” accessed May 5, 2025, https://www.gsa.gov/policy-regulations/policy/acquisition-policy/office-of-acquisition-policy/gsa-acq-policy-integrity-workforce/suspension-debarment-and-agency-protests/suspension-debarment-faqBack
  27. Federal Trade Commission, Partnerships Between Cloud Service Providers and AI Developers, staff report, January 2025, https://www.ftc.gov/system/files/ftc_gov/pdf/p246201_aipartnerships6breport_redacted_0.pdf; European Commission, “Commission Launches Call for Contributions on Competition in Virtual Worlds and Generative AI,” press release, January 8, 2024, https://ec.europa.eu/commission/presscorner/detail/en/ip_24_85; Competition and Markets Authority, “Microsoft / OpenAI Partnership Merger Inquiry,” Gov.UK, April 15, 2025, https://www.gov.uk/cma-cases/microsoft-slash-openai-partnership-merger-inquiryBack
  28. Japan Fair Trade Commission, “Report Regarding Cloud Services,” press release, June 28, 2022, https://www.jftc.go.jp/en/pressreleases/yearly-2022/June/220628.html; Authority for Consumers and Markets, “Market Study into Cloud Services,” May 9, 2022, https://www.acm.nl/en/publications/market-study-cloud-services; Competition and Markets Authority, Cloud Services Market Investigation, January 28, 2025, https://assets.publishing.service.gov.uk/media/67989251419bdbc8514fdee4/summary_of_provisional_decision.pdf; Nick Jones, “Cloud Computing FRI: What We Heard and Learned,” FTC(blog), November 16, 2023, https://www.ftc.gov/policy/advocacy-research/tech-at-ftc/2023/11/cloud-computing-rfi-what-we-heard-learnedBack
  29. Competition and Markets Authority, AI Foundation Models Update Paper, April 11, 2024, https://assets.publishing.service.gov.uk/media/661941a6c1d297c6ad1dfeed/Update_Paper__1_.pdf; Office of Technology, “Tick, Tick, Tick. Office of Technology’s Summit on AI,” FTC, January 18, 2024, https://www.ftc.gov/policy/advocacy-research/tech-at-ftc/2024/01/tick-tick-tick-office-technologys-summit-aiBack
  30. Federal Trade Commission, “FTC, DOJ, and International Enforcers Issue Joint Statement on AI Competition Issues,” press release, July 23, 2024, https://www.ftc.gov/news-events/news/press-releases/2024/07/ftc-doj-international-enforcers-issue-joint-statement-ai-competition-issuesBack
  31. Laya Neelakandan, “Meta Resorted to ‘Buy-or-Bury Scheme’ With Instagram and WhatsApp Deals, Former FTC Chair Lina Khan Says,” CNBC, April 14, 2025, https://www.cnbc.com/2025/04/14/former-ftc-chair-khan-meta-acquisitions-instagram-whatsapp.htmlBack
  32. Michael Liedtke, “Google’s Digital Ad Network Declared an Illegal Monopoly, Joining Its Search Engine in Penalty Box,” Associated Press, April 17, 2025, https://apnews.com/article/google-illegal-monopoly-advertising-search-a1e4446c4870903ed05c03a2a03b581eBack
  33. Competition and Markets Authority, AI Foundation Models Technical Update Report, April 16, 2024, https://assets.publishing.service.gov.uk/media/661e5a4c7469198185bd3d62/AI_Foundation_Models_technical_update_report.pdfBack
  34. States might be ideal testing grounds here, especially as many of these moves might require legislative changes. A recent report by the Institute for Local Self Reliance identifies state antitrust laws as being ripe for enforcement and legislative reform—pointing to enforcement victories in Washington, Colorado, Arizona, and New York, among other states——as well as successful attempts at passing targeted legislative reforms giving these enforcers better tools to grapple with anticompetitive conduct. See Ron Knox, The State(s) of Antitrust: How States Can Strengthen Monopoly Laws and Get Enforcement Back on Track, Institute for Local Self-Reliance, April 2025, https://ilsr.org/wp-content/uploads/2025/03/ILSR-StatesofAntitrust.pdf; and Knox, “Mapping Our State Antitrust Laws,” Institute for Local Self-Reliance, April 1, 2025, https://ilsr.org/articles/state-antitrust-law-database-and-mapBack
  35. See Alli Finn, The Costs of Data Centers to Our Communities—and How to Fight Back, Kairos, 2025, 8–10, https://www.kairosfellows.org/fightdatacenters; More Perfect Union, “I Live 400 Yards From Mark Zuckerberg’s Massive Data Center,” YouTube video, March 27, 2025, https://www.youtube.com/watch?v=DGjj7wDYaiI&ab_channel=MorePerfectUnionBack
  36. Adam Mahoney, “America’s Digital Demand Threatens Black Communities with More Pollution,” Capital B, February 25, 2025, https://capitalbnews.org/ai-data-centers-south-carolina-black-communities; and Dwaign Tyndal, “The Dark Side of AI: Climate Chaos, Pollution, and Injustice,” CommonWealth Beacon, February 3, 2025, https://commonwealthbeacon.org/opinion/the-dark-side-of-ai-climate-chaos-pollution-and-injusticeBack
  37. Eliza Martin and Ari Peskoe, Extracting Profits from the Public: How Utility Ratepayers are Paying for Big Tech’s Power, Harvard Electricity Law Initiative, March 5, 2025, https://eelp.law.harvard.edu/wp-content/uploads/2025/03/Harvard-ELI-Extracting-Profits-from-the-Public.pdfBack
  38. Dave Williams, “Georgia Senate Committee Passes Bill to Protect Residents From Data Center Costs,” Current, February 25, 2025, https://thecurrentga.org/2025/02/25/georgia-senate-committee-passes-bill-to-protect-residents-from-data-center-costs; Josh Janey, “Dominion Energy Proposes Hefty Rate Hikes,” Virginia Business, April 1, 2025, https://virginiabusiness.com/dominion-energy-proposes-hefty-rate-hikes; and Citizens Action Coalition, “Duke Energy Rate Hike (2024), accessed May 5, 2025, https://www.citact.org/duke-rate-hike-2024Back
  39. See Kasia Tarczynska and Greg LeRoy, Cloudy With a Loss of Spending Control: How Data Centers Are Endangering State Budgets, Good Jobs First, April 2025, https://goodjobsfirst.org/cloudy-with-a-loss-of-spending-control-how-data-centers-are-endangering-state-budgets; Good Jobs First, “Subsidy Tracker,” accessed May 18, 2025, https://subsidytracker.goodjobsfirst.org; and Finn, The Costs of Data Centers to Our CommunitiesBack
  40. Eric Bonds and Viktor Newby, “Data Centers, Non-Disclosure Agreements and Democracy,” Virginia Mercury, April 30, 2025, https://virginiamercury.com/2025/04/30/data-centers-non-disclosure-agreements-and-democracyBack
  41. See Issie Lapowsky, “As Data Centers Push Into States, Lawmakers Are Pushing Right Back,” Tech Policy Press, March 24, 2025, https://www.techpolicy.press/as-data-centers-push-into-states-lawmakers-are-pushing-right-back; and Martin and Peskoe, Extracting Profits from the PublicBack
  42. Zachary Hansen, “$17B Data Center Proposal in Metro Atlanta is Latest to Prompt Moratorium,” Atlanta Journal-Constitution, May 8, 2025, https://www.ajc.com/news/business/coweta-county-issues-moratorium-to-pause-data-center-projects/2J464ISZIVB4VMFSBXZXNVHZXEBack
  43. Matthew Gooding, “Plan for Gas-Powered Data Center Campus in Pittsylvania County, Virginia, Withdrawn Again,” Data Center Dynamics, April 15, 2025, https://www.datacenterdynamics.com/en/news/plan-for-gas-powered-data-center-campus-in-pittsylvania-county-virginia-withdrawn-againBack
  44. For an example of this demand, see Citizens Action Coalition in Indiana, “CAC Calls for Data Center Moratorium,” press release, October 15, 2024, https://www.citact.org/news/cac-calls-data-center-moratorium. For a comprehensive list of groups strategizing around slowing and stopping data center development, see Finn, The Costs of Data Centers to Our Communities, 24. Back
  45. For an example of this policy implementation, see the Amsterdam Metropolitan Government, “City of Amsterdam Puts Halt to New Data Center Construction,” Hosting Journalist, December 21, 2023, https://hostingjournalist.com/news/city-of-amsterdam-puts-halt-to-new-data-center-constructionBack
  46. For an example of this demand, see Beyond Fossil Fuels, which is calling for no new data centers without 24/7 renewable energy. Beyond Fossil Fuels, System Overload: How New Data Centres COuld Throw Europe’s Energy Transition Off Course (2025), https://beyondfossilfuels.org/wp-content/uploads/2025/02/SystemOverload_Report.pdfBack
  47. For organizations advocating on these demands, see Zach Schiller, “Indefensible Tax Breaks for Data Centers Will Cost Ohio,” Policy Matters Ohio, January 7, 2025, https://policymattersohio.org/research/indefensible-tax-breaks-for-data-centers-will-cost-ohio; and Tarczynska and LeRoy, Cloudy With a Loss of Spending ControlBack
  48. For examples of this demand, see Kaisa Tarczynska, Money Lost to the Cloud: How Data Centers Benefit From State and Local Government Subsidies, Good Jobs First, October 2016, https://goodjobsfirst.org/wp-content/uploads/docs/pdf/datacenters.pdf; and Tarczynska and LeRoy, Cloudy With a Loss of Spending ControlBack
  49. For a relevant proposed bill, see: H.B. 2578, Reg. Sess. (Va. 2025). For a slightly different proposed bill, see: S.B. 1196, Reg. Sess. (Va. 2025) (restricting data centers from gaining state sales tax exemption if they use onsite diesel generation). Back
  50. For a proposed bill, see: H.B. 2035, Reg. Sess. (Va. 2025); Markus Schmidt, “As Data Center Boom Continues, Va. Legislators Broach New Regulations,” Virginia Mercury, January 14, 2025, https://virginiamercury.com/2025/01/14/as-data-center-boom-continues-va-legislators-broach-new-regulationsBack
  51. For a legislative example currently pending veto override, see: H.B. 1601, Reg. Sess. (Va 2025) (requiring a site assessment to examine the sound profile of the energy facility and allowing—but not requiring—site assessments for the effect of the facility on other factors). Back
  52. Vasili Varlamos, “Oregon House Passes Bill Making Large Data Centers Pay for Power Grids,” KATU, April 22, 2025, https://katu.com/news/politics/oregon-house-passes-bill-making-large-data-centers-pay-for-power-grid-costs-electricity-money-consumers-cost-bill-politicsBack
  53. For a relevant proposed bill, see: S. 6394, 2025-2026 Leg. Sess. (N.Y. 2025). Back
  54. Leslie B. Muñiz, “Ratepayer Advocates Hail ‘Landmark’ Settlement With Data Centers, Utility Company,” Indiana Capital Chronicle, November 26, 2024, https://indianacapitalchronicle.com/2024/11/26/ratepayer-advocates-hail-landmark-settlement-with-data-centers-utility-company; Varlamos, “Oregon Houses Passes Bill.” Back

 


As autoras:

Kate Brennan é diretora associada do AI Now Institute. Tem um J. D. da Faculdade de direito de Yale e um duplo B. A. da Universidade Brown em cultura moderna e Media e Estudos de género e sexualidade. Como Diretora Associada do AI Now, Kate, lidera programas de política e pesquisa para moldar a indústria de IA no interesse público. Tem uma década de experiência na indústria de tecnologia para a AI Now, trabalhando em várias funções tanto no marketing de produtos quanto na política. Antes de ingressar na AI Now, Kate ocupou vários cargos na indústria de tecnologia. Como comerciante de produtos na Jigsaw do Google, Kate supervisionou lançamentos de produtos e iniciativas de pesquisa que enfrentavam desinformação, censura e assédio online. Anteriormente, Kate construiu e gerenciou um programa nacional para apoiar as mulheres na indústria de jogos, lançando jogos por criadores de jogos sub-representados e comissionando pesquisas de ponta sobre a dinâmica de gênero na indústria de jogos. Ela começou sua carreira administrando marketing digital para organizações sem fins lucrativos e sindicatos politicamente progressistas. Na Faculdade de direito, Kate atuou como editora-chefe do Yale Journal of Law and Feminism e foi membro da Technology Accountability Clinic, um projeto da Clínica de liberdade de mídia e acesso à informação da Yale Law School que enfrenta o poder excessivo na indústria de tecnologia. Como membro da clínica, trabalhou em questões como a vigilância biométrica nas prisões e o acesso à informação sobre o aborto online. Como estagiária jurídica do Neighborhood Legal Services of Los Angeles County, representou trabalhadores de baixa renda em Los Angeles em audiências administrativas para recuperar benefícios e aconselhou trabalhadores sobre roubo salarial, desemprego e reivindicações de retaliação.

 Amba Kak,é co-diretora executiva do AI Now Institute. Formada como advogada, é licenciada em BA LLB (Hons) pela Universidade Nacional de Ciências Jurídicas da Índia e é ex-beneficiária da Google Policy Fellowship e da Mozilla Policy Fellowship. Ela tem um Mestrado em Direito (BCL) e um Mestrado em Ciências Sociais da Internet na Universidade de Oxford, que frequentou como Rhodes Scholar. passou os últimos quinze anos projetando e defendendo políticas tecnológicas de interesse público, que vão desde a neutralidade da rede até à privacidade e à responsabilidade algorítmica, em todo o governo, indústria e sociedade civil – e em muitas partes do mundo. completou recentemente seu mandato como Consultora Sênior em IA na Federal Trade Commission. Antes da AI Now, ela foi Consultora de políticas globais na Mozilla; e também atuou anteriormente como consultora Jurídica do regulador de telecomunicações da Índia (TRAI) sobre regras de neutralidade da rede. Aconselha regularmente membros do Congresso, da Casa Branca, da Comissão Europeia, do governo do Reino Unido, da cidade de Nova Iorque, dos EUA e de outras agências reguladoras em todo o mundo; é amplamente publicada em locais académicos e populares e seu trabalho foi apresentado no The Atlantic, The Financial Times, MIT Tech Review, Nature, The Washington Post e The Wall Street Journal, entre outros. Amba atualmente faz parte do Conselho de Administração da Signal Foundation e do Comitê de IA do Conselho da Mozilla Foundation, e é afiliada como pesquisadora sênior visitante no Instituto de segurança cibernética e Privacidade da Northeastern University.

Dr. Sarah Myers West, é doutora e mestra pela Universidade do Sul da Califórnia. É co-diretora executiva do AI Now Institute. Passou os últimos quinze anos a interrogar o papel das empresas de tecnologia e a sua emergência como poderosos actores políticos nas linhas de frente da governação internacional. O seu próximo livro, Tracing Code (University of California Press) desenha em anos de histórico e pesquisa em ciências sociais para analisar as origens de dados do capitalismo comercial e de vigilância. A pesquisa premiada de Sarah é apresentada em importantes revistas acadêmicas e plataformas de mídia proeminentes, incluindo The Washington Post, The Atlantic, The Financial Times, Nature e The Wall Street Journal. Assessora regularmente membros do Congresso, da casa branca, da Comissão Europeia, do governo do Reino Unido, do Consumer Financial Protection Board e de outras agências reguladoras dos EUA e internacionais e da cidade de Nova Iorque, e testemunhou perante o Congresso sobre questões como inteligência artificial, concorrência e privacidade de dados. Concluiu recentemente um mandato como consultora Sénior em IA na Federal Trade Commission, onde aconselhou a Agência sobre o papel da inteligência artificial na formação da economia, trabalhando em questões de concorrência e Defesa do consumidor. Atualmente, ela atua no grupo de trabalho AI Futures da OCDE.

Exit mobile version