Nota de editor:
Devido à grande extensão deste texto – Poder Artificial: Relatório sobre o Panorama de 2025 – o mesmo é publicado em 5 partes – A (Sumário Executivo), B (capítulo 1, C (capítulo 2), D (capítulo 3) e E (Capítulo 4).
Hoje publicamos a terceira parte do Capítulo 4, que é editado em 5 partes..
Seleção e tradução de Júlio Marques Mota
15 min de leitura
Texto 41 E – Poder Artificial: Relatório sobre o Panorama de 2025. Capítulo 4 – Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso (3/5)
Por Kate Brennan, Amba Kak, e Dr. Sarah Myers West
Publicado por
Índice
Sumário Executivo
Capítulo 1: Os Falsos Deuses da IA
Capítulo 2: Sai cara, ganho eu, sai coroa perde você. Como as empresas de tecnologia manipularam o mercado de IA
Capítulo 3: Consultando o registo. A IA falha sistematicamente ao público
Capítulo 4: Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso.
____
Capítulo 4: Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso (3/5)
(continuação)
Promulgar uma agenda política de “confiança zero” para a IA
Em 2023, juntamente com o Electronic Privacy Information Center (EPIC) e a Accountable Tech [58], recomendámos três pilares para orientar a ação política no mercado da IA:
- O tempo é essencial – comece por aplicar vigorosamente as leis existentes.
- São necessárias regras arrojadas, facilmente administráveis e claras.
- Em cada fase do ciclo de vida do sistema de IA, o ónus deve recair sobre as empresas—incluindo os utilizadores finais—para provar que os seus sistemas funcionam como alegado e não são prejudiciais.
“Dadas as apostas monumentais, a confiança cega na benevolência [das empresas de tecnologia] não é uma opção”, argumentámos então. Esse aviso soa ainda mais forte hoje.
1 . Construir uma bateria de regras claras que restrinjam os usos mais prejudiciais da IA em grande escala ou limitem a capacidade das empresas de recolher e usar dados de maneiras específicas
Regras arrojadas e claras que restringem aplicações de IA prejudiciais ou tipos de recolha de dados para IA enviam uma mensagem clara de que o público determina se, em que contextos e como os sistemas de IA serão utilizados. Comparado com estruturas que dependem de processo baseado em garantias (como AI de auditoria ou regimes de avaliação de risco) que, muitas vezes, na prática, tendia a fortalecer mais os líderes da indústria e assentam em robusta capacidade reguladora para a aplicação eficaz da lei [59], estas regras claras têm a vantagem de ser facilmente administráveis e visarem o tipo de danos que não podem ser prevenidas ou corrigidas somente por meio de salvaguardas. Há uma lista crescente de metas prontas para esses tipos de proibições claras. Por exemplo: [60]
- A IA não pode ser usada para sistemas de deteção de emoções
- A IA não pode ser usada para “pontuação social”, ou seja, para classificar ou ordenar pessoas com base no seu comportamento social ou características previstas
- Dados de vigilância não podem ser usados para definir preços ou salários
- A IA não pode ser usada para negar pedidos de seguro de saúde
- Dados de vigilância sobre trabalhadores não podem ser vendidos a fornecedores externalizados
- A IA não pode ser usada para substituir professores de escolas públicas
- A IA não pode ser usada para gerar imagens falsas sexualmente explícitas ou imagens falsas relacionadas com eleições
2. Regular ao longo de todo o ciclo de vida da IA. Isto significa não haver isenções amplas para fornecedores de modelos de base, desenvolvedores de aplicações ou usuários finais.
A IA deve ser regulamentada ao longo de todo o ciclo de vida do desenvolvimento, desde a forma como os dados são recolhidos durante o processo de treino, passando pelo ajustamento fino e desenvolvimento de aplicações, até à sua implantação. Os atores apropriados devem ser responsabilizados pela tomada de decisões em cada uma dessas etapas e obrigados a fornecer transparência e divulgações que permitam que os atores mais à frente na cadeia cumpram as suas próprias obrigações [61].
Figura 1: Origem do risco e proliferação do risco na cadeia de abastecimento dos modelos de base
Os regimes de transparência são a base para uma regulação eficaz da tecnologia — necessários, mas nunca suficientes [62] — e, ainda assim, nos últimos anos vimos uma resistência intensa e em grande parte bem-sucedida da indústria de IA em relação a exigências básicas de divulgação. Isso ocorre tanto na fase de modelos de uso geral, em que a indústria tem usado direitos autorais e segredos comerciais como escudo para evitar a divulgação dos dados de treino, quanto na fase final, em que esses sistemas são implantados [63].
Exigências de transparência e divulgação proativas (ou seja, em que o consumidor não precisa solicitar essas informações individualmente) [64] têm gerado forte reação negativa da indústria. O exemplo mais recente foi a alegação de que as disposições de divulgação contidas na lei de IA do Colorado, aprovada em 2024, impunham um “ónus indevido” sobre as empresas [65]. Na prática, isso significa que, em muitos contextos em que a IA está a ser utilizada, as pessoas afetadas por um sistema de IA jamais serão informadas sobre o papel que este sistema desempenha em decisões que podem ter consequências significativas nas suas vidas — muito menos terão a possibilidade de contestar esse sistema.
A indústria também tem exercido um esforço de lóbi coordenado para colocar toda a responsabilidade nos desenvolvedores finais, ao mesmo tempo em que isenta os desenvolvedores dos chamados sistemas de “propósito geral” [66]. Em 2021, juntamente com mais de cinquenta especialistas globais em IA, o AI Now publicou uma carta instando a Comissão Europeia a rejeitar essa abordagem no contexto da Lei de IA da UE [67]. É importante que a IA seja avaliada em todas as etapas do seu ciclo de vida. Certos aspetos dos modelos de IA serão mais bem avaliados na fase de aplicação: é nesse estágio que os testes e validações pré-implantação fornecem mais informações sobre a eficácia e a segurança de utilizações específicas da IA [68]. No entanto, os desenvolvedores de modelos fundamentais e aqueles envolvidos na construção de conjuntos de dados não devem ser isentos de escrutínio — especialmente porque, em geral, são os atores mais poderosos e com mais recursos do mercado [69], e têm demonstrado uma tendência crescente para a opacidade, oferecendo cada vez menos detalhes sobre como treinam os seus sistemas [70].A introdução de requisitos mais rigorosos de responsabilização na camada dos modelos fundamentais motivaria uma reestruturação das práticas de desenvolvimento e, potencialmente, do próprio modelo operacional das empresas de IA. Por si só, esses mecanismos criariam maior transparência e responsabilidade internas nas empresas de IA, o que traria benefícios sociais e auxiliaria o trabalho dos órgãos de fiscalização quando precisassem de investigar essas empresas. Estruturas regulatórias que colocam a responsabilidade exclusivamente na fase de aplicação ignoram o facto de que esses desenvolvedores, assim como compradores e implementadores, podem não ter as informações necessárias para garantir o cumprimento da legislação existente, na ausência de intervenções nas etapas anteriores do processo [71]. Além disso, os utilizadores finais dos sistemas de IA, em muitos casos, não são consumidores individuais, mas empresas ou órgãos públicos, que também precisam ser examinados quanto à forma como a utilização desses sistemas afeta consumidores, trabalhadores e membros da população em geral.
- Exigir que todos os desenvolvedores de modelos de base publiquem informações detalhadas nos seus sites sobre os dados utilizados para treinarem os seus sistemas.
- Em cada etapa da cadeia de abastecimento, exigir que os desenvolvedores documentem e disponibilizem as suas técnicas de mitigação de riscos, assim como exigir a divulgação de quaisquer áreas de risco previstas que eles não estejam em posição de mitigar, de forma que isso seja transparente para os demais atores ao longo da cadeia de abastecimento.
- Instituir estruturas de utilização da IA que protejam aqueles sobre os quais ela é aplicada e introduzam atrito saudável e tomada de decisão democrática na implantação da IA, por meio de medidas como o “direito de substituir” decisões e a exigência de que conselhos compostos por pessoas afetadas pelo sistema tenham voz na decisão sobre o uso do sistema.
- Em contextos críticos para a segurança (por exemplo, alocação de rede de energia, uso militar, instalações nucleares), proibir o uso de modelos de base até que eles tenham sido comprovadamente aprovados em testes tradicionais de engenharia de segurança de sistemas, e exigir que os sistemas sejam projetados para ser seguros desde a conceção.
- Exigir testes e validação de aplicações de IA antes do seu lançamento, examinando a segurança e a eficácia de utilizações específicas.
3. A indústria de IA não deveria avaliar o seu próprio trabalho: a supervisão do desenvolvimento de modelos de IA deve ser independente.
A indústria tende a depender excessivamente de “red-teaming” [n.t. processo para testar a efectividade da ciberseguridade em que piratas informáticos éticos realizam um ciberataque simulado e não destrutivo], “model cards” [n.t. são documentos breves que acompanham os modelos treinados de aprendizagem automática (ML) que proporcionam uma avaliação comparativa numa variedade de condições, como em diferentes grupos culturais, demográficos ou fenotípicos e grupos interseccionais que são relevantes para os domínios de aplicação previstos] e abordagens similares para a avaliação de sistemas, nas quais as próprias empresas são as principais responsáveis por determinar se os seus sistemas funcionam conforme o esperado e para mitigar danos [72]. Essa abordagem apresenta muitos problemas; ela ignora, por exemplo, os conflitos de interesse significativos envolvidos e falha no emprego de metodologias robustas [73].
As empresas afirmaram que possuem a expertise técnica única necessária para avaliar os seus próprios sistemas [74], a fim de executar o que é essencialmente uma abordagem totalmente autorregulatória de governança, fazendo um conjunto de “compromissos voluntários” com a administração Biden em 2023 [75]. Quando questionadas um ano depois sobre o progresso desses compromissos, a resposta foi pusilânime: embora as empresas tenham relatado ações como a realização de testes internos para mitigar riscos de cibersegurança, não foram capazes de validar se alguma dessas ações realmente reduziu o risco subjacente; e, ao focarem em áreas como armas biológicas, ignoraram o universo mais amplo de danos, como exploração de consumidores e trabalhadores, privacidade e direitos autorais [76]. E a OpenAI recuou até mesmo do cumprimento das obrigações básicas desses compromissos no lançamento do GPT-4.1, optando por não divulgar um “model card” sob o argumento de que o modelo “não está na fronteira” [77].
Isso ilustra um ponto que, a esta altura, já deveria estar abundantemente claro: as empresas não podem ser responsáveis pela sua própria autoavaliação e, na ausência de uma base de lei aplicável, têm poucos incentivos para cumprir quaisquer promessas que façam:
- Fornecer às agências de fiscalização os recursos e o pessoal interno necessários para conduzir a supervisão ao longo de todo o ciclo de vida da IA, e para responsabilizar as empresas por quaisquer violações da lei. Qualquer agência de fiscalização da aplicação da lei que faça cumprir a lei contra empresas que utilizam IA deve ter a capacidade de detetar, investigar e remediar violações da lei utilizando essas tecnologias. Em janeiro de 2025, apenas a Federal Trade Commission (FTC) e o Consumer Financial Protection Bureau (CFPB) são conhecidos por possuir essa capacidade, e as suas equipas foram significativamente reduzidas [78].
- Exigir que empresas de IA se submetam a supervisão e testes independentes de terceiros ao longo de todo o ciclo de vida da IA, e que disponibilizem as informações necessárias para que órgãos de auditoria possam avaliar os seus modelos ou produtos [79].
4. Criar medidas que atinjam a raiz do poder da IA: os dados.
Não precisamos de nos limitar ao conjunto padrão de ferramentas de políticas de IA: uma ampla gama de medidas criativas poderia ser aplicada pelas agências de fiscalização para atingir a raiz do poder das empresas de IA. Isso inclui medidas tais como:
- Exigir que empresas excluam dados obtidos de forma ilícita que tenham sido usados para treinar modelos de IA, bem como quaisquer produtos de trabalho relacionados gerados com esses dados. Remédios de exclusão algorítmica exigem que empresas que se beneficiaram de dados obtidos de forma ilícita para treinar modelos de IA não apenas excluam os dados, mas também excluam os modelos treinados com esses dados [80]. Este remédio foi desenvolvido durante a primeira administração Trump e já foi aplicado em diversos casos, nomeadamente os da FTC envolvendo Everalbum e Kurbo.
- Restringir o uso secundário de dados coletados para um propósito e utilizados em outro. As empresas de IA frequentemente retêm dados coletados sob um determinado pretexto de forma indefinida para treinar modelos subsequentes. Restringir tais usos secundários protegeria o regime de consentimento subjacente — garantindo que, quando os usuários consentem com a coleta dos seus dados para um uso específico, isso não seja interpretado como autorização ampla para outros usos — e também limitaria a proliferação contínua de dados disponíveis para treinamento de modelos. O caso da FTC contra a Amazon Alexa é um exemplo útil, no qual o tribunal decidiu que a Amazon violou a COPPA ao reter impressões de voz de crianças com o objetivo de melhorar seus modelos de IA [81].
- Limitar parcerias para aumento de dimensão com empresas emergentes de IA. Como exploramos no Capítulo 2, uma forma decisiva de as grandes empresas de tecnologia conseguirem vantagens no mercado de IA é obtendo controle sobre empresas de IA concorrentes por meio de termos de parceria, investimentos ou aquisições. Proibir que as grandes empresas invistam ou façam parcerias com empresas de IA concorrentes é uma medida estrutural ousada que ajudaria a desmantelar o domínio das grandes empresas sobre as muitas pequenas empresas em IA. Essa solução foi inicialmente proposta pelo Departamento de Justiça no seu caso contra o monopólio do motor de busca do Google [82]. Embora tenha sido posteriormente revista, a inclusão inicial dessa medida reconhece o tipo de ação ousada necessária para moldar um mercado de IA verdadeiramente competitivo.
- Proibir reincidentes de vender IA ao governo. Existem proteções para garantir que aqueles que vendem serviços e produtos ao governo federal não estejam envolvidos em fraude, desperdício, abuso ou violações anti truste. Para criar incentivos para que as empresas sigam a lei, empresas de IA e vendedores elegíveis deveriam poder ser inabilitadas de poderem obter contratos federais [83].
5. Precisamos de um kit de ferramentas para a concorrência agressiva para desarmar o mercado de IA e perceber como é que a IA molda o poder de mercado entre os setores.
No meio das preocupações de que o domínio das grandes tecnológicas em IA se torne mais proeminente num mercado frenético, os órgãos de defesa da concorrência em todo o mundo têm se mostrado longe de ficarem silenciosos. Nos últimos anos, vimos várias investigações iniciais sobre os chamados acordos de parceria entre empresas emergentes de IA e grandes fornecedores de infraestrutura tecnológica [84]; diversos estudos de mercado sobre concentração no setor de nuvem, do Japão à Holanda, do Reino Unido aos EUA [85]; e relatórios detalhados destacando possíveis pontos de estrangulamento e riscos concorrenciais em toda a cadeia de abastecimento de IA [86]. O DOJ, FTC, CMA e a CE chegaram a emitir uma declaração conjunta sobre preocupações concorrenciais envolvendo IA, alertando que parcerias e investimentos poderiam ser usados para minar a concorrência [87]. Esse já é um afastamento promissor da postura passiva da última década em relação à indústria de tecnologia de consumo, que deixou os reguladores a lutarem para acompanhar e reparar os danos — desde aquisições pelo Facebook do WhatsApp e Instagram [88] até ao vasto monopólio de busca do Google. [89].
No entanto, apesar de muitos dos “sons corretos”, grande parte dessa atividade não se concretizou em ações de fiscalização efetivas ou mudanças legislativas, nem estabeleceu limites claros que proibissem práticas comerciais específicas anticompetitivas. Uma dinâmica familiar tem consistido em interpretações limitadas e restritivas dos padrões legais existentes para ação de fiscalização. Por exemplo, as condições tradicionais de análise de fusões não conseguem capturar meios mais indiretos de dependência e controle entre empresas emergentes de IA e os grandes fornecedores de nuvem. Ou considere o limiar estabelecido pelo Hart-Scott-Rodino Act dos EUA, que significava que aquisições menores por grandes empresas tecnológicas não estavam sujeitas a escrutínio, como Rockset (adquirida pela OpenAI), DeciAI (adquirida pela NVIDIA), OctoAI (também adquirida pela NVIDIA).
Em todas essas questões persiste uma limitação mais fundamental: as “viseiras artificiais” que impedem os reguladores de lidar plenamente com as múltiplas dimensões de poder e controle que as grandes empresas tecnológicas exercem através dos seus ecossistemas expansivos. Um relatório recente da Competition and Markets Authority (CMA) no Reino Unido publicou um diagrama (ver Fig. 2) mostrando a presença da Amazon, Apple, Google, Meta e Microsoft ao longo da cadeia de abastecimento de IA — esclarecendo quais as formas pelas quais a sua presença nesses mercados permite efeitos de rede, ciclos de feedback de dados e acesso incomparável a mercados monetizáveis para os seus produtos de IA. (exploramos isso no Capítulo 2: Cara ganho eu, Coroa perde você) [90].
Fig. 2: Como Amazon, Apple, Google, Meta e Microsoft permeiam a cadeia de abastecimento de IA.
Ainda assim, a ironia é que a CMA, entre outros órgãos equivalentes, falhou em agir de maneiras que poderiam interromper esse controle do ecossistema. O alcance da intervenção é limitado tanto por limites legais restritivos quanto pelo ambiente de lóbi empresarial em torno da IA, que enquadra qualquer intervenção de mercado não apenas como anti-inovação (veja Capítulo 1.4: Reformulando a Regulamentação), mas também como fundamentalmente prejudicial ao interesse nacional, dado o que está em jogo na chamada corrida armamentista de IA (veja Capítulo 1.3: Corrida Armamentista de IA 2.0).
Mantendo-nos na análise do exemplo do Reino Unido, a Microsoft anunciou um investimento massivo em capacidade de processamento na esteira de duas ações significativas de fiscalização que afetaram a empresa: a decisão da CMA de não bloquear a fusão Microsoft-Activision e a abertura de uma investigação pela CMA sobre preocupações de concorrência no mercado de nuvem. As empresas de IA usam o investimento como uma estratégia clara para se proteger do risco muito real de que a CMA tome medidas que possam ameaçar os lucros das empresas.
Olhando para o futuro, vemos uma oportunidade de reunir esforços em torno de um conjunto de intervenções direcionadas que poderiam enfrentar o controle das grandes empresas de tecnologia sobre o ecossistema tecnológico mais amplo e poderiam avançar significativamente na mudança das dinâmicas “viciadas” do mercado de IA (veja o Capítulo 2: Cara eu ganho, coroa você perde). Destacamos aqui algumas direções políticas-chave que identificam pontos de intervenção de elevado valor [91].
- Separação estrutural para evitar a integração vertical ao longo da cadeia de abastecimento de IA, com foco especial na vantagem em camadas de infraestrutura e modelos, incluindo o seguinte:
- Impedir que empresas de nuvem participem no mercado de modelos de base de IA.
- Exigir que as grandes empresas tecnológicas desinvistam nos seus negócios de computação em nuvem do restante da sua estrutura empresarial, operando como entidades totalmente independentes.
- Impedir que empresas de modelos de base de IA participem em outros mercados relacionados com a IA.
- Impedir que designers de chips invistam em empresas de desenvolvimento de IA.
- Aumentar o escrutínio sobre fusões, aquisições e parcerias envolvendo as grandes tecnológicas e fornecedores de infraestrutura em larga escala.
- Restringir ou realizar uma revisão prévia (ex ante) das parcerias entre grandes tecnológicas e empresas emergentes de IA, nomeadamente por meio de mecanismos não convencionais (por exemplo, acordos de crédito, transações estruturadas abaixo do limite de notificação do HSR, e aquisições do tipo “acqui-hire” [pela competência do seu pessoal, mais do que pelo que produz].
- Evitar a representação cruzada em conselhos de administração entre grandes tecnológicas e empresas emergentes de IA, para prevenir conflitos de interesse.
- Aplicar as novas diretrizes de fusões da FTC ao setor de IA, com atenção especial para aquisições que envolvam conjuntos de dados que possam representar um conflito de interesses.
- Estabelecer regras ex ante claras que impeçam os grandes provedores de tecnologia (“hyperscalers”) de praticarem autopreferência ou tratamento discriminatório.
-
- Provedores de nuvem não podem auto preferir-se nem oferecer condições ou tarifas mais vantajosas a clientes em situações semelhantes.
- Os provedores de nuvem não se podem aproveitar dos dados que obtêm dos clientes ao hospedar infraestruturas para desenvolver produtos que concorram com esses clientes.
- Os provedores de nuvem não podem penalizar clientes nos seus ecossistemas por desenvolverem produtos e serviços concorrentes.
- As empresas que desenvolvem modelos fundamentais não se podem auto preferenciar nem oferecer condições ou tarifas mais vantajosas a clientes em situações semelhantes.
- As empresas de modelos fundamentais devem garantir interoperabilidade entre diferentes provedores de infraestrutura em nuvem
- Particulares colaborarem em processos contra empresas de IA que violam leis anti truste
- Existem três pilares na aplicação das leis antitruste: as agências federais, as agências estaduais e, por fim, os trabalhadores, consumidores e empresas afetados. Esta última categoria oferece caminhos significativos para impulsionar a aplicação das leis antitruste.
6. Supervisão rigorosa para o desenvolvimento e a operação de novos centros de dados
À medida que a IA impulsiona o crescimento do desenvolvimento de centros de dados em todo o mundo e projeta procuras impressionantes por energia, os formuladores de políticas públicas precisam lidar com a incompatibilidade entre esse crescimento desenfreado e os nossos ambientes já limitados em recursos. As comunidades próximas aos centros de dados enfrentam realidades como poluição do ar, falta de água adequada e poluição sonora [92], com impactos desproporcionais sobre comunidades negras e morenas que estão na linha de frente [93].
No entanto, os centros de dados não afetam apenas aqueles que vivem mais próximos deles: para financiar os enormes investimentos necessários para construir a infraestrutura que alimenta os centros de dados de IA (como a produção de energia e linhas de transmissão), as empresas de serviços públicos de energia podem transferir esses custos para os consumidores comuns [94]. Nos Estados Unidos, as pessoas já estão a ver o aumento das tarifas de eletricidade [95] — e espera-se que isso só piore.
Enquanto isso, estados e municípios estão a distribuir milhares de milhões de dólares em subsídios fiscais para as empresas para estas desenvolverem os seus centros de dados, isentando-as do pagamento de impostos sobre vendas, uso e propriedade, ou oferecendo reduções nas suas taxas [96]. Isso ocorre diretamente à custa das comunidades, que perdem receitas fiscais destinadas a escolas locais, infraestrutura e outras necessidades comunitárias.
Apesar dos milhares de milhões de dólares em investimentos e subsídios governamentais, grande parte do atual processo de desenvolvimento de centros de dados ocorre de forma obscura [97]. Muitos centros de dados não fornecem nem mesmo informações básicas sobre o seu consumo de recursos, nomeadamente a utilização de energia e consumo de água. Isso impede que os estados planeiem adequadamente a oferta e a procura, ameaçando a estabilidade da rede elétrica. Além disso, muitos acordos entre centros de dados e companhias de serviços públicos são aprovados por órgãos reguladores em processos que geralmente não sofrem contestação pública, o que impede que os consumidores compreendam os impactos que esses grandes clientes podem ter sobre as suas tarifas [98].
No entanto, esse caminho atual de crescimento desenfreado de centros de dados não é inevitável. Cada vez mais comunidades estão a perceber que o desenvolvimento económico bem-sucedido não pode depender de danos ambientais, à saúde e à economia: recentemente, dois condados em Atlanta suspenderam temporariamente todos os novos projetos de centros de dados para garantir adequadamente que o desenvolvimento proteja os interesses da comunidade [99]; e um conselho de supervisores de um condado na Virgínia rejeitou um plano para uma fábrica a gás e um campus de centros de dados devido a preocupações sobre o aumento da poluição e o impacto ambiental negativo que causaria na área circundante [100]. O desenvolvedor está agora a considerar construir moradias em seu lugar.
Os formuladores de políticas devem tomar medidas rápidas e decisivas para garantir que o desenvolvimento de centros de dados apoie, em vez de prejudicar, as necessidades das comunidades locais e os recursos disponíveis no nosso planeta, tais como:
- Parar ou desacelerar o desenvolvimento de novos centros de dados até que condições de proteção robustas sejam atendidas, incluindo mecanismos de transparência, padrões ambientais, proteção ao consumidor e a reforma do zoneamento.
- Interromper o desenvolvimento de novos grandes centros de dados até que diretrizes claras estejam estabelecidas para lidar com os riscos para os consumidores de energia e para as comunidades de forma mais geral [101].
- Rejeitar propostas de desenvolvimento de novos centros de dados que não respeitem padrões rigorosos de proteção ambiental, uso de recursos, empregos sustentáveis e impactos à saúde [102].
- Exigir que as novas procuras de energia dos centros de dados sejam satisfeitas com energia renovável nova e adicional na mesma rede de fornecimento [103], rejeitando propostas de expansão do uso de combustíveis fósseis e energia nuclear.
- Revogar ou limitar subsídios fiscais para empresas para garantir que os recursos públicos beneficiem diretamente as comunidades locais.
-
- Revogar isenções fiscais estaduais para centros de dados e acabar com a extensão indefinida de incentivos fiscais para investimentos futuros [104].
- Alternativamente, limitar os subsídios estaduais e locais para centros de dados por emprego permanente ou anual [105].
- Exigir que os operadores de centros de dados cumpram acordos de compra de energia renovável e invistam em medidas de eficiência energética para serem elegíveis a isenções de impostos sobre vendas e a taxas sobre a utilização uso [106]
- Aprovar legislações sensatas que garantam justiça, transparência e supervisão nas operações de centros de dados.
- Exigir que os centros de dados apresentem relatórios trimestrais sobre a utilização de água e energia a um órgão executivo estadual, com acesso disponível ao público [107].
- Estabelecer mecanismos de transparência relacionados com contratos e construções de centros de dados, através de avisos e audiências públicas.
- Exigir avaliações de impacto do local antes que os municípios aprovem novos centros de dados, para gerir os efeitos sobre níveis de ruído, residências, escolas, recursos hídricos, terras agrícolas, parques e florestas. [108]
- Exigir que os municípios divulguem o valor projetado em dólares de todos os subsídios oferecidos e relatem ao público os valores reais ao longo do tempo.
- Instituir limites de consumo de energia para centros de dados em áreas onde a procura projetada de energia desses centros imponha uma carga desproporcional à rede elétrica.
- Incluir regulamentações para proteger os consumidores comuns dos custos associados ao desenvolvimento de centros de dados.
-
- Investigar se os clientes que não são de centros de dados estão a subsidiar os custos de energia dos centros de dados e, em caso afirmativo, estabelecer regras para proibir essa prática e corrigir o desequilíbrio.
- Determinar que as comissões de serviços públicos criem uma nova categoria tarifária para centros de dados e outros clientes de grande procura [109].
- Exigir que as comissões de serviços públicos criem um plano de desconto comunitário para compensar o aumento dos custos de energia [110].
- Exigir que os clientes de grande procura (como centros de dados) firmem contratos de longo prazo e pagamentos mínimos contratuais, para garantir que cubram adequadamente os custos de investimento das concessionárias [111].
(continua)
Notas
- Accountable Tech et al., Zero Trust AI Governance, August 10, 2023, https://ainowinstitute.org/wp-content/uploads/2023/08/Zero-Trust-AI-Governance.pdf. Back
- AI Now Institute, “Algorithmic Accountability: Moving Beyond Audits,”in 2023 Landscape: Confronting Tech Power, AI Now Institute, https://ainowinstitute.org/publications/algorithmic-accountabilityBack
- A range of bills of this variety have appeared across state legislatures. See Public Citizen, “Tracker: State Legislation on Intimate Deepfakes,” last updated April 15, 2025, https://www.citizen.org/article/tracker-intimate-deepfakes-state-legislation; Public Citizen, “Tracker: State Legislation on Deepfakes in Elections,” last Updated April 17, 2025, https://www.citizen.org/article/tracker-legislation-on-deepfakes-in-elections; and California Education Code § 87359.2 (2024); H.B. 1709, 89th Leg. (Tex. 2025); H.B. 1709, 89th Leg. (Tex. 2025). Back
- Cybersecurity & Infrastructure Security Agency, “CISA and UK NCSC Unveil Joint Guidelines for Secure AI System Development,” November 26, 2023, https://www.cisa.gov/news-events/alerts/2023/11/26/cisa-and-uk-ncsc-unveil-joint-guidelines-secure-ai-system-development. Back
- Chloe Xiant, “OpenAI’s GPT-4 Is Closed Source and Shrouded in Secrecy,” Vice, March 16, 2023,https://www.vice.com/en/article/ak3w5a/openais-gpt-4-is-closed-source-and-shrouded-in-secrecy. Back
- Kyle Wiggers, “Many companies won’t say if they’ll comply with California’s AI training transparency law,” TechCrunch, October 4, 2024, https://techcrunch.com/2024/10/04/many-companies-wont-say-if-theyll-comply-with-californias-ai-training-transparency-law. Back
- Matt Scherer, “FAQ on Colorado’s Consumer Artificial Intelligence Act (SB 24-205),” Center for Democracy and Technology, December 17, 2024, https://cdt.org/insights/faq-on-colorados-consumer-artificial-intelligence-act-sb-24-205/#h-the-law-requires-companies-to-give-some-information-to-consumers-proactively-without-the-consumer-having-to-request-it-why-is-that-proactive-disclosure-necessary. Back
- Tamara Chuang, “Attempt to Tweak Colorado’s Controversial, First-in-the-Nation Artificial Intelligence Law is Killed,” Colorado Sun, May 5, 2025, https://coloradosun.com/2025/05/05/colorado-artificial-intelligence-law-killed. Back
- Matt Perault, “Regulate AI Use, Not AI Development,” Andreesen Horowitz, January 27, 2025, https://a16z.com/regulate-ai-use-not-ai-development; Jacob Helberg, “11 Elements of American AI Dominance,” Republic, July 26, 2024, https://therepublicjournal.com/journal/11-elements-of-american-ai-supremacy. Back
- AI Now Institute, “General Purpose AI Poses Serious Risks, Should Not Be Excluded From the EU’s AI Act,” policy brief, April 13, 2023, https://ainowinstitute.org/publications/gpai-is-high-risk-should-not-be-excluded-from-eu-ai-act. Back
- Anna Lenhart and Sarah Myers West, Lessons from the FDA for AI, AI Now Institute, August 1, 2024, https://ainowinstitute.org/publications/research/lessons-from-the-fda-for-ai. Back
- Amba Kak and Sarah Myers West, “General Purpose AI Poses Serious Risks, Should Not Be Excluded from the EU’s AI Act,” policy report, AI Now Institute, April 13, 2023, https://ainowinstitute.org/publication/gpai-is-high-risk-should-not-be-excluded-from-eu-ai-act. Back
- See Margaret Mitchell et al., “Model Cards for Model Reporting,” FACCT, January 29, 2019, https://doi.org/10.1145/3287560.3287596; Jessica Ji, “What Does AI Red-Teaming Actually Mean?” Center for Security and Emerging Technology (CSET), October 24, 2023, https://cset.georgetown.edu/article/what-does-ai-red-teaming-actually-mean; and Heidy Khlaaf and Sarah Myers West, “Safety Co-Option and Compromised National Security: The Self-Fulfilling Prophecy of Weakened AI Risk Thresholds,” April 21, 2025, https://arxiv.org/abs/2504.15088. Back
- Lenhart and West, Lessons from the FDA for AI. Back
- OpenAI, “Advancing Red Teaming With People and AI,” November 21, 2024, https://openai.com/index/advancing-red-teaming-with-people-and-ai; Microsoft AI Red Team, Lessons from Red Teaming 100 Generative AI Products, Microsoft, 2024, https://ashy-coast-00aeb501e.6.azurestaticapps.net/MS_AIRT_Lessons_eBook.pdf; Rebecca Pifer, “CHAI Launches Registry for Health AI Model Cards,” Healthcare Dive, February 28, 2025, https://www.healthcaredive.com/news/coalition-health-ai-model-card-registry/741037. Back
- Khlaaf and West, “Safety Co-Option and Compromised National Security.” Back
- “Fmr. Google CEO Says No One in Government Can Get AI Regulation ‘Right’,” NBC News, May 15, 2023, https://www.nbcnews.com/meet-the-press/video/fmr-google-ceo-says-no-one-in-government-can-get-ai-regulation-right-174442053869. Back
- White House, “FACT SHEET: Biden-Harris Administration Secures Voluntary Commitments from Eight Additional Artificial Intelligence Companies to Manage the Risks Posed by AI,” September 12, 2023, https://bidenwhitehouse.archives.gov/briefing-room/statements-releases/2023/09/12/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-eight-additional-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai. Back
- Melissa Heikkilä, “AI Companies Promised to Self-Regulate One Year Ago. What’s Changed?” Technology Review, July 22, 2024, https://www.technologyreview.com/2024/07/22/1095193/ai-companies-promised-the-white-house-to-self-regulate-one-year-ago-whats-changed. Back
- Maxwell Zeff, “OpenAI Ships GPT-4.1 Without a Safety Report,” TechCrunch, April 15, 2025, https://techcrunch.com/2025/04/15/openai-ships-gpt-4-1-without-a-safety-report. Back
- See Lauren Feiner, “The Technology Team at Financial Regulator CFPB Has Been gutted,” Verge, February 14, 2025, https://www.theverge.com/policy/612933/cfpb-tech-team-gutted-trump-doge-elon-musk; and Lauren Feiner and Alex Heath, “DOGE Has Arrived at the FTC,” Verge, April 4, 2025, https://www.theverge.com/news/643674/doge-members-spotted-ftc-elon-musk.Back
- Laura Weidinger et al., “Toward an Evaluation Science for Generative AI Systems,” arXiv, updated March 13, 2025, https://arxiv.org/abs/2503.05336. Back
- evan Hutson and Ben Winters, “America’s Next ‘Stop Model!’: Model Deletion,” Georgia Law Technology Review, September 20, 2022. https://doi.org/10.2139/ssrn.4225003; Tiffany C. Li, “Algorithmic Destruction,” Southern Methodist University Law Review75, no. 479 (2022), https://doi.org/10.25172/smulr.75.3.2; Cristina Caffarra and Robin Berjon, “‘Google is a Monopolist’—Wrong and Right Ways to Think About Remedies,” Tech Policy Press, August 9, 2024, https://www.techpolicy.press/google-is-a-monopolist-wrong-and-right-ways-to-think-about-remedies. Back
- United States v. Amazon.com, No. 2:23-cv-00811-TL (W.D. Wash. July 21, 2023); See also Rohit Chopra, “Prepared Remarks of CFPB Director Rohit Chopra at the Federal Reserve Bank of Philadelphia on the Personal Financial Data Rights Rule,” Consumer Financial Protection Bureau, October 22, 2024, https://www.consumerfinance.gov/about-us/newsroom/prepared-remarks-of-cfpb-director-rohit-chopra-at-the-federal-reserve-bank-of-philadelphia-on-the-personal-financial-data-rights-rule. Back
- Plaintiffs’ Initial Proposed Final Judgment, United States v. Google, No. 1:20-cv-03010-APM, (D.D.C August 5, 2024) and Colorado v. Google, Case No. 20-cv-3715-APM, (D.D.C. August 5, 2024). Back
- US General Services Administration, “Frequently Asked Questions: Suspension & Debarment,” accessed May 5, 2025, https://www.gsa.gov/policy-regulations/policy/acquisition-policy/office-of-acquisition-policy/gsa-acq-policy-integrity-workforce/suspension-debarment-and-agency-protests/suspension-debarment-faq. Back
- Federal Trade Commission, Partnerships Between Cloud Service Providers and AI Developers, staff report, January 2025, https://www.ftc.gov/system/files/ftc_gov/pdf/p246201_aipartnerships6breport_redacted_0.pdf; European Commission, “Commission Launches Call for Contributions on Competition in Virtual Worlds and Generative AI,” press release, January 8, 2024, https://ec.europa.eu/commission/presscorner/detail/en/ip_24_85; Competition and Markets Authority, “Microsoft / OpenAI Partnership Merger Inquiry,” Gov.UK, April 15, 2025, https://www.gov.uk/cma-cases/microsoft-slash-openai-partnership-merger-inquiry. Back
- Japan Fair Trade Commission, “Report Regarding Cloud Services,” press release, June 28, 2022, https://www.jftc.go.jp/en/pressreleases/yearly-2022/June/220628.html; Authority for Consumers and Markets, “Market Study into Cloud Services,” May 9, 2022, https://www.acm.nl/en/publications/market-study-cloud-services; Competition and Markets Authority, Cloud Services Market Investigation, January 28, 2025, https://assets.publishing.service.gov.uk/media/67989251419bdbc8514fdee4/summary_of_provisional_decision.pdf; Nick Jones, “Cloud Computing FRI: What We Heard and Learned,” FTC(blog), November 16, 2023, https://www.ftc.gov/policy/advocacy-research/tech-at-ftc/2023/11/cloud-computing-rfi-what-we-heard-learned. Back
- Competition and Markets Authority, AI Foundation Models Update Paper, April 11, 2024, https://assets.publishing.service.gov.uk/media/661941a6c1d297c6ad1dfeed/Update_Paper__1_.pdf; Office of Technology, “Tick, Tick, Tick. Office of Technology’s Summit on AI,” FTC, January 18, 2024, https://www.ftc.gov/policy/advocacy-research/tech-at-ftc/2024/01/tick-tick-tick-office-technologys-summit-ai. Back
- Federal Trade Commission, “FTC, DOJ, and International Enforcers Issue Joint Statement on AI Competition Issues,” press release, July 23, 2024, https://www.ftc.gov/news-events/news/press-releases/2024/07/ftc-doj-international-enforcers-issue-joint-statement-ai-competition-issues. Back
- Laya Neelakandan, “Meta Resorted to ‘Buy-or-Bury Scheme’ With Instagram and WhatsApp Deals, Former FTC Chair Lina Khan Says,” CNBC, April 14, 2025, https://www.cnbc.com/2025/04/14/former-ftc-chair-khan-meta-acquisitions-instagram-whatsapp.html. Back
- Michael Liedtke, “Google’s Digital Ad Network Declared an Illegal Monopoly, Joining Its Search Engine in Penalty Box,” Associated Press, April 17, 2025, https://apnews.com/article/google-illegal-monopoly-advertising-search-a1e4446c4870903ed05c03a2a03b581e. Back
- Competition and Markets Authority, AI Foundation Models Technical Update Report, April 16, 2024, https://assets.publishing.service.gov.uk/media/661e5a4c7469198185bd3d62/AI_Foundation_Models_technical_update_report.pdf. Back
- States might be ideal testing grounds here, especially as many of these moves might require legislative changes. A recent report by the Institute for Local Self Reliance identifies state antitrust laws as being ripe for enforcement and legislative reform—pointing to enforcement victories in Washington, Colorado, Arizona, and New York, among other states——as well as successful attempts at passing targeted legislative reforms giving these enforcers better tools to grapple with anticompetitive conduct. See Ron Knox, The State(s) of Antitrust: How States Can Strengthen Monopoly Laws and Get Enforcement Back on Track, Institute for Local Self-Reliance, April 2025, https://ilsr.org/wp-content/uploads/2025/03/ILSR-StatesofAntitrust.pdf; and Knox, “Mapping Our State Antitrust Laws,” Institute for Local Self-Reliance, April 1, 2025, https://ilsr.org/articles/state-antitrust-law-database-and-map. Back
- See Alli Finn, The Costs of Data Centers to Our Communities—and How to Fight Back, Kairos, 2025, 8–10, https://www.kairosfellows.org/fightdatacenters; More Perfect Union, “I Live 400 Yards From Mark Zuckerberg’s Massive Data Center,” YouTube video, March 27, 2025, https://www.youtube.com/watch?v=DGjj7wDYaiI&ab_channel=MorePerfectUnion. Back
- Adam Mahoney, “America’s Digital Demand Threatens Black Communities with More Pollution,” Capital B, February 25, 2025, https://capitalbnews.org/ai-data-centers-south-carolina-black-communities; and Dwaign Tyndal, “The Dark Side of AI: Climate Chaos, Pollution, and Injustice,” CommonWealth Beacon, February 3, 2025, https://commonwealthbeacon.org/opinion/the-dark-side-of-ai-climate-chaos-pollution-and-injustice. Back
- Eliza Martin and Ari Peskoe, Extracting Profits from the Public: How Utility Ratepayers are Paying for Big Tech’s Power, Harvard Electricity Law Initiative, March 5, 2025, https://eelp.law.harvard.edu/wp-content/uploads/2025/03/Harvard-ELI-Extracting-Profits-from-the-Public.pdf. Back
- Dave Williams, “Georgia Senate Committee Passes Bill to Protect Residents From Data Center Costs,” Current, February 25, 2025, https://thecurrentga.org/2025/02/25/georgia-senate-committee-passes-bill-to-protect-residents-from-data-center-costs; Josh Janey, “Dominion Energy Proposes Hefty Rate Hikes,” Virginia Business, April 1, 2025, https://virginiabusiness.com/dominion-energy-proposes-hefty-rate-hikes; and Citizens Action Coalition, “Duke Energy Rate Hike (2024), accessed May 5, 2025, https://www.citact.org/duke-rate-hike-2024. Back
- See Kasia Tarczynska and Greg LeRoy, Cloudy With a Loss of Spending Control: How Data Centers Are Endangering State Budgets, Good Jobs First, April 2025, https://goodjobsfirst.org/cloudy-with-a-loss-of-spending-control-how-data-centers-are-endangering-state-budgets; Good Jobs First, “Subsidy Tracker,” accessed May 18, 2025, https://subsidytracker.goodjobsfirst.org; and Finn, The Costs of Data Centers to Our Communities. Back
- Eric Bonds and Viktor Newby, “Data Centers, Non-Disclosure Agreements and Democracy,” Virginia Mercury, April 30, 2025, https://virginiamercury.com/2025/04/30/data-centers-non-disclosure-agreements-and-democracy. Back
- See Issie Lapowsky, “As Data Centers Push Into States, Lawmakers Are Pushing Right Back,” Tech Policy Press, March 24, 2025, https://www.techpolicy.press/as-data-centers-push-into-states-lawmakers-are-pushing-right-back; and Martin and Peskoe, Extracting Profits from the Public. Back
- Zachary Hansen, “$17B Data Center Proposal in Metro Atlanta is Latest to Prompt Moratorium,” Atlanta Journal-Constitution, May 8, 2025, https://www.ajc.com/news/business/coweta-county-issues-moratorium-to-pause-data-center-projects/2J464ISZIVB4VMFSBXZXNVHZXE. Back
- Matthew Gooding, “Plan for Gas-Powered Data Center Campus in Pittsylvania County, Virginia, Withdrawn Again,” Data Center Dynamics, April 15, 2025, https://www.datacenterdynamics.com/en/news/plan-for-gas-powered-data-center-campus-in-pittsylvania-county-virginia-withdrawn-again. Back
- For an example of this demand, see Citizens Action Coalition in Indiana, “CAC Calls for Data Center Moratorium,” press release, October 15, 2024, https://www.citact.org/news/cac-calls-data-center-moratorium. For a comprehensive list of groups strategizing around slowing and stopping data center development, see Finn, The Costs of Data Centers to Our Communities, 24. Back
- For an example of this policy implementation, see the Amsterdam Metropolitan Government, “City of Amsterdam Puts Halt to New Data Center Construction,” Hosting Journalist, December 21, 2023, https://hostingjournalist.com/news/city-of-amsterdam-puts-halt-to-new-data-center-construction. Back
- For an example of this demand, see Beyond Fossil Fuels, which is calling for no new data centers without 24/7 renewable energy. Beyond Fossil Fuels, System Overload: How New Data Centres COuld Throw Europe’s Energy Transition Off Course (2025), https://beyondfossilfuels.org/wp-content/uploads/2025/02/SystemOverload_Report.pdf. Back
- For organizations advocating on these demands, see Zach Schiller, “Indefensible Tax Breaks for Data Centers Will Cost Ohio,” Policy Matters Ohio, January 7, 2025, https://policymattersohio.org/research/indefensible-tax-breaks-for-data-centers-will-cost-ohio; and Tarczynska and LeRoy, Cloudy With a Loss of Spending Control. Back
- For examples of this demand, see Kaisa Tarczynska, Money Lost to the Cloud: How Data Centers Benefit From State and Local Government Subsidies, Good Jobs First, October 2016, https://goodjobsfirst.org/wp-content/uploads/docs/pdf/datacenters.pdf; and Tarczynska and LeRoy, Cloudy With a Loss of Spending Control. Back
- For a relevant proposed bill, see: H.B. 2578, Reg. Sess. (Va. 2025). For a slightly different proposed bill, see: S.B. 1196, Reg. Sess. (Va. 2025) (restricting data centers from gaining state sales tax exemption if they use onsite diesel generation). Back
- For a proposed bill, see: H.B. 2035, Reg. Sess. (Va. 2025); Markus Schmidt, “As Data Center Boom Continues, Va. Legislators Broach New Regulations,” Virginia Mercury, January 14, 2025, https://virginiamercury.com/2025/01/14/as-data-center-boom-continues-va-legislators-broach-new-regulations. Back
- For a legislative example currently pending veto override, see: H.B. 1601, Reg. Sess. (Va 2025) (requiring a site assessment to examine the sound profile of the energy facility and allowing—but not requiring—site assessments for the effect of the facility on other factors). Back
- Vasili Varlamos, “Oregon House Passes Bill Making Large Data Centers Pay for Power Grids,” KATU, April 22, 2025, https://katu.com/news/politics/oregon-house-passes-bill-making-large-data-centers-pay-for-power-grid-costs-electricity-money-consumers-cost-bill-politics. Back
- For a relevant proposed bill, see: S. 6394, 2025-2026 Leg. Sess. (N.Y. 2025). Back
- Leslie B. Muñiz, “Ratepayer Advocates Hail ‘Landmark’ Settlement With Data Centers, Utility Company,” Indiana Capital Chronicle, November 26, 2024, https://indianacapitalchronicle.com/2024/11/26/ratepayer-advocates-hail-landmark-settlement-with-data-centers-utility-company; Varlamos, “Oregon Houses Passes Bill.” Back
As autoras:

