Nota de editor:
Devido à grande extensão deste texto – Poder Artificial: Relatório sobre o Panorama de 2025 – o mesmo é publicado em 5 partes – A (Sumário Executivo), B (capítulo 1, C (capítulo 2), D (capítulo 3) e E (Capítulo 4).
Hoje publicamos a quinta e última parte do Capítulo 4, dando assim por concluída a publicação do relatório “Pode artificial: relatório sobre o panorama de 2025”.
Seleção e tradução de Júlio Marques Mota
7 min de leitura
Texto 41 E – Poder Artificial: Relatório sobre o Panorama de 2025. Capítulo 4 – Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso (5/5)
Por Kate Brennan, Amba Kak, e Dr. Sarah Myers West
Publicado por
em 2 de Junho de 2025 (original aqui)
Índice
Sumário Executivo
Capítulo 1: Os Falsos Deuses da IA
Capítulo 2: Sai cara, ganho eu, sai coroa perde você. Como as empresas de tecnologia manipularam o mercado de IA
Capítulo 3: Consultando o registo. A IA falha sistematicamente ao público
Capítulo 4: Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso.
____
Capítulo 4: Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso (5/5)
(conclusão)
Precisamos de Recuperar a Agenda Positiva para a Inovação Centrada na População — e a IA Não Deve Estar no Centro Disso
Ao longo de 2024, assistimos a um rápido avanço em torno da ideia de que o desenvolvimento da IA precisa de ser orientado por imperativos não mercantis e de que recursos públicos e filantrópicos podem ser direcionados para criar um ecossistema de inovação fora da indústria [154]. Isso inclui um amplo espectro de propostas vindas de grupos de reflexão, organizações filantrópicas e governos — que vão desde a introdução de opções públicas para competir com o setor privado [155] até aos acordos público-privados voltados a ampliar o acesso aos insumos necessários para construir IA [156]. Grande parte dessa movimentação foi agrupada sob o conceito de “IA pública”, enquanto alguns dos esforços liderados por governos passaram a ser chamados de “IA soberana” [157], com um foco mais explícito em segurança nacional e objetivos de competitividade [158].
Enquanto esse discurso realça a perceção de que a trajetória atual da IA, guiada pelo mercado, é um empobrecimento para a população em geral, o espaço de soluções alternativas, tal como se apresenta, também tende a carecer de especificidade, visão e — de forma mais fundamental — falha em enfrentar o desafio do poder concentrado, seja aceitando ou evitando a realidade de que construir sobre o atual paradigma de IA em grande escala inevitavelmente reforçará o poder das maiores empresas de tecnologia. Por essas razões, ele tem estado suscetível a ser capturado.
Rejeitar o atual paradigma de IA em grande escala é necessário para combater as assimetrias de informação e poder incorporadas na IA. Esta é a parte silenciosa que devemos dizer em voz alta. É a realidade que devemos enfrentar se quisermos reunir a vontade e a criatividade para moldar a situação de forma diferente.
|
A trajetória do Recurso Nacional de Pesquisa em IA dos EUA (NAIRR) contém lições importantes.
Isto não quer dizer que o NAIRR não tenha gerado valor público — o programa-piloto conectou dados e recursos computacionais a mais de trezentos investigadores universitários e outros que, de outra forma, talvez não tivessem acesso a esses recursos — potencialmente estimulando projetos socialmente benéficos [164]. No entanto, há uma oportunidade perdida evidente: o NAIRR poderia ter impulsionado um projeto amplamente deliberativo e ambicioso que definisse e promovesse as condições para uma IA orientada para o interesse público. Em vez de reforçar a trajetória do “quanto maior, melhor”, na qual todos os caminhos inevitavelmente levam a aprofundar a dependência das infraestruturas das Big Tech (canalizando recursos de volta para as mesmas empresas) ou a confiar num grande e centralizado aparato estatal para moldar uma visão alternativa, houve um momento em que se poderia ter aberto espaço (e financiamento) para trajetórias de pesquisa alternativas: |
Apesar das limitações atuais, a IA pública ainda representa um espaço fértil de oportunidades — tanto para impulsionar uma conversa sobre trajetórias alternativas para a IA que estejam mais estruturalmente alinhadas com o interesse público, como para garantir que qualquer financiamento público nessa área esteja condicionado a objetivos de interesse público. Do lado governamental, embora a iniciativa US NAIRR esteja em situação instável, diversos estados estão a considerar investimentos em recursos públicos de IA em todo o país. Na Califórnia, um projeto de lei reviveu recentemente uma proposta para a criação de um cluster computacional público de propriedade e operação estatais, hospedado no sistema da Universidade da Califórnia, chamado “CalCompute” [166]. Em Nova York, foi criada a iniciativa Empire AI, com o objetivo de construir infraestrutura pública de nuvem entre sete instituições de pesquisa do estado de Nova Iorque reunindo mais de 400 milhões de dólares em recursos públicos e privados [167]. Ambas as iniciativas representam pontos estratégicos importantes para a defesa do interesse público — garantindo que os seus recursos respondam às necessidades das comunidades e não se tornem instrumentos para enriquecer ainda mais as grandes empresas de tecnologia.
Principais Direções Futuras para os Esforços de IA Pública:
- Unir-se em defesa das universidades públicas face aos ataques ao financiamento, à estabilidade no emprego (tenure) e à liberdade de expressão. As universidades têm sido instituições constantemente atacadas, e a precariedade do meio académico contribuiu para a sua captura por parte de atores da indústria. Essa precariedade aprofundou-se numa crise existencial sob as atuais pressões políticas: defender a capacidade de investigar e ensinar livremente é fundamental para proteger qualquer futuro de uma IA virada para o interesse público.
- Revigorar a estratégia. As propostas atuais de IA pública dependem excessivamente de mecanismos como licenciamento, isenção fiscal e concessão de créditos — medidas que, no fim das contas, reforçam em vez de desafiarem a dependência em relação aos fornecedores de serviço de nuvem. Precisamos de novos modelos mentais sobre como a capacidade estatal pode contribuir para a criação de bens públicos no setor de tecnologia, sem repetir a abordagem neoliberal típica das décadas de 1990 e 2000, que foi justamente a responsável por criar esses problemas.
- Investir em conhecimentos técnicos do setor público que fundamentem a tomada de decisões em torno de qualquer desenvolvimento de IA de interesse público na capacidade de perguntar se a IA é a ferramenta certa, em vez de avaliar como a IA poderia funcionar.
- Garantir estruturalmente os grupos desfavorecidos têm deliberada autoridade neste assunto.
- Pesquisa de recursos sobre caminhos alternativos de I & D que não são adequadamente incentivados e com recursos pelo mercado para ajudar a iluminar uma visão fora das dependências do caminho da trajetória atual.
- Cultivar uma comunidade de prática em torno da inovação de benefício público que moldará este espaço emergente e alternativo. Ao fazê-lo, desvie o foco apenas dos resultados e para garantir contribuições mais democráticas na estratégia de IA de interesse público, garantindo ao mesmo tempo que os grupos estruturalmente desfavorecidos tenham autoridade deliberada nesta matéria.
- Definir o interesse colectivo ou público como separado do interesse do Estado-nação, reconhecendo que os interesses do estado e da segurança nacional podem muitas vezes ser contrários aos do público, especialmente aos grupos estruturalmente desfavorecidos ou vulneráveis à violência do estado.
- Isto exigirá a criação de uma alternativa à visão predominante de segurança nacional para a IA pública que superficialmente tem o mesmo ponto de partida (preocupações com o controlo privado irresponsável sobre a tecnologia, independência), mas está preocupada com uma visão para a IA que sirva os interesses do complexo industrial tecno-militar sobre todos os outros e leve a algumas das aplicações mais destrutivas e potencialmente fatais da IA.
- Definir condicionalidades concretas a atribuir ao financiamento público da IA, garantindo que o investimento satisfaz as necessidades das Comunidades e não os interesses das empresas. Estas condicionalidades podem incluir:
- Em primeiro lugar, assegurar que o investimento não depende da indústria privada nem conduz à captura privada. Sempre que exista investimento privado, assegurar que os financiadores não imponham restrições à investigação ou condições de financiamento aos seus investimentos.
- Em segundo lugar, desviar o investimento público em IA da indústria de defesa e da expansão militar.
- Terceiro, estruturar com sucesso as condicionalidades para combater os interesses corporativos; promover metas climáticas; e apoiar trabalhadores sindicalizados, comunidades marginalizadas, terras Indígenas e outros prejudicados pela extração corporativa.
Notas
- See Alex Pascal and Ganesh Sitaraman, The National Security Case for Public AI, Vanderbilt Policy Accelerator (VPA), 2024, https://cdn.vanderbilt.edu/vu-URL/wp-content/uploads/sites/412/2024/09/27201409/VPA-Paper-National-Security-Case-for-AI.pdf; Public AI Network, Public AI: Infrastructure forthe Common Good, August 10 2024, https://drive.google.com/file/d/1bcCPdRHyUGFB23–6wn4j1f9mRgdG2QF/view; Eleanor Shearer et al., “The Role of Public Compute,” Ada Lovelace Institute (blog), April 24, 2024; Eleanor Shearer, “Take Back the Future: Democratising Power Over AI,” Common Wealth, September 11, 2024; Lawrence Lessig, “Why This is the Moment for Public AI,” keynote address, Building A More Public AI Ecosystem, YouTube, Aug 29, 2024, https://youtu.be/uzQDeYV1RJQ?si=nGCQFaprfZVjeFIn; Bruce Schneier and Nathan Sanders, “Build AI by the People, for the People,” Foreign Policy, June 12, 2023, https://foreignpolicy.com/2023/06/12/ai-regulation-technology-us-china-eu-governance; Nick Marda et al., “Creating a Public Counterpoint for AI,” Mozilla, Distilled(blog), September 30, 2024, https://blog.mozilla.org/en/mozilla/ai/public-ai-counterpoint. Back
- Narechania and Sitaraman, “An Antimonopoly Approach to Governing Artificial Intelligence.” Back
- National Science Foundation, “National Artificial Intelligence Research Resource Pilot,” accessed May 3, 2025, https://www.nsf.gov/focus-areas/artificial-intelligence/nairr. Back
- Bryce Elder, “The Next Wave of AI Hype Will Be Geopolitical. You’re Paying,” Financial Times, May 29, 2024, https://www.ft.com/content/a60c3c7b-1c48-485d-adb7-5bc2b7b1b650. Back
- AI Now Institute, AI Nationalism(s): Global Industrial Policy Approaches to AI, March 12, 2024, https://ainowinstitute.org/publications/research/ai-nationalisms-global-industrial-policy-approaches-to-ai. Back
- Eric Schmidt et al.,Final Report, National Security Commission on Artificial Intelligence, 2021, https://www.dwt.com/-/media/files/blogs/artificial-intelligence-law-advisor/2021/03/nscai-final-report–2021.pdf. Back
- AI Now Institute and Society Research Institute, “Democratize AI? How the Proposed National AI Research Resource Falls Short,” October 5, 2021, https://ainowinstitute.org/publication/democratize-ai-how-the-proposed-national-ai-research-resource-falls-short. Back
- AI Now Institute and Data & Society, “Request for Information (RFI) on an Implementation Plan for a National Artificial Intelligence Research Resource,” October 1, 2021, https://ainowinstitute.org/wp-content/uploads/2023/06/AINow-DS-NAIRR-comment.pdf. Back
- NAIRR Pilot, “NAIRR Pilot Resource Requests to Advance AI Research,” accessed May 3, 2025, https://nairrpilot.org/allocations. Back
- National Science Foundation, “National Artificial Intelligence Research Resource Pilot,” accessed May 3, 2025, https://www.nsf.gov/focus-areas/artificial-intelligence/nairr. Back
- NAIRR Pilot, “Resource Allocations,” accessed May 3, 2025, https://nairrpilot.org/projects/awarded. Back
- Joana Varon et al., “AI Commons: Nourishing Alternatives to Big Tech Monoculture,” One Project, 2024, https://oneproject.org/ai-commons. Back
- Scott Wiener, “Senator Wiener Introduces Legislation to Protect AI Whistleblowers & Boost Responsible AI Development,” press release, February 28, 2025, https://sd11.senate.ca.gov/news/senator-wiener-introduces-legislation-protect-ai-whistleblowers-boost-responsible-ai; Chase DiFeliciantonio, “Wiener Launches Bill to Require Testing AI Tools for Safety. Here’s What That Means,” San Francisco Chronicle, February 8, 2024, https://www.sfchronicle.com/tech/article/wiener-launches-bill-require-safety-testing-ai-18656225.php. Back
- “Governor Hochul Unveils Fifth Proposal of 2024 State of the State: Empire AI Consortium to Make New York the National Leader in AI Research and Innovation,” New York State Governor, January 8, 2024, https://www.governor.ny.gov/news/governor-hochul-unveils-fifth-proposal-2024-state-state-empire-ai-consortium-make-new-york. Back
As autoras:
Kate Brennan é diretora associada do AI Now Institute. Tem um J. D. da Faculdade de direito de Yale e um duplo B. A. da Universidade Brown em cultura moderna e Media e Estudos de género e sexualidade. Como Diretora Associada do AI Now, Kate, lidera programas de política e pesquisa para moldar a indústria de IA no interesse público. Tem uma década de experiência na indústria de tecnologia para a AI Now, trabalhando em várias funções tanto no marketing de produtos quanto na política. Antes de ingressar na AI Now, Kate ocupou vários cargos na indústria de tecnologia. Como comerciante de produtos na Jigsaw do Google, Kate supervisionou lançamentos de produtos e iniciativas de pesquisa que enfrentavam desinformação, censura e assédio online. Anteriormente, Kate construiu e gerenciou um programa nacional para apoiar as mulheres na indústria de jogos, lançando jogos por criadores de jogos sub-representados e comissionando pesquisas de ponta sobre a dinâmica de gênero na indústria de jogos. Ela começou sua carreira administrando marketing digital para organizações sem fins lucrativos e sindicatos politicamente progressistas. Na Faculdade de direito, Kate atuou como editora-chefe do Yale Journal of Law and Feminism e foi membro da Technology Accountability Clinic, um projeto da Clínica de liberdade de mídia e acesso à informação da Yale Law School que enfrenta o poder excessivo na indústria de tecnologia. Como membro da clínica, trabalhou em questões como a vigilância biométrica nas prisões e o acesso à informação sobre o aborto online. Como estagiária jurídica do Neighborhood Legal Services of Los Angeles County, representou trabalhadores de baixa renda em Los Angeles em audiências administrativas para recuperar benefícios e aconselhou trabalhadores sobre roubo salarial, desemprego e reivindicações de retaliação.
Amba Kak,é co-diretora executiva do AI Now Institute. Formada como advogada, é licenciada em BA LLB (Hons) pela Universidade Nacional de Ciências Jurídicas da Índia e é ex-beneficiária da Google Policy Fellowship e da Mozilla Policy Fellowship. Ela tem um Mestrado em Direito (BCL) e um Mestrado em Ciências Sociais da Internet na Universidade de Oxford, que frequentou como Rhodes Scholar. passou os últimos quinze anos projetando e defendendo políticas tecnológicas de interesse público, que vão desde a neutralidade da rede até à privacidade e à responsabilidade algorítmica, em todo o governo, indústria e sociedade civil – e em muitas partes do mundo. completou recentemente seu mandato como Consultora Sênior em IA na Federal Trade Commission. Antes da AI Now, ela foi Consultora de políticas globais na Mozilla; e também atuou anteriormente como consultora Jurídica do regulador de telecomunicações da Índia (TRAI) sobre regras de neutralidade da rede. Aconselha regularmente membros do Congresso, da Casa Branca, da Comissão Europeia, do governo do Reino Unido, da cidade de Nova Iorque, dos EUA e de outras agências reguladoras em todo o mundo; é amplamente publicada em locais académicos e populares e seu trabalho foi apresentado no The Atlantic, The Financial Times, MIT Tech Review, Nature, The Washington Post e The Wall Street Journal, entre outros. Amba atualmente faz parte do Conselho de Administração da Signal Foundation e do Comitê de IA do Conselho da Mozilla Foundation, e é afiliada como pesquisadora sênior visitante no Instituto de segurança cibernética e Privacidade da Northeastern University.
Dr. Sarah Myers West, é doutora e mestra pela Universidade do Sul da Califórnia. É co-diretora executiva do AI Now Institute. Passou os últimos quinze anos a interrogar o papel das empresas de tecnologia e a sua emergência como poderosos actores políticos nas linhas de frente da governação internacional. O seu próximo livro, Tracing Code (University of California Press) desenha em anos de histórico e pesquisa em ciências sociais para analisar as origens de dados do capitalismo comercial e de vigilância. A pesquisa premiada de Sarah é apresentada em importantes revistas acadêmicas e plataformas de mídia proeminentes, incluindo The Washington Post, The Atlantic, The Financial Times, Nature e The Wall Street Journal. Assessora regularmente membros do Congresso, da casa branca, da Comissão Europeia, do governo do Reino Unido, do Consumer Financial Protection Board e de outras agências reguladoras dos EUA e internacionais e da cidade de Nova Iorque, e testemunhou perante o Congresso sobre questões como inteligência artificial, concorrência e privacidade de dados. Concluiu recentemente um mandato como consultora Sénior em IA na Federal Trade Commission, onde aconselhou a Agência sobre o papel da inteligência artificial na formação da economia, trabalhando em questões de concorrência e Defesa do consumidor. Atualmente, ela atua no grupo de trabalho AI Futures da OCDE.



