Nota de editor:
Devido à grande extensão deste texto – Poder Artificial: Relatório sobre o Panorama de 2025 – o mesmo é publicado em 5 partes – A (Sumário Executivo), B (capítulo 1, C (capítulo 2), D (capítulo 3) e E (Capítulo 4).
Hoje publicamos a quinta e última parte do Capítulo 4, dando assim por concluída a publicação do relatório “Pode artificial: relatório sobre o panorama de 2025”.
Seleção e tradução de Júlio Marques Mota
7 min de leitura
Texto 41 E – Poder Artificial: Relatório sobre o Panorama de 2025. Capítulo 4 – Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso (5/5)
Por Kate Brennan, Amba Kak, e Dr. Sarah Myers West
Publicado por
Índice
Sumário Executivo
Capítulo 1: Os Falsos Deuses da IA
Capítulo 2: Sai cara, ganho eu, sai coroa perde você. Como as empresas de tecnologia manipularam o mercado de IA
Capítulo 3: Consultando o registo. A IA falha sistematicamente ao público
Capítulo 4: Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso.
____
Capítulo 4: Um roteiro para a ação. Fazer da IA uma luta de poder, não do progresso (5/5)
(conclusão)
Precisamos de Recuperar a Agenda Positiva para a Inovação Centrada na População — e a IA Não Deve Estar no Centro Disso
Ao longo de 2024, assistimos a um rápido avanço em torno da ideia de que o desenvolvimento da IA precisa de ser orientado por imperativos não mercantis e de que recursos públicos e filantrópicos podem ser direcionados para criar um ecossistema de inovação fora da indústria [154]. Isso inclui um amplo espectro de propostas vindas de grupos de reflexão, organizações filantrópicas e governos — que vão desde a introdução de opções públicas para competir com o setor privado [155] até aos acordos público-privados voltados a ampliar o acesso aos insumos necessários para construir IA [156]. Grande parte dessa movimentação foi agrupada sob o conceito de “IA pública”, enquanto alguns dos esforços liderados por governos passaram a ser chamados de “IA soberana” [157], com um foco mais explícito em segurança nacional e objetivos de competitividade [158].
Enquanto esse discurso realça a perceção de que a trajetória atual da IA, guiada pelo mercado, é um empobrecimento para a população em geral, o espaço de soluções alternativas, tal como se apresenta, também tende a carecer de especificidade, visão e — de forma mais fundamental — falha em enfrentar o desafio do poder concentrado, seja aceitando ou evitando a realidade de que construir sobre o atual paradigma de IA em grande escala inevitavelmente reforçará o poder das maiores empresas de tecnologia. Por essas razões, ele tem estado suscetível a ser capturado.
Rejeitar o atual paradigma de IA em grande escala é necessário para combater as assimetrias de informação e poder incorporadas na IA. Esta é a parte silenciosa que devemos dizer em voz alta. É a realidade que devemos enfrentar se quisermos reunir a vontade e a criatividade para moldar a situação de forma diferente.
|
A trajetória do Recurso Nacional de Pesquisa em IA dos EUA (NAIRR) contém lições importantes.
Isto não quer dizer que o NAIRR não tenha gerado valor público — o programa-piloto conectou dados e recursos computacionais a mais de trezentos investigadores universitários e outros que, de outra forma, talvez não tivessem acesso a esses recursos — potencialmente estimulando projetos socialmente benéficos [164]. No entanto, há uma oportunidade perdida evidente: o NAIRR poderia ter impulsionado um projeto amplamente deliberativo e ambicioso que definisse e promovesse as condições para uma IA orientada para o interesse público. Em vez de reforçar a trajetória do “quanto maior, melhor”, na qual todos os caminhos inevitavelmente levam a aprofundar a dependência das infraestruturas das Big Tech (canalizando recursos de volta para as mesmas empresas) ou a confiar num grande e centralizado aparato estatal para moldar uma visão alternativa, houve um momento em que se poderia ter aberto espaço (e financiamento) para trajetórias de pesquisa alternativas: |
Apesar das limitações atuais, a IA pública ainda representa um espaço fértil de oportunidades — tanto para impulsionar uma conversa sobre trajetórias alternativas para a IA que estejam mais estruturalmente alinhadas com o interesse público, como para garantir que qualquer financiamento público nessa área esteja condicionado a objetivos de interesse público. Do lado governamental, embora a iniciativa US NAIRR esteja em situação instável, diversos estados estão a considerar investimentos em recursos públicos de IA em todo o país. Na Califórnia, um projeto de lei reviveu recentemente uma proposta para a criação de um cluster computacional público de propriedade e operação estatais, hospedado no sistema da Universidade da Califórnia, chamado “CalCompute” [166]. Em Nova York, foi criada a iniciativa Empire AI, com o objetivo de construir infraestrutura pública de nuvem entre sete instituições de pesquisa do estado de Nova Iorque reunindo mais de 400 milhões de dólares em recursos públicos e privados [167]. Ambas as iniciativas representam pontos estratégicos importantes para a defesa do interesse público — garantindo que os seus recursos respondam às necessidades das comunidades e não se tornem instrumentos para enriquecer ainda mais as grandes empresas de tecnologia.
Principais Direções Futuras para os Esforços de IA Pública:
- Unir-se em defesa das universidades públicas face aos ataques ao financiamento, à estabilidade no emprego (tenure) e à liberdade de expressão. As universidades têm sido instituições constantemente atacadas, e a precariedade do meio académico contribuiu para a sua captura por parte de atores da indústria. Essa precariedade aprofundou-se numa crise existencial sob as atuais pressões políticas: defender a capacidade de investigar e ensinar livremente é fundamental para proteger qualquer futuro de uma IA virada para o interesse público.
- Revigorar a estratégia. As propostas atuais de IA pública dependem excessivamente de mecanismos como licenciamento, isenção fiscal e concessão de créditos — medidas que, no fim das contas, reforçam em vez de desafiarem a dependência em relação aos fornecedores de serviço de nuvem. Precisamos de novos modelos mentais sobre como a capacidade estatal pode contribuir para a criação de bens públicos no setor de tecnologia, sem repetir a abordagem neoliberal típica das décadas de 1990 e 2000, que foi justamente a responsável por criar esses problemas.
- Investir em conhecimentos técnicos do setor público que fundamentem a tomada de decisões em torno de qualquer desenvolvimento de IA de interesse público na capacidade de perguntar se a IA é a ferramenta certa, em vez de avaliar como a IA poderia funcionar.
- Garantir estruturalmente os grupos desfavorecidos têm deliberada autoridade neste assunto.
- Pesquisa de recursos sobre caminhos alternativos de I & D que não são adequadamente incentivados e com recursos pelo mercado para ajudar a iluminar uma visão fora das dependências do caminho da trajetória atual.
- Cultivar uma comunidade de prática em torno da inovação de benefício público que moldará este espaço emergente e alternativo. Ao fazê-lo, desvie o foco apenas dos resultados e para garantir contribuições mais democráticas na estratégia de IA de interesse público, garantindo ao mesmo tempo que os grupos estruturalmente desfavorecidos tenham autoridade deliberada nesta matéria.
- Definir o interesse colectivo ou público como separado do interesse do Estado-nação, reconhecendo que os interesses do estado e da segurança nacional podem muitas vezes ser contrários aos do público, especialmente aos grupos estruturalmente desfavorecidos ou vulneráveis à violência do estado.
- Isto exigirá a criação de uma alternativa à visão predominante de segurança nacional para a IA pública que superficialmente tem o mesmo ponto de partida (preocupações com o controlo privado irresponsável sobre a tecnologia, independência), mas está preocupada com uma visão para a IA que sirva os interesses do complexo industrial tecno-militar sobre todos os outros e leve a algumas das aplicações mais destrutivas e potencialmente fatais da IA.
- Definir condicionalidades concretas a atribuir ao financiamento público da IA, garantindo que o investimento satisfaz as necessidades das Comunidades e não os interesses das empresas. Estas condicionalidades podem incluir:
- Em primeiro lugar, assegurar que o investimento não depende da indústria privada nem conduz à captura privada. Sempre que exista investimento privado, assegurar que os financiadores não imponham restrições à investigação ou condições de financiamento aos seus investimentos.
- Em segundo lugar, desviar o investimento público em IA da indústria de defesa e da expansão militar.
- Terceiro, estruturar com sucesso as condicionalidades para combater os interesses corporativos; promover metas climáticas; e apoiar trabalhadores sindicalizados, comunidades marginalizadas, terras Indígenas e outros prejudicados pela extração corporativa.
Notas
- See Alex Pascal and Ganesh Sitaraman, The National Security Case for Public AI, Vanderbilt Policy Accelerator (VPA), 2024, https://cdn.vanderbilt.edu/vu-URL/wp-content/uploads/sites/412/2024/09/27201409/VPA-Paper-National-Security-Case-for-AI.pdf; Public AI Network, Public AI: Infrastructure forthe Common Good, August 10 2024, https://drive.google.com/file/d/1bcCPdRHyUGFB23–6wn4j1f9mRgdG2QF/view; Eleanor Shearer et al., “The Role of Public Compute,” Ada Lovelace Institute (blog), April 24, 2024; Eleanor Shearer, “Take Back the Future: Democratising Power Over AI,” Common Wealth, September 11, 2024; Lawrence Lessig, “Why This is the Moment for Public AI,” keynote address, Building A More Public AI Ecosystem, YouTube, Aug 29, 2024, https://youtu.be/uzQDeYV1RJQ?si=nGCQFaprfZVjeFIn; Bruce Schneier and Nathan Sanders, “Build AI by the People, for the People,” Foreign Policy, June 12, 2023, https://foreignpolicy.com/2023/06/12/ai-regulation-technology-us-china-eu-governance; Nick Marda et al., “Creating a Public Counterpoint for AI,” Mozilla, Distilled(blog), September 30, 2024, https://blog.mozilla.org/en/mozilla/ai/public-ai-counterpoint. Back
- Narechania and Sitaraman, “An Antimonopoly Approach to Governing Artificial Intelligence.” Back
- National Science Foundation, “National Artificial Intelligence Research Resource Pilot,” accessed May 3, 2025, https://www.nsf.gov/focus-areas/artificial-intelligence/nairr. Back
- Bryce Elder, “The Next Wave of AI Hype Will Be Geopolitical. You’re Paying,” Financial Times, May 29, 2024, https://www.ft.com/content/a60c3c7b-1c48-485d-adb7-5bc2b7b1b650. Back
- AI Now Institute, AI Nationalism(s): Global Industrial Policy Approaches to AI, March 12, 2024, https://ainowinstitute.org/publications/research/ai-nationalisms-global-industrial-policy-approaches-to-ai. Back
- Eric Schmidt et al.,Final Report, National Security Commission on Artificial Intelligence, 2021, https://www.dwt.com/-/media/files/blogs/artificial-intelligence-law-advisor/2021/03/nscai-final-report–2021.pdf. Back
- AI Now Institute and Society Research Institute, “Democratize AI? How the Proposed National AI Research Resource Falls Short,” October 5, 2021, https://ainowinstitute.org/publication/democratize-ai-how-the-proposed-national-ai-research-resource-falls-short. Back
- AI Now Institute and Data & Society, “Request for Information (RFI) on an Implementation Plan for a National Artificial Intelligence Research Resource,” October 1, 2021, https://ainowinstitute.org/wp-content/uploads/2023/06/AINow-DS-NAIRR-comment.pdf. Back
- NAIRR Pilot, “NAIRR Pilot Resource Requests to Advance AI Research,” accessed May 3, 2025, https://nairrpilot.org/allocations. Back
- National Science Foundation, “National Artificial Intelligence Research Resource Pilot,” accessed May 3, 2025, https://www.nsf.gov/focus-areas/artificial-intelligence/nairr. Back
- NAIRR Pilot, “Resource Allocations,” accessed May 3, 2025, https://nairrpilot.org/projects/awarded. Back
- Joana Varon et al., “AI Commons: Nourishing Alternatives to Big Tech Monoculture,” One Project, 2024, https://oneproject.org/ai-commons. Back
- Scott Wiener, “Senator Wiener Introduces Legislation to Protect AI Whistleblowers & Boost Responsible AI Development,” press release, February 28, 2025, https://sd11.senate.ca.gov/news/senator-wiener-introduces-legislation-protect-ai-whistleblowers-boost-responsible-ai; Chase DiFeliciantonio, “Wiener Launches Bill to Require Testing AI Tools for Safety. Here’s What That Means,” San Francisco Chronicle, February 8, 2024, https://www.sfchronicle.com/tech/article/wiener-launches-bill-require-safety-testing-ai-18656225.php. Back
- “Governor Hochul Unveils Fifth Proposal of 2024 State of the State: Empire AI Consortium to Make New York the National Leader in AI Research and Innovation,” New York State Governor, January 8, 2024, https://www.governor.ny.gov/news/governor-hochul-unveils-fifth-proposal-2024-state-state-empire-ai-consortium-make-new-york. Back
As autoras:

