Nota de editor
Em virtude da extensão e conteúdo do texto, o mesmo é publicado em três partes. Hoje a segunda.
Seleção e tradução de Júlio Marques Mota
14 min de leitura
Texto 30 – O crescimento da IAG e a corrida para encontrar um modelo funcional gerador de receitas (2/3)
Publicado por
em Dezembro de 2024 (original aqui)
Índice
Introdução
OpenAI e o Boom da IA generativa
Mitologia do Vale do Silício, destilada e acelerada
Da “IA segura” à IAG — e a génese do modelo de negócios liderada pelo marketing
Marketing da IAG, entregando a IA comercial
O sonho da IAG e a Organização Totalmente Automatizada
(continuação)
DA “IA SEGURA” À IAG — E A GÉNESE DO MODELO DE NEGÓCIOS LIDERADA PELO MARKETING
Quando a OpenAI foi lançada, descreveu-se a si própria como uma “empresa de pesquisa em inteligência artificial sem fins lucrativos” cuja missão era “avançar a inteligência digital da forma que mais provavelmente beneficiaria o conjunto da humanidade, não sendo limitada pela necessidade de gerar retorno financeiro” [30].
Os seus primeiros investidores incluíram Musk [31], Altman, Brockman, Peter Thiel, o fundador do LinkedIn Reid Hoffman, a empresa indiana de TI Infosys, a Y Combinator e a Amazon Web Services. O seu objetivo declarado era poder contratar os principais investigadores de IA de empregos bem remunerados, como os da Google — para conduzirem investigações como uma organização sem fins lucrativos, mas pagando salários de empresa com fins lucrativos.
O anúncio de lançamento da OpenAI fez soar o alarme, mais uma vez, sobre uma IA superinteligente incipiente, embora desta vez se referisse ao conceito como “IA de nível humano”. O seu primeiro comunicado declarava: “É difícil imaginar o quanto uma IA de nível humano poderia beneficiar a sociedade, e igualmente difícil imaginar o quanto ela poderia prejudicar a sociedade se fosse construída ou usada de forma incorreta” [32].
Desde o início, a missão grandiosa da OpenAI sensibilizou a imprensa tecnológica, em grande parte devido ao envolvimento de Musk e, em menor escala, ao de Altman. Com base no primeiro comunicado à imprensa da organização e nas entrevistas concedidas na época pelas figuras-chave, os media descreveram o projeto como um esforço heroico, até mesmo utópico. “Elon Musk e parceiros formam uma organização sem fins lucrativos para impedir que a IA arruine o mundo”, dizia uma página do The Verge [33]. “Os gigantes da tecnologia investem 1 milhar de milhões de dólares em empreendimento de ‘IA altruísta’, a OpenAI”, afirmava outra no site da BBC [34]. A Vanity Fair descreveu a OpenAI como “uma empresa sem fins lucrativos para salvar o mundo de um futuro distópico” [35]. E a entrevista de Levy com Altman foi intitulada “Como Elon Musk e a Y Combinator planeiam impedir que os computadores dominem tudo”.
Assim, Altman e Musk imprimiram na imprensa de tecnologia e no público em geral a noção de que a OpenAI se dedicaria a desenvolver uma IA superinteligente “segura”, livre de motivações lucrativas [36]. Criou-se uma narrativa convincente — ao contrário da gigantesca Google ou da monolítica Microsoft, aqui estavam investigadores desinteressados em ganhar dinheiro, mas totalmente empenhados em proteger o mundo de uma tecnologia tão poderosa que, se mal administrada, poderia levar à ruína da humanidade. Altman chegou a dizer a Levy que a OpenAI seria “de código aberto e utilizável por todos” [37]. É notável, com o benefício da retrospectiva, o quão pouco os motivos de Musk ou Altman foram questionados na época.

Isto também marca o início da implantação dos principais termos de marketing da OpenAI, como “IA segura”, “aberta”, “benéfica para toda a humanidade” e “superpoderosa” — em retrospectiva, podemos agora considerar esses termos de marketing desde o princípio. É especialmente relevante a mudança de foco de “código aberto” e IA “segura”, termos úteis para gerar grandes títulos nos media e atrair a boa vontade e investigadores talentosos e idealistas, para “criar IAG” (Inteligência Artificial Geral), que se tornaria central para a linguagem da OpenAI, e que é uma missão que promete um desenvolvimento mais proativo de tecnologia poderosa — e que pode beneficiar em muito o seu negócio [38].
Pode ser útil considerar o termo central de arte [ou habilidade] aqui. A “inteligência artificial” foi originalmente cunhada como uma expressão de marketing. “Eu inventei o termo inteligência artificial”, declarou o pioneiro da IA John McCarthy no debate de Lighthall de 1973, “e inventei-o porque precisávamos de fazer algo quando estávamos a tentar conseguir financiamento para um estudo de verão em 1956” [39]. Ou seja, o termo foi concebido para cativar financiadores. Também é digno de nota que os pesquisadores de IA nas décadas de 1960 e 1970 já se referiam à “IAG” quando diziam “IA” — muitas luminárias da área fizeram previsões de que uma inteligência artificial capaz de fazer qualquer coisa que um humano pode fazer surgiria, no máximo, no espaço de uma só geração [40]. A imprecisão desta terminologia foi aproveitada por empresas de informática pioneiras, como a IBM, que investiram no setor; e foi propagada na cultura pop, talvez mais famosamente no filme “2001: Uma Odisseia no Espaço”, que se passava no ano em que os cientistas de IA acreditavam que a IA de nível humano surgiria.
Por outras palavras, a IA tem sido usada como um termo de marketing há décadas, como a linguista computacional Emily Bender e outros argumentaram detalhadamente [41]. Mas se é principalmente um termo de marketing – usado para descrever uma categoria de ciências técnicas e desenvolvimento de produtos tão ampla que se aproxima da insignificância – então também é um termo familiar, e menos capaz de excitar os interesses de investidores e do público. Ele precisava de uma atualização – e IAG, não apenas inteligência artificial, mas uma inteligência geral poderosa que pode fazer tudo o que um humano faz, cumpre esse requisito. O termo “inteligência artificial geral” foi cunhado por Mark Gubrud num artigo de 1997 como uma forma de descrever uma IA distinta dos “sistemas especialistas” mais limitados que passaram a dominar a área depois daquelas previsões ambiciosas anteriores de software inteligente não se terem concretizado [42]. O termo foi retomado na década de 2010 [43].
Por fim, a OpenAI – em conjunto com grande parte do setor de tecnologia – apropriar-se-ia do termo e torná-lo-ia central nos seus esforços de marketing. Aqui está um resumo dessa evolução.
Linha do tempo da implantação de termos de IA e AGI pela OpenAI
Dez. 2015: A empresa é lançada, descrevendo-se como “uma organização sem fins lucrativos de pesquisa em inteligência artificial. O nosso objetivo é avançar a inteligência digital da forma mais provável para beneficiar o conjunto da humanidade, não limitados pela necessidade de gerar retorno financeiro. Como a nossa investigação é livre de obrigações financeiras, podemo-nos concentrar melhor num impacto humano positivo.
“Pensamos que a IA deve ser uma extensão da vontade individual humana e, no espírito da liberdade, distribuída da forma mais ampla e equitativa possível. O resultado deste empreendimento é incerto e o trabalho é difícil, mas acreditamos que o objetivo e a estrutura estão corretos. Esperamos que isto seja o que mais importa para os melhores no terreno…. É difícil imaginar o quanto uma IA de nível humano poderia beneficiar a sociedade, e é igualmente difícil imaginar o quanto ela a poderá prejudicar se coinstruida ou utilizada de forma incorreta” [44].
Jul. 2016: No anúncio inicial que detalha os objetivos específicos da OpenAI — o primeiro é medir o progresso, o segundo construir um robô para utilizar em casa, o terceiro desenvolver um agente com “compreensão de linguagem natural” e o quarto é criar um agente capaz de “resolver uma ampla variedade de jogos” — a empresa reitera a sua missão: “A missão da OpenAI é desenvolver IA segura e garantir que os seus benefícios sejam distribuídos da forma mais ampla e equitativa possível” [45].
Nov. 2016: A OpenAI e a Microsoft anunciam um acordo: a OpenAI usará o serviço de nuvem Azure da Microsoft para as suas experiências. “É ótimo trabalhar com outra organização que acredita na importância de democratizar o acesso à IA. Estamos ansiosos para acelerar a comunidade de IA através dessa parceria” [46].
Início de 2017: Segundo Altman, ele, Musk e a liderança executiva da OpenAI começaram a discutir planos para reestruturar a empresa a fim de obter financiamento adicional. “Passamos muito tempo a tentar vislumbrar um caminho plausível para a IAG (inteligência artificial geral). No início de 2017, chegámos à conclusão de que construir uma IAG exigiria quantidades massivas de poder computacional. Começámos a calcular quanto poder computacional uma IAG poderia razoavelmente exigir. Todos entendemos que precisaríamos de muito mais capital para ter sucesso na nossa missão – milhares de milhões de dólares por ano, o que era muito mais do que qualquer um de nós, especialmente Elon, pensava que poderíamos arrecadar como organização sem fins lucrativos” [47].
Elon Musk sugere incorporar a OpenAI na Tesla, ou que ele tenha controle total sobre um novo empreendimento com fins lucrativos, com participação maioritária e o cargo de CEO. A OpenAI recusa e decide nomear Altman como CEO [48].
Fev. 2018: A OpenAI anuncia novos investimentos e a saída de Musk: “Estamos a ampliar a nossa base de financiadores para preparar a próxima fase da OpenAI, que envolverá o aumento dos nossos investimentos na nossa equipa e nos recursos de computação necessários para consegur aalcançar avanços significativos na inteligência artificial” [49].
Abr. 2018: A OpenAI publica o seu estatuto, introduzindo pela primeira vez o termo “IAG”. O documento, que ainda hoje aparece no site da OpenAI, afirma: “A missão da OpenAI é garantir que a inteligência artificial geral (IAG) — que entendemos por sistemas altamente autónomos que superam os humanos na maioria dos trabalhos economicamente de valor — beneficie toda a humanidade. Tentaremos construir diretamente uma AGI segura e benéfica, mas também consideraremos a nossa missão cumprida se o nosso trabalho auxiliar outros a alcançar esse resultado”. Os pilares centrais do estatuto incluem “benefícios amplamente distribuídos”, “segurança de longo prazo”, “liderança técnica” e “orientação cooperativa”. A declaração ressalta: “O nosso principal dever fiduciário é para com a humanidade” [50].
Jun. 2018: A OpenAI lança um modelo inicial de linguagem GPT [51].
Fev. 2019: A OpenAI publica um artigo de investigação em que detalha os resultados do seu mais recente modelo de gerar de texto, mas permite que jornalistas tecnológicos testem a tecnologia. O resultado é um conjunto de relações públicas para a OpenAI que posiciona ainda mais a IA como perigosa e a empresa como uma guardiã extraordinariamente ética dessa tecnologia. Uma manchete representiva, na Wired, diz: “O gerador de texto de IA é perigoso demais para ser divulgado” [52]. O artigo começa: “Em 2015, o homem dos carros e foguetes, Elon Musk, uniu-se ao influente investidor em empresas emergentes Sam Altman para colocar a inteligência artificial num novo rumo, mais aberto. Eles cofundaram um instituto de pesquisa chamado OpenAI para fazer novas descobertas em IA e doá-las para o bem comum. Agora, os investigadores do instituto estão suficientemente preocupados com algo que construíram, e de tal modo estão preocupados que não o querem disponibilizar para o público”. Este anúncio gerou significativamente mais interesse na OpenAI do que qualquer ciclo de notícias anterior, para além dos artigos sobre a fundação da empresa.
Mar. 2019: No mês seguinte, a OpenAI anuncia que está a transitar de uma empresa de pesquisa sem fins lucrativos para “uma nova empresa com ‘lucro limitado’ que nos permite aumentar rapidamente os nossos investimentos em capacidade computacional e talento, mantendo mecanismos de controle para concretizar a nossa missão” [53]. O comunicado detalha: “A nossa missão é garantir que a inteligência artificial geral (IAG) beneficie toda a humanidade, principalmente através da tentativa de construir IAG segura e compartilhar os seus benefícios com o mundo. Vivenciamos em primeira mão que os sistemas de IA mais impressionantes exigem o maior poder computacional, além de inovações algorítmicas, e decidimos escalar muito mais rápido do que planeávamos quando fundámos a OpenAI. Precisaremos investir bilhões de dólares nos próximos anos em computação em nuvem em larga escala, atração e retenção de talentos e construção de supercomputadores de IA. Queremos aumentar a nossa capacidade de captar capital sem deixar de servir a nossa missão, e nenhuma estrutura legal pré-existente que conhecemos alcança o equilíbrio ideal. A nossa solução é criar a OpenAI LP como um híbrido entre uma empresa com fins lucrativos e uma sem fins lucrativos” [54].
Recapitulando: a OpenAI foi lançada publicamente como uma organização sem fins lucrativos com a missão auto-descrita de desenvolver uma IA de código aberto, “segura”, “de nível humano”, que “beneficiaria toda a humanidade”, enfatizando que não tinha incentivo financeiro. Pouco antes de anunciar uma reestruturação numa entidade com fins lucrativos, a OpenAI publica uma carta centralizando a sua missão como a realização de “IAG”, lançando explicitamente isso como o objetivo principal. Após o surgimento do espectro da IAG, a OpenAI divulga à imprensa um modelo de texto que diz ser demasiado perigoso para ser divulgado ao público, aproveitando ao máximo o imaginário social de uma IAG iminente. A imprensa divulga tanto o modelo, que é impressionante, como a prudência da OpenAI em atuar com cautela sobre a sua própria criação, o que torna “a IA que é muito perigosa para ser lançada” um fenómeno nos media da tecnologia. Meses mais tarde, a OpenAI anuncia um negócio de mil milhões de dólares com a Microsoft, promocionando novamente a sua busca de IAG.
Jul. 2019: No verão, “a IAG ” aparece na manchete de um dos comunicados de imprensa de maior perfil da OpenAI ainda. Anunciando a parceria de mil milhões de dólares com a Microsoft, a OpenAI diz: “a Microsoft investe e faz parceria com a OpenAI para nos apoiar na construção de uma IAG benéfica” [55]. Observe a linguagem e a mudança da focalização na “segurança” para enfatizar o poder de uma IAG (ainda especulativa:
A IAG será um sistema capaz de dominar um campo de estudo ao nível de especialistas mundiais e dominar mais campos do que qualquer outro humano – como uma ferramenta que combina as habilidades de Curie, Turing e Bach. Uma IAG a trabalhar sobre um problema seria capaz de ver conexões entre disciplinas que nenhum ser humano conseguiria ver. Queremos que a IAG trabalhe com pessoas para resolver problemas multidisciplinares actualmente intratáveis, incluindo desafios globais como alterações climáticas, cuidados de saúde acessíveis e de alta qualidade e educação personalizada. Pensamos que o seu impacto deveria ser dar a todos a liberdade económica para buscar aquilo que consideram mais gratificante, criando novas oportunidades para todas as nossas vidas que são inimagináveis hoje.
A OpenAI está a produzir uma sequência de tecnologias de IA cada vez mais poderosas, o que requer muito capital para poder computacional. A maneira mais óbvia de cobrir os custos é construir um produto, mas isso significaria mudar o nosso foco. Em vez disso, pretendemos licenciar algumas das nossas tecnologias pré-IAG, com a Microsoft a tornar-se o nosso parceiro preferido para as comercializar.
Pensamos que a criação de uma IAG benéfica vai ser o mais importante desenvolvimento tecnológico na história da humanidade, com o potencial para moldar a trajetória da humanidade. Temos um caminho técnico difícil à nossa frente, exigindo um esforço unificado de engenharia de software e pesquisa de IA de grande escala computacional, mas o sucesso técnico por si só não é suficiente. Para cumprir a nossa missão de garantir que a IAG (construída por nós ou não) beneficie toda a humanidade, teremos de garantir que a IAG seja implantada de forma segura e sem perigo; que a sociedade esteja bem preparada para as suas implicações; e que a sua vantagem económica seja amplamente partilhada. Se alcançarmos esta missão, teremos actualizado o valor partilhado da Microsoft e da OpenAI de capacitar todas as pessoas [56].
Dez. 2020: O co-fundador da OpenAI, Dario Amodei, deixa a empresa, alegadamente devido a preocupações com a parceria da Microsoft. Numa atualização anunciando a saída de Amodei, Altman observa que “a missão da OpenAI é desenvolver de forma cuidadosa e responsável a inteligência artificial de uso geral e, à medida que entramos no novo ano, o nosso foco na pesquisa – especialmente na área de segurança – nunca foi tão forte. Tornar a IA mais segura é uma prioridade para toda a empresa e uma parte fundamental do novo papel de Mira [Murati] ” [57].
Jan. 2021: A OpenAI lança o gerador de texto para imagem DALL-E. O anúncio afirma: “Reconhecemos que o trabalho que envolve os modelos têm potencial para impactos societais significativos e amplos. No futuro, pretendemos analisar a forma como modelos como o DALL-E se relacionam com questões societais, como o impacto económico em determinados processos de trabalho e profissões, o potencial de parcialidade nos resultados do modelo e os desafios éticos a longo prazo implicados por esta tecnologia” [58].
Mai. 2021: Amodei anuncia a sua nova empresa Anthropic com um investimento histórico de 124 milhões de dólares, a maior soma até agora arrecadada para uma empresa que tenta construir IA para todos os fins. A empresa descreve-se a si mesma como “uma empresa de segurança e pesquisa de IA que está a trabalhar para construir sistemas de IA confiáveis, interpretáveis e dirigíveis” [59]. Amodei diz que pretende “implantar esses sistemas de uma forma que beneficie as pessoas [60]. À medida que a Anthropic se torna o maior concorrente não-FAANG [Face Book, Apple, Amazon, Netflix e Google] da OpenAI, utiliza a “segurança da IA” como princípio orientador e termo de marketing [61].
Abr. 2022: A OpenAI lança o DALL-E 2. “Este não é um produto”, disse Mira Murati, chefe de pesquisa da OpenAI, ao New York Times. “A ideia é compreender as capacidades e limitações e dar-nos a oportunidade de incorporar uma mitigação” [62]. O gerador de imagens da IA é celebrado na imprensa [63].
Nov. 2022: A OpenAI lança o ChatGPT. A linguagem no anúncio de lançamento é mais orientada para o comércio de retalho — o culminar, talvez, de um esforço de marketing de um ano para gerar interesse no que agora é claramente apontado como um produto comercial: “Estamos entusiasmados em apresentar o ChatGPT para obter feedback dos utilizadores e conhecer os seus pontos fortes e fracos. Durante a pré-visualização da investigação, a utilização do ChatGPT é gratuita” [64].
A reputação da empresa como a vanguarda do desenvolvimento responsável da IA — afinal, esta foi a empresa criada para proteger a humanidade da IA maliciosa — significava que o lançamento do produto era tratado com gravidade extra pela imprensa. “Não estamos preparados”, escreve Kevin Roose, do The New York Times, sobre o produto de robô de conversação gerador de texto [65].
MARKETING DA IAG, ENTREGANDO A IA COMERCIAL
A OpenAI foi lançada como uma organização sem fins lucrativos posicionada para cumprir um objetivo comercial, mas desde o início estava repleta de potencial lucrativo e utilizou termos de marketing para criar uma narrativa sobre a sua busca altruísta por construir uma “IAG” “segura”. É irrelevante se os participantes deste empreendimento acreditam ou não nos riscos da IA—muitos claramente acreditam—mas esses riscos servem propósitos de marketing independentemente disso. Se um produto de IA pode ser todo-poderoso, é ainda mais atraente para executivos e gestores que esperam aproveitá-lo para aumentar a produtividade e reduzir custos no trabalho. Desde o início, a OpenAI posicionou-se como a única administradora confiável desta perigosa tecnologia próxima à IAG — e, portanto, só devemos confiar neles quando chegar a hora de a vender.
Ao colocar a utilização do termo “IAG ” (Inteligência Artificial Geral) nos materiais de marketing da OpenAI, surgem os padrões. O termo é mais frequentemente implantado em momentos cruciais da história de captação de recursos da empresa, ou quando convém à empresa lembrar a imprensa das implicações da sua missão. A OpenAI primeiro tornou a IAG num foco oficial dos negócios da empresa em 2018, quando divulgou o seu estatuto, logo após anunciar a saída de Elon Musk; e novamente durante as negociações de investimento com a Microsoft e a preparação para se reestruturar como uma empresa com fins lucrativos.
Em janeiro de 2023, pouco mais de um mês após o lançamento do ChatGPT, quando a tecnologia ainda estava em rápida ascensão – seria o aplicativo mais rápido a alcançar 100 milhões de utilizadores, de acordo com a empresa – a OpenAI e a Microsoft anunciaram uma parceria de 10 mil milhões de dólares que, segundo a OpenAI, “nos permitirá continuar a nossa investigação independente e desenvolver uma IA cada vez mais segura, útil e poderosa” [66]. Não há menção explícita à IAG. Dois meses depois, quando o ChatGPT já estava suficientemente divulgado e talvez até começando a estagnar no crescimento de utilizadores, e quando a Microsoft tinha interesse em divulgar os seus próprios produtos alimentados pelo ChatGPT, os seus investigadores publicaram um artigo anunciando que o ChatGPT 4 mostrava “lampejos” de IAG [67].
A OpenAI é quase exatamente o inverso do que prometeu ser inicialmente – em vez de ser de código aberto e sem fins lucrativos, estruturada para evitar que qualquer pessoa assumisse muito poder sobre essa tecnologia supostamente tão poderosa, ela transformou-se numa empresa altamente proprietária e explicitamente voltada para o lucro, com uma única pessoa, o CEO Sam Altman, a exercer o controle quase total sobre as operações. No entanto, isso é pouco comentado nos media ou por analistas de negócios, com a exceção um tanto irónica de Elon Musk, que moveu um processo alegando que, ao tornar-se uma entidade com fins lucrativos e de código fechado, a OpenAI violou os termos do seu financiamento inicial.
A OpenAI irrompeu na consciência pública e nas notícias dos media no final de 2022 após o lançamento público do ChatGPT, que se tornaria sinónimo da nova e florescente categoria de produtos de inteligência artificial generativa. Ao longo de 2023, o Vale do Silício – e muitos outros setores, liderados por empresas de consultoria e instituições financeiras – reorientou-se em torno da tecnologia mais de ponta que se viu em anos: robôs de conversação, geradores de imagem, sintetizadores de áudio e outros produtos de IA lançados por sempresas emergentes e por gigantes consolidadas. A IA tornou-se a tendência dominante absoluta no mundo tecnológico, subjugando todos os demais produtos na sua orbita.
A IA generativa cativou o público com demonstrações tecnológicas espetaculares, que os executivos da OpenAI rapidamente transformaram em referência para os novos serviços e para o poder da IA em geral. A euforia atingiu níveis apocalípticos, sempre com Altman que realizou uma longa viagem por Washington e pelas capitais europeias, aparentemente a liderar uma cruzada pública por regulamentação; testemunhando o poder da tecnologia; e tornando-se o principal interlocutor para as políticas empresariais sobre a IA. A mitologia construída desde a fundação da OpenAI mostrou-se lucrativa ao longo de 2023.
A construção da IAG também pode ser usada como um dispositivo para atenuar escândalos ou para lembrar os investidores do objetivo comercial final da OpenAI. Por exemplo, em maio de 2024, quando a OpenAI enfrentou uma série dos seus escândalos mais severos – o mais notável sendo o de Scarlett Johansson acusando a empresa de imitar a sua voz sem o seu consentimento [68] – a empresa respondeu anunciando um novo conselho de segurança e um novo “modelo de fronteira” para ajudar a criar a IAG: “A OpenAI recentemente começou a treinar o seu próximo modelo de fronteira e antecipamos que os sistemas resultantes nos levarão ao próximo nível de capacidades no nosso caminho para a IAG” [69].

Em 2024, a evolução da IAG para um puro termo de marketing, completamente desconectado do campo da investigação, estava completa. A OpenAI anunciou no seu sítio oficial o lançamento da MavenAGI, uma empresa de atendimento ao cliente automatizada desenvolvida com a sua tecnologia GPT: “A MavenAGI é uma nova empresa de software para a era da IA” [70]. Ao longo das décadas, a “IA” tornou-se rotineira, familiar e tão amplamente compreendida como sendo irrelevante. A IAG pode ser vista como uma reapropriação do conceito, amigável para o marketing, para diferenciar uma nova vaga de produtos de uma disciplina com décadas de existência.
E se a IAG foi o propulsor de marketing, a inteligência artificial generativa foi a demonstração ideal para comunicar o seu potencial. As suas imagens autogeradas “mágicas”, vídeos perturbadoramente realistas e um robô de conversação que imitava o comportamento humano na sua apresentação (com o cursor a piscar e frases sendo digitadas em tempo real, como se feitas por uma pessoa superinteligente nos bastidores) passavam a impressão de que esta era a humanidade, potencializada. O sucesso das demonstrações do DALL-E e do ChatGPT significou que o interesse comercial inicial estaria em automatizar a geração de texto, código e imagens – e em automatizar o trabalho criativo. Isso incentivaria as empresas de IA a moldar os seus modelos de negócios para capitalizar esse interesse e alinhar as suas pesquisas por contratos empresariais a essa narrativa.
A OpenAI ajudou a construir um imaginário onde uma IAG de grande poder paira sobre o horizonte — um que pode fazer qualquer coisa que um ser humano possa, pelo menos no mundo digital – e ofereceu um conjunto de demonstrações como prova. Apesar de todas as maravilhas que provocaram, o caminho mais claro para um modelo de negócio parecia articular a capacidade da IAG de automatizar o trabalho humano. Na verdade, foi assim que foi redefinido na carta de 2018 da OpenAI: a IAG permanece definida pela OpenAI como “sistemas altamente autónomos que superam os humanos na maioria do trabalho economicamente valioso” [71]. Embora ainda não estivesse claro o que é que os modelos de negócios da maioria das empresas geradoras de IA seriam, o investimento foi desencadeado, não obstante.
Segundo a CB Insights, o investimento em “IA” de 2010 a 2015 totalizou menos de 1 milhar de milhões de dólares no seu conjunto, embora tenha aumentado drasticamente, de 45 milhões dólares em 2010 para 310 milhões em 2015 [72]. Ao longo da década de 2010, o investimento em IA foi contínuo, ainda que direcionado para empresas de IA “restrita” focadas em gerar eficiências na produção e manufatura — empresas emergentes notáveis incluíam a Vicarious —, mas era uma mera fração do que o boom de 2023 desencadearia. De acordo com um relatório da OCDE, “entre 2015 e 2023, os investimentos globais de capital de risco em empresas emergentes de IA triplicaram (de 31 mil milhões de dólares para 98 mil milhões), com os investimentos em IA generativa especificamente a crescer de 1% do total de investimentos de capital de risco em IA em 2022 (1,3 mil milhões de dólares) para 18,2% (17,8 mil milhões de dólares) em 2023, apesar do resfriamento dos mercados de capitais” [73].
Investidores de alto perfil incluem Andreessen Horowitz, ou A16z, a maior empresa de capital de risco por ativos sob gestão (42 mil milhões de dólares). A A16z participou na captação de 300 milhões de dólares da OpenAI em abril de 2023 e, desde então, iniciou um fundo de 6 mil milhões de dólares destinado a empresas de IA e “dinamismo americano” [74]. A empresa investiu em vinte empresas emergentes de IA; segundo a Pitchbook, “a A16z fez uma jogada para dominar cada parte da cadeia de valor da IA generativa” [75]. Mais significativamente, investiu 415 milhões de dólares numa só ronda Série A para a empresa emergente francesa de IA de código aberto Mistral.
A segunda maior empresa do Vale, a Sequoia Capital, investiu na OpenAI em 2021 e, em 2023, também desencadeou uma enxurrada de investimentos em IA: 30 milhões de dólares na Série A da Collaborative Robotics, 28 milhões na Hex Technologies, 21 milhões na empresa de IA jurídica Harvey, 15 milhões na CloseFactor, 12,2 milhões na empresa emergente de vídeo generativo Tavus, 5,5 milhões na empresa de assistente de IA Dust, 5,3 milhões na Replicate e 3,2 milhões na Helm, uma empresa emergente de IA em saúde. A empresa afirma ter setenta empresas de IA no seu portfólio [76].
(continua)
____________
Notas
- “Introducing OpenAI.” ↩︎
-
Though the dollar amounts have not been made public, Musk is understood to be the largest and most important initial donor, with reported funding in the $45 million to “hundreds of millions” range. ↩︎
-
“Introducing OpenAI.” ↩︎
-
Russell Brandom, “Elon Musk and Partners Form Nonprofit to Stop AI from Ruining the World,” Verge, December 11, 2015. ↩︎
-
“Tech Giants Pledge $1Bn for ‘Altruistic AI’ Venture, OpenAI,” BBC, December 12, 2015. ↩︎
-
Emily Jane Fox, “Sam Altman on His Plan to Keep A.I. out of the Hands of the ‘Bad Guys’,” Vanity Fair, December 15, 2015. ↩︎
-
See Leslie Hook, “Silicon Valley in Move to Keep AI Safe,” Financial Times, December 11, 2015. ↩︎
-
Levy, “How Elon Musk and Y Combinator Plan to Stop Computers from Taking Over.” ↩︎
-
More recently, an OpenAI representative gave a demo where he claimed that Sora is an important stepping stone on the road to AGI, because in order to create good videos of people, you have to know how people think. ↩︎
-
Pierre-Yves Oudeyer, “The Lighthill Debate on Artificial Intelligence: ‘The General Purpose Robot Is a Mirage’,” YouTube, 1:23:11, March 7, 2018. ↩︎
-
Jeffrey Funk and Gary Smith, “Why A.I. Moonshots Miss,” Slate, May 4, 2021. ↩︎
-
See Emily M. Bender, “Opening Remarks on ‘AI in the Workplace: New Crisis or Longstanding Challenge’,” Medium, October 1, 2023. ↩︎
-
Mark Gubrud (@mgubrud), “This is the original (first published) definition of AGI. It was not a pejorative against anything. It was an attempt to set a milestone for future AI that would have qualitatively distinct (from then-AI) impacts esp. re international security,” Twitter (now X), July 25, 2019. ↩︎
-
David Deutsch, “Philosophy Will Be the Key That Unlocks Artificial Intelligence,” Guardian, October 3, 2012. ↩︎
-
“Introducing OpenAI.” My emphasis. ↩︎
-
“OpenAI Technical Goals,” OpenAI, June 20, 2016. My emphasis. ↩︎
-
“OpenAI and Microsoft,” OpenAI, November 15, 2016. My emphasis. ↩︎
-
Ibid. ↩︎
-
“OpenAI Supporters,” OpenAI, February 20, 2018. ↩︎
-
“OpenAI Charter,” OpenAI, April 9, 2018; accessed November 1, 2024. My emphasis. ↩︎
-
“Improving Language Understanding with Unsupervised Learning,” OpenAI, June 11, 2018. ↩︎
-
Tom Simonite, “The AI Text Generator That’s Too Dangerous to Make Public,” Wired, February 14, 2019. ↩︎
-
Ibid. My emphasis. ↩︎
-
“Microsoft Invests in and Partners with OpenAI to Support Us Building Beneficial AGI,” OpenAI, July 22, 2019. My emphasis. ↩︎
-
Ibid. ↩︎
-
“Organizational Update from OpenAI,” OpenAI, December 29, 2020. ↩︎
-
“DALL-E: Creating Images from Text,” OpenAI, January 5, 2021. ↩︎
-
“Anthropic: An AI Safety and Research Company That’s Working to Build Reliable, Interpretable, and Steerable AI Systems,” Welcome AI, May 2021, accessed November 1, 2024. ↩︎
-
“Anthropic Raises $124 Million to Build More Reliable, General AI Systems,” Anthropic, May 28, 2021. ↩︎
-
This might be seen as what will become something of an “AI safety” arms race, in which new entrants compete to declare their product the safest vehicle for achieving AI. For the culmination of this trend, see Ilya Sutskever, Daniel Gross, and Daniel Levy, Safe Superintelligence Inc., June 19, 2024, accessed November 1, 2024. ↩︎
-
Cade Metz, “Meet DALL-E, the A.I. That Draws Anything at Your Command,” New York Times, April 6, 2022. ↩︎
-
For examples, complete with adulatory headlines, see Casey Newton, “How DALL-E Could Power a Creative Revolution,” Verge, June 10, 2022; and Mark Sullivan, “OpenAI’s DALL-E AI Is Becoming a Scary-Good Graphic Artist,” Fast Company, April 6, 2022. ↩︎
-
“Introducing ChatGPT,” OpenAI, November 30, 2022. ↩︎
-
Kevin Roose, “The Brilliance and Weirdness of ChatGPT,” New York Times, December 5, 2022. ↩︎
-
Cade Metz and Karen Weise, “Microsoft to Invest $10 Billion in OpenAI, the Creator of ChatGPT,” New York Times, January 23, 2023. ↩︎
-
See Chloe Xiang, “Microsoft Now Claims GPT-4 Shows ‘Sparks’ of General Intelligence,” Motherboard, March 24, 2023; and Sébastien Bubeck, Varun Chandrasekaran, Ronen Eldan, Johannes Gehrke, Eric Horvitz, Ece Kamar, Peter Lee, Yin Tat Lee, Yuanzhi Li, Scott Lundberg, Harsha Nori, Hamid Palangi, Marco Tulio Ribeiro, and Yi Zhang, “Sparks of Artificial General Intelligence: Early Experiments with GPT-4,” arXiv, March 22, 2023. ↩︎
-
Sarah Krouse, Deepa Seetharaman, and Joe Flint, “Behind the Scenes of Scarlett Johansson’s Battle With OpenAI,” Wall Street Journal, May 23, 2024. ↩︎
-
“OpenAI Board Forms Safety and Security Committee,” OpenAI, May 28, 2024. ↩︎
-
“MavenAGI Launches Automated Customer Support Agents Powered by OpenAI,” OpenAI, n.d., accessed November 1, 2024. ↩︎
-
“OpenAI Charter.” My emphasis. ↩︎
-
“Deep Interest in AI: New High in Deals to Artificial Intelligence Startups in Q4 ’15,” CB Insights, February 4, 2016. ↩︎
-
Celine Caira, “The Future of Artificial Intelligence,” in OECD Digital Economy Outlook 2024 (Volume 1): Embracing the Technology Frontier, OECD, 2024. ↩︎
-
Sam Blum, “A16z Targets AI as Part of New $6 Billion Fund, Days After Marc Andreessen Called OpenAI’s Security Protocol ‘Swiss Cheese’,” Inc., March 7, 2024. ↩︎
-
Jacob Robbins, “Andreessen Horowitz’s $415M Mistral investment Rounds Out AI Strategy,” PitchBook, December 10, 2023. ↩︎
-
Gené Teare, “Inside Sequoia Capital’s Growing AI Portfolio,” Crunchbase News, October 23, 2023. ↩︎
O autor: Brian Merchant é um jornalista e autor americano de tecnologia. É licenciado pela UC SantaBarbara. O seu trabalho centra-se frequentemente em questões sociais e ambientais relacionadas com a tecnologia e as empresas de tecnologia. Os seus textos apareceram em publicações como The New York Times, Wired, Slate, The Atlantic e The Guardian. Foi colunista de tecnologia no Los Angeles Times de 2023 ao início de 2024 (despedido numa onda de despedimentos do pessoal da redação). Escreveu dois livros, The one Device: The Secret History of the iPhone (2017) e Blood in the Machine: the Origins of the Rebellion against Big Tech (2023). Atualmente, trabalha em tempo integral para o seu boletim no Substack, Blood in the Machine, onde relata como a grande tecnologia e os desenvolvimentos na IA gerativa afetam os trabalhadores e os consumidores.




