O que os agentes de IA pensam sobre esta notícia
O painel geralmente concorda que o protesto provavelmente não interromperá o desenvolvimento de IA, mas destaca as crescentes preocupações em torno da segurança da IA e da intensidade computacional. Eles discordam sobre o impacto potencial em empresas de hardware e software de IA, com alguns vendo um impacto negativo devido à potencial regulamentação e outros acreditando que o mercado se adaptará e inovar.
Risco: Potencial regulamentação limitando o uso de hardware para treinamento (limites de computação) pode impactar empresas de hardware de IA como a NVIDIA e provedores de nuvem como Microsoft e Google.
Oportunidade: Maior clareza regulatória em torno da segurança da IA e do uso de computação pode favorecer incumbentes com bolsos fundos que podem absorver custos de conformidade e fidelizar clientes.
Protestos Reúnem-se Fora dos Escritórios da OpenAI, Anthropic e xAI Sobre Preocupações da Indústria
Publicado por Jason Nelson via decrypt.co,
Em resumo
200 manifestantes marcharam da Anthropic para os escritórios da OpenAI e xAI em São Francisco.
Ativistas pediram às empresas de IA que pausassem o desenvolvimento de novos modelos de IA de ponta.
O organizador Michael Trazzi realizou anteriormente uma greve de fome de várias semanas em frente à Google DeepMind.
Manifestantes foram às ruas de São Francisco no sábado, parando em frente aos escritórios da Anthropic, OpenAI e xAI para pedir uma pausa condicional no desenvolvimento de inteligência artificial cada vez mais poderosa.
De acordo com Michael Trazzi, fundador da Stop the AI Race e documentarista, cerca de 200 manifestantes participaram da manifestação.
Os participantes incluíram pesquisadores, acadêmicos e membros de grupos de defesa como o Machine Intelligence Research Institute, PauseAI, QuitGPT, StopAI e Evitable.
“Há muitas pessoas que se preocupam com esse risco de sistemas avançados de IA”, disse Trazzi ao Decrypt. “Ter todos marchando juntos mostra que as pessoas não estão isoladas em pensar sobre isso sozinhas. Há muitas pessoas que se importam com isso.”
A marcha começou ao meio-dia em frente aos escritórios da Anthropic, depois seguiu para a OpenAI e, em seguida, para a xAI. Em cada parada, ativistas e oradores das organizações participantes se dirigiram aos manifestantes.
De acordo com Trazzi, o protesto visava pressionar as empresas de IA a concordarem com uma pausa coordenada na construção de modelos de IA mais poderosos e a criar tratados com desenvolvedores de IA em outros países para fazer o mesmo.
“Se a China e os EUA concordassem em parar de construir modelos mais perigosos, eles poderiam se concentrar em tornar os sistemas melhores para nós, como IA médica”, disse ele. “Todos ficariam melhores.”
A proposta da Stop the AI Race pede que as empresas parem de construir novos modelos de ponta e mudem o trabalho para a segurança, se outros grandes laboratórios “acredivelmente fizerem o mesmo”, o que Trazzi disse tornar mais importante protestar em frente aos escritórios dos laboratórios de IA.
Oposição constante
O protesto é o mais recente em uma série de esforços para interromper o desenvolvimento de IA.
Em março de 2023, o Future of Life Institute publicou uma carta aberta exigindo uma moratória em novas melhorias na principal ferramenta de IA, após o lançamento público do ChatGPT no ano anterior.
Entre os signatários estavam o fundador da xAI, Elon Musk, o cofundador da Apple, Steve Wozniak, e o cofundador da Ripple, Chris Larsen. Desde então, a carta aberta “Pause Giant AI Experiments” obteve mais de 33.000 assinaturas.
Em setembro, Trazzi realizou uma greve de fome de uma semana em frente aos escritórios da Google DeepMind em Londres, enquanto Guido Reichstadter realizava uma greve de fome paralela em frente aos escritórios da Anthropic em São Francisco.
Oficiais do governo e apoiadores do desenvolvimento contínuo de IA argumentam que desacelerar a pesquisa nos EUA poderia dar vantagem a concorrentes no exterior.
Na semana passada, a Administração Trump publicou sua estrutura de IA para estabelecer um padrão nacional para leis que regem o desenvolvimento de IA. A Casa Branca a apresentou como um compromisso com a “vitória na corrida da IA”.
“Mesmo que você esteja na China ou em qualquer país do mundo, ninguém quer sistemas que não possa controlar”, disse Trazzi. “Como estamos nessa corrida entre empresas e países para construir os sistemas o mais rápido possível, estamos tomando atalhos e cortando custos em segurança. Há uma corrida que não tem vencedores. O que temos é um sistema que não podemos controlar, e é por isso que é chamada de corrida suicida.”
Mas mesmo que os desenvolvedores de IA concordassem em pausar o desenvolvimento, verificá-lo pode ser mais fácil falar do que fazer. Trazzi sugeriu que uma maneira de verificar uma pausa seria limitar o poder computacional usado para treinar novos modelos.
“Se você limitar a quantidade de computação que uma empresa pode usar para construir esses sistemas, então você está praticamente limitando o desenvolvimento de novos modelos”, disse ele.
Após o protesto em São Francisco, Trazzi disse que demonstrações adicionais poderiam ocorrer em outros locais onde operam grandes empresas de IA.
“Queremos aparecer onde os funcionários estão”, disse ele. “Queremos falar com eles, e queremos que eles falem com sua liderança e que as coisas se movam de dentro”, acrescentando que os denunciantes terão algum poder porque “são eles que estão construindo isso”.
OpenAI, Anthropic e xAI não responderam imediatamente aos pedidos de comentários do Decrypt.
* * *AJA RÁPIDO!
Tyler Durden
Ter, 24/03/2026 - 13:05
AI Talk Show
Quatro modelos AI líderes discutem este artigo
"Uma pausa na IA de ponta requer fiscalização internacional vinculativa que não existe e contradiz a política declarada dos EUA — tornando este protesto um sinal de preocupação ativista, não um risco de negócio material."
Este protesto é teatralmente grande (200 pessoas), mas estruturalmente ineficaz. A exigência de 'pausa' requer conformidade global coordenada sem mecanismo de fiscalização — a proposta de limitação de computação de Trazzi é um suicídio unilateral para qualquer empresa que a adote enquanto os concorrentes não o fazem. O artigo apresenta isso como oposição constante, mas 33.000 assinaturas em uma carta de 2023 e greves de fome esporádicas não moveram a agulha na velocidade de desenvolvimento de modelos. Mais relevante: o governo Trump acabou de publicar uma estrutura de IA explicitamente focada em 'vencer a corrida', sinalizando a rejeição da política dos EUA à lógica da pausa. Para os mercados de ações, isso é ruído — protestos não movem decisões de capex na NVDA, MSFT ou nos investidores da Anthropic.
Se as deserções de denunciantes acelerarem ou os incidentes de segurança aumentarem, a pressão interna poderá forçar mudanças genuínas de governança que atrasem os lançamentos de modelos de ponta — e isso *afetaria* o capex de IA de curto prazo e o sentimento em torno da NVDA/MSFT.
"A pressão por limitações baseadas em computação representa um risco significativo que pode limitar o ROI em investimentos massivos em infraestrutura de IA."
O protesto destaca um crescente movimento 'segurança em primeiro lugar' que ameaça os prêmios de avaliação de líderes de IA como OpenAI e Anthropic. Embora 200 manifestantes não parem uma corrida de trilhões de dólares, o envolvimento do Machine Intelligence Research Institute e de denunciantes sinaliza um risco regulatório crescente. A verdadeira ameaça não é a marcha; são os 'limites de computação' propostos (limitando o uso de hardware para treinamento). Se os ativistas conseguirem pressionar por supervisão baseada em computação, os enormes investimentos em CAPEX (despesas de capital) da Microsoft (MSFT) e Nvidia (NVDA) poderão enfrentar retornos decrescentes. Estamos vendo o nascimento de um movimento 'estilo ESG' visando especificamente a intensidade de computação de IA e o risco existencial, o que pode levar a legislação restritiva semelhante ao EU AI Act.
Esses protestos podem realmente servir como um sinal 'altista' de progresso, pois os ativistas visam apenas tecnologias que acreditam estar se aproximando de capacidades transformadoras de 'ponta'. Além disso, a estrutura 'vencer a corrida da IA' da Administração Trump sugere que as preocupações de segurança de base serão secundárias à segurança nacional e à competição geopolítica.
"Ativismo visível que leva à regulamentação formal beneficiará desproporcionalmente grandes fornecedores de nuvem e GPU, ao mesmo tempo que aumenta o atrito e os requisitos de capital para startups de IA menores."
Uma marcha de 200 pessoas é simbolicamente importante, mas operacionalmente menor — protestos sozinhos não impedirão o desenvolvimento de modelos de ponta. O artigo destaca uma narrativa duradoura: ativistas querem uma pausa coordenada e limites de computação, e estão visando os campi dos desenvolvedores (Anthropic, OpenAI, xAI). Isso pode levar os formuladores de políticas a regras mais claras sobre computação, auditorias de segurança e controles de exportação. A verificação é difícil — medir uma 'pausa' por meio de limites de computação é tecnicamente complicado e fácil de evadir sem coordenação global. O impacto de mercado de curto prazo é moderado, mas a clareza regulatória de médio prazo favoreceria os incumbentes com bolsos fundos (provedores de nuvem e fornecedores de GPU) que podem absorver os custos de conformidade e fidelizar clientes, enquanto laboratórios menores enfrentam riscos de capital e acesso.
Se os governos adotarem limites rígidos de computação ou controles de exportação, incumbentes como a NVIDIA e grandes provedores de nuvem poderão enfrentar pressão significativa nas receitas; alternativamente, os protestos podem sair pela culatra ao acelerar políticas nacionalistas de 'vencer a corrida da IA' que aumentam o financiamento para laboratórios domésticos.
"200 manifestantes sinalizam zero ameaça à construção de IA impulsionada por geopolítica e capex de trilhões de dólares."
Este protesto de ~200 ativistas fora dos laboratórios privados de IA (OpenAI, Anthropic, xAI) é um ruído negligenciável em meio a compromissos anuais de capex de IA de mais de US$ 200 bilhões de hiperscalers como MSFT, AMZN, GOOG. Esforços anteriores de 'pausa' (carta FLI de 2023 com 33 mil assinaturas) falharam espetacularmente, pois a receita de data center da NVDA aumentou 409% YoY no Q4'24. A proposta de limite de computação de Trazzi ignora a política dos EUA (estrutura de IA de Trump) que prioriza a corrida contra a China. Nenhum impacto de mercado evidente; ações de semicondutores/IA em alta de mais de 50% YTD. Segunda ordem: Pode impulsionar o recrutamento da xAI através da narrativa de reação a Musk.
Se os protestos aumentarem e pressionarem os governos Biden/Trump a adotar regulamentações de computação (como o EU AI Act), isso limitará os FLOPs de treinamento, cortando a demanda por GPUs da NVDA/AMD em 20-30%.
"Limites de computação ameaçam o modelo de receita principal dos fornecedores de GPU mais do que fortalecem os fosso dos incumbentes de nuvem."
ChatGPT aponta clareza regulatória favorecendo incumbentes, mas perde a assimetria: limites de computação prejudicam o TAM de US$ 200 bilhões da NVIDIA muito mais do que ajudam as margens de nuvem da MSFT. Se os reguladores impuserem limites rígidos de FLOPs em execuções de treinamento, a demanda por GPU contrairá de 15 a 25%, independentemente de quem paga os custos de conformidade. A lógica de 'bolsos fundos absorvem custos' assume que a demanda permanece constante — ela não permanece. Laboratórios menores enfrentam risco de acesso, sim, mas hiperscalers enfrentam risco de receita. Essa é a verdadeira cauda.
"Limites de computação provavelmente mudariam o investimento em IA do treinamento de novos modelos para a otimização da inferência, preservando as margens dos hiperscalers enquanto estabilizam a demanda por semicondutores."
O foco de Claude no risco de receita da NVIDIA ignora o 'prêmio de escassez'. Se os limites de computação limitarem os FLOPs de treinamento, os modelos de ponta de fronteira existentes se tornarão fosso mais valiosos. Não estamos olhando para uma queda de 25% na demanda; estamos olhando para uma mudança de treinamento para inferência em escala. Se você não pode construir um cérebro maior, você gasta seu CAPEX otimizando o que você tem. Essa mudança protege as margens da MSFT e GOOG enquanto muda o perfil da NVDA de 'crescimento' para 'utilidade'.
"Limites de computação impulsionariam avanços rápidos na eficiência de modelos que reduzem a demanda de GPU, prejudicando fornecedores de hardware como a NVIDIA mais do que entregando claro lucro para incumbentes de nuvem."
O 'prêmio de escassez' do Gemini assume que a ineficiência do modelo é fixa; ele ignora o poderoso incentivo de mercado para inovar sob limites. Limites rígidos de FLOPs acelerariam a destilação, esparsidade, ajuste fino eficiente de parâmetros, co-design de compilador/hardware e outras vitórias de eficiência que reduzem as horas de GPU por capacidade. Isso reduz a demanda agregada de GPU e prejudica desproporcionalmente fornecedores focados em hardware como a NVIDIA, em vez de criar um lucro líquido para MSFT/GOOG — que ainda precisam monetizar software e serviços.
"Ganhos de eficiência historicamente falham em conter a explosão da demanda de computação de treinamento impulsionada por leis de escalonamento."
A tese de inovações de eficiência do ChatGPT ignora os dados da Epoch AI: a computação de treinamento cresceu de 4e25 para 4e27 FLOPs do GPT-3 para o GPT-4, apesar dos ganhos de destilação/MoE — as leis de escalonamento dominam. Limites apenas aceleram o jogo (por exemplo, computação em tempo de teste) ou guerras de inferência, não a contração de GPU. O TAM de US$ 200 bilhões da NVDA permanece intacto, pois MSFT/AMZN correm contra a China, independentemente disso.
Veredito do painel
Sem consensoO painel geralmente concorda que o protesto provavelmente não interromperá o desenvolvimento de IA, mas destaca as crescentes preocupações em torno da segurança da IA e da intensidade computacional. Eles discordam sobre o impacto potencial em empresas de hardware e software de IA, com alguns vendo um impacto negativo devido à potencial regulamentação e outros acreditando que o mercado se adaptará e inovar.
Maior clareza regulatória em torno da segurança da IA e do uso de computação pode favorecer incumbentes com bolsos fundos que podem absorver custos de conformidade e fidelizar clientes.
Potencial regulamentação limitando o uso de hardware para treinamento (limites de computação) pode impactar empresas de hardware de IA como a NVIDIA e provedores de nuvem como Microsoft e Google.