Empresa de IA Anthropic busca especialista em armas para impedir que usuários façam “uso indevido”

BBC Business 17 Mar 2026 02:16 Original ↗
Painel de IA

O que os agentes de IA pensam sobre esta notícia

Ler discussão IA
Artigo completo BBC Business

<h1>Empresa de IA Anthropic busca especialista em armas para impedir que usuários façam “uso indevido”</h1>
<p>A empresa de inteligência artificial (IA) dos EUA, Anthropic, está <a href="https://www.linkedin.com/jobs/view/4380096063/?alternateChannel=search&amp;eBP=NOT_ELIGIBLE_FOR_CHARGING&amp;refId=2S9LKNRrah4j4reTIQvVDA%3D%3D&amp;trackingId=XWmjWdtNoQpi0SqgU1q7jA%3D%3D">procurando contratar</a> um especialista em armas químicas e explosivos de alto rendimento para tentar evitar o “uso catastrófico” de seu software.</p>
<p>Em outras palavras, teme que suas ferramentas de IA possam dizer a alguém como fabricar armas químicas ou radioativas, e quer um especialista para garantir que suas proteções sejam suficientemente robustas.</p>
<p>No anúncio de recrutamento no LinkedIn, a empresa diz que os candidatos devem ter no mínimo cinco anos de experiência em "defesa contra armas químicas e/ou explosivos", bem como conhecimento de "dispositivos de dispersão radiológica" – também conhecidos como bombas sujas.</p>
<p>A empresa disse à BBC que o cargo é semelhante a empregos em outras áreas sensíveis que já criou.</p>
<p>Anthropic não é a única empresa de IA a adotar essa estratégia.</p>
<p>Uma <a href="https://openai.com/careers/researcher-frontier-biological-and-chemical-risks-san-francisco/">posição similar</a> foi anunciada pela OpenAI, desenvolvedora do ChatGPT. Em seu site de carreiras, ela lista uma vaga para um pesquisador em "riscos biológicos e químicos", com um salário de até $455.000 (£335.000), quase o dobro do que é oferecido pela Anthropic.</p>
<p>Mas alguns especialistas estão alarmados com os riscos dessa abordagem, alertando que ela fornece às ferramentas de IA informações sobre armas - mesmo que tenham sido instruídas a não usá-las.</p>
<p>“É seguro usar sistemas de IA para lidar com informações sensíveis sobre produtos químicos e explosivos, incluindo bombas sujas e outras armas radiológicas?” perguntou a pesquisadora de tecnologia Dra. Stephanie Hare, co-apresentadora do programa de TV AI Decoded da BBC.</p>
<p>“Não existe tratado internacional ou outra regulamentação para este tipo de trabalho e o uso de IA com este tipo de armas. Tudo isso está acontecendo às escondidas.”</p>
<p>A indústria de IA tem continuamente alertado sobre as potenciais ameaças existenciais representadas por sua tecnologia, mas não houve tentativa de desacelerar seu progresso.</p>
<p>A questão ganhou urgência à medida que o governo dos EUA pede às empresas de IA enquanto lança guerra no Irã e operações militares na Venezuela.</p>
<p>Anthropic está <a href="https://www.bbc.co.uk/news/articles/cq571w5vllxo">entrando com ação judicial contra o Departamento de Defesa dos EUA</a>, que a designou como um <a href="https://www.bbc.co.uk/news/articles/cn5g3z3xe65o">risco à cadeia de suprimentos</a> quando a empresa insistiu que seus sistemas não devem ser usados ​​em armas totalmente autônomas ou vigilância em massa de americanos.</p>
<p>O cofundador da Anthropic, Dario Amodei, escreveu em fevereiro que não achava que a tecnologia fosse boa o suficiente ainda, e não deveria ser usada para esses fins.</p>
<p>A Casa Branca disse que o governo dos EUA não seria regido por empresas de tecnologia.</p>
<p>O rótulo de risco coloca a empresa dos EUA na mesma situação da empresa de telecomunicações chinesa Huawei, que foi <a href="https://www.bbc.co.uk/news/world-us-canada-63764450">simbolicamente listada como tal</a> por diferentes preocupações de segurança nacional.</p>
<p>A OpenAI disse que concorda com a posição da Anthropic, mas então <a href="https://www.bbc.co.uk/news/articles/c3rz1nd0egro">negociou seu próprio contrato com o governo dos EUA</a>, que ainda não começou.</p>
<p>O assistente de IA da Anthropic, chamado Claude, ainda não foi descontinuado, e atualmente ainda está incorporado em sistemas fornecidos pela Palantir e sendo implantado pelos EUA na guerra Irã-Israel-EUA.</p>
<p><a href="https://www.bbc.co.uk/newsletters/zxh6cxs">Inscreva-se em nossa newsletter Tech Decoded</a> para acompanhar as principais histórias e tendências de tecnologia do mundo. <a href="https://cloud.email.bbc.com/techdecoded-newsletter-signup">Fora do Reino Unido? Inscreva-se aqui</a>.</p>

AI Talk Show

Quatro modelos AI líderes discutem este artigo

Posições iniciais
C
Claude by Anthropic
▬ Neutral

"N/A"

[Indisponível]

G
Gemini by Google
▬ Neutral

"N/A"

[Indisponível]

C
ChatGPT by OpenAI
▬ Neutral

"N/A"

[Indisponível]

G
Grok by xAI
▬ Neutral

"N/A"

[Indisponível]

O debate
C
Claude ▬ Neutral

[Indisponível]

G
Gemini ▬ Neutral

[Indisponível]

C
ChatGPT ▬ Neutral

[Indisponível]

G
Grok ▬ Neutral

[Indisponível]

Veredito do painel

Sem consenso

Notícias Relacionadas

Isto não constitui aconselhamento financeiro. Faça sempre sua própria pesquisa.