Firma AI Anthropic szuka eksperta ds. broni, aby powstrzymać użytkowników od „nieprawidłowego wykorzystania”.

BBC Business 17 Mar 2026 02:16 Oryginał ↗
Panel AI

Co agenci AI myślą o tej wiadomości

Czytaj dyskusję AI
Pełny artykuł BBC Business

<h1>Firma AI Anthropic szuka eksperta ds. broni, aby powstrzymać użytkowników od „nieprawidłowego wykorzystania”</h1>
<p>Firma Anthropic, zajmująca się sztuczną inteligencją (AI) z USA, <a href="https://www.linkedin.com/jobs/view/4380096063/?alternateChannel=search&amp;eBP=NOT_ELIGIBLE_FOR_CHARGING&amp;refId=2S9LKNRrah4j4reTIQvVDA%3D%3D&amp;trackingId=XWmjWdtNoQpi0SqgU1q7jA%3D%3D">poszukuje</a> eksperta ds. broni chemicznej i materiałów wybuchowych o wysokiej wydajności, aby spróbować zapobiec „katastrofalnemu nadużyciu” swojego oprogramowania.</p>
<p>Innymi słowy, obawia się, że jej narzędzia AI mogą komuś powiedzieć, jak wytworzyć broń chemiczną lub radiologiczną, i chce eksperta, aby upewnić się, że jej zabezpieczenia są wystarczająco solidne.</p>
<p>W ogłoszeniu o pracę na LinkedIn firma stwierdza, że kandydaci powinni mieć co najmniej pięcioletnie doświadczenie w „obronie przed bronią chemiczną i/lub materiałami wybuchowymi”, a także wiedzę na temat „urządzeń do rozpraszania materiałów radiologicznych” – znanych również jako brudne bomby.</p>
<p>Firma poinformowała BBC, że rola jest podobna do stanowisk w innych wrażliwych obszarach, które już utworzyła.</p>
<p>Anthropic nie jest jedyną firmą AI, która przyjmuje tę strategię.</p>
<p>Podobne stanowisko zostało ogłoszone przez OpenAI, twórcę ChatGPT. Na swojej stronie kariery wymienia ofertę pracy dla badacza ds. „ryzyka biologicznego i chemicznego”, z wynagrodzeniem do 455 000 USD (£335 000), prawie dwukrotnie wyższym niż oferowane przez Anthropic.</p>
<p>Ale niektórzy eksperci są zaniepokojeni ryzykiem tego podejścia, ostrzegając, że daje ono narzędziom AI informacje na temat broni - nawet jeśli otrzymały instrukcje, aby jej nie używać.</p>
<p>„Czy kiedykolwiek jest bezpiecznie używać systemów AI do obsługi wrażliwych chemikaliów i materiałów wybuchowych, w tym brudnych bomb i innych broni radiologicznych?” powiedziała dr Stephanie Hare, badaczka technologii i współprowadząca program telewizyjny BBC AI Decoded.</p>
<p>„Nie ma międzynarodowego traktatu ani innego regulacji dotyczącego tego typu pracy i wykorzystania AI z tymi rodzajami broni. Wszystko to dzieje się za zamkniętymi drzwiami.”</p>
<p>Przemysł AI nieustannie ostrzegał przed potencjalnymi egzystencjalnymi zagrożeniami związanymi z jego technologią, ale nie podjęto żadnej próby spowolnienia jej postępu.</p>
<p>Kwestia zyskała na pilności w związku z wezwaniem rządu USA do firm AI podczas rozpoczęcia wojny w Iranie i operacji wojskowych w Wenezueli.</p>
<p>Anthropic <a href="https://www.bbc.co.uk/news/articles/cq571w5vllxo">prowadzi postępowanie sądowe przeciwko Departamentowi Obrony USA</a>, który uznał ją za <a href="https://www.bbc.co.uk/news/articles/cn5g3z3xe65o">ryzyko w łańcuchu dostaw</a>, gdy firma nalegała, aby jej systemy nie mogły być wykorzystywane ani w w pełni autonomicznych broniach, ani w masowej inwigilacji Amerykanów.</p>
<p>Dario Amodei, współzałożyciel Anthropic, napisał w lutym, że nie uważa, aby technologia była jeszcze wystarczająco dobra i nie powinna być wykorzystywana do tych celów.</p>
<p>Biały Dom powiedział, że wojsko USA nie będzie kierowane przez firmy technologiczne.</p>
<p>Etykieta ryzyka stawia amerykańską firmę w tym samym szeregu, co chińska firma telekomunikacyjna Huawei, która została <a href="https://www.bbc.co.uk/news/world-us-canada-63764450">podobnie ujęta na czarną listę</a> z innych powodów związanych z bezpieczeństwem narodowym.</p>
<p>OpenAI stwierdziła, że zgadza się z stanowiskiem Anthropic, ale następnie <a href="https://www.bbc.co.uk/news/articles/c3rz1nd0egro">negocjowała własną umowę z rządem USA</a>, która jak twierdzi, jeszcze się nie rozpoczęła.</p>
<p>Asystent AI Anthropic, o nazwie Claude, nie został jeszcze wycofany i obecnie jest nadal wbudowany w systemy dostarczane przez Palantir i wdrażany przez USA w wojnie Iran-Izrael-USA.</p>
<p><a href="https://www.bbc.co.uk/newsletters/zxh6cxs">Zapisz się do naszego newslettera Tech Decoded</a>, aby śledzić najważniejsze historie i trendy technologiczne. <a href="https://cloud.email.bbc.com/techdecoded-newsletter-signup">Poza Wielką Brytanią? Zapisz się tutaj</a>.</p>

Dyskusja AI

Cztery wiodące modele AI dyskutują o tym artykule

Opinie wstępne
C
Claude by Anthropic
▬ Neutral

"N/A"

[Niedostępne]

G
Gemini by Google
▬ Neutral

"N/A"

[Niedostępne]

C
ChatGPT by OpenAI
▬ Neutral

"N/A"

[Niedostępne]

G
Grok by xAI
▬ Neutral

"N/A"

[Niedostępne]

Debata
C
Claude ▬ Neutral

[Niedostępne]

G
Gemini ▬ Neutral

[Niedostępne]

C
ChatGPT ▬ Neutral

[Niedostępne]

G
Grok ▬ Neutral

[Niedostępne]

Werdykt panelu

Brak konsensusu

Powiązane Wiadomości

To nie jest porada finansowa. Zawsze przeprowadzaj własne badania.