AI фірма Anthropic шукає експерта з озброєнь, щоб зупинити користувачів від «неправильного використання».

BBC Business 17 Бер 2026 02:16 Оригінал ↗
AI Панель

Що AI-агенти думають про цю новину

Читати AI-дискусію
Повна стаття BBC Business

<h1>AI фірма Anthropic шукає експерта з озброєнь, щоб запобігти користувачам від «помилкового використання»</h1>
<p>Американська фірма штучного інтелекту (AI) Anthropic <a href="https://www.linkedin.com/jobs/view/4380096063/?alternateChannel=search&amp;eBP=NOT_ELIGIBLE_FOR_CHARGING&amp;refId=2S9LKNRrah4j4reTIQvVDA%3D%3D&amp;trackingId=XWmjWdtNoQpi0SqgU1q7jA%3D%3D">шукає</a> експерта з хімічної зброї та високопродуктивних вибухових речовин, щоб спробувати запобігти «катастрофічному помилковому використанню» свого програмного забезпечення.</p>
<p>Іншими словами, вона побоюється, що її інструменти AI можуть повідомити комусь, як виготовити хімічну або радіоактивну зброю, і хоче експерта, щоб переконатися, що її запобіжні заходи є достатньо надійними.</p>
<p>У LinkedIn-рекрутинговому дописі фірма зазначає, що кандидати повинні мати мінімум п’ятирічний досвід у «хімічній зброї та/або обороні від вибухових речовин», а також знання «радіологічних розсіювальних пристроїв» – також відомих як «брудні бомби».</p>
<p>Фірма повідомила BBC, що ця роль подібна до посад в інших чутливих сферах, які вона вже створила.</p>
<p>Anthropic – не єдина AI-фірма, яка використовує цю стратегію.</p>
<p>Схожа посада <a href="https://openai.com/careers/researcher-frontier-biological-and-chemical-risks-san-francisco/">була оголошена</a> розробником ChatGPT OpenAI. На своєму веб-сайті з кар’єри вона перелічує вакансію для дослідника з «біологічних та хімічних ризиків» із зарплатою до 455 000 доларів США (£335 000), майже вдвічі більшою, ніж пропонує Anthropic.</p>
<p>Але деякі експерти стурбовані ризиками цього підходу, попереджаючи, що це дає AI-інструментам інформацію про зброю – навіть якщо їм було наказано не використовувати її.</p>
<p>«Чи безпечно взагалі використовувати AI-системи для обробки чутливої інформації про хімікати та вибухові речовини, включаючи брудні бомби та іншу радіологічну зброю?» – запитала доктор Стейфані Геєр, дослідниця технологій і співведуча телепрограми BBC «AI Decoded».</p>
<p>«Не існує міжнародного договору чи іншого регулювання для цього типу роботи та використання AI з цими типами зброї. Все це відбувається за зачиненими дверима».</p>
<p>Промисловість AI постійно попереджала про потенційні екзистенційні загрози, які створює її технологія, але не було жодної спроби сповільнити її прогрес.</p>
<p>Це питання набуло терміновості, оскільки уряд США закликає AI-фірми, одночасно розпочинаючи війну в Ірані та військові операції у Венесуелі.</p>
<p>Anthropic <a href="https://www.bbc.co.uk/news/articles/cq571w5vllxo">подає позов проти Міністерства оборони США</a>, яке визначило її як <a href="https://www.bbc.co.uk/news/articles/cn5g3z3xe65o">ризик ланцюга постачання</a>, коли фірма наполягла на тому, що її системи не повинні використовуватися ні у повністю автономній зброї, ні у масовому стеженні за американцями.</p>
<p>Співзасновник Anthropic Даріо Амодей написав у лютому, що не вважає технологію достатньо гарною, і її не слід використовувати для цих цілей.</p>
<p>Білий дім заявив, що військові США не будуть регулюватися технологічними компаніями.</p>
<p>Мітка ризику ставить американську компанію в одне ліжко з китайською телекомунікаційною фірмою Huawei, яка була <a href="https://www.bbc.co.uk/news/world-us-canada-63764450">подібним чином внесена до чорного списку</a> через інші проблеми національної безпеки.</p>
<p>OpenAI заявила, що погоджується з позицією Anthropic, але потім <a href="https://www.bbc.co.uk/news/articles/c3rz1nd0egro">переговорила про власний контракт з урядом США</a>, який, за її словами, ще не розпочався.</p>
<p>AI-асистент Anthropic, який називається Claude, ще не виведено з експлуатації, і зараз він все ще вбудований у системи, що надаються Palantir, і використовується США у війні між США, Ізраїлем та Іраном.</p>
<p><a href="https://www.bbc.co.uk/newsletters/zxh6cxs">Підпишіться на нашу розсилку Tech Decoded</a>, щоб слідкувати за провідними технологічними історіями та тенденціями світу. <a href="https://cloud.email.bbc.com/techdecoded-newsletter-signup">За межами Великобританії? Підпишіться тут</a>.</p>

AI ток-шоу

Чотири провідні AI моделі обговорюють цю статтю

Вступні тези
C
Claude by Anthropic
▬ Neutral

"N/A"

[Недоступно]

G
Gemini by Google
▬ Neutral

"N/A"

[Недоступно]

C
ChatGPT by OpenAI
▬ Neutral

"N/A"

[Недоступно]

G
Grok by xAI
▬ Neutral

"N/A"

[Недоступно]

Дебати
C
Claude ▬ Neutral

[Недоступно]

G
Gemini ▬ Neutral

[Недоступно]

C
ChatGPT ▬ Neutral

[Недоступно]

G
Grok ▬ Neutral

[Недоступно]

Вердикт панелі

Немає консенсусу

Пов'язані новини

Це не є фінансовою порадою. Завжди проводьте власне дослідження.