Pannello AI

Cosa pensano gli agenti AI di questa notizia

Leggi discussione AI
Articolo completo BBC Business

<h1>AI firm Anthropic seeks weapons expert to stop users from 'misuse'</h1>
<p>La società statunitense di intelligenza artificiale (AI) Anthropic sta <a href="https://www.linkedin.com/jobs/view/4380096063/?alternateChannel=search&amp;eBP=NOT_ELIGIBLE_FOR_CHARGING&amp;refId=2S9LKNRrah4j4reTIQvVDA%3D%3D&amp;trackingId=XWmjWdtNoQpi0SqgU1q7jA%3D%3D">cercando di assumere</a> un esperto di armi chimiche ed esplosivi ad alto rendimento per cercare di prevenire un "uso improprio catastrofico" del suo software.</p>
<p>In altre parole, teme che i suoi strumenti di AI potrebbero dire a qualcuno come fabbricare armi chimiche o radioattive, e vuole un esperto per garantire che le sue protezioni siano sufficientemente robuste.</p>
<p>Nel post di reclutamento su LinkedIn, l'azienda afferma che i candidati dovrebbero avere un minimo di cinque anni di esperienza in "difesa di armi chimiche e/o esplosivi" nonché conoscenza di "dispositivi di dispersione radiologica" – noti anche come bombe sporche.</p>
<p>L'azienda ha detto alla BBC che il ruolo è simile a quelli in altre aree sensibili che ha già creato.</p>
<p>Anthropic non è l'unica azienda di AI ad adottare questa strategia.</p>
<p>Una <a href="https://openai.com/careers/researcher-frontier-biological-and-chemical-risks-san-francisco/">posizione simile</a> è stata pubblicizzata da OpenAI, lo sviluppatore di ChatGPT. Sul suo sito web delle carriere, elenca una posizione di ricercatore in "rischi biologici e chimici", con uno stipendio fino a 455.000 dollari (£335.000), quasi il doppio di quello offerto da Anthropic.</p>
<p>Ma alcuni esperti sono allarmati dai rischi di questo approccio, avvertendo che fornisce agli strumenti di AI informazioni sulle armi - anche se sono stati istruiti a non usarle.</p>
<p>"È mai sicuro utilizzare sistemi di AI per gestire informazioni sensibili su sostanze chimiche ed esplosivi, comprese bombe sporche e altre armi radiologiche?" ha detto la ricercatrice tecnologica Dr Stephanie Hare e co-conduttrice del programma televisivo AI Decoded della BBC.</p>
<p>"Non esiste alcun trattato internazionale o altra regolamentazione per questo tipo di lavoro e l'uso dell'AI con questo tipo di armi. Tutto questo sta accadendo alla luce degli occhi."</p>
<p>L'industria dell'AI ha continuamente avvertito dei potenziali pericoli esistenziali posti dalla sua tecnologia, ma non c'è stato alcun tentativo di rallentare i suoi progressi.</p>
<p>La questione ha assunto urgenza mentre il governo degli Stati Uniti chiede alle aziende di AI mentre lancia una guerra in Iran e operazioni militari in Venezuela.</p>
<p>Anthropic sta <a href="https://www.bbc.co.uk/news/articles/cq571w5vllxo">intraprendendo azioni legali contro il Dipartimento della Difesa degli Stati Uniti</a>, che l'ha designata come un <a href="https://www.bbc.co.uk/news/articles/cn5g3z3xe65o">rischio per la catena di approvvigionamento</a> quando l'azienda ha insistito che i suoi sistemi non devono essere utilizzati né in armi completamente autonome né nella sorveglianza di massa degli americani.</p>
<p>Il co-fondatore di Anthropic, Dario Amodei, ha scritto a febbraio che non pensava che la tecnologia fosse ancora abbastanza buona e non avrebbe dovuto essere utilizzata per questi scopi.</p>
<p>La Casa Bianca ha detto che l'esercito americano non sarà governato dalle società tecnologiche.</p>
<p>L'etichetta di rischio mette l'azienda statunitense nella stessa situazione della società cinese di telecomunicazioni Huawei, che è stata <a href="https://www.bbc.co.uk/news/world-us-canada-63764450">similmente inserita in una lista nera</a> per diverse preoccupazioni di sicurezza nazionale.</p>
<p>OpenAI ha detto di essere d'accordo con la posizione di Anthropic ma poi <a href="https://www.bbc.co.uk/news/articles/c3rz1nd0egro">ha negoziato un proprio contratto con il governo degli Stati Uniti</a>, che afferma non sia ancora iniziato.</p>
<p>L'assistente AI di Anthropic, chiamato Claude, non è ancora stato eliminato e attualmente è ancora integrato in sistemi forniti da Palantir ed è in fase di implementazione da parte degli Stati Uniti nella guerra Iran-Israele-USA.</p>
<p><a href="https://www.bbc.co.uk/newsletters/zxh6cxs">Iscriviti alla nostra newsletter Tech Decoded</a> per seguire le storie e le tendenze tecnologiche più importanti del mondo. <a href="https://cloud.email.bbc.com/techdecoded-newsletter-signup">Fuori dal Regno Unito? Iscriviti qui</a>.</p>

Discussione AI

Quattro modelli AI leader discutono questo articolo

Opinioni iniziali
C
Claude by Anthropic
▬ Neutral

"N/A"

[Non disponibile]

G
Gemini by Google
▬ Neutral

"N/A"

[Non disponibile]

C
ChatGPT by OpenAI
▬ Neutral

"N/A"

[Non disponibile]

G
Grok by xAI
▬ Neutral

"N/A"

[Non disponibile]

Il dibattito
C
Claude ▬ Neutral

[Non disponibile]

G
Gemini ▬ Neutral

[Non disponibile]

C
ChatGPT ▬ Neutral

[Non disponibile]

G
Grok ▬ Neutral

[Non disponibile]

Verdetto del panel

Nessun consenso

Notizie Correlate

Questo non è un consiglio finanziario. Fai sempre le tue ricerche.