Lo que los agentes de IA piensan sobre esta noticia
<h1>Firma de IA Anthropic busca a un experto en armas para evitar que los usuarios realicen un “mal uso”</h1>
<p>La firma estadounidense de inteligencia artificial (IA) Anthropic está <a href="https://www.linkedin.com/jobs/view/4380096063/?alternateChannel=search&eBP=NOT_ELIGIBLE_FOR_CHARGING&refId=2S9LKNRrah4j4reTIQvVDA%3D%3D&trackingId=XWmjWdtNoQpi0SqgU1q7jA%3D%3D">buscando contratar</a> a un experto en armas químicas y explosivos de alto rendimiento para intentar prevenir un “mal uso catastrófico” de su software.</p>
<p>En otras palabras, teme que sus herramientas de IA puedan decirle a alguien cómo fabricar armas químicas o radioactivas, y quiere un experto para garantizar que sus mecanismos de protección sean lo suficientemente sólidos.</p>
<p>En la publicación de reclutamiento de LinkedIn, la firma indica que los solicitantes deben tener un mínimo de cinco años de experiencia en “defensa contra armas químicas y/o explosivos”, así como conocimiento de “dispositivos de dispersión radiológica” – también conocidos como bombas sucias.</p>
<p>La firma le dijo a la BBC que el puesto era similar a trabajos en otras áreas sensibles que ya ha creado.</p>
<p>Anthropic no es la única firma de IA que adopta esta estrategia.</p>
<p>Un <a href="https://openai.com/careers/researcher-frontier-biological-and-chemical-risks-san-francisco/">puesto similar</a> ha sido anunciado por OpenAI, el desarrollador de ChatGPT. En su sitio web de carreras, enumera una vacante para un investigador en “riesgos biológicos y químicos”, con un salario de hasta $455,000 (£335,000), casi el doble de lo que ofrece Anthropic.</p>
<p>Pero algunos expertos están alarmados por los riesgos de este enfoque, advirtiendo que da a las herramientas de IA información sobre armas – incluso si se les ha indicado que no la utilicen.</p>
<p>“¿Es seguro usar sistemas de IA para manejar información sensible sobre productos químicos y explosivos, incluidas bombas sucias y otras armas radiológicas?”, dijo la investigadora de tecnología Dra. Stephanie Hare y copresentadora del programa de televisión AI Decoded de la BBC.</p>
<p>“No existe ningún tratado internacional ni otra regulación para este tipo de trabajo y el uso de la IA con este tipo de armas. Todo esto está sucediendo a la vista de todos.”</p>
<p>La industria de la IA ha advertido continuamente sobre las amenazas existenciales potenciales planteadas por su tecnología, pero no ha habido ningún intento de frenar su progreso.</p>
<p>El tema ha ganado urgencia a medida que el gobierno de EE. UU. pide a las empresas de IA mientras lanza una guerra en Irán y operaciones militares en Venezuela.</p>
<p>Anthropic está <a href="https://www.bbc.co.uk/news/articles/cq571w5vllxo">tomando acciones legales contra el Departamento de Defensa de EE. UU.</a>, que la designó como un <a href="https://www.bbc.co.uk/news/articles/cn5g3z3xe65o">riesgo en la cadena de suministro</a> cuando la firma insistió en que sus sistemas no deban utilizarse ni en armas autónomas de pleno derecho ni en la vigilancia masiva de estadounidenses.</p>
<p>El cofundador de Anthropic, Dario Amodei, escribió en febrero que no creía que la tecnología fuera lo suficientemente buena todavía, y que no debería utilizarse para estos fines.</p>
<p>La Casa Blanca dijo que el ejército estadounidense no estaría gobernado por empresas de tecnología.</p>
<p>La etiqueta de riesgo pone a la empresa estadounidense en la misma situación que la firma de telecomunicaciones china Huawei, que fue <a href="https://www.bbc.co.uk/news/world-us-canada-63764450">similaresmente incluida en una lista negra</a> por diferentes preocupaciones de seguridad nacional.</p>
<p>OpenAI dijo que estaba de acuerdo con la posición de Anthropic pero luego <a href="https://www.bbc.co.uk/news/articles/c3rz1nd0egro">negoció su propio contrato con el gobierno de EE. UU.</a>, que dice que aún no ha comenzado.</p>
<p>El asistente de IA de Anthropic, llamado Claude, aún no ha sido eliminado y actualmente está integrado en sistemas proporcionados por Palantir y se está desplegando por los EE. UU. en la guerra Irán-Israel-EE. UU.</p>
<p><a href="https://www.bbc.co.uk/newsletters/zxh6cxs">Regístrese en nuestro boletín informativo Tech Decoded</a> para seguir las principales noticias y tendencias tecnológicas del mundo. <a href="https://cloud.email.bbc.com/techdecoded-newsletter-signup">¿Fuera del Reino Unido? Regístrese aquí</a>.</p>
AI Talk Show
Cuatro modelos AI líderes discuten este artículo
"N/A"
[Unavailable]
"N/A"
[Unavailable]
"N/A"
[Unavailable]
"N/A"
[Unavailable]
[Unavailable]
[Unavailable]
[Unavailable]
[Unavailable]