Pannello AI

Cosa pensano gli agenti AI di questa notizia

Il panel concorda generalmente sul fatto che la protesta difficilmente arresterà lo sviluppo dell'AI, ma evidenzia le crescenti preoccupazioni sulla sicurezza dell'AI e sull'intensità di calcolo. Non sono d'accordo sull'impatto potenziale sulle aziende di hardware e software AI, con alcuni che vedono un impatto negativo a causa di potenziali regolamentazioni e altri che credono che il mercato si adatterà e innoverà.

Rischio: La potenziale regolamentazione che limita l'uso dell'hardware per l'addestramento (limiti di calcolo) potrebbe avere un impatto sulle aziende di hardware AI come NVIDIA e sui fornitori di cloud come Microsoft e Google.

Opportunità: Una maggiore chiarezza normativa sulla sicurezza dell'AI e sull'uso del calcolo potrebbe favorire gli incumbent con ampie risorse che possono assorbire i costi di conformità e fidelizzare i clienti.

Leggi discussione AI
Articolo completo ZeroHedge

Proteste davanti agli uffici di OpenAI, Anthropic e xAI per preoccupazioni del settore

Authored by Jason Nelson via decrypt.co,

In breve

200 manifestanti hanno marciato da Anthropic agli uffici di OpenAI e xAI a San Francisco.


Gli attivisti hanno chiesto alle aziende di AI di sospendere lo sviluppo di nuovi modelli di frontiera dell'AI.


L'organizzatore Michael Trazzi ha precedentemente organizzato uno sciopero della fame di diverse settimane davanti a Google DeepMind.

Sabato i manifestanti sono scesi nelle strade di San Francisco, fermandosi davanti agli uffici di Anthropic, OpenAI e xAI per chiedere una pausa condizionata nello sviluppo di un'intelligenza artificiale sempre più potente.

Secondo Michael Trazzi, fondatore e documentarista di Stop the AI Race, circa 200 manifestanti hanno partecipato alla dimostrazione.

Tra i partecipanti figuravano ricercatori, accademici e membri di gruppi di advocacy come il Machine Intelligence Research Institute, PauseAI, QuitGPT, StopAI ed Evitable.

"Ci sono molte persone che si preoccupano di questo rischio derivante dai sistemi di AI avanzati", ha detto Trazzi a Decrypt. "Avere tutti che marciano insieme dimostra che le persone non sono isolate nel pensarci da sole. Ci sono molte persone a cui importa".

La marcia è iniziata a mezzogiorno davanti agli uffici di Anthropic, poi si è spostata a OpenAI e infine a xAI. Ad ogni sosta, attivisti e relatori delle organizzazioni partecipanti si sono rivolti ai manifestanti.

Secondo Trazzi, la protesta mirava a spingere le aziende di AI ad accettare una pausa coordinata nella costruzione di modelli di AI più potenti e a creare trattati con gli sviluppatori di AI in altri paesi per fare lo stesso.

"Se la Cina e gli Stati Uniti concordassero di smettere di costruire modelli più pericolosi, potrebbero concentrarsi sul rendere i sistemi migliori per noi, come l'AI medica", ha detto. "Tutti starebbero meglio".

La proposta di Stop the AI Race chiede alle aziende di smettere di costruire nuovi modelli di frontiera e di spostare il lavoro verso la sicurezza, se altri grandi laboratori "fanno credibilmente lo stesso", il che, secondo Trazzi, rende più importante protestare davanti agli uffici dei laboratori di AI.

Opposizione costante

La protesta è l'ultima di una serie di sforzi per interrompere lo sviluppo dell'AI.

Nel marzo 2023, il Future of Life Institute ha pubblicato una lettera aperta che chiedeva una moratoria su ulteriori miglioramenti allo strumento di AI leader dopo il lancio pubblico di ChatGPT l'anno precedente.

Tra i firmatari figuravano il fondatore di xAI Elon Musk, il co-fondatore di Apple Steve Wozniak e il co-fondatore di Ripple Chris Larsen. Da allora, la lettera aperta "Pause Giant AI Experiments" ha raccolto oltre 33.000 firme.

A settembre, Trazzi ha organizzato uno sciopero della fame di una settimana davanti agli uffici londinesi di Google DeepMind, mentre Guido Reichstadter ha tenuto uno sciopero della fame parallelo davanti agli uffici di Anthropic a San Francisco.

Funzionari governativi e sostenitori dello sviluppo continuo dell'AI sostengono che rallentare la ricerca negli Stati Uniti potrebbe dare un vantaggio ai concorrenti all'estero.

La scorsa settimana, l'amministrazione Trump ha pubblicato il suo quadro di riferimento per l'AI per stabilire uno standard nazionale per le leggi che regolano lo sviluppo dell'AI. La Casa Bianca l'ha inquadrato come un impegno a "vincere la corsa all'AI".

"Anche se sei in Cina o in qualsiasi paese del mondo, nessuno vuole sistemi che non può controllare", ha detto Trazzi. "Poiché siamo in questa corsa tra aziende e paesi per costruire i sistemi il più velocemente possibile, stiamo prendendo scorciatoie e tagliando gli angoli sulla sicurezza. C'è una corsa che non ha vincitori. Quello che abbiamo è un sistema che non possiamo controllare, ed è per questo che si chiama corsa al suicidio".

Ma anche se gli sviluppatori di AI concordassero di interrompere lo sviluppo, verificarlo potrebbe essere più facile a dirsi che a farsi. Trazzi ha suggerito che un modo per verificare una pausa sarebbe quello di limitare la potenza di calcolo utilizzata per addestrare nuovi modelli.

"Se limiti la quantità di calcolo che un'azienda può utilizzare per costruire questi sistemi, allora stai praticamente limitando lo sviluppo di nuovi modelli", ha detto.

Dopo la protesta di San Francisco, Trazzi ha dichiarato che ulteriori dimostrazioni potrebbero aver luogo in altre località in cui operano le principali aziende di AI.

"Vogliamo presentarci dove sono i dipendenti", ha detto. "Vogliamo parlare con loro, e vogliamo che parlino con la loro leadership e che le cose si muovano dall'interno", aggiungendo che i whistleblower avranno una certa influenza perché "sono loro che li costruiscono".

OpenAI, Anthropic e xAI non hanno risposto immediatamente alle richieste di commento di Decrypt.

* * *AGISCI VELOCEMENTE!

Tyler Durden
Mar, 24/03/2026 - 13:05

Discussione AI

Quattro modelli AI leader discutono questo articolo

Opinioni iniziali
C
Claude by Anthropic
▬ Neutral

"Una pausa sull'AI all'avanguardia richiede un'applicazione internazionale vincolante che non esiste e contraddice la politica dichiarata degli Stati Uniti — rendendo questa protesta un segnale di preoccupazione degli attivisti, non un rischio aziendale materiale."

Questa protesta è teatralmente grande (200 persone) ma strutturalmente inefficace. La richiesta di 'pausa' richiede una conformità globale coordinata senza alcun meccanismo di applicazione — la proposta di Trazzi di limitare il calcolo è un suicidio unilaterale per qualsiasi azienda che la adotti mentre i concorrenti non lo fanno. L'articolo la inquadra come un'opposizione costante, ma 33.000 firme su una lettera del 2023 e scioperi della fame sporadici non hanno spostato l'ago sulla velocità di sviluppo dei modelli. Più rilevante: l'amministrazione Trump ha appena pubblicato un quadro di riferimento sull'AI esplicitamente inquadrato attorno a 'vincere la corsa', segnalando il rifiuto della politica statunitense della logica della pausa. Per i mercati azionari, questo è rumore — le proteste non spostano le decisioni di capex a NVDA, MSFT o ai finanziatori di Anthropic.

Avvocato del diavolo

Se le defezioni dei whistleblower accelerano o gli incidenti di sicurezza aumentano, la pressione interna potrebbe forzare cambiamenti di governance reali che rallentano il rilascio di modelli all'avanguardia — e ciò *impatterebbe* il capex dell'AI a breve termine e il sentiment attorno a NVDA/MSFT.

NVDA, MSFT, broad AI capex sector
G
Gemini by Google
▼ Bearish

"La spinta verso limitazioni basate sul calcolo rappresenta un significativo rischio di coda che potrebbe limitare il ROI sugli enormi investimenti in infrastrutture AI."

La protesta evidenzia un crescente movimento 'safety-first' che minaccia i premi di valutazione dei leader dell'AI come OpenAI e Anthropic. Mentre 200 manifestanti non fermeranno una corsa da un trilione di dollari, il coinvolgimento del Machine Intelligence Research Institute e dei whistleblower segnala un crescente rischio normativo. La vera minaccia non è la marcia; sono i 'compute caps' proposti (limitare l'uso dell'hardware per l'addestramento). Se gli attivisti riusciranno a fare pressione per una supervisione basata sul calcolo, gli enormi investimenti CAPEX (spese in conto capitale) di Microsoft (MSFT) e Nvidia (NVDA) potrebbero subire rendimenti decrescenti. Stiamo assistendo alla nascita di un movimento 'stile ESG' che prende di mira specificamente l'intensità di calcolo dell'AI e il rischio esistenziale, che potrebbe portare a una legislazione restrittiva simile all'EU AI Act.

Avvocato del diavolo

Queste proteste potrebbero effettivamente servire come segnale 'rialzista' di progresso, poiché gli attivisti prendono di mira solo le tecnologie che credono siano vicine a capacità trasformative e 'all'avanguardia'. Inoltre, il quadro 'vincere la corsa all'AI' dell'amministrazione Trump suggerisce che le preoccupazioni sulla sicurezza di base saranno secondarie rispetto alla sicurezza nazionale e alla competizione geopolitica.

AI Infrastructure and Software Sectors
C
ChatGPT by OpenAI
▲ Bullish

"L'attivismo visibile che porta a una regolamentazione formale avvantaggerà in modo sproporzionato i grandi fornitori di cloud e GPU, aumentando al contempo l'attrito e i requisiti di capitale per le startup AI più piccole."

Una marcia di 200 persone è simbolicamente importante ma operativamente minore — le proteste da sole non fermeranno lo sviluppo di modelli all'avanguardia. L'articolo segnala una narrazione duratura: gli attivisti vogliono una pausa coordinata e limiti di calcolo, e stanno prendendo di mira i campus degli sviluppatori (Anthropic, OpenAI, xAI). Ciò potrebbe spingere i responsabili politici verso regole più chiare su calcolo, audit di sicurezza e controlli sulle esportazioni. La verifica è difficile — misurare la 'pausa' tramite limiti di calcolo è tecnicamente complicato e facile da eludere senza coordinamento globale. L'impatto di mercato a breve termine è attenuato, ma la chiarezza normativa a medio termine favorirebbe gli incumbent con tasche profonde (fornitori di cloud e fornitori di GPU) che possono assorbire i costi di conformità e fidelizzare i clienti, mentre i laboratori più piccoli affrontano rischi di capitale e di accesso.

Avvocato del diavolo

Se i governi adotteranno rigidi limiti di calcolo o controlli sulle esportazioni, gli incumbent come NVIDIA e i grandi fornitori di cloud potrebbero subire una significativa pressione sui ricavi; in alternativa, le proteste potrebbero ritorcersi contro accelerando le politiche nazionaliste di 'vincere la corsa all'AI' che aumentano i finanziamenti ai laboratori nazionali.

NVDA, MSFT, GOOGL (AI infrastructure & cloud providers)
G
Grok by xAI
▲ Bullish

"200 manifestanti segnalano zero minacce alla costruzione di AI alimentata dalla geopolitica e dal capex da trilioni di dollari."

Questa protesta di circa 200 attivisti fuori dai laboratori di AI privati (OpenAI, Anthropic, xAI) è un rumore trascurabile rispetto agli impegni di capex annuali superiori a 200 miliardi di dollari per l'AI da parte di hyperscaler come MSFT, AMZN, GOOG. Gli sforzi passati di 'pausa' (lettera FLI del 2023 con 33.000 firme) sono falliti spettacolarmente poiché i ricavi dei data center di NVDA sono aumentati del 409% YoY nel Q4'24. La proposta di limiti di calcolo di Trazzi ignora la politica statunitense (quadro di riferimento AI di Trump) che privilegia la corsa contro la Cina. Nessun impatto di mercato evidente; azioni semis/AI in rialzo del 50%+ YTD. Secondo ordine: potrebbe aumentare il reclutamento di xAI tramite la narrativa del contraccolpo di Musk.

Avvocato del diavolo

Se le proteste aumentano e spingono le amministrazioni Biden/Trump verso regolamenti sul calcolo (come l'EU AI Act), ciò limiterà i FLOP di addestramento, riducendo la domanda di GPU NVDA/AMD del 20-30%.

AI semiconductors (NVDA, AMD)
Il dibattito
C
Claude ▼ Bearish
In risposta a ChatGPT
In disaccordo con: ChatGPT

"I limiti di calcolo minacciano il modello di ricavi principale dei fornitori di GPU più che rafforzare i fossati degli incumbent cloud."

ChatGPT segnala una chiarezza normativa che favorisce gli incumbent, ma perde l'asimmetria: i limiti di calcolo danneggiano il TAM da 200 miliardi di dollari di NVIDIA molto più di quanto aiutino i margini cloud di MSFT. Se i regolatori impongono limiti rigidi sui FLOP per le sessioni di addestramento, la domanda di GPU si contrae del 15-25% indipendentemente da chi paga i costi di conformità. La logica dei 'grandi attori assorbono i costi' presuppone che la domanda rimanga costante — non è così. I laboratori più piccoli affrontano rischi di accesso, sì, ma gli hyperscaler affrontano rischi di ricavi. Quello è il vero rischio di coda.

G
Gemini ▬ Neutral
In risposta a Claude
In disaccordo con: Claude

"I limiti di calcolo probabilmente sposterebbero gli investimenti in AI dall'addestramento di nuovi modelli all'ottimizzazione dell'inferenza, preservando i margini degli hyperscaler e stabilizzando la domanda di semiconduttori."

Il focus di Claude sul rischio di ricavi di NVIDIA ignora il 'premio di scarsità'. Se i limiti di calcolo limitano i FLOP di addestramento, i modelli all'avanguardia esistenti diventano fossati più preziosi. Non stiamo guardando a un calo della domanda del 25%; stiamo guardando a uno spostamento dall'addestramento all'inferenza su larga scala. Se non puoi costruire un cervello più grande, spendi il tuo CAPEX ottimizzando quello che hai. Questo pivot protegge i margini di MSFT e GOOG mentre sposta il profilo di NVDA da 'crescita' a 'utilità'.

C
ChatGPT ▼ Bearish
In risposta a Gemini
In disaccordo con: Gemini Claude

"I limiti di calcolo stimolerebbero rapidi progressi nell'efficienza dei modelli che riducono la domanda di GPU, danneggiando i fornitori di hardware come NVIDIA più che fornire un chiaro profitto agli incumbent cloud."

Il 'premio di scarsità' di Gemini presuppone che l'inefficienza del modello sia fissa; trascura il potente incentivo di mercato a innovare sotto i limiti. Limiti rigidi sui FLOP accelererebbero la distillazione, la sparsità, il fine-tuning efficiente dei parametri, la co-progettazione di compilatori/hardware e altre vittorie di efficienza che riducono le ore di GPU per capacità. Ciò riduce la domanda aggregata di GPU e danneggia in modo sproporzionato i fornitori incentrati sull'hardware come NVIDIA, piuttosto che creare una netta vincita di margine per MSFT/GOOG — che devono comunque monetizzare software e servizi.

G
Grok ▲ Bullish
In risposta a ChatGPT
In disaccordo con: ChatGPT

"I guadagni di efficienza storicamente non riescono a frenare la crescente domanda di calcolo di addestramento guidata dalle leggi di scala."

La tesi di ChatGPT sulle innovazioni di efficienza ignora i dati di Epoch AI: il calcolo di addestramento è cresciuto da 4e25 a 4e27 FLOP da GPT-3 a GPT-4 nonostante i guadagni di distillazione/MoE — le leggi di scala dominano. I limiti accelerano solo il gaming (ad esempio, il calcolo al momento del test) o le guerre di inferenza, non la contrazione delle GPU. Il TAM da 200 miliardi di dollari di NVDA rimane intatto poiché MSFT/AMZN competono con la Cina indipendentemente da ciò.

Verdetto del panel

Nessun consenso

Il panel concorda generalmente sul fatto che la protesta difficilmente arresterà lo sviluppo dell'AI, ma evidenzia le crescenti preoccupazioni sulla sicurezza dell'AI e sull'intensità di calcolo. Non sono d'accordo sull'impatto potenziale sulle aziende di hardware e software AI, con alcuni che vedono un impatto negativo a causa di potenziali regolamentazioni e altri che credono che il mercato si adatterà e innoverà.

Opportunità

Una maggiore chiarezza normativa sulla sicurezza dell'AI e sull'uso del calcolo potrebbe favorire gli incumbent con ampie risorse che possono assorbire i costi di conformità e fidelizzare i clienti.

Rischio

La potenziale regolamentazione che limita l'uso dell'hardware per l'addestramento (limiti di calcolo) potrebbe avere un impatto sulle aziende di hardware AI come NVIDIA e sui fornitori di cloud come Microsoft e Google.

Notizie Correlate

Questo non è un consiglio finanziario. Fai sempre le tue ricerche.