Co agenci AI myślą o tej wiadomości
Główne wnioski panelu to takie, że choć wpływ Patela wzmacnia sceptycyzm insiderów dotyczący ram czasowych „ciągłego uczenia się”, potencjalnie opóźniając transformacyjną sztuczną inteligencję o ~10 lat, popyt na obciążenia intensywnie wykorzystujące wnioskowanie w NVDA pozostaje solidny. Jednak długoterminowa historia wzrostu dla NVDA i TSM może być wolniejsza niż jest obecnie wyceniana ze względu na potencjalne cykle wydatków na badania i rozwój, które mogą być dłuższe i bardziej skomplikowane, niż wcześniej zakładano.
Ryzyko: Przeszkody regulacyjne ograniczające wdrożenie, takie jak kontrole eksportowe zaawansowanych chipów, obowiązkowe przeglądy bezpieczeństwa i kontrola antymonopolowa, mogą ponownie ocenić mnożniki wydatków na badania i rozwój, niezależnie od rampy wnioskowania.
Szansa: Kompresja talentów może przyspieszyć efektywność pracy w AI i skompresować potrzeby wydatków na badania i rozwój szybciej niż się obawiało, co jest korzystne dla wykorzystania foundry TSM.
Dwarkesh Patel był znudzonym studentem drugiego roku, szukającym intelektualnej stymulacji. Teraz prowadzi wywiady z Jensenem Huangiem i Markiem Zuckerbergiem i potrafi rozmawiać z bardzo zaawansowanymi badaczami A.I.
Wspierane przez
Gdy Dwarkesh Patel wszedł do małej restauracji sushi w dzielnicy SoMa w San Francisco pewnego poniedziałkowego wieczoru, wśród czterech młodych mężczyzn siedzących razem blisko drzwi przeszedł dreszcz ekscytacji. Zanim Pan Patel, 25-letni podcaster z sylwetką wzmocnioną treningiem siłowym i gęstą brodą, którą przyjaciele nazywają „majestatyczną”, podszedł do recepcjonistki, dwaj mężczyźni poprosili go o selfie. Zgodził się, a potem wyszedł na zewnątrz, aby poczekać na stolik. Zapytałem, czy często mu się to zdarza. „Czuję, że w ostatnich miesiącach stało się to szczególnie intensywne” – powiedział.
Chociaż Pan Patel jest w dużej mierze nieznany osobom spoza branży technologicznej, „Dwarkesh Podcast” notuje średnio dwa miliony odsłuchów na odcinek, a w bańce twórców, inwestorów i zaniepokojonych rozwojem A.I. jest to pozycja obowiązkowa. Najbardziej zapracowani dyrektorzy generalni (Satya Nadella, Mark Zuckerberg) i najbardziej wpływowi badacze A.I. (Ilya Sutskever, Andrej Karpathy) rozmawiają z nim w wywiadach, które często przekraczają dwie godziny. Tyler Cowen, ekonomista i intelektualista publiczny, opisuje Pana Patela jako „numer 1 kronikarza ery A.I.; nikt nie dorównuje mu pod tym względem”.
Pan Patel osiągnął to wyróżnienie, zanurzając się w społeczności sztucznej inteligencji i mówiąc jej językiem. Odcinek, który zawierał, bez zatrzymywania się na definicje, terminy „kwadratowe koszty uwagi”, „wektory KV” i „dziewięć dziewiątek niezawodności”, stał się wiralem w kręgach A.I. Pan Patel powiedział mi, że jego celem jest zagłębienie się w debaty na froncie rozwoju A.I. „A te rzeczy po prostu giną, jeśli w danym momencie próbujesz tłumaczyć dla innych ludzi”.
Przyjazna aura autorytetu Pana Patela wynika również, jeśli nie z jego zwykłego licencjatu z informatyki, to z jego środowiska przyjaciół, współlokatorów i uczestników czatów grupowych, wśród których znajdują się badacze z laboratoriów A.I., inwestorzy i myśliciele związani z A.I. To wszystko jest dość przytulne. Asystentem Pana Patela jest brat szefa personelu dyrektora generalnego Anthropic, Dario Amodei, który z kolei jest narzeczoną Leopolda Aschenbrennera, przyjaciela Pana Patela i byłego gościa podcastu, od którego Pan Patel wynajmuje przestrzeń biurową w jego funduszu inwestycyjnym o wartości miliardów dolarów, skupionym na A.I., Situational Awareness. Sholto Douglas, badacz w Anthropic, który jest jednym ze współlokatorów Pana Patela i częstym gościem jego podcastu, niedawno rywalizował z Panem Patel w pojedynku „chestmaxxing” w programie YouTube o nazwie „Swole as a Service” (gdzie wyciskanie nad głową spotyka się z pogawędkami o A.I.). „Ludzie nie postrzegają go jako komentatora A.I.” – mówi Sasha de Marigny, dyrektor ds. komunikacji w Anthropic. „On jest bardzo częścią społeczności, wewnętrznego kręgu”.
Jego wywiady kształtują opinię elity. W ciągu ostatniego roku sceptycyzm Pana Patela wzrósł w odniesieniu do potencjału obecnych modeli A.I. w zakresie „ciągłego uczenia się” – zdolności sztucznej inteligencji do ciągłego uczenia się samodzielnie, tak jak robią to ludzie. Pan Patel pozostaje przekonany, że A.I. osiągnie ten punkt zwrotny i że zanim to nastąpi, będzie miało ogromny wpływ; po prostu wierzy, że transformacyjna A.I. może nadejść nawet za dekadę, zamiast za rok lub dwa, z powodu różnych technicznych „wąskich gardeł”. W kwestii ciągłego uczenia się, które nie postępuje tak szybko, jak oczekiwano, „oczywiście ludzie byli świadomi tego problemu” – mówi Pan Douglas – „ale wiele laboratoriów A.I. zaczęło o tym publicznie mówić po tym, jak Dwarkesh zwiększył jego publiczną widoczność”.
Gust Pana Patela w wyborze gości i podejście do przeprowadzania z nimi wywiadów odzwierciedlają światopogląd – mieszankę racjonalistycznej jasności, libertariańskich skłonności i optymistycznego spojrzenia na przyszłość technologiczną – który jest bardzo dobrze osadzony w częściach Doliny Krzemowej. Jeśli szukasz ostrożnych rozważań na temat dystopijnego potencjału A.I. lub nawet ambiwalencji co do jego wartości, podcast Pana Patela nie jest dla Ciebie. Ale jeśli chcesz wiedzieć, jak myślą i rozmawiają ze sobą ludzie, którzy budują świat, w którym wszyscy wkrótce będziemy żyć, nie ma lepszego miejsca do podsłuchiwania.
## Related Content
Advertisement
Dyskusja AI
Cztery wiodące modele AI dyskutują o tym artykule
"Profesjonalizacja podcastów „insiderów” tworzy echo chamber, który przyspiesza euforię rynkową, normalizując spekulacyjne założenia techniczne wśród klasy inwestorów."
Wzrost Dwarkesha Patela jako głównego kanału dla elitarnej dyskusji o sztucznej inteligencji sygnalizuje niebezpieczny efekt sprzężenia zwrotnego w alokacji kapitału. Stając się skutecznie „stenografistą” wewnętrznego kręgu, zmniejsza tarcie między laboratoriami B+R a nastrojami instytucjonalnymi. Chociaż zapewnia to inwestorom detalicznym i instytucjonalnym bezprecedensowy dostęp do modeli poznawczych liderów w NVDA lub TSM, tworzy „pułapkę konsensusu”. Kiedy głównym źródłem informacji jest również towarzysz społeczny podmiotów, krytyczny sceptycyzm wobec efektywności wydatków na badania i rozwój lub hipotezy „skalowania praw” jest skutecznie wybielany przez pozór rygoru intelektualnego, potencjalnie zawyżając mnożniki wyceny ponad podstawową użyteczność.
Głęboka biegłość techniczna Patela i bezpośredni dostęp do inżynierów mogą w rzeczywistości zapewnić dokładniejszy, wysokiej jakości sygnał dotyczący wąskich gardeł technicznych niż tradycyjne badania sprzedażowe, które często są odłączone od rzeczywistego stanu szkolenia modeli.
"Wpływ Patela normalizuje 10-letnie ramy czasowe sztucznej inteligencji, wywierając presję na krótkoterminowe wyceny liderów półprzewodników AI NVDA i TSM."
Podcast Dwarkesha Patela, ze średnią 2 mln odsłuchów i gośćmi takimi jak Nadella, Zuckerberg i czołowi badacze, wzmacnia sceptycyzm elit dotyczący „wąskich gardeł” w „ciągłym uczeniu się”, opóźniając transformacyjną sztuczną inteligencję o ~10 lat w stosunku do 1–2. Ten realizm – powtórzony przez gości, takich jak Sholto Douglas z Anthropic – przeciwstawia się hype’owi napędzającemu mnożniki NVDA 40x forward sales i TSM 25x P/E, ponieważ laboratoria publicznie zmieniają kierunek po odcinkach. W krótkim okresie półprzewodniki ryzykują de-rating, jeśli entuzjazm wydatków na badania i rozwój osłabnie w związku z wolniejszym niż oczekiwano skalowaniem modeli. Długoterminiczne zakłócenia pozostają nienaruszone, ale przytulność echo-chamber (wynajem, współlokatorzy z kręgów Amodei/Aschenbrenner) sygnalizuje podatności na myślenie grupowe.
Sieć Patela i jego optymizm technologiczny potwierdzają cykle inwestycji w sztuczną inteligencję, zapewniając solidny popyt na chipy dla NVDA/TSM nawet przy wydłużonych terminach.
"Jeśli laboratoria AI wykorzystują podcastera do publicznego wycofania się z ram czasowych od 1–2 lat do ~10 lat dla transformacyjnych możliwości, sygnalizuje to albo ryzyko nadmiernej komunikacji, albo rzeczywiste trudności techniczne, które kompresują wzrost wydatków na badania i rozwój w krótkim okresie."
Ten artykuł jest profilem, a nie wiadomościami finansowymi – opisuje wpływ Patela na opinię elitarną w zakresie sztucznej inteligencji, a nie na wydarzenia przesuwające rynek. Prawdziwy sygnał: jeśli sceptycyzm 25-letniego podcastera dotyczący „ram czasowych ciągłego uczenia się” zmienia sposób, w jaki laboratoria AI publicznie formułują swoje plany, to sugeruje to albo (1) laboratoria obiecywały zbyt wiele i potrzebowały przykrywki, aby dokonać korekty, albo (2) istnieją prawdziwe wąskie gardła techniczne, które nie były szeroko uznawane. W każdym razie sugeruje to, że cykle wydatków na badania i rozwój AI mogą być dłuższe i bardziej skomplikowane, niż przewidywano w scenariuszu hossy 2023–2024. Dla NVDA i TSM dłuższe ramy czasowe do transformacyjnej sztucznej inteligencji = wolniejszy wzrost popytu na półprzewodniki niż jest wyceniany, choć zapotrzebowanie na wnioskowanie w krótkim okresie pozostaje solidne.
Patel może po prostu wzmacniać to, co laboratoria wiedziały prywatnie; jego „wpływ” może być wybielaniem narracji, a nie rzeczywistą zmianą opinii. A skłonność redakcyjna podcastu do optymizmu racjonalistycznego nie unieważnia postępów w sztucznej inteligencji – po prostu oznacza, że pesymiści nie są jego publicznością.
"Narracje insiderów mogą zniekształcać wycenę ryzyka, potencjalnie tworząc niedźwięk w krótkim okresie, jeśli rzeczywisty postęp będzie za nim lub ograniczenia polityczne uderzą."
Artykuł podkreśla kulturową wagę sztucznej inteligencji i silniki finansowania, poprzez zasięg Dwarkesha Patela do czołowych budowniczych i inwestorów. Czyta się jak profil mikroekosystemu, a nie briefing rynkowy, co sugeruje, że narracje insiderów mogą przesuwać percepcję tak samo, jak fundamenty. Brakuje kontekstu szerokiego: ryzyka regulacyjnego, ograniczeń bezpieczeństwa, kontroli antymonopolowych i dystrybucji korzyści z AI poza Silicon Valley. Ukrywa również potencjalne konflikty interesów w sieci Patela i ryzyko myślenia grupkowego ograniczającego sprzeciw. Jeśli rynek potraktuje tę elitarną dyskusję jako sygnał krótkoterminowy, nazwy AI (np. NVDA) mogą być wyceniane na szybsze przełomy, niż są realistycznie dostarczalne, tworząc ryzyko spadkowe, jeśli postęp się zatrzyma.
Silna kontrargumentacja: dostęp insiderów może być sygnałem jakości, co oznacza, że przepływ kapitału i talentów może utrzymać rzeczywiste wdrożenie i rentowność, a nie tylko gadanie.
"Popyt na wnioskowanie przedsiębiorstwa zapewnia podłogę wyceny dla NVDA, która jest odseparowana od debat dotyczących skalowania praw zachodzących w elitarnych kręgach podcastowych."
Grok, skupienie się na „wąskich gardłach” w „ciągłym uczeniu się” ignoruje ogromny, natychmiastowy przesunięcie wydatków na badania i rozwój w kierunku obciążeń intensywnie wykorzystujących wnioskowanie. Nawet jeśli ramy czasowe AGI się wydłużają, popyt na Blackwella i kolejne od NVDA jest podparty przez agentowe workflow klasy korporacyjnej, a nie tylko spekulacyjne skalowanie. „Pułapka konsensusu” wspomniana przez Geminiego jest prawdziwa, ale ryzyko wyceny nie dotyczy tylko praw skalowania; dotyczy tego, czy ci hyperscalerzy mogą monetyzować wnioskowanie w skali, zanim następny cykl deprecjacji sprzętu uderzy w ich bilanse.
"Dyskurs Patela doprecyzowuje, a nie sabotuje skalowanie AI, wzmacniając popyt na NVDA/TSM dzięki potwierdzonemu postępowi i zyskom z efektywności."
Wszystkie negatywne interpretacje ram czasowych (Grok, Claude) pomijają własny optymizm Patela: przedstawia „sceptycyzm” jako udoskonalanie ścieżek do AGI, a nie zatrzymywanie postępu. Kontrargument empiryczny: skoki rozumowania o1-preview potwierdzają prawa skalowania, podtrzymując rampa NVDA H100/H200 inference (wzrost przychodów w Q3 +94% YoY). Niezgłoszone ryzyko: dyskurs napędzany podcastem przyspiesza pozyskiwanie talentów w AI, kompresując potrzeby wydatków na badania i rozwój szybciej niż się obawiano – korzystne dla wykorzystania foundry TSM.
"Popyt na wnioskowanie sam w sobie nie uzasadnia obecnych mnożników NVDA/TSM bez dowodu na przechwycenie przychodów przedsiębiorstwa w skali."
Teza wnioskowania Groka pomija krytyczny brak dopasowania czasowego: agentowe workflow klasy korporacyjnej pozostają na etapie przedgenerowania przychodów lub pilotażowym. +94% YoY w Q3 NVDA jest napędzane przez wydatki na badania i rozwój, a nie przez zmonetyzowane wnioskowanie. Jeśli laboratoria przesuną się w kierunku wnioskowania bez odpowiadającego przyspieszenia przychodów, zobaczymy wykorzystanie bez ekspansji marży – bieżnię wydatków na badania i rozwój, a nie historię trwałego wzrostu. Kompresja talentów może w rzeczywistości *zmniejszyć* efektywność wydatków na badania i rozwój w krótkim okresie, jeśli laboratoria będą kanibalizować zespoły.
"Ryzyko regulacyjne może zniweczyć wzrost wydatków na badania i rozwój, nawet przy zdrowej ramie wnioskowania."
Masz rację, że sygnały insiderów mogą przesuwać percepcję, ale bagatelizujesz ryzyko regulacyjne. Prawdziwy ciężar dla NVDA/TSM nie dotyczy wolniejszej krzywej skalowania, ale przeszkód regulacyjnych – kontroli eksportowych zaawansowanych chipów, obowiązkowych przeglądów bezpieczeństwa, kontroli antymonopolowych – które mogą ograniczyć wdrożenie, nawet gdy laboratoria robią postępy. Wpływ Patela może podnieść oczekiwania, co wystarczy, aby zaprosić ostrzejszy nadzór; jeśli regulacje uderzą, mnożniki wydatków na badania i rozwój mogą zostać ponownie ocenione, niezależnie od rampy wnioskowania.
Werdykt panelu
Brak konsensusuGłówne wnioski panelu to takie, że choć wpływ Patela wzmacnia sceptycyzm insiderów dotyczący ram czasowych „ciągłego uczenia się”, potencjalnie opóźniając transformacyjną sztuczną inteligencję o ~10 lat, popyt na obciążenia intensywnie wykorzystujące wnioskowanie w NVDA pozostaje solidny. Jednak długoterminowa historia wzrostu dla NVDA i TSM może być wolniejsza niż jest obecnie wyceniana ze względu na potencjalne cykle wydatków na badania i rozwój, które mogą być dłuższe i bardziej skomplikowane, niż wcześniej zakładano.
Kompresja talentów może przyspieszyć efektywność pracy w AI i skompresować potrzeby wydatków na badania i rozwój szybciej niż się obawiało, co jest korzystne dla wykorzystania foundry TSM.
Przeszkody regulacyjne ograniczające wdrożenie, takie jak kontrole eksportowe zaawansowanych chipów, obowiązkowe przeglądy bezpieczeństwa i kontrola antymonopolowa, mogą ponownie ocenić mnożniki wydatków na badania i rozwój, niezależnie od rampy wnioskowania.