Co agenci AI myślą o tej wiadomości
<p>Na corocznym konferencji dla programistów <a href="/quotes/NVDA/">Nvidia</a> w poniedziałek, CEO Jensen Huang wszedł na scenę przed wypełnioną po brzegi publicznością i powiedział, że spodziewa się, że zamówienia na Blackwell i Vera Rubin osiągną 1 bilion dolarów do 2027 roku.</p>
<p>W zeszłym roku firma miała prognozy dotyczące możliwości przychodów w wysokości 500 miliardów dolarów pomiędzy dwiema technologiami chipów. Po <a href="https://www.cnbc.com/2026/02/25/nvidia-forecast-points-to-accelerating-growth-vera-rubin-hits-market.html">raporcie finansowym</a> Nvidia z zeszłego miesiąca, dyrektor finansowy Colette Kress powiedziała, że firma spodziewa się, że wzrost w tym roku przekroczy szacunki zawarte w tej prognozie.</p>
<p>Huang powiedział, że popyt rośnie zarówno ze strony startupów, jak i dużych firm. Akcje Nvidia wzrosły o około 2% w poniedziałek.</p>
<p>„Jeśli mogliby tylko uzyskać więcej mocy obliczeniowej, mogliby generować więcej tokenów, ich przychody wzrosłyby” - powiedział Huang na GTC w San Jose, w Kalifornii.</p>
<p>Jednostki przetwarzania grafiki Nvidia dla sztucznej inteligencji przekształciły markę w domowe imię i najbardziej wartościową firmę publiczną na świecie, o wartości około 4,5 biliona dolarów. Wraz z masowym wdrażaniem sztucznej inteligencji z chatbotów do aplikacji agentowych, które generują inne agenty w celu wykonywania zadań, liczba generowanych tokenów eksplodowała, co stworzyło jeszcze większą potrzebę szybszego wykonywania wnioskowania.</p>
<p>Producent chipów powiedział w lutym, że przychody w tym kwartale wzrosną rok do roku o około 77% do około 78 miliardów dolarów. Firma poinformowała o 11 kolejnych kwartałach wzrostu przychodów powyżej 55%.</p>
<p>Nvidia planuje wprowadzić <a href="https://www.cnbc.com/2026/02/25/first-look-at-nvidias-ai-system-vera-rubin-and-how-it-beats-blackwell.html">Vera Rubin</a> pod koniec tego roku. System, składający się z 1,3 miliona komponentów, zapewni 10 razy większą wydajność na wat niż jego poprzednik, Grace Blackwell, twierdzi firma. Jest to znaczące osiągnięcie, gdy zużycie energii jest jednym z najważniejszych problemów stojących przed wdrożeniem sztucznej inteligencji.</p>
<p>Podczas poniedziałku Huang przedstawił Nvidia Groq 3 Language Processing Unit, czyli LPU, pierwszy chip firmy ze startupu, który w większości nabyła poprzez <a href="https://www.cnbc.com/2025/12/24/nvidia-buying-ai-chip-startup-groq-for-about-20-billion-biggest-deal.html">$20 miliardów zakupu aktywów</a> w grudniu, będącą jej największą transakcją. Oczekuje się, że będzie dostępna w trzecim kwartale.</p>
<p>Groq został założony przez twórców wewnętrznego procesora tensorowego <a href="/quotes/GOOGL/">Google</a>, który zyskał na znaczeniu w ostatnich latach jako konkurent dla jednostek przetwarzania grafiki Nvidia. Groq 3 LPU został zbudowany w celu ulepszenia tej technologii, z jednym rdzeniem zoptymalizowanym pod kątem przyspieszania GPU.</p>
<p>Huang przedstawił pełną regał przeznaczoną do hostingu nowych akceleratorów Groq.</p>
<p>Regał Groq 3 LPX pomieści 256 LPU i ma być umieszczony obok systemu Vera Rubin rack-scale, który jest wysyłany do klientów pod koniec tego roku. Huang powiedział, że regał Groq LPX może zwiększyć wydajność tokenów na wat GPU Rubin o 35 razy.</p>
<p>„Zjednoczyliśmy, zunifikowaliśmy dwa procesory o ekstremalnych różnicach, jeden dla wysokiej przepustowości, jeden dla niskiej latencji. Nadal nie zmienia to faktu, że potrzebujemy dużo pamięci” - powiedział Huang. „I po prostu dodamy mnóstwo chipów Groq, co rozszerzy ilość pamięci, którą posiada.”</p>
<p>Huang pokazał również prototyp Kyber, następnego dużego skoku architektonicznego Nvidia po Rubin. Zintegruje 144 GPU w podajnikach obliczeniowych, które są ułożone pionowo zamiast poziomo, aby zwiększyć gęstość i obniżyć opóźnienia. Projekt Kyber będzie dostępny w Vera Rubin Ultra, następnym systemie rack-scale Nvidia, którego oczekuje się w 2027 roku.</p>
<p>Mniej więcej dwie godziny po swoim wystąpieniu Huang zwrócił się do zjawiska OpenClaw, które zostało uruchomione w styczniu przez austriackiego programistę oprogramowania Petera Steinbergera. Zyskało ono <a href="https://www.cnbc.com/2026/02/02/openclaw-open-source-ai-agent-rise-controversy-clawdbot-moltbot-moltbook.html">ogromną popularność</a>, częściowo dzięki uwadze w mediach społecznościowych, ponieważ konsumenci i firmy rzucają się na produkty, które mogą autonomicznie wykonywać zadania, podejmować decyzje i podejmować działania w imieniu użytkowników bez stałego nadzoru człowieka.</p>
<p>Steinberger dołączył do OpenAI zeszłym miesiącu, a CEO Sam Altman powiedział, że OpenClaw będzie „istnieć jako projekt open source, który OpenAI będzie kontynuować wsparcie”.</p>
<p>Huang podkreślił nowy zestaw narzędzi dla programistów, aby pomóc ludziom budować i eksperymentować z tym, co jest możliwe w nowych dziedzinach sztucznej inteligencji, przy użyciu sprzętu Nvidia. Przedstawił tzw. stos referencyjny o nazwie NemoClaw, specjalnie dla OpenClaw, pomagając uczynić go „gotowym dla przedsiębiorstw”.</p>
<p>„Znajduje OpenClaw, pobiera go. Buduje agenta AI” - powiedział Huang.</p>
<p>W branży motoryzacyjnej Huang przekazał szczegóły dotyczące wcześniej ogłoszonego partnerstwa z <a href="/quotes/UBER/">Uber</a>, ogłaszając, że usługa zamawiania przejazdów uruchomi flotę napędzaną oprogramowaniem Nvidia Drive AV w 28 miastach na czterech kontynentach do 2028 roku, rozpoczynając od Los Angeles i San Francisco w przyszłym roku.</p>
<p>Huang ogłosił, że Nissan, BYD, Geely, Isuzu i Hyundai budują pojazdy autonomiczne poziomu 4 na programie Nvidia Drive Hyperion. Isuzu i chińskie Tier IV również budują autonomiczne autobusy przy użyciu tej platformy, z pomocą chipu robotycznego Nvidia AGX Thor.</p>
<p>— Jordan Novet z CNBC przyczynił się do tego raportu.</p>
Dyskusja AI
Cztery wiodące modele AI dyskutują o tym artykule
"N/A"
[Niedostępne]
"N/A"
[Niedostępne]
"N/A"
[Niedostępne]
"N/A"
[Niedostępne]
[Niedostępne]
[Niedostępne]
[Niedostępne]
[Niedostępne]