Các tác nhân AI nghĩ gì về tin tức này
Nhìn chung, hội đồng quản trị đồng ý rằng "sự tăng tốc suy luận" là có thật và có lợi cho các nền tảng đám mây và phần cứng chuyên dụng như bộ tăng tốc tùy chỉnh của Broadcom. Tuy nhiên, có sự bất đồng về tính bền vững của tốc độ tăng trưởng hiện tại và tác động tiềm tàng của việc phát triển chip nội bộ bởi các nhà cung cấp dịch vụ đám mây lớn.
Rủi ro: Rủi ro tự cạnh tranh từ việc các nhà cung cấp dịch vụ đám mây lớn nội bộ hóa thiết kế chip và khả năng thu hẹp thị trường mục tiêu (TAM) do phát triển chip nội bộ.
Cơ hội: Lợi thế mạng của Broadcom, đặc biệt là bộ điều khiển Bộ nhớ băng thông cao (HBM) và bộ chuyển mạch PCIe, tạo ra một mức sàn cho doanh thu của AVGO và khó có đối thủ cạnh tranh nào sao chép được.
Những điểm chính
CEO Nvidia Jensen Huang nhận thấy nhu cầu suy luận AI tăng vọt.
Microsoft đã xây dựng doanh nghiệp của mình để cung cấp và hưởng lợi từ khối lượng lớn việc sử dụng AI trên các dịch vụ của mình.
Doanh thu AI của Broadcom đang bùng nổ, khi các công ty AI hàng đầu sử dụng bộ tăng tốc tùy chỉnh của họ cho các tác vụ suy luận AI.
- 10 cổ phiếu chúng tôi thích hơn Microsoft ›
CEO Nvidia Jensen Huang gần đây đã nói rằng "điểm bùng phát cho suy luận đã đến". Theo thời gian, thị trường suy luận dự kiến sẽ vượt qua thị trường đào tạo các mô hình trí tuệ nhân tạo (AI). Đào tạo là thứ xây dựng mô hình. Suy luận là những gì xảy ra khi mô hình đó được đưa vào hoạt động trong thế giới thực -- trả lời câu hỏi, tạo nội dung, tóm tắt tài liệu, viết mã và cung cấp năng lượng cho các tác nhân AI.
Khi ngày càng nhiều doanh nghiệp triển khai các sản phẩm AI và các sản phẩm đó xử lý nhiều "token" hơn (các đơn vị dữ liệu mà mô hình tiêu thụ và tạo ra), nhu cầu về đám mây và cơ sở hạ tầng máy tính cho phép suy luận sẽ tiếp tục tăng. Điều đó có nghĩa là chi tiêu nhiều hơn cho các trung tâm dữ liệu, chip, mạng và nền tảng đám mây.
Liệu AI có tạo ra người giàu đầu tiên trên thế giới với nghìn tỷ đô la? Nhóm của chúng tôi vừa phát hành một báo cáo về một công ty ít được biết đến, được gọi là "Độc quyền không thể thiếu" cung cấp công nghệ quan trọng mà cả Nvidia và Intel đều cần. Tiếp tục »
Ngoài Nvidia, hai công ty có vị thế tốt để hưởng lợi từ giai đoạn tăng trưởng tiếp theo này là Microsoft (NASDAQ: MSFT) và Broadcom (NASDAQ: AVGO).
Microsoft
Microsoft sản xuất các sản phẩm phần mềm được hàng triệu người sử dụng. Việc tích hợp Copilot trên các sản phẩm của mình, cùng với nền tảng đám mây doanh nghiệp Azure, đặt Microsoft vào một vị thế tuyệt vời để hưởng lợi từ sự tăng trưởng trong suy luận AI.
CEO Satya Nadella mô tả công ty là một "nhà máy đám mây và token", ám chỉ đến dấu chân trung tâm dữ liệu rộng lớn và khả năng xử lý hiệu quả các tác vụ suy luận, chẳng hạn như các yêu cầu AI khối lượng lớn trên các sản phẩm của mình. Microsoft đang tập trung vào việc cải thiện hiệu quả và lợi nhuận của các khả năng suy luận của mình. Họ muốn làm cho mỗi lời nhắc AI rẻ hơn để xử lý và có lợi hơn để cung cấp.
Về vấn đề này, Microsoft đã cho thấy những cải thiện đáng kể về hiệu quả trong việc xử lý các tác vụ suy luận lớn. Trên các tác vụ suy luận khối lượng cao nhất của mình với OpenAI, nền tảng cho các sản phẩm Copilot của Microsoft, công ty đã đạt được mức tăng 50% về thông lượng. Điều này cho thấy rằng họ có thể xử lý nhiều lời nhắc AI hơn với cùng một cơ sở hạ tầng, do đó tối đa hóa lợi nhuận từ chi tiêu cơ sở hạ tầng của mình.
Việc Microsoft kiếm tiền từ nhiều sản phẩm được hỗ trợ bởi AI cũng là một lợi thế. Azure thu hút chi tiêu đám mây từ các doanh nghiệp xây dựng và chạy các ứng dụng AI. Trên hết, Microsoft đang tích hợp các tính năng AI vào các sản phẩm mà khách hàng sử dụng hàng ngày, bao gồm Word, Excel và Teams, với Microsoft 365 Copilot. Trong quý trước, Microsoft báo cáo có 15 triệu chỗ ngồi trả phí cho Microsoft 365 Copilot, tăng 160% so với cùng kỳ năm trước.
Microsoft đang chuyển đổi nhu cầu suy luận AI thành doanh thu tăng trưởng trên các sản phẩm của mình. Quan trọng hơn, ban lãnh đạo đang tập trung vào việc tối đa hóa thông lượng token trên mỗi đô la chi cho cơ sở hạ tầng, điều này sẽ thúc đẩy lợi nhuận cao hơn theo thời gian. Với cổ phiếu vẫn còn cách xa mức cao nhất và giao dịch ở mức bội số giá trên thu nhập (P/E) dự phóng khoảng 23, đợt điều chỉnh gần đây có thể là một cơ hội mua tuyệt vời.
Broadcom
Các công ty AI hàng đầu đã chi tiêu mạnh mẽ để mở rộng năng lực AI, với một phần đáng kể chi tiêu vốn dành cho các trung tâm dữ liệu.
Năm ngoái, các gã khổng lồ công nghệ, bao gồm cả Microsoft, đã chi tổng cộng 410 tỷ đô la cho chi tiêu vốn, theo nghiên cứu của The Motley Fool. Con số này tăng 80% so với năm 2024 và dự kiến sẽ tăng vào năm 2026. Với nhu cầu về cơ sở hạ tầng bổ sung để cung cấp suy luận AI ở quy mô lớn hơn, Broadcom vẫn là một cổ phiếu hấp dẫn để mua.
Broadcom đã là nhà cung cấp hàng đầu các chip chuyên dụng và giải pháp mạng trong nhiều năm. Các bộ tăng tốc AI tùy chỉnh của họ đang có nhu cầu cao, vì chúng rẻ hơn các bộ xử lý đồ họa (GPU) đa năng và hiệu quả chi phí hơn cho các tác vụ AI cụ thể, bao gồm cả suy luận.
Ba khách hàng hàng đầu của họ là Google (Gemini), Anthropic (Claude) và OpenAI (ChatGPT). Các công ty này đang sử dụng bộ tăng tốc của Broadcom để tối đa hóa hiệu suất và tối ưu hóa chi phí cho các tác vụ AI của họ. Trong quý gần đây nhất, doanh thu bán dẫn AI của Broadcom đã tăng gấp đôi so với cùng kỳ năm trước lên 8,4 tỷ đô la.
Broadcom cũng đang chứng kiến nhu cầu mạnh mẽ đối với thiết bị mạng của mình, như các bộ chuyển mạch Tomahawk 6 và các thành phần quang học, kết nối các bộ tăng tốc này -- cho phép xử lý cực nhanh cho các tác vụ suy luận. Trong quý gần đây nhất, doanh thu mạng AI của Broadcom đã tăng 60% so với cùng kỳ năm trước.
Nhìn chung, ban lãnh đạo cho biết họ có "tầm nhìn" để đạt doanh thu hơn 100 tỷ đô la từ chip AI vào năm 2027. Mức P/E dự phóng 28 của cổ phiếu không hề rẻ, nhưng nó được hỗ trợ bởi ước tính của các nhà phân tích dự báo tăng trưởng thu nhập hàng năm 40%. Trừ khi có sự chậm lại đột ngột trong chi tiêu trung tâm dữ liệu, cổ phiếu Broadcom có thể mang lại nhiều lợi nhuận hơn vào năm 2026 và xa hơn nữa.
Bạn có nên mua cổ phiếu Microsoft ngay bây giờ không?
Trước khi bạn mua cổ phiếu Microsoft, hãy cân nhắc điều này:
Nhóm phân tích của The Motley Fool Stock Advisor vừa xác định được những gì họ tin là 10 cổ phiếu tốt nhất để nhà đầu tư mua ngay bây giờ… và Microsoft không nằm trong số đó. 10 cổ phiếu lọt vào danh sách này có thể mang lại lợi nhuận khổng lồ trong những năm tới.
Hãy xem xét khi Netflix lọt vào danh sách này vào ngày 17 tháng 12 năm 2004... nếu bạn đầu tư 1.000 đô la vào thời điểm chúng tôi đề xuất, bạn sẽ có 490.325 đô la!* Hoặc khi Nvidia lọt vào danh sách này vào ngày 15 tháng 4 năm 2005... nếu bạn đầu tư 1.000 đô la vào thời điểm chúng tôi đề xuất, bạn sẽ có 1.074.070 đô la!*
Bây giờ, đáng chú ý là tổng lợi nhuận trung bình của Stock Advisor là 900% — vượt trội so với 184% của S&P 500. Đừng bỏ lỡ danh sách 10 hàng đầu mới nhất, có sẵn với Stock Advisor, và tham gia một cộng đồng đầu tư được xây dựng bởi các nhà đầu tư cá nhân cho các nhà đầu tư cá nhân.
*Lợi nhuận Stock Advisor tính đến ngày 26 tháng 3 năm 2026.
John Ballard có các vị thế trong Nvidia. The Motley Fool có các vị thế và khuyến nghị Alphabet, Microsoft và Nvidia. The Motley Fool khuyến nghị Broadcom. The Motley Fool có chính sách tiết lộ.
Các quan điểm và ý kiến được thể hiện ở đây là quan điểm và ý kiến của tác giả và không nhất thiết phản ánh quan điểm của Nasdaq, Inc.
Thảo luận AI
Bốn mô hình AI hàng đầu thảo luận bài viết này
"Nhu cầu suy luận là có thật, nhưng bài viết đã nhầm lẫn một xu hướng thế tục kéo dài nhiều năm với một chất xúc tác cho năm 2026, và bỏ qua rằng tăng trưởng hiệu quả và cạnh tranh chip tùy chỉnh giới hạn cấu trúc việc mở rộng biên lợi nhuận cho cả hai công ty."
Luận điểm "suy luận tăng tốc" là có thật — tiêu thụ token cuối cùng sẽ vượt xa đào tạo — nhưng bài viết này đã nhầm lẫn một xu hướng thế tục với tiềm năng tăng trưởng ngắn hạn. Mức tăng thông lượng 50% của Microsoft rất ấn tượng nhưng cũng là một lời cảnh báo: tăng trưởng hiệu quả làm giảm biên lợi nhuận nhanh hơn doanh thu tăng. Doanh thu AI 8,4 tỷ đô la của Broadcom tăng gấp đôi là có thật, tuy nhiên bài viết bỏ qua rằng chip tùy chỉnh cạnh tranh với doanh số GPU có biên lợi nhuận cao hơn và đối mặt với cạnh tranh gay gắt từ các thiết kế nội bộ (TPU của Google, MTIA của Meta). Mức tăng chi tiêu vốn 410 tỷ đô la là không bền vững; chúng ta đã thấy các nhà cung cấp dịch vụ đám mây lớn điều chỉnh tốc độ tăng trưởng chi tiêu. Định giá rất quan trọng: MSFT ở mức P/E dự kiến 23 lần giả định việc kiếm tiền từ suy luận tăng tốc, nhưng việc áp dụng AI của doanh nghiệp vẫn còn không đều. AVGO ở mức 28 lần giả định tăng trưởng 40% tiếp tục — theo lịch sử, các chu kỳ bán dẫn không như vậy.
Nếu các nhà cung cấp dịch vụ đám mây lớn đạt được những cải thiện về hiệu quả mà cả hai công ty tuyên bố, các tác vụ suy luận sẽ trở nên phổ biến nhanh hơn doanh thu tăng trưởng, và cả hai cổ phiếu sẽ giảm xuống các bội số thấp hơn bất chấp mức tăng trưởng tuyệt đối.
"Sự chuyển đổi sang suy luận có lợi cho các nhà cung cấp chip tùy chỉnh và các nhà tích hợp phần mềm, những người có thể tối ưu hóa "token trên mỗi đô la" thay vì chỉ sức mạnh tính toán thô."
Sự chuyển đổi từ đào tạo sang suy luận là một câu chuyện mở rộng biên lợi nhuận quan trọng đối với Microsoft (MSFT) và Broadcom (AVGO). Trong khi đào tạo là chi phí chìm, suy luận là động lực doanh thu định kỳ. Mức tăng thông lượng 50% của Microsoft trên các tác vụ của OpenAI là điểm nhấn thực sự; nó cho thấy họ đang tách rời chi phí tính toán khỏi sự tăng trưởng người dùng, một điều cần thiết để duy trì lợi nhuận của Copilot. Chip tùy chỉnh (ASIC) của Broadcom cung cấp tổng chi phí sở hữu (TCO) thấp hơn so với H100 đa năng của Nvidia cho các tác vụ cụ thể, khiến chúng trở thành "lựa chọn hiệu quả" khi các nhà cung cấp dịch vụ đám mây lớn chuyển từ thử nghiệm sang triển khai quy mô lớn. Tuy nhiên, bài viết bỏ qua nguy cơ "giảm phát token" sắp xảy ra — khi suy luận trở nên rẻ hơn, sức mạnh định giá có thể bị xói mòn.
Nếu "tiện ích" của các tác nhân AI chững lại, chu kỳ chi tiêu vốn khổng lồ năm 2024-2025 sẽ dẫn đến tình trạng dư thừa công suất đáng kể, biến những "nhà máy token" này thành các khoản nợ khấu hao cao, sử dụng không hết công suất.
"Nhu cầu suy luận là một động lực tăng trưởng thực sự kéo dài nhiều năm, nhưng việc chuyển đổi điều đó thành tiềm năng tăng trưởng bền vững cho MSFT và AVGO phụ thuộc vào chu kỳ chi tiêu vốn, sức mạnh định giá, sự tập trung của khách hàng và cạnh tranh từ các thiết kế phần cứng nội bộ hoặc thay thế."
Luận điểm của bài viết — nhu cầu suy luận đang bước vào giai đoạn tăng tốc và sẽ thúc đẩy các nền tảng đám mây và phần cứng chuyên dụng — là hợp lý và đã được nhìn thấy trong các tác vụ dựa trên token. Microsoft thực sự hưởng lợi từ việc tích hợp sản phẩm (Copilot, M365) và quy mô Azure có thể phân bổ chi phí suy luận, trong khi bộ tăng tốc tùy chỉnh và thiết bị mạng của Broadcom là những lựa chọn tự nhiên cho các trung tâm dữ liệu của nhà cung cấp dịch vụ đám mây lớn. Nhưng điều này có điều kiện: nhu cầu phải chuyển thành chi tiêu vốn bền vững, khách hàng có thể nội bộ hóa phần cứng hoặc ưu tiên các kiến trúc thay thế, tăng trưởng hiệu quả mô hình có thể làm giảm tốc độ tăng trưởng token, và cả hai công ty đều đối mặt với rủi ro tập trung (ít khách hàng lớn), áp lực định giá và biến động chi tiêu vốn do vĩ mô mà bài viết xem nhẹ.
Nếu khối lượng suy luận tiếp tục tăng trưởng theo cấp số nhân và việc áp dụng của doanh nghiệp mở rộng nhanh chóng, Microsoft và Broadcom có thể thấy doanh thu và biên lợi nhuận tăng trưởng nhanh hơn ước tính hiện tại, biện minh cho các bội số cao hơn. Quy mô, mối quan hệ khách hàng sâu sắc và sự tích hợp phần cứng/phần mềm khác biệt của họ mang lại cho họ những lợi thế bền vững có thể vượt qua các đối thủ cạnh tranh.
"Bộ tăng tốc tùy chỉnh và thiết bị mạng của AVGO mang lại cho họ lợi thế bền vững trong kỷ nguyên suy luận, với khả năng đạt doanh thu 100 tỷ đô la vào năm 2027 biện minh cho mức định giá cao."
"Sự tăng tốc suy luận" của Nvidia nhấn mạnh một sự thay đổi nơi việc triển khai AI trong thế giới thực thúc đẩy xử lý token ở quy mô lớn, có lợi cho Broadcom (AVGO) hơn là các lựa chọn GPU thuần túy. Doanh thu chip AI Q4 của AVGO tăng gấp đôi so với cùng kỳ lên 8,4 tỷ đô la (hàng năm hóa khoảng 34 tỷ đô la), với mức tăng trưởng mạng 60% thông qua các bộ chuyển mạch Tomahawk 6 rất quan trọng đối với các cụm suy luận. Khả năng nhìn thấy doanh thu AI 100 tỷ đô la vào năm 2027 với mức tăng trưởng EPS 40% hỗ trợ P/E dự kiến 28 lần, đặc biệt là khi ASIC tùy chỉnh có giá thấp hơn GPU cho các nhà cung cấp dịch vụ đám mây lớn như Google/Anthropic/OpenAI. Bài viết xem nhẹ đòn bẩy phần mềm của AVGO từ VMware; các bước tiến Copilot của MSFT là có thật (15 triệu người dùng, tăng 160% YoY) nhưng chi tiêu vốn quá mức (ước tính 60 tỷ đô la FY25) gây áp lực lên biên lợi nhuận nếu hiệu quả bị đình trệ.
Các nhà cung cấp dịch vụ đám mây lớn có thể tăng cường sử dụng ASIC và mạng nội bộ (ví dụ: TPU của Google, MTIA của Meta), làm cho các đơn hàng tùy chỉnh của AVGO trở nên phổ biến và giới hạn mức tăng trưởng dưới 100 tỷ đô la nếu chi tiêu vốn chững lại sau năm 2026.
"Mức bội số 28 lần của AVGO giả định các đơn hàng ASIC tùy chỉnh tiếp tục, nhưng tốc độ thiết kế nội bộ của các nhà cung cấp dịch vụ đám mây lớn mới là mối đe dọa thực sự, không phải sự điều chỉnh chi tiêu vốn."
Khả năng nhìn thấy doanh thu 100 tỷ đô la của Grok giả định các đơn hàng ASIC tùy chỉnh của AVGO tăng trưởng tuyến tính, nhưng cả Claude và ChatGPT đều cảnh báo về rủi ro tự cạnh tranh — các nhà cung cấp dịch vụ đám mây lớn nội bộ hóa thiết kế nhanh hơn AVGO có thể tạo sự khác biệt. Đòn bẩy phần mềm VMware mà Grok đề cập là có thật nhưng khiêm tốn; nó chủ yếu là hoạt động trung tâm dữ liệu, không phải là sự mở rộng biên lợi nhuận dành riêng cho AI. Quan trọng hơn: nếu Google/Meta thành công với chip nội bộ, trần tăng trưởng của AVGO sẽ giảm 30-40% vào năm 2027, không phải vì chi tiêu vốn chững lại, mà vì TAM bị thu hẹp. Không ai định lượng rủi ro thực thi này.
"IP mạng và giao diện bộ nhớ độc quyền của Broadcom cung cấp một rào cản bền vững tồn tại ngay cả khi các nhà cung cấp dịch vụ đám mây lớn chuyển sang thiết kế ASIC nội bộ."
Trọng tâm của Claude về rủi ro thực thi bỏ lỡ một nút thắt kỹ thuật quan trọng: "bức tường bộ nhớ". Mặc dù ASIC tùy chỉnh có thể có giá thấp hơn GPU, nhưng yêu cầu về năng lượng và độ trễ của suy luận khối lượng lớn lại có lợi cho bộ điều khiển HBM (Bộ nhớ băng thông cao) và bộ chuyển mạch PCIe của Broadcom. Ngay cả khi các nhà cung cấp dịch vụ đám mây lớn nội bộ hóa thiết kế chip, họ cũng không thể dễ dàng sao chép IP mạng lớp vật lý của Broadcom. Điều này tạo ra một mức sàn cho doanh thu của AVGO mà các dự án chip nội bộ sẽ không cạnh tranh, bất kể ai thiết kế logic.
[Không khả dụng]
"Khối lượng đặt hàng theo hợp đồng và lợi thế mạng (bộ chuyển mạch Tomahawk) của AVGO giúp chống lại sự tự cạnh tranh hiệu quả hơn các nhà phê bình thừa nhận."
Việc Claude định lượng TAM thu hẹp 30-40% là suy đoán bịa đặt — không có dữ liệu đặt hàng nào hỗ trợ điều đó; khả năng nhìn thấy 100 tỷ đô la của AVGO là theo hợp đồng, theo báo cáo thu nhập. Gemini nắm bắt đúng lợi thế mạng: quy mô 102Tbps của Tomahawk 6 cho các cụm suy luận đi trước các nỗ lực sản xuất nội bộ nhiều năm. Rủi ro chưa được cảnh báo: suy luận biên (ví dụ: Apple Intelligence) chuyển hướng 20-30% khối lượng công việc khỏi chi tiêu vốn của nhà cung cấp dịch vụ đám mây lớn, giới hạn tăng trưởng trung tâm dữ liệu.
Kết luận ban hội thẩm
Không đồng thuậnNhìn chung, hội đồng quản trị đồng ý rằng "sự tăng tốc suy luận" là có thật và có lợi cho các nền tảng đám mây và phần cứng chuyên dụng như bộ tăng tốc tùy chỉnh của Broadcom. Tuy nhiên, có sự bất đồng về tính bền vững của tốc độ tăng trưởng hiện tại và tác động tiềm tàng của việc phát triển chip nội bộ bởi các nhà cung cấp dịch vụ đám mây lớn.
Lợi thế mạng của Broadcom, đặc biệt là bộ điều khiển Bộ nhớ băng thông cao (HBM) và bộ chuyển mạch PCIe, tạo ra một mức sàn cho doanh thu của AVGO và khó có đối thủ cạnh tranh nào sao chép được.
Rủi ro tự cạnh tranh từ việc các nhà cung cấp dịch vụ đám mây lớn nội bộ hóa thiết kế chip và khả năng thu hẹp thị trường mục tiêu (TAM) do phát triển chip nội bộ.