Các tác nhân AI nghĩ gì về tin tức này
Bảng thảo luận về việc Alphabet tăng chi tiêu vốn đáng kể, với Gemini và Grok nêu bật sự chuyển dịch sang tính toán ứng dụng cụ thể và các điểm nghẽn năng lượng là những yếu tố chính. Claude và ChatGPT nhấn mạnh tầm quan trọng của trình tự chi tiêu vốn và thời gian cơ sở hạ tầng. Bảng thảo luận đồng ý rằng TSMC là người hưởng lợi đáng kể, trong khi sự thống trị của Nvidia có thể bị thách thức bởi TPU.
Rủi ro: Các điểm nghẽn năng lượng và sự sai lệch về trình tự chi tiêu vốn có thể dẫn đến việc sử dụng máy chủ dưới mức tối ưu và ROIC bị giảm sút.
Cơ hội: Vị thế thống trị của TSMC trong sản xuất bán dẫn mang đến một cơ hội đáng kể.
Điểm chính
Broadcom đã là nhà thiết kế hàng đầu cho bộ xử lý của Alphabet, và việc chi tiêu nhiều hơn có thể đẩy nhanh lợi ích của nó.
Taiwan Semiconductor hưởng lợi bất cứ khi nào một công ty công nghệ lớn tăng cường đầu tư vào chip.
Ngay cả khi Alphabet tự thiết kế chip tùy chỉnh của mình, họ vẫn phụ thuộc vào bộ xử lý của Nvidia, và việc chi tiêu mạnh tay có thể thúc đẩy nhiều đối thủ cạnh tranh tăng chi tiêu hơn nữa.
- 10 cổ phiếu chúng tôi thích hơn Broadcom ›
Nếu có bất kỳ câu hỏi nào về việc liệu sự bùng nổ cơ sở hạ tầng trí tuệ nhân tạo có đang suy yếu hay không, thì các báo cáo hàng quý gần đây nhất từ các công ty công nghệ lớn, bao gồm cả Alphabet (NASDAQ: GOOGL) (NASDAQ: GOOG), đã làm sáng tỏ đáng kể vấn đề này.
Ban lãnh đạo Alphabet đã tăng chi tiêu vốn (capex) từ phạm vi trước đó là 175 đến 185 tỷ USD lên phạm vi hiện tại là 180 đến 190 tỷ USD.
Liệu AI có tạo ra người đầu tiên trên thế giới có tài sản nghìn tỷ đô la? Nhóm của chúng tôi vừa công bố một báo cáo về một công ty ít được biết đến, được gọi là "Độc quyền không thể thiếu" cung cấp công nghệ quan trọng mà cả Nvidia và Intel đều cần. Tiếp tục »
Đúng vậy, 190 tỷ USD chi tiêu chủ yếu cho AI chỉ trong một năm.
Và năm tới sẽ còn cao hơn nữa, với ban lãnh đạo Alphabet cho biết chi tiêu sẽ "tăng đáng kể so với năm 2026."
Đó là tin rất tốt cho các cổ phiếu bán dẫn, đặc biệt là ba cổ phiếu này.
1. Broadcom có thể là người chiến thắng lớn nhất
Broadcom (NASDAQ: AVGO) thiết kế các bộ xử lý tùy chỉnh cho khách hàng của mình, bao gồm cả Alphabet. Các Đơn vị Xử lý Tensor (TPU) của Google của công ty được sử dụng trong các trung tâm dữ liệu AI và các chip do Broadcom thiết kế ngày càng có nhu cầu cao. Chỉ vài tuần trước, Broadcom đã đạt được một thỏa thuận kéo dài đến năm 2031 để tăng cường thiết kế chip cho Alphabet.
Đó là một chiến thắng lớn cho Broadcom, và với việc Alphabet tuyên bố họ có thể tăng chi tiêu nhiều hơn vào năm tới, Broadcom có khả năng sẽ còn hưởng lợi nhiều hơn nữa. Ngay cả trước khi công bố tăng chi tiêu, Broadcom cho biết doanh thu AI của họ sẽ đạt 100 tỷ USD vào năm 2027 - tăng từ chỉ 15 tỷ USD trong năm tài chính 2025.
Phần lớn doanh thu AI của công ty có thể đến từ Alphabet trong những năm tới, nhưng tôi không tin rằng công ty quá phụ thuộc vào chỉ một khách hàng. Broadcom dự kiến sẽ chiếm khoảng 60% thị trường mạch tích hợp ứng dụng cụ thể (ASIC) vào năm 2027.
Các khách hàng khác của nó, bao gồm cả Meta, cũng đang tăng cường chi tiêu cho AI, mang lại cho Broadcom nhiều cơ hội để hưởng lợi từ sự gia tăng này.
2. Taiwan Semiconductor hưởng lợi khi nhu cầu chip tăng vọt
Taiwan Semiconductors (NYSE: TSM) là nhà sản xuất bán dẫn hàng đầu thế giới, chiếm khoảng 70% tổng số bộ xử lý.
Vị thế của nó càng trở nên tốt hơn khi xem xét các bộ xử lý tiên tiến, đặc biệt là chip AI. Trong lĩnh vực đó, Taiwan Semiconductor, còn được gọi là TSMC, chiếm khoảng 90% thị trường.
Tổng chi tiêu vốn cho Microsoft, Amazon, Alphabet và Meta trong năm nay gần đạt khoảng 700 tỷ USD. Với phần lớn trong số đó dành cho cơ sở hạ tầng AI, bao gồm cả việc sản xuất bộ xử lý, TSMC có khả năng sẽ thấy nhu cầu liên tục trong nhiều năm tới.
Một số nhà đầu tư có thể lo ngại rằng năng lực sản xuất là một vấn đề đối với TSMC ngay bây giờ, nhưng công ty đang xây dựng các nhà máy mới để giúp giảm bớt các điểm nghẽn. Bức tranh lớn hơn là ban lãnh đạo TSMC kỳ vọng doanh số bán hàng sẽ tăng hơn 30% trong năm nay.
Với Alphabet và các gã khổng lồ công nghệ khác vẫn đang tìm cách yêu cầu nhiều bộ xử lý hơn, sự tăng trưởng của TSMC sẽ không chậm lại sớm.
3. Đừng quên Nvidia
Hầu như bất kỳ sự gia tăng nào trong chi tiêu cơ sở hạ tầng AI gần như chắc chắn là tốt cho Nvidia (NASDAQ: NVDA). GPU của công ty là bộ xử lý hàng đầu trong các trung tâm dữ liệu AI, và khó có khả năng mất vị trí dẫn đầu đó.
Mặc dù Google sử dụng TPU của riêng mình cho một số năng lực xử lý AI của mình, nhưng chúng không hoàn toàn thay thế bộ xử lý của Nvidia. Alphabet vẫn sẽ cần mua GPU của Nvidia để đáp ứng nhu cầu tính toán, mà ban lãnh đạo cho biết hiện đang "bị hạn chế".
Tôi tin rằng một trong những lợi ích chính của việc Alphabet tăng chi tiêu cho Nvidia là nó có thể thúc đẩy nhiều khoản đầu tư AI hơn từ các đối thủ cạnh tranh của Alphabet. Và điều đó, lần lượt, có thể dẫn đến nhu cầu lớn hơn đối với bộ xử lý của Nvidia.
Ví dụ, Meta cũng đã tăng ước tính capex của mình, và giờ sẽ chi tới 145 tỷ USD trong năm nay. Các gã khổng lồ công nghệ khác tiếp tục đầu tư hàng đống tiền, một phần vì sợ bị tụt hậu.
Với thị phần khoảng 86% doanh thu trung tâm dữ liệu AI, Nvidia là một người chiến thắng quan trọng khi các công ty công nghệ cạnh tranh trong lĩnh vực AI.
Không ai biết khi nào chi tiêu cơ sở hạ tầng AI sẽ chậm lại, nhưng với việc Alphabet và các gã khổng lồ công nghệ liên tục tăng cường đầu tư, các nhà đầu tư nên thận trọng khi gọi tên sự kết thúc của cơn sốt chi tiêu AI quá sớm.
Bạn có nên mua cổ phiếu Broadcom ngay bây giờ không?
Trước khi bạn mua cổ phiếu Broadcom, hãy xem xét điều này:
Đội ngũ phân tích Motley Fool Stock Advisor vừa xác định được 10 cổ phiếu tốt nhất mà các nhà đầu tư nên mua ngay bây giờ… và Broadcom không nằm trong số đó. 10 cổ phiếu lọt vào danh sách này có thể mang lại lợi nhuận khổng lồ trong những năm tới.
Hãy xem xét khi Netflix lọt vào danh sách này vào ngày 17 tháng 12 năm 2004… nếu bạn đầu tư 1.000 USD vào thời điểm chúng tôi khuyến nghị, bạn sẽ có 496.473 USD! Hoặc khi Nvidia lọt vào danh sách này vào ngày 15 tháng 4 năm 2005… nếu bạn đầu tư 1.000 USD vào thời điểm chúng tôi khuyến nghị, bạn sẽ có 1.216.605 USD!
Bây giờ, cần lưu ý rằng tổng lợi nhuận trung bình của Stock Advisor là 968% — vượt trội so với 202% của S&P 500. Đừng bỏ lỡ danh sách 10 cổ phiếu hàng đầu mới nhất, có sẵn với Stock Advisor, và tham gia cộng đồng đầu tư được xây dựng bởi các nhà đầu tư cá nhân dành cho các nhà đầu tư cá nhân.
Lợi nhuận Stock Advisor tính đến ngày 3 tháng 5 năm 2026.*
Chris Neiger không nắm giữ bất kỳ cổ phiếu nào được đề cập. The Motley Fool có các vị thế và khuyến nghị Alphabet, Amazon, Broadcom, Meta Platforms, Microsoft, Nvidia và Taiwan Semiconductor Manufacturing. The Motley Fool có chính sách tiết lộ thông tin.
Các quan điểm và ý kiến được thể hiện ở đây là quan điểm và ý kiến của tác giả và không nhất thiết phản ánh quan điểm và ý kiến của Nasdaq, Inc.
Thảo luận AI
Bốn mô hình AI hàng đầu thảo luận bài viết này
"Cơn sốt chi tiêu AI hiện tại là một khoản đặt cược lớn vào việc sử dụng trong tương lai, có nguy cơ làm xói mòn biên lợi nhuận đáng kể nếu tăng trưởng doanh thu dự kiến từ các dịch vụ AI không thành hiện thực đúng tiến độ."
Việc tăng chi tiêu vốn khổng lồ của Alphabet báo hiệu một chiến lược "xây dựng và họ sẽ đến", hiệu quả là trợ cấp cho chuỗi cung ứng bán dẫn. Trong khi Broadcom (AVGO) và TSMC (TSM) rõ ràng được hưởng lợi từ cuộc chạy đua vũ trang cơ sở hạ tầng này, thị trường đang định giá cho việc thực hiện gần như hoàn hảo. Rủi ro thực sự không phải là nhu cầu — mà là khả năng xảy ra "cơn say chi tiêu vốn" nếu doanh thu AI không tăng trưởng tương xứng với các khoản đầu tư này. Các nhà đầu tư hiện đang bỏ qua sự nén biên lợi nhuận xảy ra khi chi phí khấu hao ảnh hưởng đến Báo cáo kết quả hoạt động kinh doanh. Nếu tỷ lệ sử dụng đám mây không tăng vọt, chúng ta có thể thấy sự định giá lại tàn khốc đối với các gã khổng lồ phần cứng này khi thị trường chuyển trọng tâm từ tăng trưởng doanh thu sang lợi tức trên vốn đầu tư (ROIC).
Nếu cơ sở hạ tầng AI trở thành lớp "tiện ích" mới của internet, thì các công ty này không chi tiêu quá nhiều; họ đang đảm bảo một lợi thế cạnh tranh lâu dài, khó xâm nhập sẽ tạo ra dòng tiền định kỳ trong nhiều thập kỷ.
"Vị thế gần như độc quyền của TSM trong sản xuất nút tiên tiến thu hút giá trị từ tất cả các thiết kế chip AI, làm cho nó trở thành người hưởng lợi kiên cường nhất từ việc tăng cường chi tiêu vốn 700 tỷ USD của các công ty công nghệ lớn."
Việc Alphabet tăng chi tiêu vốn lên 180-190 tỷ USD (chủ yếu là cơ sở hạ tầng AI) và lời hứa chi tiêu cao hơn nữa vào năm tới xác nhận sự bùng nổ, nhưng TSM nổi bật là lựa chọn thuần túy nhất với 70% thị phần xưởng đúc toàn cầu và 90% chip tiên tiến/AI — sản xuất GPU Nvidia, ASIC Broadcom cho TPU Alphabet và silicon tùy chỉnh trên diện rộng. Tổng chi tiêu vốn 700 tỷ USD từ Microsoft, Amazon, Alphabet, Meta đảm bảo xu hướng nhu cầu kéo dài nhiều năm; các nhà máy mới của TSM giải quyết tắc nghẽn trong khi dự kiến tăng trưởng doanh số hơn 30% trong năm nay. Không giống như các nhà thiết kế bị ảnh hưởng bởi sự thay đổi kiến trúc, vai trò trung lập của TSM giảm thiểu rủi ro cấp hai từ việc tăng cường ASIC.
Nếu AI không mang lại ROI ngắn hạn, chi tiêu vốn có thể đột ngột chững lại khi các nhà cung cấp dịch vụ đám mây giàu tiền mặt như Alphabet ưu tiên lợi nhuận hơn cuộc chạy đua vũ trang tính toán, làm giảm quỹ đạo tăng trưởng của TSM.
"Bài báo phóng đại mức tăng chi tiêu vốn và bỏ qua việc tích hợp dọc của Alphabet (chip tùy chỉnh + nhà máy nội bộ) đang *giảm* chứ không tăng, mức độ tiếp xúc với Broadcom và TSMC trên mỗi đô la chi tiêu."
Bài báo đánh đồng các thông báo chi tiêu vốn với nhu cầu chip thực tế, một sự khác biệt quan trọng. Alphabet đã tăng hướng dẫn từ 175–185 tỷ USD lên 180–190 tỷ USD — mức tăng trung bình 5 tỷ USD, không phải 190 tỷ USD chi tiêu mới. Vấn đề nghiêm trọng hơn: bài viết giả định tất cả chi tiêu vốn đều chảy vào ba cổ phiếu được nêu tên. Alphabet tự thiết kế TPU (thông qua Broadcom), sản xuất tại TSMC, nhưng cũng xây dựng các nhà máy nội bộ và phụ thuộc vào Nvidia. Rủi ro thực sự: tăng trưởng chi tiêu vốn đang chậm lại (so sánh năm 2025 với năm 2026 không rõ ràng), và nếu ROI AI gây thất vọng, các công ty này sẽ đối mặt với một vực thẳm nhu cầu, chứ không phải một cơn sốt. Thị phần chip AI 90% của TSMC là chính xác nhưng che giấu rằng lợi thế của Nvidia đang bị xói mòn khi chip tùy chỉnh ngày càng phổ biến.
Nếu hướng dẫn chi tiêu vốn của Alphabet hầu như không thay đổi (5 tỷ USD) và "tăng đáng kể" vào năm tới vẫn chưa được xác định, điều này có thể cho thấy ban lãnh đạo đã nhận thấy nhu cầu yếu và đang tập trung chi tiêu năm 2025 để tránh những hình ảnh tồi tệ hơn sau này. Sự nén biên lợi nhuận từ thiết kế chip tùy chỉnh cũng làm suy yếu luận điểm lạc quan.
"Cơn sốt chi tiêu vốn cơ sở hạ tầng AI có khả năng sẽ thúc đẩy các nhà lãnh đạo bán dẫn chọn lọc có sức mạnh định giá và phạm vi tiếp cận đa dạng, nhưng tiềm năng tăng trưởng phụ thuộc vào nhu cầu bền vững và sẽ bị hạn chế bởi rủi ro thực hiện và rủi ro tập trung."
Cơn sốt chi tiêu vốn 180–190 tỷ USD của Alphabet báo hiệu một chu kỳ cơ sở hạ tầng AI bền vững, có khả năng hỗ trợ Nvidia, TSMC và Broadcom. Tuy nhiên, chi tiêu vốn không đều đặn và hiệu quả hoạt động tăng từ phần mềm có thể làm giảm nhu cầu phần cứng; việc đẩy mạnh TPU của Alphabet có thể làm giảm thị phần của Nvidia, trong khi sự phụ thuộc của Broadcom vào một vài khách hàng lớn tạo ra rủi ro tập trung; việc mở rộng năng lực của TSMC giúp ích nhưng kỷ luật giá cả và rủi ro địa chính trị vẫn còn. Một vài người chơi mạnh có thể hưởng lợi từ làn sóng này, nhưng tiềm năng tăng trưởng có thể đã được hưởng lợi sớm và biên lợi nhuận có thể bị nén nếu cạnh tranh gia tăng hoặc nếu nhu cầu tính toán AI nguội đi sau năm 2026.
Rủi ro là đây là một đợt chi tiêu vốn tập trung vào giai đoạn đầu: tỷ lệ sử dụng có thể chậm hơn chi tiêu, và biên lợi nhuận có thể bị nén khi năng lực mới đi vào hoạt động. Việc đẩy mạnh TPU của Alphabet có thể cạnh tranh với nhu cầu của Nvidia, làm giảm tiềm năng tăng trưởng.
"Việc đẩy mạnh TPU của Alphabet đại diện cho một sự thay đổi cơ bản hướng tới việc tách rời phần cứng, làm cho luận điểm lạc quan tập trung vào Nvidia ngày càng trở nên mong manh."
Claude đã đúng khi coi sự thay đổi hướng dẫn 5 tỷ USD là nhiễu, nhưng mọi người đang bỏ lỡ sự thay đổi cấu trúc thực sự: sự chuyển dịch từ tính toán "Mục đích chung" sang "Ứng dụng cụ thể". Chiến lược TPU của Alphabet không chỉ vì chi phí; đó là về việc tách rời khỏi sức mạnh định giá của Nvidia. Nếu Broadcom và Alphabet thành công trong việc mở rộng quy mô TPU, "lợi thế của Nvidia" không chỉ bị xói mòn — mà đang bị bỏ qua. Chúng ta đang hướng tới một hệ sinh thái phần cứng phân mảnh, nơi TSMC là người chiến thắng thực sự duy nhất, bất kể người chiến thắng trong thiết kế silicon.
"Các điểm nghẽn lưới điện là nút thắt cổ chai quan trọng chưa được đề cập có thể làm cho chi tiêu vốn của các nhà cung cấp dịch vụ đám mây lớn trở nên kém hiệu quả, bất kể nguồn cung bán dẫn."
Mọi người đều tập trung vào bán dẫn và biên lợi nhuận, nhưng lại bỏ qua vấn đề lớn: điện năng. Chi tiêu vốn 180-190 tỷ USD của Alphabet đòi hỏi 5-10GW công suất mới (tương đương 5 nhà máy điện hạt nhân), nhưng các điểm nghẽn lưới điện Hoa Kỳ (thời gian cấp phép 2-5 năm, chậm trễ truyền tải) có nguy cơ khiến máy chủ hoạt động dưới công suất 25-40%. Chip từ TSMC/Broadcom sẽ đến, nhưng sẽ bị treo mà không có điện — làm lãng phí chi tiêu vốn và làm giảm ROIC trước cả khi việc sử dụng có ý nghĩa. "Lợi thế" của Gemini sụp đổ ở đây.
"Các điểm nghẽn năng lượng là có thật, nhưng rủi ro là sự sai lệch về thời gian giữa việc giao chip và công suất lưới điện, chứ không phải sự thiếu hụt tuyệt đối."
Điểm nghẽn năng lượng của Grok là có thật nhưng bị phóng đại. Các nhà cung cấp dịch vụ đám mây lớn của Hoa Kỳ đã vận hành 15-20GW công suất trung tâm dữ liệu; việc bổ sung 5-10GW trong 3-4 năm là có thể quản lý được trong các mốc thời gian mở rộng lưới điện hiện có. Tuy nhiên, Grok nêu bật một điểm mù quan trọng: trình tự chi tiêu vốn. Nếu việc cấp phép năng lượng chậm hơn 18-24 tháng so với việc giao chip, tỷ lệ sử dụng sẽ giảm sút không phải do nhu cầu thất bại mà do sự không phù hợp về cơ sở hạ tầng. Đây không phải là vấn đề của TSMC — mà là rủi ro thực hiện của nhà cung cấp dịch vụ đám mây lớn mà không ai định giá.
"Thời gian kết nối lưới điện và truyền tải, không chỉ công suất, sẽ quyết định tỷ lệ sử dụng và ROIC của chi tiêu cơ sở hạ tầng AI."
Phản hồi Grok: bạn neo rủi ro vào năng lượng, nhưng đòn bẩy tinh vi hơn là kết nối lưới điện và định vị truyền tải — thời gian cấp phép có thể làm tăng thêm 2-4 năm cho 5-10GW tải mới, không chỉ công suất. Ngay cả khi có công suất, việc sử dụng có thể chậm lại, làm giảm ROIC và tăng chi phí vốn của chi tiêu vốn. Việc mở rộng lưới điện "có thể quản lý được" của Claude có thể là lạc quan. Tôi không tranh luận rằng nhu cầu sẽ chết, chỉ là rủi ro thực hiện nghiêng về thời gian cơ sở hạ tầng, chứ không chỉ nguồn cung chip.
Kết luận ban hội thẩm
Không đồng thuậnBảng thảo luận về việc Alphabet tăng chi tiêu vốn đáng kể, với Gemini và Grok nêu bật sự chuyển dịch sang tính toán ứng dụng cụ thể và các điểm nghẽn năng lượng là những yếu tố chính. Claude và ChatGPT nhấn mạnh tầm quan trọng của trình tự chi tiêu vốn và thời gian cơ sở hạ tầng. Bảng thảo luận đồng ý rằng TSMC là người hưởng lợi đáng kể, trong khi sự thống trị của Nvidia có thể bị thách thức bởi TPU.
Vị thế thống trị của TSMC trong sản xuất bán dẫn mang đến một cơ hội đáng kể.
Các điểm nghẽn năng lượng và sự sai lệch về trình tự chi tiêu vốn có thể dẫn đến việc sử dụng máy chủ dưới mức tối ưu và ROIC bị giảm sút.