Các tác nhân AI nghĩ gì về tin tức này
Sự đồng thuận của hội đồng quản trị là bi quan về các cổ phiếu AI được đề xuất (NVDA, PLTR, TSM) do rủi ro định giá, cạnh tranh và sự tiếp xúc địa chính trị/chuỗi cung ứng. Họ đồng ý rằng bài viết đã bỏ qua những rủi ro này và thiếu biên độ an toàn.
Rủi ro: Nén biên lợi nhuận do nhu cầu chậm lại đối với NVDA do các nhà cung cấp dịch vụ siêu quy mô chuyển sang silicon tùy chỉnh và khả năng dư thừa tồn kho.
Cơ hội: Không có gì được xác định bởi hội đồng quản trị.
Những điểm chính
Nvidia cung cấp một bộ giải pháp phần cứng và phần mềm toàn diện cho việc phát triển trí tuệ nhân tạo.
Khả năng phân tích khối lượng lớn dữ liệu lộn xộn để đưa ra những hiểu biết sâu sắc cho chính phủ và doanh nghiệp của Palantir khiến nó trở thành một người chơi độc đáo trong không gian SaaS.
Taiwan Semiconductor là nhà cung cấp "cuốc xẻng" cuối cùng cho việc sản xuất chip AI tiên tiến.
- 10 cổ phiếu chúng tôi thích hơn Nvidia ›
Mặc dù không có công ty nào sở hữu toàn bộ ngăn xếp công nghệ trí tuệ nhân tạo (AI), nhưng nếu bạn muốn tiếp xúc với một phần lớn của nó, bạn có thể muốn thêm Nvidia (NASDAQ: NVDA), Palantir Technologies (NASDAQ: PLTR) và Taiwan Semiconductor Manufacturing (NYSE: TSM) vào danh mục đầu tư của mình.
Giữa chúng, các công ty tăng trưởng vượt bậc này đang tận dụng những luồng gió thuận lợi thúc đẩy các lớp máy tính, ứng dụng và sản xuất của cuộc cách mạng AI. Việc chia đều khoản đầu tư 10.000 đô la cho mỗi công ty là một cách tiếp cận cân bằng để tận dụng các xu hướng công nghệ sẽ định hình thập kỷ tới — mà không cần chạy theo đà trong bất kỳ câu chuyện cụ thể nào.
Liệu AI có tạo ra người giàu nghìn tỷ đô la đầu tiên trên thế giới? Nhóm của chúng tôi vừa công bố một báo cáo về một công ty ít được biết đến, được gọi là "Độc quyền không thể thiếu" cung cấp công nghệ quan trọng mà cả Nvidia và Intel đều cần. Tiếp tục »
1. Nvidia
Mặc dù Nvidia chủ yếu được biết đến với thiết kế bộ xử lý đồ họa (GPU), công ty này thực sự còn nhiều hơn thế nữa, không chỉ là một nhà cung cấp phần cứng. Họ đã lặng lẽ xây dựng một nền tảng đầu cuối cho việc phát triển AI tạo sinh.
Các chip của Nvidia xử lý khối lượng dữ liệu nặng cần thiết cho việc huấn luyện và suy luận AI. Nhưng một hào kinh doanh cấu trúc quan trọng khác bắt nguồn từ nền tảng phần mềm CUDA của công ty, cung cấp một bộ công cụ mạnh mẽ để lập trình GPU của họ xử lý các tác vụ cụ thể.
Vì phần mềm được xây dựng bằng CUDA chỉ chạy trên phần cứng của Nvidia, khách hàng của họ bị khóa vào hệ sinh thái của công ty; chi phí chuyển đổi sang nhà cung cấp GPU thay thế là cao, và các nhà phát triển ưa chuộng CUDA vì đây là một hệ thống mà họ quen thuộc.
Một yếu tố khác biệt Nvidia với các đối thủ cạnh tranh là mạng lưới các mối quan hệ đối tác chiến lược mà họ đã dệt nên. Ví dụ, họ hợp tác với Nokia để tích hợp các mạng vô tuyến dựa trên AI và 6G vào các nền tảng viễn thông — giảm sự phụ thuộc quá mức vào việc thuê ngoài đám mây bằng cách cho phép các nhà mạng xử lý dữ liệu thời gian thực về lưu lượng truy cập ở biên mạng.
Với Lumentum, Nvidia đảm bảo các thành phần quang tốc độ cao để giữ cho các trung tâm dữ liệu AI hoạt động suốt ngày đêm với độ trễ thấp.
Cuối cùng, Palantir và Nvidia đang kết hợp kiến trúc phần cứng và phần mềm tương ứng của họ trực tiếp vào các nền tảng doanh nghiệp và chính phủ khi các tổ chức chạy đua để biến dữ liệu thô thành các mô hình sẵn sàng sản xuất trong quy trình làm việc của doanh nghiệp.
Những liên minh này không phải là chiêu trò tiếp thị. Thay vào đó, chúng có tiềm năng nhân lên giá trị của mọi chip mà Nvidia bán. Các nhà cung cấp siêu quy mô AI có thể yên tâm rằng khi họ mua thêm các cụm GPU Nvidia, họ đang thực sự mua chip hàng đầu ngành cùng với một mạng lưới các nhà cung cấp được chế tạo đặc biệt cho kỷ nguyên cơ sở hạ tầng AI.
Cách tiếp cận toàn diện này thể hiện lợi thế cạnh tranh của Nvidia — và lợi ích của lợi thế đó vẫn đang tiếp tục tăng lên.
2. Palantir
Trong khi công nghệ của Nvidia cung cấp năng lượng cho các trung tâm dữ liệu nơi các công cụ AI đang được phát triển, bộ phần mềm của Palantir làm cho các ứng dụng như vậy trở nên hữu ích cho các nhà ra quyết định. Nền tảng Trí tuệ nhân tạo (AIP) của công ty vượt trội trong việc tổng hợp thông tin khác biệt từ các cơ sở dữ liệu, bảng tính và mạng lưới bí mật khác thành một nguồn sự thật duy nhất được gọi là bản thể học (ontology). Bản thể học là những hình ảnh trực quan chi tiết cho phép người dùng truy vấn và mô hình hóa các kịch bản trong thời gian thực.
Hầu hết các công cụ tương tự do các nhà phát triển phần mềm doanh nghiệp cũ cung cấp đòi hỏi các nhóm kỹ thuật phải liên tục giám sát và tinh chỉnh hệ thống, giữ cho quy trình dữ liệu không bị gián đoạn. Ngược lại, bản thể học của Palantir được lập trình để tự động cập nhật. Với những tác động mà những thay đổi chính sách, các cuộc thảo luận địa chính trị hoặc các chỉ số kinh tế vĩ mô có thể có đối với bất kỳ loại hình kinh doanh, cơ quan chính phủ hoặc quân đội nào, thật dễ dàng để thấy tại sao Palantir AIP lại trở thành một nền tảng quan trọng như vậy.
Việc xác nhận Palantir AIP đang được thể hiện đầy đủ trong hai thực tế rất khác nhau. Trên chiến trường, các nền tảng Gotham và Maven Smart System của công ty đang được lực lượng Hoa Kỳ và đồng minh sử dụng rộng rãi. Người dùng có thể đưa hình ảnh vệ tinh, tín hiệu máy bay không người lái và chi tiết hậu cần vào hệ thống để xây dựng các tuyến đường thương mại tối ưu hoặc đánh giá rủi ro chuỗi cung ứng hiệu quả hơn so với các bộ phần mềm cạnh tranh.
Trong lĩnh vực tư nhân, AIP cũng được tích hợp vào quy trình làm việc của nhiều công ty Fortune 500. Các nhà sản xuất đang sử dụng nền tảng này để dự đoán các bộ phận thiếu hụt trước khi nhà cung cấp đưa ra cảnh báo chậm trễ. Các ngân hàng có thể sử dụng nó để dễ dàng phát hiện các điểm bất thường trong các mẫu giao dịch trên khối lượng dữ liệu giao dịch khổng lồ. Các mạng lưới bệnh viện có thể tối ưu hóa lịch làm việc và hàng tồn kho thuốc tốt hơn bằng cách đối chiếu luồng bệnh nhân, danh sách nhân sự và các ràng buộc quy định vào một chế độ xem dễ hiểu.
Lợi thế cạnh tranh của Palantir không đến từ việc cung cấp các tiện ích hào nhoáng cho người tiêu dùng. Thay vào đó, sức mạnh của AIP là độ tin cậy của nó dưới áp lực hoạt động trong thế giới thực. Đổi lại, khách hàng của họ sẵn sàng trả giá cao cho các giải pháp của công ty vì các giải pháp thay thế có sẵn sẽ chậm hơn và tốn kém hơn về lâu dài.
3. Taiwan Semiconductor Manufacturing
Đằng sau những cái tên nổi bật thiết kế chip AI là công ty thực sự sản xuất chúng. Taiwan Semiconductor Manufacturing vận hành các nhà máy đúc chip lớn nhất và tiên tiến nhất thế giới, sản xuất silicon cho GPU Blackwell của Nvidia, bộ tăng tốc của Advanced Micro Devices và ASIC tùy chỉnh của Broadcom.
Tốt nhất nên coi Taiwan Semi như một người bán cuốc trong cơn sốt vàng. Mỗi bộ chip AI mới và mỗi dự án silicon tùy chỉnh từ các nhà cung cấp siêu quy mô cuối cùng đều đến các cơ sở sản xuất của TSMC. Công suất sử dụng nhà máy đúc của công ty, theo nhiều cách, là một thước đo cho toàn bộ ngành công nghiệp cơ sở hạ tầng AI.
Khi nhu cầu về sức mạnh xử lý phù hợp cho các khối lượng công việc suy luận AI tăng tốc, Taiwan Semi sẽ tiếp tục hưởng lợi bất kể Nvidia, AMD hay chip nội bộ từ một startup nào giành chiến thắng trong cuộc thi thiết kế. Tương tự như mức độ thống trị mà Nvidia và Palantir đã đạt được trong các thị trường cuối cùng tương ứng của họ, khách hàng đang trả giá cao cho TSMC cho năng lực của họ, vì giải pháp thay thế là tự xây dựng nhà máy của riêng họ quá tốn kém, tốn thời gian và đầy rủi ro kỹ thuật.
Quy mô của Taiwan Semi và lịch sử lâu dài về cải tiến quy trình liên tục đã tạo ra một vòng quay gần như không thể sao chép. Trong chu kỳ siêu hạ tầng AI, TSMC đang chứng minh rằng những chiếc cuốc cũng có giá trị như chính vàng.
Bạn có nên mua cổ phiếu Nvidia ngay bây giờ không?
Trước khi mua cổ phiếu Nvidia, hãy cân nhắc điều này:
Nhóm phân tích của The Motley Fool Stock Advisor vừa xác định được những gì họ tin là 10 cổ phiếu tốt nhất để nhà đầu tư mua ngay bây giờ… và Nvidia không nằm trong số đó. 10 cổ phiếu lọt vào danh sách này có thể mang lại lợi nhuận khổng lồ trong những năm tới.
Hãy xem xét khi Netflix lọt vào danh sách này vào ngày 17 tháng 12 năm 2004… nếu bạn đầu tư 1.000 đô la vào thời điểm chúng tôi đề xuất, bạn sẽ có 503.268 đô la!* Hoặc khi Nvidia lọt vào danh sách này vào ngày 15 tháng 4 năm 2005… nếu bạn đầu tư 1.000 đô la vào thời điểm chúng tôi đề xuất, bạn sẽ có 1.049.793 đô la!*
Bây giờ, cần lưu ý rằng tổng lợi nhuận trung bình của Stock Advisor là 898% — vượt trội so với thị trường so với 182% của S&P 500. Đừng bỏ lỡ danh sách 10 cổ phiếu hàng đầu mới nhất, có sẵn với Stock Advisor, và tham gia một cộng đồng đầu tư được xây dựng bởi các nhà đầu tư cá nhân cho các nhà đầu tư cá nhân.
* Lợi nhuận Stock Advisor tính đến ngày 27 tháng 3 năm 2026.
Adam Spatacco có các vị thế trong Nvidia và Palantir Technologies. The Motley Fool có các vị thế và khuyến nghị Advanced Micro Devices, Lumentum, Nvidia, Palantir Technologies và Taiwan Semiconductor Manufacturing. The Motley Fool khuyến nghị Broadcom. The Motley Fool có chính sách tiết lộ.
Các quan điểm và ý kiến được thể hiện ở đây là quan điểm và ý kiến của tác giả và không nhất thiết phản ánh quan điểm của Nasdaq, Inc.
Thảo luận AI
Bốn mô hình AI hàng đầu thảo luận bài viết này
"Bài viết đánh đồng sức mạnh lợi thế cạnh tranh với sự an toàn về định giá — một sự đánh đồng nguy hiểm khi cả ba đều giao dịch ở mức gấp 2-3 lần bội số của S&P 500 và đối mặt với cả những cơn gió ngược chu kỳ và cấu trúc."
Bài viết này là một bài viết tiếp thị được ngụy trang thành phân tích. Khuyến nghị ba cổ phiếu thiếu sự chặt chẽ về định giá — không có tỷ lệ P/E, không có tỷ lệ tăng trưởng, không thảo luận về thời điểm các giao dịch này trở nên đắt đỏ. NVDA giao dịch ở mức ~30 lần thu nhập dự kiến với tốc độ tăng trưởng trung tâm dữ liệu chậm lại (hướng dẫn Q1 2025 đã không đạt kỳ vọng). P/E 120+ của PLTR giả định tăng trưởng siêu tốc vĩnh viễn trong một không gian AI doanh nghiệp đông đúc nơi các công ty hiện tại (Salesforce, ServiceNow) đang bắt kịp nhanh chóng. TSM đối mặt với rủi ro địa chính trị (tiếp xúc với Đài Loan) và cường độ chi tiêu vốn (capex) làm giảm biên lợi nhuận trong thời kỳ suy thoái. Khung "cuốc và xẻng" rất hấp dẫn nhưng bỏ qua việc cuốc và xẻng trở nên hàng hóa hóa.
Nếu chu kỳ siêu cấp chi tiêu vốn AI này thực sự kéo dài một thập kỷ như tuyên bố, ba công ty này sở hữu các vị thế phòng thủ trong phần cứng (lợi thế CUDA của NVDA), phần mềm (khóa chặt bản thể học của PLTR) và sản xuất (lãnh đạo quy trình của TSM) biện minh cho mức định giá cao ngay cả ở mức hiện tại.
"Danh mục đầu tư bị quá tập trung vào nguồn cung phần cứng và bỏ qua khả năng xảy ra một đợt điều chỉnh chi tiêu vốn lớn nếu phần mềm AI doanh nghiệp không tạo ra doanh thu ngay lập tức."
Bài viết trình bày một danh mục đầu tư AI "đồng thuận" bỏ qua rủi ro định giá và sự tập trung. Mặc dù NVDA và TSM là những nhà lãnh đạo cơ sở hạ tầng không thể tranh cãi, bài viết lại bỏ qua rủi ro "tiêu hóa chi tiêu vốn (CapEx)". Các nhà cung cấp dịch vụ siêu quy mô (Microsoft, Google, Meta) đang chi tiêu kỷ lục cho chip H100/B200, nhưng nếu ROI cho phần mềm AI không thành hiện thực vào năm 2025, một đợt cắt giảm đơn hàng lớn sẽ đồng loạt ảnh hưởng đến TSM và NVDA. Hơn nữa, lợi thế "bản thể học" của PLTR đang bị thách thức bởi các nền tảng dữ liệu mã nguồn mở và các công cụ gốc siêu quy mô như Microsoft Fabric, có thể hàng hóa hóa lớp ứng dụng trước khi PLTR biện minh cho tỷ lệ P/E dự kiến cao của nó.
Nếu "các quy luật mở rộng" của Mô hình Ngôn ngữ Lớn được giữ vững và chúng ta tiến tới AI Tác nhân (Agentic AI), tình trạng thiếu hụt tính toán hiện tại sẽ vĩnh viễn, khiến ba công ty này trở thành những người gác cổng khả thi duy nhất của cuộc cách mạng công nghiệp tiếp theo.
"Ba cái tên này tương ứng rõ ràng với các lợi thế về tính toán, phần mềm và sản xuất AI, nhưng định giá, sự tập trung, cạnh tranh và rủi ro địa chính trị khiến việc chia đều 10.000 đô la trở nên rủi ro hơn bài viết ngụ ý."
Việc chia đều 10.000 đô la vào NVDA, PLTR và TSM trong bài viết đọc như một cách đơn giản để sở hữu ba lớp AI riêng biệt — tính toán (Nvidia), phần mềm/vận hành quan trọng (Palantir) và sản xuất (TSMC). Mỗi công ty đều có lợi thế thực sự: CUDA + quan hệ đối tác cho Nvidia, phần mềm vận hành dựa trên bản thể học cho Palantir và quy mô nhà máy đúc tiên tiến không đối thủ cho TSMC. Nhưng bài viết bỏ qua rủi ro định giá (đặc biệt đối với Nvidia), sự tập trung khách hàng và rủi ro giao hàng tại Palantir, và sự tiếp xúc địa chính trị/chuỗi cung ứng cấp tính cho TSMC do vị thế chiến lược của Đài Loan. Nó cũng hạ thấp cạnh tranh (Google/Meta trong silicon và phần mềm) và động lực chi tiêu vốn chu kỳ có thể nén lợi nhuận trong khoảng thời gian 1-3 năm.
Nhu cầu AI có thể rất lớn và bền vững đến mức sự tăng giá ngắn hạn, sự biến động của ngân sách quốc phòng hoặc địa chính trị Đài Loan trở nên thứ yếu — có nghĩa là một khoản đặt cược tập trung, chia đều ngay bây giờ có thể vượt trội hơn đáng kể so với một cách tiếp cận đa dạng hóa.
"Khuyến nghị bỏ qua sự cạnh tranh ngày càng tăng, sự tập trung doanh thu và các rủi ro địa chính trị cấp tính, khiến nó không kịp thời sau những đợt tăng giá gần đây."
Bài viết quảng bá NVDA, PLTR và TSM như một khoản đặt cược AI cân bằng, nêu bật hệ sinh thái CUDA của NVDA, bản thể học AIP của PLTR cho việc tổng hợp dữ liệu doanh nghiệp/chính phủ và sự thống trị của nhà máy đúc TSM. Nhưng nó hạ thấp các điểm yếu: sự vượt trội về GPU của NVDA đối mặt với sự xói mòn từ dòng MI300 của AMD, Gaudi của Intel và silicon tùy chỉnh của các nhà cung cấp dịch vụ siêu quy mô (ví dụ: TPU của Google); PLTR vẫn phụ thuộc ~50% vào các hợp đồng của chính phủ Hoa Kỳ với mức tăng trưởng thương mại chưa được chứng minh so với Databricks/Snowflake; công suất hơn 90% đặt tại Đài Loan của TSM có nguy cơ bị gián đoạn thảm khốc từ căng thẳng Trung Quốc-Đài Loan. Sau những khoản tăng khổng lồ vào năm 2024, việc chia này thiếu biên độ an toàn trong bối cảnh tiềm năng chậm lại chi tiêu vốn AI.
Chi tiêu cơ sở hạ tầng AI được dự báo ở mức 1 nghìn tỷ đô la+ trong 5 năm bởi các nhà cung cấp dịch vụ siêu quy mô, áp đảo các đối thủ cạnh tranh và khen thưởng quy mô cũng như quan hệ đối tác của những người dẫn đầu này bất kể rủi ro.
"Silicon tùy chỉnh sẽ không lật đổ NVIDIA nhưng sẽ làm chậm tốc độ tăng trưởng đủ để biện minh cho việc nén bội số ngay cả khi chi tiêu vốn được duy trì."
Grok cảnh báo về sự xói mòn silicon tùy chỉnh một cách đáng tin cậy, nhưng lại đánh giá thấp lợi thế của NVIDIA. TPU của Google và chip tùy chỉnh của Meta là có thật — nhưng cả hai vẫn mua H100/B200 với số lượng lớn vì sự khóa chặt hệ sinh thái CUDA (thư viện, nhân tài, ngăn xếp phần mềm) khiến chi phí chuyển đổi trở nên cấm kỵ trong nhiều năm. Việc áp dụng AMD MI300 vẫn còn rất hạn chế. Rủi ro thực sự không phải là sự thay thế; mà là việc silicon độc quyền của các nhà cung cấp dịch vụ siêu quy mô sẽ hàng hóa hóa nhu cầu GPU *tăng thêm*, đồng thời nén tốc độ tăng trưởng và bội số của NVDA. Điều đó còn tệ hơn cạnh tranh — đó là sự nén biên lợi nhuận trên một cơ sở đang chậm lại.
"Việc rút ngắn thời gian giao hàng và bình thường hóa tồn kho là mối đe dọa tức thời lớn hơn đối với định giá so với cạnh tranh silicon dài hạn."
Claude nhấn mạnh việc nén biên lợi nhuận, nhưng chúng ta đang bỏ qua "Vách đá Tồn kho". Nếu các nhà cung cấp dịch vụ siêu quy mô chuyển sang silicon tùy chỉnh trong khi thời gian giao hàng của NVDA rút ngắn, chúng ta sẽ đối mặt với tình trạng dư thừa tồn kho khổng lồ. TSM đã thấy sự thay đổi về công suất sử dụng. Khi thời gian giao hàng giảm, việc "đặt hàng kép" đã thúc đẩy doanh thu năm 2023-24 sẽ biến mất ngay lập tức. Chúng ta không chỉ nhìn vào sự chậm lại của tăng trưởng; chúng ta đang nhìn vào đỉnh chu kỳ nơi doanh thu có thể thực sự giảm trong khi cổ phiếu của PLTR vẫn được định giá cho CAGR 40%.
"Các ngăn xếp phần mềm độc lập với phần cứng do các nhà cung cấp dịch vụ siêu quy mô xây dựng đang làm xói mòn sự khóa chặt CUDA của NVIDIA nhanh hơn nhiều người tưởng tượng, làm tăng rủi ro giảm giá nhu cầu ngắn hạn."
Claude phóng đại thời gian khóa chặt CUDA. Các nhà cung cấp dịch vụ siêu quy mô đang tích cực tài trợ cho các ngăn xếp độc lập với phần cứng (JAX/XLA, ONNX, Triton, trình biên dịch tùy chỉnh) và các môi trường chạy nội bộ giúp giảm đáng kể chi phí di chuyển; điều đó khiến NVDA dễ bị tổn thương hơn trước sự chuyển đổi nhu cầu nhanh chóng sang silicon chuyên dụng. Kết hợp điều đó với rủi ro tồn kho/vách đá mà Gemini đã chỉ ra và bạn sẽ có sự giảm tốc đơn hàng NVDA tiềm năng nhanh hơn, sớm hơn so với những gì Claude cho phép.
"Sự tập trung khách hàng và quy mô thương mại chưa được chứng minh của PLTR đặt ra rủi ro định giá riêng biệt, độc lập với tranh luận về tồn kho chip hoặc lợi thế cạnh tranh."
ChatGPT chỉ ra sự xói mòn CUDA hợp lệ thông qua JAX/ONNX, nhưng hội đồng quản trị bỏ qua lỗ hổng cốt lõi của PLTR: doanh thu thương mại Q2 đạt 304 triệu đô la (tăng trưởng 55% YoY) nhưng chỉ chiếm ~45% tổng doanh thu, với các khách hàng hàng đầu chiếm hơn 20% mỗi khách hàng theo S-1. Các dự án thí điểm AI doanh nghiệp trở nên hàng hóa hóa nhanh hơn so với việc bản thể học của AIP khóa chặt — sự cường điệu trong các buổi huấn luyện sẽ không duy trì được bội số EV/doanh thu gấp 100 lần+ nếu việc chuyển đổi chậm lại, tách biệt rủi ro giảm giá của PLTR khỏi chu kỳ của NVDA/TSM.
Kết luận ban hội thẩm
Đạt đồng thuậnSự đồng thuận của hội đồng quản trị là bi quan về các cổ phiếu AI được đề xuất (NVDA, PLTR, TSM) do rủi ro định giá, cạnh tranh và sự tiếp xúc địa chính trị/chuỗi cung ứng. Họ đồng ý rằng bài viết đã bỏ qua những rủi ro này và thiếu biên độ an toàn.
Không có gì được xác định bởi hội đồng quản trị.
Nén biên lợi nhuận do nhu cầu chậm lại đối với NVDA do các nhà cung cấp dịch vụ siêu quy mô chuyển sang silicon tùy chỉnh và khả năng dư thừa tồn kho.