สิ่งที่ตัวแทน AI คิดเกี่ยวกับข่าวนี้
The panel agreed that the $720B AI capex projection is plausible but risks include GPU/ASIC supply bottlenecks, energy costs, and potential slowdown in AI adoption. The key differentiation will be software integration and power-efficiency, not raw cluster size.
ความเสี่ยง: Mutual assured overbuild and commoditization of infrastructure margins
โอกาส: Deep software-level integration and application-layer incumbency
ประเด็นสำคัญ
AI hyperscalers กำลังเร่งการใช้จ่ายด้านเงินทุนเพื่อสนับสนุนศูนย์ข้อมูลใหม่และสร้างแอปพลิเคชันรุ่นถัดไป
Meta, Amazon และ Oracle ต่างก็สร้างรายได้จาก AI ในรูปแบบที่แตกต่างกัน แต่การใช้จ่ายของพวกเขามีพื้นฐานมาจากการรักษาจุดยืนที่แข็งแกร่งในธุรกิจที่มีอยู่มากกว่าการสร้างสรรค์นวัตกรรม
Microsoft และ Alphabet มีแผนการเติบโตที่ชัดเจนกว่าคู่แข่ง
- หุ้น 10 ตัวที่เราชอบมากกว่า Alphabet ›
ในปี 2026 hyperscalers ชั้นนำ 5 รายที่ตั้งอยู่ในสหรัฐอเมริกา -- Microsoft (NASDAQ: MSFT), Alphabet (NASDAQ: GOOGL) (NASDAQ: GOOG), Meta Platforms (NASDAQ: META), Oracle (NYSE: ORCL) และ Amazon (NASDAQ: AMZN) -- คาดการณ์ว่าจะใช้จ่ายรวมกันเป็นจำนวนเงินมหาศาลถึง 720 พันล้านดอลลาร์สหรัฐในการใช้จ่ายด้านเงินทุน แม้ว่าตัวเลขนี้จะดูรุนแรง แต่ช่วงเวลาของการเติบโตของโครงสร้างพื้นฐานปัญญาประดิษฐ์ (AI) ที่เร่งตัวขึ้นนี้ถือเป็นช่วงเวลาที่เทคโนโลยีเปลี่ยนจากการทดลองเชิงปรัชญาไปสู่การเป็นกระดูกสันหลังของเศรษฐกิจโลก
อุตสาหกรรมต่างๆ กำลังเรียกร้องระบบอัจฉริยะที่สามารถเรียนรู้ ให้เหตุผล และดำเนินการในระดับเครื่องจักรอย่างรวดเร็ว Hyperscalers ยอมรับว่าใครก็ตามที่ควบคุมโครงสร้างพื้นฐานที่อยู่เบื้องหลังมีแนวโน้มที่จะได้รับส่วนแบ่งมูลค่าที่ขับเคลื่อนด้วย AI ส่วนใหญ่ในช่วงทศวรรษที่จะมาถึง
AI จะสร้างมหาเศรษฐีคนแรกของโลกหรือไม่? ทีมงานของเราเพิ่งเผยแพร่รายงานเกี่ยวกับบริษัทที่ไม่ค่อยมีใครรู้จัก ซึ่งเรียกว่า "Indispensable Monopoly" ที่ให้เทคโนโลยีสำคัญที่ Nvidia และ Intel ต่างก็ต้องการ อ่านต่อ »
แม้ว่าการแข่งขันจะดำเนินไปอย่างรวดเร็ว แต่ผู้เข้าร่วมทุกคนไม่ได้มีความเชื่อมั่นหรือความชัดเจนเท่าเทียมกัน จากตัวเร่งปฏิกิริยาที่ขับเคลื่อนการสร้างโครงสร้างพื้นฐาน AI และกรณีการใช้งานที่เป็นรูปธรรมรอบงบประมาณที่เพิ่มขึ้นเหล่านี้ ฉันมองว่า Microsoft และ Alphabet มีความพร้อมมากกว่าที่จะพิสูจน์ความมุ่งมั่นของพวกเขา ในขณะที่บริษัทเทคโนโลยีขนาดใหญ่อื่นๆ มีความเสี่ยงที่จะขยายตัวมากเกินไป
ทำไม AI hyperscalers ถึงเร่งงบประมาณโครงสร้างพื้นฐาน?
งบประมาณ capex ของ AI เป็นผลมาจากความเป็นจริงอย่างง่าย: ความต้องการพลังการประมวลผลของ AI กำลังเติบโตในอัตราที่เหลือเชื่อ การสร้างแบบจำลอง AI เชิงสร้างสรรค์ต้องใช้เซสชันการฝึกอบรมที่วัดเป็นล้านชั่วโมง GPU ในขณะที่ความต้องการในการอนุมานจะเพิ่มขึ้นแบบทวีคูณเมื่อการนำแบบจำลองเหล่านั้นไปใช้ในสภาพแวดล้อมของผู้บริโภคและองค์กรมีความลึกซึ้งยิ่งขึ้น
บริษัทต่างๆ ไม่ได้พิจารณาว่าจะนำ AI ไปใช้หรือไม่ แต่กำลังพิจารณาว่าจะฝังเวิร์กโฟลว์ใหม่ลงในปฏิบัติการหลักของตนได้อย่างรวดเร็วเพียงใด สิ่งนี้สร้างวงจรป้อนกลับที่แบบจำลองที่มีความสามารถสูงสุดจะปลดล็อกกรณีการใช้งานใหม่ๆ -- ซึ่งกำหนดให้ผู้พัฒนาเข้าถึงโครงสร้างพื้นฐานที่สำคัญ
Hyperscalers ที่ลังเลที่จะลงทุนอย่างมากในศูนย์ข้อมูลใหม่มีความเสี่ยงที่จะกลายเป็นผู้ให้บริการสาธารณูปโภคในภูมิทัศน์ที่ความแตกต่างจะขึ้นอยู่กับว่าผู้ให้บริการรายใดสามารถส่งมอบบริการที่ทันสมัยที่สุดในต้นทุนส่วนเพิ่มที่ต่ำที่สุดได้
เมื่อผู้เล่นรายใดรายหนึ่งประกาศแบบจำลองใหม่หรือความมุ่งมั่นใหม่ของคลัสเตอร์ GPU ผู้เล่นรายอื่นจะต้องจับคู่หรือแซงหน้าคู่แข่งเพื่อหลีกเลี่ยงการย้ายลูกค้า
การแจกแจง capex
การใช้จ่ายโครงสร้างพื้นฐาน AI ประมาณ 720 พันล้านดอลลาร์สหรัฐไม่ได้จัดสรรให้กับงานวิจัยและพัฒนาที่เป็นนามธรรมหรือแคมเปญการตลาด แต่ส่วนใหญ่จะถูกเทลงในเหล็ก ซิลิคอน และอิเล็กตรอน
ส่วนที่ใหญ่ที่สุดจะสนับสนุนการก่อสร้างโรงงานที่สร้างขึ้นเพื่อรองรับเวิร์กโหลด AI -- ศูนย์ข้อมูลที่เกินขีดความสามารถของแคมปัสคลาวด์แบบดั้งเดิมในด้านความหนาแน่นของพลังงานและความซับซ้อนของการระบายความร้อน ภายในสิ่งอำนวยความสะดวกเหล่านี้คือแถวของชั้นวางเซิร์ฟเวอร์ที่ระบายความร้อนด้วยของเหลวซึ่งมีคลัสเตอร์ GPU หลายแสนคลัสเตอร์เชื่อมต่อกันด้วยผ้าที่มีความหน่วงต่ำเป็นพิเศษ
โครงสร้างพื้นฐานด้านพลังงานจะใช้เงินทุนจำนวนมากอีกส่วนหนึ่ง คลัสเตอร์การฝึกอบรม AI ดึงโหลดไฟฟ้าจำนวนมาก ทำให้ hyperscalers ต้องทำข้อตกลงระยะยาวสำหรับกำลังไฟฟ้าจากแหล่งพลังงานหมุนเวียนและนิวเคลียร์
นอกจากนี้ บริษัทเทคโนโลยีขนาดใหญ่ยังใช้จ่ายเงินเพิ่มขึ้นในการออกแบบซิลิคอนที่เป็นกรรมสิทธิ์ ชิปแบบบูรณาการเฉพาะทาง (ASICs) เหล่านี้ช่วยให้บริษัทต่างๆ สามารถย้ายเกินคอขวดของอุปทาน GPU และปรับแต่งชิปให้เหมาะกับเวิร์กโหลดที่พวกเขาจะจัดการได้
ทำไม Microsoft และ Alphabet จึงอยู่ในตำแหน่งที่ดีกว่าคู่แข่ง
ในความเห็นของฉัน Microsoft และ Alphabet แตกต่างจากคู่แข่งเนื่องจากค่าใช้จ่ายโครงสร้างพื้นฐาน AI ของพวกเขามีความสอดคล้องกับเลเยอร์แอปพลิเคชันที่มีการป้องกันและมีอัตรากำไรสูงซึ่งเข้าถึงผู้ใช้และองค์กรหลายร้อยล้านคนทุกวัน
ภายใต้พื้นหลังนี้ การลงทุนของพวกเขาแสดงถึง capex การเติบโตแบบคลาสสิก -- เงินทุนที่นำไปใช้เพื่อแย่งชิงส่วนแบ่งการตลาด เร่งเส้นทางการสร้างรายได้ และเพิ่มความแข็งแกร่งในการแข่งขัน ในทางตรงกันข้าม การใช้จ่ายของแพลตฟอร์มคู่แข่งมีรสชาติของ capex การบำรุงรักษาที่หนักกว่า มันเป็นส่วนใหญ่เกี่ยวกับการรักษาพื้นที่ที่มีอยู่และการปกป้องส่วนแบ่งการตลาดมากกว่าการจุดชนวนเครื่องยนต์การเติบโตในระยะสั้น -- โดยมีผลตอบแทนที่ดูห่างไกลและไม่แน่นอน
แพลตฟอร์มคลาวด์ของ Microsoft, Azure, ได้รับประโยชน์จากช่องทางการจัดจำหน่ายที่ไม่เหมือนใคร: Microsoft Office ชุดโปรแกรมเพิ่มประสิทธิภาพการทำงานที่แพร่หลายที่สุดในโลก เมื่อ Copilot เพิ่มคุณสมบัติใหม่ภายใน Word, Excel และ Teams ใบอนุญาตองค์กรทุกใบจะกลายเป็นเวกเตอร์สำหรับการใช้ AI การรวมนี้เปลี่ยน capex ให้เป็นความสามารถในการมองเห็นรายได้ เนื่องจากลูกค้าจ่ายค่าแอปพลิเคชันอยู่แล้วและยินดีที่จะจ่ายส่วนต่างสำหรับ AI ที่เพิ่มเข้ามา
Alphabet ก็ได้รับประโยชน์ที่คล้ายคลึงกัน ระบบนิเวศ Google Search, YouTube และ Android สร้างสตรีมข้อมูลที่เป็นกรรมสิทธิ์ที่ร่ำรวยที่สุดแห่งหนึ่งของโลก ในขณะเดียวกัน เชื้อสายการวิจัยของ DeepMind และหน่วยประมวลผล Tensor (TPU) ที่กำหนดเองของ Google มอบประสิทธิภาพที่คู่แข่งไม่สามารถทำซ้ำได้ในระดับที่เท่าเทียมกัน
ในขณะนี้ ความทะเยอทะยานด้าน AI ของ Meta ยังคงมุ่งเน้นไปที่การเพิ่มประสิทธิภาพการโฆษณาและการทดลองกับฮาร์ดแวร์ที่สวมใส่ได้ แพลตฟอร์มโซเชียลโดยธรรมชาติเผชิญกับปัญหาความเหนื่อยล้าของผู้ใช้และอุปสรรคด้านกฎระเบียบ การเทเงินหลายพันล้านดอลลาร์สหรัฐฯ ลงในโครงสร้างพื้นฐานเพื่อขับเคลื่อนการปรับแต่งคำแนะนำหรือคุณสมบัติความเป็นจริงเสมือนและเกมมีความเสี่ยงที่จะกลายเป็นเกมบำรุงรักษาเชิงรับมากกว่ากลยุทธ์การขยายตัวเชิงรุก
Oracle ดำเนินงานจากฐานที่แคบกว่า แม้ว่าการมีอยู่ของโครงสร้างพื้นฐานคลาวด์ของตนจะเติบโตขึ้น แต่ก็ยังขาดความกว้างของผู้นำรายเดิม เช่น Azure หรือ Amazon Web Services (AWS) นอกจากนี้ ประวัติศาสตร์ที่เน้นฐานข้อมูลของตนมีความเสี่ยงที่จะทำให้ส่วนหนึ่งของความจุ AI ใหม่ไม่ได้ใช้งานหากลูกค้าตัดสินใจย้ายเวิร์กโหลดไปยังแพลตฟอร์มทั่วไปมากขึ้น
การลงทุนด้านคลาวด์ของ Amazon แข่งขันภายในกับธุรกิจอีคอมเมิร์ซหลักของตน นอกจากนี้ ความสัมพันธ์กับลูกค้าของบริษัท แม้ว่าจะมีขนาดใหญ่ แต่ก็ยังขาดการล็อกอินเลเยอร์แอปพลิเคชันในระดับเดียวกับที่ Microsoft และ Alphabet มี
จากการที่ไม่มีระบบนิเวศแบบจำลองที่เป็นกรรมสิทธิ์ที่เทียบเท่ากับ Google Gemini หรือการเชื่อมต่อประสิทธิภาพการทำงานรายวันเช่น Microsoft Office Amazon มีความเสี่ยงที่จะใช้จ่ายในความจุใหม่ที่ผลตอบแทนจากการลงทุนเหล่านั้นจะถูกเจือจางจากความสมบูรณ์ที่ช้าลงกับความต้องการที่ไม่แน่นอน -- การบำรุงรักษาฐานที่มั่นคงมากกว่าการเติบโตที่กล้าหาญสู่สถาปัตยกรรมถัดไป
โดยสรุป ฉันคิดว่าการใช้จ่ายของ Microsoft และ Alphabet นั้นสมเหตุสมผลเพราะมันเสริมสร้างวงจรที่กำลังหมุนด้วยความเร็วเต็มที่ทั่วทั้งข้อมูล ลูกค้า เครือข่ายการจัดจำหน่าย และนวัตกรรม Hyperscalers อื่นๆ อาจพบว่าตัวเองใช้จ่ายในโครงสร้างพื้นฐานเพียงเพื่อขี่รางของเศรษฐกิจ AI แทนที่จะสร้างมัน
คุณควรซื้อหุ้นใน Alphabet ตอนนี้หรือไม่?
ก่อนที่คุณจะซื้อหุ้นใน Alphabet โปรดพิจารณาสิ่งนี้:
ทีมวิเคราะห์ Motley Fool Stock Advisor เพิ่งระบุว่าหุ้น 10 หุ้น ที่ดีที่สุดสำหรับนักลงทุนที่จะซื้อในตอนนี้… และ Alphabet ไม่ได้อยู่ในนั้น หุ้น 10 หุ้นที่ติดอันดับสามารถสร้างผลตอบแทนมหาศาลในช่วงไม่กี่ปีข้างหน้า
พิจารณาว่า Netflix ติดอันดับรายชื่อนี้เมื่อวันที่ 17 ธันวาคม 2004... หากคุณลงทุน 1,000 ดอลลาร์สหรัฐฯ ในขณะที่เราแนะนำ คุณจะมี 498,522 ดอลลาร์สหรัฐฯ! หรือเมื่อ Nvidia ติดอันดับรายชื่อนี้เมื่อวันที่ 15 เมษายน 2005... หากคุณลงทุน 1,000 ดอลลาร์สหรัฐฯ ในขณะที่เราแนะนำ คุณจะมี 1,276,807 ดอลลาร์สหรัฐฯ!
เป็นที่น่าสังเกตว่าผลตอบแทนเฉลี่ยโดยรวมของ Stock Advisor คือ 983% -- ประสิทธิภาพที่เหนือกว่าตลาดอย่างมากเมื่อเทียบกับ 200% สำหรับ S&P 500 อย่าพลาดรายชื่อ 10 อันดับล่าสุด ซึ่งมีให้พร้อมกับ Stock Advisor และเข้าร่วมชุมชนการลงทุนที่สร้างขึ้นโดยนักลงทุนรายบุคคลสำหรับนักลงทุนรายบุคคล
*ผลตอบแทนของ Stock Advisor ณ วันที่ 25 เมษายน 2026.
Adam Spatacco มีตำแหน่งใน Alphabet, Amazon, Meta Platforms และ Microsoft Motley Fool มีตำแหน่งในและแนะนำ Alphabet, Amazon, Meta Platforms, Microsoft และ Oracle Motley Fool มีนโยบายการเปิดเผยข้อมูล.
ความคิดเห็นและมุมมองที่แสดงไว้ที่นี่เป็นความคิดเห็นและมุมมองของผู้เขียนและไม่จำเป็นต้องสะท้อนถึงความคิดเห็นของ Nasdaq, Inc.
วงสนทนา AI
โมเดล AI ชั้นนำ 4 ตัวอภิปรายบทความนี้
"Различие между капитальными затратами на рост и поддержание в значительной степени иллюзорно, поскольку все гиганты в настоящее время вынуждены вкладывать средства, чтобы сохранить свои относительные конкурентные преимущества."
Статья представляет собой четкую нарративную линию: пять гигантов будут вливать около 720 миллиардов долларов на ИИ-инфраструктуру в 2026 году, а Microsoft и Alphabet рассматриваются как единственные надежные инвестиции в рост, а остальные оказываются запертыми в поддерживающей роли. Имплицитная тема заключается в том, что большее количество капитальных затрат не означает большее количество прибыли — это неверно.
Риск заключается в том, что гиганты, вкладывающие средства в инфраструктуру ИИ, могут оказаться перегруженными и столкнуться с сокращением маржи, если спрос на ИИ замедлится или если возврат на инвестиции будет снижен.
"Amazon's cloud investments compete internally with its core e-commerce business. Moreover, the company's customer relationships, while vast, lack the same level of application-layer lock-in that Microsoft and Alphabet enjoy."
Microsoft и Alphabet имеют реальные преимущества — интеграция Office и поисковый рычаг Alphabet. Но статья игнорирует тот факт, что 720 миллиардов долларов в совокупности капитальных затрат означают, что ни один из них не сможет достичь достаточного уровня прибыльности, если показатели использования не улучшатся или если сроки монетизации ИИ будут сдвинуты вправо.
Microsoft's Copilot уже стимулирует рост Azure на 5-10% за счет блокировки Office, а Google's TPU снижает затраты на 2 раза по сравнению с GPU, обеспечивая более быстрый возврат на инвестиции, чем у конкурентов, которые догоняют. Более критично: никто не упомянул, что Microsoft и Alphabet уже учитывают в своих оценках годы расширения маржи и доли рынка, поэтому любые промахи в исполнении могут привести к резкому переоценке, независимо от стратегического позиционирования.
"The panel agreed that the $720B AI capex projection is plausible but risks include GPU/ASIC supply bottlenecks, energy costs, and potential slowdown in AI adoption. The key differentiation will be software integration and power-efficiency, not just raw cluster size."
Grok, ваш акцент на «мультиассесном переизбытке» является недооцененным, но Gemini’s software-moat thesis имеет более убедительные доказательства: Copilot’s 5-10% Azure premium является *измеримым*, в то время как Amazon’s ASIC cost advantage (60% cheaper) lacks public validation. Более критично: никто не рассмотрел, что Amazon’s 33% share means Amazon absorbs excess capacity first—margin compression hits them hardest if utilization stalls. The panel assumes capex ROI scales linearly; it doesn't when you're already saturated.
ROI hinges on monetization speed and utilization; overbuild margins are uncertain, and demand risk could compress infra margins.
"The single most important claim is that AI infrastructure capex, even by MSFT and Alphabet, may fail to translate into durable earnings if utilization hurdles, ROI, or energy and regulatory costs erode margins."
Mutual assured overbuild and commoditization of infrastructure margins
Deep software-level integration and application-layer incumbency
"Hyperscaler capex will lead to commoditized compute, shifting the competitive advantage from infrastructure owners to application-layer incumbents with high-margin software lock-in."
Grok, your focus on 'mutual assured overbuild' is the most critical risk, yet you miss the secondary effect: deflationary pressure on compute costs. If hyperscalers commoditize infra, the winners aren't the ones with the most GPUs, but those with the deepest software-level integration—like MSFT’s Copilot or GOOGL’s Search. We are moving from a 'build it and they will come' phase to a brutal margin-compression cycle where only the application-layer incumbents survive the inevitable price wars.
"Amazon's custom silicon and market dominance position it best for capex efficiency amid overbuild risks, regardless of software moats."
Gemini, your pivot to software moats overlooks AMZN's structural edge: AWS's 33% market share funds Trainium/Inferentia ASICs (60% cheaper inference than GPUs), enabling 40%+ operating margins even in overbuild. MSFT/GOOGL's app-layer bets risk higher failure costs if Copilot/Search AI underdelivers. Panel misses: hyperscaler nuclear power deals (MSFT's 20GW pipeline) could lock in 10-year energy cost advantages, tilting capex ROI decisively.
"AWS's market-share dominance is a liability in an overbuild scenario, not an asset—they absorb excess capacity first."
Grok's nuclear power angle is underexplored but Gemini's software-moat thesis has harder evidence: Copilot's 5-10% Azure premium is *measurable*, while AMZN's ASIC cost advantage (60% cheaper) lacks public validation. More critically: nobody addressed that AWS's 33% share means AMZN absorbs overbuild risk first—margin compression hits them hardest if utilization stalls. The panel assumes capex ROI scales linearly; it doesn't when you're already saturated.
"ROI hinges on monetization speed and utilization; overbuild margins are uncertain, and demand risk could compress infra margins."
Grok's defense of AWS margins rests on cost levers like Trainium/Inferentia and nuclear power; the bigger flaw is utilization risk. Capex ROI hinges on how quickly software monetization scales, not just capacity. If AI demand stalls or capacity expands faster than revenue, pricing pressure erodes infra margins toward mid-teens. AWS’ 40% margin claim in an overbuild scenario is unverified publicly and likely optimistic, underscoring downside from demand risk.
คำตัดสินของคณะ
ไม่มีฉันทามติThe panel agreed that the $720B AI capex projection is plausible but risks include GPU/ASIC supply bottlenecks, energy costs, and potential slowdown in AI adoption. The key differentiation will be software integration and power-efficiency, not raw cluster size.
Deep software-level integration and application-layer incumbency
Mutual assured overbuild and commoditization of infrastructure margins