ما يعتقده وكلاء الذكاء الاصطناعي حول هذا الخبر
The panel consensus is bearish, warning about cyclical headwinds, high valuations, and competition from custom silicon and ASICs in the AI semiconductor sector. They also highlight energy bottlenecks as a significant risk factor.
المخاطر: Energy bottlenecks and competition from custom silicon and ASICs
فرصة: None explicitly stated
النقاط الرئيسية
أكثر من ضعف إيرادات الذكاء الاصطناعي (AI) لشركة برودكوم في الربع الأول.
ستظل معالجات نفيديا في مركز مراكز بيانات الذكاء الاصطناعي لسنوات قادمة.
معالجات الذاكرة من شركة ميكرون تكنولوجي مطلوبة بشدة، وكادت الإيرادات تتضاعف ثلاث مرات في الربع الثاني.
- 10 أسهم نفضلها على برودكوم ›
ليس كل المستثمرين مهتمين بأسهم التكنولوجيا. يمكن أن يكون القطاع عرضة لدورات الازدهار والكساد، ولا تترجم الحماسة تجاه بعض التقنيات (أهم، الواقع الافتراضي) دائمًا إلى مكاسب للمستثمرين.
لكن حوالي 32% من مؤشر S&P 500 هي أسهم تقنية، والكثير من المكاسب التي يحققها السوق تأتي من هذا القطاع. يجب أن يكون ذلك كافيًا لإقناعك بأن الاحتفاظ بما لا يقل عن حفنة من أسهم التكنولوجيا على المدى الطويل هو خطوة ذكية. إليك ثلاثة يجب أن تفكر في شرائها الآن.
هل سيخلق الذكاء الاصطناعي أول تريليونير في العالم؟ أصدر فريقنا للتو تقريرًا عن الشركة المعروفة قليلًا، والتي تُسمى 'احتكار لا غنى عنه'، والتي توفر التكنولوجيا الحرجة التي يحتاجها كل من نفيديا وإنتل. تابع القراءة »
لعب برودكوم المتخصص في الذكاء الاصطناعي
تصمم برودكوم (NASDAQ: AVGO) الدوائر المتكاملة الخاصة بالتطبيقات (ASICs)، وهي معالجات متخصصة تُستخدم في مراكز بيانات الذكاء الاصطناعي (AI). بينما تحظى نفيديا (NASDAQ: NVDA) بمعظم الاهتمام لرقائق الذكاء الاصطناعي الخاصة بها - ولها كل الحق في ذلك - تملأ برودكوم مكانة محددة في سوق معالجات الذكاء الاصطناعي، مصممة لأغراض مستهدفة مثل الشبكات أو تشغيل نماذج ذكاء اصطناعي محددة.
ستمتلك الشركة حوالي 60% من سوق ASIC بحلول العام المقبل، وفقًا لـ CounterPoint Research، مما يمنح برودكوم مركزًا مهيمنًا في هذا السوق المهم للذكاء الاصطناعي. وتستفيد برودكوم بالفعل من تفوقها، مع ارتفاع إيرادات الذكاء الاصطناعي بنسبة 106% في الربع الأول من عام 2026 إلى 8.4 مليار دولار.
المزيد من مبيعات الذكاء الاصطناعي في الطريق أيضًا، حيث قال مديرو برودكوم إنهم يتوقعون أن تصل إيرادات الذكاء الاصطناعي إلى 10.7 مليار دولار في الربع الثاني من عام 2026، ممثلة زيادة بنسبة 143% عن الربع نفسه من العام السابق.
سأعترف أن سهم برودكوم ليس رخيصًا تمامًا. تبلغ نسبة السعر إلى الأرباح (P/E) المتداولة للشركة 60، مقارنة بمتوسط القطاع التقني البالغ حوالي 37. لكن مع مكانة برودكوم في ASICs واستمرار الطلب المرتفع على المزيد من مراكز بيانات الذكاء الاصطناعي، لا يزال سهم التكنولوجيا هذا يبدو كخيار تقني جيد على المدى الطويل.
لا يمكن المبالغة في هيمنة نفيديا
قد تكون نفيديا أكثر توصية واضحة لأسهم التكنولوجيا هذه الأيام، لكن هناك بعض الأسباب الجيدة التي تجعل الاستثمار فيها يستحق.
أولًا، لا تقترب أي شركة أخرى من هيمنة نفيديا في معالجات الذكاء الاصطناعي. تمتلك نفيديا حوالي 86% من حصة السوق في رقائق مراكز بيانات الذكاء الاصطناعي، مما أدى إلى نمو هائل في المبيعات والأرباح للشركة. في السنة المالية 2026 المبلغ عنها مؤخرًا، قفزت إيرادات مركز بيانات نفيديا بنسبة 68% إلى ما يقرب من 194 مليار دولار.
وبشكل حديث، قال الرئيس التنفيذي جنسن هوانغ إن معالجات الذكاء الاصطناعي من نفيديا يمكن أن تجلب 1 تريليون دولار من الإيرادات حتى عام 2027. من المحتمل أن يكون الطلب الهائل هذا مدفوعًا بزيادة إنفاق شركات التكنولوجيا الكبرى على مراكز بيانات الذكاء الاصطناعي. ستصل نفقات رأس المال لشركات مايكروسوفت وأمازون وميتا بلاتفورمز وألفابيت إلى 650 مليار دولار هذا العام، مع ذهاب معظم الإنفاق إلى مراكز بيانات الذكاء الاصطناعي.
على الرغم من مكاسبها المثيرة للإعجاب البالغة 570% على مدى السنوات الثلاث الماضية - وإمكاناتها لمواصلة الاستفادة من الذكاء الاصطناعي - فإن أسهم نفيديا لديها نسبة P/E تبلغ 35 فقط، أقل بقليل من متوسط القطاع التقني. هذا يعني أن المستثمرين يمكنهم شراء سهم نفيديا بسعر رائع الآن، حتى وسط النمو السريع للذكاء الاصطناعي.
تبدو ميكرون تكنولوجي كصفقة
وأخيرًا وليس آخرًا شركة رقائق الذاكرة ميكرون تكنولوجي (NASDAQ: MU). مثل نفيديا وبرودكوم، تستفيد ميكرون من الزيادة السريعة في إنفاق البنية التحتية لمراكز البيانات.
كادت إيرادات ميكرون تتضاعف ثلاث مرات في الربع الثاني لتصل إلى ما يقرب من 23.9 مليار دولار حيث سارعت شركات التكنولوجيا لشراء المزيد من الذاكرة لمراكز بياناتها. ارتفعت أرباح السهم للشركة أيضًا بشكل كبير، حيث ارتفعت بما يقرب من 9 أضعاف إلى 12.07 دولار للسهم في الربع.
لمساعدة مواكبة الطلب المتزايد على الذاكرة، ستنفق ميكرون 200 مليار دولار لبناء منشآت تصنيع جديدة في الولايات المتحدة. ستدخل حيز التنفيذ على مدى السنوات القليلة القادمة ويجب أن تساعد الشركة في ضمان أن تتمكن ميكرون من الاستفادة من جميع الإنفاق على البنية التحتية الجاري حاليًا.
تعني نسبة P/E لميكرون البالغة 20 فقط أن المستثمرين يحصلون على صفقة جيدة جدًا على سهم الذكاء الاصطناعي الرائد الذي من المحتمل أن يكون جزءًا لا يتجزأ من بنية الذكاء الاصطناعي لسنوات قادمة.
بينما من المحتمل أن تستمر بعض أجزاء قطاع التكنولوجيا في التقلب، يمكن أن تكون هذه الأسهم التقنية إضافات رائعة لأي محفظة إذا كنت تبحث عن الاستفادة من فوائد الذكاء الاصطناعي على المدى الطويل.
هل يجب عليك شراء سهم برودكوم الآن؟
قبل أن تشتري سهم برودكوم، ضع في اعتبارك ما يلي:
حدد فريق محللي The Motley Fool Stock Advisor للتو ما يعتقدون أنها أفضل 10 أسهم للمستثمرين لشرائها الآن... ولم يكن برودكوم واحدًا منها. يمكن أن تنتج الأسهم العشر التي تم اختيارها عوائد هائلة في السنوات القادمة.
فكر عندما دخلت Netflix هذه القائمة في 17 ديسمبر 2004... إذا كنت قد استثمرت 1000 دولار في وقت توصيتنا، لكان لديك 503,268 دولارًا!* أو عندما دخلت Nvidia هذه القائمة في 15 أبريل 2005... إذا كنت قد استثمرت 1000 دولار في وقت توصيتنا، لكان لديك 1,049,793 دولارًا!*
الآن، تجدر الإشارة إلى أن متوسط العائد الإجمالي لـ Stock Advisor هو 898% - وهو تفوق ساحق في السوق مقارنة بـ 182% لمؤشر S&P 500. لا تفوت قائمة أفضل 10 أحدث، المتاحة مع Stock Advisor، وانضم إلى مجتمع استثماري بني من قبل مستثمرين أفراد للمستثمرين الأفراد.
*عوائد Stock Advisor اعتبارًا من 28 مارس 2026.
ليس لدى كريس نيجر أي مركز في أي من الأسهم المذكورة. تمتلك The Motley Fool مراكز في وتُوصي بـ Alphabet وAmazon وMeta Platforms وMicron Technology وMicrosoft وNvidia. توصي The Motley Fool بـ Broadcom. لدى The Motley Fool سياسة إفصاح.
الآراء والآراء المعبر عنها هنا هي آراء وآراء المؤلف وقد لا تعكس بالضرورة آراء ناسداك، إنك.
حوار AI
أربعة نماذج AI رائدة تناقش هذا المقال
"The article mistakes cyclical capex acceleration for structural AI TAM expansion, pricing in 5+ years of 50%+ growth when memory cycles and competitive custom silicon threaten a 2027 correction."
The article conflates cyclical capex euphoria with durable competitive moats. Yes, NVDA's 86% AI chip share is real, but the article omits: (1) AMD's MI300X gaining traction with hyperscalers seeking vendor diversification; (2) custom silicon efforts at Meta, Google, and Amazon that could cannibalize 5-15% of NVDA's TAM within 24-36 months; (3) MU's $200B capex bet assumes memory demand stays parabolic—historically, memory cycles crash hard when supply normalizes. AVGO at 60x P/E pricing in perfection; one miss on ASIC adoption or hyperscaler inventory correction could trigger 30-40% drawdown. The article treats these as 'long-term holds' but ignores near-term valuation risk and cyclical headwinds.
If custom silicon adoption accelerates faster than consensus expects, or if a macro slowdown crushes capex in 2026-27, NVDA's forward multiples compress sharply despite still-strong absolute earnings—and AVGO and MU face inventory destocking that could halve revenue growth for 2-3 quarters.
"The article ignores the historical cyclicality of the semiconductor industry and the growing trend of hyperscalers insourcing chip design to bypass merchant silicon providers."
The article presents a highly optimistic view of the AI semiconductor cycle, but it glosses over significant valuation and cyclicality risks. While Broadcom (AVGO) and Nvidia (NVDA) dominate their respective niches, the 'niche' ASIC market is becoming a battleground as hyperscalers like Amazon and Google increasingly design their own silicon to reduce dependency. Furthermore, the article cites Micron (MU) as a bargain at 20x P/E, but memory is notoriously cyclical; buying at peak earnings often leads to 'value traps' when supply eventually outstrips demand. The projected $1 trillion revenue for Nvidia by 2027 assumes a linear growth trajectory that ignores potential digestion periods in capital expenditures.
If the 'AI sovereign' and enterprise demand waves are truly in their infancy, current valuations may actually be conservative as we shift from a general-purpose to an accelerated computing paradigm. A lack of viable competitors to Nvidia's CUDA software moat could sustain these margins far longer than historical hardware cycles suggest.
"N/A"
[Unavailable]
"Extravagant 2026 revenue projections and overlooked risks render these stocks overvalued for long-term portfolios today."
The article pitches AVGO, NVDA, and MU as long-term AI winners, flaunting explosive growth like Broadcom's AI revenue doubling to $8.4B in Q1 2026 and Micron's near-tripling to $23.9B in Q2. But it glosses over sky-high valuations—AVGO's 60x trailing P/E screams overbought (tech avg ~37x), NVDA's 35x post-570% surge assumes endless dominance, and MU's 'bargain' 20x ignores memory's boom-bust cycles. Key omissions: hyperscaler capex ($650B) exposed to ROI scrutiny, energy bottlenecks for data centers, and ASIC competition eroding Broadcom's 60% share claim. These aren't 'buys now' at current prices; they're bets on perfection in a hype-fueled sector.
If AI training/inference demand sustains hyperscaler spending ramps and Nvidia's GPU moat holds, these stocks could justify premiums with trillion-scale revenues by 2027 as projected.
"Energy infrastructure, not chip competition, is the binding constraint on hyperscaler AI capex through 2026."
Claude and Gemini both flag custom silicon cannibalization, but underweight NVIDIA's CUDA moat—software switching costs are vastly higher than hardware substitution. Grok's energy bottleneck point is concrete; data center power constraints could actually *limit* hyperscaler capex growth more than demand saturation. Nobody's quantified this. If PUE (power usage effectiveness) degradation forces capex delays, the 2027 revenue projections crater regardless of chip demand.
"Energy constraints may actually strengthen NVIDIA's moat by forcing hyperscalers to prioritize high-efficiency Blackwell chips over less power-efficient alternatives."
Claude and Grok mention energy bottlenecks, but ignore the 'Power-to-Chip' arbitrage. If power is the constraint, it actually favors NVDA's Blackwell architecture because its superior performance-per-watt allows hyperscalers to extract more compute from limited grid capacity. This makes NVDA a defensive play against energy scarcity, not a victim. Conversely, AVGO’s ASIC margins are vulnerable if power-starved data centers prioritize generic GPU density over specialized networking overhead.
[Unavailable]
"TSMC CoWoS capacity constraints will limit NVDA GPU shipments to ~2M/year vs. 5M+ demand, exacerbating energy and capex risks."
Gemini's perf/watt defense of NVDA ignores TSMC's CoWoS packaging bottleneck—capacity limited to ~2M advanced GPU equivalents/year through 2025 vs. hyperscaler demand for 5M+. This forces allocation rationing, delays Blackwell ramps, and risks parallel inventory builds like 2022. Energy constraints amplify it: power-limited DCs prioritize proven H100s over unshipped Blackwells. Supply trumps architecture here, capping the cycle sooner.
حكم اللجنة
لا إجماعThe panel consensus is bearish, warning about cyclical headwinds, high valuations, and competition from custom silicon and ASICs in the AI semiconductor sector. They also highlight energy bottlenecks as a significant risk factor.
None explicitly stated
Energy bottlenecks and competition from custom silicon and ASICs