NVIDIA: Samsung stelt team samen voor HBM - essentieel voor AI - vervolg
Samsung heeft een team van honderd topingenieurs samengesteld om te concurreren voor AI-chiporders van Nvidia $NVDA. Dit initiatief past bij onze eerdere berichtgeving van maandag, waarin werd aangegeven dat NVIDIA leveranciers tegen elkaar uitspeelt om lagere prijzen voor HBM (High Bandwidth Memory) te bedingen. Deze chips zijn een essentieel onderdeel van de "AI-machine" die NVIDIA ontwikkelt. Zie ook het artikel van maandag.
Het ingenieursteam van Samsung heeft significante verbeteringen aangebracht in de productieopbrengsten en de kwaliteit van zowel 8-laags als 12-laags HBM3E chips. De verbeterde 12-laags versie versnelt het AI-leerproces met 34% vergeleken met de 8-laags versie. Ondertussen houdt concurrent SK Hynix een dominante positie met 90% van de HBM-markt.
NVIDIA wordt verwacht dit jaar meer dan 10 biljoen Koreaanse won (ongeveer 7,3 miljard Amerikaanse dollar) te besteden aan HBM-geheugenchips. De markt voor HBM wordt dit jaar geschat op een waarde van 16,9 miljard dollar, een aanzienlijke stijging vanaf 4,4 miljard dollar vorig jaar.
Disclaimer Aan de door ons opgestelde informatie kan op geen enkele wijze rechten worden ontleend. Alle door ons verstrekte informatie en analyses zijn geheel vrijblijvend. Alle consequenties van het op welke wijze dan ook toepassen van de informatie blijven volledig voor uw eigen rekening.
Wij aanvaarden geen aansprakelijkheid voor de mogelijke gevolgen of schade die zouden kunnen voortvloeien uit het gebruik van de door ons gepubliceerde informatie. U bent zelf eindverantwoordelijk voor de beslissingen die u neemt met betrekking tot uw beleggingen.