HERHALING: AI-sector nieuwe waarschuwing: Bedrijven nog terughoudender

Dit is een herhaling, nadat dit artikel vanochtend vroeg reeds is gepubliceerd.
Volgens een bericht van The Information is er opnieuw speculatie dat grote ondernemingen hun uitgaven aan AI-diensten via cloudproviders zoals Microsoft, Google en Amazon verder gaan terugschroeven.
De aanleiding is de dalende prijs van AI-modellen, waardoor het voor bedrijven aantrekkelijker wordt om goedkopere of zelfs open-source alternatieven te overwegen. Dit zou kunnen leiden tot minder vraag naar geïntegreerde, dure AI-oplossingen die door de grote techbedrijven worden aangeboden.
Gevolgen
Dit vormt wederom een negatief signaal voor de AI-sector, als het klopt. In ieder geval wachten wij nog steeds met groter stappen in deze aandelen. Onderzoek suggereert dat besparingen van 20-50% mogelijk zijn in energieverbruik voor training en inference.
Een vertraging van de bestedingen door grote zakelijke klanten kan leiden tot afkoelende omzetgroei bij de clouddivisies van Microsoft Azure, Google Cloud en Amazon Web Services (AWS). Juist deze segmenten werden door veel beleggers gezien als de aanjagers van toekomstige groei.
Bovendien zet dit de marges onder druk. De concurrentie wordt heviger, klanten worden prijsgevoeliger, en de focus verschuift van pure innovatie naar kostenbesparing en schaalbaarheid.
Mocht deze trend zich doorzetten, dan zou dat kunnen zorgen voor een verdere herwaardering van AI-gerelateerde aandelen, met name van bedrijven die sterk leunen op de verkoop van AI-capaciteit via de cloud.
En pas als blijkt dat er andere groei scenario’s aan bod komen, en dat zal ons inziens zeker gebeuren, gaan deze aandelen vanuit een diepere onderwaardering weer fors stijgen. Maar nu bekijken we het nog steeds van dag tot dag en van week tot week en blijven dus voorzichtig.
Verdere context
Opnieuw dus een mogelijk waarschuwingssignaal. Zie ook onze eerdere analyses op de website, waar we als één van de eersten wezen op een tijdelijke afkoeling van aandelen in het AI-segment.
Mede hierop als door andere signalen besloten we op 3 februari om de aandelenweging te verlagen en gingen we voor (bijna) 70% liquide. Dat blijkt achteraf een terechte stap te zijn geweest. Tech is sindsdien naar beneden geknald.
De negatieve signalen stapelen zich op. Nu is het zaak om niet in de hype te blijven hangen of in de extreme angst dat het nooit meer goed komt, maar kritisch te kijken naar de werkelijke vraagontwikkeling en winstgevendheid binnen AI. En uiteraard wanneer het momentum bij techaandelen weer gaat verbeteren. Dat is echter nog steeds de vraag.
Bullet points
- De AI-gemeenschap heeft een sterke toename gezien van nieuwe methoden om het trainen van modellen te optimaliseren, met als doel de efficiëntie en prestaties te verbeteren. Google beweert dat zijn nieuwe open-sourcemodel Gemma 3 98% van de nauwkeurigheid van DeepSeek behaalt, terwijl het slechts één GPU gebruikt. Door deze snelle optimalisatie in AI beginnen sommige beleggers zich af te vragen of de huidige plannen voor uitbreiding van het elektriciteitsnet om aan de verwachte energiebehoefte te voldoen nog wel nodig zijn.
- DeepSeek, een Chinees AI-bedrijf, bracht op 20 januari 2025 zijn R1-model uit, dat de aandacht trok vanwege zijn kostenefficiënte training en geavanceerde redeneercapaciteiten. Het model maakt gebruik van Group Relative Policy Optimization (GRPO), een reinforcement learning-framework dat geen supervised fine-tuning meer nodig heeft, wat een belangrijke verschuiving betekent in de manier waarop modellen worden getraind.
- Google’s Gemma 3 wordt gepresenteerd als een grote stap voorwaarts binnen de AI-wereld, vooral dankzij de efficiëntie en draagbaarheid. De mogelijkheid van Gemma 3 om prestaties van andere modellen te evenaren of overtreffen met minder energieverbruik is opmerkelijk. Llama-405B, met 405 miljard parameters, heeft bijvoorbeeld waarschijnlijk meerdere GPU’s nodig en verbruikt naar schatting 10 tot 20 keer zoveel energie per taak als een model dat draait op één GPU. De gequantiseerde versies van Gemma 3 zouden dit verbruik met 30 tot 50% kunnen verminderen, waarmee het model mogelijk een nieuwe standaard zet voor energie-efficiënte AI.
- De multimodaliteit van het model – het ondersteunen van invoer van beeld en taal met tekstuele output – is een onverwachte eigenschap voor een model dat op één GPU draait. Dergelijke multimodale taken vereisen normaal gesproken veel rekenkracht. Dit wijst op geavanceerde optimalisatie die mogelijk de energie per taak vermindert door efficiënte architecturen te gebruiken, al zijn exacte cijfers nog niet bekend.
- Nieuwe methoden pakken uitdagingen aan zoals rekencapaciteit, modelgrootte en afstemming op menselijke voorkeuren. Ze zijn cruciaal voor verdere vooruitgang in AI-onderzoek en -toepassingen. Vooral energie-efficiëntie tijdens inference is van belang, omdat deze stap voortdurend wordt herhaald. Innovaties zoals quantization en hardware-optimalisatie zijn daarbij essentieel om het energieverbruik te beperken.
- Optimalisatietechnieken zoals Group Relative Policy Optimization (GRPO), toegepast door DeepSeek, verminderen de trainingskosten doordat ze geen supervised fine-tuning vereisen, wat tot 20-30% energiebesparing kan opleveren tijdens het trainen. Het snoeien (pruning) van grote taalmodellen kan het model tot 50% kleiner maken, wat een energiebesparing van 30-50% oplevert tijdens inference (Systematic weight evaluation for pruning LLMs). En kennisdistillatie kan 20-40% besparen tijdens het trainen (Active knowledge distillation for session-based recommendation).
- Deze methoden verlagen de kosten door minder rekencapaciteit nodig te hebben – zoals minder GPU’s en kortere trainingstijd – wat het energieverbruik direct verlaagt. Zo zorgt pruning ervoor dat modellen kleiner worden, sneller draaien en minder stroom verbruiken tijdens inference, terwijl kennisdistillatie kennis overdraagt naar kleinere modellen, wat de trainingskosten verlaagt. Hoewel exacte energiebesparingen afhangen van de uitvoering, wijzen onderzoeken op reducties van 20-50% in energieverbruik bij training en inference.
Group Relative Policy Optimization (GRPO)
GRPO, geïntroduceerd in het DeepSeek, vormt de kern van DeepSeek’s aanpak. De methode maakt gebruik van reinforcement learning op grote schaal, zonder supervised fine-tuning.
Hierdoor leert het model redeneervaardigheden puur via reinforcement learning. GRPO genereert meerdere outputopties en het model beloont voor het kiezen van de beste, op basis van beloningsfeedback.
De prestaties zijn vergelijkbaar met die van OpenAI-o1 bij redeneertaken. Dit is vooral opmerkelijk vanwege de lage kosten: het trainen van DeepSeek-R1-Zero was veel goedkoper dan bij concurrenten, waarmee het model een nieuwe standaard zet voor toekomstig onderzoek.
Doordat geen extra trainingsdata of rekencapaciteit nodig is voor fine-tuning, bespaart GRPO naar schatting 20-30% aan trainingstijd en energie in vergelijking met traditionele RL-methoden zoals PPO, die een apart waardemodel vereisen. Dit sluit aan bij de efficiëntiedoelstellingen van modellen zoals Gemma 3, die zijn ontworpen voor apparaten met beperkte middelen.
VLM Feedback voor Reinforcement Learning
Piloting VLM Feedback for Offline RL (), introduceert deze methode het gebruik van Visual Language Models als feedbackmechanisme voor reinforcement learning.
In plaats van alleen op beloningssignalen te vertrouwen, maakt dit systeem gebruik van VLMs om succesvolle resultaten te herkennen op basis van beeldbegrip. Dit versterkt de prestaties van agents in complexe omgevingen.
Deze aanpak is innovatief omdat het een brug slaat tussen visuele en taalkundige modellen, wat veel potentie biedt voor multimodale toepassingen, een verrassende maar veelbelovende richting binnen AI.
Doordat beloningen automatisch worden gegenereerd met behulp van VLMs, is minder menselijke input nodig, wat normaal gesproken erg arbeidsintensief is. Dit kan tot 40% energiebesparing opleveren door het terugdringen van handmatige data-annotatie, met name relevant voor multimodale modellen zoals Gemma 3.
Systematisch snoeien van grote taalmodellen
De milieubelasting van grote taalmodellen. De onderzoekers stellen een methode voor om modelgewichten systematisch te evalueren en te snoeien, zonder prestatieverlies. Dat is van groot belang voor duurzaamheid, omdat het de uitstoot en het energieverbruik vermindert en aansluit bij de wens naar efficiënte modellen voor dagelijkse inzet.
Pruning kan modelgrootte met 50% of meer verminderen, waardoor inference sneller en energiezuiniger verloopt. Dit bespaart 30-50% energie per taak vergeleken met niet-gesnoeide modellen.
Dit principe wordt ook toegepast in Gemma 3, dat gequantiseerde versies aanbiedt met lagere rekenvereisten.
Actieve kennisdistillatie
Deze methode richt zich op het overdragen van kennis van grote modellen naar kleinere, met behulp van actieve leertechnieken. Dit vermindert de rekenbelasting zonder dat dit ten koste gaat van de nauwkeurigheid.
Dit vooral belangrijk voor toepassingen zoals e-commerce, waar snelheid en precisie essentieel zijn.
Door kennis over te dragen naar een kleiner model, kunnen trainingskosten en energieverbruik met 20-40% dalen. Hoewel specifiek gericht op aanbevelingssystemen, kan dit principe ook worden toegepast op modellen als Gemma 3 om de efficiëntie te verbeteren.
Latente dynamiekmodellen: reinforcement learning
Het project laat zien hoe reinforcement learning-agents kunnen leren op basis van reward-free offline data, door gebruik te maken van latente dynamiekmodellen voor planning.
Dit is vooral waardevol in omgevingen waar geen beloningen beschikbaar zijn tijdens de training, zoals simulaties, en vormt daarmee een nieuwe benadering van RL-optimalisatie.
Door te leren van offline data zijn minder real-time interacties nodig. Dit kan 30-50% energie besparen door de directe rekenbelasting te verlagen, wat goed aansluit bij modellen als Gemma 3 die ontworpen zijn voor edge-toepassingen.
Hard Preference Sampling: menselijke voorkeuren
Hard Preference Sampling for Human Preference Alignment (HPS) introduceert een methode om een op efficiënte manier modellen af te stemmen op menselijke voorkeuren.
Door het gericht selecteren van harde voorkeuren leert het model sneller wat gebruikers belangrijk vinden. Dit is cruciaal in een tijd waarin veiligheid en controleerbaarheid van AI steeds belangrijker worden.
Doeltreffende afstemming maakt uitgebreide hertraining overbodig. Dit bespaart naar schatting 20-30% aan rekenkracht, vooral bij het trainen van verantwoordelijke AI-systemen zoals Gemma 3.
Disclaimer Aan de door ons opgestelde informatie kan op geen enkele wijze rechten worden ontleend. Alle door ons verstrekte informatie en analyses zijn geheel vrijblijvend. Alle consequenties van het op welke wijze dan ook toepassen van de informatie blijven volledig voor uw eigen rekening.
Wij aanvaarden geen aansprakelijkheid voor de mogelijke gevolgen of schade die zouden kunnen voortvloeien uit het gebruik van de door ons gepubliceerde informatie. U bent zelf eindverantwoordelijk voor de beslissingen die u neemt met betrekking tot uw beleggingen.