Greatminds podcast
Greatminds duikt in allerlei onderwerpen die te maken hebben met software architectuur: van AI tot integratie architectuur voor ieder komt er wel wat aan bod of je nu een tech-liefhebber bent, in de software-industrie werkt, een business owner bent, of gewoon nieuwsgierig naar wat de toekomst ons kan brengen.
Greatminds podcast
Pretraining AI
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
In de deze aflevering van de greatminds podcast gaat Hildo van Es, IT-architect en medeoprichter van greatminds, in gesprek met Robin Smits van Lumi ML Consulting. Ze ontrafelen de geheimen van pre-training bij LLM's (Large Language Models). Ook hebben ze het erover waarom deze cruciale stap onmisbaar is voor de vooruitgang van kunstmatige intelligentie. Robin vertelt hoe pre-training werkt en legt uit waarom het zoβn belangrijke rol speelt in het totale AI-proces.
π Belangrijkste inzichten:
- Zonder pre-training kan een model niets: dit is de ruggengraat van elk AI-systeem.
- De kwaliteit van je dataset bepaalt de waarde van je model β niet alleen de omvang.
- Pre-training is kostbaar, maar de strategische keuzes in dit stadium maken het verschil.
π± Connect met onze gast en host:
β± Tijdstempels:
00:00 β Introductie Hildo en Robin
01:15 β Wat is pre-training en waarom is het zo belangrijk?
04:14 β Verschil met RAG, promptengineering en fine-tuning
08:05 β Hoe werkt pre-training in de praktijk?
09:57 β Soorten data: tekst, code, multimodaal
16:03 β Vereisten aan hardware: tienduizenden GPUβs
19:00 β Small Language Models en edge deployment
21:18 β Evaluatie: hoe weet je of pre-training goed gelukt is?
22:05 β Risicoβs van slechte datasets en verkeerde kennis
23:37 β Continuous pre-training en het risico van vergeten
25:09 β Trends: model collapse, multilingual & multimodal AI
28:09 β Kosten, energieverbruik en kerncentrales
29:17 β Continuous pre-training in het SDLC-proces
34:00 β Afsluiting