In de deze aflevering van de greatminds podcast gaat Hildo van Es, IT-architect en medeoprichter van greatminds, in gesprek met Robin Smits van Lumi ML Consulting. Ze ontrafelen de geheimen van pre-training bij LLM's (Large Language Models). Ook hebben ze het erover waarom deze cruciale stap onmisbaar is voor de vooruitgang van kunstmatige intelligentie. Robin vertelt hoe pre-training werkt en legt uit waarom het zoβn belangrijke rol speelt in het totale AI-proces.
π Belangrijkste inzichten:
π± Connect met onze gast en host:
β± Tijdstempels:
00:00 β Introductie Hildo en Robin
01:15 β Wat is pre-training en waarom is het zo belangrijk?
04:14 β Verschil met RAG, promptengineering en fine-tuning
08:05 β Hoe werkt pre-training in de praktijk?
09:57 β Soorten data: tekst, code, multimodaal
16:03 β Vereisten aan hardware: tienduizenden GPUβs
19:00 β Small Language Models en edge deployment
21:18 β Evaluatie: hoe weet je of pre-training goed gelukt is?
22:05 β Risicoβs van slechte datasets en verkeerde kennis
23:37 β Continuous pre-training en het risico van vergeten
25:09 β Trends: model collapse, multilingual & multimodal AI
28:09 β Kosten, energieverbruik en kerncentrales
29:17 β Continuous pre-training in het SDLC-proces
34:00 β Afsluiting