Je bekijkt een artikel van Beeckestijn Business School
partner

Verdiep je in de Fascinerende Wereld van Large Language Models(LLM’s)

Ontdek de wereld van Large Language Models (LLM’s) met indrukwekkende inzichten en ontdekkingen.

21 november 2023, 06:07 549 x gelezen

Leer over trainings modellen en onthul de geheimen van AI-technologie met boeiende verhalen over ethiek, training en de evolutie van deze mysterieuze modellen.

Stap binnen in de geavanceerde wereld van AI-systemen, waaronder GPT-3 (de drijvende kracht achter ChatGPT), een domein dat misschien ondoorgrondelijk lijkt voor degenen zonder diepgaande kennis. Toch is het een intrigerende en meeslepende wereld, vooral wanneer we ons concentreren op Large Language Models (LLM’s).

Large Language Models (LLM’s) zijn geavanceerde kunstmatige intelligentie systemen die getraind worden met enorme hoeveelheden tekstgegevens, doorgaans verzameld van het internet. Hun indrukwekkende veelzijdigheid stelt hen in staat om uiteenlopende taken uit te voeren, waarbij ze taal op een ongekende wijze begrijpen en genereren, variërend van het creëren van creatieve teksten en code tot het identificeren van programmeerfouten. Het zelfstandig bouwen van een dergelijk model vanaf de basis is echter een enorme uitdaging, gezien de vereisten aan data, rekenkracht en geheugen. Bovendien zijn de prestaties van LLM’s sterk afhankelijk van zowel de kwaliteit als de diversiteit van de gebruikte trainingsdata. Dit artikel leidt je kort door de wereld van LLM’s.

De ins en outs van een Large Language Model

In essentie is een Large Language Model (LLM) een kolossaal bestand gevuld met uitgestrekte reeksen van getallen. Dit bestand onthult ingewikkelde patronen van getallen, met interacties die zich manifesteren als complexe matrixvermenigvuldigingen. Het gedrag van dit model lijkt op een complexe, actieve dataset die opvallende prestaties kan leveren.

Maar hoe werkt dit model precies? Het principe is eigenlijk vrij simpel: het model doet een gok voor het volgende woord of token in een zin. Dit principe herken je wellicht van de voorspellende tekst op je smartphone-toetsenbord. Modellen zoals ChatGPT gaan echter een stap verder dan enkel het voorspellen van afzonderlijke woorden; ze zijn specifiek ontworpen om dialogen aan te gaan door te voorspellen hoe een persoon een gesprek zou voeren. Deze modellen opereren op enorme hoeveelheden data. Het toetsenbordmodel van de iPhone is bescheiden in vergelijking met reuzen zoals GPT-3, die zijn getraind op terabytes aan gegevens. Maanden van rekenkracht worden ingezet voor het trainen van deze modellen, waarbij patronen en gegevens worden omgezet in miljarden numerieke wegingsfactoren om de voorspellende waarde verder te verfijnen.

De onthullingen achter LLM-training

Het trainen van Large Language Models (LLM’s) brengt een waas van geheimzinnigheid met zich mee, vooral als het gaat om organisaties als OpenAI, Anthropic en Google, die hun trainingsgegevens graag geheimhouden. Echter, Meta, het brein achter Facebook en Instagram, doorbrak dit stilzwijgen met de opvallende AI LLaMA-release, die fascinerende inzichten bood in het trainingsproces van LLaMA. De onthullingen tonen aan dat LLaMA werd getraind met maar liefst 5 TB aan gegevens, waaronder content van Common Crawl, GitHub, Wikipedia, ArXiv, StackExchange, en een opvallende dataset genaamd ‘Books’. Opvallend genoeg bestond de “Books”-dataset uit illegale eBooks, inclusief auteursrechtelijk beschermde werken zoals de Harry Potter-serie, wat natuurlijk de ethische vraag oproept over het gebruik van dergelijke gegevens zonder toestemming.

De evolutie van leren

Net als in de echte wereld verloopt leren in stapjes. Denk aan de overgang van het creëren van feitelijk correcte zinsconstructies naar het formuleren van doordachte en genuanceerde antwoorden. Voor deze progressie komt Reinforcement Learning from Human Feedback (RLHF) in beeld. Dit complexe proces transformeert modellen tot besluitvormers die in staat zijn om volledige en doordachte antwoorden te genereren.

Het Open Assistant-project illustreert deze aanpak door gegevens via crowd-sourcing te verzamelen om het gedrag van Large Language Models (LLM’s) te verfijnen. RLHF speelt ook een cruciale rol bij het trainen van modellen om ethische richtlijnen te volgen, zoals het vermijden van schadelijke inhoud.

Leer samen

Samenwerken leidt tot gedeelde kennis. Met open source modellen en licenties wordt het model toegankelijk, bruikbaar en deelbaar voor iedereen. Dit bevordert creativiteit, diversiteit, kwaliteit en veiligheid. Bovendien opent het de deur naar toepassingen die anders wellicht buiten bereik zouden blijven vanwege de kosten, complexiteit of exclusiviteit. Het verfijnen van modellen is nu gedemocratiseerd, waardoor in principe iedereen in staat is modellen aan te passen en te trainen.

Gezamenlijk op avontuur in de wereld van LLM’s

In de wereld van Large Language Models (LLM’s) valt er nog veel te ontdekken en te begrijpen. Het is een boeiende mix van mysterie en kansen. Laten we samen deze ontdekkingsreis omarmen, kennis en inzichten delen om de onbekende grenzen van deze wereld te verkennen. Terwijl we het potentieel van LLM’s onthullen, banen we de weg voor het temmen van dit raadselachtige wezen.

Lees het artikel

Make impact  

Werk verandert continu en dat vraagt om de juiste kennis en skills. Beeckestijn Business School helpt hiermee. Met compacte en praktische programma’s binnen digital, marketing, cx, data en communicatie door 100% vakexperts. Op zoek naar gratis kennis en inspiratie? Woon een online clinic bij of download een van de whitepapers. #kennisdelen

Werk verandert continu en dat vraagt om de juiste kennis en skills. Beeckestijn Business School helpt hiermee. Met compacte en praktische programma’s binnen digital, marketing, cx, data en communicatie door 100% vakexperts. Op zoek naar nieuwe kennis en inspiratie? Woon een online clinic bij, download een van de whitepapers of volg een opleiding of training. #kennisdelen 

Categorie

Marketingfacts. Elke dag vers. Mis niks!