Waarom zou je een lokale LLM wel of niet gebruiken?
Een lokale LLM gebruiken kan voordelen hebben:
1. Je privacy blijft behouden
Een van de grootste zorgen bij het gebruik van commerciële cloud-LLM's is het risico op datalekken of ongeautoriseerde toegang tot gevoelige gegevens door de LLM-aanbieder. Jouw prompt aan ChatGPT wordt namelijk over het internet naar servers van OpenAI gestuurd om daar verwerkt te worden. Er zijn al verschillende controverses geweest over het potentiële gebruik van persoonlijke en vertrouwelijke gegevens als data voor het trainen ervan. OpenAI stelt zelf in hun FAQ dat jouw gebruikersdata gebruikt kan worden om het model te verbeteren, gedeeld kan worden met derde partijen en dat een selecte groep van geautoriseerde werknemers jouw data kunnen raadplegen. Door een lokale LLM te gebruiken, wordt deze informatie niet gedeeld of blijft ze binnen het computersysteem van jouw organisatie of bedrijf.
2. Je hebt geen internet nodig
Eens je een LLM hebt geïnstalleerd, werkt deze volledig lokaal op je computer. Geen of beperkte toegang tot het internet? Geen probleem. Handig voor bijvoorbeeld de trein.
3. Je hebt de mogelijkheid om het taalmodel aan te passen
Bij het gebruik van lokale LLM’s hebben gebruikers, afhankelijk of een model open source, dan wel open weight is, in meer of mindere mate toegang tot de werking van het model. Dit kan gaan van de trainingsdata en -gewichten tot de volledige broncode van het model. Deze transparantie is een eerste stap voor controle, maar geeft ook de mogelijkheid om het model aan te passen, bijvoorbeeld voor specifieke use-cases.
4. Je verbruikt minder energie en water
Na de popularisering van LLM’s maken onderzoekers en milieuwaakhonden zich zorgen over de ecologische voetafdruk van de technologie. Cloud-LLM’s verbruiken niet enkel enorme hoeveelheden energie bij de trainen en het dagelijks gebruik van deze modellen, ook het waterverbruik voor het koelen en schoonmaken van deze enorme serverruimtes is niet te onderschatten. Daarbij publiceren commerciële aanbieders van cloud-LLM's zelden informatie over de middelen die nodig zijn om LLM’s te trainen en 24/7 te laten lopen, noch over de bijbehorende ecologische voetafdruk.
Door de eerder (in punt 3) aangehaalde transparantie van open source-modellen kunnen onderzoekers inzage krijgen over het energieverbruik en hebben ze de mogelijkheid om aanpassingen in het model te doen om deze efficiënter te maken en zo de ecologische voetafdruk te verkleinen.
Lokale LLM’s, zeker deze met relatief weinig parameters, werken op jouw eigen computer. Jouw prompts moeten dus niet naar de andere kant van de wereld verstuurd worden om daar op energiehongerige servers verwerkt te worden. Misschien goed om hier even bij stil te staan de volgende keer dat je “Hallo, hoe gaat het met je?” vraagt aan ChatGPT.
5. Je gebruik is gratis en onbeperkt
De meeste commerciële cloud-LLM’s vereisen een betalend abonnement voor onbeperkt gebruik. Dit is niet het geval bij lokale LLM’s, omdat ze (in de meeste gevallen) gratis en onbeperkt te gebruiken zijn.
6. Een lokaal model presteert (bijna) even goed als een online model
Grote varianten (>100B parameters) van lokale LLM’s van bekende techbedrijven zoals Meta en Google scoren vergelijkbaar met ChatGPT op gespecialiseerde tests en benchmarks. Maar ook de kleine(re) varianten (<10B parameters) volstaan voor de meeste dagelijkse thuis- en werk-prompts, zoals het samenvatten van teksten, het opstellen van e-mail drafts en om inspiratie op te doen of informatie op te vragen.