top of page
Zoeken

AI toepassingen die vandaag al werken

  • Foto van schrijver: Han Gerrits
    Han Gerrits
  • 6 dec 2024
  • 3 minuten om te lezen

Bijgewerkt op: 13 dec 2024



ree

Met de opkomst van LLMs is AI toegankelijk geworden voor iedereen. Niet langer heb je zelf veel data en computercapaciteit nodig om een AI te trainen, je kunt nu gebruik maken van de “pre-trained” LLMs om je eigen AI-toepassingen te bouwen.


Ik merk daarbij in de praktijk dat veel organisaties wel interesse hebben, maar toch niet durven te beginnen. Dat heeft er vaak mee te maken dat men bang is voor de risico’s die gezien worden voor de toepassing van AI. Zo is er veel aandacht geweest in de pers voor hallucinerende LLMs: LLMs die perfect lijkende teksten schrijven, maar die complete onzin blijken te zijn. Of is men bang dat de gegevens die men in de LLM stopt, gebruikt worden voor andere doeleinden. Of dat persoonsgegevens Europa verlaten waardoor men niet compliant met GDPR is.


Deze angsten zijn deels terecht: er is nog niet veel ervaring met LLMs en bij ondeskundige inzet kunnen inderdaad deze verkeerde effecten ontstaan. Maar we kunnen vandaag zeker ook al LLM toepassingen maken die we wel met vertrouwen kunnen gebruiken. Om te begrijpen hoe LLMs werken, moeten we even terug naar waarom LLMs eigenlijk ontwikkeld zijn. Dat begint met het begrip AI, Artificial Intelligence. Computerwetenschappers noemen het kunstmatige intelligentie als een computer dingen kan die mensen vaak uit zichzelf kunnen (of van kinds af aan geleerd hebben). Bijvoorbeeld het herkennen van objecten in plaatjes, als mens zien we direct het verschil tussen een auto en koe, of het verstaan van en produceren van menselijk taal. Alhoewel dit voor mensen eenvoudige opgaven zijn, waren deze opgaven tot een paar jaar geleden voor computers bijkans onmogelijk.


Om de taalvaardigheid van computers te trainen, zijn er computermodellen gemaakt die men  het hele Internet heeft laten lezen. Door hiervoor neurale netten te gebruiken (kom ik in een ander artikel op terug) kan de computer op een gegeven moment menselijke taal begrijpen en produceren (ook op ‘begrijpen’ kom ik later terug). We kunnen elke dag merken dat computers beter menselijke taal begrijpen als we in de auto tegen de navigatie praten of een assistent als Siri op onze iPhone opdrachten geven.

Echter, zoals aangegeven, om dit begrip van taal te krijgen, hebben ze dus heel veel teksten gelezen en daarmee ook ‘kennis’ opgedaan. Ze hebben zeker teksten gelezen over dat Amsterdam de hoofdstad van Nederland is, dus als je daarnaar vraagt heb je grote kans dat je het goede antwoord krijgt. Het wordt al wat moeilijker bij de hoofdstad van Duitsland want de LLM heeft hoogstwaarschijnlijk zowel teksten gelezen waarin Berlijn de hoofdstad is als teksten waarin Bonn de hoofdstad is. Je kunt dan niet perse op het antwoord vertrouwen.


Daarom zou ik op dit moment bij het bouwen van LLM-applicaties alleen de taalverwerkingscapaciteit gebruiken en zorgen dat geen gebruik gemaakt wordt van de feitenkennis in de LLM. Als we onszelf die beperking opleggen, zijn er toch aal heel veel applicaties die we nu al kunnen inzetten.

Dat kan bijvoorbeeld door chatbots te bouwen waarbij de LLM gedwongen wordt om  vragen te beantwoorden op basis van de documenten die aan de chatbot gekoppeld zijn, en de chatbot te verbieden antwoord te geen als het antwoord niet in de documenten terug te vinden is. De grote verbetering van LLM-gebaseerde chatbots over de traditionele chatbots is dat de AI technologie de chatbot in staat stelt om de intentie, de mening van de vraag te begrijpen, en daarop antwoord te geven, terwijl de traditionele chatbot alleen bij een vraag die precies geformuleerd is als in de lijst met vraag - antwoord - paren, antwoord kan geven. De AI gebaseerde chatbot begrijpt daarom beter de vragen en kan beter antwoorden geven. Het bekendste voorbeeld van succes met een AI chatbot is Klarna. Hun chatbot maakt klanten inderdaad blijer omdat vragen beter beantwoord worden en omdat de klanten niet 11 minuten bezig zijn om antwoord te krijgen op hun vragen, maar slechts 2 minuten. Voor Klarna is het een succes omdat de chatbot het werk doet van 700 medewerkers en jaarlijks 40 miljoen kosten bespaart.


Andere use cases voor het gebruik van enkel de de taalkwaliteiten van een LLM zijn het samenvatten van documenten en het analyseren van documenten om daar gestructureerde data uit te halen. Zo hebben we bij EPSA een applicatie ontwikkeld die facturen kan analyseren en op de juiste kostenpost kan boeken en een applicatie om contracten te analyseren.


Door LLMs op deze wijze te gebruiken, kunnen we vandaag al AI toepassingen maken die we kunnen vertrouwen.



 
 
 

Opmerkingen


bottom of page