Fundamentals #2: hoe begin ik als event professional met een taalmodel, zoals GPT of Gemini?

header_artikel2_thenarrative._A_simple_drawing_of_a_stick_man_standing_in_the_fb8c4246-3392-4315-b6ab-402852b47ce2_0

De nieuwe wereld van de Generatieve AI kan overweldigend zijn. In een eerder artikel beschreven we al dat het tempo van ontwikkelingen exponentieel hoog ligt. Zo hoog, dat de consultants van McKinsey denken dat er door Generatieve AI jaarlijks $4.4 triljoen aan waarde aan de economie wordt toegevoegd.

Als event professional is het bijhouden van deze technologische ontwikkeling cruciaal, maar vergt het tijd die je bijna niet hebt. De ontwikkelingen van de Generatieve AI ontvouwen zich langs de lijnen van 5 domeinen, namelijk tekst, beeld, audio, code en video. 

Vandaag behandelen we tekst: want het gebruik van een taalmodel is voor jou als event professional enorm interessant. En het is het domein dat deze innovatiegolf op alle andere fronten voortstuwt.

De grote doorbraak van ChatGPT

OpenAI schreef eind 2022 historie door ChatGPT te lanceren, waardoor het grote publiek ineens toegang kreeg om met één van de beste taalmodellen te communiceren van dat moment: GPT-3. Dit taalmodel was uniek, niet omdat het de eerste was, maar omdat het in staat bleek teksten te genereren van een dusdanig niveau dat het lijkt alsof het door een mens geschreven is. 

Taalmodellen (‘large language models of LLM’s’) bestonden namelijk al sinds de jaren ‘80, maar er waren drie belangrijke redenen waarom de resultaten van die modellen teleurstellend waren tot de komst van OpenAI:

  1. Om echt goed te worden, hebben taalmodellen enorm veel trainingsdata nodig in de vorm van artikelen, blogposts en boeken. Die hoeveelheid digitale data bestond 40 jaar geleden nog helemaal niet.
  2. Om de nuances van taal goed te kunnen repliceren, is enorm veel rekenkracht (in de vorm van GPU’s) nodig om de verbanden tussen woorden en zinnen te analyseren. En rekenkracht is duur.
  3. Een onderzoek uit 2017, nota bene van Google, introduceerde de Transformer architectuur waarop de modellen van vandaag zijn gebaseerd. Nu weet je ook waar de ‘T’ voor staat in GPT.

Om het heel simpel uit te leggen: taalmodellen zoals GPT-3 worden in feite gecreëerd door een stofzuiger over het internet te halen die enorme hoeveelheden tekst opzuigt. Vervolgens gebruiken we krachtige computers om de onderliggende patronen en structuren van taal te leren beheersen.

De concurrentie is ook wakker geworden

OpenAI, het moederbedrijf achter ChatGPT, is tot nu toe koploper geweest in deze wedstrijd. Inmiddels zijn de andere tech-titanen wakker geworden en investeren ze, direct of indirect, in eigen, of publieke (open-source), modellen van variërende complexiteit en kwaliteit.

Die marktwerking is voor ons als eindgebruiker positief. Hoewel de betaalde variant van ChatGPT mijn vaste taalmodel is, loont het soms om te wisselen met Claude (Amazon), Gemini (Google), Grok (X) en Lama (Meta). Elk model heeft zo zijn sterkere en zwakkere kanten, en in de aanhoudende wedstrijd naar de top zien we ongeveer elk half jaar verbeterde modellen uitkomen die elkaar weer proberen af te troeven door nog beter getraind te zijn.  

Gelukkig is gebleken dat de vaardigheden die nodig zijn om effectief te communiceren met een taalmodel universeel overdraagbaar zijn. Dat wil zeggen: opdrachten (zo geheten ‘prompts’) die je aan ChatGPT meegeeft werken zonder aanpassingen ook prima op de andere genoemde modellen.

Hoe jij als eventprofessional aan de slag kan 

Het lijkt zo simpel. Het minimalistische interface van ChatGPT nodigt je hartverwarmend uit om al jouw routinematige schrijfwerkzaamheden voor je uit handen te nemen, zodat jij ondertussen tijd overhoudt voor koffie.

Je zal niet de eerste zijn die gedesillusioneerd weer afdruipt. Je kan dat voorkomen door je bewust te zijn van de volgende LLM-levenslessen:

1. Voor niets gaat de zon op

Gratis gebruikers van een taalmodel zoals ChatGPT hebben nu nog toegang tot een inferieur taalmodel (op dit moment GPT-3.5). Betalende gebruikers werken met GPT-4o, een model dat op minimaal 10X zoveel parameters (data) is getraind en daardoor nog beter in staat is de nuances van de Nederlandse en Engelse taal te reproduceren.

Daarnaast zijn context windows een cruciaal begrip in taalmodellen. Hiermee geeft een model aan hoeveel korte termijn geheugen het heeft en wanneer het de eerste informatie die je hebt gedeeld in een gesprek weer gaat vergeten. Je raadt al waar ik heenga: in het GPT-3.5 model is ook dit beperkt, en voelt het al snel alsof je in gesprek bent met een goudvis.

Belangrijker nog is het feit dat de allerkrachtigste functionaliteiten nu nog verstopt zitten in de betaalde versie; het uploaden van documenten, analyseren van spreadsheets, het trainen van eigen AI-bots, het genereren van beelden en toegang tot beeldherkenning (GPT-Vision) bieden allemaal relevante toepassingen voor ons werkveld als eventprofessional.

2. Communiceer alsof je met een kind in gesprek bent

Dit kind is slim. Hoogbegaafd zelfs, maar het heeft (bijna) geen enkele context over wie jij bent, wat je doet en vanuit welke invalshoek je ineens komt vragen om een draaiboek te helpen opstellen.

Als ik mijn zoon van 4 vraag om zijn kamer op te ruimen, dan is de kans aanwezig dat zonder additionele context, hij oprecht denkt dat de vuile was netjes terugzetten in de kledingkast kwalificeert als opgeruimd. Die context over wat ‘opgeruimd’ betekent moet ik hem bieden, net zoals jij dat moet gaan doen aan jouw taalmodel.

Gelukkig zijn daar handige ezelsbruggetjes voor, zoals het RACEF-model dat ontwikkeld werd door Pete Huang van The Neuron. Structureer je jouw opdrachten (‘prompts’) volgens dit model, dan zal de output sneller in de buurt komen van wat je nodig hebt.

image_artikel2_Narrative_RACEF.001

3. Een large language model (LLM) begrijpt geen taal

Staat het er echt? Ja, het staat er echt. Onze verwarrende realiteit is dat we communiceren met een computerprogramma dat de nuances van taal heeft opgeknipt in een rekenkundig model dat niets anders doet dan voorspellen wat het volgende woord in de zin zou moeten zijn.

De magie van een taalmodel (secret sauce) zit ook in de ruimte die het krijgt om af te wijken in de voorspellingen, waardoor het antwoord op dezelfde vraag zelden een identiek antwoord zal opleveren. Die flexibiliteit om te ‘regenereren’ biedt ons een creatief voordeel om verrassend gevarieerde teksten te kunnen produceren.

Het benadrukt ook de noodzaak voor ons als mens om kritisch te blijven op de output die we genereren met onze AI co-intelligentie. Onze vakkennis en ervaring is cruciaal in het beoordelen of de overtuigend klinkende teksten van een taalmodel ook daadwerkelijk inhoudelijk aansluiten bij hetgeen we aan het schrijven zijn.

Van theorie naar toepassing

De komende tijd delen we onze favoriete AI use-cases voor eventprofessionals. Dat wil zeggen: situaties waarin jij bijvoorbeeld een large language model, zoals ChatGPT (GPT-4o), aan het werk kan zetten om een draaiboek te helpen opstellen, een schadeclaim af te handelen voor je bij de verzekeraar, of om als sparringpartner in te zetten voor het onderhandelen van de voorwaarden met één van je leveranciers.  

Voor nu is het advies simpel: investeer de ~€20 per maand om toegang te krijgen tot een betaalde premium LLM (zoals bijvoorbeeld GPT-4o) en begin te experimenteren met het communiceren via het RACEF model.