ChatGPT en soortgelijke tools hebben de afgelopen maanden veel furore gemaakt. Ze kunnen een enorme hulp zijn, niet in de laatste plaats bij het maken van content. Tegelijkertijd moet je je bewust zijn van de beperkingen van deze tools en begrijpen hoe je bijzonder goede resultaten kunt bereiken.
In dit artikel leg ik uit waarom de nieuwe generatie AI-aanbiedingen zoveel beter is. Het is het begin van een serie over dit onderwerp. Het onderwerp kunstmatige intelligentie gaat al tientallen jaren door fasen van uitbundigheid en neerslachtigheid.
De voorspellingen van Elon Musk over autonome voertuigen zijn hier welbekend: het veld boekte een tijdje snelle vooruitgang. Computergestuurde taxi's en bussen leken binnen handbereik. De curve van verbeteringen vlakte echter snel af en nu zijn de voorspellingen op dit gebied veel voorzichtiger geworden. In dit opzicht ben ik gewend geraakt aan een gezonde scepsis als het gaat om dergelijke hype-onderwerpen.
Dat vloog echter snel het raam uit met ChatGPT. Toen ik het voor het eerst kon uitproberen, was ik even verbaasd als opgewonden: deze "chatbot" werkte eindelijk zoals zijn vele voorgangers alleen maar hadden beloofd. Het was bijna griezelig.

ChatGPT reageert op een verbazingwekkend menselijke manier op vragen. En het lijkt een antwoord te weten op elke vraag - of meerdere. Het past dynamisch het type, de lengte en de complexiteit van de output aan op basis van mijn input. Het begrijpt de context van het gesprek en kan putten uit zaken en feiten die al eerder aan de orde zijn geweest. Het verwerkt lange en complexe invoer met weinig vertraging. En het begrijpt en reageert ook in het Duits.
Verbazingwekkend krachtige tekstgenerator
Het werd al snel duidelijk dat ChatGPT niet alleen een krachtige AI-assistent is, maar ook een AI-tekstgenerator.
Mijn eerdere pogingen met dit soort hulpmiddelen waren altijd grote teleurstellingen geweest. De producten konden nooit de marketingbeloften waarmaken. Ze waren misschien geschikt om ideeën te stimuleren. Je kon er stukjes en beetjes uit halen. Maar als geheel waren de teksten zelden bruikbaar.
Dat is nu anders met ChatGPT en zijn varianten en concurrenten: Op de juiste manier gebruikt, kunnen ze niet alleen ideeën leveren, maar ook een uitgebreid concept en op zijn minst een goede eerste opzet.
"*" geeft verplichte velden aan
Als iemand die een groot deel van zijn brood verdient met schrijven en redigeren, zeg ik het niet graag: wat ChatGPT levert is vaak even goed als wat ik van menselijke schrijvers heb gezien. Soms is het zelfs beter.
De beperkingen en speciale eigenaardigheden van deze nieuwe AI-tools worden echter ook duidelijk na intensief testen. Meer hierover hieronder.
Hoe is deze vooruitgang mogelijk geworden?
Maar hoe was deze plotselinge kwaliteitssprong überhaupt mogelijk? Meestal worden drie punten genoemd:
- Trainingsgegevens: De AI-modellen van tegenwoordig leren van bestaande content (tekst, afbeeldingen, audio, code, etc.). De hoeveelheid data die al digitaal beschikbaar is, is snel toegenomen, wat de training enorm helpt.
- Rekenkracht: Gespecialiseerde computers en componenten hebben de trainingsprocessen enorm versneld en maken grotere en complexere modellen mogelijk.
- algoritmen: Last but not least is er onder de motorkap belangrijke vooruitgang geboekt. De "transformer" methode wordt bijvoorbeeld gezien als een belangrijke reden waarom AI tegenwoordig zoveel beter teksten kan begrijpen en genereren dan een paar jaar geleden.
Het is ook indrukwekkend om te kijken naar het aantal "parameters" van taalmodellen in de afgelopen jaren. Met meer parameters kan het model meer kennis coderen en complexere taken aan:
- 2019, GPT-2: 1,5 miljard parameters
- 2020, GPT-3: 175 miljard parameters
- 2022, PaLM: 540 miljard parameters
- 2022, GPT-4: ongeveer 1 biljoen parameters
- 2022. Claude: ongeveer 10 biljoen parameters
Deze cijfers zijn fascinerend, maar complexere modellen zijn niet altijd automatisch superieur of de betere keuze. Een huidige trend is om modellen specifieker te trainen voor bepaalde taken en ze daarop af te stemmen. Het is daarom te verwachten dat er, naast algemene tools, steeds meer aanbiedingen zullen komen die zijn ontworpen voor een duidelijk omschreven doel.
Modellen die aanvullend worden getraind met individuele gegevens zijn ook interessant in deze context: Bedrijven kunnen bijvoorbeeld al hun documenten in zo'n systeem invoeren om dynamisch antwoorden te krijgen.
Een andere interessante meting die recentelijk meer in de schijnwerpers is komen te staan, is de contextlengte. Hoe groter deze waarde, hoe meer inhoud van een gesprek de tool kan opnemen. Meer context helpt de AI dus om langere chats te voeren, maar ook om grotere input te verwerken.
Afhankelijk van de use case kan dit een significant verschil maken wanneer een aanbod als Anthropics Claude bijvoorbeeld hele boeken binnen enkele seconden verwerkt en analyseert.
Contextlengte wordt gemeten in "tokens", waarbij een token ongeveer gelijk is aan een woord. Enkele voorbeelden:
- GPT-2: 1.024 lopers
- GPT-3: 2.048 lopers (in een nieuwe versie tot 16.000 lopers)
- PaLM: 65.536 tokens
- GPT-4: tot 32.000 tokens
- Claude: waarschijnlijk rond de 100.000 tokens
Een langere context vereist navenant meer rekenkracht en opslagruimte. Het is daarom een technische uitdaging om deze waarden verder te verhogen.
Drie opties voor het gebruik van dergelijke hulpmiddelen
Wie zulke tools wil gebruiken, heeft op dit moment drie opties:
- In de cloud. ChatGPT, Claude, maar ook beeldgeneratoren zoals MidJourney of Stable Diffusion kunnen worden gebruikt als software-as-a-service. Dit betekent dat de eigen gegevens worden verwerkt op de servers van de aanbieders. Afhankelijk van het soort informatie kan dit behoorlijk problematisch zijn. Tegelijkertijd moet je als gebruiker tevreden zijn met de interface en de mogelijkheden van het aanbod. Bedrijven als OpenAI, Microsoft, Google of Anthropic hebben hiervoor gespecialiseerde, bijzonder krachtige servers.
- Via een API. Vooral OpenAI biedt zijn interfaces actief aan. Niet alle AI-modellen zijn direct beschikbaar voor iedereen. Toch kunnen ze worden gebruikt om eigen toepassingen te implementeren of om apps van derden te gebruiken. De gegevensverwerking vindt hier nog steeds plaats op de servers van de AI-bedrijven. Waar en hoe het aanbod kan worden gebruikt, is in dit geval echter aanpasbaar.
- Op je eigen computer of server. Niet alleen gespecialiseerde computers zijn krachtiger geworden, maar ook algemeen verkrijgbare laptops, tablets en zelfs smartphones. Met moderne en goed uitgeruste apparaten kan dit voldoende zijn om tools zoals AI assistenten direct op de eigen computer te gebruiken. Deze zijn niet zo krachtig als de high-end applicaties in de cloud. Maar dat is niet altijd nodig. In plaats daarvan blijven de eigen gegevens van de gebruiker op de computer staan. Bovendien kan de software en het model worden gekozen op basis van de eigen behoeften. Een voorbeeld is LM Studio voor Windows en Macs, waarmee je taalmodellen zoals Meta's Llama-familie op je eigen pc kunt gebruiken.
Daarnaast is er op dit moment een andere trend waarvan ik denk dat die nog meer zal gaan voorkomen: AI-assistenten die geïntegreerd zijn in andere diensten. Voorbeelden zijn "Copilot" in Microsoft 365, Adobe's "Firefly", Bing Chat of Google's experimentele, AI-ondersteunde "Search Generative Experience" (SGE).
Grenzen van AI-tools
In volgende artikelen in deze serie zal ik je meer in detail laten zien hoe ik persoonlijk dergelijke diensten gebruik om onderwerpen te onderzoeken, ideeën en concepten te genereren en teksten en afbeeldingen te creëren.
Bij al het enthousiasme over de kansen en mogelijkheden die deze nieuwe hulpjes mogelijk maken: ze hebben grenzen waar je je bewust van moet zijn, en er is terechte kritiek.
Een dienst als ChatGPT heeft bijvoorbeeld geleerd om een taalkundig correct en zinnig klinkend antwoord te geven. Dat is de focus. De geldigheid van de genoemde feiten en cijfers daarentegen niet. Ze kunnen waar zijn of ze kunnen fictief zijn. Je moet de beweringen dus niet accepteren zonder ze te controleren.
Voor sommige taken zijn deze hulpmiddelen ook helemaal niet geschikt. Ze kunnen bijvoorbeeld vaak niet goed omgaan met getallen en berekeningen.
De providers proberen dit tegen te gaan. Aan de ene kant moeten de AI-assistenten worden opgeleid om eerlijker te zijn. Als ze iets niet precies weten, moeten ze dat duidelijk maken. Aan de andere kant heeft OpenAI plugins als optie toegevoegd: Hiermee heeft ChatGPT toegang tot gespecialiseerde tools en informatiebronnen voor bepaalde onderwerpen en taken. Bing Chat is een ander voorbeeld: het onderbouwt de bronnen van zijn antwoorden met links en maakt duidelijk wanneer het een stuk informatie niet kon vinden.
Bovendien reikt de kennis van een AI-assistent zoals ChatGPT of Claude vaak maar tot een bepaalde datum. Alles wat er sindsdien gebeurd is, is onbekend. Het trainingsproces van zo'n AI is zo uitgebreid en langdurig dat nieuwe informatie niet zomaar kan worden toegevoegd. Bij sommige onderwerpen moet je je hiervan bewust zijn.
Een ander probleem is bovendien dat een AI vooroordelen en verkeerde informatie die het in zijn trainingsgegevens heeft gevonden, kan verspreiden en dus versterken. De AI begrijpt immers niet wat hij daar doet. Het controleert en onderzoekt meestal ook niet.
Nog iets wat ik altijd mis bij AI assistenten in het dagelijks leven: ze leren me niet kennen en ze leren niet van eerdere gesprekken. Zoals hierboven beschreven is er een bepaalde contextlengte per chat. Maar de context eindigt sowieso bij de huidige chat. Als ik een nieuw gesprek begin, weet de AI-assistent niets over eerdere interacties. Mijn hoop is dat deze diensten in de toekomst nog persoonlijker worden. SHO.AI belooft zoiets.
Kritiek op de AI-tools
Een fundamenteel punt van kritiek op tools als ChatGPT voor teksten of Stable Diffusion voor afbeeldingen is het trainingsmateriaal. Zoals al beschreven zijn deze gegevens onmisbaar voor het leerproces. De auteurs werd echter vaak niet gevraagd of ze hun werk hiervoor beschikbaar wilden stellen of niet. Het feit dat AI-afbeeldingsgeneratoren de stijlen van kunstenaars kunnen imiteren, zorgde voor ophef. Is dat een geautomatiseerde inbreuk op het auteursrecht? Of is het vergelijkbaar met menselijke werken, die ook geïnspireerd en beïnvloed kunnen worden door het werk van anderen? Dit zijn spannende vragen die ons nog jaren zullen bezighouden.
Het debat hierover is soms verhit. Geen wonder: sommige kunstenaars zien zichzelf als onvrijwillige nietjeshouders voor een AI die hen in ruil daarvoor overbodig zou kunnen maken. En de bedrijven verdienen geld met een product dat hun werk gratis heeft afgenomen.
OpenAI biedt nu een optie om in ieder geval de inhoud van de eigen website te blokkeren voor dergelijke trainingsdoeleinden in de toekomst.
Dit roept ook de vraag op of de resultaten van dergelijke hulpmiddelen überhaupt gebruikt mogen worden. Ik sprak hierover met advocaat dr. Carsten Ulbricht. Zoals zo vaak het geval is, kan de vraag niet met een duidelijk ja of nee worden beantwoord.
Last but not least is de vraag of werken auteursrechtelijke bescherming genieten als ze afkomstig zijn van een AI en wie in dit geval als de auteur wordt beschouwd volledig open. Volgens sommigen is de maatstaf hier hoeveel werk de AI heeft gedaan en hoeveel de mens.
Conclusie over inhoud en AI
De AI-wereld heeft de afgelopen maanden een hype doorgemaakt. Zoals ik hopelijk in dit bericht heb kunnen laten zien, is het enthousiasme niet helemaal uit de lucht gegrepen. De vooruitgang is duidelijk merkbaar. De tools kunnen worden gebruikt voor alledaagse taken en kunnen een grote hulp zijn.
Dat gezegd hebbende, ze zijn niet perfect, ze maken fouten, ze reageren onverwacht of ze falen volledig in een taak (en kunnen dat zelfs ontkennen). Bovendien is er terechte kritiek op hoe deze hulpmiddelen werken en hoe ze hun vaardigheden hebben verworven.
Met deze punten in gedachten laat ik in het volgende deel van de serie zien hoe ik verschillende AI-tools gebruik voor creativiteit en productiviteit.
Jouw vragen over content en AI
Wat is jouw mening over kunstmatige intelligentie in de contentsector? Welke vragen staan nog open? Vertel het ons in de comments. Wil je op de hoogte blijven van verdere berichten over het onderwerp WordPress en WooCommerce ? Volg ons dan op LinkedInFacebook, Twitter of via onze nieuwsbrief.