ChatGPT och liknande verktyg har orsakat mycket uppståndelse under de senaste månaderna. De kan vara till stor hjälp, inte minst när det gäller att skapa innehåll. Samtidigt bör man vara medveten om verktygens begränsningar och förstå hur man uppnår särskilt goda resultat.
I den här artikeln förklarar jag varför den nya generationens AI-erbjudanden är så mycket bättre. Det är början på en serie om ämnet. Ämnet artificiell intelligens har gått igenom faser av överflöd och nedstämdhet i årtionden nu.
Elon Musks förutsägelser om autonoma fordon är välkända här: under en tid gjorde området snabba framsteg. Datorstyrda taxibilar och bussar verkade vara inom räckhåll. Men förbättringskurvan planade snart ut och nu har prognoserna på detta område blivit mycket mer försiktiga. I det avseendet har jag vant mig vid en sund skepsis när det gäller sådana hype-ämnen.
Men med ChatGPT flög det snabbt ut genom fönstret. När jag kunde prova den för första gången blev jag lika förvånad som glad: denna "chatbot" fungerade äntligen på det sätt som dess många föregångare bara hade lovat. Det var nästan kusligt.

ChatGPT svarar på frågor på ett otroligt mänskligt sätt. Och den verkar ha ett svar på varje fråga - eller flera. Den anpassar dynamiskt typ, längd och komplexitet på utdata baserat på min input. Den förstår sammanhanget i konversationen och kan dra nytta av frågor och fakta som har tagits upp tidigare. Den bearbetar långa och komplexa inmatningar med liten fördröjning. Och den förstår och svarar även på tyska.
Otroligt kraftfull textgenerator
Det stod snabbt klart att ChatGPT inte bara är en kraftfull AI-assistent, utan också en AI-textgenerator.
Mina tidigare försök med verktyg av det här slaget hade alltid varit stora besvikelser. Produkterna kunde aldrig hålla vad de lovade i marknadsföringen. De var kanske lämpliga för att stimulera idéer. Man kunde få ut lite av varje ur vissa av dem. Men texterna var sällan användbara som helhet.
Det är annorlunda nu med ChatGPT och dess varianter och konkurrenter: Rätt använda kan de inte bara ge idéer, utan också ett heltäckande koncept och åtminstone ett bra första utkast.
"*" visar obligatoriska fält
Som någon som ägnar en stor del av sitt levebröd åt att skriva och redigera, hatar jag att säga detta: vad ChatGPT levererar är ofta i nivå med vad jag har sett från mänskliga skribenter. Ibland är det till och med bättre.
Men begränsningarna och de speciella egenskaperna hos dessa nya AI-verktyg blir också tydliga efter intensiva tester. Mer om detta nedan.
Hur blev denna utveckling möjlig?
Men hur var detta plötsliga kvalitetssprång överhuvudtaget möjligt? Tre punkter brukar nämnas:
- Utbildningsdata: Dagens AI-modeller lär sig av befintligt innehåll (text, bilder, ljud, kod etc.). Mängden data som redan finns tillgänglig digitalt har ökat snabbt, vilket underlättar träningen enormt.
- Beräkningskraft: Specialiserade datorer och komponenter har kraftigt påskyndat utbildningsprocesserna och möjliggör större och mer komplexa modeller.
- algoritmer: Sist men inte minst har det skett viktiga framsteg under motorhuven. Metoden "Transformer" anses till exempel vara en viktig anledning till att AI kan förstå och generera texter så mycket bättre idag än för några år sedan.
Det är också imponerande att se hur många "parametrar" språkmodellerna har fått under de senaste åren. Fler parametrar gör att modellen kan koda in mer kunskap och hantera mer komplexa uppgifter:
- 2019, GPT-2: 1,5 miljarder parametrar
- 2020, GPT-3: 175 miljarder parametrar
- 2022, PaLM: 540 miljarder parametrar
- 2022, GPT-4: cirka 1 biljon parametrar
- 2022. Claude: cirka 10 biljoner parametrar
Dessa siffror är fascinerande, men mer komplexa modeller är inte alltid automatiskt överlägsna eller det bättre valet. En aktuell trend är att träna modeller mer specifikt för vissa uppgifter och anpassa dem därefter. Därför kan man förvänta sig att det, förutom allmänna verktyg, kommer att finnas allt fler erbjudanden som är avsedda för ett tydligt definierat syfte.
Modeller som dessutom tränas med individuella data är också spännande i detta sammanhang: Företag kan till exempel mata in alla sina dokument i ett sådant system för att få svar dynamiskt.
Ett annat intressant mått som på senare tid har hamnat mer i rampljuset är kontextlängden. Ju större detta värde är, desto mer innehåll i en konversation kan verktyget inkludera. Mer kontext hjälper alltså AI:n att föra längre chattar, men också att bearbeta större inmatningar.
Beroende på användningsområde kan detta göra stor skillnad när ett erbjudande som Anthropics Claude till exempel bearbetar och analyserar hela böcker inom några sekunder.
Kontextens längd mäts i "tokens", där en token ungefär motsvarar ett ord. Några exempel:
- GPT-2: 1 024 tokens
- GPT-3: 2 048 tokens (i en ny version upp till 16 000 tokens)
- PaLM: 65,536 tokens
- GPT-4: upp till 32 000 tokens
- Claude: förmodligen runt 100 000 tokens
En längre kontext kräver motsvarande mer datorkraft och lagringsutrymme. Det är därför en teknisk utmaning att ytterligare öka dessa värden.
Tre alternativ för att använda sådana verktyg
De som vill använda sådana verktyg har för närvarande tre huvudalternativ:
- I molnet. ChatGPT, Claude, men även bildgeneratorer som MidJourney eller Stable Diffusion kan användas som software-as-a-service. Det innebär att ens egna data bearbetas på leverantörernas servrar. Beroende på vilken typ av information det rör sig om kan detta vara ganska problematiskt. Samtidigt måste du som användare vara nöjd med gränssnittet och alternativen i erbjudandet. Företag som OpenAI, Microsoft, Google eller Anthropic har specialiserade, särskilt kraftfulla servrar för detta.
- Via ett API. I synnerhet OpenAI erbjuder aktivt sina gränssnitt. Alla AI-modeller är inte omedelbart tillgängliga för alla. De kan dock antingen användas för att implementera egna applikationer eller för att använda appar från tredje part. Databehandlingen här sker fortfarande på AI-företagens servrar. Var och hur erbjudandet kan användas är dock anpassningsbart i detta fall.
- På din egen dator eller server. Inte bara specialdatorer har blivit kraftfullare, utan även vanliga laptops, surfplattor och till och med smartphones. Med moderna och lämpligt utrustade enheter kan detta vara tillräckligt för att använda verktyg som AI-assistenter direkt på den egna datorn. Dessa är inte lika kraftfulla som de avancerade applikationerna i molnet. Men det är inte alltid nödvändigt. Istället finns användarens egna data kvar på datorn. Dessutom kan man välja programvara och modell efter sina egna behov. Ett exempel är LM Studio för Windows och Mac, med vilken du kan använda språkmodeller som Metas lamafamilj på din egen dator.
Dessutom finns det för närvarande en annan trend som jag tror kommer att bli ännu vanligare: AI-assistenter som integreras i andra erbjudanden. Exempel på detta är "Copilot" i Microsoft 365, Adobes "Firefly", Bing Chat eller Googles experimentella, AI-stödda "Search Generative Experience" (SGE).
Gränser för AI-verktyg
I kommande artiklar i den här serien kommer jag att berätta mer om hur jag själv använder sådana tjänster för att undersöka ämnen, generera idéer och koncept samt skapa texter och bilder.
Trots all entusiasm för de möjligheter som dessa nya små hjälpredor ger: de har begränsningar som du bör vara medveten om, och det finns berättigad kritik.
En tjänst som ChatGPT, till exempel, har lärt sig att ge ett språkligt korrekt och förnuftigt klingande svar. Det är det som står i fokus. Det är däremot inte giltigheten i de fakta och siffror som nämns. De kan vara sanna eller så kan de vara fiktiva. Du bör därför inte acceptera påståendena utan att kontrollera dem.
I vissa uppgifter är dessa verktyg också helt ute på djupt vatten. Till exempel kan de ofta inte hantera siffror och beräkningar på ett bra sätt.
Leverantörerna försöker motverka detta. Å ena sidan ska AI-assistenterna utbildas så att de blir mer ärliga. Om de inte vet något exakt bör de klargöra detta. Å andra sidan har OpenAI lagt till plugins som ett alternativ: På så sätt kan ChatGPT få tillgång till specialverktyg och informationskällor för vissa ämnen och uppgifter. Bing Chat är ett annat exempel: den underbygger källorna till sina svar med länkar och gör det tydligt när den inte kunde hitta en del av informationen.
Dessutom sträcker sig kunskapen hos en AI-assistent som ChatGPT eller Claude ofta bara fram till ett visst datum. Allt som har hänt sedan dess är okänt. Utbildningsprocessen för en sådan AI är så komplicerad och lång att ny information inte bara kan läggas till. Du måste vara medveten om detta för vissa ämnen.
Ett annat problem är att en AI kan sprida och därmed förstärka fördomar och felaktig information som den har hittat i sina träningsdata. AI:n förstår ju inte vad den gör där. Vanligtvis gör den inte heller några kontroller eller efterforskningar.
Det jag också saknar ibland med AI-assistenter i vardagen: de lär inte känna mig och de lär sig inte av tidigare konversationer. Som beskrivits ovan finns det en viss kontextlängd per chatt. Men kontexten slutar i vilket fall som helst med den aktuella chatten. Om jag startar en ny konversation vet AI-assistenten ingenting om tidigare interaktioner. Min förhoppning är att dessa tjänster kommer att bli ännu mer personliga i framtiden. SHO.AI lovar något i den stilen.
Kritik av AI-verktygen
En grundläggande kritik mot verktyg som ChatGPT för texter eller Stable Diffusion för bilder är utbildningsmaterialet. Som redan beskrivits är dessa data oumbärliga för inlärningsprocessen. Författarna tillfrågades dock ofta inte om de ville göra sina verk tillgängliga för detta ändamål eller inte. Det faktum att AI-bildgeneratorer kan imitera konstnärers stilar väckte uppståndelse. Är det ett automatiserat upphovsrättsintrång? Eller är det jämförbart med mänskliga verk, som också kan inspireras och påverkas av andras verk? Det här är spännande frågor som kommer att följa oss under många år framöver.
Debatten om detta är ibland hätsk. Inte så konstigt: vissa konstnärer ser sig själva som ofrivilliga klammerhållare för en AI som i gengäld kan göra dem överflödiga. Och företagen tjänar pengar på en produkt som har tagit deras arbete gratis.
OpenAI erbjuder nu ett alternativ för att åtminstone blockera innehållet på den egna webbplatsen för sådana utbildningssyften i framtiden.
Detta väcker också frågan om resultaten av sådana verktyg överhuvudtaget får användas. Jag talade med advokaten Dr Carsten Ulbricht om detta. Som så ofta är fallet kan frågan inte besvaras med ett tydligt ja eller nej.
Sist men inte minst är frågan om huruvida verk åtnjuter upphovsrättsligt skydd när de härrör från en AI och vem som betraktas som upphovsman i detta fall helt öppen. Enligt vissa är måttstocken här hur mycket arbete AI:n har gjort och hur mycket människan har gjort.
Slutsats om innehåll och AI
AI-världen har upplevt en boom och hype under de senaste månaderna. Som jag hoppas att jag har kunnat visa i det här inlägget är entusiasmen inte helt tagen ur luften. Framstegen är tydligt märkbara. Verktygen kan användas för vardagliga uppgifter och kan vara till stor hjälp.
Med allt detta sagt är de inte perfekta, de gör misstag, de reagerar oväntat eller de misslyckas helt med en uppgift (och kan till och med förneka det). Dessutom finns det berättigad kritik mot hur dessa verktyg fungerar och hur de har förvärvat sina färdigheter.
Med dessa punkter i åtanke visar jag i nästa del av serien hur jag använder olika AI-verktyg för kreativitet och produktivitet.
Dina frågor om innehåll och AI
Vad anser du om artificiell intelligens inom innehållssektorn? Vilka frågor är fortfarande öppna? Berätta för oss i kommentarerna. Vill du bli informerad om ytterligare inlägg om ämnet WordPress och WooCommerce ? Följ oss då på LinkedInFacebook, Twitter eller via vårt nyhetsbrev.