Spring til indhold
Hjem » Det internet, vi kender, er snart fortid: Sådan kommer AI til at forandre internettet

Det internet, vi kender, er snart fortid: Sådan kommer AI til at forandre internettet

  • af

I artiklen her dykker vi ned i, på hvilke måder AI med overvejende sandsynlighed kommer til at forandre internettet gevaldigt i løbende af de kommende år. Ligeledes giver vi en række eksempler på, hvordan AI allerede har forandret internettet.

Siden ChatGPT blev lanceret i november 2022, har AI været ‘talk of the town’, og allerede nu har AI sat sit aftryk på adskillige områder, eksempelvis på jobmarkedet, men så sandelig også internettet.

Der kan dog ikke herske nogen tvivl om, at de påvirkninger, som AI med tiden kommer til at få på internettet, bliver endnu større end de forandringer, vi indtil videre har været vidne til, og i løbet af denne her artikel finder du kvalificerede bud på, hvordan AI kommer til at forandre internettet radikalt i fremtiden.

Inden vi kigger i krystalkuglen, kaster vi dog lidt lys over, hvordan AI allerede har påvirket internettet.

Indholdsfortegnelse

Allerede nu har en del online-indhold AI som enten hoved- eller medskaber

I løbet af de seneste år er der blevet lanceret adskillige AI’er, der kan udarbejde tekst-, billed- og videoindhold på et relativt højt niveau, og da AI’er er både yderst effektive, relativt billige at benytte sig af og ikke bliver udmattede eller trætte som os mennesker, har vi – ikke så overraskende – været vidne til en udvikling, hvor en større og større andel af det indhold, der produceres til online-platforme, enten har en eller flere AI’er som hoved- eller medskaber(e). 

Dette dokumenteres i adskillige studier, blandt andet et, der hævder, at mængden af AI-indhold på den store artikel- og blogplatform Medium har været voldsomt stigende siden 2022. Det samme gør sig gældende for indholdet på platformen Quora. 

Disse platforme er naturligvis ikke de eneste, der bugner med indhold, der enten er produceret af eller i samarbejde med en eller flere AI’er.

Derfor er der også overvejende stor sandsynlighed for, at en eller flere AI’er har været med- eller hovedskaber(e) af noget af det indhold, du konsumerer, når du læser nyhedsartikler, produktanmeldelser, LinkedIn-opslag, blogartikler samt Reddit-kommentarer, eller sågar når du ser videoer og/eller billeder på sociale medier.  

Den type content  – altså video- og billedindhold – kan AI’er – som vi også allerede har bemærket en gang – nemlig også producere, og faktisk findes der allerede nu generative AI’er, der kan kreere video- og billedindhold på et så højt niveau, at indholdet forekommer ekstremt virkelighedstro; dette har blandt andet ført til, at flere personer og virksomheder har haft succes med at skabe populære AI-influencere, altså influencere, der ikke er ægte, men som derimod er skabt ved hjælp AI’er, der kan kreere billed- og videoindhold. 

Hvad er generativ AI?

Generativ AI refererer til kunstig intelligens, der kan skabe nyt indhold, såsom tekst, billeder, videoer eller musik, baseret på mønstre og strukturer lært fra enorme datamængder. 

Eksempler på generative AI’er inkluderer avancerede sprogmodeller som ChatGPT, der genererer menneskelignende tekst, og billedgeneratorer som Midjourney, der skaber realistiske billeder med afsæt tekstbeskrivelser – såkaldt prompts.

Flere af disse AI-influencere er – målt på antallet af følgere – blevet ganske succesfulde, og man skal som regel have et virkelig skarpt syn, hvis man – med afsæt i det billed- og video-materiale, man finder på disse influenceres profiler – skal være i stand til at afkode, at der ikke er tale om ægte mennesker.

Et eksempel på en af de succesfulde influencere – der er skabt ved hjælp af AI – er den virtuelle model, Aitana Lopez, der er skabt af modebureauet The Clueless, og som i skrivende stund (marts 2025) har mere end 350.000 følgere på Instagram.

Mere og mere online-indhold kommer i fremtiden til at blive skabt med hjælp fra AI

I takt med at de forskellige generative AI’er forbedres og forfines, og der kommer flere AI’er til, er det kun realistisk, at en endnu større mængde af det indhold, der i fremtiden bliver udgivet online, kommer til at være skabt af eller i samarbejde med en eller flere AI’er.

Måden, hvorpå flertallet informationssøger online, kommer sandsynligvis til at forandre sig

I mange år har langt de fleste af søgt ny viden og information online på følgende måde:

  • Vi har indtastet en forespørgsel eller et spørgsmål på Google eller en anden søgemaskine.
  • Derefter har vi besøgt en eller flere af de søgeresultater, som søgemaskinen har præsenteret os for, og via disse har vi forhåbentligt fundet svar på vores spørgsmål/forespørgsel.

Med fremkomsten af sprogmodeller som ChatGPT og Germini er det blevet muligt at effektivisere ovenstående informationssøgningsproces.

Disse sprogmodeller er nemlig i stand til at besøge de forskellige relevante kilder, som en traditionel søgemaskine vil foreslå brugeren at tjekke, efter denne har indtastet en forespørgsel; og sprogmodellerne er ikke blot i stand til at besøge kilderne, de er også i stand til at “læse samt forstå” indholdet fra dem, og – med afsæt i det af kildernes indhold, som modellerne anser som værende det bedste og mest relevante – kreere ekstremt målrettede og præcise svar.

Her ses et eksempel på en søgning på ChatGPT, hvor ChatGPT har besøgt en række forskellige kilder i form af hjemmesider med henblik på at levere et præcist, målrettet svar på vores forespørgsel.

At AI-teknologi muliggør, at online informationssøgning kan forbedres og effektiviseres, er også noget, som verdens største søgemaskine Google har erkendt, hvorfor denne i løbet af de seneste år har eksperimenteret med forskellige AI-tiltag, hvor det mest bemærkelsesværdige er, at søgemaskinen i en række lande har introduceret AI-svar til de søgeforespørgsler, hvor søgemaskinen vurderer, at netop et AI-svar er det, der bringer mest værdi for den søgende. 

Helt konkret betyder dette, at Google – i nogle lande – ved en række søgeforespørgsler – ved hjælp af AI – genererer et målrettet, præcis svar, som er en sammenfatning af pointer og indhold fra adskillige forskellige kilder.

Her ses et eksempel på et AI-svar på Google.

Der er umiddelbart ingen tvivl om, at søgning, der involverer AI på den måde, som vi netop har beskrevet, er mere effektivt og brugervenligt for forbrugeren. I hvert fald når den type søgninger fungerer upåklageligt, og svaret altid er faktuelt korrekt, hvilket ikke er tilfældet endnu, men det vender vi tilbage til senere.

Lige nu vil vi dog nøjes med at konstatere, at det ikke er en voldsomt fjern tanke, at vi i fremtiden i mange tilfælde kommer til at få vores information serveret via ganske få platforme, eksempelvis ChatGPT.

Der er dog en række instanser, der ser en fremtid, hvor dette er tilfældet, som et skrækscenarium, og disse vil uden tvivl gøre, hvad de kan for at forhindre og forsinke, at vores forudsigelser bliver til virkelighed.

Derudover kommer vi heller ikke udenom, at der knytter sig adskillige problemer til AI på det udviklingsstadie, vi befinder os på lige nu. Problemer, der gør, at det i dag vil være decideret uforsvarligt at, helt ukritisk, foretage samtlige af sine videns- og informationssøgninger via ChatGPT eller en anden sprogmodel.

Begge dele er noget, som vi vil kaste lys over i løbet af de kommende afsnit.

Indholdsudgivere vil forsøge at forhindre, at det scenarie, vi har beskrevet, bliver til virkelighed

Ifølge en artikel på Business Insider foretages der hvert år mere end 5 billioner Google-søgninger, hvilket svarer til 13,7 millarder søgninger dagligt. 

Det er klart, at det ikke er samtlige af disse søgninger, der resulterer i trafik til indholdsudgivere, da Google allerede nu i mange sammenhænge serverer svar på søgeforespørgsler direkte i søgemaskinens interface, hvilket hyppigt resulterer i de såkaldt zero click-searches.

Her ses et eksempel på en søgeforespørgsel, hvor Google leverer svaret direkte i SERP'en (Search Engine Result Page)

Hvor om alting er, så leverer Google stadigvæk uhørt meget organisk trafik til alverdens hjemmesider, og en anseelig mængde forretninger, der opererer helt eller delvist online, er afhængige af den mængde organiske Google-trafik, de får, hvis de skal forblive bæredygtige. 

Derfor ser indholdsudgivere – ikke så overraskende – som regel skævt til initiativer og udviklinger, der med al sandsynlighed fører til markante fald i mængden af organisk trafik fra Google og andre søgemaskiner. 

Derfor er mange indholdsudgivere da naturligvis ej heller synderligt positivt stemte over for en udvikling, hvor sprogmodeller ender med at levere så gode og grundige svar, at de informationssøgende sjældent ender klikker sig videre fra disse sprogmodeller, hvilket vi vender tilbage til. 

Først ønsker vi dog at komme med en række konkrete eksempler på, hvor meget organisk trafik Google leverer til en række større danske medier med henblik på at illustrere, hvor meget der er på spil for disse medier, der med al sandsynlighed kigger ind i en fremtid, hvor centralisering af information kommer til at føre til væsentligt mindre trafik fra søgemaskinerne.

Jævnfør SEMrush, som er et SEO-værktøj, hvor man blandt andet kan få ganske præcise estimater for den mængde organisk trafik, som et website får via Google, anslås det, at EkstraBladet.dk hver måned får 7,6 millioner besøg, mens Politiken.dk får næsten 1 million besøg. 

EkstraBladet.dk’s konkurrent, BT.dk, får næsten 7 millioner besøg hver måned, mens DR.dk får 7,6 millioner besøg månedligt.

Ovenstående tal stammer fra marts 2025, og det er vigtigt at understrege, at tallene altså udelukkende refererer til estimerede besøg direkte fra Googles organiske søgeresultater. 

Samlet set er sidernes antal besøg naturligvis endnu højere, da samtlige sites med garanti får en masse direkte besøg, ligesom de får adskillige besøg via kanaler som Facebook og Instagram.

Og lad os så – som lovet – vende tilbage til den ulmende frustration og utilfredshed, der efterhånden kan spores blandt en væsentligt andel udgivere, som begynder at se skriften på væggen. 

Inden vi giver eksempler på en række konkrete udgivere, der er gået til kamp mod Google og udviklingen generelt, skal vi dog lige have banen kridtet op og understreget den potentielle problematik.

Hvis vores forudsigelser omkring måden, hvorpå flertallet kommer til at informationssøge i fremtiden, viser sig at holde stik, altså at vi ender et sted, hvor flertallet får stort set alle deres søgeforespørgsler besvaret via AI-sammenfatningssvar hos eksempelvis ChatGPT eller sidestykker hertil, kommer dette uden tvivl til at føre til et markant fald i trafik for rigtig, rigtig mange indholdsudgivere – særligt de udgivere, der tidligere har fået mange besøg via søgemaskinerne.

Selvom sprogmodellerne ofte kildehenviser, er det nemlig – hvilket vi vil dokumentere senere – urealistisk, at synderligt mange klikker sig videre til disse kilder, da AI-svaret ofte vil være tilstrækkeligt tilfredsstillende og udtømmende for spørgeren.

Google påstår godt nok, at AI-svar fører til flere klik, men…

Som vi tidligere har bemærket, integrerer Google – i en række lande – sommetider AI-svar i søgeresultaterne, og i relation hertil er det værd at bemærke, at Google faktisk har hævdet, at de kilder, der bruges til at generere AI-svar, og som fremgår i AI-svar, får flere klik, end hvis de selvsamme kilder var blevet præsenteret via traditionelle søgeresultater.

Dette lyder jo lovende, og positivt for indholdsudgivere men vores medindehaver, Jesper Nørskov Jensen, der har arbejdet professionelt med SEO i snart ti år, kalder ‘bullshit’ og giver ikke meget for Googles udmelding.

“I løbet af den tid, jeg har beskæftiget mig med SEO, er Google blevet taget i at lyve enormt mange gange, og denne her udmelding er i min optik blot endnu et eksempel på Googles lemfældige omgang med sandheden. Allerede nu er der lavet adskillige studier, der kaster lys over konsekvenserne af AI-svar i søgeresultaterne, og billedet er entydigt negativt set med udgiver-briller,” forklarer Jesper Nørskov Jensen og fortsætter:

“AI-svar får nemlig – hvilket på ingen måde er overraskende – klikraterne til at falde drastisk. Dette hænger naturligvis sammen med, at den søgende typisk får besvaret sin forespørgsel tilfredsstillende via et AI-svar og derfor ikke har behov for at besøge de kilder, der er blevet brugt til udarbejdelsen af svaret,” fortæller Jesper Nørskov Jensen, inden han afslutter:

“Når Google – af udgivere og andre instanser – bliver bedt om at dele tal, der dokumenterer den omtalte påstand, afviser Google da også konsekvent, hvilket blot styrker min mistanke om, at der er lige så meget sandhedsværdi i Googles udmelding, som der var i i Rudy Frederiksens påstand om, at han blot var i færd med at optage en musikvideo med nogle meget unge piger.”

Udover at der findes studier, der dokumenterer et sammenfald mellem faldende klikrater og hyppigere AI-svar i søgeresultaterne, begynder flere og flere udgivere at udtrykke utilfredshed med udviklingen, og nogle nøjes ikke med at råbe op, men går i stedet så vidt, at de sagsøger de virksomheder, der benytter sig af eller driver AI-sprogmodeller. 

Dette så vi et eksempel på i feburar 2025, hvor Chegg sagsøgte Google med en påstand om, at AI-svar havde skadet Cheggs trafik og indtjening.

Derudover lagde New York Times i 2024 sag an mod ChatGPT grundet krænkelse af ophavsret, og det er ikke nogen hemmelighed, at en tilbagevendende diskussion er, om sprogmodellerne bør anses som plagitatorer.

Man skal vist også være indehaver af en sprogmodel, hvis ikke man anerkender det problematiske i, at sprogmodellerne er blevet trænet på uhørt meget indhold, som de ikke fået tilladelse til at blive trænet på.

Sprogmodeller er afhængige af indholdsudgivere for at forblive gode

Som sagt er der en risiko for, at sprogmodeller med tiden bliver så gode til at organisere og servere viden, så de kilder, der danner grundlag for den viden, som sprogmodellerne serverer, med tiden kommer til at opleve et markant fald i trafik, da kilderne ikke længere vil få besøg i samme omfang som tidligere via de traditionelle søgemaskiner. 

Mindre trafik betyder med al sandsynlighed mindre omsætning for indholdsudgiverne, og for nogle indholdsudgivere vil en fremtid, som vi har beskrevet, med al sandsynlighed føre til et så stort omsætningstab, at nogle indholdsudgiveres forretninger ikke længere vil være bæredygtige. 

Sker dette, stopper de berørte indholdsudgivere med at generere nyt indhold, hvilket på sigt vil blive problematisk for sprogmodellerne. For at forstå hvorfor, er det nødvendigt at forstå, hvordan en sprogmodel fungerer.

Hvordan fungerer en sprogmodel?

En stor sprogmodel, som eksempelvis ChatGPT, er et avanceret AI-system, der er designet til at forstå og generere menneskelignende tekst. ChatGPT – og andre store sprogmodeller – er trænet på enorme mængder tekstdata fra forskellige kilder som bøger, artikler og websteder, og denne træning danner grundlag for, at sprogmodellerne er i stand til at forstå nuancerne i sprog, grammatik og kontekst.

Under træningen lærer sprogmodellerne at forudsige det næste ord i en sætning baseret på de foregående ord. Ved at minimere fejl i disse forudsigelser over store mængder tekst, udvikler modellerne en dyb forståelse af sprogstrukturer og kan udføre opgaver som at besvare spørgsmål, opsummere tekster og oversætte mellem sprog. 

Godt så…

Dette betyder altså, at en sprogmodel aldrig vil være bedre end det indhold, som modellen trænes på. Hvis en sprogmodel eksempelvis ikke er trænet på indhold om EM-sejren i 1992, vil sprogmodellen af gode grunde ej heller kunne besvare spørgsmål herom. Sprogmodellen vil sandsynligvis prøve, men svarene vil være forkerte.

Bliver det fremtidsscenarie, hvor sprogmodeller i langt de fleste tilfælde bliver endestationen, når flertallet informationssøger, fører dette med al sandsynlighed til markante trafikfald for de indholdsudgivere, hvis indhold sprogmodellerne trænes på, og markante trafikfald for udgivere generelt fører – som vi tidligere har været inde på – til omsætningstab i et sådant omfang, at nogle indholdsudgivere ikke længere vil have råd til at producere indhold i fremtiden.

Dette vil føre til, at mængden af godt indhold, der behandler aktuelle forhold og emner, med tiden vil dale, hvilket selvsagt vil være kritisk for kvaliteten af de svar, som sprogmodellerne vil kunne levere.

Med andre ord er sprogmodellerne altså afhængige af, at der fremover bliver skabt godt kvalitetsindhold fra udgivere. Derfor er det nærliggende at forestille sig, at de virksomheder, der driver de store sprogmodeller, formentligt befinder i lidt af et dilemma. 

Bliver sprogmodellerne så gode til at finde, organisere og servere viden for deres brugere, så brugerne meget sjældent ender med at klikke sig videre til kilderne, risikerer sprogmodellerne at spise af den hånd, som fodrer dem.

Du kan ikke altid stole på sprogmodellerne

Tidligere bemærkede vi, at der på det udviklingsstadie, som AI-sprogmodellerne befinder sig på lige nu, knytter sig nogle udfordringer til disse, der gør, at du bestemt ikke helt ukritisk bør udføre alle dine informationssøgninger på disse sprogmodeller. I hvert fald ikke uden at eftertjekke de svar, som sprogmodellerne giver dig. 

Den primære årsag hertil er, at sprogmodellerne stadigvæk den dag i dag hallucinerer fra tid til anden. Med andre ord kan sprogmodellerne altså finde på at komme med deciderede usandheder.

Af denne grund fik Google da også rigtig meget kritik, da søgemaskinen lancerede AI-svar som en del af søgemaskinen i en række lande, og siden lanceringen er der blevet delt et utal af eksempler på komiske, usande og farlige AI-svar.

Eksempelvis er der blevet delt et eksempel, hvor Google via sit AI-svar foreslår, at man kommer lim på sin pizza, ligesom der er blevet delt et eksempel, hvor Google hævder,  at blindtarmsbetændelse kan behandles derhjemme ved at koge lidt mynteblade og med en fiberrig kost.

Her ses et eksempel på, at Google foreslår, at man kommer lim på pizzaen, hvis man vil undgå, at osten glider af.

Det bliver sværere at navigere i, hvad der er virkeligt, og hvad der ikke er

At sprogmodeller fra tid til anden hallucinerer og dermed ikke altid er pålidelige er en glimrende bro til det sidste afsnit i artiklen her, hvor vi vil fokusere på, at AI formentlig kommer til at forårsage, at det bliver sværere at navigere i, hvad der er sandt, og hvad der ikke er sandt på internettet. 

Allerede nu findes der generative AI’er, der kan levere billed- og videoindhold på et niveau, hvor man skal være fagmand for at kunne identificere, at der er tale om falsknerier. 

Et godt eksempel herpå er en AI-video af Morgan Freeman, der så dagens lys for mere end to år siden. 

Personen i denne video både ligner og lyder som Morgan Freeman, men  er ikke Morgan Freeman. Det er i stedet en Morgan Freeman-duplikat skabt ved hjælp af AI.

De generative AI’er, der kan kreere billed- og videoindhold, bliver bedre og bedre, og derudover mere og mere tilgængelige, hvorfor det på alle tænkelige måder er en plausibel tanke, at internettet i fremtiden bliver oversvømmet af falske nyhedsvideoer og deslige. 

Sådan tjener vi penge

Vores forretningsmodel baserer sig på noget, der kaldes affiliate-marketing.

Helt konkret betyder det, at vi tjener penge via henvisningskommissioner, hvilket med andre ord betyder, at vi tjener penge, hvis en besøgende bestiller internet hos en af de udbydere, vi fremhæver, efter at have klikket på et af vores links.

At vi er et kommercielt foretagende betyder dog ikke, at du ikke kan stole på os. Intet er nemlig vigtigere for os end at rådgive vores besøgende så godt og reelt som overhovedet muligt, og derfor har vi også søsat en række initiativer, som sikrer, at kommercielle interesser aldrig kommer til at influere negativt på vores evne til at rådgive reelt og oprigtigt.

Det mest bemærkelsesværdige initiativ i den sammenhæng er, at vi holder vores kommercielle afdeling adskilt fra vores content-afdeling. 

Med det menes, at vores content-afdeling ikke har indsigt i betingelserne for vores kommercielle partnerskaber, hvorfor denne afdeling altid vil være 100 % oprigtig og ærlig, når den eksempelvis anmelder og beskriver en internetudbyder.

Et overblik over vores samarbejdspartnere

Hos NetTjek24.dk vægter vi gennemsigtighed yderst højt, og derfor lægger vi ej heller skjul på over for vores besøgende, hvilke udbydere vi har kommercielle aftaler med. 

Herunder har vi samlet en oversigt netop disse udbydere:

Fastspeed, Fibia, Velkommen, Kviknet, YouSee, Ewii, Hiper, AURA, Telia, Jet-Net, Norlys, Telenor, Airbox, Oister, 3, CBB og Altibox.