Du har publiceret en side. Den ligger på dit website. Men den dukker ikke op i Google. Det er et indekseringsproblem. Og det er mere almindeligt, end du tror.
Hvad er indeksering?
Indeksering er den proces, hvor Google tilføjer en side til sin database (indekset). Kun sider i indekset kan vises i søgeresultaterne. Hvis din side ikke er indekseret, eksisterer den ikke i Googles øjne.
Crawling vs. indeksering vs. ranking
De tre begreber forveksles ofte. Her er forskellen:
- Crawling. Googlebot besøger din side og læser indholdet. Det er opdagelse.
- Indeksering. Google beslutter at gemme siden i sit indeks. Det er godkendelse.
- Ranking. Google vurderer, hvor siden skal placeres for specifikke søgninger. Det er konkurrence.
En side kan blive crawlet uden at blive indekseret. Og en side kan blive indekseret uden at ranke synligt. Hvert trin er en forudsætning for det næste.
Typiske årsager til at sider ikke indekseres
1. Noindex-tag
Den mest direkte årsag. Hvis din side har denne meta tag, beder du eksplicit Google om IKKE at indeksere den:
<meta name="robots" content="noindex">
Tjek din sides kildekode. Tjek også dine HTTP-headers for X-Robots-Tag: noindex. Mange CMS’er (især WordPress med plugins som Yoast) kan sætte noindex utilsigtet.
2. Robots.txt blokering
Hvis din robots.txt blokerer Googlebot fra at crawle en URL, kan den ikke indekseres. Tjek din robots.txt for disallow-regler der rammer dine vigtige sider.
User-agent: Googlebot
Disallow: /blog/
Den regel ville blokere hele din blog fra crawling. Tjek altid din robots.txt i Google Search Console under “Settings” > “robots.txt”.
3. Crawl budget problemer
Google allokerer et begrænset crawl budget til hvert website. Hvis dit site har tusindvis af URL’er med lav kvalitet (filtersider, pagineringssider, parameterbaserede URL’er), kan Google bruge budgettet på dem i stedet for dine vigtige sider.
Løsningen er at rydde op. Fjern eller noindex lavkvalitets-sider, så Google kan fokusere på det vigtige indhold.
4. Lav indholdskvalitet
Google indekserer ikke alt. Hvis en side har tyndt indhold, duplikeret tekst eller ingen unik værdi, kan Google vælge at springe den over. Det hedder “Crawled – currently not indexed” i Search Console.
Det er Googles måde at sige: “Vi har set din side. Vi syntes ikke den var god nok til at beholde.”
Løsningen er at forbedre indholdet markant. Tilføj dybde, unikke perspektiver og reel værdi. Eller overvej om siden overhovedet skal eksistere. Content pruning kan hjælpe med at fjerne sider der trækker dit site ned.
5. Canonical-problemer
Hvis din side har en canonical tag der peger på en anden URL, fortæller du Google, at den anden side er den “rigtige” version. Google vil indeksere canonical-URL’en og ignorere din side.
<link rel="canonical" href="https://example.com/den-anden-side/">
Tjek at dine canonical tags peger på de rigtige sider. Selv-refererende canonicals (der peger på sig selv) er best practice.
6. Interne links mangler
Hvis en side ikke har nogen interne links der peger på den, er den en “orphan page”. Google har svært ved at finde og prioritere sider uden interne links. Sørg for, at alle vigtige sider er linket fra mindst én anden side på dit website.
7. Siden er for ny
Google crawler ikke dit site i realtid. Det kan tage dage til uger, før en ny side bliver opdaget og indekseret. Tålmodighed er en del af processen. Men du kan fremskynde den (se næste afsnit).
Sådan løser du indekseringsproblemer
Trin 1: Tjek status i Google Search Console
Brug URL Inspection Tool i Google Search Console. Indsæt den problematiske URL og se:
- Er siden crawlet?
- Er den indekseret?
- Hvad er statussen? (“Discovered”, “Crawled – not indexed”, “Excluded by noindex”, osv.)
- Er der en canonical, der peger andetsteds?
Trin 2: Identificer og fjern blokeringer
Baseret på GSC-dataen, fjern den relevante blokering:
- Fjern noindex-tags
- Opdater robots.txt
- Ret canonical tags
- Tilføj interne links
Trin 3: Anmod om indeksering
I URL Inspection Tool kan du klikke “Request Indexing”. Det sender siden til Googles prioritetskø. Det er ikke en garanti, men det fremskynder processen.
Du kan også submitte et sitemap i GSC under “Sitemaps”. Sørg for at dit sitemap kun indeholder sider, du faktisk vil have indekseret.
Trin 4: Monitorer
Giv det 1-2 uger efter du har foretaget ændringer. Tjek URL Inspection Tool igen. Hvis siden stadig ikke er indekseret, er problemet sandsynligvis indholdskvalitet.
2025: Massiv de-indexering og nye udfordringer
Google har i 2025 skærpet kravene til indeksering markant. Det er ikke længere nok bare at fikse tekniske fejl.
De-indexeringsbølgen maj-juni 2025
Google fjernede millioner af sider fra sit indeks i foråret 2025. Sider med tyndt, parafraseret eller AI-genereret indhold blev ramt hårdest. Større sites med 50.000+ URL’er oplevede drastiske fald i antal indekserede sider. Det var ikke en fejl. Det var en bevidst oprydning.
June 2025 Core Update og indeks-kontraktion
June 2025 Core Update medførte en estimeret 15-20% reduktion af Googles samlede indeks. AI-genereret indhold uden menneskelig dybde, originalitet eller erfaringsbaseret indsigt blev aktivt de-indexeret. Budskabet er klart: masseproduceret indhold er ikke velkomment.
Crawling-bug august 2025
I august 2025 bekræftede Google en bug, der forårsagede reduceret og fluktuerende crawling for “some sites.” Hvis du pludselig ser et fald i crawl-raten, er det ikke nødvendigvis dit problem. Men det er stadig værd at monitorere.
GSC-rapporteringsforsinkelser
I november-december 2025 var Page Indexing Report i Google Search Console forsinket med ca. 30 dage. Det betyder, at de data, du ser i GSC, ikke altid er realtid. Tag altid højde for, at rapporteringsdata kan være forsinket, før du drager konklusioner.
Interne links redder ikke tynde sider
Tidligere kunne stærk intern linking kompensere for svagere indhold og hjælpe en side ind i indekset. Det gælder ikke længere. Google ignorerer link equity, hvis indholdet ikke holder mål. Du kan ikke linke dig ud af et kvalitetsproblem. Fix indholdet, eller fjern siden.
Opsummering
- Indeksering er forudsætningen for at ranke i Google.
- De hyppigste årsager til manglende indeksering: noindex, robots.txt, crawl budget, lav kvalitet, canonical-fejl.
- Google Search Console er dit primære værktøj til at diagnosticere indekseringsproblemer.
- Request Indexing kan fremskynde processen, men løser ikke underliggende problemer.
- Fokuser på kvalitetsindhold og ren teknisk SEO, så klarer indekseringen sig selv.
Et website med styr på sin tekniske SEO og en solid linkbuilding-strategi har sjældent indekseringsproblemer. Google prioriterer sites, der er nemme at crawle og har indhold, der er værd at indeksere.