← Terug naar Blog
Fabian van TilFabian van Til··9 min leestijd

robots.txt, sitemap.xml en llms.txt: de drie bestanden die elke website nodig heeft in 2026

robots.txt regelt crawlertoegang. sitemap.xml brengt uw URLs in kaart. llms.txt legt uw site uit aan AI. Leer wat elk bestand doet, hoe ze samenwerken en hoe u alle drie instelt voor AI-zichtbaarheid.

Drie bestanden die elke website nodig heeft

Twee decennia lang vertrouwden websites op twee root-level bestanden om te communiceren met zoekmachines: robots.txt en sitemap.xml. Het ene regelt de toegang. Het andere brengt content in kaart.

In 2024 kwam er een derde bestand bij: llms.txt. Dit bestand regelt geen toegang en brengt geen URLs in kaart. Het legt betekenis uit. Het vertelt AI-taalmodellen wat uw site is, wat het behandelt en hoe uw content begrepen moet worden.

Als u in 2026 een website beheert en zichtbaar wilt zijn voor zowel traditionele zoekmachines als AI-systemen zoals ChatGPT, Perplexity en Google Gemini, heeft u alle drie de bestanden correct geconfigureerd nodig.

robots.txt: Crawlertoegang regelen

Wat robots.txt doet

robots.txt is een platte-tekstbestand in uw domeinroot (uwsite.nl/robots.txt) dat webcrawlers vertelt welke delen van uw site ze mogen bezoeken. Het is een webstandaard sinds 1994.

User-agent: *
Allow: /
Disallow: /admin/
Disallow: /private/

Sitemap: https://uwsite.nl/sitemap.xml

robots.txt configureren voor AI-crawlers

AI-crawlers hebben hun eigen user agents. U kunt specifieke regels toevoegen:

User-agent: GPTBot
Allow: /blog/
Allow: /docs/
Disallow: /admin/

User-agent: ClaudeBot
Allow: /
Disallow: /admin/

Bekende AI-crawler user agents in 2026:

  • GPTBot: OpenAI's webcrawler voor ChatGPT
  • ClaudeBot: Anthropic's webcrawler voor Claude
  • PerplexityBot: Perplexity's zoekcrawler
  • Google-Extended: Google's AI-trainingscrawler

Een veelgemaakte fout: alle AI-crawlers blokkeren. Als u GPTBot blokkeert, kan ChatGPT uw content niet benaderen. Uw concurrenten die wel toegang verlenen, worden in uw plaats geciteerd.

sitemap.xml: Uw content in kaart brengen

Wat sitemap.xml doet

sitemap.xml is een XML-bestand dat de URLs van uw site opsomt met metadata: laatste wijzigingsdatum, wijzigingsfrequentie en relatieve prioriteit.

Best practices voor sitemap.xml

  • Alleen canonieke URLs opnemen
  • lastmod nauwkeurig houden: Alleen bijwerken als de content daadwerkelijk verandert
  • Sitemap-indexbestanden gebruiken voor grote sites
  • noindex-pagina's uitsluiten
  • Refereren in robots.txt

llms.txt: Het nieuwe derde bestand voor AI-begrip

Wat llms.txt doet

llms.txt is een Markdown-bestand in uw domeinroot dat AI-taalmodellen een gestructureerde samenvatting van uw site geeft. Waar robots.txt toegang regelt en sitemap.xml URLs in kaart brengt, legt llms.txt context uit.

Voor een volledige uitleg van het llms.txt-formaat, lees onze llms.txt-formaatspecificatiegids.

Vergelijking: Wat elk bestand regelt

robots.txtsitemap.xmlllms.txt
DoelToegangscontroleURL-ontdekkingSemantische context
FormaatEigen directievenXMLMarkdown
Vertelt crawlersWaar ze mogen komenWelke pagina's bestaanWat de site betekent
PubliekAlle webcrawlersZoekmachinebotsAI-taalmodellen
Sinds199420052024

Hoe de drie bestanden samenwerken

  1. robots.txt beantwoordt: "Mag ik binnenkomen?" Het stelt de grenzen.
  2. sitemap.xml beantwoordt: "Waar moet ik kijken?" De sitemap toont de volledige pagina-inventaris.
  3. llms.txt beantwoordt: "Wat betekent dit allemaal?" llms.txt biedt de interpretatieve laag.

Alle drie instellen voor AI-zichtbaarheid

Stap 1: Uw robots.txt controleren

Controleer dat u AI-crawlers niet blokkeert van uw publieke content.

Stap 2: Uw sitemap.xml valideren

Bevestig dat uw sitemap alle belangrijke publieke pagina's bevat met nauwkeurige lastmod-datums.

Stap 3: Uw llms.txt maken

Dit is het bestand dat de meeste websites nog missen. U kunt onze gratis generator gebruiken om er automatisch een te maken. Voor de volledige specificatie, bekijk onze complete llms.txt-gids.

Stap 4: De volledige setup testen

Bezoek alle drie de bestanden in uw browser om de bereikbaarheid te bevestigen. Test met AI-systemen.

Wat er gebeurt als u er een overslaat

  • Geen robots.txt: Alle crawlers benaderen alles, inclusief pagina's die u privé wilt houden.
  • Geen sitemap.xml: Contentontdekking gaat langzamer.
  • Geen llms.txt: AI-systemen moeten uw merkidentiteit afleiden. Hun weergave zal minder nauwkeurig zijn.

Alle drie de bestanden vereisen minimale inspanning. robots.txt en sitemap.xml staan waarschijnlijk al op uw site. llms.txt is het bestand dat de meeste bedrijven nog moeten toevoegen. Maak de uwe nu en maak het setje compleet.

Fabian van Til

Fabian van Til

Oprichter, Akravo — AI-zichtbaarheidsstrateeg

Fabian van Til is AI-zichtbaarheidsstrateg en e-commerce ondernemer. Hij bouwde een gespecialiseerd SEO-bureau op en verkocht het, schaalde meerdere merken en ontdekte in 2024 dat zijn eigen merken onzichtbaar waren in AI-zoekopdrachten ondanks sterke Google-rankings. Akravo is uit dat onderzoek ontstaan.

Wilt u AI SEO implementeren voor uw bedrijf?

Gesprek boeken