robots.txt, sitemap.xml en llms.txt: de drie bestanden die elke website nodig heeft in 2026
robots.txt regelt crawlertoegang. sitemap.xml brengt uw URLs in kaart. llms.txt legt uw site uit aan AI. Leer wat elk bestand doet, hoe ze samenwerken en hoe u alle drie instelt voor AI-zichtbaarheid.
Drie bestanden die elke website nodig heeft
Twee decennia lang vertrouwden websites op twee root-level bestanden om te communiceren met zoekmachines: robots.txt en sitemap.xml. Het ene regelt de toegang. Het andere brengt content in kaart.
In 2024 kwam er een derde bestand bij: llms.txt. Dit bestand regelt geen toegang en brengt geen URLs in kaart. Het legt betekenis uit. Het vertelt AI-taalmodellen wat uw site is, wat het behandelt en hoe uw content begrepen moet worden.
Als u in 2026 een website beheert en zichtbaar wilt zijn voor zowel traditionele zoekmachines als AI-systemen zoals ChatGPT, Perplexity en Google Gemini, heeft u alle drie de bestanden correct geconfigureerd nodig.
robots.txt: Crawlertoegang regelen
Wat robots.txt doet
robots.txt is een platte-tekstbestand in uw domeinroot (uwsite.nl/robots.txt) dat webcrawlers vertelt welke delen van uw site ze mogen bezoeken. Het is een webstandaard sinds 1994.
User-agent: *
Allow: /
Disallow: /admin/
Disallow: /private/
Sitemap: https://uwsite.nl/sitemap.xml
robots.txt configureren voor AI-crawlers
AI-crawlers hebben hun eigen user agents. U kunt specifieke regels toevoegen:
User-agent: GPTBot
Allow: /blog/
Allow: /docs/
Disallow: /admin/
User-agent: ClaudeBot
Allow: /
Disallow: /admin/
Bekende AI-crawler user agents in 2026:
- GPTBot: OpenAI's webcrawler voor ChatGPT
- ClaudeBot: Anthropic's webcrawler voor Claude
- PerplexityBot: Perplexity's zoekcrawler
- Google-Extended: Google's AI-trainingscrawler
Een veelgemaakte fout: alle AI-crawlers blokkeren. Als u GPTBot blokkeert, kan ChatGPT uw content niet benaderen. Uw concurrenten die wel toegang verlenen, worden in uw plaats geciteerd.
sitemap.xml: Uw content in kaart brengen
Wat sitemap.xml doet
sitemap.xml is een XML-bestand dat de URLs van uw site opsomt met metadata: laatste wijzigingsdatum, wijzigingsfrequentie en relatieve prioriteit.
Best practices voor sitemap.xml
- Alleen canonieke URLs opnemen
- lastmod nauwkeurig houden: Alleen bijwerken als de content daadwerkelijk verandert
- Sitemap-indexbestanden gebruiken voor grote sites
- noindex-pagina's uitsluiten
- Refereren in robots.txt
llms.txt: Het nieuwe derde bestand voor AI-begrip
Wat llms.txt doet
llms.txt is een Markdown-bestand in uw domeinroot dat AI-taalmodellen een gestructureerde samenvatting van uw site geeft. Waar robots.txt toegang regelt en sitemap.xml URLs in kaart brengt, legt llms.txt context uit.
Voor een volledige uitleg van het llms.txt-formaat, lees onze llms.txt-formaatspecificatiegids.
Vergelijking: Wat elk bestand regelt
| robots.txt | sitemap.xml | llms.txt | |
|---|---|---|---|
| Doel | Toegangscontrole | URL-ontdekking | Semantische context |
| Formaat | Eigen directieven | XML | Markdown |
| Vertelt crawlers | Waar ze mogen komen | Welke pagina's bestaan | Wat de site betekent |
| Publiek | Alle webcrawlers | Zoekmachinebots | AI-taalmodellen |
| Sinds | 1994 | 2005 | 2024 |
Hoe de drie bestanden samenwerken
- robots.txt beantwoordt: "Mag ik binnenkomen?" Het stelt de grenzen.
- sitemap.xml beantwoordt: "Waar moet ik kijken?" De sitemap toont de volledige pagina-inventaris.
- llms.txt beantwoordt: "Wat betekent dit allemaal?" llms.txt biedt de interpretatieve laag.
Alle drie instellen voor AI-zichtbaarheid
Stap 1: Uw robots.txt controleren
Controleer dat u AI-crawlers niet blokkeert van uw publieke content.
Stap 2: Uw sitemap.xml valideren
Bevestig dat uw sitemap alle belangrijke publieke pagina's bevat met nauwkeurige lastmod-datums.
Stap 3: Uw llms.txt maken
Dit is het bestand dat de meeste websites nog missen. U kunt onze gratis generator gebruiken om er automatisch een te maken. Voor de volledige specificatie, bekijk onze complete llms.txt-gids.
Stap 4: De volledige setup testen
Bezoek alle drie de bestanden in uw browser om de bereikbaarheid te bevestigen. Test met AI-systemen.
Wat er gebeurt als u er een overslaat
- Geen robots.txt: Alle crawlers benaderen alles, inclusief pagina's die u privé wilt houden.
- Geen sitemap.xml: Contentontdekking gaat langzamer.
- Geen llms.txt: AI-systemen moeten uw merkidentiteit afleiden. Hun weergave zal minder nauwkeurig zijn.
Alle drie de bestanden vereisen minimale inspanning. robots.txt en sitemap.xml staan waarschijnlijk al op uw site. llms.txt is het bestand dat de meeste bedrijven nog moeten toevoegen. Maak de uwe nu en maak het setje compleet.

Fabian van Til
Oprichter, Akravo — AI-zichtbaarheidsstrateeg
Fabian van Til is AI-zichtbaarheidsstrateg en e-commerce ondernemer. Hij bouwde een gespecialiseerd SEO-bureau op en verkocht het, schaalde meerdere merken en ontdekte in 2024 dat zijn eigen merken onzichtbaar waren in AI-zoekopdrachten ondanks sterke Google-rankings. Akravo is uit dat onderzoek ontstaan.
Wilt u AI SEO implementeren voor uw bedrijf?
Gesprek boeken