Die Robots.txt erklärt
Die Datei robots.txt
ist eine einfache Textdatei, die Website-Betreiber nutzen können, um Web-Crawlern wie denen von Suchmaschinen mitzuteilen, welche Teile ihrer Website durchsucht werden dürfen und welche nicht. Sie dient im Wesentlichen als Anleitung für Suchmaschinen-Bots, um den Zugriff auf bestimmte Bereiche einer Website zu steuern.
Wie funktioniert sie?
- Sperrung von Bereichen: Durch Anweisungen in der robots.txt-Datei können Betreiber bestimmte Verzeichnisse oder Seiten ausschließen, sodass sie nicht indiziert werden.
- Ermöglichen oder verbieten: Mit den Befehlen
Allow
undDisallow
können spezifische Crawler entweder zugelassen oder ausgeschlossen werden. - Gezielte Steuerung: Unterschiedliche Crawler können unterschiedliche Anweisungen erhalten.
Beispiele für robots.txt:
-
Alle Crawler gesperrt:
User-agent: * Disallow: /
-
Alle Crawler erlaubt, bis auf einen bestimmten Bereich:
User-agent: * Disallow: /privat/
-
Nur ein spezifischer Crawler (z. B. Googlebot) gesperrt:
User-agent: Googlebot Disallow: /exklusiv/
-
Bestimmter Bereich für alle Crawler erlaubt:
User-agent: * Allow: /public/
Diese Datei ist ein wichtiges Werkzeug für das Website-Management, um die Sichtbarkeit und den Zugriff über Suchmaschinen zu beeinflussen.