die Robots.txt

1 Min. Lesevorgang

Die Robots.txt erklärt

Die Datei robots.txt ist eine einfache Textdatei, die Website-Betreiber nutzen können, um Web-Crawlern wie denen von Suchmaschinen mitzuteilen, welche Teile ihrer Website durchsucht werden dürfen und welche nicht. Sie dient im Wesentlichen als Anleitung für Suchmaschinen-Bots, um den Zugriff auf bestimmte Bereiche einer Website zu steuern.

Wie funktioniert sie?

  • Sperrung von Bereichen: Durch Anweisungen in der robots.txt-Datei können Betreiber bestimmte Verzeichnisse oder Seiten ausschließen, sodass sie nicht indiziert werden.
  • Ermöglichen oder verbieten: Mit den Befehlen Allow und Disallow können spezifische Crawler entweder zugelassen oder ausgeschlossen werden.
  • Gezielte Steuerung: Unterschiedliche Crawler können unterschiedliche Anweisungen erhalten.

Beispiele für robots.txt:

  1. Alle Crawler gesperrt:

    User-agent: *
    Disallow: /
  2. Alle Crawler erlaubt, bis auf einen bestimmten Bereich:

    User-agent: *
    Disallow: /privat/
  3. Nur ein spezifischer Crawler (z. B. Googlebot) gesperrt:

    User-agent: Googlebot
    Disallow: /exklusiv/
  4. Bestimmter Bereich für alle Crawler erlaubt:

    User-agent: *
    Allow: /public/

Diese Datei ist ein wichtiges Werkzeug für das Website-Management, um die Sichtbarkeit und den Zugriff über Suchmaschinen zu beeinflussen.

Teile diesen Artikel
Wörterbuch
Datenschutz-Übersicht

Diese Website verwendet Cookies, damit wir dir die bestmögliche Benutzererfahrung bieten können. Cookie-Informationen werden in deinem Browser gespeichert und führen Funktionen aus, wie das Wiedererkennen von dir, wenn du auf unsere Website zurückkehrst, und hilft unserem Team zu verstehen, welche Abschnitte der Website für dich am interessantesten und nützlichsten sind.