Robots.txt

Wofür werden robots.txt-Dateien verwendet?

Eine robots.txt-Datei wird hauptsächlich zur Verwaltung des Crawler-Traffics auf deiner Website verwendet und dient üblicherweise dazu, eine Datei aus Google auszuschließen. Hierbei spielt auch der Dateityp eine Rolle.

Geben Sie oben eine Website ein, um zu beginnen.

Bevor du die robots.txt-Datei erstellst oder bearbeitest, solltest du die Einschränkungen dieser URL-Blockierungsmethode kennen. Je nach Situation und deinen Zielen sind andere Methoden möglicherweise besser geeignet, um deine URLs im Internet unauffindbar zu machen.