Ich bin heute in meinen SEO-Nachrichten auf diesen Artikel gestoßen. Es scheint zu implizieren, dass Sie Noindex:
zusätzlich zu den Standardanweisungen Disallow:
in robots.txt Direktiven verwenden können .
Disallow: /page-one.html
Noindex: /page-two.html
Es scheint, als würde dies verhindern, dass Suchmaschinen Seite eins crawlen und Seite zwei indizieren.
Wird diese robots.txt- Direktive von Google und anderen Suchmaschinen unterstützt? Funktioniert es? Ist es dokumentiert?
disallow
Google keine Links auf den übergeordneten und untergeordneten Seiten mehr entdeckt, falls vorhanden. Während noindex
die Liste einfach angehalten wird, wird die Erkennung nicht gestoppt, solange dies nicht zulässig ist.
nofollow
für Meta-Tags funktioniert. Es wäre schön zu wissen, ob dies auch für robots.txt der Fall ist .
<a rel="no-follow">
. Ich sehe keinen Grund, warum es anders behandelt würde. Offensichtlich ist dies nicht offiziell und es wird sogar von John Muller empfohlen, es nicht in der robots.txt zu verwenden, aber abgesehen von seinem Tweet habe ich nicht viele Informationen darüber gefunden.
Noindex
Direktive in robots.txt
Dateien nicht mehr als Fehler kennzeichnet.