Ich bin heute in meinen SEO-Nachrichten auf diesen Artikel gestoßen. Es scheint zu implizieren, dass Sie Noindex:zusätzlich zu den Standardanweisungen Disallow:in robots.txt Direktiven verwenden können .
Disallow: /page-one.html
Noindex: /page-two.html
Es scheint, als würde dies verhindern, dass Suchmaschinen Seite eins crawlen und Seite zwei indizieren.
Wird diese robots.txt- Direktive von Google und anderen Suchmaschinen unterstützt? Funktioniert es? Ist es dokumentiert?
disallowGoogle keine Links auf den übergeordneten und untergeordneten Seiten mehr entdeckt, falls vorhanden. Während noindexdie Liste einfach angehalten wird, wird die Erkennung nicht gestoppt, solange dies nicht zulässig ist.
nofollowfür Meta-Tags funktioniert. Es wäre schön zu wissen, ob dies auch für robots.txt der Fall ist .
<a rel="no-follow">. Ich sehe keinen Grund, warum es anders behandelt würde. Offensichtlich ist dies nicht offiziell und es wird sogar von John Muller empfohlen, es nicht in der robots.txt zu verwenden, aber abgesehen von seinem Tweet habe ich nicht viele Informationen darüber gefunden.
NoindexDirektive in robots.txtDateien nicht mehr als Fehler kennzeichnet.