Update : Das Folgende funktioniert, es wird <meta name="robots" content="noindex,follow" />
im Kopfbereich aller Seiten gedruckt, auf die über einen Pfad zugegriffen wird, der mit beginnt comment
. Dies dient dazu, die Tatsache zu umgehen, dass eine Seite wie comment / 3 intern node / nid als Argumente enthält, wie oben erwähnt.
<?php
function metarobots_comment_help() {
$url_components = explode('/', request_uri());
if ($url_components[1] == 'comment') {
$elements = array(
'#tag' => 'meta',
'#attributes' => array(
'name' => 'robots',
'content' => 'noindex,follow',
),
);
drupal_add_html_head($elements, 'robots');
}
}
Mit Hilfe eines hilfreichen Kommentars zur arg-Funktion .
Hoffentlich wird dies irgendwann vom Meta-Tags-Modul behoben - es gibt eine Funktionsanforderung , aber es ist noch nicht klar, ob der Modulautor dies unterstützen möchte.
[Mein vorheriger Kommentar] Ich wollte nur hinzufügen, dass die Verwendung von robots.txt nicht die Antwort ist - wie Sie bereits bemerkt haben, werden trotz der Verwendung weiterhin Links in den Suchergebnissen angezeigt Disallow: /comment
. Dies wird erwartet, da robots.txt den Bot anweist, diese Seiten nicht zu crawlen, Google jedoch nicht anweist, sie nicht zu indizieren. Wie unter SEOmoz Robots.txt und Meta Robots Best Practices für die Suchmaschinenoptimierung erläutert :
In den meisten Fällen sollten Metaroboter mit den Parametern "noindex, follow" verwendet werden, um das Crawlen oder die Indexierung einzuschränken.
Blockieren mit Robots.txt - Dies weist die Engines an, die angegebene URL nicht zu crawlen, sondern sie sollen die Seite im Index behalten und in den Ergebnissen anzeigen.
Mit Meta NoIndex blockieren - Hiermit wird mitgeteilt, dass Engines besucht werden können, die URL jedoch nicht in den Ergebnissen angezeigt werden darf. (Dies ist die empfohlene Methode.) Das Noindex-Meta-Tag, nach dem Sie suchen, ist also genau das, was Sie brauchen.
robots.txt
Datei geschrieben?