Antworten:
Fügen Sie im Stammverzeichnis des Verzeichnisses der Subdomain-Website eine Datei mit dem Namen robots.txt hinzu, die Folgendes enthält:
User-agent: *
Disallow: /
Dadurch werden Webcrawler angewiesen, die Site überhaupt nicht zu indizieren. Sie müssen nicht gehorchen, aber die wichtigsten werden es tun.
noindex
den Index und andere Seiten der
Die Verwendung einer robots.txt-Datei in Ihrer Subdomain hilft (und Google wird dies befolgen). Sie können jedoch auch mit einem Google Webmasters-Konto angeben, dass diese Subdomain nicht indiziert werden soll. Sie können auch ein Meta-Tag auf allen Seiten der Subdomain verwenden:
<meta name="robots" content="noindex">
Wenn es sich um eine Site handelt, die Sie nur für interne Tests verwenden, wird die Site durch das Beschränken der Sichtbarkeit auf einen bestimmten Satz von IP-Adressen in Ihrer Datei für virtuelle Hosts weiter ausgeblendet.
meta
Tag in jede Seite einzubetten , können Sie stattdessen einen X-Robots-Tag
HTTP-Antwortheader von Ihrem Server für die angegebene Subdomain zurückgeben - dies müssen Sie nur einmal tun.
Die Lösungen von Kenzo und Paul sind gut. Sie können Meta-Tags noindex auf Ihre Webseiten setzen und robots.txt hinzufügen, um Roboter nicht zuzulassen.
Meiner Meinung nach ist die beste Lösung die Verwendung der Kennwortauthentifizierung für Ihre Subdomain. Dies ist die einzige Lösung, von der Sie sicher sind, dass Roboter auf Ihre Website zugreifen und diese indizieren können. Wenn Sie Apache verwenden, können Sie htpasswd implementieren .
... derzeit in den SEO-Ergebnissen angezeigt?
Bei den anderen Antworten geht es eher darum , die Indizierung einer (Unter-) Domain proaktiv zu verhindern (was in erster Linie das ist, was Sie in der Frage stellen), als Ihre Seiten aktiv aus den Suchergebnissen zu entfernen. Dies ist möglicherweise mehr das, wonach Sie suchen deine andere Frage .
Sie müssen Ihre Site weiterhin in robots.txt blockieren und ein Noindex- meta
Tag (oder einen X-Robots-Tag
HTTP-Antwortheader) bereitstellen , wie in den anderen Antworten angegeben. Sie müssen jedoch auch den Zugriff auf Ihre Seiten blockieren und einen 404- oder 410-Statuscode zurückgeben.
Weitere Informationen hierzu finden Sie auf der Hilfeseite der Google Webmaster-Tools:
Voraussetzungen zum Entfernen von Inhalten
Sobald Sie alle diese Funktionen eingerichtet haben, können Sie das Tool zum Entfernen von URLs in den Google Webmaster-Tools verwenden. Dies gilt jedoch nur für einzelne URLs, nicht für eine gesamte Site, sondern ist ein Anfang. (Google gibt an, dass die Verwendung von robots.txt, noindex und das Bereitstellen eines 404 die Voraussetzungen für die Verwendung des GWT-Entfernungswerkzeugs sind.)
Wenn Sie jedoch weiterhin möchten, dass reguläre Benutzer durch Eingabe der URL auf die Website zugreifen können, ist dies ein Problem, da Ihre Inhalte nicht mehr verfügbar sind. Sie könnten es mit einem Passwort versehen, wie Zistoloen vorschlägt. Dies gibt jedoch standardmäßig einen 403 (Verboten) zurück, den Sie überschreiben müssten, um einen 404/410 zurückzugeben. Sie könnten Mantel Ihre Inhalte, eine 410 mit dem Googlebot Rückkehr und damit alle anderen geben - aber was ist mit Menschen auf die Ergebnisse in den SERPs zu klicken?
Wenn Sie jedoch möchten, dass Google Ihre Inhalte so schnell wie möglich entfernt, müssen Sie sie aus dem "Google" -Internet entfernen.