Es gibt (mindestens) zwei häufige Gründe, warum seltsame und verstümmelte URLs in den Webmaster-Tools als Crawling-Fehler angezeigt werden.
Die erste Möglichkeit besteht darin, dass jemand Ihre Seiten (oder einige andere Seiten, die auf Ihre verlinken) kopiert und dabei die Links entstellt hat. Dies passiert öfter als Sie vielleicht denken; Siehe z. B. die sechste Frage in diesem Google Webmaster-Blogbeitrag .
Die andere Möglichkeit besteht darin, dass Googlebot selbst versucht, den JavaScript-Links zu folgen und sie durcheinander zu bringen . Sie können in der Regel diesen beiden Fälle auseinanderhalten, indem die verweisenden Seite zu besuchen (die sollten vorhanden und zugänglich sein, wenn Google es zu kriechen geschaffen zu beginnen) und für den Namen der Zielseite in der Quelle suchen.
In beiden Fällen können Sie grundsätzlich zwei Dinge tun: entweder die Links einfach ignorieren oder einige Regeln zum Umschreiben erstellen , um zu versuchen, die fehlerhaften URLs funktionierenden zuzuordnen. Wenn Sie ein offensichtliches Muster in den URLs sehen und mit regulären Ausdrücken vertraut sind, würde ich den letzteren Ansatz empfehlen - er bereinigt Ihre Crawling-Fehlerliste und gibt Ihnen möglicherweise sogar einen kleinen und ziemlich kitschigen, aber echten PageRank-Schub .
Eine dritte Option, wenn Sie feststellen, dass jemand Ihre Inhalte ohne Erlaubnis kopiert hat, besteht darin, zu versuchen , sie von der Liste zu nehmen . Sie können sogar eine Beschwerde (und / oder eine formelle Anfrage zum Entfernen) an den Hosting-Anbieter senden, wenn Sie dies für gerechtfertigt halten. Natürlich, da sie sich offenbar die Verknüpfung zu Ihrer Website, könnten Sie müssen nicht unbedingt die es wert finden die Mühe.