Google kann nicht alle Seitenressourcen laden, was zu Skriptfehlern führt und möglicherweise unsere SEO beeinträchtigt


8

Wir sind gerade auf die Tatsache gekommen, dass die meisten unserer Websites dieselben Fehler aufweisen, aber wir wissen nicht, wie wir sie lösen sollen.

https://search.google.com/test/mobile-friendly

Es sieht so aus, als würden einige Skripte auf den Websites nicht aufgenommen. Wir glauben, dass dies einen Einfluss auf unsere organischen SEO-Ergebnisse hat. Wir haben die Schritte des Google-Tests für Handys ausprobiert, aber keine Ergebnisse. Wir haben jetzt nach der letzten Woche gesucht, aber noch keine Lösung gefunden.

Irgendwelche Vorschläge? Informieren Sie uns bitte!

Der Fehler:

Seite teilweise geladen

Nicht alle Ressourcenseiten können geladen werden. Dies kann sich auf die Art und Weise auswirken, wie Google Ihre Seite sieht und interpretiert. Beheben Sie Verfügbarkeitsprobleme für Quellen, die sich auf die Interpretation Ihrer Seite durch Google auswirken können. ''


Dies wird häufig dadurch verursacht, dass diese Skripte in robots.txt nicht zulässig sind. Auf einer WordPress-Site kann das Nichtzulassen wp-contentdiese Probleme verursachen. Ihre robots.txt sieht für mich allerdings zumindest jetzt gut aus. Hast du es kürzlich geändert?
Stephen Ostermiller

1
Sind Sie dem inzwischen auf den Grund gegangen? Wir haben ähnliche Probleme auf Dutzenden von Websites. Jeder Test liefert unterschiedliche Ergebnisse, manchmal wird alles geladen, manchmal werden nur wenige Ressourcen, CSS, JS oder Bilder nicht geladen, und dann wird ein Fehler ausgelöst und eine E-Mail über nicht mobilfreundlich gesendet.
Goran Usljebrka

Antworten:


1

Googlebot kann viel Javascript lesen, aber nicht alles. Wenn Ihre robots.txt-Datei so eingerichtet ist, dass Ihre .js-Dateien gecrawlt werden können, ist Ihr Javascript wahrscheinlich zu komplex, als dass Google es vollständig rendern könnte.

Infolgedessen müssen Sie möglicherweise weiterhin verschiedene Versionen Ihres Javascript mit dem mobilen Test testen, um eine Version zu ermitteln, die Google korrekt verarbeiten kann. Je komplexer Ihr Javascript ist, desto wahrscheinlicher ist es, dass Google es nicht lesen kann. Versuchen Sie, Ihr Javascript so gut wie möglich zu vereinfachen.


Ich glaube nicht, da ich genau das gleiche Problem mit einer Liste von 10 js& jpgDateien habe. Wenn Sie also Ihre Erklärung berücksichtigen, was ist mit jpgDateien?
Pmpr

1

"Seite teilweise geladen" muss eine Liste der Ressourcen enthalten, die Googlebot nicht laden konnte. Beginnen Sie mit der Überprüfung dieser Ressourcen auf Barrierefreiheit.

  • Versuchen Sie als Nächstes Folgendes: Führen Sie den Test für mobile Geräte zweimal aus. Zuerst http: // version, dann https: // version. Hiermit wird überprüft, ob die https-Version der Site versucht, Ressourcen aus der http-Version zu laden und umgekehrt. Wenn Sie zwischen den beiden Tests einen Unterschied in der Anzahl der nicht geladenen Ressourcen feststellen, sollten Sie sich auf diese Ressourcen konzentrieren.

  • Testen Sie die Website auf gtmetrix.com, um einen besseren Überblick darüber zu erhalten, was wann geladen wird. Dadurch erhalten Sie die geladenen Ressourcen in chronologischer Reihenfolge und auch im Wasserfallformat.

  • Reduzieren Sie im Codebereich die Anzahl der Javascripts. Ich habe mir die Quelle einer der Websites angesehen und sehe fast 20 Javascript-Includes. Das sind viele http-Anfragen von derselben Domain. Fügen Sie dazu die Anforderungen für Bilder, CSS, Schriftarten usw. hinzu. Versuchen Sie, die JS- und CSS-Dateien zu jeweils einer oder zwei Dateien zusammenzuführen.


Dies spricht die Frage nicht gut an. Ich habe genau das gleiche Problem mit dem Mobile Friendly Test-Tool von Google. Es konnten keine Berichtsressourcen geladen werden, die 10 js& jpgDateien auflisten . Ich kann sie problemlos selbst herunterladen.
Pmpr

1

Wenn Sie diesen Test verwenden, beachten Sie, dass viele Pixel / Skripte zur Anzeigenverfolgung (sogar die Pixel von Google und die Pixel von Doubleclick (Google besitzt Doubleclick)) möglicherweise durch ihre eigene robots.txt-Datei blockiert werden, die Sie nicht steuern können. Ich habe dies aus erster Hand auf einer meiner eigenen Websites gesehen - Google hat das Scannen des eigenen Doubleclick-Pixels durch den Googlebot blockiert. Sie müssen sich fragen: "Der Googlebot dient zum Identifizieren von Inhalten auf Ihrer Seite und nicht zum Verfolgen von Pixel-Trackern. Selbst Googles eigene Tracking-Pixel blockieren seinen eigenen Googlebot. Warum sollte es mich also interessieren, wenn die Pixel-Tracker blockiert werden?" Und das sehe ich auch bei Facebooks Pixel.

Wenn es sich jedoch um eine robots.txt-Datei handelt, die Sie steuern und die nichts mit Pixel-Tracking zu tun hat, müssen Sie diese wahrscheinlich adressieren. Wenn Sie einen Teil Ihrer Website nur für Mitglieder oder einen Teil Ihrer Website nur für Administratoren haben und dieser von der Startseite aus verlinkt ist, können Sie Link-Cloaking- oder Nofollow-Link-Attribute in Betracht ziehen, damit der Googlebot dies nicht tut Versuchen Sie, dem auf Ihrer Seite zu folgen. Man muss sich jedoch fragen, ob Google möchte, dass Sie den Googlebot an einem Nur-Mitglieder- oder Nur-Administrator-Bereich Ihrer Website vorbei zulassen, was meiner Meinung nach wahrscheinlich nicht der Fall ist.

Dies ist jedoch meine Meinung. Wenn wir das SEO Engineering Team von Google nicht dazu bringen können, zu antworten, tappen wir im Dunkeln und müssen hier nur unsere beste Intuition des gesunden Menschenverstandes verwenden.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.