Warum sollte Wikipedia zeigen, dass externe Links als rel = "nofollow" gesetzt werden?


27

Ich verstehe, dass dies rel="nofollow"ein sicherer Weg ist, um auf externe Websites zu verlinken, aber warum sollte sich Wikipedia weigern, ohne das Folgende auf andere Websites zu verlinken?

Ist das eine Vertrauenssache mit der Community?

Wäre in der Suchmaschinenoptimierung für Wikipedia nicht etwas Gutes, wenn sie Links für vertrauenswürdige Quellen verwenden würden?

Siehe folgendes Beispiel: Bildbeschreibung hier eingeben


6
Über ihre Entscheidung, Geschichte, Diskussionen usw .: Wikipedia: Nofollow (Archiv) und Wikimedia: nofollow
unor

7
"etwas Gutes in der Suchmaschinenoptimierung für Wikipedia" - sie brauchen keine Hilfe bei ihrer
Suchmaschinenoptimierung

Antworten:


53

Eine der Arten, wie Suchmaschinen bestimmen, was Google als "PageRank" bezeichnet, ist die Anzahl der eingehenden Links, wobei Websites mit hohen PageRanks mehr Gewicht beigemessen wird priorisiert, wie die Ergebnisse angezeigt werden).

Dies hat zu einem sogenannten "Link-Spam" geführt, bei dem mehrere Websites erstellt wurden, um von diesen aus Links zu erstellen und den Page-Rank der verlinkten Website zu erhöhen.

Da Wikipedia eine der am höchsten bewerteten Websites im Internet ist und es jedem erlaubt, von dort aus Links zu erstellen, ist es ein idealer Ort, um Seiten und Links zu erstellen, um den Page-Rank ihrer Website zu erhöhen.

Durch die Durchsetzung von "Nofollow" -Tags wird den Suchmaschinen mitgeteilt, dass diese Links wertlos sind, wenn es darum geht, ihren Wert für die verlinkte Site zu ermitteln. Damit entfällt der Anreiz, Wikipedia mit Link-Spam zu füllen.


12
Richtig. Auf der anderen Seite gibt es auch eine Entschuldigung dafür, dass Wikipedia das Ranking nicht an ihre Quellen weitergibt, die für die Glaubwürdigkeit von Wikipedia wahrscheinlich wichtig sind.
Itai

8
Ich bin mir nicht sicher, ob "Entschuldigung" das richtige Wort ist. Ich glaube nicht, dass WP absichtlich versucht, ihre Quellen zu versteifen. Ich glaube, dass es eine Folge der Lösung eines Problems ist, das ein neues Problem schafft. Ich denke, es ist nur ein Teil des Kompromisses, den wir eingehen müssen, um die Verbreitung von Link-Spam auf der gesamten Website zu verringern, es sei denn, es gibt eine Möglichkeit, Link-Spam in Quell-Links zu verhindern.
Dwev

26
Vielleicht fehlt mir etwas. Es dient Millionen von Besuchern täglich dazu, keine schlechten Seiten voller Link-Spam bereitzustellen. Dafür bin ich als User sehr dankbar. Wenn Link-Spam manuell von den Redakteuren moderiert werden müsste, hätten sie keine Zeit mehr, um etwas anderes zu tun, und WP würde einfach zu einer weiteren Link-Farm ... Was fehle ich?
Dwev

5
Sie könnten nofollow für Links entfernen, die längere Zeit in WP geblieben sind - wenn sie nicht entfernt würden, wären sie wahrscheinlich kein Spam. SO und Reddit tun dies mit Upvotes als Maß.
DisgruntledGoat

3
@DisgruntledGoat Obwohl dies eine gute Lösung zu sein scheint, würde ich davon ausgehen, dass Blackhat-SEO-Anbieter schnell damit beginnen, häufig verknüpfte Domains zu kaufen oder ihre Eigentümer zu bezahlen.
Ceejayoz

4

Es gibt mehrere Gründe, warum eine Website (einschließlich Wikipedia), die Benutzerinhalte heute begrüßt, Links als nicht verfolgbar erscheinen lässt.

  1. Links können veraltet sein und sogar Fehlerseiten (Beispiel: Fehler 404) an den Benutzer zurückgeben, wenn auf sie zugegriffen wird. Eine Webseite, die mindestens einen Link zu einer Fehlerseite enthält, ist keine gute Seite für die Indizierung im Internet.

  2. Wie bereits erwähnt, können Websites, auf denen Benutzer Inhalte veröffentlichen können, möglicherweise das Ranking der Website und / oder anderer Websites manipulieren, indem sie für Links zu Websites werben (abhängig davon, welche Filter die Website verwendet, die der Gast verwendet). Als konkretes Beispiel: Wenn ein Benutzer Hunderte von Links zu vulgärem und / oder sexuellem Inhalt veröffentlicht, ohne dass die Website dazu in Beziehung steht, kann dies die Suchmaschinenroboter zumindest verwirren, wenn sie glauben, dass die Website mehr zu verbergen hat und dies kann. ' Sie dürfen nicht darauf vertrauen, dass Sie qualitativ hochwertige Ergebnisse liefern, die die Benutzer erwarten.

Damit sich Webmaster vor betrügerischen Suchmaschinenrobotern schützen können, haben sie (oder sollten sie zumindest) eine der folgenden Möglichkeiten, wenn Benutzerinhalte für die Öffentlichkeit veröffentlicht werden:

  1. Sie werden den Inhalt zurückstellen, während eine tatsächliche Person den Inhalt überprüft, um festzustellen, ob er für die Site akzeptabel ist, und ihn dann manuell veröffentlicht. Dies ist die beste Option, aber wir sind auf der Welt, wo die Leute keine Zeit haben, Tausende von Absätzen von Inhalten zu überprüfen.

  2. Sie werden den Inhalt sofort veröffentlichen lassen, aber jeden einzelnen Link als nicht verfolgbar markieren, zumindest bis die Links manuell validiert werden.

  3. Sie verwenden automatisierte Filter, um festzustellen, ob der Inhalt mit bestimmten Wörtern oder Ausdrücken übereinstimmt. Wenn dies der Fall ist (oder nicht), wird der Inhalt abgelehnt.

In jedem Fall sollte, wenn der Link keinem Benutzer einen Wert hinzufügt oder in keiner Weise mit der Website in Verbindung steht, er als nicht verfolgbar gekennzeichnet werden, oder noch besser, der Link sollte überhaupt nicht verfügbar sein.


6
"1. Links können veraltet sein ..." - das kann mit jedem Link passieren, egal wo. Dies ist kein Grund, Nofollow zu verwenden.
DocRoot

@DocRoot Wenn eine Suchmaschine feststellen kann, dass ein Websitebesitzer seine Website nicht für den Umgang mit Link Rot pflegt oder auf andere Weise ungültige Links hat, kann sie diese Website im Ranking andocken. (Es ist eine schlechte Benutzererfahrung, wenn sie immer wieder auf 404-Websites verlinken. Google et al. Möchten darauf vertrauen, dass die Benutzer zu Websites geleitet werden, auf denen sie wahrscheinlich eine bessere Benutzererfahrung haben.) Ohne Nofollow könnte jemand Wikipedia in der Rangliste in den Hintergrund rücken durch Spam mit vielen ungültigen Links.
WBT

@WBT Ja, aber das ist kein Grund, den Link zunächst nicht folgen zu lassen - in Erwartung von "link rot". Es gibt (automatisierte) Möglichkeiten, das Linkziel für 404 zu validieren. Ich sage nicht, dass die Wikipedia-Links nicht "nofollow" sein sollten (aus Gründen der Spam-Prävention), aber nicht für Punkt 1, wie oben erwähnt.
DocRoot

@DocRoot Wie wäre es mit der Erwartung, dass jemand versuchen könnte, Ihr Suchmaschinenranking zu reduzieren (vielleicht um seine eigene Website zu favorisieren), indem er Links veröffentlicht, die anfangs ungültig sind und nicht nur im Laufe der Zeit verfaulen? (Oder welche werden ausgewählt, um nach ein paar Minuten absichtlich zu verrotten, wenn es eine anfängliche Gültigkeitsprüfung gibt?) Ich denke, Wikipedia spielt hier Verteidigung.
WBT
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.