Beginnen
Ich muss mich bei denen entschuldigen, die für TL; DRs sind. Ich habe eine Liste von Links hinzugefügt, die Google nicht oben nur für Sie mag!
Dies ist eine meiner berühmten langen Antworten. Aber es ist wichtig und manchmal reicht eine kurze Antwort einfach nicht aus. Wenn du mich kennst, hinterlasse ich manchmal Kommentare mit "Kurze Antwort. Nein." Oder ja, je nach Anlass. Dies ist keine dieser Gelegenheiten.
Links, die Google nicht mag.
Dies ist nur eine kurze Liste der Linktypen, die Google nicht mag und die als Black Hat angesehen werden. Es kann mehr geben.
- Link-Börsen: Handeln Sie mit Links auf eine Art und Weise, wie Sie es möchten. Sie verlinken auf mich und ich werde auf Sie verlinken.
- Bezahlte Links: Links, die Sie von einer Firma oder Person gekauft haben.
- Links im Austausch für Dienstleistungen oder Produkte: Jeder Link, über den Produkte oder Dienstleistungen für den Link zurückgegeben werden. Noch eine Gegenleistung.
- Artikeleinreichung: Gastbeiträge sind eine Sache, Artikeleinreichungs- / Marketingwebsites, bei denen derselbe Artikel an mehreren Stellen erscheint, werden jedoch nicht geschätzt.
- Automatisierte Links: Hier werden Links mithilfe von Automatisierung erstellt, häufig mithilfe von Software.
- Widget- oder Bug-basierte Links: Wenn ein JavaScript-Programm oder ein ähnliches Gerät Links dynamisch / automatisch erstellt.
- Advertorials: Artikel, die als Werbung gedacht sind. Nofollow sollte verwendet werden.
- Link-Werbung: Hier kann ein Werbelink einen Wert übergeben. Nofollow sollte verwendet werden.
- Handelsmarken-Links: Alle Links, die so gestaltet sind, dass sie einen bestimmten Handelswert haben. Nofollow sollte verwendet werden.
- Webverzeichnisse: Obwohl es qualitativ hochwertige Verzeichnisse gibt, bieten einige weniger oder wenig Wert. Das Einreichen von Verzeichnissen, insbesondere das Einreichen von Massen, sollte mit Vorsicht und Aufmerksamkeit erfolgen. Nofollow sollte verwendet werden.
- Sitewide-Links: Jeder Link in einer Kopfzeile, Fußzeile oder Seitenleiste, der auf jeder Seite oder auf sehr vielen Seiten Links erstellt.
- Blogroll-Links: Häufig sind dies mehrere Links in einem Blog zu anderen Blogs.
- Forum- und Blog-Signaturen: Links, die in einem Benutzersignaturblock erstellt wurden.
- Forum- und Blog-Kommentare: Übermäßige Verwendung von Links in Foren und Blogs. Oft ist dies eine Backlink-Marketing-Methode, um an Foren und Blogs oder sogar Kommentaren auf der Website teilzunehmen und einen Link zu hinterlassen.
- Übermäßig optimierter Linktext: Links, die so gestaltet sind, dass sie für bestimmte Keywords eine Rangfolge haben.
- Kontextunabhängige Links: Links, die nicht mit dem Thema der Linkseite und / oder der Zielseite zusammenhängen.
- Geografisch irrelevante Links: Links auf einer geografisch ausgerichteten Webseite, für die die Zielseite nicht geeignet ist.
- Sprache irrelevante Links: Links auf einer Webseite einer Sprache, auf der die Zielseite eine andere Sprache ist.
- Link Velocity: Anstieg der Backlink-Geschwindigkeit, der ein Signal für einen schnellen Backlink-Aufbau ist.
- Link-Netzwerke: Teilnahme an einem Linkbuilding-Schema oder -Netzwerk.
- Websites für Pressemitteilungen: Verwenden einer PR-Website zum Erstellen von Traffic und Links.
- Lesezeichen-Sites: Verwenden einer Lesezeichen-Site zum Erstellen von Traffic und Links.
- Ressourcenseiten: Während dies für einen Websitebesitzer durchaus akzeptabel ist, um Ressourcenseiten zu erstellen, können diese Links als Spam angesehen werden. Ressourcenseiten können häufig zu breit und zu groß sein. Kleinere Listen werden bevorzugt. Nofollow sollte verwendet werden.
- Übermäßige Social Media-Links: Es ist ratsam, an Social Media teilzunehmen. Das Erstellen vieler Social Media-Konten kann jedoch als Gaming angesehen werden.
- Einzelne oder eingeschränkte Keyword-Links: Links mit einem oder mehreren Keywords werden als Spiele angesehen. Vollständig semantischer Linktext wird bevorzugt.
- Links außerhalb von Inhalten: In einigen Fällen ist dies durchaus akzeptabel. Übermäßige Links außerhalb von Inhalten, die häufig auf Inhalte folgen, können jedoch als Spiele angesehen werden.
- Anzeigenlinks: Einige Websites sind an Adware-Mechanismen beteiligt, mit denen Keywords mit JavaScript-Popup-Anzeigen verknüpft werden.
Vor allem in den letzten Jahren und mit Sicherheit im letzten Jahrzehnt haben sich die Dinge wirklich verändert. Und Sie haben Recht, was die meisten SEOs angeht, sie müssen erst noch mit der Realität weitermachen, mit der wir heute konfrontiert sind. Der wichtigste Hinweis ist, Sie haben es erraten, eingehende Links (Backlinks). Was lustig ist, ist genau, wie weit hinter SEO-Beratung wirklich ist. Landmark-Änderungen werden vorgenommen und SEOs scheinen 5 Jahre oder länger hinter der Änderung zu stehen.
Machen wir uns nichts vor, dies ist ein RIESIGES Thema, von dem wahrscheinlich ein bisschen Geschichte profitieren kann. Ich werde etwas davon anbieten. Dann werde ich in das Rätsel geraten, dass wir uns alle dem Besten stellen, von dem ich weiß, wie (und ja mit einer gewissen Voreingenommenheit). Also bitte verzeihen Sie mir, wenn ich nicht alles richtig verstehe oder jeden Aspekt abdecken kann. Wie gesagt, das ist ein riesiges Thema. Außerdem werde ich alt.
Historische Ansicht
Ich beziehe mich oft auf die Originalarbeit von zwei Studenten, Sergey Brin und Lawrence Page, von der Stanford University aus dem Jahr 1997. Dies war der Anfang von Google und sagt viel darüber aus, wie Google denkt. Ich beziehe mich auch manchmal auf Meilensteine in der Googles-Geschichte, an denen signifikante Änderungen aufgetreten sind. Ich weiß für einige von Ihnen, dass dies alt wird, aber bitte bleiben Sie bei mir (ich habe gelernt, nicht Bär / nackt zu sagen). Es würde Sie im Original nicht überraschen, dass der PageRank mit Backlinks besprochen wird. Aber was gesagt wird, wird oft ignoriert.
Das alte Modell einer PR6-Seite mit 2 ausgehenden Links, die jeweils PR3 durchliefen, war nie wirklich genau. Obwohl dies in gewisser Weise geschieht, steckt in der Geschichte noch viel mehr. Wenn Sie zum Beispiel darüber nachdenken, dass jede Seite mit einer anderen verknüpft ist, gibt es einen Wert, der nicht angemessen berechnet wird, ohne die Metriken für jede Seite immer wieder zu überprüfen. Dies tritt tatsächlich auf. Aber denken Sie auch daran, jede Site mit einem hohen PageRank würde dann unnatürlich hohe Ränge erreichen. Mit diesem Modell wäre es für Websites mit niedrigerem Rang fast unmöglich, einen Rang hinter den Links zu erreichen, die Google als Superbehörden bezeichnet. Um dem entgegenzuwirken, werden für jede Site / Seite Autoritätsbeschränkungen mit großen Autoritätswerten erstellt. Zusätzlich wird jeder Link, wie er existiert, auf der Grundlage einiger einfacher Kriterien auf Qualität bewertet und mit einer Punktzahl von 0 bis 0,9 bewertet. Was tatsächlich bestanden wird, ist ein Rang, der auf der durch den Verbindungswert berechneten Berechtigungsobergrenze basiert. Es ist leicht zu erkennen, dass die PR6-Seite nicht PR3 durchläuft, sondern etwas viel Niedrigeres. Dadurch wird eine natürlichere Kurve im PageRank-Schema erstellt, die angepasst werden kann.
Früher, als die Räder noch quadratisch waren, war es möglich, mehrere Websites zu erstellen, die miteinander verknüpft waren, um ein Rangprofil zu erstellen. Spammer wissen das nur zu gut. Damit dies funktioniert, müsste man eine Super-Authority-Site erstellen, die dann sparsamer und strategischer an bestimmte Sites übergibt, die dann miteinander verknüpft werden. Hierbei handelt es sich um eine Kombination aus einer "Spoke and Hub" -Topologie und einer "Mesh" -Topologie, bei der die Super Authority-Site als Hub zum Erstellen eines Seeds für das Mesh verwendet wird. Zugegeben, ich habe das in den Tagen zuvor getan, als es wirklich ein Problem war. Aber es dauerte nicht lange, bis Spammer auffielen. Natürlich habe ich an dieser Stelle mein Link-Schema abgebaut. DUH! Ich bin nicht dumm.
Was hat Google also getan? Dabei wurden Informationen ausgenutzt, die leicht zu sammeln waren. Zu diesem Zeitpunkt gab es in der Geschichte nur eingeschränkte Möglichkeiten, eine Site zu registrieren. Network Solutions zum Beispiel war der einzige Ort, an dem .com-, .org- und .net-Sites registriert werden konnten. Zu dieser Zeit waren auch Registrierungen nicht privat. Sie waren öffentlich. Es war viel einfacher, Beziehungen (in der Semantik als Cluster oder in der Wissenschaft als Realms bezeichnet) zwischen Websites zu erstellen, indem Registrierungsinformationen verwendet wurden. Genau das hat Google getan. Für jede Site innerhalb der Suchmaschine wurden die Registrierungsinformationen gesammelt und in eine spezielle semantische Datenbank geschrieben, die unter Verwendung aller in der Registrierung verfügbaren Informationen Beziehungen aufbaut. Außerdem begann Google, IP-Adressen Websites, Webhosts, Unternehmen, ASN (AS Number) basierend auf APNIC-Registrierungen, GEO-Standorten, einschließlich Ländern und Gebietsschemas usw. Die Beziehungen zwischen Standorten und Netzwerken waren ebenfalls Teil der semantischen Datenbank. Ein Teil dessen, was benötigt wurde, war eine Möglichkeit, Vertrauen für Websites zu schaffen, und daher der Beginn des TrustRank, der in der SEO-Welt oft völlig ignoriert wird. Obwohl es heutzutage weitaus schwieriger ist, diese Beziehungen herzustellen, war es für Google von Vorteil, Registrar zu werden, um die private Registrierung zu umgehen und dem Mix neue Tools hinzuzufügen, einschließlich Informationen, die auf den Websites selbst zu finden sind. Ich werde nicht auf all dies eingehen, aber es genügt zu sagen, dass Google mithilfe einiger dieser Techniken einem Autor ein nicht signiertes Werk identifizieren kann. Aber weißt du das? Sites, die mit anderen Sites von geringerer Qualität oder mit Hosts oder Netzwerken von geringerer Qualität verbunden sind, Sie leiden unter einem Klopfen in ihrem fiscalcore. Dies gilt auch für Elemente in den Registrierungsinformationen. Oft kann Google eine potenzielle Spam-Site nur anhand der Registrierungsinformationen, des Hosts oder des Netzwerks erkennen. Es funktioniert wirklich.
Ein weiterer Teil des Prozesses bestand darin, Verbindungsmuster unter Verwendung etablierter Musterkarten zu untersuchen, die auf bekannten Verbindungsschema-Techniken basierten. Mithilfe von KI und Lernmethoden können auch neue Muster erkannt, bestätigt und die Musterdatenbank automatisch aktualisiert werden.
Dies ist etwas, an dem Google einen menschlichen Anteil hat. Google hat die Qualität von Websites überprüft, um KI-Systeme zu ermitteln, die die Qualität von Websites bestimmen, und um neue Linkmuster zu finden. Von Zeit zu Zeit bat Google die Nutzer sogar darum, Websites mit geringer Qualität zu identifizieren und Verknüpfungsschemata zu erstellen. Diese neuen Informationen wurden nicht nur zum Studieren, Zielen und Aktualisieren von Linkmustern verwendet, sondern auch, um die KI auf das Erkennen anderer möglicherweise vorhandener Schemata vorzubereiten.
Was hat also jemand mit all diesem Wissen zu tun?
Ein Unternehmen kann und sollte in der Lage sein, ohne Angst vor einer Strafe auf seine anderen Websites zu verlinken, und das, solange es sich in Grenzen hält, die ein nachdenklicher und ehrlicher Webmaster einhalten würde. Eingehende Links, die diesem Mantra folgen, sollten ebenfalls in Ordnung sein. Mithilfe dieser umfangreichen semantischen Datenbank und der Linkmuster-Datenbank kann Google Websites identifizieren, die auf natürliche Weise miteinander verknüpft sind. Aber es gibt ein neues Problem.
Was ist neu
Verknüpfungsschemata werden immer ausgefeilter und komplexer. Einige von uns kennen den JC Penny Link Bug von vor ein paar Jahren. Dies hat Google paranoid gemacht und beschäftigt, da es sich zum Ziel gesetzt hat, dieses Problem ein für alle Mal zu beenden. Aber das ist keine leichte Aufgabe, wie Sie sich vorstellen können.
Es gibt auch Unmengen von Websites, die erstellt wurden, um Suchzugriffe zu erzielen, die eine enorme Menge an Links zu Websites erstellen. Wir kennen diese Seiten; Diese SEO-Performance-Sites, die Alexa und andere Daten kratzen und auf die ursprünglichen Sites verlinken, auf die verwiesen wird. Wir können Keyword-Sites, Whois-Sites usw. hinzufügen. Google sieht dies mit einigen Ausnahmen wie domaintools.com und robtex.com als sehr schlechte Qualität an. Der ursprüngliche Algorithmus zur Rangübergabe wurde auch als Motivator für die Suche nach unnatürlichen Links von Verzeichnisseiten, Blogs, Foren usw. angesehen.
Obwohl einige Schlachten um diese Websites und Links um das Ranking gewonnen wurden, hat Google zu Recht entschieden, dass natürliche Links bevorzugt werden. Im Rahmen dessen hat Google eingehende Links als Ranking-Signal abgezinst. Ich gehe davon aus, dass Schritt eins so einfach war wie das Anpassen der Autoritätsgrenzen. Was ein akzeptabler Link war, der sich der Kontrolle des Site-Inhabers durch diese Junk-Sites entzogen hat, wird nun als ein sehr realer Teil des Ranking-Systems angesehen. Innerhalb der SEO-Community wurde immer darüber diskutiert, dass ein gesundes Verhältnis von guten Links zu Links mit geringem Wert im Vergleich zu anderen Websites erreicht werden sollte. Aber heute (dh seit März 2015) scheint Google mit dem Disavow-Tool zu bevorzugen, dass diese Links von geringer Qualität nicht auftreten, und es wird ein Abwärtsdruck ausgeübt, um diese Links mit ihrem Tool zu mildern. Die Idee scheint zu sein, den Link-Index zu bereinigen. Beispielsweise können mit topalternate.com und aolstalker.com Hunderte und Tausende von Links zu jeder Site erstellt werden. Mit dem Disavow-Tool sieht Google eine Möglichkeit, die Webmaster nutzen sollten, um zu steuern, wie Google eingehende Links sieht. Einerseits schaden Links mit geringem Wert nicht, andererseits möchte Google, dass sie verschwinden.
Google bevorzugt natürliche Links.
Das Rätsel
Es wird für einen Webmaster immer schwieriger, Links zu erstellen. Während SEOs endlos über alle Methoden zur Erstellung eingehender Links diskutieren, ist dies seit langem nahezu unmöglich. Sie weisen darauf hin, dass es zwar Webmaster gibt, die angesprochen werden können, die meisten jedoch viel zu beschäftigt sind, ihre eigenen Inhalte und eingehenden Links zu erstellen. Ironisch, was? Es ist ein bisschen fressender Rausch geworden. Ich habe vor vielen Jahren aufgehört, nach eingehenden Links zu suchen, als der Aufwand so wenige Links ergab. Ich hörte auch auf, als in einigen Google-Patenten klar war, dass Links dieser Art weiter geprüft werden würden.
Es gibt jedoch gute Nachrichten. Sorta.
Ein Teil dessen, was Google denkt, ist, dass Engagement und Inhalt Vorrang haben. Das Erstellen eines Buzz ist alles. Social Media wird als neues Linkbuilding- und Autoritätsschema angesehen. Google konzentriert sich immer mehr auf soziale Medien, Autorität und Engagement. Das Problem ist das hier. Nicht alle Websites und tatsächlich sehr wertvolle und wirklich maßgebliche (inhaltliche) Websites sind für das neue Paradigma der sozialen Medien geeignet. Denken Sie beispielsweise an alle Forschungsergebnisse, die von Professoren, Ingenieuren und echten Vordenkern (einschließlich Google-Ingenieuren) verfasst wurden? Forschung ist kaum aufregend, und es ist unwahrscheinlich, dass sich ein Professor in sozialen Medien engagiert, um Inhalte für die Massen zu bewerben, wenn dies eindeutig für einen segmentierten Markt ist.
Was in Googles Augen eingehende Links ersetzt, ist soziales Engagement. Während es eine Dualität zu dieser Bemühung gibt; Auf der einen Seite bevorzugt Google soziales Engagement, auf der anderen Seite vergünstigt Google Links von Twitter, Facebook und Ähnlichem und bevorzugt Links von LinkedIn, Google+ und Ähnlichem, nur um vor kurzem noch einmal nach Facebook zu schauen, wo der Zugriff eingeschränkt ist. Ich war schon immer der Überzeugung, dass Twitter mehr für das soziale Engagement tut als alle anderen sozialen Medien, und dennoch sind diese Links nur vorübergehend. flüchtig und immer noch abgezinst.
Google hat am 17. Juni 2015 einen großen Sprung in diesen Gedankengang gemacht. Einige nennen ihn das News / Trend-Update. Über dieses Update ist zwar wenig bekannt, eines ist jedoch völlig klar. Trendwebsites rangieren höher. Dies liegt daran, dass Google bei so vielen trendbasierten Abfragen sicherstellen wollte, dass diese Websites einen hohen Rang einnehmen, um den Anruf entgegenzunehmen. Wenn Ihre Site also nicht trendbasiert ist, haben Sie ab dem 17. Juni einen Schlag auf Ihre Positionen bekommen. Dies ist ein Hinweis, Leute!
Wo eingehende Links noch funktionieren.
Mit einem Wort (meistens). Branding. Oder etwas ähnliches. Während es schwierig ist, beim Branding einer Website, die keine Unternehmens- oder Produktmarke ist, Fuß zu fassen, hilft es, wenn Sie den Markensignalen folgen. Insbesondere, wenn man in Inhalten erwähnt wird, wenn man in Bezug auf eine andere Marke erwähnt wird, wenn man als nützliches Produkt erwähnt wird usw. Bei so vielen Bloggern auf dem Markt bewegt sich die Nadel in herausragenden Inhalten, auf die die Leute ganz alleine verlinken möchten. Überlegen Sie, wie oft MOZ zitiert und verlinkt wird? Wir betrachten diese Seite als eine Superautorität, aber sie hat nicht so angefangen. Als jeder Artikel geschrieben und entdeckt wurde, wurden Links hergestellt. Da immer mehr Links hergestellt werden und die Leute diesen Links folgen, waren die Webmaster eher bereit, ähnliche Links zu erstellen. Denken Sie so darüber nach. Im Online-SEO-Spiel Es gibt so viele Menschen, die auf den Markt gehen und sich ein Vermögen verdienen wollen. Dabei sind die meisten nicht originelle Denker und Papageien immer und immer wieder die gleichen. Viele jagen nur SEO-Schlagzeilen und verlinken auf Websites mit Autorität, um: erstens ihre Fähigkeiten in der Community zu zeigen; zwei, um ihr Wissen über das Thema zu zeigen; drei, um ihre besondere Sicht auf das Thema hinzuzufügen und sich so als Vordenker zu etablieren; und vier, hoffentlich Autorität gewinnen, mit wem sie sich verbinden (da dies auch als Faktor in Googles Augen gesehen wird). Aber obwohl wir wissen, dass 99% dieser Websites immer noch Junk sind, können diese Websites eine echte Autorität haben, da sie andere Websites, die auf Fakten basieren und sorgfältig in ihrer Darstellung sind und die Trends meiden und vom Himmel verbieten, hinter sich lassen. Es scheint, als ob die Junk-Händler gewinnen.
Nicht jeder Content-Markt eignet sich für dieses Aktivitätsniveau. Wo dies jedoch der Fall ist, besteht kein Zweifel, dass soziale Medien Ihre Inhalte vor diejenigen stellen können, die auf Ihre Inhalte verlinken, und vor diejenigen, die in das Spiel einsteigen möchten. Verlockend für einen alten Mann wie mich, aber nervig, wenn man es hasst, sozial zu sein.
Wenn es einer Website gelingt, wertvolle eingehende Links zu erstellen, handelt es sich um Websites, die beliebt, trendig und sozial engagiert sind und auf die die Menschen verlinken und für ihre Arbeit werben möchten. <rant>
Oh ja. Es hilft auch, das zu wiederholen, was als allgemeines sozial liberales Wissen gilt, selbst wenn es sich um einen reinen Bullen handelt. Kein hochstehendes Zeug. Greifen Sie einfach nach den niedrig hängenden Früchten und präsentieren Sie sie auf ansprechende Weise mit hübschen Bildern (ein weiterer Google-Faktor). Während wir gerade dabei sind, machen Sie ein Video (noch ein weiterer Faktor). Gehen Sie voran und tanzen Sie und singen Sie Ihre eigenen Lyriken zu einer bereits populären Melodie. Das scheint wirklich zu helfen! Lassen Sie uns das Internet homogenisieren und es mit nutzlosem Müll füllen? </rant>
(Gott, das hat Spaß gemacht!)
Schwarzer Hut gegen weißen Hut
Was Black Hat und White Hat angeht, kennen Sie jetzt den Unterschied. Verknüpfungsschemata, egal wie klein Black Hat ist, während Verknüpfungen, die natürlich und ehrlich sind, White Hat sind. So einfach ist das wirklich. Und Google hat jedem ein Ziel auf den Rücken gelegt, der einen Vorteil sucht, der sogar ein bisschen zwielichtig ist.
Bitte zögern Sie nicht, diese Antwort zu twittern. ;-) (Ich mache nur Spaß)