Mittwoch, 19. Oktober 2011

Interne Seo Mechanismen für Google!



Interne Seo Mechanismen für Google

Wir verbringen viel Zeit damit, genau zu verstehen, wie die Indizierung Algorithmen Google zu betreiben. In diesem Artikel werde ich meine aus verschiedenen Quellen der Technik in dieser Suchmaschine verwendet gesammelt. Wir lesen ein Dokument von Google gestohlen mit den Leitlinien zu erörtern eine konkrete Manifestation der Algorithmen, die Zusammenarbeit mit Human Resources (die nennen sich "Experten für Qualität"), und was zu tun ist, um alle glücklich machen.
Technische Algorithmen
Latent Semantic Indexing LSI

Diese Technologie ist die Wissenschaft von der Verarbeitung von sprachlichen Informationen. Es klingt verwirrend. In der Tat, analysiert das System die Beziehung zwischen Worten und voller Unkraut von Schlüsselwörtern Text, so dass nur der natürliche Gehalt. LSI Auch versteht das Verhältnis sinonimizirovannuyu Worte. Zum Beispiel, wenn Sie auf Papier Flugzeug aussehen, wird das LSI beginnen nach Synonymen suchen: Flugzeuge, Flugzeuge. Will als gerecht und ähnlichen thematisch verwandte Wörter, wie Turbulenzen, Kraftstoff-, Wolken und Himmel. Die Bedeutung von LSI ist wirklich nützliche Inhalte erkannt und Screening wird automatisch Text, verwendet, um die Ergebnisse der Ausgabe manipulieren erzeugt wird. Google kaufte die Firma "Appliad Semantics", die eine verbesserte Version der Technologie LSI geschaffen hat. Ihre Entwicklung hat in AdSense und Suchalgorithmen integriert. Als Webmaster natürlich schreiben und vergessen Sie den etablierten Standards wie Keyword-Dichte. Fügen Sie Synonyme oder ähnliche im Sinne der Sätze in Anchor-Text.
Thematische Ebene

Die Suchmaschine schickt, die Ausgabe von top-Sites und über andere algorithmische Parameter: Trust Rank und PageRank. Ihre Werte sind auf der Achtung vor Ihren Anteil von Analoga basiert. Und es ist bekannt, dass der Backlinks zusammengesetzt sein. Wenn Sie autorisierende Domänen finden, aber es hat keinen Einfluss auf das Ergebnis der Lieferung, müssen Sie sich Links zu verschiedenen Websites, die gut etabliert sind thematisch fest auf dem Algorithmus. Das heißt, wenn das Projekt über Audi, wird der Link mit dem alten Auto Katalog sehr nützlich sein. Mit anderen Worten, Sie wollen die Links zu den beliebtesten Sehenswürdigkeiten Themenkategorie, oder mit mehr Autorität als diejenigen, die zu Ihren Konkurrenten zu verknüpfen. Und die besten Standorte, die in der Regel nicht Traffic-Riesen und erfahrenen Projekte, die konsequent auf durchschnittlich über Wasser halten. So ist es finanziell machbar.
Analizizator Websites und Links

Im Jahr 2005 hat Google die folgenden Einflussfaktoren auf das Ranking der Suchergebnisse patentiert:


Ablauf der
Übernehmen des Besitzes von Domain-
WHOIS-Daten und Informationen über die physikalische Adresse des Eigentümers
IP Informationen
Präsenz der wichtigsten Wörter / Phrasen in der Domain
Das Leben der Website
Die Häufigkeit der Seite Aktuelles
Die Anzahl der internen Seiten
Der Text des Ankers
Laufzeit der Bezugnahme auf bestimmte Positionen
Die Häufigkeit der Änderung und Löschen von Referenzen
Kapazität Gewicht von externen Links
Die Glaubwürdigkeit von externen Links
Die Qualität der Links. Insgesamt ist die Website
Verteilung Optionen. Die Quantität und Qualität der Ressourcen, auf die sie gerichtet sind
Eine Vielzahl von Anchor-Text

Es ist Hauptmerkmale ist die vollständige offizielle Liste in englischer Sprache finden Sie hier. Natürlich ist dies nicht 2005, aber viele dieser Informationen können auf einem Schnurrbart gewickelt werden. Eine große Anzahl von Backlinks kann sich nachteilig verändern das Verhalten der Suchmaschine auf Ihre Website. Wenn Google nicht sieht, die natürliche Verbindungen zu Ihrem Projekt, dann ist die Möglichkeit der Abweichung von den Index-oder "Strafe" ist stark erhöht. Das gleiche gilt in umgekehrter Reihenfolge. Die Suchmaschine verwendet einen speziellen Algorithmus, um die Kategorie obratok bestimmen: spamlennye oder natürlich. Verzeichnisse von Webseiten - es ist seit langem Spam, zum Beispiel.Perceptive thematischen PageRankTSPR
Dieser Algorithmus struktutiruet Seite, auf thematische Beziehungen.
Entscheidende Faktoren:

Menschliche Analyse
Suchverlauf
    
Präsenz in einer bestimmten Kategorie von DMOZ (ja, es ist nicht nur für den Verkauf von Links zu HS in sape verwendet)Auf dem Gelände unter seiner Kategorie in das Open Directory Project, können Sie wollten herauszufinden die Frage der Ressourcen. Es ist erwähnenswert, dass Google ernsthafte Arbeit zu Söldner Redakteure Verzeichnis zu bekämpfen. Websites, die hinausgeworfen werden, sind in den meisten Fällen, den Tod pessimizatsiyu. Versuchen Sie, einen Link von DMOZ bekommen. Wenn Sie können einfach nicht in das Verzeichnis zu bekommen, auf der Suche nach hungrigen Redakteure, dass ein paar Dutzend Dollar helfen zu verstehen, zu gehen. In burzhuynete tun, wenigstens ein paar hundert. Ich persönlich denke, dass dieser Algorithmus nicht mehrmals geändert, denn alles ist zu offen, aber ihre Wurzeln sind sicherlich lebendig.Perceptive thematischen TrustRankUm dies zu verstehen, benötigen Sie mit dem ursprünglichen Konzept von Trust Rank, die chelovevecheskie Ressourcen verwendet kennen zu lernen. Google-Mitarbeiter analysieren und die "wichtige Seiten". Solche Ressourcen, nennen sie Fett, in der Regel enthalten viele hochwertige Inhalte, exzellentes Design und Peer Links zu anderen Websites. Es ist diese Links und übermitteln der Trust Rank. Ein Beispiel für eine Website, die es in runet tun können: lenta.ru. News-Website, dass andere Websites erwähnt versehentlich. Tehnichecheski, fett Seite X bezieht sich auf den Seiten von A, B und C, so dass sich ihnen eine gleiche Menge des Vertrauens. Eine Seite A, B und C auch in der Lage, diese Maßnahme vorbei, aber dementsprechend zu einem geringeren Ausmaß. Je weiter weg von der Seite X, desto weniger Vertrauen, das sie bekommt. TSTR funktioniert nach dem gleichen Prinzip, verwendet aber eine thematische Voreingenommenheit. DMOZ, Yahoo Directory, UC und ähnliche maßgebliche Verzeichnisse können erheblich dazu beitragen.Zusätzliche IndexIn dieser Sandbox geben Seiten, die kein Vertrauen in Google zu haben. Websites von extra. Index ist in der Regel nicht sichtbar Spinne Detail. Die Ergebnisse sind nur sichtbar, Problem mit unzureichenden Dokumentation in den Hauptindex. Es gibt mehrere Möglichkeiten, um in der Sandbox zu bekommen:

    
Viele Low-Qualität zurück Links
    
Eine große Zahl von geringer Qualität ausgehenden Links
    
Non-Unique Content
    
Seiten haben einen kleinen Wert von PageRankEs gibt keine spezifische Art und Weise, um herauszufinden, in denen der Index Ihrer Ressource ist. Wenn Ihre Website ist neu, wird die Suchmaschine von Standard-IT in einem zusätzlichen Index Platz, solange er nicht "otrostit Bart" und maßgebliche Backlinks zu erhalten. Stellen Sie sicher, dass die Website keine gebrochenen Links und 404-Fehler hat dies oft eine Bewegung in der Sandbox.Definition von SpamWas auch immer der Ort, in jedem Fall erhalten Sie eine bestimmte Menge an Spam (schwarz) obratok. Kein Verfahren zur Kontrolle, weil es jetzt passiert bei einem natürlichen Niveau. Seien Sie im Moment ssylaniya zu anderen Ressourcen vorsichtig, ist der "große Bruder", ein Algorithmus, der eine aus aufgerufen werden können "Spammer-Netzwerk." Es analysiert die eingehenden und ausgehenden Verbindungen und schließt mit der Regie negative Ergebnisse in der Sandbox. Aaron Wall stellt fest, dass eine natürliche Verbindung 40-60 schwarz, das heißt, wenn Sie 60 zaspamlennyh Verzeichnisse und beziehen sich 2 gute site-level Band oder sercha, wird es tatsächlich so eine gute Verbindung gezählt werden soll. Die Zahlen, natürlich, Indikativ, aber nicht von einer Person getestet.Menschliche AlgorithmenExperten QualitätViele bekannte SEOs behaupten, dass Google rund 10.000 Mitarbeiter, die über die Zuverlässigkeit der Ergebnisse der Ausstellung und beschäftigen sich mit Websites, die aus irgendeinem Grund durch analytische Algorithmen identifiziert zu überprüfen hat. Danny Sullivan hat wiederholt argumentiert, dass die Suchmaschine, um die Arbeit der menschlichen Ressourcen, die von technischen Algorithmen Fehlfunktionen zu korrigieren zurückkehrt. Diese "Zusammenarbeit" können Fortschritte in den Suchergebnissen. Die Daten stammen aus einem Dokument namens Google "Quality Rater Guidelines" (Richtlinie Qualität Experten), die in nach dem öffentlichen Leckage im April 2007 kam gezogen. Das Dokument ist voll von Informationen, ist daher sehr nützlich für diejenigen, die ihre Positionen in der Ausgabe von Google verbessern wollen.Ein kurzer Überblick über das Dokument «Quality Rater Guidelines»Über ein Jahr diese Informationen auf ein privates Forum wandern, sondern hat vor kurzem der Öffentlichkeit durch Search Engine Land getroffen. Wenn Sie die Vollversion in englischer Sprache lesen möchten, hier ist der Link. Auf den Seiten dieser Publikation kann das Prinzip der Schätzung Seiten, Spam-Erkennung und Klassifikation von Suchanfragen gefunden werden. Ich werde über die wichtigsten und nützlichsten Teile des Dokumentes reden. Experten schätzen die Qualität der spezifischen Seiten, nicht Domänen tselyakom. Zum Beispiel, wenn eine Seite Understatement oder ausgeschlossen ist, bezieht er sich auf eine konkrete Anfrage, aber nicht alle auf einmal. Matt Cutts zum Beispiel analysiert die gesamte Domänen, sondern das Dokument eindeutig hervor, dass Analysten nicht über diese Fähigkeit.Die Bedeutung der Relevanz für das LandDies ist ein entscheidender Faktor bei der Beurteilung Google. Auf der einen Seite der Beweis ist ein einfacher Algorithmus und ein Beispiel: [Abfrage], Sprache (Land). Zum Beispiel: "[Windows], Russisch (Russland)" oder "[Windows], Russisch (Ukraine)." In anderen Worten, wenn ein russischer Seite am relevantesten für die Anfrage, aber der Benutzer ist in der Ukraine, es nach geografischen Gesichtspunkten in den meisten Fällen entfernt werden.Die Studie und das Verständnis für die AbfrageAnalysten müssen verstehen, die Art der jeweiligen Anfrage: "Man muss in dem Antrag vor der Beurteilung zu suchen. Wenn die Sicht verschwommen, einige der Forschung und des Studiums. Sie können dies durch die Analyse der Frage der andere Suchmaschinen tun. "Dies bedeutet eine vollständige Studie über die Absichten serchera, statt der serienmäßigen passenden Schlüsselwörter und Phrasen auf dieser Website. Es gibt spezielle Algorithmen, um diese Hypothese zu beweisen: "Manchmal muss man sich nicht sicher sind, wie zu bewerten: relevatny oder nützlich? Relevatny oder irrelevant? Wenn Sie Zweifel haben, eine schlechte Bewertung gegeben. "Typen von Abfragen sind nicht so wichtig und relativ gut bekannt, weil ich kurz beschreiben jeden von ihnen. Navigation: Dies ist eine einfache Abfrage, wie eBay oder Amazon. Relevatnymi Ergebnisse werden den offiziellen Seiten der Unternehmen sein. Information: Das Ziel - um Informationen zu finden und lesen Sie etwas zu einem bestimmten Thema. Business: Ein Benutzer möchte ein Produkt kaufen oder downloaden Sie die Datei.Estimation SkalaGoogle stuft Seiten wie folgt:

Wichtig
Reise
Related
Irrelevant
Offtopic
Wichtige Seite
Query: ist von größter Bedeutung und wird zur Navigation Typ verwandt. Page: Seite mit den Suchergebnissen wird ein offizielles Produkt oder einer Dienstleistung. Beispiele:ga [70]"Wichtig" Anträge müssen im Besitz eines offiziellen Seite der Suchergebnisse. Wenn Sie nach Namen Sternen suchen, ist Google erste Seite des offiziellen versucht, wie "wichtiges Ergebnis" zu zeigen. In der Tat, diese Marke zu suchen. Aber keine Sorge, wenn Sie nicht über eine starke Marke. Offizielle Blogs, soziale Netzwerke (Stern mail.ru) werden ebenfalls als "wichtig" und listet die primäre, wenn nicht Lera Massssskva natürlich.Nützliche SeiteViele SEOs glauben, dass 80% der Suchergebnisse aus dieser Art von Seiten aufgebaut sind. Seite ist nützlich, wenn Sie die folgenden Merkmale aufweisen: Befriedigung der Benutzer ist voll von Informationen, hochwertige und maßgebend. Nützliche Links zu beantworten speziell die Frage, weder breit noch spezifischer. Das Dokument enthält auch die Arten von Links:

    
sehr informative Seite
    
aktuelle Inhalte
    
Seite kann der Benutzer zu bekommen, was Sie in voller wollen
    
wichtige interne Seite auf den "richtigen" Seite
    
Home Qualität vor Ort zu einem bestimmten ProduktIm Idealfall muss Optimierer Ziel war es, die nützlichen Seiten zu bestimmen. Sie können einen bekannten Schluss, dass "der Inhalt -. Ist König" Optimal abgestimmt auf die Kategorie 1 und 3, die glücklich machen und Retrieval-System anpassen würde. und sercherov. Und dann sehen Sie, und Sie glücklich machen. :)Relevant SeiteAls relevant erachtet Seiten, die weniger wertvollen Eigenschaften als nützlich sind. Sie neigen dazu, weniger informativ, autoritär, oder beleuchten nur einen wichtigen Aspekt der Frage. Wenn Sie SEO Blogs und Artikel lesen können, achten Sie darauf, das abgedroschene Worte erinnern: ". Nützliche und relevante Inhalte für die Besucher" In der Tat, so ist jeder anständige Website, weil es nicht genug, um von anderen zu trennen. Es ist besser, an einer schmalen Nische, wie zum Beispiel "Nachricht von Murmansk," anstatt "news of Russia", ansonsten gleich der Quelle bis zum Meer Ziel, und verlassen sich auf ihr Glück in diesem Geschäft ist es nicht wert.Irrelevant Seiten und 404 OfftopicAlle Arten unter dem Titel - es ist das gleiche. Einfache sprechen, Müll. Da beide Offtopic und Seiten, die nicht in die Ausgabe geladen werden, fallen nicht. Es gibt auch Abschnitte: nicht spezifiziert, bösartige und Pornographie, aber sie werden selten eingesetzt, und ihre Diskussion ist wahrscheinlich nicht signifikant (sofern Sie nicht tun pornografischen Seiten und Platzierung von Viren auf der Seite).KompetenzzentrumDas Dokument ist über 15 Seiten gewidmet Schulung und Beratung neue Experten für Qualität. Workflow:

    
Den Job zu bekommen
    
Auswertung starten
    
Vorbei die Erstprüfung
    
Pereotsenivanie ungelöste Aufgaben
    
KommentarUnd hier ist die Einschätzung des Panels selbst (die ursprüngliche Bildqualität ist schlecht, sorry):Google_quality_raters_html_m4dcd19bAnalysten können den Modus der "live" oder "Im Cache"-Seiten. Damit soll sichergestellt werden, dass im Falle von unten lebt, war cache geschätzt. Wenn aber, und Cache-Miss, geht die Seite in die Kategorie der "404". Individuelle Moderatoren finish "hervorragende Arbeit" oder diejenigen, die die Qualität der Experten beurteilen abgelehnt. Bevor Sie den Druckauftrag an "outstanding" zu einem erklärenden Kommentar zu schreiben. Und es sieht so aus:Google_quality_raters_html_m46051e8By the way, ihre lokalen Jargon:

    
V (Wichtig) - DL (nicht geladen)
    
USF (Reisen) - FL (Foreign)
    
Rel (Relevant) - MAL (Malicious)
    
NR (irrelevant) - PPC (Pay per click)
    
OT (Offtopic)Was Google denkt Spam "Vebspamom sind Seiten, die von Webmastern erstellt werden, um Suchmaschinen und Besucher Trick." Search Engine Spam nimmt als einen Feind, auch wenn die Seite ist relevant und nützlich für eine bestimmte Suchanfrage. Google heißt es: "Die Seite kann gelobt, bekommen und manchmal sogar" wichtig "und zugleich als Spam klassifiziert werden." Nach einer solchen Marke Seite geht "in den Korb." Wenn Sie also schwarz-Optimierung Techniken zu verwenden, downloaden und lesen Sie das Dokument sorgfältig auf Details unter "Spam".Arten von SpamHier ist, was Experten die Qualität der Spam betrachten:

    
PPC-Seite
    
Captured Domain
    
Unsichtbarer Text und Links
    
JavaScript-Weiterleitungen
    
Gefüllt mit Seiten von Schlüsselwörtern
    
- 100%-Rahmen
    
"Sly" Weiterleitungen und PopupsPPC SeitenDiese Seiten sind in den meisten Fällen sehen aus wie Blog-Posts. Sie sind immer von maskierten und globalen ad-Einheiten umgeben. Inhalt, in der Regel, "Seife". Arten der betrügerische PPC Seiten:

    
Verzeichnisse: ja, was könnte da sein, um die ganze ðóíåò überschwemmt Vorschläge für Auflagen zu erzählen. Bunch of Anzeigen auf Null Sinn. Ein markantes Beispiel: web.cn.ua;
    
Weblogs: auto-generated content oder beraubt, mit Werbung Windpocken abgedeckt.
    
Forum: sparsenny Inhalte von einem oder mehreren der anderen Foren. Wir haben Mode, die Antworten mail / Google / Yandex stehlen und sie ähnliche Websites. Pile von Seiten, wenn der Pegel nicht unter der Rotz.Google trotzt der Definition von Duplicate Content. Wenn der Algorithmus nicht bestimmen kann, die Herkunft des Textes setzen Sie ein Häkchen. Dann, Sie ahnen es, erhält der Analyst einen Antrag und wird auf der Website vom menschlichen Standpunkt aus zu beurteilen. Der Ausgang des Verfahrens ist klar. Verwenden Sie Copyscape, um ihre Projekte in regelmäßigen Abständen. Diese klasifikatsiya behauptet nicht, dass Inhalte nicht kopiert überhaupt. Wenn Sie ein oder zwei andere zu nehmen und einen Text-Link, um die Quelle, passiert nichts. Die Hauptsache ist, es nicht zu übertreiben. Kurz gesagt, ein wenig copy-paste - es ist nicht gefährlich, wenn Sie die Website Vertrauen und hat genug von seinen eigenen Inhalt. Auf der Anklagebank des genannten Rates Analyst: "Schauen Sie sich den Text auf der ersten" Computer Grammatik ". Dies wiederum führt uns zu dem Thema sprachliche Qualität. Die Foren seo regelmäßig "innovative" Produkte, die unikaliziruyut Text und Copyscape und getestet advego plagiatus. Aber keine Maschine ersetzen kann die dünne Bedeutung, richtig gewählt Synonyme und verschiedenen sprachlichen dreht. Govnoskripty neigen dazu, Übersetzung aus dem Russischen in die Fremdsprache und zurück nutzen. Versuchen Sie, das Ergebnis zu erraten. Ich bin eher geneigt, die Regelung Russisch> Englisch> Russisch-Albaner. Aber das Komische ist, dass LSI sieht oft solche Texte gut. Das ist alarmierend. Als Texter, zu einem gewissen Grad, ich an jenen Enthusiasten, die in den langen Dienst dieser Zeichensatz glauben lachen. Ja, gute Texte - glauben, dass ein kostspieliges Verfahren, mich - es ist teuer, aber Abweichungen von den Index. Google hält diese Kategorien von Duplikaten Inhalt:

Text
Poems
Ringtones
Zitate
Sprichwörter und Sprüche

Captured Domain
Diese  Kategorie bezieht sich auf die letzten Domänen, die durch "Betrug" erworben wurden, bevor der Inhaber der Lage wäre, sie zu verlängern. So haben die Spammer ihre persönlichen Inhalte auf der Website und springen vor Freude, Vertrauen und die Analyse der referentiellen Kraft der Domain platziert. Glücklicherweise Google überwacht WHOIS, leicht identifiziert und vergleicht das Ablaufdatum der Domain-Namen und eine radikale Veränderung im Inhalt.