This page has been robot translated, sorry for typos if any. Original content here.

Förderung der Website Schritt für Schritt

Förderung der Website Schritt für Schritt

Inhaltsverzeichnis:
Einleitung
1. Allgemeine Informationen zu Suchmaschinen
1.1 Geschichte der Entwicklung von Suchmaschinen
1.2 Allgemeine Grundsätze von Suchmaschinen
2. Interne Rankingfaktoren
2.1 Textgestaltung von Webseiten
2.1.1 Die Menge an Text pro Seite
2.1.2 Anzahl der Keywords pro Seite
2.1.3 Keyword-Dichte
2.1.4 Speicherort von Keywords auf der Seite
2.1.5 Stilistisches Design des Textes
2.1.6 Das "TITLE" -Tag
2.1.7 Schlüsselwörter im Text von Links
2.1.8 "ALT" Bild-Tags
2.1.9 Beschreibung Meta-Tag
2.1.10 Schlüsselwörter Meta-Tag
2.2 Struktur der Website
2.2.1 Anzahl der Seiten auf der Website
2.2.2. Navigationsmenü
2.2.3 Schlüsselwort im Titel der Seite
2.2.4 Vermeiden Sie Unterverzeichnisse
2.2.5 Eine Seite - ein Schlüsselwort
2.2.6 Homepage der Website
2.3 Häufige Fehler
2.3.1 Grafischer Titel
2.3.2 Grafisches Navigationsmenü
2.3.3 Navigieren durch Skripte
2.3.4 Sitzungskennung
2.3.5 Redirects
2.3.6 Der versteckte Text
2.3.7 Ein-Pixel-Links
3 Externe Rankingfaktoren
3.1 Was wird für die Abrechnung externer Links zu der Site verwendet?
3.2 Bedeutung von Referenzen (Zitationsindex)
3.3. Referenztext
3.4 Relevanz der verweisenden Seiten
3.5 Google PageRank - die theoretische Grundlage
3.6 Google PageRank - praktische Anwendung
3.7 TIC und VIC Yandex
3.8 Erhöhung der Link-Popularität
3.8.1 Übermittlung an allgemeine Verzeichnisse
3.8.2 Das DMOZ-Verzeichnis
3.8.3 Das Yandex-Verzeichnis
3.8.4 Linkaustausch
3.8.5 Pressemitteilungen, News-Feeds, thematische Ressourcen
4 Indizieren der Website
5 Schlüsselwortauswahl
5.1 Erste Wahl der Schlüsselwörter
5.2 Hochfrequenz und Niederfrequenz
5.3 Bewertung des Wettbewerbsniveaus von Suchanfragen
5.4 Sequenzielle Verfeinerung von Suchanfragen
6 Verschiedene Informationen über Suchmaschinen
6.1 Google SandBox
6.2 Google LocalRank
6.3 Merkmale der verschiedenen Suchmaschinen
6.4 Tipps, Annahmen, Beobachtungen
6.5 Den richtigen Inhalt erstellen
6.6 Auswahl einer Domain und Hosting
6.7 Änderung der Website-Adresse
7. Semonitor - ein Paket von Programmen zur Förderung und Optimierung der Website
7.1 Moduldefinition von Positionen
7.2 Modul für externe Links
7.3 Modul Indizierung der Site
7.4 Log-Analysator-Modul
7.5 Modul Page Rank Analyzer
7.6 Schlüsselwortauswahlmodul
7.7 HTML-Analysatormodul
7.7 Site-Registrierungsprogramme AddSite und Add2Board
8. Nützliche Ressourcen
Statt der Schlussfolgerung - Förderung der Website Schritt für Schritt
----------------------------------------

Einleitung
Dieser Kurs richtet sich an Autoren und Website-Inhaber, die sich näher mit den Fragen der Suchmaschinenoptimierung und der Förderung ihrer Ressourcen befassen möchten. Es ist hauptsächlich für Anfänger gedacht, aber ein erfahrener Webmaster wird hoffentlich etwas Neues daraus lernen. Im Internet finden Sie eine große Anzahl von Artikeln zum Thema Suchmaschinenoptimierung, dieses Tutorial versucht, alle Informationen in Form eines einzigen, konsistenten Kurses zu kombinieren.
Die Informationen in diesem Lehrbuch können in mehrere Teile unterteilt werden:
- klare, spezifische Empfehlungen, praktische Handlungsleitlinien;
- theoretische Informationen, die nach unserer Meinung jedem Spezialisten auf dem Gebiet der Seo gehören sollten;
- Ratschläge, Beobachtungen, Empfehlungen aufgrund von Erfahrungen, Studium verschiedener Materialien usw.

1. Allgemeine Informationen zu Suchmaschinen
1.1 Geschichte der Entwicklung von Suchmaschinen
In der Anfangsphase der Entwicklung des Internets war die Anzahl seiner Benutzer gering und die Menge der verfügbaren Informationen ist relativ gering. In den meisten Fällen hatten Menschen aus verschiedenen Universitäten und Labors Zugang zum Internet, und im Allgemeinen wurde das Netzwerk für wissenschaftliche Zwecke genutzt. Zu dieser Zeit war die Aufgabe, Informationen im Internet zu finden, bei weitem nicht so aktuell wie heute.
Eine der ersten Möglichkeiten, den Zugriff auf die Informationsressourcen des Netzwerks zu organisieren, war die Erstellung von Verzeichniskatalogen, in denen Links zu Ressourcen entsprechend dem Thema gruppiert wurden. Das erste derartige Projekt war die Yahoo-Site, die im April 1994 eröffnet wurde. Nachdem die Anzahl der Seiten im Yahoo-Verzeichnis deutlich gestiegen ist, wurde die Möglichkeit hinzugefügt, Informationen zum Katalog zu finden. Dies war natürlich keine Suchmaschine im vollen Sinne, da der Suchbereich nur auf Ressourcen beschränkt war, die in dem Verzeichnis vorhanden waren, und nicht auf alle Internetressourcen.
Referenzkataloge waren früher weit verbreitet, haben aber ihre Popularität in der heutigen Zeit praktisch verloren. Der Grund dafür ist sehr einfach - selbst moderne Kataloge, die eine große Menge an Ressourcen enthalten, repräsentieren nur Informationen über einen sehr kleinen Teil des Internets. Das größte Verzeichnis des DMOZ-Netzwerks (oder Open Directory Project) enthält Informationen über 5 Millionen Ressourcen, während die Google-Suchmaschine Datenbank aus mehr als 8 Milliarden Dokumenten besteht.
Die erste vollwertige Suchmaschine war das 1994 erschienene WebCrawler-Projekt.
1995 erschienen die Suchmaschinen Lycos und AltaVista. Die letzten Jahre war der Führer auf dem Gebiet der Informationsbeschaffung im Internet.
1997 gründeten Sergey Brin und Larry Page Google im Rahmen eines Forschungsprojekts an der Stanford University. Im Moment ist Google die beliebteste Suchmaschine der Welt.
23. September 1997 wurde offiziell die Suchmaschine Yandex, die beliebteste im russischsprachigen Teil des Internets angekündigt.
Derzeit gibt es 3 internationale Hauptsuchmaschinen - Google, Yahoo und MSN Search, die ihre eigenen Datenbanken und Suchalgorithmen haben. Die meisten anderen Suchmaschinen (die sehr oft gezählt werden können) verwenden in der einen oder anderen Form die Ergebnisse der drei aufgeführten. Zum Beispiel verwenden die Suche AOL (search.aol.com) und Mail.ru die Google-Datenbank und AltaVista, Lycos und AllTheWeb - die Yahoo-Datenbank.
In Russland ist Yandex die wichtigste Suchmaschine, gefolgt von Rambler, Google.ru, Aport, Mail.ru und KM.ru.

1.2 Allgemeine Grundsätze von Suchmaschinen
Das Suchsystem besteht aus folgenden Hauptkomponenten:
Spider (Spider) - ein Browser-ähnliches Programm, das Webseiten herunterlädt.
Crawler (Crawler, "Travelling Spider") - ein Programm, das automatisch alle auf der Seite gefundenen Links durchläuft.
Indexer (ein Indexer) ist ein Programm, das von Spinnen heruntergeladene Webseiten analysiert.
Datenbank - der Speicher der heruntergeladenen und bearbeiteten Seiten.
Suchmaschinen-Engine - holt Suchergebnisse aus der Datenbank.
Webserver (Webserver) ist ein Webserver, der mit dem Benutzer und dem Rest der Suchmaschine interagiert.
Die detaillierte Implementierung von Suchmaschinen kann sich voneinander unterscheiden (zum Beispiel kann das Spider + Crawler + Indexer-Paket als einzelnes Programm ausgeführt werden, das bekannte Webseiten herunterlädt, analysiert und nach Links durch neue Ressourcen sucht), aber alle Suchmaschinen haben das beschriebene allgemeine Funktionen.
Spinne. Ein Spider ist ein Programm, das Webseiten auf die gleiche Weise wie der Browser eines Benutzers herunterlädt. Der Unterschied besteht darin, dass der Browser die auf der Seite enthaltenen Informationen anzeigt (textuell, grafisch usw.), der Spider keine visuellen Komponenten hat und direkt mit dem HTML-Text der Seite arbeitet (Sie können "den HTML-Code anzeigen") Ihr Browser, um den "rohen" HTML-Text zu sehen.
Crawler. Wählt alle Links aus, die auf der Seite angezeigt werden. Seine Aufgabe ist es, basierend auf Referenzen oder basierend auf einer vordefinierten Liste von Adressen zu bestimmen, wohin der Spider als nächstes gehen soll. Krauler sucht anhand der gefundenen Links nach neuen Dokumenten, die der Suchmaschine noch nicht bekannt sind.
Indexer. Der Indexer analysiert die Seite in Teile und analysiert sie. Verschiedene Elemente der Seite werden unterschieden und analysiert, wie z. B. Text, Überschriften, Struktur- und Stilmerkmale, spezielle Service-HTML-Tags usw.
Datenbank. Die Datenbank ist der Speicher aller Daten, die die Suchmaschine herunterlädt und analysiert. Manchmal wird eine Datenbank als Suchmaschinenindex bezeichnet.
Suchmaschine Ergebnisse Engine. Das System der Ausgabe von Ergebnissen befasst sich mit dem Ranking der Seiten. Es entscheidet, welche Seiten die Anfrage des Benutzers erfüllen und in welcher Reihenfolge sie sortiert werden sollen. Dies geschieht nach den Algorithmen des Suchmaschinenrankings. Diese Information ist das wertvollste und interessanteste für uns - mit dieser Komponente der Suchmaschine interagiert der Optimierer und versucht, die Position der Website in dem Problem zu verbessern, so dass wir in der Zukunft alle Faktoren, die das Ranking der Ergebnisse beeinflussen, im Detail betrachten werden.
Webserver. In der Regel hat der Server eine HTML-Seite mit einem Eingabefeld, in dem der Benutzer den gewünschten Suchbegriff angeben kann. Der Webserver ist auch dafür verantwortlich, die Ergebnisse als HTML-Seite an den Benutzer zu liefern. Zurück nach oben >>>

2. Interne Rankingfaktoren
Alle Faktoren, die die Position der Website bei der Ausgabe der Suchmaschine beeinflussen, können in externe und interne unterteilt werden. Interne Ranking-Faktoren sind diejenigen, die unter der Kontrolle des Eigentümers der Website stehen (Text, Design usw.).
2.1 Textgestaltung von Webseiten
2.1.1 Die Menge an Text pro Seite
Suchmaschinen bewerten Websites, die reich an Informationen sind. Im Allgemeinen sollten Sie danach streben, den Textinhalt der Website zu erhöhen.
Die optimalen Seiten sind 500-3000 Wörter oder 2-20 kb. Text (von 2 bis 20 tausend Zeichen).
Eine Seite, die nur aus wenigen Sätzen besteht, trifft die Top-Suchmaschinen weniger.
Darüber hinaus erhöht mehr Text auf der Seite die Sichtbarkeit der Seite in den Suchmaschinen aufgrund von seltenen oder zufälligen Suchphrasen, die in einigen Fällen einen guten Zustrom von Besuchern ergeben können.
2.1.2 Anzahl der Keywords pro Seite
Schlüsselwörter (Phrasen) sollten mindestens 3-4 mal im Text vorkommen. Die Obergrenze hängt vom Gesamtvolumen der Seite ab - je größer das Gesamtvolumen, desto mehr Wiederholungen sind möglich.
Unabhängig davon sollten wir die Situation mit Suchbegriffen betrachten, dh Wortkombinationen aus mehreren Schlüsselwörtern. Die besten Ergebnisse werden beobachtet, wenn die Phrase im Text mehrmals genau wie eine Phrase vorkommt (dh alle Wörter zusammen in der richtigen Reihenfolge), und außerdem Wörter aus der Phrase mehrmals im Text vorkommen. Es muss auch einen Unterschied (Ungleichgewicht) zwischen der Anzahl der Vorkommen jedes der Wörter, aus denen die Phrase besteht, bestehen.
Betrachten Sie die Situation anhand eines Beispiels. Nehmen wir an, wir optimieren die Seite für den Ausdruck "DVD-Player". Eine gute Option - der Ausdruck "DVD-Player" tritt 10 mal im Text auf, zusätzlich erscheint das Wort "DVD" 7 mal mehr getrennt, das Wort "Player" 5 mal. Alle Figuren im Beispiel sind bedingt, aber sie zeigen eine allgemeine Idee.
2.1.3 Keyword-Dichte
Die Dichte des Keywords auf der Seite zeigt die relative Häufigkeit des Inhalts des Worts im Text an. Die Dichte wird in Prozent gemessen. Zum Beispiel, wenn ein gegebenes Wort 5 Mal auf einer Seite von 100 Wörtern angetroffen wurde, dann ist die Dichte dieses Wortes 5%. Eine zu geringe Dichte führt dazu, dass die Suchmaschine diesem Wort keine richtige Bedeutung gibt. Eine zu hohe Dichte ist in der Lage, den Spamfilter der Suchmaschine zu aktivieren (dh die Seite wird in den Suchergebnissen aufgrund einer übermäßigen häufigen Verwendung der Passphrase künstlich verringert).
Die Dichte des Haupttextes beträgt 5-7%. Bei Phrasen, die aus mehreren Wörtern bestehen, sollten Sie die Gesamtdichte aller Schlüsselwörter berechnen, die die Phrase bilden, und sicherstellen, dass sie innerhalb der angegebenen Grenzen liegt.
Die Praxis zeigt, dass die Dichte des Haupttextes mehr als 7-8% beträgt, obwohl dies zu keinen negativen Folgen führt, aber auch der Sinn des Besonderen in den meisten Fällen nicht.
2.1.4 Speicherort von Keywords auf der Seite
Eine sehr kurze Regel - je näher das Stichwort an den Anfang des Dokuments rückt, desto mehr Gewicht bekommen sie in den Augen der Suchmaschine.
2.1.5 Stilistisches Design des Textes
Suchmaschinen legen besonderen Wert auf den Text, auf die eine oder andere Weise auf der Seite ausgewählt. Folgende Empfehlungen können gemacht werden:
- Verwenden Sie Schlüsselwörter in den Überschriften (der mit den "H" -Tags markierte Text, insbesondere "h1" und "h2"). Gegenwärtig können Sie mit der Verwendung von CSS den von diesen Tags hervorgehobenen Texttyp überschreiben, daher ist die Verwendung der "H" -Tags weniger wichtig als zuvor, aber Sie sollten sie nicht vernachlässigen.
- Markieren Sie Schlüsselwörter in Fettschrift (natürlich nicht im gesamten Text, aber diese Auswahl wird 2-3 Mal auf der Seite getroffen, tut nicht weh). Um dies zu tun, empfehlen wir, das "strong" -Tag anstelle des traditionelleren "B" -Tags (fett) zu verwenden.
2.1.6 Das "TITLE" -Tag
Eines der wichtigsten Tags, denen Suchmaschinen große Bedeutung beimessen. Sie müssen Schlüsselwörter im TITLE-Tag verwenden.
Außerdem enthält der Link zu Ihrer Website in der Suchmaschinenausgabe Text aus dem TITLE-Tag, also ist dies in gewisser Weise die Visitenkarte der Seite.
Über diesen Link navigiert der Besucher der Suchmaschine zu Ihrer Website. Daher sollte das TITLE-Tag nicht nur Keywords enthalten, sondern auch informativ und ansprechend sein.
Typischerweise beträgt die Ausgabe der Suchmaschine 50 bis 80 Zeichen vom TITLE-Tag, so dass die Größe des Headers vorzugsweise auf diese Länge beschränkt sein sollte.
2.1.7 Schlüsselwörter im Text von Links
Auch eine sehr einfache Regel - verwenden Sie Keywords im Text von ausgehenden Links von Ihren Seiten (sowohl zu anderen internen Seiten Ihrer Website, als auch zu anderen Netzwerkressourcen), dies kann Ihnen beim Ranking einen kleinen Vorteil verschaffen.
2.1.8 "ALT" Bild-Tags
Jedes Bild auf der Seite hat ein spezielles Attribut "alternativer Text", das im Tag "ALT" angegeben ist. Dieser Text wird auf dem Bildschirm angezeigt, falls das Bild nicht heruntergeladen werden konnte oder die Bilder im Browser blockiert sind.
Suchmaschinen merken sich beim Parsen (Indizieren) einer Seite den Wert des ALT-Tags, nicht aber beim Ranking der Suchergebnisse.
Im Moment ist es zuverlässig bekannt, dass die Google-Suchmaschine den Text im ALT-Tag der Bilder berücksichtigt, die Links zu anderen Seiten sind. Der Rest der ALT-Tags wird ignoriert. Es gibt keine genauen Daten zu anderen Suchmaschinen, aber man kann so etwas annehmen.
Im Allgemeinen lohnt es sich, einen solchen Ratschlag zu geben - um Schlüsselwörter in den ALT-Tags zu verwenden, ist es möglich und notwendig, obwohl es im Prinzip keine Rolle spielt.
2.1.9 Beschreibung Meta-Tag
Das Meta-Tag "Beschreibung" wurde speziell zum Angeben der Seitenbeschreibung entwickelt. Dieses Tag beeinflusst das Ranking in keiner Weise, ist jedoch sehr wichtig. Viele Suchmaschinen (und insbesondere der größte Yandex und Google) zeigen Informationen aus diesem Tag in den Suchergebnissen an, wenn dieses Tag auf der Seite vorhanden ist und sein Inhalt dem Inhalt der Seite und der Suchanfrage entspricht.
Es ist sicher zu sagen, dass ein hoher Platz in den Suchergebnissen nicht immer von einer großen Anzahl von Besuchern zur Verfügung gestellt wird. Wenn die Beschreibung Ihrer Konkurrenten in den Ergebnissen der Ausgabe attraktiver als Ihre Website ist, werden die Besucher der Suchmaschine sie, nicht Ihre Ressource auswählen.
Daher ist die richtige Zusammensetzung des Meta-Tags Beschreibung von großer Bedeutung. Die Beschreibung sollte kurz, aber informativ und ansprechend sein und die für diese Seite spezifischen Schlüsselwörter enthalten.
2.1.10 Schlüsselwörter Meta-Tag
Dieser Meta-Tag sollte ursprünglich die Schlüsselwörter dieser Seite anzeigen. Derzeit wird es jedoch von Suchmaschinen kaum genutzt.
Sie sollten dieses Tag jedoch "nur für den Fall" ausfüllen. Beim Ausfüllen sollte die folgende Regel beachtet werden: Fügen Sie nur die Schlüsselwörter hinzu, die tatsächlich auf der Seite vorhanden sind.

2.2 Struktur der Website
2.2.1 Anzahl der Seiten auf der Website
Die allgemeine Regel ist, dass je mehr, desto besser. Die Erhöhung der Anzahl der Seiten der Website verbessert die Sichtbarkeit in den Suchmaschinen.
Darüber hinaus wird die allmähliche Hinzufügung neuer Informationsmaterialien zur Website von Suchmaschinen als die Entwicklung der Website wahrgenommen, was zusätzliche Vorteile im Ranking bieten kann.
Versuchen Sie daher, weitere Informationen auf der Website zu veröffentlichen - Nachrichten, Pressemitteilungen, Artikel, nützliche Tipps und so weiter.
2.2.2. Navigationsmenü
In der Regel hat jede Site ein Navigationsmenü. Verwenden Sie die Schlüsselwörter in den Links des Menüs, dies verleiht den Seiten, auf die verwiesen wird, zusätzliches Gewicht.
2.2.3 Schlüsselwort im Titel der Seite
Es besteht die Meinung, dass die Verwendung von Schlüsselwörtern im Namen der HTML-Datei der Seite ihren Platz in den Suchergebnissen positiv beeinflussen kann. Dies gilt natürlich nur für englischsprachige Anfragen.
2.2.4 Vermeiden Sie Unterverzeichnisse
Wenn Ihre Website eine moderate Anzahl von Seiten (mehrere Dutzend) aufweist, ist es besser, dass sie sich im Stammverzeichnis der Site befinden. Suchmaschinen halten solche Seiten für wichtiger.
2.2.5 Eine Seite - ein Schlüsselwort
Versuchen Sie, jede Seite unter Ihrem eigenen Schlüsselsatz zu optimieren. Manchmal können Sie 2-3 verwandte Phrasen wählen, aber Sie sollten nicht eine Seite für 5-10 Phrasen auf einmal optimieren, höchstwahrscheinlich wird das Ergebnis nicht sein.
2.2.6 Homepage der Website
Optimiere die Hauptseite der Seite (Domainname, index.html) für die wichtigsten Sätze für dich. Diese Seite hat die größte Chance, in die Top-Suchmaschinen zu gelangen.
Nach meinen Beobachtungen kann die Hauptseite der Website bis zu 30-40% des gesamten Suchverkehrs ausmachen.

2.3 Häufige Fehler
2.3.1 Grafischer Titel
Sehr oft wird bei der Gestaltung der Website ein grafischer Titel (Cap) verwendet, dh ein Bild in voller Breite, das in der Regel ein Firmenlogo, einen Namen und einige andere Informationen enthält.
Tu das nicht! Der obere Teil der Seite ist ein sehr wertvoller Ort, an dem Sie die wichtigsten Schlüsselwörter platzieren können. Im Falle eines grafischen Bildes ist dieser Ort verschwendet.
In einigen Fällen gibt es ziemlich lächerliche Situationen: der Header enthält Textinformationen, aber für eine größere visuelle Attraktivität wird in Form eines Bildes gemacht (dementsprechend kann das Bild von den Suchmaschinen nicht berücksichtigt werden).
Es empfiehlt sich, eine kombinierte Option zu verwenden - das Grafiklogo oben auf der Seite ist vorhanden, nimmt jedoch nicht die volle Breite ein. Der Rest des Textheaders wird mit den Schlüsselwörtern platziert.
2.3.2 Grafisches Navigationsmenü
Die Situation ist ähnlich wie im vorherigen Absatz - interne Links auf Ihrer Website sollten auch Keywords enthalten, dies wird einen zusätzlichen Vorteil im Ranking geben. Wenn das Navigationsmenü für mehr Attraktivität in Form von Grafiken erstellt wird, können die Suchmaschinen den Text der Links nicht berücksichtigen.
Wenn Sie das grafische Menü nicht überspringen können, vergessen Sie nicht, mindestens alle Bilder mit den richtigen ALT-Tags zu versehen.
2.3.3 Navigieren durch Skripte
In einigen Fällen erfolgt die Navigation durch die Site mithilfe von Skripts. Es sollte verstanden werden, dass die Suchmaschinen Skripte nicht lesen und ausführen können. Daher wird die durch das Skript gegebene Verbindung für die Suchmaschine nicht verfügbar sein und der Crawler wird sie nicht durchlaufen.
In solchen Fällen sollten Sie Links immer auf die übliche Weise duplizieren, so dass die Navigation auf der Website für alle Benutzer zugänglich ist - sowohl für Ihre Besucher als auch für Suchmaschinenroboter.
2.3.4 Sitzungskennung
Auf einigen Websites ist es üblich, die Sitzungs-ID zu verwenden. Das heißt, jeder Besucher erhält beim Besuch der Website einen eindeutigen Parameter & session_id =, der zur Adresse jeder besuchten Seite der Site hinzugefügt wird.
Mithilfe der Sitzungskennung können Sie bequemer Statistiken über das Verhalten von Website-Besuchern sammeln und diese für andere Zwecke verwenden.
Aus der Sicht des Suchroboters ist die Seite mit der neuen Adresse jedoch eine neue Seite. Bei jedem Besuch der Website erhält der Suchroboter eine neue Sitzungs-ID. Wenn er die gleichen Seiten wie zuvor besucht, behandelt er sie als neue Seiten der Website.
Streng genommen haben Suchmaschinen Algorithmen zum "Kleben" von Spiegeln und Seiten mit demselben Inhalt, so dass Websites, die Sitzungs-IDs verwenden, weiterhin indexiert werden. Die Indexierung solcher Sites ist jedoch schwierig und kann in einigen Fällen schiefgehen. Daher wird die Verwendung von Sitzungs-IDs auf der Site nicht empfohlen.
2.3.5 Redirects
Redirects behindern die Analyse der Site durch Suchroboter. Verwenden Sie keine Weiterleitungen, wenn keine eindeutigen Gründe dafür vorliegen.
2.3.6 Der versteckte Text
Die letzten beiden Punkte sind eher keine Fehler, sondern eine vorsätzliche Täuschung von Suchen, aber sie müssen noch erwähnt werden.
Wenn Sie verborgenen Text verwenden (die Farbe des Texts stimmt mit der Hintergrundfarbe überein, z. B. weiß auf weiß), können Sie die Seite mit den erforderlichen Keywords "pumpen", ohne die Logik und das Design der Seite zu beeinträchtigen. Ein solcher Text ist für Besucher unsichtbar, wird jedoch von Suchrobotern perfekt gelesen.
Die Verwendung solcher "grauer" Optimierungsmethoden kann zu einem Site-Verbot führen - das heißt dem erzwungenen Ausschluss einer Site aus dem Index (Datenbank) der Suchmaschine.
2.3.7 Ein-Pixel-Links
Die Verwendung von 1 * 1-Pixel-Grafik-Links (also für den Besucher eigentlich unsichtbar) wird von Suchmaschinen auch als Täuschungsversuch wahrgenommen und kann zu einem Seitenverbot führen. Zurück nach oben >>>

3 Externe Rankingfaktoren
3.1 Was wird für die Abrechnung externer Links zu der Site verwendet?
Wie aus dem vorherigen Abschnitt ersichtlich ist, unterliegen fast alle Faktoren, die das Ranking beeinflussen, der Kontrolle des Autors der Seite. Somit wird es für die Suchmaschine unmöglich, ein wirklich hochwertiges Dokument von einer Seite zu unterscheiden, die speziell für eine gegebene Suchphrase oder sogar eine Seite erzeugt wurde, die von einem Roboter erzeugt wurde und überhaupt keine nützliche Information trug.
Daher ist einer der Schlüsselfaktoren in Ranking-Seiten die Analyse von externen Links zu jeder Seite, die bewertet wird. Dies ist der einzige Faktor, auf den der Autor der Website keinen Einfluss hat.
Es ist logisch anzunehmen, dass je mehr externe Links auf der Site verfügbar sind, desto mehr Interesse diese Site den Besuchern entgegenbringt. Wenn die Besitzer anderer Sites im Netzwerk einen Link zu der geschätzten Ressource setzen, bedeutet dies, dass sie diese Ressource als von ausreichender Qualität betrachten. Nach diesem Kriterium kann die Suchmaschine auch entscheiden, wie viel Gewicht an ein bestimmtes Dokument angehängt werden soll.
Daher gibt es zwei Hauptfaktoren, durch die die Seiten, die in der Datenbanksuchmaschine verfügbar sind, sortiert werden, wenn sie ausgegeben werden. Diese Relevanz (dh wie stark die Seite mit dem Thema der Abfrage in Beziehung steht - die im vorherigen Abschnitt beschriebenen Faktoren) und die Anzahl und Qualität externer Links. Letzterer Faktor erhielt auch die Namen Referenzzitat, Linkpopularität oder Zitationsindex.
3.2 Bedeutung von Referenzen (Zitationsindex)
Es ist leicht zu sehen, dass eine einfache Zählung der Anzahl der externen Links uns nicht genügend Informationen liefert, um die Site zu bewerten. Offensichtlich sollte der Link von www.microsoft.com viel mehr als der Link von der Homepage www.hostingcompany.com/~myhomepage.html bedeuten, so dass Sie die Popularität von Websites nicht durch die Anzahl der externen Links vergleichen können - Sie müssen auch die Wichtigkeit von Links berücksichtigen.
Um die Anzahl und Qualität externer Links zu einer Site zu bewerten, führen Suchmaschinen das Konzept des Zitationsindex ein.
Der Zitierindex oder IC ist ein allgemeiner Hinweis auf numerische Indikatoren, die die Popularität einer bestimmten Ressource schätzen, dh einen absoluten Wert der Wichtigkeit der Seite. Jede Suchmaschine verwendet ihre eigenen Algorithmen, um ihren eigenen Zitationsindex zu berechnen. Diese Werte werden in der Regel nicht veröffentlicht
Zusätzlich zu dem üblichen Zitierungsindex, der ein absoluter Indikator ist (dh eine bestimmte spezifische Zahl), wird der Begriff gewichteter Zitationsindex eingeführt, der ein relativer Wert ist, das heißt, er zeigt die Popularität dieser Seite relativ zur Beliebtheit anderer Seiten im Internet. Der Begriff "Weighted Citation Index" (WIC) wird üblicherweise in Bezug auf die Suchmaschine Yandex verwendet.
Eine detaillierte Beschreibung der Zitationsindizes und Algorithmen für ihre Berechnung wird in den folgenden Abschnitten vorgestellt.
3.3. Referenztext
Eine große Bedeutung in der Rangordnung von Suchergebnissen wird dem Text von externen Links zu der Site gegeben.
Der Text des Links (oder alternativ der Anker- oder Referenztext) ist der Text zwischen den Tags "A" und "/ A", dh der Text, mit dem Sie auf den Browser klicken können, um zu einer neuen Seite zu gelangen.
Wenn der Linktext die erforderlichen Schlüsselwörter enthält, sieht die Suchmaschine dies als eine zusätzliche und sehr wichtige Empfehlung, eine Bestätigung, dass die Site wertvolle Informationen enthält, die für das Thema der Suchanfrage relevant sind.
3.4 Relevanz der verweisenden Seiten
Neben dem Bezugstext wird auch der allgemeine Informationsgehalt der verweisenden Seite berücksichtigt.
Ein Beispiel. Angenommen, wir fördern eine Ressource für den Verkauf von Autos. In diesem Fall bedeutet die Verbindung von der Autoreparaturstätte viel mehr als eine ähnliche Verbindung von der Seite für die Gartenarbeit. Der erste Link kommt mit einer thematisch ähnlichen Ressource, daher wird er von der Suchmaschine mehr geschätzt.
3.5 Google PageRank - die theoretische Grundlage
Der erste, der das System der Buchhaltung für externe Links patentierte, war Google. Der Algorithmus wurde als PageRank bezeichnet. In diesem Kapitel sprechen wir über diesen Algorithmus und wie er das Ranking von Suchergebnissen beeinflussen kann.
PageRank wird für jede Webseite separat berechnet und durch den PageRank (Zitat) der darauf bezogenen Seiten bestimmt. Eine Art Teufelskreis.
Die Hauptaufgabe besteht darin, ein Kriterium zu finden, das die Wichtigkeit der Seite ausdrückt. Im Falle von PageRank wurde dieses Kriterium verwendet, um die theoretische Seitenzahl auszuwählen.
Betrachten wir das Modell der Reise des Benutzers durch das Netzwerk, indem Sie auf die Links klicken. Es wird angenommen, dass der Benutzer beginnt, die Seiten mit einer zufällig ausgewählten Seite zu durchsuchen. Dann geht er über Links zu anderen Ressourcen. In diesem Fall besteht die Möglichkeit, dass der Besucher die Website verlässt und wieder Dokumente von einer zufälligen Seite anzeigt (im PageRank-Algorithmus beträgt die Wahrscheinlichkeit dieser Aktion bei jedem Schritt 0,15). Mit einer Wahrscheinlichkeit von 0,85 setzt er die Reise fort, indem er auf einen der auf der aktuellen Seite verfügbaren Links klickt (alle Links sind in diesem Fall gleich). Wenn er die Reise in die Unendlichkeit fortsetzt, wird er viele beliebte Seiten und weniger bekannte besuchen.
Daher wird der PageRank einer Webseite als die Wahrscheinlichkeit definiert, einen Nutzer auf dieser Webseite zu finden. während die Summe der Wahrscheinlichkeiten für alle Webseiten des Netzwerks eins ist, da sich der Benutzer notwendigerweise auf einer Seite befindet.
Da es nicht immer bequem ist, mit Wahrscheinlichkeiten zu arbeiten, ist es nach einer Reihe von Transformationen mit PageRank möglich, in Form konkreter Zahlen zu arbeiten (wie wir es zum Beispiel in der Google ToolBar sahen, wo jede Seite einen PageRank von 0 bis 10 hat).
Nach dem oben beschriebenen Modell bekommen wir das:
- Jede Seite im Netzwerk (auch wenn sie keine externen Links hat) hat anfangs einen PageRank ungleich Null (wenn auch sehr klein);
- Jede Seite mit ausgehenden Links überträgt einen Teil ihres PageRanks auf Seiten, auf die sie verweist. In diesem Fall ist der übertragene PageRank umgekehrt proportional zur Anzahl der Links auf der Seite - je mehr Links, desto kleiner der PageRank wird für jeden übertragen;
- PageRank wird nicht vollständig übertragen, bei jedem Schritt gibt es Dämpfung (diese Wahrscheinlichkeit beträgt 15%, wenn der Benutzer von einer neuen, zufällig ausgewählten Seite aus betrachtet).
Betrachten wir nun, wie PageRank das Ranking von Suchergebnissen beeinflussen kann (etwa "can", weil PageRank in seiner reinen Form lange nicht mehr am Google-Algorithmus beteiligt war, sondern weiter unten). Mit dem Einfluss von PageRank ist alles sehr einfach - nachdem die Suchmaschine eine Anzahl relevanter Dokumente gefunden hat (anhand von Textkriterien), können Sie sie nach PageRank sortieren - da wäre es logisch anzunehmen, dass ein Dokument mit hochwertigeren externen Links die wertvollsten Informationen enthält.
Daher "schiebt" der PageRank-Algorithmus die Suche nach den Dokumenten, die ohne die Suchmaschine am beliebtesten sind, nach oben.
3.6 Google PageRank - praktische Anwendung
Derzeit wird PageRank nicht direkt im Google-Algorithmus verwendet. Dies ist nachvollziehbar - da PageRank nur die Anzahl und Qualität der externen Links zu der Site charakterisiert, jedoch den Bezugstext und den Informationsgehalt der verweisenden Seiten nicht berücksichtigt - diese Faktoren haben den maximalen Wert im Ranking. Es wird angenommen, dass Google zum Ranking den sogenannten thematischen PageRank verwendet (also nur Links von thematisch verlinkten Seiten), Details dieses Algorithmus sind jedoch nur Google-Entwicklern bekannt.
Um den Wert von PageRank für jede Webseite zu ermitteln, können Sie die Google ToolBar verwenden, die den Wert von PageRank im Bereich von 0 bis 10 anzeigt. Beachten Sie, dass Google ToolBar nicht den genauen Wert von PageRank zeigt, sondern nur den PageRank-Bereich und die Bereichsnummer (von 0 bis 10) wird durch die logarithmische Skala bestimmt.
Lassen Sie uns dies anhand eines Beispiels erklären: Jede Seite hat den genauen Wert von PageRank, der nur Google bekannt ist. Um den gewünschten Bereich und die Ausgabeinformationen auf der ToolBar zu bestimmen, wird eine logarithmische Skala verwendet (ein Beispiel ist in der Tabelle gezeigt).
Realer Wert von PR Value ToolBar
1-10 -> 1
10-100 -> 2
100-1000 -> 3
1000-10.000 -> 4
usw.
Alle Zahlen sind relativ, aber sie zeigen deutlich, dass die in der Google ToolBar angezeigten PageRank-Bereiche nicht gleichwertig sind. Zum Beispiel ist das Erhöhen von PageRank von 1 auf 2 einfach, und von 6 auf 7 ist es viel schwieriger.
In der Praxis wird PageRank hauptsächlich für zwei Zwecke verwendet:
1. Schnelle Bewertung der Höhe der Website-Promotion. PageRank liefert keine genauen Informationen über verweisende Seiten, sondern ermöglicht Ihnen eine schnelle und einfache Einschätzung des Entwicklungsstands der Website. Für englischsprachige Websites können Sie die folgenden Stufen einhalten: PR 4-5 - die typischste PR für die meisten Websites mit durchschnittlicher Promotion. PR 6 - sehr gut beworbene Website. PR 7 - ein Wert, der für einen normalen Webmaster fast unerreichbar ist, aber manchmal auftritt. PR 8, 9, 10 - sind nur auf Seiten von großen Unternehmen (Microsoft, Google, etc.) gefunden. PageRank-Wissen kann beim Austausch von Links verwendet werden, um die Qualität der für den Austausch vorgeschlagenen Seite und in anderen ähnlichen Situationen zu bewerten.
2. Bewertung des Wettbewerbsniveaus bei der Suchanfrage. Obwohl PageRank nicht direkt in Ranking-Algorithmen verwendet wird, können Sie die Wettbewerbsfähigkeit einer bestimmten Abfrage indirekt bewerten. Wenn zum Beispiel Seiten mit PageRank 6-7 in der Suchmaschine vorhanden sind, hat die Seite mit PageRank 4 kaum eine Chance, an die Spitze zu gelangen.
Ein weiterer wichtiger Hinweis ist, dass die in der Google ToolBar angezeigten PageRank-Werte nur sehr selten (alle paar Monate) neu berechnet werden, sodass ToolBar einige veraltete Informationen anzeigt. Das heißt, die Google-Suchmaschine selbst berücksichtigt Änderungen an externen Links viel schneller als diese Änderungen in der Google ToolBar angezeigt werden.
3.7 TIC und VIC Yandex
VIC - gewichteter Zitationsindex - analoger PageRank, verwendet von der Suchmaschine Yandex. Die Werte der WIC werden nirgendwo veröffentlicht und sind nur Yandex bekannt. Da Sie die WIC nicht herausfinden können, sollten Sie sich daran erinnern, dass Yandex einen eigenen Algorithmus zur Bewertung der "Wichtigkeit" der Seiten hat.
TIC - thematischer Zitationsindex - wird für die gesamte Site berechnet und zeigt die Autorität der Ressource relativ zu anderen, thematisch nahen Ressourcen (und nicht zu allen Internet-Sites im Allgemeinen). TIC wird für das Ranking von Websites im Yandex-Katalog verwendet und hat keinen Einfluss auf die Suchergebnisse in Yandex.
Die Werte von TIC werden in Yandex.Bar angezeigt. Es sollte nur daran erinnert werden, dass der TIC für die Site als Ganzes berechnet wird und nicht für jede spezifische Seite.
Für die Praxis kann TIC für die gleichen Zwecke wie PageRank verwendet werden - Bewertung der Popularität der Website und Beurteilung der Höhe des Wettbewerbs für eine bestimmte Suchanfrage. Aufgrund der Abdeckung des Internets durch die Yandex-Suchmaschine eignet sich der TIC sehr gut zur Auswertung russischsprachiger Seiten.
3.8 Erhöhung der Link-Popularität
3.8.1 Übermittlung an allgemeine Verzeichnisse
Im Internet gibt es eine große Anzahl von Verzeichnis-Sites (Verzeichnissen), die Links zu anderen Netzwerkressourcen enthalten, die nach Themen unterteilt sind. Der Vorgang des Hinzufügens von Informationen zu Ihrer Site wird als Übermittlung bezeichnet.
Solche Verzeichnisse sind kostenpflichtig und kostenlos, sie können einen Backlink von Ihrer Site erfordern oder nicht erfordern. Ihre Anwesenheit ist sehr gering, dh es gibt keinen wirklichen Besucherzufluss von ihnen. Suchmaschinen berücksichtigen jedoch Links von solchen Verzeichnissen, die Ihre Website in den Suchergebnissen erhöhen können.
Wichtig! Berücksichtigen Sie, dass der tatsächliche Wert nur die Verzeichnisse sind, die eine direkte Verknüpfung zu Ihrer Site herstellen. An dieser Stelle lohnt es sich genauer zu leben. Es gibt zwei Möglichkeiten zum Verknüpfen. Ein direkter Link wird durch das Standard-HTML-Sprachkonstrukt ("A href = ... etc") platziert. Darüber hinaus können Links durch verschiedene Arten von Skripts, Weiterleitungen usw. geschaltet werden. Suchmaschinen verstehen nur direkte Links, die direkt im HTML-Code angegeben sind. Wenn das Verzeichnis daher keine direkte Verknüpfung zu Ihrer Site bietet, ist der Wert nahe Null.
Übermitteln Sie nicht an FFA (Free-for-All) Verzeichnisse. Solche Verzeichnisse hosten automatisch Links von beliebigen Themen, sie werden von Suchmaschinen ignoriert. Das einzige, was zur Einreichung bei der FFA führen wird, ist die Zunahme von Spam an Ihrer E-Mail-Adresse. Der Hauptzweck der FFA ist dies.
Seien Sie vorsichtig mit den Versprechen verschiedener Programme und Dienste, Ihre Ressource zu Hunderttausenden von Suchmaschinen, Verzeichnissen und Verzeichnissen hinzuzufügen. Wirklich nützliche Verzeichnisse im Netzwerk werden nicht mehr als ein paar hundert eingegeben, diese Zahl und Sie müssen darauf aufbauen. Professionelle Dienste für die Einreichung funktionieren nur mit so vielen Verzeichnissen. Wenn riesige Zahlen in Hunderttausenden von Ressourcen versprochen werden, dann besteht die Einreichungsdatenbank hauptsächlich aus den oben erwähnten FFA-Archiven und anderen nutzlosen Ressourcen.
Geben Sie der manuellen oder halbautomatischen Übermittlung den Vorzug - vertrauen Sie keinen voll automatisierten Prozessen. In der Regel gibt das Einreichen unter der Kontrolle einer Person eine viel bessere Rendite als die vollautomatische Einreichung.
Die Notwendigkeit, bezahlten Katalogen eine Website hinzuzufügen oder einen Antwort-Backlink von Ihrer Site anzuhängen, sollte für jeden Katalog separat festgelegt werden. In den meisten Fällen macht dies wenig Sinn, aber es kann Ausnahmen geben.
Die Übermittlung von Websites an Verzeichnisse hat keine sehr signifikante Auswirkung, verbessert jedoch die Sichtbarkeit der Website in Suchmaschinen. Diese Möglichkeit ist allgemein verfügbar und erfordert nicht viel Zeit oder Geld. Vergessen Sie also nicht, wenn Sie Ihr Projekt bewerben.
3.8.2 Das DMOZ-Verzeichnis
Das DMOZ-Verzeichnis (www.dmoz.org) oder das Open Directory Project ist das größte Internetverzeichnis. Darüber hinaus gibt es eine große Anzahl von Kopien der Haupt-DMOZ-Website im Internet. Indem Sie Ihre Site in das DMOZ-Verzeichnis stellen, erhalten Sie nicht nur einen wertvollen Link aus dem Katalog selbst, sondern auch mehrere Dutzend Links aus verwandten Quellen. Daher ist das DMOZ-Verzeichnis für den Webmaster von großem Wert.
Es ist nicht einfach, zum Verzeichnis zu gelangen, es hängt von deinem Glück ab. Die Website kann einige Minuten nach dem Hinzufügen im Katalog angezeigt werden und kann viele Monate warten, bis sie an der Reihe ist.
Wenn Ihre Website nicht lange im Verzeichnis angezeigt wird, Sie aber sicher sind, dass alles korrekt ausgeführt wurde und die Website in Bezug auf die Parameter für den Katalog geeignet ist, können Sie versuchen, dem Redakteur Ihrer Kategorie eine Frage zu Ihrer Anwendung zu schreiben (die DMOZ-Site bietet eine solche Möglichkeit). Selbstverständlich werden keine Garantien gegeben, aber es kann helfen.
Das Hinzufügen zum DMOZ-Verzeichnis ist kostenlos, auch für kommerzielle Websites.
3.8.3 Das Yandex-Verzeichnis
Die Präsenz im Yandex-Katalog bietet einen wertvollen thematischen Link zu Ihrer Website, der die Position Ihrer Website in der Suchmaschine verbessern kann. Darüber hinaus kann das Yandex-Verzeichnis selbst ein wenig Traffic für Ihre Website bereitstellen.
Es gibt kostenpflichtige und kostenlose Optionen zum Hinzufügen von Informationen zum Yandex-Verzeichnis. Selbstverständlich sind im Falle einer kostenlosen Option weder die Bedingungen noch die Hinzufügung der Website in irgendeiner Weise garantiert.
Abschließend ein paar Empfehlungen für die Übermittlung an so wichtige Verzeichnisse wie DMOZ und Yandex. Lesen Sie zunächst sorgfältig die Anforderungen für Websites, Beschreibungen usw., damit Sie bei der Bewerbung nicht gegen die Regeln verstoßen (dies kann dazu führen, dass Ihre Bewerbung nicht berücksichtigt wird).
Und zweitens ist die Präsenz in diesen Katalogen eine wünschenswerte, aber nicht zwingende Voraussetzung. Wenn Sie nicht in diese Verzeichnisse kommen, verzweifeln Sie nicht - um hohe Positionen in den Suchergebnissen zu erreichen, können Sie das tun und ohne diese Verzeichnisse tun die meisten Sites genau das.
3.8.4 Linkaustausch
Der Austausch von Links bedeutet, dass Sie von einer speziell dafür eingerichteten Seite auf andere Seiten verlinken, von denen Sie selbst ähnliche Links erhalten. Im Allgemeinen begrüßen Suchmaschinen den Austausch von Links nicht, da sie in den meisten Fällen die Ausgabe einer Suchmaschine ändern und nichts Nützliches für Internetnutzer bringen. Dies ist jedoch eine effektive Möglichkeit, die Link-Popularität zu erhöhen, wenn Sie mehrere einfache Regeln beachten.
- Verändern Sie Links zu thematisch verlinkten Seiten. Der Austausch mit nicht thematischen Websites ist ineffektiv;
- Stellen Sie vor dem Austausch sicher, dass Ihr Link auf einer "guten" Seite steht. Das heißt, die Seite sollte einen PageRank haben (vorzugsweise 3-4 oder höher), sollte für die Indexierung durch Suchmaschinen verfügbar sein, der plazierte Link sollte direkt sein, die Gesamtzahl der Links auf der Seite sollte 50 nicht überschreiten usw .;
- Erstellen Sie keine Links auf der Website von Katalogen. Die Idee eines solchen Katalogs sieht attraktiv aus - es wird möglich, mit einer großen Anzahl von Seiten eines beliebigen Themas zu wechseln, für jede Seite gibt es eine entsprechende Kategorie im Katalog. In unserem Fall ist Qualität jedoch wichtiger als Quantität, und hier gibt es eine Reihe von Fallstricken. Kein Webmaster wird einen qualitativen Link auf Sie setzen, wenn er als Antwort eine Dummy-Verknüpfung von Ihrem Verzeichnis erhält (PageRank-Seiten aus solchen Verzeichnissen lassen in der Regel viel zu wünschen übrig). Darüber hinaus sind Suchmaschinen extrem negativ für solche Verzeichnisse, es gab auch Fälle von Verbot Websites für die Verwendung solcher Verzeichnisse;
- Markieren Sie eine separate Seite auf der Website unter dem Linktausch. Es sollte einen PageRank haben, von Suchmaschinen indiziert werden usw. Fügen Sie nicht mehr als 50 Links von derselben Seite ein (andernfalls können einige der Links von den Suchmaschinen nicht berücksichtigt werden). Dies wird Ihnen helfen, Partner für den Austausch einfacher zu finden;
- Suchmaschinen versuchen, reziproke Links zu verfolgen, also wenn möglich, verwenden Sie eine andere Domain / Site als die beworbene, um die Response-Links zu hosten. Например, вы продвигаете ресурс site1.com, а ответные ссылки ставите на ресурсе site2.com – это оптимальный вариант;
- проявляйте некоторую осторожность при обмене. Довольно часто приходится сталкиваться с тем, что не совсем честные вебмастера удаляют ваши ссылки со своих ресурсов, поэтому необходимо время от времени проверять наличие своих ссылок.
3.8.5 Pressemitteilungen, News-Feeds, thematische Ressourcen
Этот раздел относится уже скорее к маркетингу сайта, а не к чистому seo. Существует большое число информационных ресурсов и новостных лент, которые публикуют пресс-релизы и новости на различные темы. Такие сайты способны не только привести к вам посетителей напрямую, но и повысить столь нужную нам ссылочную популярность сайта.
Если вы затрудняетесь создать пресс-релиз или новость самостоятельно, то подключайте журналистов – они помогут вам найти или создать информационный повод.
Ищите тематически связанные ресурсы. В Интернете существует огромное количество проектов, которые, не являясь вашими конкурентами, посвящены той же тематике, что и ваш сайт. Старайтесь найти подход к владельцам этих ресурсов, вполне вероятно, что они будут рады разместить информацию о вашем проекте.
И последнее – это относится ко всем способам получения внешних ссылок – старайтесь несколько разнообразить ссылочный текст. Если все внешние ссылки на ваш сайт будут иметь одинаковый ссылочный текст, то это может быть понято поисковыми системами как попытка спама. Zurück nach oben >>>

4 Indizieren der Website
Bevor die Website in den Suchergebnissen angezeigt wird, muss sie von der Suchmaschine indiziert werden. Indexierung bedeutet, dass der Crawler Ihre Website besucht, analysiert und Informationen in die Datenbank der Suchmaschine eingegeben hat.
Wenn eine Seite in den Suchmaschinenindex eingegeben wird, kann sie in den Suchergebnissen angezeigt werden. Wenn im Index keine Seite vorhanden ist, weiß die Suchmaschine nichts darüber und kann daher die Informationen auf dieser Seite nicht verwenden.
Die meisten mittelgroßen Websites (dutzende oder Hunderte von Seiten) haben normalerweise keine Probleme mit der korrekten Indexierung durch Suchmaschinen. Es gibt jedoch eine Reihe von Punkten, die bei der Arbeit auf der Website berücksichtigt werden sollten.
Die Suchmaschine kann auf zwei Arten über die neu erstellte Site erfahren:
- Fügen Sie die Website-Adresse manuell über die entsprechende Form der Suchmaschine hinzu. In diesem Fall teilen Sie der Suchmaschine selbst die neue Website mit und ihre Adresse wird in die Warteschlange für die Indizierung aufgenommen. Fügen Sie nur die Hauptseite der Website hinzu, der Rest wird vom Suchroboter über Links gefunden.
- den Suchroboter für die unabhängige Suche nach Ihrer Website bereitzustellen. Wenn Ihre neue Ressource über mindestens einen externen Link von anderen Ressourcen verfügt, die bereits von der Suchmaschine indiziert wurden, wird der Crawler Ihre Website in kurzer Zeit besuchen und indexieren. In den meisten Fällen wird empfohlen, diese Option zu verwenden, dh einige externe Links zu der Site zu erhalten und einfach auf die Ankunft des Roboters zu warten. Das manuelle Hinzufügen einer Site kann die Wartezeit des Roboters sogar verlängern.
Die Zeit, die für die Indexierung einer Site benötigt wird, beträgt normalerweise 2-3 Tage bis 2 Wochen, abhängig von der Suchmaschine. Die schnellste aller Websites ist die Google-Suchmaschine.
Versuchen Sie, die Website für Suchmaschinen freundlich zu gestalten. Berücksichtigen Sie dabei die folgenden Faktoren:
- Versucht sicherzustellen, dass alle Seiten eurer Seite über Links von der Hauptseite für nicht mehr als 3 Sprünge erreichbar sind. Wenn die Site-Struktur dies nicht zulässt, erstellen Sie eine so genannte Site-Map, mit der Sie die angegebene Regel ausführen können.
- Wiederhole keine häufigen Fehler. Sitzungs-IDs erschweren die Indizierung. Wenn Sie die Navigation durch Skripte verwenden, vergewissern Sie sich, dass Links auf die übliche Weise dupliziert werden. Suchmaschinen wissen nicht, wie sie Skripte lesen (weitere Einzelheiten zu diesen und anderen Fehlern finden Sie in Kapitel 2.3).
- Denken Sie daran, dass Suchmaschinen nicht mehr als 100-200 Kb Text auf der Seite indexieren. Bei Seiten mit einem größeren Volumen wird nur der Anfang der Seite indiziert (die ersten 100-200 KB). Daraus folgt die Regel: Verwenden Sie keine Seiten, die größer als 100 KB sind, wenn Sie sie vollständig indizieren möchten.
Sie können das Verhalten von Suchrobotern mithilfe einer robots.txt-Datei steuern. Sie können bestimmte Seiten explizit für die Indizierung zulassen oder verbieten. Es gibt auch ein spezielles "NOINDEX" -Tag, mit dem Sie einzelne Seiten für die Indexierung schließen können, aber dieses Tag wird nur von russischen Suchmaschinen unterstützt.
Datenbanken von Suchmaschinen werden ständig aktualisiert, Datensätze in der Datenbank können geändert, gelöscht und wieder angezeigt werden, sodass sich die Anzahl der indizierten Seiten Ihrer Website in regelmäßigen Abständen ändern kann.
Einer der häufigsten Gründe für das Verschwinden der Seite aus dem Index ist die Unzugänglichkeit des Servers, dh der Crawler konnte beim Indexieren der Site nicht darauf zugreifen. Nach dem Wiederherstellen des Servers sollte die Site nach einiger Zeit wieder im Index erscheinen.
Es sollte auch beachtet werden, dass je mehr externe Links Ihre Website hat, desto schneller ist die Neuindizierung.
Sie können den Prozess der Indexierung der Site mithilfe der Analyse von Serverprotokolldateien verfolgen, in der alle Besuche von Suchrobotern aufgezeichnet werden. Im entsprechenden Abschnitt werden wir die Programme, die dies erlauben, im Detail besprechen. Zurück nach oben >>>
5 Schlüsselwortauswahl
5.1 Erste Wahl der Schlüsselwörter
Die Auswahl der Schlüsselwörter ist der erste Schritt, von dem aus der Aufbau der Website beginnt. Zum Zeitpunkt der Erstellung der Texte für die Website sollte der Satz von Keywords bereits bekannt sein.
Um Keywords zu ermitteln, sollten Sie zunächst die Dienste der Suchmaschinen selbst nutzen.
Für englischsprachige Websites ist dies www.wordtracker.com und inventory.overture.com
Für Russisch adstat.rambler.ru/wrds/, direct.yandex.ru und stat.go.mail.ru
Wenn Sie diese Dienste verwenden, müssen Sie sich daran erinnern, dass sich ihre Daten stark vom tatsächlichen Bild unterscheiden können. Wenn Sie den Yandex Direct-Dienst verwenden, sollte auch nicht vergessen werden, dass dieser Dienst nicht die erwartete Anzahl von Anfragen anzeigt, sondern die erwartete Anzahl, wie oft eine Anzeige für eine bestimmte Phrase angezeigt wird. Da die Besucher der Suchmaschine häufig mehr als eine Seite anzeigen, ist die tatsächliche Anzahl der Anfragen notwendigerweise kleiner als die Anzahl der Impressionen für dieselbe Suchanfrage.
Die Google-Suchmaschine liefert keine Informationen über die Häufigkeit von Anfragen.
Nachdem die Liste der Keywords näherungsweise bestimmt wurde, können Sie Ihre Mitbewerber analysieren, um herauszufinden, auf welche Schlüsselbegriffe sie abzielen. Sie werden wahrscheinlich in der Lage sein, etwas Neues zu lernen.
5.2 Hochfrequenz und Niederfrequenz
Bei der Optimierung der Website können Sie zwei Strategien unterscheiden - Optimierung für eine kleine Anzahl von sehr beliebten Keywords oder für eine große Anzahl von wenig beliebten. In der Praxis werden beide üblicherweise kombiniert.
Das Fehlen von Hochfrequenz-Anfragen - in der Regel ein hohes Maß an Wettbewerb für sie. Für eine junge Website ist es nicht immer möglich, für diese Abfragen an die Spitze zu gelangen.
Bei Abfragen mit niedriger Häufigkeit ist es oft ausreichend, die gewünschte Wortkombination auf der Seite oder die minimale Textoptimierung zu erwähnen. Unter bestimmten Bedingungen können Abfragen mit niedriger Häufigkeit einen sehr guten Suchverkehr ergeben.
Das Ziel der meisten kommerziellen Websites ist es, das eine oder andere Produkt oder die Dienstleistung zu verkaufen oder auf andere Weise Geld für ihre Besucher zu verdienen. Dies sollte bei der Suchmaschinenoptimierung und bei der Auswahl von Keywords berücksichtigt werden. Es ist notwendig, sich um zielgerichtete Besucher auf der Website zu bemühen (dh bereit, das vorgeschlagene Produkt oder die angebotene Dienstleistung zu kaufen) und nicht nur für eine große Anzahl von Besuchern.
Ein Beispiel. Die Abfrage "Monitor" ist viel beliebter und manchmal wettbewerbsfähiger als die Abfrage "Monitor Samsung 710N" (der genaue Name des Modells). Für den Monitor-Anbieter ist der zweite Besucher jedoch viel wertvoller, und es ist viel einfacher, ihn zu bekommen, weil das Niveau des Wettbewerbs für die zweite Anfrage gering ist. Dies ist ein weiterer möglicher Unterschied zwischen hochfrequenten und niederfrequenten Abfragen, die berücksichtigt werden sollten.
5.3 Bewertung des Wettbewerbsniveaus von Suchanfragen
Nachdem der Satz von Schlüsselwörtern ungefähr bekannt ist, ist es notwendig, den Hauptkern von Wörtern zu bestimmen, unter denen die Optimierung ausgeführt wird.
Low-Frequency-Abfragen aus offensichtlichen Gründen werden sofort (vorübergehend) verworfen. Im vorherigen Abschnitt haben wir die Vorteile von Niedrigfrequenz-Abfragen beschrieben, aber sie sind Niedrigfrequenz-Abfragen, die keine spezielle Optimierung erfordern. Daher berücksichtigen wir sie in diesem Abschnitt nicht.
Bei sehr populären Phrasen ist das Niveau der Konkurrenz normalerweise sehr hoch, also müssen Sie die Fähigkeiten Ihrer Seite wirklich auswerten. Um das Niveau des Wettbewerbs zu bewerten, sollten Sie eine Anzahl von Indikatoren für die Top-Ten-Websites in der Suchmaschine berechnen:
- durchschnittlicher PageRank der betroffenen Seiten;
- die durchschnittliche TIC-Website, deren Seiten in Umlauf waren;
- die durchschnittliche Anzahl von externen Links zu Websites bei der Ausgabe von Versionen verschiedener Suchmaschinen;
Zusätzliche Parameter:
- die Anzahl der Seiten im Internet, die den angegebenen Suchbegriff enthalten (dh die Anzahl der Suchergebnisse);
- die Anzahl der Seiten im Internet, die die genaue Übereinstimmung der angegebenen Phrase enthalten (wie bei der Suche in Anführungszeichen).
Diese zusätzlichen Parameter werden dazu beitragen, indirekt die Komplexität des Zurückziehens der Website in der Spitze für eine gegebene Phrase zu beurteilen.
Zusätzlich zu den beschriebenen Parametern können Sie auch prüfen, wie viele Seiten der Ausgabe in den Hauptverzeichnissen vorhanden sind, z. B. die Verzeichnisse DMOZ, Yahoo und Yandex.
Wenn Sie alle oben genannten Parameter analysieren und mit den Parametern Ihrer eigenen Website vergleichen, können Sie die Aussichten für das Zurückziehen Ihrer Website nach oben durch die angegebene Phrase eindeutig vorhersagen.
Bei der Bewertung des Wettbewerbslevels für alle ausgewählten Phrasen können Sie eine Reihe von ziemlich beliebten Phrasen mit einem akzeptablen Wettbewerbsniveau auswählen, die als Hauptwette für Werbung und Optimierung dienen.
5.4 Sequenzielle Verfeinerung von Suchanfragen
Wie oben erwähnt, bieten Suchmaschinen-Dienste oft sehr ungenaue Informationen. Daher ist es ziemlich selten, die ideale Keyword-Gruppe für Ihre Website von Anfang an zu bestimmen.
Nachdem Ihre Website erstellt wurde und bestimmte Schritte unternommen werden, um sie zu bewerben, liegt in Ihren Händen zusätzliche Statistik zu den Keywords: Sie kennen das Ranking Ihrer Website bei der Ausgabe von Suchmaschinen für eine bestimmte Phrase und wissen auch die Anzahl der Besuche auf Ihrer Website für diese Phrase .
Mit diesen Informationen können Sie erfolgreiche und erfolglose Phrasen ziemlich klar definieren. Oft müssen Sie nicht einmal darauf warten, dass die Website in allen Suchmaschinen in den Rankings die Oberhand behält - ein oder zwei sind genug.
Ein Beispiel. Angenommen, Ihre Website ist in der Rambler-Suchmaschine für diesen Begriff an erster Stelle gereiht. In diesem Fall ist weder in Yandex noch in Google dieser Satz noch nicht in Frage gestellt. Wenn Sie jedoch den Prozentsatz der Besuche Ihrer Website von verschiedenen Suchmaschinen (z. B. Yandex - 70%, Google - 20%, Rambler - 10%) kennen, können Sie bereits den ungefähren Traffic für diesen Ausdruck vorhersagen und entscheiden, ob er zu Ihrer Website passt Nein.
Zusätzlich zu den fehlgeschlagenen Phrasen können Sie neue erfolgreiche Optionen finden. Zum Beispiel, um zu sehen, dass eine Phrase, unter der keine Werbung gemacht wurde, guten Traffic bringt, obwohl Ihre Seite auf dieser Phrase auf 2 oder 3 Seiten in der Ausgabe steht.
Daher liegt in Ihren Händen ein neuer, verfeinerter Satz von Schlüsselwörtern. Danach sollten Sie mit der Reorganisation der Site fortfahren - die Texte für erfolgreichere Phrasen ändern, neue Seiten für neue gefundene Phrasen erstellen usw.
Nach einiger Zeit werden Sie in der Lage sein, die besten Keywords für Ihre Website zu finden und den Suchverkehr erheblich zu erhöhen.
Noch ein paar Tipps. Laut Statistik macht die Hauptseite der Website bis zu 30% -50% des gesamten Suchverkehrs aus. Es ist am besten in Suchmaschinen zu sehen und hat die meisten externen Links. Daher sollte die Hauptseite der Website für die beliebtesten und wettbewerbsfähigsten Anforderungen optimiert werden. Jede Seite der Website sollte für 1-2 grundlegende Phrasen (und möglicherweise für eine Anzahl von Abfragen mit niedriger Häufigkeit) optimiert sein. Dies wird die Chancen erhöhen, die Top-Suchmaschinen für die gegebenen Phrasen zu erreichen. Zurück nach oben >>>
6 Verschiedene Informationen über Suchmaschinen
6.1 Google SandBox
Anfang 2004 tauchte in der Optimizer-Umgebung ein neues mysteriöses Konzept auf - Google SandBox oder Googles Sandbox. Diese Bezeichnung erhielt einen neuen Google-Spam-Filter, mit dem junge, neu erstellte Websites ausgeschlossen werden sollen.
Der SandBox-Filter manifestiert sich darin, dass neu erstellte Sites in der Suchmaschine für praktisch alle Phrasen nicht verfügbar sind. Dies geschieht trotz der Verfügbarkeit von qualitativ hochwertigen und einzigartigen Inhalten und der richtigen Werbung (ohne den Einsatz von Spam-Techniken).
Im Moment betrifft SandBox nur das englische Segment, Seiten in Russisch und andere Sprachen sind von diesem Filter nicht betroffen. Es ist jedoch wahrscheinlich, dass dieser Filter seinen Einfluss erweitern kann.
Es kann davon ausgegangen werden, dass der Zweck des SandBox-Filters darin besteht, Spam-Sites aus der Distribution auszuschließen - tatsächlich kann kein Such-Spammer Monate warten, bis die Ergebnisse angezeigt werden. Aber auch viele normale, neu geschaffene Seiten leiden darunter.
Genaue Informationen darüber, was genau ein Sandbox-Filter ist, sind immer noch nicht da. Es gibt eine Reihe von Annahmen auf der Grundlage der Erfahrung, die wir im Folgenden geben werden:
- SandBox ist ein Filter für junge Seiten. Die neu erstellte Website fällt in die "Sandbox" und ist unbegrenzt darin enthalten, bis die Suchmaschine sie in die Kategorie "gewöhnlich" übersetzt;
- SandBox ist ein Filter für neue Links, die auf neu erstellten Sites platziert werden. Versuchen Sie, den grundlegenden Unterschied zu der vorherigen Annahme zu bemerken - der Filter ist nicht auf das Alter der Website, sondern auf das Alter der Links auf die Website überlagert. Mit anderen Worten, Google hat keine Beschwerden über die Website, aber weigert sich, externe Verweise darauf zu berücksichtigen, wenn weniger als X Monate seit ihrem Erscheinen verstrichen sind. Da externe Links zu den wichtigsten Ranking-Faktoren gehören, ist das Ignorieren externer Links gleichbedeutend mit dem Fehlen einer Site in der Suchmaschine. Welche der beiden obigen Annahmen ist schwieriger zu sagen, es ist wahrscheinlich, dass beide wahr sind;
- Die Website kann von 3 Monaten bis zu einem Jahr oder länger in der Sandbox liegen. Es gibt auch eine Beobachtung, dass die Websites en masse aus dem Sandkasten kommen. Ie. Die Sandbox-Periode wird nicht für jede Site individuell festgelegt, sondern für große Gruppen von Sites (Sites, die in einem bestimmten Zeitraum erstellt wurden, fallen in eine Gruppe). Der Filter wird dann sofort für die gesamte Gruppe entfernt, so dass Seiten aus derselben Gruppe für eine andere Zeit im Sand bleiben.
Typische Anzeichen dafür, dass sich Ihre Website in der Sandbox befindet:
- Ihre Website wird normalerweise von Google indexiert, der regelmäßig vom Suchroboter besucht wird.
- Ihre Website hat PageRank, die Suchmaschine kennt und zeigt externe Links zu Ihrer Site korrekt an.
- die Suche auf der Website - Adresse (www.site.com) liefert die korrekten Ergebnisse mit dem richtigen Titel, Snippet (Ressourcenbeschreibung) usw .;
- Ihre Site wird normalerweise durch die seltenen und einzigartigen Ausdrücke gefunden, die im Text der Seiten enthalten werden;
- Ihre Website ist in den ersten tausend Ergebnissen für andere Abfragen nicht sichtbar, auch nicht für die, für die sie ursprünglich erstellt wurde. Manchmal gibt es Ausnahmen und die Site für einige Anfragen erscheint auf 500-600 Positionen, was natürlich nicht die Essenz ändert.
Es gibt praktisch keine Filter-Bypass-Methoden. Es gibt eine Reihe von Annahmen darüber, wie dies getan werden kann, aber dies sind nichts weiter als Annahmen, die für einen regulären Webmaster inakzeptabel sind. Die Hauptmethode besteht darin, auf der Site zu arbeiten und auf das Ende des Filters zu warten.
Nachdem der Filter entfernt wurde, gibt es einen starken Anstieg der Bewertungen von 400 bis 500 oder mehr Positionen.
6.2 Google LocalRank
Am 25. Februar 2003 hat Google einen neuen Seitenrangierungsalgorithmus namens LocalRank patentiert. Die Idee basiert auf der Idee, Seiten nicht nach ihrer globalen Bezugszitierung zu bewerten, sondern indem sie auf eine Gruppe von Seiten verweist, die thematisch mit der Suchanfrage verwandt sind.
Algorithmus LocalRank wird in der Praxis nicht verwendet (zumindest, wie es im Patent beschrieben ist), das Patent enthält jedoch eine Reihe interessanter Ideen, von denen wir glauben, dass sie jedem Optimierer bekannt sein sollten. Die Berücksichtigung des Themas verweisender Seiten wird von fast allen Suchmaschinen genutzt. Obwohl dies offensichtlich durch mehrere andere Algorithmen geschieht, wird das Studium des Patents es möglich machen, die allgemeinen Ideen zu verstehen, wie dies realisiert werden kann.
Berücksichtigen Sie beim Lesen dieses Kapitels, dass es theoretische Informationen enthält und keine praktische Handlungsanleitung.
Die Grundidee des LocalRank-Algorithmus wird durch die folgenden drei Punkte ausgedrückt:
1. Wählen Sie mit einem bestimmten Algorithmus eine bestimmte Anzahl von Dokumenten aus, die für die Suchanfrage relevant sind (bezeichnen Sie diese Zahl N). Diese Dokumente werden zunächst nach einem bestimmten Kriterium sortiert (dies kann ein PageRank oder eine Relevanzbewertung oder ein anderes Kriterium sein oder sie gruppieren). Bezeichnen Sie den numerischen Ausdruck dieses Kriteriums als OldScore.
2. Jede der N Seiten durchläuft ein neues Ranking-Verfahren, was dazu führt, dass jede Seite einen neuen Rang erhält. Bezeichnen Sie es mit LocalScore.
3. Bei diesem Schritt werden die OldScore- und LocalScore-Werte multipliziert, was zu einem neuen Wert von NewScore führt, nach dem die endgültige Rangfolge der Seiten erfolgt.
Der Schlüssel in diesem Algorithmus ist ein neues Ranking-Verfahren, bei dem jeder Seite ein neuer Rang LocalScore zugewiesen wird. Lassen Sie uns diesen Vorgang genauer beschreiben.
0. Mit einem bestimmten Ranking-Algorithmus werden N Seiten ausgewählt, die der Suchanfrage entsprechen. Der neue Ranking-Algorithmus funktioniert nur mit diesen N Seiten. Jede Seite in dieser Gruppe hat einen OldScore-Rang.
1. Wenn Sie LocalScore für eine bestimmte Seite berechnen, werden alle Seiten von N ausgewählt, die externe Links zu dieser Seite haben. Wir bezeichnen die Menge dieser Seiten M. Gleichzeitig enthält die Menge M keine Seiten vom gleichen Host (Host, Filterung findet an der IP-Adresse statt) sowie Seiten, die Spiegel dieser Seite sind.
2. Die Menge M teilt sich in Teilmengen Li auf. In diesen Teilmengen gibt es Seiten, die durch folgende Zeichen verbunden sind:
- Zu einem (oder einem ähnlichen) Gastgeber gehören. Daher gibt es in einer Gruppe Seiten, in denen die ersten drei Oktette der IP-Adresse identisch sind. Das heißt, die Seiten, deren IP-Adresse zum Bereich gehört
xxx.xxx.xxx.0
xxx.xxx.xxx.255
gilt als zur selben Gruppe gehörend;
- Seiten mit gleichem oder ähnlichem Inhalt (Spiegel, Spiegel);
- Seiten einer Site (Domain).
3. Jede Seite in jedem Satz hat einen gewissen Rang (OldScore). Aus jedem Satz wird eine Seite mit dem größten OldScore ausgewählt, der Rest wird von der Betrachtung ausgeschlossen. So erhalten wir einige K-Seiten, die auf diese Seite verweisen.
4. Страницы в множестве K сортируются согласно параметру OldScore, затем в множестве K остаются только k первых страниц (k – некоторое заданное число), остальные страницы исключаются из рассмотрения.
5. На данном шаге рассчитывается LocalScore. По оставшимся k страницам происходит суммирование их значений OldScore. Это можно выразить следующей формулой:
Здесь m – некоторый заданный параметр, который может варьироваться от 1 до 3 (к сожалению, информация, содержащаяся в патенте на описываемый алгоритм, не дает подробного описания данного параметра).
После того, как расчет LocalScore для каждой страницы из множества N закончен, происходит расчет значений NewScore и пересортировка страниц согласно новому критерию. Для рассчета NewScore используется следующая формула:
NewScore(i)= (a+LocalScore(i)/MaxLS)*(b+OldScore(i)/MaxOS)
i – страница, для которой рассчитывается новое значение ранга.
a и b – некоторые числа (патент не дает более подробной информации об этих параметрах).
MaxLS – максимальное из рассчитанных значений LocalScore
MaxOS – максимальное из значений OldScore
Теперь постараемся отвлечься от математики и повторим все вышесказанное простым языком.
На первом этапе происходит отбор некоторого количества страниц соответствующих запросу. Это делается по алгоритмам, не учитывающим тематику ссылок (например, по релевантности и общей ссылочной популярности).
После того, как группа страниц определена, будет подсчитана локальная ссылочная популярность каждой из страниц. Все страницы так или иначе связаны с темой поискового запроса и, следовательно, имеют отчасти схожу тематику. Проанализировав ссылки друг на друга в отобранной группе страниц (игнорируя все остальные страницы в Интернете), получим локальную (тематическую) ссылочную популярность.
После проделанного шага у нас есть значения OldScore (рейтинг страницы на основе релевантности, общей ссылочной популярности и других факторов) и LocalScore (рейтинг страницы среди тематически связанных страниц). Итоговый рейтинг и ранжирование страниц проводится на основе сочетания этих двух факторов.
6.3 Merkmale der verschiedenen Suchmaschinen
Все, сказанные выше идеи по текстовой оптимизации и увеличению ссылочной популярности применимы ко всем поисковым системам в равной степени. Более подробное описание Google объясняется большим наличием информации об этой поисковой системе в свободном доступе, однако идеи, высказанные в отношении Google, в большой степени применимы и к другим поисковым системам.
Вообще, я не являюсь сторонником поиска «секретного знания» о том, как детально работают алгоритмы различных поисковых систем. Все они в той или иной мере подчиняются общим правилам и грамотная работа над сайтом (без учета каких-либо особенностей) приводит к хорошим позициям почти во всех поисковых системах.
Тем не менее, приведем некоторые особенности различных поисковых систем:
Google – очень быстрая индексация, очень большое значение придается внешним ссылкам. База Google используется очень большим числом других поисковых систем и порталов.
MSN – больший, нежели у других поисковых систем, акцент на информационное содержимое сайта.
Yandex – крупнейшая российская поисковая система. Обрабатывает (по разным данным) от 60% до 80% всех русскоязычных поисковых запросов. Уделяет особое внимание тематическим ссылкам (нетематические внешние ссылки также имеют эффект, но в меньшей степени, чем у других поисковых систем). Индексация проходит медленнее, чем у Google, однако так же в приемлемые сроки. Понижает в рейтинге или исключает из индекса сайты, занимающиеся нетематическим ссылкообменом (содержащих каталоги нетематических ссылок, созданных лишь с целью повышения рейтинга сайта), а также сайты, участвующие в системах автоматического обмена ссылками. В периоды обновлений базы, которые длятся несколько дней, выдача Яндекса постоянно меняется, в такие периоды следует отказаться от каких-либо работ по сайту и дождаться стабильных результатов работы поисковой системы.
Rambler – наиболее загадочная поисковая система. Занимает второе (по другим данные третье после Google) место по популярности среди российских пользователей. По имеющимся наблюдениям, понижает в рейтинге сайты, активно занимающиеся раскруткой (быстрое увеличение числа внешних ссылок). Ценит наличие поисковых терминов в простом тексте страницы (без выделения различными стилистическими тегами).
Mail.ru – набирающая популярность поисковая система. Использует результаты поисковой системы Google после некоторой дополнительной обработки. Оптимизация под Mail.ru сводится к оптимизации под Google.
6.4 Tipps, Annahmen, Beobachtungen
В данной главе представлена информация, появившаяся в результате анализа различных статей, общения оптимизаторов, практических наблюдений и т.п. Информация эта не является точной и достоверной – это всего лишь предположения и идеи, однако идеи интересные. Данные, представленные в этом разделе, воспринимайте не как точное руководство, а как информацию к размышлению.
- исходящие ссылки. Ссылайтесь на авторитетные в вашей области ресурсы, используя нужные ключевые слова. Поисковые системы ценят ссылки на другие ресурсы той же тематики;
- исходящие ссылки. Не ссылайтесь на FFA сайты и прочие сайты, исключенные из индекса поисковой системы. Это может привести к понижению рейтинга вашего собственного сайта;
- исходящие ссылки. Страница не должна содержать более 50-100 исходящих ссылок. Это не приводит к понижению страницы в рейтинге, но ссылки сверх этого числа не будут учтены поисковой системой;
- исходящие site wide ссылки, то есть ссылки, стоящие на каждой странице сайта. Считается, что поисковые системы негативно относятся к таким ссылкам и не учитывают их при ранжировании. Существует также другое мнение, что это относится только к большим сайтам с тысячами страниц;
- идеальная плотность ключевых слов. Очень часто приходится слышать подобный вопрос. Ответ заключается в том, что идеальной плотности ключевых слов не существует, вернее она различная для каждого запроса, то есть рассчитывается поисковой системой динамически, в зависимости от поискового термина. Наш совет – проанализировать первые сайты из выдачи поисковой системы, что позволит примерно оценить ситуацию;
- возраст сайта. Поисковые системы отдают предпочтение старым сайтам, как более стабильным;
- обновление сайта. Поисковые системы отдают предпочтение развивающимся сайтам, то есть тем, на которых периодически добавляется новая информация, новые страницы;
- доменная зона (касается западных поисковиков). Предпочтение отдается сайтам, расположенным в зонах .edu, .mil, .gov и т.п. Такие домены могут зарегистрировать только соответствующие организации, поэтому доверия таким сайтам больше;
- поисковые системы отслеживают, какой процент посетителей возвращается к поиску, после посещения того или иного сайта из вылачи. Большой процент возвратов означает нетематическое содержимое, и такая страница понижается в поиске;
- поисковые системы отслеживают, насколько часто выбирается та или иная ссылка в результатах поиска. Если ссылка выбирается редко, значит, страница не представляет интереса и такая страница понижается в рейтинге;
- используйте синонимы и родственные формы ключевых слов, это будет оценено поисковыми системами;
- слишком быстрый рост числа внешних ссылок воспринимается поисковыми системами как искусственная раскрутка и ведет к понижению рейтинга. Очень спорное утверждение, прежде всего потому, что такой способ может использоваться для понижения рейтинга конкурентов;
- Google не учитывает внешние ссылки, если они находятся на одном (или сходных) хостах, то есть страницах, IP адрес которых принадлежит диапазону xxx.xxx.xxx.0 xxx.xxx.xxx.255. Такое мнение происходит скорее всего от того, что Google высказывал данную идею в своих патентах. Однако сотрудники Google заявляют, что никаких ограничений по IP адресу на внешние ссылки не налагается, и нет никаких оснований не доверять им;
- поисковые системы проверяют информацию о владельце домена. Соответственно ссылки с сайтов, принадлежащих одному владельцу имеют меньший вес, чем обычные ссылки. Информация представлена в патенте;
- срок, на который зарегистрирован домен. Чем больше срок, тем большее предпочтение отдается сайту;
6.5 Den richtigen Inhalt erstellen
Контент (информационное содержимое сайта) играет важнейшую роль в раскрутке сайта. Тому есть множество причин, о которых мы расскажем в этой главе, а также дадим советы, как правильно наполнить сайт информацией.
- уникальность контента. Поисковики ценят новую информацию, нигде ранее не публиковавшуюся. Поэтому при создании сайта опирайтесь на собственные тексты. Сайт, построенный на основе чужих материалов, имеет гораздо меньшие шансы на выход в топ поисковых систем. Как правило, первоисточник всегда находится выше в результатах поиска;
- при создании сайта не забывайте, что он изначально создается для посетителей, а не для поисковых систем. Привести посетителя на сайт – это только первый и не самый трудный шаг. Удержать посетителя на сайте и превратить его в покупателя – вот действительно сложная задача. Добиться этого можно только грамотным информационным наполнением сайта, интересным для человека;
- старайтесь регулярно обновлять информацию на сайте, добавлять новые страницы. Поисковики ценят развивающиеся сайты. Кроме того, больше текста – больше посетителей на сайт. Пишите статьи на тему вашего сайта, публикуйте отзывы посетителей, создайте форум для обсуждения вашего проекта (последнее – только если посещаемость сайта позволит создать активный форум). Интересный контент – залог привлечения заинтересованных посетителей;
- сайт, созданный для людей, а не поисковых машин, имеет большие шансы на попадание в важные каталоги, такие как DMOZ, Яндекс и другие;
- интересный тематический сайт имеет гораздо больше шансов на получение ссылок, отзывов, обзоров и т.д. других тематических сайтов. Такие обзоры сами по себе могут дать неплохой приток посетителей, кроме того, внешние ссылки с тематических ресурсов будут по достоинству оценены поисковыми системами.
В заключение еще один совет. Как говорится, сапоги должен делать сапожник, а писать тексты должен журналист или технический писатель. Если вы сумеете создать увлекательные материалы для вашего сайта – это очень хорошо. Однако у большинства из нас нет особых способностей к написанию привлекательных текстов. Тогда лучше доверить эту часть работы профессионалам. Это более дорогой вариант, но в долгосрочной перспективе он себя оправдает.
6.6 Auswahl einer Domain und Hosting
В настоящее время создать свою страницу в Интернет может любой и для этого не нужно никаких затрат. Существуют компании, предоставляющие бесплатный хостинг, которые разместят вашу страницу в обмен на право показывать на ней свою рекламу. Многие Интернет-провайдеры также дадут вам место на своем сервере, если вы являетесь их клиентом. Однако все эти варианты имеют очень существенные недостатки, поэтому, при создании коммерческого проекта, вы должны отнестись к этим вопросам с большей ответственностью.
Прежде всего стоит купить свой собственный домен. Это дает вам следующие преимущества:
- проект, не имеющий собственного домена, воспринимается как сайт-однодневка. Действительно, почему мы должны доверять данному ресурсу, если его владельцы не готовы потратить даже символическую сумму для создания минимального имиджа. Размещение бесплатных материалов на таких ресурсах возможно, но попытка создания коммерческого проекта без собственного домена почти всегда обречена на неудачу;
- собственный домен дает вам свободу в выборе хостинга. Если текущая компания перестала вас устраивать, то вы в любой момент можете перенести свой сайт на другую, более удобную или быструю площадку.
При выборе домена помните о следующих моментах:
- старайтесь, чтобы имя домена было запоминающимся и его произношение и написание было бы однозначным;
- для раскрутки международных англоязычных проектов более всего подходят домены с расширением .com Можно также использовать домены из зон .net, .org, .biz и т.п., однако этот вариант менее предпочтителен;
- для раскрутки национальных проектов всегда следует брать домен в соответствующей национальной зоне (.ru – для русскоязычных проектов, .de – для немецких и т.д.);
- в случае двуязычных (и более) сайтов следует выделить свой домен под каждый из языков. Национальные поисковые системы в большей степени оценят такой подход, чем наличие на основном сайте подразделов на различных языках.
Стоимость домена составляет (в зависимости от регистратора и зоны) 10-20$ в год.
При выборе хостинга следует опираться на следующие факторы:
- скорость доступа;
- время доступности серверов (uptime);
- стоимость трафика за гигабайт и количество предоплаченного трафика;
- желательно, чтобы площадка располагалась в том же географическом регионе, что и большинство ваших посетителей;
Стоимость хостинга для небольших проектов колеблется в районе 5-10$ в месяц.
При выборе домена и хостинга избегайте «бесплатных» предложений. Часто можно видеть, что хостинг-компании предлагают бесплатные домены своим клиентам. Как правило, домены в этом случае регистрируются не на вас, а на компанию, то есть фактическим владельцем домена является ваш хостинг-провайдер. В результате вы не сможете сменить хостинг для своего проекта, либо будете вынуждены выкупать свой собственный, раскрученный домен. Также в большинстве случаев следует придерживаться правила не регистрировать свои домены через хостинг-компанию, так как это может затруднить возможный перенос сайта на другой хостинг (даже несмотря на то, что вы являетесь полноценным владельцем своего домена).
6.7 Änderung der Website-Adresse
Иногда по ряду причин может потребоваться смена адреса проекта. Некоторые ресурсы, начинавшиеся на бесплатном хостинге и адресе, развиваются до полноценных коммерческих проектов и требуют переезда на собственный домен. В других случаях находится более удачное название для проекта. При любых подобных вариантах встает вопрос правильного переноса сайта на новый адрес.
Наш совет в этом плане таков – создавайте на новом адресе новый сайт с новым, уникальным контентом. На старом сайте поставьте на новый ресурс видные ссылки, чтобы посетители могли перейти на ваш новый сайт, однако не убирайте совсем старый сайт и его содержимое.
При таком подходе вы сможете получать поисковых посетителей как на новый, так и на старый ресурс. При этом у вас появляется возможность охватить дополнительные темы и ключевые слова, что было бы сложно сделать в рамках одного ресурса.
Перенос проекта на новый адрес задача сложная и не очень приятная (так как в любом случае раскрутку нового адреса придется начинать практически с нуля), однако, если этот перенос необходим, то следует извлечь максимум пользы из него. Zurück nach oben >>>
7. Semonitor – пакет программ для раскрутки и оптимизации сайта
В предыдущих главах мы рассказали о том, как правильно создать свой сайт и какими методами его можно раскрутить. Последняя глава посвящена программным инструментам, которые позволят автоматизировать значительную часть работы над сайтом и добиться более высоких результатов. Речь пойдет о пакете программ Semonitor, который вы можете скачать с нашего сайта (www.semonitor.ru).
7.1 Moduldefinition von Positionen
Проверка позиций сайта в поисковых системах является практически каждодневной задачей каждого оптимизатора. Позиции можно проверять и вручную, однако, если у вас несколько десятков ключевых слов и 5-7 поисковых систем, которые нужно мониторить, то этот процесс будет очень утомительным.
Модуль Определение позиций проделает всю работу автоматически. Вы сможете получить информацию о рейтингах вашего сайта по всем ключевым словам в различных поисковых системах, увидеть динамику и историю позиций (рост/падение вашего сайта по заданным ключевым словам), увидеть ту же информацию в наглядной графической форме.
7.2 Modul für externe Links
Программа сама опросит все доступные поисковые системы и составит наиболее полный и не содержащий дубликатов список внешних ссылок на ваш ресурс. Для каждой ссылки вы увидите такие важные параметры, как PageRank ссылающейся страницы и ссылочный текст (в предыдущих главах мы подробно рассказали о ценности этих параметров).
Помимо общего списка внешних ссылок вы сможете отслеживать их динамику – то есть видеть вновь появившиеся и устаревшие ссылки.
7.3 Modul Indizierung der Site
Покажет все страницы, проиндексированные той или иной поисковой системой. Необходимый инструмент при создании нового ресурса. Для каждой из проиндексированных страниц будет показано значение PageRank.
7.4 Модуль Лог-Анализатор
Вся информация о ваших посетителях (с каких сайтов они попали на ваш ресурс, какие ключевые слова использовали, в какой стране они находятся и многое другое) содержится в лог-файлах сервера. Модуль лог-анализатор представит всю эту информацию в удобных и наглядных отчетах.
7.5 Modul Page Rank Analyzer
Определяет огромное количество конкурентной информации о заданном списке сайтов. Автоматически определяет для каждого сайта из списка такие параметры, как Google PageRank, Yandex ТИЦ, число внешних ссылок, присутствие сайта в основных каталогах DMOZ, Yandex и Yahoo каталоге. Идеальный инструмент для анализа уровня конкуренции по тому или иному поисковому запросу.
7.6 Schlüsselwortauswahlmodul
Подбирает релевантные ключевые слова для вашего сайта, сообщает данные об их популярности (число запросов за месяц), оценивает уровень конкуренции по той или иной фразе.
7.7 HTML-Analysatormodul
Анализирует html-код страницы, подсчитывает вес и плотность ключевых слов, создает отчет о правильности текстовой оптимизации сайта. Используется на этапе создания собственного сайта, а также для анализа сайтов конкурентов. Позволяет анализировать как локальные html-страницы, так и он-лайн проекты. Поддерживает особенности русского языка, поэтому может быть использован для успешной работы, как с английскими, так и с русскими сайтами.
7.7 Site-Registrierungsprogramme AddSite und Add2Board
Программы AddSite (регистрация в каталогах) и Add2Board (доски объявлений) позволят поднять ссылочную популярность вашего проекта. Подробнее об этих программах можно узнать на сайте наших партнеров www.addsite.ru В начало >>>
8. Полезные ресурсы
В сети существует масса ресурсов по продвижению сайтов. Приведем здесь основные, наиболее ценные на наш взгляд:
www.searchengines.ru – крупнейший в рунете сайт по оптимизации
forum.searchengines.ru – место, где общаются оптимизаторы, как профессионалы так и новички
http://www.optimization.ru/subscribe/list.html - архив рассылок компании Ашманов и партнеры, базовый курс поисковой оптимизации. Самая лучшая рассылка на тему seo, здесь вы найдете самые последние новости, статьи и т.д.
http://www.optimization.ru – сайт посвященный ежегодной конференции Поисковая оптимизация и продвижение сайтов в Интернете. Возможность приобрести доклады предыдущих конференций, содержащие очень ценную информацию.
http://seminar.searchengines.ru/ - сборник материалов по теме seo. Сборник платный, но цена невысокая, очень хорошая подборка материалов.

Вместо заключения – раскрутка сайта шаг за шагом
В этой главе я расскажу о том, как раскручиваю свои собственные сайты. Это нечто вроде небольшой пошаговой инструкции, в которой коротко повторяется то, что было описано в предыдущих разделах. В своей работе я использую программу Semonitor, поэтому она и будет взята в качестве примера.
1. Для начала работы над сайтом следует обладать некоторыми базовыми знаниями, в достаточном объеме они представлены в данном курсе. Подчеркну, что не нужно быть гуру в оптимизации и эти базовые знания приобретаются достаточно быстро. После этого начинаем работать,
экспериментировать, выводить сайты в топ и т.д. Здесь нам и становятся нужны программные средства.
2. Составляем примерный список ключевых слов и проверяем уровень конкуренции по ним. Оцениваем свои возможности и останавливаем выбор на достаточно популярных, но среднеконкурентных словах. Подбор ключевых слов делается с помощью соответствующего модуля, примерная проверка конкуренции в нем же. По наиболее интересным для нас запросам
проводим детальный анализ выдачи поисковых систем в модуле Page Rank
анализатор и принимаем окончательные решения по ключевым словам.
3. Начинаем писать тексты для сайта. Часть текстов я пишу самостоятельно, часть наиболее важных отдаю на написание журналистам. То есть мое мнение - контент прежде всего. При наличии хорошего
информационного содержимого, будет легче получать внешние ссылки и посетителей. На этом же этапе начинаем использовать модуль HTML-анализатор, создаем нужную плотность ключевых слов. Каждую страницу оптимизируем под свое словосочетание.
4. Регистрация сайта в каталогах. Для этого служит программа AddSite (www.addsite.ru)
5. После того, как первые шаги сделаны, ждем и проверяем индексацию, чтобы убедиться, что сайт нормально воспринимается различными поисковыми системами.
6. На следующем шаге уже можно начинать проверку позиций сайта по нужным ключевым словам. Позиции скорее всего будут не очень хорошими сначала, однако информацию к размышлению это даст.
7. Продолжаем работать над увеличением ссылочной популярности, процесс отслеживаем с помощью модуля Внешние ссылки.
8. Посещаемость сайта анализируем с помощью Лога анализатора и работаем над ее увеличением.