Tag: SEO
Mitte der 1990er Jahre fingen die aller ersten Search Engines an, das frühe Web zu ordnen. Die Seitenbesitzer erkannten unmittelbar den Wert einer nahmen Listung in Serps und recht bald entwickelten sich Anstalt, die sich auf die Verfeinerung qualifizierten.
In den Anfängen erfolgte die Aufnahme oft über die Übermittlung der URL der geeigneten Seite bei der verschiedenen Suchmaschinen im Netz. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Website auf den Server der Recherche, wo ein zweites Angebot, der so genannte Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu ähnlichen Seiten).
Die damaligen Varianten der Suchalgorithmen basierten auf Informationen, die durch die Webmaster eigenständig vorhanden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen wie ALIWEB. Meta-Elemente geben eine Gesamtübersicht via Gegenstand einer Seite, jedoch setzte sich bald herab, dass die Nutzung dieser Ratschläge nicht zuverlässig war, da die Wahl der angewendeten Schlagworte durch den Webmaster eine ungenaue Vorführung des Seiteninhalts wiedergeben konnte. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Seiten bei charakteristischen Suchen listen.[2] Auch versuchten Seitenersteller mehrere Fähigkeiten binnen des HTML-Codes einer Seite so zu manipulieren, dass die Seite richtiger in Suchergebnissen gefunden wird.[3]
Da die damaligen Suchmaschinen im WWW sehr auf Punkte abhängig waren, die ausschließlich in den Fingern der Webmaster lagen, waren sie auch sehr unsicher für Delikt und Manipulationen im Ranking. Um überlegenere und relevantere Vergleichsergebnisse in den Serps zu erhalten, mussten wir sich die Operatoren der Suchmaschinen im Internet an diese Voraussetzungen einstellen. Weil der Triumph einer Anlaufstelle davon zusammenhängt, wichtigste Suchergebnisse zu den gestellten Suchbegriffen anzuzeigen, konnten ungünstige Vergleichsergebnisse darin resultieren, dass sich die Mensch nach weiteren Wege zur Suche im Web umblicken. Die Antwort der Suchmaschinen im WWW lagerbestand in komplexeren Algorithmen fürs Positionierung, die Punkte beinhalteten, die von Webmastern nicht oder nur nicht leicht beeinflussbar waren. Larry Page und Sergey Brin konstruierten mit „Backrub“ – dem Stammvater von Suchmaschinen – eine Suchseiten, die auf einem mathematischen Matching-Verfahren basierte, der mit Hilfe der Verlinkungsstruktur Webseiten gewichtete und dies in Rankingalgorithmus eingehen ließ. Auch zusätzliche Suchmaschinen bezogen in der Folgezeit die Verlinkungsstruktur bspw. wohlauf der Linkpopularität in ihre Algorithmen mit ein.