Tag: SEO
Mitte der 1990er Jahre fingen die 1. Internet Suchmaschinen an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten schnell den Wert einer bevorzugten Positionierung in den Suchergebnissen und recht bald fand man Behörde, die sich auf die Optimierung ausgerichteten.
In Anfängen vollzogen wurde die Aufnahme oft bezüglich der Übertragung der URL der passenden Seite bei der unterschiedlichen Suchmaschinen im Netz. Diese sendeten dann einen Webcrawler zur Untersuchung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetseite auf den Webserver der Suchseite, wo ein 2. Software, der allgemein so benannte Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu sonstigen Seiten).
Die frühen Modellen der Suchalgorithmen basierten auf Informationen, die dank der Webmaster eigenständig existieren sind, wie Meta-Elemente, oder durch Indexdateien in Search Engines wie ALIWEB. Meta-Elemente geben einen Gesamtüberblick per Gehalt einer Seite, allerdings stellte sich bald heraus, dass die Inanspruchnahme dieser Vorschläge nicht vertrauenswürdig war, da die Wahl der angewendeten Schlüsselworte dank dem Webmaster eine ungenaue Abbildung des Seiteninhalts widerspiegeln konnte. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Unterseiten bei besonderen Stöbern listen.[2] Auch versuchten Seitenersteller verschiedenartige Fähigkeiten in des HTML-Codes einer Seite so zu manipulieren, dass die Seite stärker in Suchergebnissen gelistet wird.[3]
Da die späten Suchmaschinen sehr auf Punkte dependent waren, die allein in den Taschen der Webmaster lagen, waren sie auch sehr empfänglich für Missbrauch und Manipulationen in der Positionierung. Um tolle und relevantere Testurteile in den Suchergebnissen zu erhalten, mussten sich die Unternhemer der Suchmaschinen im Netz an diese Voraussetzungen adaptieren. Weil der Gewinn einer Suchmaschine davon anhängig ist, relevante Suchresultate zu den inszenierten Keywords anzuzeigen, konnten unangebrachte Testergebnisse dazu führen, dass sich die Benützer nach sonstigen Möglichkeiten für die Suche im Web umschauen. Die Auskunft der Internet Suchmaschinen fortbestand in komplexeren Algorithmen fürs Positionierung, die Merkmalen beinhalteten, die von Webmastern nicht oder nur schwer manipulierbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Urahn von Bing – eine Recherche, die auf einem mathematischen Suchalgorithmus basierte, der anhand der Verlinkungsstruktur Internetseiten gewichtete und dies in den Rankingalgorithmus reingehen ließ. Auch alternative Internet Suchmaschinen bezogen während der Folgezeit die Verlinkungsstruktur bspw. wohlauf der Linkpopularität in ihre Algorithmen mit ein.
Suchmaschinen