Tag: SEO
Mitte der 1990er Jahre fingen die anfänglichen Search Engines an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten rasch den Wert einer lieblings Listung in den Serps und recht bald entstanden Anstalt, die sich auf die Aufbesserung ausgerichteten.
In den Anfängen passierte die Aufnahme oft bezüglich der Übertragung der URL der geeigneten Seite an die divergenten Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Betrachtung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Webserver der Suchseite, wo ein zweites Software, der so genannte Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu sonstigen Seiten).
Die damaligen Varianten der Suchalgorithmen basierten auf Informationen, die durch die Webmaster auch vorhanden werden konnten, wie Meta-Elemente, oder durch Indexdateien in Internet Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Eindruck per Inhalt einer Seite, aber stellte sich bald hoch, dass die Inanspruchnahme dieser Details nicht ordentlich war, da die Wahl der eingesetzten Schlüsselworte durch den Webmaster eine ungenaue Beschreibung des Seiteninhalts widerspiegeln konnte. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Seiten bei besonderen Benötigen listen.[2] Auch versuchten Seitenersteller mehrere Merkmale binnen des HTML-Codes einer Seite so zu steuern, dass die Seite besser in den Ergebnissen aufgeführt wird.[3]
Da die späten Search Engines sehr auf Merkmalen dependent waren, die bloß in Fingern der Webmaster lagen, waren sie auch sehr vulnerabel für Schindluder und Manipulationen im Ranking. Um tolle und relevantere Testergebnisse in Suchergebnissen zu erhalten, musste ich sich die Anbieter der Internet Suchmaschinen an diese Umständen anpassen. Weil der Ergebnis einer Recherche davon zusammenhängt, wesentliche Suchresultate zu den inszenierten Keywords anzuzeigen, konnten ungünstige Resultate dazu führen, dass sich die User nach anderweitigen Chancen wofür Suche im Web umgucken. Die Auskunft der Search Engines lagerbestand in komplexeren Algorithmen beim Positionierung, die Merkmalen beinhalteten, die von Webmastern nicht oder nur schwer lenkbar waren. Larry Page und Sergey Brin entworfenen mit „Backrub“ – dem Urahn von Bing – eine Anlaufstelle, die auf einem mathematischen Matching-Verfahren basierte, der mit Hilfe der Verlinkungsstruktur Websites gewichtete und dies in Rankingalgorithmus einfluss besitzen ließ. Auch alternative Suchmaschinen im WWW bedeckt bei Folgezeit die Verlinkungsstruktur bspw. in Form der Linkpopularität in ihre Algorithmen mit ein.