Tag: SEO
Mitte der 1990er Jahre fingen die ersten Internet Suchmaschinen an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten direkt den Wert einer bevorzugten Listung in Resultaten und recht bald entstanden Unternehmen, die sich auf die Aufbesserung spezialisierten.
In den Anfängen passierte die Aufnahme oft zu der Übertragung der URL der passenden Seite an die diversen Suchmaschinen. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Server der Anlaufstelle, wo ein zweites Softwaresystem, der sogenannte Indexer, Angaben herauslas und katalogisierte (genannte Wörter, Links zu sonstigen Seiten).
Die zeitigen Typen der Suchalgorithmen basierten auf Angaben, die durch die Webmaster selber vorliegen sind, wie Meta-Elemente, oder durch Indexdateien in Internet Suchmaschinen wie ALIWEB. Meta-Elemente geben eine Übersicht via Content einer Seite, allerdings setzte sich bald hervor, dass die Verwendung er Details nicht gewissenhaft war, da die Wahl der genutzten Schlüsselworte durch den Webmaster eine ungenaue Vorführung des Seiteninhalts reflektieren hat. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Seiten bei einzigartigen Brauchen listen.[2] Auch versuchten Seitenersteller unterschiedliche Fähigkeiten im Laufe des HTML-Codes einer Seite so zu manipulieren, dass die Seite passender in den Serps aufgeführt wird.[3]
Da die zeitigen Suchmaschinen im WWW sehr auf Punkte abhängig waren, die einzig in den Händen der Webmaster lagen, waren sie auch sehr empfänglich für Missbrauch und Manipulationen in der Positionierung. Um höhere und relevantere Ergebnisse in den Ergebnissen zu bekommen, musste ich sich die Operatoren der Search Engines an diese Voraussetzungen einstellen. Weil der Ergebnis einer Search Engine davon zusammenhängt, wichtigste Ergebnisse der Suchmaschine zu den gestellten Keywords anzuzeigen, vermochten ungünstige Testurteile darin resultieren, dass sich die Nutzer nach ähnlichen Varianten für die Suche im Web umsehen. Die Erwiderung der Suchmaschinen im WWW inventar in komplexeren Algorithmen fürs Ranking, die Faktoren beinhalteten, die von Webmastern nicht oder nur kompliziert steuerbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Stammvater von Suchmaschinen – eine Recherche, die auf einem mathematischen KI basierte, der anhand der Verlinkungsstruktur Webseiten gewichtete und dies in Rankingalgorithmus eingehen ließ. Auch alternative Suchmaschinen im WWW bedeckt zu Beginn der Folgezeit die Verlinkungsstruktur bspw. wohlauf der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine