Tag: SEO
Mitte der 1990er Jahre fingen die 1. Suchmaschinen im Netz an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten flott den Wert einer nahmen Positionierung in den Resultaten und recht bald entwickelten sich Unternehmen, die sich auf die Aufwertung professionellen.
In Anfängen bis zu diesem Zeitpunkt der Antritt oft bezüglich der Übermittlung der URL der passenden Seite an die diversen Search Engines. Diese sendeten dann einen Webcrawler zur Analyse der Seite aus und indexierten sie.[1] Der Webcrawler lud die Homepage auf den Web Server der Suchseite, wo ein 2. Angebot, der so genannte Indexer, Angaben herauslas und katalogisierte (genannte Ansprüche, Links zu anderweitigen Seiten).
Die frühen Modellen der Suchalgorithmen basierten auf Angaben, die dank der Webmaster auch vorliegen sind, wie Meta-Elemente, oder durch Indexdateien in Internet Suchmaschinen wie ALIWEB. Meta-Elemente geben eine Übersicht via Content einer Seite, gewiss setzte sich bald raus, dass die Anwendung er Tipps nicht vertrauenswürdig war, da die Wahl der eingesetzten Schlagworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts widerspiegeln kann. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Unterseiten bei spezifischen Recherchieren listen.[2] Auch versuchten Seitenersteller verschiedene Merkmale in einem Zeitraum des HTML-Codes einer Seite so zu interagieren, dass die Seite besser in den Suchergebnissen aufgeführt wird.[3]
Da die frühen Internet Suchmaschinen sehr auf Merkmalen abhängig waren, die allein in Taschen der Webmaster lagen, waren sie auch sehr anfällig für Falscher Gebrauch und Manipulationen in der Positionierung. Um höhere und relevantere Testurteile in Ergebnissen zu bekommen, mussten sich die Operatoren der Search Engines an diese Ereignisse integrieren. Weil der Riesenerfolg einer Suchseiten davon abhängig ist, wesentliche Ergebnisse der Suchmaschine zu den gestellten Keywords anzuzeigen, vermochten untaugliche Testergebnisse dazu führen, dass sich die Benutzer nach anderweitigen Entwicklungsmöglichkeiten zur Suche im Web umblicken. Die Auflösung der Internet Suchmaschinen vorrat in komplexeren Algorithmen fürs Positionierung, die Punkte beinhalteten, die von Webmastern nicht oder nur nicht leicht manipulierbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Vorläufer von Bing – eine Anlaufstelle, die auf einem mathematischen Matching-Verfahren basierte, der anhand der Verlinkungsstruktur Internetseiten gewichtete und dies in den Rankingalgorithmus einfluss besitzen ließ. Auch sonstige Suchmaschinen im Netz bedeckt zu Gesprächsaufhänger der Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.
Suchmaschinen