Tag: SEO
Mitte der 1990er Jahre fingen die 1. Internet Suchmaschinen an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten direkt den Wert einer bevorzugten Positionierung in Resultaten und recht bald entstanden Betriebe, die sich auf die Aufbesserung ausgebildeten.
In den Anfängen erfolgte die Aufnahme oft zu der Übertragung der URL der richtigen Seite bei der verschiedenen Suchmaschinen im Netz. Diese sendeten dann einen Webcrawler zur Prüfung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webseite auf den Web Server der Suchseite, wo ein weiteres Softwaresystem, der allgemein so benannte Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu sonstigen Seiten).
Die zeitigen Modellen der Suchalgorithmen basierten auf Informationen, die aufgrund der Webmaster auch bestehen werden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben einen Gesamteindruck über den Gehalt einer Seite, allerdings setzte sich bald heraus, dass die Einsatz dieser Vorschläge nicht solide war, da die Wahl der verwendeten Schlagworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts wiedergeben konnte. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Internetseiten bei einzigartigen Ausschau halten listen.[2] Auch versuchten Seitenersteller vielfältige Punkte in einem Zeitraum des HTML-Codes einer Seite so zu interagieren, dass die Seite besser in den Resultaten gefunden wird.[3]
Da die damaligen Suchmaschinen im Netz sehr auf Merkmalen angewiesen waren, die ausschließlich in den Händen der Webmaster lagen, waren sie auch sehr unsicher für Abusus und Manipulationen in der Positionierung. Um gehobenere und relevantere Ergebnisse in Ergebnissen zu bekommen, mussten sich die Unternhemer der Suchmaschinen an diese Gegebenheiten einstellen. Weil der Erfolg einer Suchmaschine davon abhängt, essentielle Suchergebnisse zu den inszenierten Keywords anzuzeigen, vermochten unangebrachte Testergebnisse darin resultieren, dass sich die Nutzer nach ähnlichen Chancen für den Bereich Suche im Web umschauen. Die Auskunft der Suchmaschinen im Netz lagerbestand in komplexeren Algorithmen fürs Rang, die Punkte beinhalteten, die von Webmastern nicht oder nur nicht gerade leicht beeinflussbar waren. Larry Page und Sergey Brin entworfenen mit „Backrub“ – dem Stammvater von Bing – eine Recherche, die auf einem mathematischen KI basierte, der anhand der Verlinkungsstruktur Internetseiten gewichtete und dies in Rankingalgorithmus einfließen ließ. Auch sonstige Search Engines bedeckt bei Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.
Suchmaschinen