Hallo,
es gibt die dollsten Methoden, Rankings zu bewerten und zu gewichten, hierzu mal ein paar Ideen und denkansätze:
-
- Übereinstimmende Worte -
Die Suchanfrage wertet aus, wie oft das Wort auf Deiner Page vorkommt, möglichst sollten sie auf der Startseite erkennbar positioniert sein.
- Suchworte im Titel oder Name des Dokumentes -
heisst allein das Dokument schon so wie die Suchanfrage oder ist das Suchwort im Titel vorhanden, so erhöht das die Trefferquote
- "Wichtigkeit" deiner Seite -
je nach dem wie oft du von anderen Seiten verlinkt wirst, desto wichtiger schätzen dich die Suchroboter ein. Das heisst, wenn du oft verlinkt wirst, dann wirst du als wichtig mit deiner seite angesehen, hierzu kommen noch aufwändige Verfahren wie - je wichtiger die Seite an sich ist, die dich verlinkt, desto wichtiger ist dein Link, je unwichtiger die Seite, die dich widerum verlinkt, desto weniger Gewicht hat diese Verlinkung in Bezug auf die Rankingeinschätzung. Das heisst, wenn du von Microsoft verlinkt würdest, dann hätte das mehr Gewicht als eine Verlinkung vom Hasenzuchtverein Hammelhausen
- Weiterhin gibts die gute alte Methode Ranking gegen Kohle, wenn du genügend bezahlst, dann stehst du bei jedem noch so skurilen Suchwort oben auch noch farbig eingerahmt, ist klar, dass das natürlich auch die Qualität der Suchanfrage in frage stellt, sieht man bei google.de schon jetzt, dass bei jedem Mist ebay auftaucht oder amazon, und du genau weisst, dass du dort nicht hinwillst.
- Kataloge werden teilweise durch professionelle Redakteure betreut, allerdings zählt hier wieder die persönliche Einschätzung eine grosse Rolle und die Redakteure beurteilen die Dokumente ihrer Qualität nach, das ist aber zeit- und Geldaufwändig.
- Des weiteren gab es mal ein Konzept namens Real Names, das heisst, es war ein katalog, der parallel zur Suchanfrage mit durchforstet wurde, dann wurden dort die Firmennamen ausgespuckt, die der Suchanfrage ähnelten. Das kostete für die Firmen auch extra Cache, allerdings gibts diese DB nicht mehr, da M$ mit denen den Vertrag kündigte und die somit pleite gingen (jaja ist schon nicht so dolle, wenn man von MS abhängig ist :-) )
- Weiterhin zählst die Klickrate, das heisst, je öfter eine Seite angeklickt wird, desto höher rückt sie auf, das ist natürlich auch einerseits Müll, denn hintere Seiten unterliegen wesentlich gerngeren Klickraten als vordere Seiten die ohnehin auf Platz 1-50 stehen, dagegen gibts aber auch ein System, das sich "DirectHit" nennt und von IBM glaub ich entwickelt wurde, das heisst, je weiter hinten eine Seite steht, desto höher ist die Gewichtung eines Klickst, das heisst, ein Klick auf Seite mit Position 400 zählst unter Umständen doppelt soviel wie der Klick auf Seite der Position 4, denn die hat sowieso eine höhrere Klickrate.
- Metatags werden im Allgemeinen ohnehin von vielen Suchmaschinen ignoriert, denn viele Betreiber haben es einfach übertrieben und Schund getrieben wie mein Vorposter schon erwähnte.
- Weitere Methoden bietet Alexa - dieses Tool gabs mit Netscape dazu und nannte sich "Whats related" - also was ist verwandt oder so ähnlich.Man nimmt hier an, dass Seiten, die unmittelbar hintereinander aufgerufen wurden, miteinander verwandt sind. Mit Hilfe von Cookies wurden Daten gesammelt und Alexa zugesendet. Auch wenns mächtig nach Spyware klang und klingt, funktionierte dieses System ganz gut, das heisst, wenn du nach dem Thema Frisuren suchst, dann geht dieses System davon aus, dass unmittelbar hintereinander aufgerufene Seiten mit dem Thema Friseur zu tun haben. Das System war allerdigns auch sehr fraglich, da auch unter Umständen kurz zuvor besuchte Firmen/Intranetseiten mit zu Alexa gesendet wurden - Spy also . Bei jedem Klick wurden ausserdem Infos an Alexa gesendet, so dass diese Übertragung auch performance raubte.
- Kooperationen
Heute sucht kaum noch eine einzige Maschine allein im Netz herum, das heisst, viele bedienen sich Suchergebnissen anderer Maschinen. So zum Beispiel teilen sich bestimmte Suchmaschinen ihre Datenbanke
- META Suchmaschinen
Durchsuchen mehrere andere Kataloge und DBs gleichzeitig, haben somit ein grosses Zeitersparnis und unter Umständen eine hohe Trefferquote. Für einen Rundumschlag sind sie meistens gut aber sie besitzen oft keine speziellen Suchmöglichkeiten
Soderle aber nun genug davon :-)
Wie du siehst, ein Rezept gibts nicht, aber es gibt Tipps, um seine Quote und Chance zu verbessern, die da wären:
-
- möglichst Text, keine Grafiken, denn die können nicht so gut indiziert werden
- möglichst eindeutige Inhalte auf der Startseite
- unter Umständen eine robot.txt, auch wenn sie oft ignoriert wird
- eindeutige Titel
- Eintragungen vornehmen
- oft verlinken lassen, auch mal nach Verlinkungen anfragen