Das Internet in Zahlen – Statistik Stand Anfang 2009

 504 Mal gelesen

Das World Wide Web (= www) mit seinen 182 Millionen Websites ist gar nicht so groß und spektakulär wie man meinen könnte. Als prominentester Teil des Internets, zu dem auch Dienste wie mail, filetransfer und Voice Over IP gehören, wurde es vergleichsweise selten beschrieben. Möchte man zum Beispiel wissen, wie groß das Internet ist, beziehungsweise wie groß das Web ist, findet man selbst bei google nicht sofort eine Antwort.

Das Internet in Zahlen

Laut Stefan Weitz, dem Director von Microsoft Live Search, wird das Internet von 60% der Nutzern vorrangig für das Empfangen und Senden von e-Mails genutzt. Die Nutzer hielten sich zu 49% ihrer Onlinezeit bei Suchmaschinen auf.

Immerhin 60% der User sind mit den Suchergebnissen zufrieden, 40% nicht. Ich persönlich bin der Meinung alles finden zu können, sofern es im Internet einen Text dazu gibt. Die Suche zieht sich dabei natürlich manchmal hin, denn man weiß vorher nicht, mit welcher Eingabe das passende Dokument unter den ersten Ergebnissen angezeigt wird. Statistisch bringt nur jede vierte Suche das gewünschte Ergebnis und das klingt für mich schon etwas zu optimistisch.

Suchzeit – Wie lange sucht der User im Schnitt?

Die 5 Milliarden Terabyte des World Wide Web werden im Schnitt 30 Minuten lang durchsucht, bis das Ergebnis zufrieden stimmt.

  • Nur 9% der Suchmaschinennutzer suchen weniger als vier Minuten lang bis sie zufrieden sind.
  • 12% der Suchmaschinennutzer suchen 3 bis 10 Minuten lang.
  • 10% verbringen zehn bis 15 Minuten bei Suchmaschinen.
  • Mehr als doppelt so viele User, nämlich 23%, durchsuchen das Web 15 bis 30 Minuten lang.
  • Und der Großteil der Suchenden, nämlich 46% der Suchmaschinenbenutzer nehmen sich mehr als dreißig Minuten Zeit um das perfekte Suchergebnis zu finden.

Suchen werden deshalb Sessions genannt. Denn bis jetzt ist es noch eine absolute Ausnahme, dass man bei der ersten Suchanfrage bereits fündig wird. Es verwundert also nicht, dass laut Microsoft 25% der Klicks im Browser den „Zurück-Knopf“ treffen. MelZoo könnte hier die Maus schonen, leider sind die Suchergebnislisten nicht optimal.

Welche Suchen kommen am häufigsten vor?

Da die Suchmaschinen 66% täglich wiederkehrende User verzeichnen kann man von einer dauerhaft neugierigen Bevölkerung sprechen. Die Suchmaschinennutzer die so gut wie jeden Tag bei Suchmaschinen um Rat fragen, interessieren sich vorwiegend für die Themen Gesundheit und lokale Aktivitäten (56%). Daueruser versuchen außerdem ihre Kaufentscheidungen mithilfe der Suchergebnisse zu treffen. 40% der User kommen täglich zu einer Suchmaschine.

  • Informational Search: 38% der Gesamtanfragen dienen dazu, sich Wissen anzueignen. Eine Singlesession dauert dabei bis zwischen sechs und zwölf Minuten.
  • Navigational Search: ca. 30% aller Suchen bei Suchmaschinen dienen dazu, eine bestimmte und bereits bekannte Domain anzusteuern. User geben zum Beispiel laufend „ebay“ ein und klicken auf den ersten Listenpunkt in den SERPs, statt direkt „ebay.de“ anzuwählen.
  • Transactional Search: 11% aller Suchanfragen werden gestellt um möglichst zeitnah einen Kauf abzuschließen.

Der Rest der Suchanfragen von 21% teilt sich in Unterhaltung, Personensuche und der Suche nach Wegbeschreibungen. Übrigens ist ein großer Anteil der Informational Search die Frage nach dem Wetter. Viele Begriffe werden zusammen mit dem Namen der großen Onlinelexika eingegeben (zum Beispiel „SEO + Wikipedia „). Das kann als Invormational Search zählen, aber auch als Navigational Search, denn hier ist es klar, dass der User zum entsprechenden Wikipediaartikel navigieren möchte, um an seine Informationen zu kommen.

Wie sieht es um die Qualtiät des WWW aus?

Solange gigantische Suchmaschinen wie Yahoo! 400 Rankingkriterien brauchen um eine halbwegs hilfreiche Ergebnisliste zusammenstellen zu können, kann die Qualität des WWW noch nicht zufriedenstellend sein. Den statistischen Erhebungen von Rand Fishkin (SEOmoz), der seit Jahren mit einem eigenen Index herumexperimentiert, zufolge ist das Internet aus technischer Sicht noch ein kleines, unbeholfenes Kind.

Es gibt gerade einmal 165 Millionen externe Links (165.638.731 unique outgoing links). Er hat von allen Links die er prüfen konnte 3% mit dem rel-Attribut nofollow identifiziert. Beeindruckend ist, dass von diesen 3% rel-nofollow Links sage und schreibe 73% intern sind. Also 73% aller nofollow Links im Netz zeigen auf Pages der jeweils eigenen Domain! Im Gegensatz dazu hat er gerade einmal 0,4% durch das meta-robots-tag entwertete nofollow-Links gefunden. Für die Durchblutung des World Wide Webs ist das das eine feine Sache.

Erreichbarkeit der Webseiten

  • 81%: Status 200 – Das heißt, die meistenWebseiten sind erreichbar.
  • 6%: Status 3xx – 6% des WWW werden in irgendeiner Form weitergeleitet (ohne 301 redirects)
  • 4%: Status 404 – Dieser zum Glück geringe Anteil von Webpages ist unauffindbar.
  • 3%: Status 301 – Der sogenannte Dreinulleinser ist eine permanente Weiterleitung.
  • 2%: Status unreachable – Ein kleiner Teil des Worldwidewebs ist nicht erreichbar. Das kann auch an einem sogenannten error 500 (= Serverfehler) liegen.

Das WWW aus SEO-Sicht

Für Suchmaschinenoptimierer ist es wichtig, dass die Links die zur eigenen Seite zeigen von möglichst vielen unterschiedlichen IP Adressen kommen. Links gelten schließlich als Empfehlung und wenn man aus sehr vielen Ecken Empfehlungen bekommt, sind diese natürlich wesentlich mehr wert. Auf einem Webserver können mehrere tausend Domains verwaltet werden. Jeder Webserver hat eine eigene IP-Adresse, die sich aus 4 Blöcken zusammensetzt, die wiederum mit den ersten vier Buchstaben des Alphabets bezeichnet werden.

  • weniger als 90% der Verlinkungen im Internet haben den selben C-Block (3. Stelle der IP) = nicht so doll 😉
  • weniger als 88% der Links verweisen auf Dokumente im selben Root-Verzeichnis
  • weniger als 85% haben sogar völlig identische IP-Adressen

Randbemerkung zum rel=Canonical Attribut

Was das canonical Attribut im rel-metatag ist, habe ich hier beschrieben. Jetzt möchte ich noch erwähnen, dass geschätzt wird, dass inzwischen 16.177.515 (16 Millionen) solcher rel=“canonical“ Tags gesetzt worden sind. Das zeigt, dass die Angst vor Duplicate Content groß zu sein scheint und sich die Webmaster schnell darum kümmern.

Hat Euch diese Zusammenfassung irgendetwas gebracht? Ich fand manche Zahlen sehr interessant, weil sie mir bei Überlegungen zu neuen Projekten helfen. Die Ausrichtung der Inhalte sollte sich an den Suchvarianten orientieren. Und dass die Quintessenzen des contents am Anfang der Seite stehen sollten, zeigt die Zahl der User, die eine Seite sofort wieder verlassen, weil sie dort nicht sofort fündig werden, wenn sie über Suchmaschinen Ergebnisseiten kommen.

Gleich teilen:

  • Twitter
  • Google Plus
  • Facebook
  • LinkedIn
  • Email
  • RSS


+Benjamin Wingerter ist Inhouse-SEO und Affiliate seit 2008. Er hat zwei Steckenpferde: Conversion Rate Optimierung und Suchmaschinenoptimierung. Seit 2011 spricht er auf Fachkonferenzen, wie der SEO Campixx.

Advertisement

EmailEmail