10 Fragen für SEO Profis

 7721 Mal gelesen

SEO Fragen für Profis Na das ist doch mal ein leicht verdienter Blogartikel: SEO United haben die 10 Fragen übersetzt, von denen Rand Fishkin glaubt, dass erfahrene Suchmaschinenoptimierer sie aus dem Stegreif beantworten können müssten. Ich habe nicht alle durchgelesen, aber hole das jetzt beim Schreiben nach. Bin gespannt, ob es auch welche gibt, bei denen es viele brauchbare Lösungen gibt. Ich überlasse es dann meinen schlauen Lesern, ergänzende und alternative Antworten als Kommentar anzufügen. 😉

1.) Welche der folgenden Maßnahmen hat einen größeren Einfluss auf das Ranking einer Webseite und warum: 10 Links von einer Website oder ein Link von 10 verschiedenen Webseiten?

Pauschalisierungen mag ich nicht, aber hier fällt es mir nicht leicht, mehr als 1 Argument/Beispiel für Ersteres zu finden. Domainpopularität hat in vielen Tests hervorragende Ergebnisse gezeigt. Sogar Blog-Comment-Spam und Forenprofil-Link-Spam funktionieren immer wieder mal super. :)

2.) Erkläre den Unterschied zwischen folgenden Begriffen: Statuscode 301, Statuscode 302, Canoncial-Tag und Refresh-Metatag.

Wachsfrüchte, normales Obst, Vitamintabletten und Kaugummi mit Kirschgeschmack aus dem Automaten. Ich denke, hier will Rand auf die Beseitigung von Duplicate Content hinaus. Wenn man zwei Dokumente hat, und will nur eines indexiert wissen, damit z.B. der Googlebot geschont wird und sich nicht mit unnützen Inhalten aufhält, sollte der Webmaster klar zum Ausdruck bringen, dass nur eines wichtig ist. Man kann die Kopie dauerhaft unerreichbar machen, indem man die Ressource mittels des 301 Redirects permanent auf das Original weiterleitet. Will man diese Weiterleitung nur für begrenzte Zeit einrichten, so kann man den 302 (= moved temporarily) Redirect verwenden. Googlebot besucht die „Kopie“ dann immer wieder mal, um zu sehen, wann das perifer nicht zu erreichende Dokument wieder aktiv ist. Ein Canonical Tag oder ganz genau Meta Tag mit rel=Canonical Attribut ist ein zusätzlicher Hinweis auf die Existenz einer „Original“-Ressource. Ein Meta Refresh Tag funktioniert wie eine 301, kann aber mit Zeitverzögerung von mehreren Sekunden geschalten werden. Diese Methode sieht man heute meist nur noch bei der Verlinkung von externen Ressourcen und Download-Seiten. Anderweitig sollte man auf diese Variante verzichten und lieber einen kompromisslosen 301er nutzen.

3.) Wie lässt sich über das Robots-Metatag beeinflussen, wie eine Seite gecrwalt, indexiert und in Suchmaschinen angezeigt wird?

Im Robots Meta Tag, kann man die Indexierung einer Seite durch den Attributswert „noindex“ verbieten. Zeigen sehr viele Links auf die Seite, kann sie trotzdem in Google-Suchergebnissen gelistet werden, wenn auch ohne das Abbild (Cache) und mit minimaler Beschreibung. Durch den Attributwert „nofollow“ verbietet man dem Googlebot, das Verfolgen der Hyperlinks der Einzelpage. Manchmal zeigt Google in den SERPs (= Search Engine Result Pages) eine Seite mit Titel und Beschreibung aus dem Webkatalog „DMOZ“ (oder „Open Directory Project“) an. Das kann man verbieten, indem man dem Robots Metatag ein „noodp“ hinzufügt. Gleiches Vorgehen mit dem Attributwert „noydir“ schützt eine Webseite vor der betitelung mit dem Yahoo! Verzeichnis Titel und Beschreibungstext.

4.) Welches sind die führenden zwei Suchmaschinen (Marktanteil) in folgenden Ländern: USA, Groß-britannien, Russland und China?

  • USA: Google, Bing
  • Großbritannien: Google, Bing
  • Russland: Yandex, Google
  • China: Baidu, keine Ahnung

Leider kümmere ich mich um China nicht und fasse der Einfachheit halberYahoo! und Bing (Microsoft Live Search Algorithmus + Yahoo! Index) zusammen.

5.) Nenne mindestens drei Faktoren, welche das Listing in Google Maps/Places positiv beeinflussen.

  1. Geringe Entfernung der Lokalität vom zentralen Punkt der Stadt (definiert von Google, meist unbekannt, aber schätzbar)
  2. angegebener Titel des Eintrags
  3. hinterlegte Kategorien des Eintrags

6.) Wann kann Social Media Marketing einen positiven Einfluss auf Ranking in Suchmaschinen haben (abgesehen von den Links aus sozialen Netzwerken)?

Abgesehen von Links aus sozialen Netzwerken (Digg, Blogs, schnelle Indexierung durch Twitter, Identica und Yammer,…) ist es möglich, die Suchergebnisse zu ausgewählten Begriffen mit mehr als nur der eigenen Website zu belegen. Man könnte Platz 1 zu einem Keyword ranken mit der eigenen Website, Platz 2 mit einem Youtube Video und weiter unten noch einmal mit einem Bild in einer Image Onebox.

Außerdem werden Bewertungen (Reviews) angeblich ein Rankingfaktor für die Google Suchmaschine. SEOs und Social Media Verantwortliche sollten daher dringend eng zusammen arbeiten und sich wirklich gegenseitig zuhören, um Kompromisse eingehen zu können, bevor Strategien und Portale starr und unflexibel sind und sich nur noch schwer für beide Disziplinen optimieren lassen.

7.) Nenne fünf Positionen/Tags wo das Einfügen eines Keywords einen positiven Effekt auf das Ranking einer Webseite hat.

  1. title Tag
  2. meta description tag
  3. h1-Überschriften tag
  4. alt-Attribut in img tag (= Alternativtext in Bildern)
  5. a tag (Verlinkungen)

8.) Beschreibe die Verteilung der Suchanfragen, wenn von den Begriffen `Short Head´ und `Long Tail´ gesprochen wird.

Im Short Head, sind wenige, generische Begriffe enthalten, die ein sehr hohes Suchvolumen inne haben. „SEO“ ist zum beispiel ein solcher Begriff, ebenso wie „Suchmaschinenoptimierung“ oder auch „Onlinemarketing München“. Ranked man für solche Begriffe in den Top 3 bekommt man eine gigantische Menge an Besuchern über solche short head keywords und key phrases. Enthält die Webseite jedoch viel Text mit weiteren semantischen Begriffen und sinnvoll zusammengefügten Phrasen aus 2, 3 und mehr Wörtern, so kann es vorkommen, dass man über mehrere hundert oder tausend solcher Mehr-Wort-Kombinationen insgesamt auch eine erstaunliche Anzahl an Besuchern über Suchmaschinen bekommt. Das nennt man dann Long Tail. Manchmal lohnt es, den Long Tail stärker zu optimieren, als den Short Head, wenn letzterer stark umkämpft ist und nur durch hohen Zeit- und Kostenaufwand stabil geranked werden kann. Die Longtail-Optimierung setze ich gerne durch lange Texte mit semantischen Begriffen, Synonymen und Zusammengesetzten Namenwörtern, durch Fragen wie „Wie optimieren SEOs den Long Tail für Suchmaschinen wie Google?“ und durch Aufzählungslisten. Auch Backlinks die nicht nur das Hauptkeyword, sondern thematisch passende weitere Wörter enthalten, tragen meiner Erfahrung nach zur Erhöhung des Longtail Traffics bei.

9.) Zähle sechs Quellen/Werkzeuge auf, mit welchen sich die Backlinks einer Webseite anzeigen lassen.

  1. Yahoo! SiteExplorer Update vom November: Der Yahoo! SiteExplorer wurde vom Netz genommen, aber ich biete allen Suchmaschinenoptimierern den Backlink Explorer zum schnellen Backlinkcheck an.
  2. Majestic SEO
  3. Sistrix
  4. Blekko
  5. Web Tracking / Analytics Tool das Referring Domains mitspeichert und anzeigt
  6. Alexa ^^

10.) Wie lässt sich die Anzahl der von einer Suchmaschine indexierten Seiten bzw. die Haüfigkeit des Crawlvorgangs positiv beeinflussen?

Zum einen sollten Verlinkungen von häufig gecrawleten Webseiten auf geeignete Verteilerseiten mit zahlreichen internen Verlinkungen zeigen. Auch das anpingen einer Website mittels in WordPress gesetzten Links oder Social Bookmarks mit RSS Feed eignen sich. Auch eine hohe Domain Popularität führt dazu, dass Googlebot über mehr als nur einen Weg auf die Zieldomain aufmerksam wird. Eine Anmeldung in den Google Webmastertools mit Upload einer Sitemap.xml Datei fördert die Indexierung. Ebenso kann man es dem Googlebot leichter machen, indem man ihm den Zutritt zu Sackgassen-Pages, Duplikaten oder einfach uninteressanten Seiten verwehrt (siehe auch Frage 2!). Googlebot hat nur bregrenzt Zeit, Deine Seite zu crawlen. Das hängt davon hab, wie wichtig Deine Seite Google erscheint. Wenn Googlebot Deine Seite nie ganz crawled, versuche auch einmal die Ladezeit Deiner Webpages zu verringern und die interne Verlinkung anders zu setzen. Oben erwähnte Verteilerseiten müssen auch Text enthalten, von extern angelinkt werden und sollten je nach der Größe Deiner Website nicht mehr als 30 bis 500 Links enthalten. Jede Verzweigung speichert Googlebot erst einmal für einen späteren Besuch des Ziels ab. Stell Dir vor, Du bist er und stehst am Eingang eines unendlich verzweigten Irrgartens. Lass ihn nicht allein und mache unnötige Pfade dicht, öffne dafür starke Verbindungstunnel für ihn an anderer Stelle. 😉 Bist Du des Englischen mächtig, suche nach SEO Blogs, die aktuell über Siloing und Bot Herding sprechen.

Ich hoffe, jemand kann aus meinen oberflächlichen Kurzantworten doch einen Nutzen ziehen. Es hat jedenfalls Spaß gemacht, einmal wieder ein paar SEO Basics auszuformulieren. Danke SEO-United für die 10 Fachfragen. Übrigens wundert mich, dass ich den ganzen Artikel zu 10 sehr wichtigen SEO Themen verfasst habe, ohne ein einziges Mal den Begriff Page Rank fallen zu lassen. 😀

Gleich teilen:

  • Twitter
  • Google Plus
  • Facebook
  • LinkedIn
  • Email
  • RSS


+Benjamin Wingerter ist Inhouse-SEO und Affiliate seit 2008. Er hat zwei Steckenpferde: Conversion Rate Optimierung und Suchmaschinenoptimierung. Seit 2011 spricht er auf Fachkonferenzen, wie der SEO Campixx.

Advertisement

EmailEmail