Dumm gelaufen für den “Suchmaschinenoptimierung Spezialist” ?

So kann man sich auch aus den Serps “katapultieren”!

Auf der OMD hat eine SEO-Firma damit angegeben geworben, mit dem Key “Suchmaschinenoptimierung Spezialist” bei Google auf Platz 1 zu stehen. Allen fachkundigen Besuchern hat das nur ein müdes Lächeln entlocken können.

Natürlich ruft das diverse SEOs auf den Plan, die dann einen kurzen Artikel verfassen (so z.B. Markus, Faris SEO Blog oder auch Torsten -> diese Webseite existiert leider nicht mehr). Die Welt ist sooo böse und gemein (und voller Suchmaschinenoptimierungs Spezialisten, die jeder für sich Experte für Suchmaschinenoptimierung sind.) :-D…

Link, Backlink und gelinkt – (1) Grundlagen

Aus den Erfahrungen mit meinem Backlink-Webkatalog möchte ich dem Leser (in mehreren Teilen) einmal vorstellen, worauf man beim Link-Tausch so achten sollte.

Grundlagen – Was ist ein Backlink?

Der englische Begriff Backlink erklärt bereits in der Ãœbersetzung, worum es geht: Eine “zurück Verbindung” zwischen zwei Internetseiten. Auf einer Unterseite von Seite A wird ein Link zu Seite B gesetzt und im Gegenzug setzt Seite B auf einer beliebigen Unterseite einen Link zurück auf Seite A. Diese Art der Linksetzung wird eingesetzt, um beide beteiligten Seiten zu stärken. Je mehr Links von verschiedenen Seiten die eigene Seite hat, um so besser wird sie von Google “bewertet”.

Nun hat die Sache aber einen Harken, denn nicht jeder Link ist auch wirklich ein wertvoller Link. Es gibt z.B. ein Attribut “nofollow“, das verhindert, das ein Suchmaschinen-Roboter einen Link verfolgt. Markieren Sie einen beliebigen Link und schauen sich mit einem Rechtsklick den Quellcode zu diesem Link an. Taucht ein rel=”nofollow” im Quelltext des Links auf, dann wird der Link von Google nicht verfolgt, ist also wertlos.

Ebenso nutzlos sind Weiterleitungen, darum achten Sie zu aller erst einmal darauf, ob eingetragene Links auch wirklich direkt auf Ihre Seite führen, oder mittels eines Redirekts von einer Seite ala ./out.php?id=(irgend eine Nummer) auf extrene Seiten verlinkt wird.

Fortsetzung folgt…

Headline-Optimierung für Suchmaschinen und User: Inverses Cloaking

Nun bekommen also Suchmaschinen-Optimierer langsam aber sicher Konkurrenz. Zu “erstaunlichen neuen Erkenntnissen” kommt Spiegel.de in seinem Artikel: OPTIMIERTE NACHRICHTEN: Google statt Witz:

Was eine gute Überschrift auszeichnet, darüber wird bei Journalistenseminaren ausgiebig gestritten. Die einen stehen auf Sprachspiele, die anderen auf freche, direkte Ansprache. Nachrichtenschreiber mögen’s hingegen eher klar und sachlich. Der Streit ist lösbar – zumindest wenn man die Texte online publizieren will und auf eine große Leserschaft zielt. Denn dann sollten die Headlines möglichst auf die Belange von Nachrichten-Suchmaschinen optimiert werden, damit sie leicht gefunden werden.

In dem Zusammenhang habe ich in einem einschlägigen Forum eine interessante Überlegung gefunden: Sind wir bald soweit, das wir “inverses Cloaking” benutzen?

Zuerst einmal: Was ist Cloaking?

Cloaking nennt man die Technik, einer Suchmaschinen Inhalte zu zeigen, die man dem Leser einer Seite nicht zeigt. Ein perfektes Beispiel hatte BWM auf seinen Doorway-Seiten geliefert: Doorway pages von BMW, das Google-AUS! SEO nun auf Jobsuche?. Während der User mittels Java-Script auf die BMW-Hauptseite weiter geleitet wurde, bekamen Suchmaschinen eine “Anhäufung” von Begriffen “serviert”, um eine Relevantz zu verschiedenen Begriffen (z.B. Gebrauchtwagen) festzustellen.

Inverses Cloaking” bezeichnet das Gegenteil: Man zeigt dem User einen Inhalt, den Suchmaschinen gar nicht erst sehen. Das ganze funktioniert z.B. über Grafik, die ganz normal auf der Seite mit ausgegeben wird. Da Suchmaschinen aber Inhalte einer Grafik (eines Bildes) nicht erfassen könne, kann man so einen Titel zusätzlich angeben, der interessanter als die “Keyword-Optimierung” für die Suchmaschine wirkt.

Wird dieser zweite Titel in der Description mit eingebaut, dann findet sich der Text sogar in den Suchmaschinen-Ergebnissen wieder (um den Suchenden anzusprechen), hat aber lange nicht die “Relevanz”, die durch die eigentliche Keyword-Optimierung erreicht wird.

Ist das wirklich die Zukunft? Wer weiss…

Lesenswert: Ein Interview mit Danny Sullivan

Karsten Windfelder hat Danny Sullivan (Suchmaschinenexperte) auf der SES2006 interviewt und in seinem Blog hinterlegt: Suchmaschinenoptimierung, Interview mit Danny Sullivan (den Blog gibt es leider nicht mehr).

Wenn du eine Website mit starkem Content betreibst, eine Website, die für echte Inhalte bekannt ist, die nicht nur verkaufen will, wird sich das langfristig für dich auszahlen. Besonders wenn man betrachtet, dass die Suchmaschinen immer wieder ihre Algorithmen ändern werden.

Wahre Worte, Herr Sullivan!

Was sind eigentlich (Google) SERP(s)?

Das Wort SERP(s) stellt die Abkürzung der englischen Phrase “Search Engine Result Page(s)” dar und bezeichnet nichts anders, als als die Ausgabe-Seite(n) von Ergebnissen einer Suchmaschinen (z.B. Google) nach einer getätigten Suchabfrage.

Das Ziel jeder Suchmaschinen-Optimierung ist es, die zu optimierende Seite innerhalb der SERPs in den Top10, mindestens jedoch in den Top30 zu positionieren (mit anderen Worten auf den ersten drei Seiten, das standardmässig 10 Ergebnisse je Seite ausgegeben werden). Der überwiegende Teil der Suchenden findet sein Suchergebniss auf der ersten Seite der SERPs, nur noch jeder fünfzigste sucht auf Seite 4 und tiefer.

Feedback zur Webseiten-Optimierung

Schon geraume Zeit habe ich diese Seite im website showroom von www.webgreenhorn.com angemeldet und sammel dort Feedback für mein Webprojekt. Auf der Basis dieser Feedbacks habe ich nun begonnen, meine Seite etwas optisch umzubauen (-> Homepage von Stephan Hertz).

Die Möglichkeit, die eigene Webseite weiter zu optimieren bietet Webgreenhorn auf zwei Wegen: Zum einen gibt es einen PR-Vererbenden Backlink und zum anderen durch konkrete Kritik und Hinweise anderer Webmaster zur Seiten-Optimierung. Denn darauf basiert das System: Durch die Abgabe von Bewertungen sowie von Optimierungs-Tipps steigt die eigene Seite im “internen” Ranking auf und wird so besser in der Liste positioniert.

Wem die Seite von www.webgreenhorn.de gefällt und wer sich dort anmelden will, den bitte ich als Lohn für diesen Tipp, meinen Promo-Code: D9640 bei der Anmeldung zu verwenden und ihm sei versprochen: Auch ich gebe regelmäßig dort Tipps zur Suchmaschinen-Optimierung!

Der Suchmaschinen-Robot und der Webdesigner

Ich kann einfach nicht anders, denn diese Geschichte ist viel zu gut, um nicht noch einmal extra erwähnt zu werden: Der Suchmaschinen-Robot und der Webdesigner.

Zum Hintergrund: Es geht um einen SuMa-Bot (Suchmaschinen-Robot) und einen Webdesigner, die sich in einer Kneipe treffen und ins Gespräch kommen und natürlich geht es um Webdesign und Suchmaschinen-Ergebnisse
Schon der Untertitel “Ein unidirektionales, virtuelles Märchen aus Düsseldorf” deutet an, das hier ein Text mit viel Tiefsinn zu finden ist! Einige Textbeispiele gefällig? Aber gern, denn die Geschichte gibt perfekt wieder, was man alles falsch machen kann: „Der Suchmaschinen-Robot und der Webdesigner“ weiterlesen

site: SEO´s haben eh immer ihre eigene Meinung…

… aber ich habe die Entwicklung, die ich in Erfolgreicher 301-Rewrite und eine interessante Beobachtung! bereits andeutete, sehr genau verfolgt und bin zu dem Schluss gekommen: Ja, Google bevorzugt saubere URL´s bei der site:-Abfrage. Nachprüfbar ist dieses Beobachtung eigentlich fast nicht mehr, denn bis auf wenige Seiten sind inzwischen alle Seiten neu gespidert und damit mit der neuen URL im Index gespeichert. Die wenigen Seiten, die noch unter der alten URL geführt werden, stehen aber ganz am Ende der site:-Abfrage – qed = quod erat demonstrandum oder wie der Deutsche sagen würde: Was zu beweisen war….

Google Hacks 100 Insider-Tricks & Tools

mod rewrite 301 ohne QueryString – Double Content vermeiden

Erst kürzlich hatte ich mit einem schwerwiegenden DC-Problem zu kämpfen (-> Modrewrite und Suchmaschinen- Optimierung für ein Wiki via .htaccess), nun hat sich ein weiteres Problem beim Thema DC (Double Content) im Zuge der Suchmaschinen-Optimierung für Premium Links Webkatalog ergeben.

In dem Webkatalog hatte ich von Anfang an die gesamte Verlinkung auf PR- (PageRank) Vererbung umgestellt. Dadurch wurde die Review-Funktion, die in der verwendeten Katalog-Software normaler weise enthalten ist, überflüssig. Ich habe sie inzwischen vollständig entfernt, aber im Index waren aber schon einige Seiten mit solchen Links aufgenommen: www.premium-links-24.de/review.php?sid=8&recat= (sid enthält jeweils die Nr. des Eintrags)

Natürlich kann man durch die robots.txt diese Seite ausschließen, aber manchmal (die Seiten wurden bislang immernoch aktualisiert) verhalten sich Suchmaschinen einfach zu neugierig und ignorieren die robots.txt: „mod rewrite 301 ohne QueryString – Double Content vermeiden“ weiterlesen