NETFORMIC und die SEO-Wette

Wozu Glühwein so alles führen kann? Ich sag Euch, Weihnachtsfeiern sind gefährlich!!!

Wer sich mit NETFORMIC und Glühwein auskennt, der hat ganz sicher die Seite von Henning zum Thema Glühwein und NETFORMIC gelesen. Der Geschäftsführer Stephan Sigloch (sieh da, ein Namensvetter von mir!) von NETFORMIC hat doch tatsächlich mit Henning um eine Platzierung in den Google-SERPs gewettet – Henning hat die Wette zwar nach Aussagen von Stephan S. bereits gewonnen, aber noch ist der Kampf nicht zuenden: Siehe Kommentare zu NETFORMIC.

Solche SEO-Spielchen sind nicht ganz neu (Sozialgericht Bremen, Suchmaschinenoptimierung Spezialist), aber wenn keiner darauf anspringt, dann versanden sie auch (Anti Tramal & Tramadol-Spam) mal.

Na dann viel Glück Henning (obwohl: bei solchen Helfern Glühwein, SEO & Netformic kann´s ja gar nicht schief gehen ;-))

Dumm gelaufen für den “Suchmaschinenoptimierung Spezialist” ?

So kann man sich auch aus den Serps “katapultieren”!

Auf der OMD hat eine SEO-Firma damit angegeben geworben, mit dem Key “Suchmaschinenoptimierung Spezialist” bei Google auf Platz 1 zu stehen. Allen fachkundigen Besuchern hat das nur ein müdes Lächeln entlocken können.

Natürlich ruft das diverse SEOs auf den Plan, die dann einen kurzen Artikel verfassen (so z.B. Markus, Faris SEO Blog oder auch Torsten -> diese Webseite existiert leider nicht mehr). Die Welt ist sooo böse und gemein (und voller Suchmaschinenoptimierungs Spezialisten, die jeder für sich Experte für Suchmaschinenoptimierung sind.) :-D…

Schmackofatz und Himbeertoni

Ich habe gerade einen Link für die Modellbau-Stadt Knuffingen auf fnetwork Internetkatalog angemeldet und bin dabei über die Seite von Sebastian Stanger auf eine spannende Seite gestossen.

Auf seiner Seite beschäftigt sich Sebastian mit den Begriffen Schmackofatz und Himbeertoni (anscheinend ein Test zur Suchmaschinen-Optimierung). Und so bin ich dann bei der Google-Suche nach dem Begriff Schmackofatz auf eine gleichsam witzige wie unterhaltsame und umfangreiche Internetseite gestossen: Der Assoziations Blaster.

In den letzten 24 Stunden kamen zum Assoziations-Blaster 173 Assoziationen und 7 neue Stichwörter hinzu. Damit sind im Moment 690482 Texte zu 53932 Stichwörtern vorhanden.

Die Datenbank-Anwendung enthält unter anderem den Begriff Schmackofatz. Zu jedem gespeicherten Begriff können Kommentare geschrieben werden, deren einzelne Wörte wiederum auf die entsprechende Begriffsseite Cross-Verlinkt sind, so daß eine sehr intensive interne Verlinkung entsteht.

Da hat jemand das Thema Onpage-Optimierung wirklich übertrieben verstanden :-D.

Im Gegensatz zu Schmackofatz liefert der Assoziations-Blaster für das Wort Himbeertoni übrigens keine Seite… ;-)

Link, Backlink und gelinkt – (1) Grundlagen

Aus den Erfahrungen mit meinem Backlink-Webkatalog möchte ich dem Leser (in mehreren Teilen) einmal vorstellen, worauf man beim Link-Tausch so achten sollte.

Grundlagen – Was ist ein Backlink?

Der englische Begriff Backlink erklärt bereits in der Ãœbersetzung, worum es geht: Eine “zurück Verbindung” zwischen zwei Internetseiten. Auf einer Unterseite von Seite A wird ein Link zu Seite B gesetzt und im Gegenzug setzt Seite B auf einer beliebigen Unterseite einen Link zurück auf Seite A. Diese Art der Linksetzung wird eingesetzt, um beide beteiligten Seiten zu stärken. Je mehr Links von verschiedenen Seiten die eigene Seite hat, um so besser wird sie von Google “bewertet”.

Nun hat die Sache aber einen Harken, denn nicht jeder Link ist auch wirklich ein wertvoller Link. Es gibt z.B. ein Attribut “nofollow“, das verhindert, das ein Suchmaschinen-Roboter einen Link verfolgt. Markieren Sie einen beliebigen Link und schauen sich mit einem Rechtsklick den Quellcode zu diesem Link an. Taucht ein rel=”nofollow” im Quelltext des Links auf, dann wird der Link von Google nicht verfolgt, ist also wertlos.

Ebenso nutzlos sind Weiterleitungen, darum achten Sie zu aller erst einmal darauf, ob eingetragene Links auch wirklich direkt auf Ihre Seite führen, oder mittels eines Redirekts von einer Seite ala ./out.php?id=(irgend eine Nummer) auf extrene Seiten verlinkt wird.

Fortsetzung folgt…

Headline-Optimierung für Suchmaschinen und User: Inverses Cloaking

Nun bekommen also Suchmaschinen-Optimierer langsam aber sicher Konkurrenz. Zu “erstaunlichen neuen Erkenntnissen” kommt Spiegel.de in seinem Artikel: OPTIMIERTE NACHRICHTEN: Google statt Witz:

Was eine gute Überschrift auszeichnet, darüber wird bei Journalistenseminaren ausgiebig gestritten. Die einen stehen auf Sprachspiele, die anderen auf freche, direkte Ansprache. Nachrichtenschreiber mögen’s hingegen eher klar und sachlich. Der Streit ist lösbar – zumindest wenn man die Texte online publizieren will und auf eine große Leserschaft zielt. Denn dann sollten die Headlines möglichst auf die Belange von Nachrichten-Suchmaschinen optimiert werden, damit sie leicht gefunden werden.

In dem Zusammenhang habe ich in einem einschlägigen Forum eine interessante Überlegung gefunden: Sind wir bald soweit, das wir “inverses Cloaking” benutzen?

Zuerst einmal: Was ist Cloaking?

Cloaking nennt man die Technik, einer Suchmaschinen Inhalte zu zeigen, die man dem Leser einer Seite nicht zeigt. Ein perfektes Beispiel hatte BWM auf seinen Doorway-Seiten geliefert: Doorway pages von BMW, das Google-AUS! SEO nun auf Jobsuche?. Während der User mittels Java-Script auf die BMW-Hauptseite weiter geleitet wurde, bekamen Suchmaschinen eine “Anhäufung” von Begriffen “serviert”, um eine Relevantz zu verschiedenen Begriffen (z.B. Gebrauchtwagen) festzustellen.

Inverses Cloaking” bezeichnet das Gegenteil: Man zeigt dem User einen Inhalt, den Suchmaschinen gar nicht erst sehen. Das ganze funktioniert z.B. über Grafik, die ganz normal auf der Seite mit ausgegeben wird. Da Suchmaschinen aber Inhalte einer Grafik (eines Bildes) nicht erfassen könne, kann man so einen Titel zusätzlich angeben, der interessanter als die “Keyword-Optimierung” für die Suchmaschine wirkt.

Wird dieser zweite Titel in der Description mit eingebaut, dann findet sich der Text sogar in den Suchmaschinen-Ergebnissen wieder (um den Suchenden anzusprechen), hat aber lange nicht die “Relevanz”, die durch die eigentliche Keyword-Optimierung erreicht wird.

Ist das wirklich die Zukunft? Wer weiss…

Der Suchmaschinen-Robot und der Webdesigner

Ich kann einfach nicht anders, denn diese Geschichte ist viel zu gut, um nicht noch einmal extra erwähnt zu werden: Der Suchmaschinen-Robot und der Webdesigner.

Zum Hintergrund: Es geht um einen SuMa-Bot (Suchmaschinen-Robot) und einen Webdesigner, die sich in einer Kneipe treffen und ins Gespräch kommen und natürlich geht es um Webdesign und Suchmaschinen-Ergebnisse
Schon der Untertitel “Ein unidirektionales, virtuelles Märchen aus Düsseldorf” deutet an, das hier ein Text mit viel Tiefsinn zu finden ist! Einige Textbeispiele gefällig? Aber gern, denn die Geschichte gibt perfekt wieder, was man alles falsch machen kann: „Der Suchmaschinen-Robot und der Webdesigner“ weiterlesen

site: SEO´s haben eh immer ihre eigene Meinung…

… aber ich habe die Entwicklung, die ich in Erfolgreicher 301-Rewrite und eine interessante Beobachtung! bereits andeutete, sehr genau verfolgt und bin zu dem Schluss gekommen: Ja, Google bevorzugt saubere URL´s bei der site:-Abfrage. Nachprüfbar ist dieses Beobachtung eigentlich fast nicht mehr, denn bis auf wenige Seiten sind inzwischen alle Seiten neu gespidert und damit mit der neuen URL im Index gespeichert. Die wenigen Seiten, die noch unter der alten URL geführt werden, stehen aber ganz am Ende der site:-Abfrage – qed = quod erat demonstrandum oder wie der Deutsche sagen würde: Was zu beweisen war….

Google Hacks 100 Insider-Tricks & Tools

Modrewrite und Suchmaschinen- Optimierung für ein Wiki via .htaccess

Das war eine härtere Nuss! Im Zuge der Suchmaschinen-Optimierung für die Modellbau Wiki habe ich das Wiki von

http://www.modellbau-wiki.de/wiki/index.php?title=thema

auf die wesentlich suchmaschinenfreundlicher URL

http://www.modellbau-wiki.de/wiki/thema

umgestellt.

Natürlich waren mit der alten URL schon zig Seiten im Google-Index. Durch diesen Umstand war DC (Double Content) garantiert! Die Anforderung an das Rewrite war also eine Dynamische Rewrite-Regel (da es um mehrere hundert Seiten geht), welche die Bots auf die neue URL verweist und die alte URL aus dem Index entfernt. Genau das macht einen 301-er Weiterleitung: Der Server sendet Status 301 (Moved Permanently), um anzuzeigen, dass die Ressource für immer unter der neuen URL erreichbar ist. „Modrewrite und Suchmaschinen- Optimierung für ein Wiki via .htaccess“ weiterlesen