Alle Beiträge von Helmut Hirner

No nofollow – Pro und Kontra sine SEO

No nofollow – just follow me! Kann natürlich nicht funktionieren, aber zuerst sei einmal bemerkt, dass es sich hier nicht um „no fololow“ in der robots.txt handelt und auch nicht um den meta tag im Kopf von HTML-Seiten, sondern um das „no follo“ als Wert für das rel Attribut für das A Element (anchor) eines Links (Verweis, Hyperlink).
Die Grundlagen sind hier gut beschrieben NoFollow und die engl. Version bietet auch eine übersichtliche Tabelle, (dich ich übrigens genau gleich in einigen Blogs gefunden haben und dort meinte man sie kam auf grund eigner Experimente zustande) nofollow

Bedeutung für Suchmaschinen
MSN kümmert sich überhaupt nicht um rel=nofollow Links. Yahoo behandelt sie wie jeden anderen Link, wertet aber den Link an sich höchstwahrscheinlich nicht. Google hat offiziell bestätigt, dass sie rel=nofollow Links keine Wertigkeit zusprechen. Das heißt, es ist lediglich das Verhalten von Googel interessant in diesem Zusammenhang.
Google verfolgt den Link zwar, aber der Inhalt der verlinkten Seite wird jedoch nicht in den Index aufgenommen. Die verlinkten Seiten werden bei der Pagerank-Berechnung nicht oder anders berücksichtigt, wenn ein No follow gesetzt wurde.
Die Konsequenz des NoFollow-Attributs: die verlinkten Seiten verschlechtern ihr Ranking und wandern in den SERPs nach hinten. Der Pagerank geht zurück, was sich ebenfalls im Ranking niederschlägt. Da das NoFollow-Attribut besonders in Blogs (Kommentar-Funktion) zur Anwendung kommt, werden die Blogger darunter selbst am meisten leiden. Schlechtere Positionen in Suchmaschinen = weniger Blog-Leser aus den Suchmaschinen.

Ob Sie ein nofollow setzten ist ihre Sache, es sei denn Sie wissen es nicht einmal, da es die Software, z.B. WordPress für sie erledigt. WordPress und andere Blog- und SMS-Softwareprodukte setzt automatisch das NoFollow tag per default und wer es nicht will muss es entfernen. Das ist jeden seine Sache, aber ich glaube nicht, dass ein Artikel unbedingt wertvoller dadurch wird, wenn man im Kommentarbereich einen Link setzen kann. Allerdings kann es auch recht nützlich sein, aber typischer Weise wird es leiderhäufig missbraucht, da es sich ja schon dazu anbietet.
Google setzt dem entgegen, dass er solche Links nicht bewertet und das ist auch gut so finde ich. Nicht gut finde ich hingegen, wenn ein Portal wie Mr. Wong Webmaster und Benutzer damit ködert, sie sollen ihre Seiten dort bookmarken und dann wird ein „no follow“ gesetzt. Noch schlimmer ist das bei Webverzeichnissen, Katalogen, wo sich fast nur Webmaster mit ihrer Seite eintragen, damit sie eben einen Link auf ihre Seite erhalten. Da grenzt ein plötzlich gesetztes no follow schon fast an Betrug, finde ich. Nun zu den eigentlichen pros und cons:
Für ein no follow spricht:
Es kann zur Spam Bekämpfung eingesetzt werden und bei Google wirden sie schon selbst wissen, wie sie ein no follow zu beweren haben.
Gegen ein no follow spricht:
Fight Spam not Blogs
Es gibt Alternativen, z.B. chapcha, die Kommentarfunktion deaktivieren oder Kommentare erst nach Freischaltung veröffentlichen.
Ich möchte hier auch noch einen Absatz zitieren den ich dazu auf nofollow.net gefunden habe:

Was könnte wirklich hinter NoFollow stecken?
Es ist ein offenes Geheimnis: die Suchmaschinen sind durchtränkt von Blogs in den ersten Suchresultaten. Der Grund liegt auf der Hand. Blogs werden häufig verlinkt und machen dies untereinander stets mit passenden Linktexten. Das A und O für ein gutes Ranking innerhalb der Suchmaschinen. Außerdem verwenden viele Blogs ModRewrite und dadurch eine schöne (von Suchmaschinen heissgeliebte) URL. Die Blogs in den vorderen Rängen könnten vielen Suchmaschinen ein Dorn im Auge sein. Man gibt ihnen somit ein hübsches Attribut, verkauft dieses als Lösung für alle Spam-Probleme und schafft sich somit die Blogs aus dem Ranking. Die Blogger katapultieren sich sogar selbst raus! Welch genialer Plan!

Meine Meinung dazu: Was haben blogs in den Rängen verloren? Zum Geld verdienen mit bloggen und um die Blogger mit eingebundenen Spam (Affiliates) als Unternehmer sehen zu Können.
Das ist haaresträubend und nicht im Sinne des Erfinders! Das ist Missbrauch einer freien Software und der Rede- und Meinungsfreiheit. Wenn ein paar Fuzzis oder SEOs schnell das große Geld machen wollen, weil sie einen Sch.. in ihr Blog einbinden können, das sie geschenkt bekommen haben, dann soll sie Google in den Rängen wollen? Sorry, aber wer Google für so unfähig hält tut mir Leid.
Die Benutzer sollen bestimmen welche Seite für sie wichtig und interessant ist und die eigentümer von Technologien, also die Suchmaschinen selbst, aber nicht irgend welche überklugen Werbeheinis.
Ich bin ein Gegner dieses Manipulationsversuches und obwohl ich absolut nichts für SEO übrig habe und dessen Existenzberechtigung verneinen muss, da meiner Meinung nach der Versuch für Suchmaschinen zu optimieren dem Versuch sie zur Hintergehung von Suchmaschinen, Webmaster und Internetbenutzer gleich kommt, möchte ich trotzdem eine Anmerkung für solche anbringen. Ich habe gerade auf einer SEO-Seite gelesen, dass Links aus dem Web 1.0 wertlos wären und meine dazu: Dies ist völlig unfundierte, haltlose Wichtigtuerei und es ist sogar eher umgekehrt der Fall. Die Betoung liegt auf eher, denn Links aus der ganzen SEO-Welt, die Großteils WordPress verwenden sind mit „no follow“ versehen und enthalten darüber hinaus meist auch noch Parameter, was einige Suchmaschinen nicht verarbeiten können.
Es ist sehr auffällig, dass das Web 2.0 zum Hype hochgeputscht wurde, als domain und subdomain Spam schon zur wirklich zur massieven Plage wurde. Man konnte schon fast jeden Suchbegriff irgendwo, speziell natürlich auf Google, eingeben und ein SEO Meister hat auf diese Anfrage hin eine Seite mit einer subdomain die den Suchbegriff enthalten hat automatisch erstellt und ein wenig Inhalt auftomatisch auf der dynamisch generierten index.html und natürlich Google Ads angezeigt. Im Web 1.0 wurden von bekannte Katalogen kaum deeplinks akzeptiert sondern nur „richtige Internetadressen“ und genau das führte zu diesen Spam. Nun im Web 2.0 sind allgemein deeplinks, also Links die irgend auf einen Artikel oder einer Datei zeigen, aber nicht auf die Startseite, hingegen wieder gefragt und subdomain spam macht da keinen Sinn. Ist das nicht irgendwo auffällig.
Weshalb ich das „no follow free“ plugin verwende:
Mein blog dient zwar in erster Linie zum sammeln von Artikeln, die ich auch später wieder finden möchte und die ich jederzeit ergänzen und umarbeiten kann, wobei natürlich immer die Originalquelle erwähnt werden soll -(sofern es eine gibt) und zwar mittels Link der etwas wert sein soll. ich möchte das die Seiten auf die ich Linke auch indiziert werden und für den Kommentarbereich gibt es eine eigene Option, die ich aber ebenfalls auf no follow free gestellt habe. Ich sehe mir die Kommentare eben vorher an und zeige nur solche an die ich anzeigen will, der Rest wird gelöscht.
Meinungen dazu sind gerne als Kommentar willkommen.

(1029)

XML Schema Patterns for Databinding: Working Drafts

2007-10-31: The XML Schema Patterns for Databinding Working Group published updated Working Drafts of Basic XML Schema Patterns for Databinding Version 1.0 and Advanced XML Schema Patterns for Databinding Version 1.0. The patterns can describe XML 1.0 representations of commonly used data structures independent of any particular programming language, database or modelling environment. Contribute to the test suite, and read the interoperability report and about Web services.
(Permalink)

(217)

Basic Logic Dialect, RDF and OWL Compatibility, and Core Design

2007-10-31: The Rule Interchange Format Working Group has published three documents: RIF Basic Logic Dialect , RIF RDF and OWL Compatibility, and RIF Core Design – Placeholder; the first two are First Public Working Drafts. Basic Logic Dialect specifies a basic format that allows logic rules to be exchanged between rule-based systems. Rules interchanged using the Rule Interchange Format RIF may depend on or be used in combination with RDF data and/or RDF Schema or OWL data models. RIF RDF and OWL Compatibility specifies compatibility of RIF with the Semantic Web languages RDF and RDFS; in the future the document will address OWL as well. Finally, the Placeholder document resets expectations about the core RIF design. The Working Group has decided that that the design previously published as RIF Core is better considered as the basis for Logic Rules, rather than all kinds of rules. In the future, a new Core may be published, but for now, interested parties should refer to the Basic Logic Dialect. Learn more about the Semantic Web Activity.
(Permalink)

(437)

Incubator Group Reports: Geospatial Vocabulary and Geospatial Ontologies

2007-10-31: The Geospatial Incubator Group published theirs reports on Geospatial Vocabulary and Geospatial Ontologies. The first document define a basic ontology and OWL vocabulary for representation of geospatial properties for Web resources. The second gives an overview and description of geospatial foundation ontologies to represent geospatial concepts and properties on the Web. Use cases for this work are described in the charter of the XG. Both publications are part of the Incubator Activity, a forum where W3C Members can innovate and experiment. (Permalink)

(155)

XForms 1.0 Third Edition Is a W3C Recommendation

2007-10-29: The World Wide Web Consortium today released XForms 1.0 Third Edition as a Recommendation. The document responds to implementor feedback, brings the XForms 1.0 Recommendation up to date with second edition errata and reflects clarifications already implemented in XForms processors. XForms separates presentation and content, minimizes the need for scripting and round-trips to the server, and offers device independence. Visit the forms home page. (Permalink)

(147)