Vor allem Blogger sind in letzter Zeit genervt von einem neuen Google-Bug: Sehr oft passiert es mittlerweile, dass Feed-URLs in den SERPs angezeigt werden, und zwar oft genug auch noch vor der richtigen URL des Blogs.
Total sinnlos, da der Durchschnittsuser mit dem XML-Code nichts anfangen kann.
Als kurzfristige Lösung kann man nur empfehlen, die Feed-URLs für Googlebot zu sperren, am besten per .htaccess.
Ich hab den Ordner /feeds/ einfach über die Robots.txt gesperrt und das wars. Jetzt wird meist auf Kategorien oder einzelne Beiträge verlinkt…
Möglichkeiten dazu hat man per .htaccess, robots.txt und nofollow Attribut.
… ich finde die Lösung von Frank Bueltge aus SEO-Sicht deutlich eleganter als eine Sperrung, da die Feed-Seiten so weiterhin im Google-Index bleiben und der Suchmaschinen-Traffic trotzdem auf dem Artikel landet 😉
Ich hbs bei einem Projekt von mir, per htaccess gemacht. Robots.txt ist viel zu ungenau und wird eigentlich nur von einigen Bots angenommen. Bei htaccess bin ich mir sicher.
Ich muss Frank da zustimmen, die wohl sauberste Lösung ,)