Posts Tagged‘xml’

Der RSS-Rückschritt

Gerade lese ich bei Robert und Mike, dass beide ihren RSS-Feed nicht mehr als Volltext, sondern nur noch in der verkürzten Form anbieten werden (Robert hat bereits umgestellt). Auch wenn ich das Problem des Contentklau (von dem auch ich immer wieder betroffen bin) nachvollziehen kann, ist das „verkrüppeln“ des Feeds nicht die Lösung, denn damit werden vor allem die ehrlichen Leser bestraft.

Mit zunehmender Vernetzung in Bloggersdorf ist auch die Anzahl Blogs in meinem Feedreader stetig gestiegen. Ich schätze es unterdessen ungemein, einen Fullfeed abonnieren zu können. Ein solcher Feed erlaubt ein zügiges Lesen der Posts, ohne jedesmal auf die Homepage des entsprechenden Blogs wechseln zu müssen. Mit dem Rückschritt zu „Krüppel-Feeds“ werde ich in Zukunft aber nur noch Teaser der entsprechenden Artikel auf die Augen gedrückt bekommen. Offen bleibt dabei, ob ich dann jeweils Lust und Musse habe, jedesmal auf den Link zu klicken und mir den Artikel direkt auf dem Blog nochmal anzusehen. Das bedeutet immerhin ein höheren Zeitaufwand, den ich mir nicht immer leisten kann (oder will).

Dass beide Blogger den Contentklau als Grund für die Umstellung nennen, erstaunt natürlich nicht, denn auch ich stelle immer wieder fest, dass meine Inhalte ungefragt in irgendein (Spam-) Blog übernommen werden. Aber soll ich deswegen alle meine Leser bestrafen? Es gibt genügend technische Möglichkeiten, den Contentdieben das Leben zumindest etwas schwerer zu machen, zum Beispiel durch Zugriffsrestriktionen via der htaccess-Datei oder durch das Einfügen entsprechender Copyright- bzw. Herkunftsverweise in den RSS-Feed. Handelt es sich beim Contentdieb um ein bei blogger.com gehostetes Blog und/oder ist es mit AdSense-Werbung ausgestattet, kann auch ein Mail an Google Wunder bewirken wie ich schon mehrmals feststellen konnte.

Wie auch immer: Ich bedaure sehr, dass sowohl Robert wie auch Mike ihre RSS-Feeds kürzen werden. Ändern kann ich es nicht, nur hoffen, dass nicht noch weitere diesem Beispiel folgen werden…

Entity-Fehler im Feed eliminiert

Nachdem ich heute, wie von Leu schon lange vorgeschlagen, meine „Feedbutton-Armada“ durch die neuen RSS-Icon ersetzt und nun auch noch einen Feed für die Kommentare integriert habe, fiel mir auf, dass Kommentar-Feed nicht valid war. Feedvalidator lieferte nämlich folgenden Fehler:

Undefined named entity: raquo (2 occurrences)

by: Der Blogbote » Blog Archive » Swiss Blog Awards

Wie auch in obigem Beispiel kommt » (») in vielen Track- oder Pingbacks vor. Hintergrund des Fehlers ist, dass HTML-Entities innerhalb von XML nicht erlaubt sind, WordPress diese aber im Namensfeld des Kommentarfeeds so ausliefert.

Ob dieser Fehler auch in WordPress 2.x vorhanden ist, kann ich nicht beurteilen, da alle meine Blogs nach wie vor unter WordPress 1.5.1.3 laufen. Wer aber wie ich nach wie vor nicht auf WP 2.x umgestiegen ist, kann den Fehler ganz einfach beheben:
In der Datei default-filters.php (im Ordner wp-includes) ganz einfach folgende Zeile hinzufügen:

add_filter('comment_author_rss', 'ent2ncr');

Dieser Fix funktioniert allerdings nur mit WordPress 1.5.1 und höher. Eine ältere Version wird ja wohl nirgends mehr im Einsatz sein…

CSS für den WordPress RSS-Feed

Wer hat nicht schon mal auf ein Suchergebnis geklickt und ist unvermittelt auf der XML-Seite eines RSS-Feeds gelandet. Frank Bültge sorgt mit seinem Post „WP – RSSFeed mit CSS gestalten“ für Abhilfe.
Er zeigt am Beispiel eines WordPress RSS-Feeds auf, wie sich mit ein wenig CSS und einem kleinen Eingriff in die Datei wp-rss.php ein Hinweis in die XML-Seite einbauen lässt, um dem Besucher den „richtigen“ Weg zu weisen.

Kostenlose Online-Kurse

Die Teia AG bietet bis Ende Jahr kostenlose Online-Kurse zu den Themen MS-Office (Word, Excel, Access, PowerPoint, Outlook) und Web (Internet, HTML, XML, Adobe Photoshop und GoLive) im Internet an.

Das wär doch was, um sich während den kommenden Festtagen etwas die Zeit zu vertreiben…

Google Sitemap als Beta

Google startet mit Sitemap ein neuen Versuch, den Index der Suchmaschine so aktuell wie möglich zu halten und damit auch neue Inhalte schnellstmöglich zu indizieren. Das Prinzip dahinter ist ganz einfach:

Das Sitemapprotokoll ist ein XML-Dialekt zur Zusammenfassung von Sitemapinformationen, die für Webcrawler relevant sind. Für jede URL können „Crawlinghinweise“ wie das Datum der letzten Änderung und die ungefähre Änderungshäufigkeit angegeben werden.

Gerade für Blogger ist es sehr einfach, am neuen Google-Dienst teilzunehmen, da der Crawler RSS 2.0- und Atom 0.3-Feeds auslesen kann. Für Sites ohne entsprechenden Feed kann mit dem Sitemap Generator-Script ein File erstellt werden, das auf dem Webserver hinterlegt wird.

Interessante Idee wie ich finde. Mein Feed ist auf alle Fälle schon mal angemeldet, und ich bin gespannt, wie sich das mit der Aktualität des Google-Index entwickelt.

[Nachtrag]
Michael Nguyen hat ein PHP-Script geschrieben, welches Sitemap-Files für WordPress-Blogs generiert. (via Google Blogoscoped)