Nun versuche ich ein bestehendes Video aus meinem Kanal (145 Abonnenten) über Tumblr-Blogs im Ranking zu verbessern. Das Video ist bisher nur auf der Money-Site eingebunden, die bisher noch nicht wirklich optimal rankt. Das Video ist aktuell zwei Monate online, hat gerade einmal 91 Aufrufe, 4 Likes und ein Kommentar. Es wird im Folgenden unter drei Keywords/Kombis beobachtet:
portweiterleitung Seite 1, Platz 6
portweiterleitung ip kamera, Seite 1, Platz 12
portweiterleitung fritz box, Seite 3, Platz 18
Für die Optimierung sollen in zwei Tranchen je 2 Tumblr-Blogs das Video einbetten. An dem Aufbau „Blog 1 verlinkt das Video direkt, Blog 2 relinkt Video von Blog 1“ halte ich fest. Es werden jedoch sehr unterschiedlich „starke“ expired Blogs sein, gemessen an Majestics Kennzahlen.
Recht schnell zeigte sich eine Verbesserung des Rankings der ersten zwei Keywords. Die Keyword-Kombi 3 bliebt im beobachteten Zeitraum unverändert. Nach ein paar Tagen verschlechterte sich das Ranking von Keyword 1, zeigte aber ein verbessertes Ranking als zum Beginn der Optimierung. Die Keyword-Kombi 2 verbesserte sich um einige Platze gegenüber dem Start. Diese Verbesserung war im beobachteten Zeitraum konstant.
Ergebnis
Mir ging es darum zu erkennen, ob man nachträglich noch das Ranking von Youtube-Videos verbessern kann. Dass das Video an sich gut sein sollte, dass der Titel die Beschreibung des Videos und das Tagging optimiert sein muss, war für mich selbstverständlich.
So zeigte sich, dass Videos deutlich schneller ein besseres Ranking hatten, wenn diese in einem bestehenden Kanal mit Abonnementen veröffentlich wurden. Durch Kommentare, Abonnenten und Likes konnte das Ranking auch bei einem neuen Konto deutlich verbessert werden.
Auch zeigte sich, dass das externe Einbinden eines Videos über Expired Tumlr-Domains Einfluss auf das Ranking hatte. Dieser Effekt war messbar – jedoch leider nicht so stark, wie gehofft. In wieweit Majestics Trust eine Rolle spielt, konnte ich nicht zweifelsfrei nachweisen. Die Beobachtung war, das bei nicht stark umkämpften Keywords auch „schwache“ Blogs das Ranking deutlich verbesserte. Bei hart umkämpften Keyword hatten starke (gemessen an Majestics Trust) Blogs zwar messbaren Einfluss, jedoch nicht so stark, wie gehofft.
Was man sich schenken kann
Vergisst „SEO Pakete“ wie „1000 Likes und 1000 Views für optimales Ranking bei Youtube“. Bullshit.
Vergesst aber auch SEO Pakete wie „1000 Abonnenten“ für Euren Kanal. Die werden durch Bots erzeugt – und das kann nach hinten losgehen.
Was wichtig ist für das Youtube-Ranking
Optimale Keyword-Vergabe im Titel, in der Beschreibung und im Tagging
Abonnenten für den Kanal scheinen ein wichtiges Ranking-Kriterium zu sein. Baut sukzessive Abonnenten für Euren Kanal auf.
Das Einbinden eines Videos in einer bereits verlinkten Seite (expired Domain), bringt Rankingvorteile. Die Gier nach möglichst hohem TrustFlow ist m.E. nicht notwendig. Wahrscheinlich bringen mehrere weniger „auffällige“ Seiten mehr, als eine „hochgezüchtete“ Seite. Hier bin ich jedoch noch den Beweis „schuldig“.
Auf einem anderen Youtube-Kanal veröffentliche ich in unregelmäßigen Abständen Erklär-Videos, die auch alle auf diversen Moneysites in den entsprechenden Fachartikel eingebunden sind. Diese Videos ranken – je nach Keyword – auch sofort einigermaßen gut. Der Kanal hat inzwischen rund 150 (reale) Abonnenten.
Ein neues Video wurde hier eingefügt. Die Keyword-Kombi besteht aus zwei Keys. Das erste Key ist sehr hart umkämpft. Das zweite Key weniger, aber dennoch ist die Konkurrenz sehr groß. In den ersten Tagen mit dem Start war das Video über die Keys fast nicht zu finden. Ein erstes Like eines bestehenden Abonnenten mit Verlinkung zu seinem Google+-Konto wurde durchgeführt. So rankte das Video bei Youtube unter dem hart umkämpften Keyword auf Seite 12, in der Kombi immerhin auf Seite 2 (Platz 2).
Ebenfalls wurden zwei Expired Tumblr Konten belebt. Diesmal handelt es sich um „frische“ Konten. Der TrustFlow lag jedoch nur bei Blog 1 bei 5 (mit 55 Ref-IPs), bei Blog 2 bei 11 (mit 59 Ref-IPs). Auch hier wurde auf beiden Tumblr-Konten ein wenig keywordbezogener Text eingefügt. Blog 1 verlinkte direkt auf das Youtube-Video, Blog 2 relinkt das Video von Blog 1.
Ein Tag später rankte das Video unter dem ersten Keyword bereits auf Seite 10 (Verbesserung um zwei Seiten), die Keyword-Kombi von Seite 2 (Platz 2) auf Seite 1 (letzter Platz). Über ein Testkonto likte ich das Video und postete es auch auf Google +.
Ein Tag später verbesserte sich das Video auf Seite 7; in der Keyword-Kombi blieb es auf Platz 1, jedoch auch auf dem letzten Platz. Danach folgte ein Rückschlag: Am Tag darauf viel das Ranking um drei Seiten. Obwohl keine Tätigkeiten erfolgten, zeigte die Suche das Video nur noch auf Seite 9. Ein Tag darauf verbesserte sich das Ranking wieder um eine Seite auf Seite 8 (Platz 9). In der Keyword-Kombi verbesserte sich das Ranking auf der ersten Seite vom letzten auf Platz 13, was eine Verbesserung um 7 Plätze bedeutet.
Ein paar Tage später dann ein herber Rückschlag. Plötzlich ist das Video unter dem Hauptkeyword nur noch auf Seite 10 zu finden. Auch in der Kombi hab es Rückschläge. Zwar ist das Video immer noch auf Seite 1 zu finden und das Abrutschen um einen Platz zu verkraften, zeigt es aber, dass auch auf Youtube das Ranking sehr volatil ist.
Test 3: Gekaufte Abonnenten zum Stadtteilvideo
Wie die bisherigen Tests gezeigt haben, haben die Videos durch das Abonnieren des Kanals sowie durch die Einbindung in externe Seiten (hier: Expired Tumblr-Blogs) durchaus deutliche Rankingsprünge nach oben verzeichnet. Da ich aktuell (noch) nicht genug weitere Youtube-Konten besitze, habe ich 1 USD ausgegeben und bei einer dubiosen thailändischen Freelancerin zehn Subscripes, 15 Likes und 20 Comments gekauft. Hier habe ich absichtlich nur so wenige gewählt, da es sehr auffällig ist, wenn der Youtube-Kanal plötzlich von 2 auf 1002 Abonnenten anwächst und gleichzeitig unzählige englischsprachige Kommentare erhält. Auch wurde das Ziel, das Feuerwerk-Stadtteilvideo, mit Bedacht gewählt, denn sollte sich dieser Test als Fehler erweisen (und das Video von Youtube gebannt werden), kann hier kein Schaden entstehen.
Tag 1: Unter dem Keyword „Stadtteilname“ ist das Video, wie am Vortag, auf Platz 9 (Seite 1) zu finden
Tag 2: Das Video ist heute um einen Platz auf Platz 8 vorgerückt.
Tag 5: Das Video hat sich inzwischen um zwei Plätze auf Platz 6 verbessert.
Auch zehn Tage später rankt dieses Video prominent auf Platz 6. Es sei jedoch angemerkt, dass zu diesem Keyword nur sporadisch neue Videos bei Youtube hochgeladen werden.
Youtube ist inzwischen die zweite Suchmaschine im Netz. Nicht ohne Grund hat Google das Portal vor einigen Jahren für viel Geld gekauft. Umso wichtiger, dass man mit Videos für seine Projekte dort vertreten ist. Und ebenso wichtig: Das Ranking der Videos.
In erster Linie sollte man Youtube nicht als Backlinkquelle verstehen. Dieser Link beeinflusst das Google-Ranking nach meinen Erfahrungen nicht wirklich. Doch Youtube bringt Besucher – Besucher auch auf der Money-Site, also der Webseite, über die man Geld verdient. Und umso höher ein Video im Ranking steht, umso eher wird das Video angesehen – eben genauso, wie in den Google-SERPS.
Die alles entscheidende Frage ist natürlich, wie Youtube seine Videos innerhalb einer Keyword-Gruppe sortiert. Neben dem Keyword an sich sind Video-Aufrufe, Likes, Kommentare und Kanal-Abos mögliche Rankingfaktoren. Dass die Anzahl der Aufrufe und Linkes nicht alleinige Ranking-Faktoren sein können, zeigt ein einfacher Blick in die Liste, beispielsweise hier mit dem Keyword „essen“. Hier sehen wir, dass Videos mit rund 42.000 Aufrufe vor Videos mit über 1.2 Mio Aufrufen stehen. Dies bedeutet, dass Views und Likes entweder gar nicht, oder nur zum geringen Teil zum Ranking hinzugezogen werden. Letzteres ist wahrscheinlich.
Nicht weiter hinterfragen werde ich hier die Optimierung der Keywords. Es sollte klar sein, dass das wählen von optimalen Keywords im Titel, in der Beschreibung und das Tagging essentiell für die Suche sind. Wenn hier schon Fehler gemacht werden, kann das Video nicht optimal in der Suche auftauchen. Das richtige Keyword ist sicherlich die halbe Miete. Doch was muss noch beachtet werden?
Test 1: Neues Youtube Konto, schwache Keyword-Kombi
An einem lauen Sommerabend im Sommer 2016 (ok, das war wirklich die Ausnahme) konnte ich bei einem Stadtteilfest ein Feuerwerk filmen. Dies und einige Impressionen zusammengeschnitten, ergab eine schönes Feuerwerk-Video. Mein Gedanke war, dass dieses Video in der Keywordkombi „Feuerwerk [Stadtteilname]“ umgehend auf Platz 1 stehen sollte, da dies m.E. eine sehr schwache Kombi ist. Lediglich ein Video, bereits acht Jahre alt, hatte die gleiche Kombi.
Für diesen Test habe ich ein neues Konto registriert, das Video online gestellt, mit optimalen Keywords versehen und war fest davon überzeugt, dass ich dieses Video ein paar Tage später auf Platz 1 sehen würde. Doch weit gefehlt!
Nach ein paar Tagen rankte das Video lediglich auf Platz 70 und bewegte sich nicht nach vorn. Ein Aufruf bei ein paar Freunden, sie mögen einen Kommentar bei dem Video hinterlassen und es auch liken, zeigte erste Bewegungen. Ein paar Tage später nutzte ich Youtube-Testkonten von mir, hinterließ einen Kommentar, Likte und abonnierte auch den Kanal. Dann – und erst dann, kam Fahrt auf.
Kurzum, ein paar Tage später war (und ist) das Video in der Keywordkombi „Feuerwerk [Stadtteilname]“ auf Platz 1. Nur über das Keyword „[Stadtteilname]“, welches durchaus einige Videos zeigt, rückte das Video auf die erste Seite, dort auf dem letzten Platz auf.
Hier zeigte sich also, dass neben den richtigen Keywords es auch sehr wichtig ist, dass der Kanal Abonnenten hat. Somit wird auch klar, dass viele Youtubler so erpicht darauf sind, dass man ihren Kanal abonniert.
Natürlich ist Platz 1 mit der Keyword-Kombi nicht mehr zu toppen. Doch Ziel ist nun, das Video unter dem Stadtteilnamen noch weiter nach vorn zu bringen. Dazu habe ich zwei „expired Tumblr-Konten“ wiederbelebt und auf dem einen Account das Video von Youtube direkt verlinkt. Ein kleiner Artikel über den Stadtteil soll den Keyword-Bezug zum Stadtteil heben. Ein zweiter Tumblr-Blog relinkt das Video aus dem ersten Blog. Auch hier ist ein kurzer Artikel über den Stadtteil vorhanden. Und siehe da – ein paar Tage später rankt das Video unter dem Stadteilname auf Platz 10.
Es sei angemerkt, dass ich für diesen Test sehr alte Expired Tumblr-Blogs genommen habe, die inzwischen nicht einmal mehr einen Majestics Trust hatten. Auch viele Backlinks zu den Blogs sind inzwischen gelöscht worden (Ref-IPs 74 / 20). Hier ging es einfach nur darum zu erkennen, ob diese einfache Methode das Ranking ebenfalls positiv beeinflusst.
Seit einigen Jahren gelten „Expired Domains“ als DIE SEO-Geheimwaffe. Dabei handelt es sich um Domains, die vom Inhaber aufgegeben wurden. Ein neuer Besitzer registriert die Domain, verlinkt damit seine Moneysite und partizipiert von der Stärke der Domain. Stärke? Nun, die Seite sollte über viele (gute) Backlinks verfügen, also Links, die ursprünglich natürlich entstanden sind und nicht gelöscht wurden, obwohl die Seite nicht mehr existent ist bzw. war. Auf diesem Wissend aufbauend hat sich der Begriff PBN („Private Blog Network“) entwickelt; was nichts anderes bedeutet, dass man selbst ein eigenes (privates) Netz aus vielen solchen „expired Domains“ sich aufbauen (und pflegen) sollte. Hintergrund: Die Mutter aller Suchmaschinen wurde in der Vergangenheit immer besser dabei, solche „wiederbelebte“ Seiten zu erkennen (und abzustrafen), die nur dazu dienen, eine Moneysite zu stärken. Doch auch wenn man ein solches Netzwerk für sich selbst betreibt, kann man viele Fehler machen. Zumal auch der Unterhalt und die Pflege der vielen Seiten Zeit und Geld verschlingt.
Das Blognetzwerk „Tumblr“ genießt nach wie vor einen guten Ruf (warum, ist mir eigentlich unklar). Schon vor Jahren galt es als ein Muss, Links von Tumblr, Blogspot etc. zu generieren. Also eine Seite zu registrieren, ein wenig Text mit einem Link zur Moneysite veröffentlichen und sich über den Backlink freuen. Dann hat man auch dafür gesorgt, dass diese Blog-Seite (auch „Satelliten-Seite“ genannt) mit minderwertigen automatisch generierten Links (Stichwort: GSA) zu versorgen. Hat alles einmal dafür gesorgt, dass das Ranking der Moneysite stieg. Heute würde ich davon komplett die Finger lassen.
Dennoch sind „expired Tumblr-Blogs“ eine nette Sache. Denn wenn man eine Seite findet, die natürliche Backlinks hat, kann man diese durchaus nutzen. Ob man daraus einen Link für seine Moneysite generiert (gefährlich), oder damit andere Satelliten-Seiten „füttert“ – das muss jeder selbst wissen. Ich nutze aktuell diese Seiten zum Puschen von Youtube-Videos.
Wie entstehen „expired Tumblr-Blogs“?
Tumblr ist sehr aktiv beim Löschen von „verwaisten“ Blogs. Wenn ein Nutzer sich eine bestimmte Zeit (ein Jahr?) nicht mehr einloggt und das Konto nicht mehr nutzt, schickt Tumblr eine Mail. Wenn darauf nicht reagiert wird, wird das Konto gelöscht. Eine bestimmte Zeit kann das Konto vom rechtmäßigen Inhaber wohl noch „wiederbelebt“ werden (selbst nicht getestet), doch dann – irgendwann – kann es neu registriert werden. Und das ist der Zeitpunkt, an dem man das Konto (kostenfrei) registrieren sollte.
Welche Konten sollte man registrieren?
Es lohnen sich natürlich nur Konten, die über Backlinks verfügen. Ob 10, 20 oder 30 Links aus unterschiedlichen IP-Kreisen das Minimum sind – das muss jeder selbst wissen. Ob der Majestics TrustFlow eine entscheidende Rolle spielt? Viele sagen JA. Andere sehen das nicht so eng.
Ich persönlich betrachte Konten ab 20 Ref-IPs und einem TrustFlow ab 10 – das sehe ich als Kriterium an, die Seite mir näher zu analysieren. Das Backlink-Profil ist bei diesen Seiten oft sehr einseitig. Dass ein Großteil der Links im Anker den Blognamen haben, sehe ich bei Tumblr-Blogs nicht als Problem an. Viel wichtiger ist ein Blick auf die Backlinks – hier trennt sich die Spreu vom Weizen.
Zugegeben, es gibt eine große Menge an Tools, mit denen man die Backlinks einer Domain ermitteln kann, doch keines konnte die Summe des PR ermitteln. Aus diesem Grund habe ich dieses kleine Tool geschrieben, das ich heute zum freien Download anbiete.
Warum PR-SUM?
Um den (ideellen) Wert einer (beispielsweise Expired Domain) Domain zu ermitteln, ist man auf Daten von Majestics oder MOZ angewiesen. Diese Dienste, zum Teil kostenpflichtig, schicken Spider durch das Netz und ermitteln so Links, die von einer Domain abgehen. Gleichzeitig lassen sich so für eine Domain ermitteln, welche Links auf eine Domain zeigen. Und gute Links, die auf eine Domain zeigen, machen eine Domain für die Übernahme interessant.
Doch nicht jeder Link ist ein guter Link. Wir wollen keine Links von Spam-Seiten. Und viele Menschen sind nach wie vor der Meinung, dass nur ein hoher PageRank einer Domain, von der der Links kommt, auch gut für die Ziel-Domain ist. Inzwischen hat Google bekanntgegeben, dass der „öffentliche“ PageRank nicht mehr aktualisiert ist. Dies bedeutet also, dass der PR, der angezeigt ist, inzwischen veraltet ist. Dennoch kann die Summe des PR als Vergleich herangezogen werden. Einfach aufgrund der These, dass sich der PR von vielen Seiten im Laufe der Zeit nicht so stark verändern wird bzw. verändert hat.
Wenn also eine Seite ein PR_SUM von 100 hat, eine andere Seite ein PR_SUM von 90 und eine Seite ein PR_SUM von 5 – was bedeutet das? Nun, der PR_SUM 100 und PR_SUM 90 kann man als gleichwertig ansehen. Daraus lassen sich keine Schlüsse ziehen. Hier muss eine manuelle Analyse der Links erfolgen. Einfacher ist die Unterscheidung zwischen PR_SUM 100 und PR_SUM 5. Hier würde ich die Domain mit PR_SUM 100 bevorzugen, WENN ALLE anderen Werte ähnlich sind. Allerdings kann man im Umkehrschluss NICHT sagen, dass die Domain mit PR_SUM 5 schlecht ist.
Es handelt sich einfach um einen weiteren Faktor, den man bei einer Domainbewertung mit einbeziehen kann.
Wie wird der PR_SUM berechnet?
Zuerst bezieht das Tool alle Links, die über die kostenlose Schnittstelle von Mozscape API zur Verfügung gestellt werden. Dann werden die doppelten Links von einer Domain herausgefiltert. Es bleibt nur ein Link pro Domain übrig (der mit dem höchsten PR). Im Anschluss wird die Summe der verbleibenden Links summiert.
Installation der Anwendung
Bei der Anwendung handelt es sich um eine Windows .NET-Anwendung. Es muss zwingend das .NET-Framework 4.5 auf dem Rechner vorhanden sein. Die Anwendung besteht aus einer Exe und einem Ini-File. Dieses Ini-File muss im gleichen Ordner wie die Exe verbleiben. Bitte nun das File „config.ini“ mit einem einfachen Texteditor (Notepad) öffnen. Im oberen Abschnitt unter Einstellung sehen wir nun die Zeilen „strAccessID=“ und „strPrivateKey=“ . Dahinter müssen nun die persönlichen MOZ-API-Daten eingegeben werden. Hierzu ist eine kostenlose Anmeldung bei MOZ notwendig. Geht dazu auf folgende Seite: https://moz.com/products/api/keys
Nach der Anmeldung seht Ihr bei MOZ diese Werte. Kopiert sie an die entsprechende Stelle in die Config.
Schritt 2: PR-Proxies erstellen
Die Anwendung ermittelt über ein PHP-Skript den PR. Im gleichnamigen Ordner findet Ihr die zwei Files „check_pr.php“ und „PRclass.php“. Kopiert diese Files auf Webspace Eurer Wahl (und Zugriffsmöglichkeiten). Der Zugriff auf die Schnittstelle von Google wird über diesen Webaufruf erfolgen. Somit fungiert das Web als Proxy. Da die Google-Schnittstelle nur eine bestimmte Anzahl von Abfragen zulässt, macht es Sinn, das Skript auf mehreren verschiedenen Hosts (unterschiedliche IPs) zu installieren und jede Installation in der Config.ini einzutragen. Das Skript arbeitet so nacheinander bei der Abfrage alle eingetragenen Pfade ab und verteilt somit die „Last“ auf die unterschiedlichen Hosts. Ich selbst habe die beiden PHP-Dateien jeweils in einem eigenen Unterverzeichnis auf drei verschiedenen Hosts installiert. Meine Config sieht an dieser Stelle ungefähr so aus:
Jeder Host wird mit einer Laufnummer (1..n) gekennzeichnet. Dann folgt der komplette Pfad zum PHP-Skript. Wie Ihr sehen könnt, habe ich das Skript in einem kryptischen Unterverzeichnis angelegt. Dies soll einfach verhindern, dass ein Crawler zufällig auf das Skript stößt (kann man machen, muss man aber nicht).
Schritt 3: Testen der Anwendung
Mit einem Klick auf die Exe sollte sich das Tool öffnen. In der oberen Box wird die Domain (ohne http) eingegeben. Nach einem Klick auf Check (oder Return) beginnt die Abfrage der MOZ-API; jeweils in 50´er Blöcken. Wenn alle Daten abgefragt sind, berechnet das Tool die Daten und gibt Die Summierungen unter der Tabelle aus.
Tipps für den Umgang
Sämtliche Daten sind über die Windows-Zwischenablage kopierbar. Die Tabelle ist zudem noch mit einem Klick in den Spaltenköpfen sortierbar.
Wenn man Bilder im Internet bereitstellen möchte, ist es von Vorteil, wenn die Bilder so klein als möglich sind. Gerade in Hinsicht auf mobile Geräte und Google Page Speed sollte man dieses Thema nicht unterschätzen (siehe auch CSS-Sprites). Wie man Bild unter der freien Grafiksoftware optimal für das Web speichert, beschreibe ich in diesem Artikel.
Ich setze voraus dass dem Leser klar ist, dass man Bilder auf einer Webseite nur so groß einbindet, wie die Größe auch wirklich gebraucht wird. Ein 200 Pixel breites Bild auf 100 Pixel in HTML zu verkleinern ist eine Ressourcenverschwendung, da viel zu unnötige Daten an den Webserver übertragen werden. Auch Google Page Speed moniert dieses Verhalten.
Es sollte auch klar sein, dass ein Bild bei einer Monitoransicht lediglich 72 dpi (dots per inch) benötigt. Wer Rücksicht auf Retina-Displays nehmen will oder muss, sollte sich hierzu weitere Gedanken machen, aber normale Leser nicht mit übergroßen Bildern „belästigen“.
Dann sollte klar sein, dass Bilder für das Web entweder im jpg oder png-Format gespeichert werden sollen. Auf die Unterschiede möchte ich hier nicht weiter eingehen. Lediglich den Hinweis, dass es kein Patentrezept gibt, welches Format „immer besser“ ist. Als Faustregel kann gelten, dass Fotos besser im JPG-, Grafiken im PNG-Format gespeichert werden sollen. Entscheidung: Beides ausprobieren und Ergebnis mit der Dateigröße abwägen.
Bilder mit Gimp verkleinern und schärfen
Im ersten Schritt sollen die Bilder auf die richtige Zielgröße „zurechtgeschrumpft“ werden. Schon hier gilt es einiges zu beachten. In GIMP wird unter BILD -> BILD SKALIEREN ein Dialog angezeigt, der die Verkleinerung des Bildes zulässt. Auch wenn man meinen könnte, dass die Bilder in der Qualität steigern, wenn man sie verkleinern, ist dies leider ein Trugschluss. Bilder leiden in der Qualität beim Vergrößern (was logisch ist), wie auch beim verkleinern, da hier zum Teil Details wegfallen. Gimp bietet hier die Auswahl „Qualität“ -> „Interpolation“ an. Zwei Filter („Kubisch“ und „Sinc (Lanczos3)“) sollten beim Verkleinern ausprobiert werden. Das beste Ergebnis entscheidet die Filterauswahl.
Nach dem Verkleinern sollte das Bild nachgeschärft werden. Unter FILTER -> VERBESSERN -> SCHÄRFEN kann man den Gimp-Standard-Filter nutzen. Leider ist die Qualität oft nicht ausreichend. Tipp: Probiert „FILTER -> VERBESSERN -> UNSCHARF MASKIEREN“ aus. Klingt nicht nach schärfen, bringt aber deutlich bessere Ergebnisse. Meist genügen Radius-Werte von 0,9 und Menge 0,20. Einfach einmal ausprobieren. Tipp „Refocus Plugin“: Ein nachladbares Gimp-Plugin ist „Refocus“. Folgt dem Link für eine weitere Beschreibung. Wer den Plugin-Ordner in GIMP sucht – am Ende des Artikels folgt auch hierzu ein Tipp.
Bild Dateigröße mit GIMP verkleinern
Wenn wir das Bild in der richtigen Größe haben, kann man das Bild einfach als JPG oder PNG speichern und gut – wenn es nur so einfach wäre. Wenn wir nicht das letzte Bit herausquetschen müssen, können wir JPG-Bilder mit einer Rate von 90%, PNG-Bilder mit einer Kompressionsrate von 7 speichern. Kleiner werden JPG-Dateien bei einer kleineren, PNG mit einer höheren Rate. In jedem Fall leidet aber die Qualität.
Deutlich keiner werden die Bilder, wenn man die Farben reduziert. Unter BILD -> MODUS -> Indiziert kann man die Bildfarben mit der Auswahl „Optimale Palette erzeugen“ auf maximal 256 Farben reduzieren. Die Bilder werden deutlich keiner. Noch kleiner werden die Bilder mit der „Internet-optimierten Palette“. Aber Achtung: Fotos werden hiermit schnell unansehnlich. Gerade Farbverläufe leiden hier ganz extrem.
Tipp: Die Rasterung ausprobieren! Der Filter „Floyd-Steinberg (reduzierte Farbbluten)“ liefert oft ein noch an „ansehnliches“ Ergebnis.
Ausprobieren oder eine automatisierte Lösung? Das Save for Web Plugin!
Wie wir sehen, gibt es leider keine „Ich drücke eine Button“-Lösung. Es gibt Anhaltspunkte und Richtlinien, doch wer das letzte Bit bei einer Grafik einsparen möchte, muss viele Möglichkeiten testen. Um einen Eindruck von Kompressionsrate und Zielformat er erhalten, kann das Plugin „Save for Web“ installieren. Dies blendet unter DATEI den Punkt „Save for Web“ ein und lässt die Möglichkeit zu, das Ergebnis einer Kompression in einer Vorschau zu bewerten. Gleichzeitig berechnet das Plugin vor dem Speichern schon die Dateigröße. Somit kann man sich viele Speicherversuche sparen.
Plugin-Ordner einer Gimp-Installation finden
Wer ein Script oder ein Plugin in Gimp hinzufügen will, muss lediglich die Datei in das richtige Verzeichnis kopieren. Doch wo ist der richtige Ordner? Gimp liefert darüber freiwillig Auskunft: Unter BEARBEITEN -> EINSTELLUNGEN kann man in der linken Spalte den Eintrag „ORDNER“ (auch in Plus davor) sehen. Hier ist der Pfad zum Plugin- sowie Skript-Ordner ersichtlich.
Verbindung zu externen Linux-Servern stellt man gerne per Putty her. Eine geöffnete Shell in einer Terminalsitzung erlaubt einem die Kommunikation mit dem Server. Doch was passiert, wenn die Verbindung abbricht? Die Kommunikation mit dem Server und alle laufenden Prozesse werden abgebrochen. Das Linux-Tool „Screen“ erlaubt einem, die Verbindung wieder aufzunehmen.
Wie oft habe ich mich darüber geärgert. Eine Tabelle oder der Index einer MySQL-Datenbank ist mal wieder korrupt. Ärgerlich. Doch myisamcheck kann da Abhilfe schaffen. Doch je nach Größe der Datenbank (ich betreue einige MySQL-Datenbanken mit jeweils mehr als 30 Millionen Datensätzen) dauert die Reparatur des MySQL-Index mehrere Stunden. Und selbstredend , dass in dieser Zeit auch einmal die Putty-Verbindung abbricht. Sei es durch die DSL-Zwangstrennung durch den lokalen Provider oder durch ein Zucken im Netzwerk. Das Resultat ist das Gleiche: Das Reparaturprogramm bricht mit dem Disconnect von Putty ab und man muss von vorne beginnen. Und wäre es nicht toll, auch von unterwegs über einen Laptop via UMTS eine Konsolenverbindung aufzubauen und diese im Büro oder zu Hause weiter zu nutzen? Hierfür gibt es das Tool „Screen“, welches unter Ubuntu bereits integriert ist.
In den meisten Linux-Distributionen kann man Screen wie folgt installieren:
sudo apt-get install screen
Tutorial: Benutzung von Screen
Mit dem Befehl „screen“ in der Konsole startet man Screen. Drückt eine weitere Taste und – nichts geschieht. Könnte man meinen. Doch in Wirklichkeit habt Ihr nun die Möglichkeit, verschiedene Screenfenster zu erstellen und auf diese wieder zuzugreifen. Nun erstellen wir ein neues Screen-Fenster. Wir drücken „Ctrl-a“ + „c“ (siehe „Tastenkombinationen von Screen“). Wir erstellen damit ein neues Fenster. Damit in dem Fenster auch etwas „passiert“, geben wir „top“ ein und schauen uns ein wenig die Prozesse an.
Nun drücken wir wieder „Ctrl-a“ + „c“ und erhalten einen neuen Screen. Hier geben wir beispielsweise „ls“ ein und werfen einen Blick ins Filesystem. Um jetzt zwischen den Screens zu wechseln, gibt es mehrere Möglichkeiten. Zuerst können wir die Screens über die Nummer (0,1,2 …) ansprechen. Mittels „Ctrl-a“ und dem Druck von „0“ erhalten wir das erste Fenster. Mit „n“ das nächste (next) und mit „p“ (previous) das vorherige Fenster. Ein nicht mehr benötigtes Fenster kann man mit „k“ wie „kill“ schließen.
Wiederaufnahme einer Putty-Verbindung
Wenn eine Session via Screen läuft und Putty die Verbindung verliert, kann man mit „screen –ls“ die aktiven Sessions einsehen [root@MyServer root]# screen -ls
There are screens on:
1599.tty1.MyServer (Detached)
1 Socket in /var/run/screenens/S-root.
Mittels dem nachfolgenden Befehl (Name der Session anpassen!) kann die Session neu verbunden werden:
Wenn nur eine Session vorhanden ist, genügt auch: screen -r (reattach)
Tastenkombinationen von Screen
Ctrl-a: Diese erste Tastenkombination ist sozusagen der „Schlüssel“ zu Screen. Drückt die Taste „Ctrl“ oder „strg“ und die Taste „a“ gleichzeitig. Dann folgt einer der nachfolgenden Tasten:
„Ctrl-a“ + „c“: Neues Fenster (create) erstellen
„Ctrl-a“ + „n“: Sprung zum nächsten (next) Fenster
„Ctrl-a“ + „p“: Sprung vom vorherigen (previous) Fenster
„Ctrl-a“ + [0,1,2 …] : Durch die Auswahl der Nummer des Screens (der erste Screen startet bei „0“) kann ein Fenster gezielt angesprungen werden
„Ctrl-a“ + „K“: Ein nicht mehr benötigter Screen kann mit „K“ (Kill) geschlossen werden. Screen frägt nach, ob das Fenster wirklich geschlossen werden soll („y“ (yes))
Referer Spam (oder auch „Referrer Spam“) ist schon sehr alt und eigentlich harmlos. Dennoch ärgert mich diese Spam-Art, zumal sie gerade in den letzten Monaten bei einigen Projekten, die ich betreue, vermehrt auftritt. Nachdem ich wiederum einige Wochen tatenlos zugeschaut habe, leitete ich nun Gegenmaßnahmen ein. Erfolgreich. Doch es ist ein Kampf gegen Windmühlen.
Was ist Referer Spam?
Wenn ein Benutzer einen Link auf einer Webseite klickt, wird bei der Weiterleitung die Zielseite als sogenannter Referer mit übertragen. Im Logfile des Zielservers taucht also die Quell-Seite mit auf. Somit kann der Administrator nachvollziehen, woher der Klick kam.
Was bezwecken Spammer mit Referer Spam?
Referer-Spam ist Werbung. Nichts weiteres. Der Administrator prüft die Logfiles und jeder Seiteninhaber, der ein wenig Suchmaschinenoptimierung (SEO) betreibt, interessiert sich auch für die Links (Backlinks), die auf seine Seite zeigen. Es taucht eine neue Backlinksquelle in den Logs auf? „Prima!“, denkt sich der Seiteninhaber und schaut sich die Quellseite an. Enttäuscht wird er feststellen, dass die Seite keinen Link zu seiner Seite beinhaltet, sie aus SEO-Sicht also wertlos ist. Oftmals wird er aber auch erleichtert feststellen, dass kein Link vorhanden ist – denn welcher SEO will gerne Links von russischen Erwachsenenangebote, dubiosen Pillenverkäufer- oder Casinoseiten? Dennoch hat der Spammer zumindest ein Ziel erreicht: Er hat es geschafft, dass ein Besucher seine Seite besucht hat. Durch den Referer hat er quasi seine Visitenkarte in den Logfiles hinterlassen und der Admin ist der Einladung gefolgt. Neudeutsch würde man dies „Direktmarketing“ nennen.
Früher war auch ein Skript auf vielen Webseiten anzutreffen, welches die letzten Referers auswertete und die Quellseite samt Backlink anzeigte. Sozusagen eine Rückwärtsverlinkung. Hier macht der Referer-Spam wirklich Sinn, denn durch das Skript erhält der Spammer automatisiert einen öffentlich sichtbaren Backlink.
Dies ist auch der Fall, wenn ein Analysewerkzeug wie AWStats oder Webalyzer öffentlich zugänglich ist (siehe „Ist Referer-Spam schädlich“).
Wie kann man Referer-Spam betreiben?
Prinzipiell ist dies sehr einfach. Man schreibe ein kleines Skript, welches den ganzen Tag eine bestimmte Liste an Webseiten aufruft. Es muss sichergestellt sein, dass das Skipt beim Aufruf der fremden Seite den Referer auf die eigene Seite überträgt – besser gesagt: den Referer fälscht, denn der Aufruf kommt ja nicht wirklich über diese Seite.
Aufwand: Ein alter Rechner, eine DSL-Leitung mit täglich wechselnden IPs und ein Skript, welches man in einer ersten Version sicherlich innerhalb einer Stunde fertig programmiert hat. Also: Kein wirklicher Aufwand.
Ist Referer-Spam schädlich?
Eigentlich nicht, sofern man die Referers nicht auf der eigenen Seite ausgibt. Wenn ja, entsteht ein Backlink zu der Spammer-Seite, welches aus SEO-Sicht schädlich kein kann. Zu beachten ist, dass man – schon aus vielen anderen Gründen – den Zugriff auf Analysedaten von Webalizer und AWStats unterbinden sollte (Passwortschutz), da sonst auch hier ein Backlink entsteht.
Wenn man diese zwei Dinge beachtet, ist Referer-Spam nicht weiter schädlich. Zu Recht die Frage, warum ich trotzdem gegen den Spam vorgehe. Nun, zum einen verbraucht der Spam meine Bandbreite. Auch kein wirkliches Problem, wenn der Spammer meine Seite nur einmal am Tag aufruft. Dann ist dies zu vernachlässigen. Läuft sein Skript jedoch Amok und ruft meine Seite beispiesweise sekündlich auf, müssen Abwehrmechanismen getroffen werden.
Das – für mich hauptsächlich – größte Ärgernis ist, dass meine Statistiken verfälscht werden. Ich prüfe regelmäßig die Referers und die Spammer nehmen hier gerne Top-Platzierungen ein, denn sie besuchen meine Seiten täglich – zum Teil mehrmals. Auch die Anzahl der Besucher wird so verfälscht.
Eine rechtliche Betrachtung erspare ich mir. Geneigte Leser können im Law-Blog weitere Informationen finden. Die Zeit wäre mir zu kostbar.
Tür zu: Abwehr von Referer-Spam
Was also bleibt ist die Möglichkeit, dem Spammer keinen Zutritt zum eigenen Webserver zu gewähren. Die nachfolgenden Beispiele sind Regeln, die in der .htaccess-Datei (oder vhosts) Platz finden.
Den Gedanken, die IP eines Spammers zu blockieren, kann man schnell fallenlassen, denn die Zugriffe erfolgen meist über wechselnde IPs. Dennoch der Vollständigkeit halber nachfolgend die Möglichkeit, eine bestimmte IP zu sperren:
order allow,deny
deny from xxx.xxx.xxx.xxx
allow from all
Im obigen Beispiel ist „xxx.xxx.xxx.xxx“ durch die aufrufende IP zu ersetzen. Wenn er Spammer wechselnde IPs nutzt, wird man mit dieser Methode nicht glücklich, da man jedes Mal die IP anpassen muss. Schnelle Abhilfe kann dieser Eintrag in der .htaccess-Datei jedoch schaffen, wenn kurzzeitig von einer IP (oder einer Handvoll IPs) vermehrt (oder gar eine kritische Masse) Zugriffe kommen und man diese Aussperren möchte.
Eine Möglichkeit ist, mittels der RewriteCond Signaturen der unerwünschten Referer aufzugreifen und zu blockieren. Zu beachten ist jedoch, dass man hier sehr schnell mehr Referers aussperrt, als man ursprünglich beabsichtigt. Denkbar ist folgende RewriteCond, die Aufrufe mit „casino“ oder „.ru“ blockiert:
Hinterlässt der Spammer eine eindeutige Signatur, kann mittels „SetEnvIfNoCase“ der User-Agent gesperrt werden. Diese Methode eignet sich auch hervorragend um „news aggregator sites“, die den eigenen Text-Content oder Bilder hotlinken, vor die Schranken zu verweisen. Vor einiger Zeit war „IzyNews“ ein solcher Kandidat, der in den Logfiles folgende Signatur hinterlassen hat:
Das folgende Beispiel erzeugt eine Umgebungsvariable (hier: “leecher“), wenn der Agent mit seiner Signatur zugreift. Die deny-Regel verwehrt dem Agent dann den Zugriff; er erhält einen „Error 403“.
SetEnvIfNoCase User-Agent „IzyNews/1.0“ leecher=yes
order deny,allow
deny from env=leecher
Im Falle von IzyNews.de erfolgte der Content-Klau per RSS, die Bilder wurden vom Originalserver nachgeladen. Somit entging einem der Leser. Geblieben ist dem Seitenbetreiber nur der Traffic für das Ausliefern der Bilder. In einem solchen Fall greift natürlich Signatur-Regel nicht, denn der Benutzer einer solchen News Aggregator Site sendet bei seinem Request den User-Agent seines eigenen Browsers. Referenziert wird der Zugriff jedoch über den Originalserver, so dass die Regel einfach über die nachfolgende Zeile erweitert werden kann:
SetEnvIfNoCase Referer izynews.de leecher=yes
So kann also wie im nachfolgenden Beispiel eine Bad-Word-Liste in der htaccess-Datei gepflegt werden, die den Referer-Spam ein wenig einschränkt. Die Pflege ist jedoch auswändig.
SetEnvIfNoCase Referer seite1.ru leecher=yes
SetEnvIfNoCase Referer seite2.ru leecher=yes
order deny,allow
deny from env=leecher
Ich habe es auf die lange Bank geschoben: Nun möchte ich eine Kommentarfunktion auch auf sirmark.de anbieten. Der Bedarf für eine solche Funktion liegt auf der Hand: Es erreichen mich immer wieder Fragen per Mail zu den einzelnen Artikeln. Diese könnten – für alle nachvollziehbar – auch in den Kommentaren abwickeln lassen. Aber auch aus SEO-Sicht bietet die Kommentarfunktion Vorteile: Der Seiten-Content wird mit jedem Kommentar erweitert und mit weiteren – hoffentlich – suchmaschinenrelevanten Stichwörtern angereichert. Nachteil: Es ist Arbeit, die Kommentare zu sichten, zu beantworten und vor allem auch den Spam auszumisten.
Übersicht behalten: Wie den Kommentar-Spam bekämpfen
Dieser Blog läuft unter WordPress, dem Platzhirsch der CMS. Seine Kommentarfunktion ist per se gut. Doch wer nur ein paar Tage einen Blog mit offener Kommentarfunktion online hatte weiß, was sich da so alles ansammelt: Von PPC-Kommentaren („Porn, Pills, Casino“) über anderweitigen Schrott. Diesen auszufiltern ist nicht schwer. Schon beim groben Sichten können diese Kommentare zuverlässig entfernt werden. Bei manchen Kommentaren fragt man sich, warum hier einer (eine Maschine) diesen Kommentar gepostet hat, denn der Kommentar verfügt über keinen Backlink. Wer mal die Scrapebox-Anleitung gelesen hat, weiß warum. Schritt 1 des automatisierten Comment-Spammers ist ein sinnloser Kommentar ohne Bezug zum eigentlichen Projekt, für das gespammt werden soll. Wenn dieser Kommentar bei einer Prüfung in den folgenden Tagen online erscheint, wird der eigentliche Spam-Kommentar in Schritt 2 gepostet. So wird die eigentliche Seite nicht „verbrannt“.
Schon eine gute Lösung: Captcha
Prinzipiell ist ein Captcha, also ein in eine Grafik eingebundene Textnachricht keine Hürde. Diverse Dienste, über die ich auch schon berichtet habe (Bookmark richtig setzen), knacken den Captcha-Code binnen Sekunden für einen lächerlich niedrigen Preis. So gesehen bietet ein Captcha für das Veröffentlichen eines Kommentars keine 100prozentige Lösung. Auf diversen anderen Seiten habe ich das WordPress-Plugin „SI CAPTCHA Anti-Spam“ eingesetzt. Und man glaubt es kaum: Das Spam-Aufkommen geht merklich zurück, die Qualität der Kommentare steigt. Wir lernen daraus, dass Kommentar-Spammer sehr geizig sind und der Captcha Code durchaus das Spam-Aufkommen reduziert. Umgekehrt, gebe ich als Kommentator einer Seite eher den Vorzug, wenn ein solches Captcha vorhanden ist. Weiß ich im Gegenzug, dass der Webmaster dadurch das Spam-Aufkommen reduziert und es eher unwahrscheinlich ist, dass mein Kommentar in den Unmengen des PPC-Spams untergeht.
Kommentare auf sirmark.de
Trotz dieser positiven Erfahrungen habe ich auf dieser Seite die WordPress-Kommentar-Funktion nicht freigeschaltet. Faulheit? Ja. Ein Artikel auf t3n.de hat heute mein Interesse geweckt. Dort wird über Mott, einer Diskussions- und Forenplattform berichtet, die sich leider erst in einem Beta-Stadium befindet. Die Beschreibung liest sich sehr gut. Auch der Hinweis, dass hinter diesem Projekt die Macher von JQuery stecken, verstärkt mein Interesse.
Warum Moot.it und nicht die WordPress Kommentar-Funktion?
Auf diese Frage kann ich heute noch keine Antwort geben. Ich selbst sehe sirmark.de immer gerne als Testsystem. Hier probiere ich gerne mal ein neues Plugin aus. Vor der Kommentarfunktion habe ich mich hier ein wenig „gedrückt“. Moot.it liest sich sehr gut. Es soll sehr schnell sein, leicht zu installieren und in der Administration ebenfalls nicht zeitraubend sein. Also werde ich es testen und Euch über meine Erfahrungen unterrichten. Etwas ist leider jetzt schon klar: Der Content wird sicherlich nicht um Keys erweitert. Denn Moot läd die Kommentare per JavaScript nach. Und man muss davon ausgehen, dass dies von den Suchmaschinen nicht ausgewertet wird. Oder etwa doch? Ich werde es hier testen. Oder wisst Ihr schon die Antwort? Dann hinterlasst doch einen Kommentar …
Neben der Anzeige von „ähnlichen Artikeln“ geniest die Anzeige der „Neuste Artikel“ in WordPress eine wichtige Bedeutung. Neben den Suchmaschinen, die auf eine interne Verlinkung achten, kann man auch Besucher für weitere Artikel gewinnen, die einmal auf die Seite gelangt, sich nun auch noch über ein anderes Thema informieren. Schon im Standard bietet WordPress das Widget „Neuste Artikel“ (Recent Post), wie es auch dieser Blog einsetzt. In der Sidebar sieht der Leser eine bestimmte Menge an Artikel, die in jüngster Vergangenheit geschrieben wurden.
Seit der Diskussion um das Star Rating und den Autor-Vorschaubildern in den Google-Suchergebnissen wissen wir, dass ein Bild „mehr sagt als tausend Worte“. Der Wunsch liegt auf der Hand: Das WordPress-Widget „Neuste Artikel“ soll mit Vorschau-Bildern (Thumbs) angereichert werden. Ein einfacher Wunsch – leider keine Standard Lösung.
Lösung 1: Das WordPress Plugin „Special Recent Posts“
Was liegt näher, als unter WordPress das 1001 Plugin zu installieren? Bei der Suche nach einem Plugin, welches einem administrative Freiheiten bei der Definition der „Neusten Artikel“ in der Sidebar ermöglicht, stößt man auf das WordPress Plugin „Special Recent Posts“. Dieses Plugin ermöglicht eine Anzeige eines Images zum Artikel. Bei meiner Suche habe ich leider kein weiteres Plugin gefunden, die dies in vernünftiger Form ermöglicht. Um es aber auch gleich vorweg zu nehmen: Zu 100 Prozent war bzw. bin ich nicht zufrieden mit diesem Plugin.
Aber zurück zum Plugin: Die Installation ist problemlos. In den Optionen erreicht man eine Konfigurationsseite des WordPress-Plugins, die sicherlich aber in den meisten Fällen unverändert übernommen werden kann. Interessant wird es erst in den Design-Widgets. Dort findet man nach der Installation des Plugins unter „Verfügbare Widgets“ das Plugin. Anklicken, in die Sidebar ziehen und schon ist das Plugin aktiviert. Doch halt: Zuerst sollten weitere Einstellungen unter den Widgets / Sidebar vorgenommen werden. Hier ist neben dem „Widget Title“, die „Max Number of Pages to Display“ und einige andere Dinge einzustellen. Ein besonderes Augenmerk sollte auf die „Thumbnail Options“ fallen: Hier kann einiges über das Aussehen der Images festgelegt werden.
Positiv beeindruckt hat mich das Caching der Images. Die Thumbs werden einmal generiert und in einem Cache-Verzeichnis gespeichert. In der Regel sind die Thumbs ja nur 50 bis vielleicht 80 Pixel groß. Das Original-Image aus dem Artikel liegt meist in wesentlich größeren Dimensionen auf der Festplatte. Nachteil: Das Cache-Verzeichnis benötigt weitreichende Schreibrechte. Mehr als mir lieb ist.
Wer schnell seine Sitebar mit Images aus den jeweiligen Artikeln anreichern möchte, kann das WordPress Plugin „Special Recent Posts“ nutzen. Ebenso schnell, wie es installiert ist, kann man dieses Plugin auch wieder löschen.
Was mich am Plugin „Special Recent Posts“ gestört hat:
Weitreichende Schreibrechte für den Cache-Ordner von Nöten
Design der Anzeige nur über tiefgründige Änderungen in der Plugin-CSS und den
PHP-Dateien möglich, was ein Plugin-Update „erschwert“
Inkompatibilitäten bei manchen Themes
Vorschautext des Artikels zeichenbegrenzt
Lösung 2: Sidebar Widget „Neuste Artikel“ mit Thumbnail-Images ohne Plugin
Nachdem ich massive Änderungen am Design für eine WordPress Installation vorgenommen habe, die ein zukünftiges Plugin-Update nicht vereinfacht, machte ich mir Gedanken über Alternativen. Es störte mich weiter, dass der Vorschautext eines Artikels nicht individuell bestimmbar, sondern zeichenbegrenzt ist. Dies bedeutet, dass die Vorschau nach x-Zeichen endet, egal ob ein Wort zu Ende ist, oder nicht. Neben diesem unschönen Verhalten hat das Plugin mit einer weiteren von mir eingesetzten Theme unschöne Design-Inkompatibilitäten gezeigt, so dass ich dazu überging, Thumbs in der Sidebar ohne Plugin-Hilfe anzuzeigen.
Grundsätzliche Überlegungen zu Images in der Sidebar bei den letzten Artikeln:
Jedem Artikel ist ein Image als Artikelbild zugeordnet. Dies soll auch im Widget „Recent Posts“ angezeigt werden.
Wir benötigen eine „Kurzbeschreibung“ zu jedem Artikel. Ein oder zwei Sätze sollen neben dem Artikel-Titel eine Vorschau geben.
Artikelbild den „Neusten Artikel“ zuordnen
Zu aller erst muss ein Artikelbild jedem Artikel zugeordnet werden. Dies ist Bestandteil von WordPress und im Artikel „WordPress: Artikelbild (Vorschaubild) einfügen“ ausführlich beschrieben. Wer bei der Erstellung eines WordPress-Artikels den Kasten „Artikelbild“ nicht zu Gesicht bekommt, der muss die functions.php seiner Theme ändern. Informationen dazu siehe das Update im eben beschriebenen Artikel.
Somit haben wir nun das notwendige Image zum Artikel. WordPress legt das Image in der Dimension 150×150 Pixel ab. Diese Größe werden wir zur Anzeige unseres Thumbs nicht benötigen. Doch die verkleinerte Anzeige eines Images auf rund 60 bis 80 Pixel ist bei einem Original-Image von 150 Pixel vertretbar. Bei 300, 400 oder gar mehr Pixel, wäre dies eine deutliche Traffic-Verschwendung.
Kommen wir nun zum Vorschautext. Dieser soll kurz und prägnant sein, Lust zum Weiterlesen machen. Beim zuvor beschriebenen Plugin hat mich gestört, dass der Text nach einer bestimmten Anzahl von Zeichen einfach angeschnitten wurde. Eine Kurzbeschreibung bietet WordPress als Feld nicht an. Da die meisten WordPress-Nutzer auch das Plugin „All in one SEO“ nutzen, hätte man auch das Feld „Description“ nutzen können. Wer möchte, kann die folgende Lösung so umschreiben. Ich nutze hier ein eigenes „Benutzerdefiniertes Feld“ namens „kurzbeschreibung“. Vorteil: Ich kann hier speziell für diesen Zweck meinen Vorschausatz definieren.
Was wir nun also vornehmen müssen sind Änderungen in der Theme. Kritiker mögen einwenden, dass auch hier Code-Änderungen vorgenommen werden. Ja, nur Hand aufs Herz: Plugin-Änderungen macht der Webmaster aus Sicherheitsgründen, ein Update der Theme wird selten bis gar nicht durchgeführt.
Kommen wir nun zum Code. Wir öffnen das PHP-Script „sidebar.php“ unserer Theme. Der folgende Code muss nun an der passenden Stelle eingefügt werden. Dieser Code ist nicht optimiert und bewusst hier so angezeigt, um individuelle Anpassungen zu erleichtern:
Wir fügen einen neuen „Widget-Container“ ein. Dieser bezieht seine Daten durch die SQL-Abfrage mittels „WP_Query“. Im Select werden mittels „Showpost“ die neusten („DESC“) 10 Artikel abgefragt.
Dann gehen wir die SQL-Abfragemenge mittels While-Schleife durch, setzen die Variable $id mit der aktuellen Post_ID, rufen das Meta-Feld „kurzbeschreibung“ des Artikels auf uns speichern diese in der Variable $kurzbeschreibung. Dieser Code ist sicherlich optimierungsfähig.
Dass öffnen wir den Tag „<li>“, fügen das Artikel-Images in der Dimension 70×70 Pixel hinzu, versehen es mit der CSS-Class „alignleft“ und einem Hyperlink. Wenn uns die Anzeige des Images nicht zusagt, können wir dem Thumbnail eine eigene CSS-Klasse zuweisen und im CSS-Code der Theme entsprechende Anweisungen vergeben.
Als Vorschautext wird zuerst der Title des Artikels („the_title()“) mit Link zum Artikel und dann unser individueller Vorschautext aus dem benutzerdefinierten Feld angezeigt.
Zu guter Letzt beenden wir den „<li>“ bzw. den „<ul>“-Tag, schließen die While-Schleife ab und resetten auch die Query. Das Abschließende „<li>“ darf natürlich nicht vergessen werden.