Tag 1: Auf der Suche nach gelöschten Domains
Aus SEO-Sicht sind gelöschte Domains oft sehr wertvoll. Viele Domains, die aufgegeben werden, haben durch ihre Verlinkung noch einiges an Besuchern zu bieten. Wertvolle Backlinks, auf die jeder SEO auf der Suche ist, sind vielleicht so für lau zu haben. So kann eine gelöschte Domain schon einmal einen guten Grundstock für ein zukünftiges Projekt sein. Auch die Suchmaschine mit dem „G“ (nennen wir sie mal „die Tante“ ist ein Grund, warum SEOs sich auf gelöschte Domains stürzen. Denn die Tante mag keine neuen Domains. Zumindest keine neue Domains mit altbekanntem Thema. Es halten sich Gerüchte, dass neue Domains mit nicht brandaktuellem Thema sich erst einmal ein Jahr bewähren müssen, bis die Tante die Inhalte der neuen Seite positiv bewertet. Also ein weiterer Grund, weshalb viele mit „gebrauchten Domains“ liebäugeln.
Soviel vorweg. Auch ich schaue täglich, was es neues auf dem „Markt“ gibt. Wo? Nun, es gibt drei oder vier Seiten, die jede Minute weitere gelöschte Domains auflisten. Doch nach vielen Wochen ist mir der Kragen geplatzt: Warum? Nun, alle Domains, die irgendwie „lukrativ“ waren, sind bereits wieder belegt. Der Grund liegt auf der Hand: Nicht nur ich bin auf der Suche nach diesen Domains. Und der Inhaber eines solchen Spiders schaut natürlich als erstes auf die Liste. Das liegt einfach in der Natur der Sache. Was liegt also näher, als seinen eigenen Spider zu programmieren?
Denn im Gegensatz zu anderen Domains gibt es (meines Wissens) keine Möglichkeit direkt nachzulesen, welche Domains gerade gelöscht wurden. Die Denic, die deutsche Verwaltungsstelle der DE-Domains, hüllt sich darüber in Schweigen. Also, wie kommt man dann an die Information? Durch Ausprobieren! Und darin liegt der Vorteil des eigenen Spiders: Da es keine zentrale Liste der gelöschten Domains gibt, „stolpert“ jeder mehr oder weniger zufällig über eine freigewordene Domain. Mit diesem Wissen macht es durchaus Sinn, mehrere Seiten täglich zu prüfen, die gelöschte Domains veröffentlichen. Und bei diesem Studium wird man feststellen, dass die Seiten nicht den gleichen Inhalt ausspucken. Vereinzelt gibt es Überscheidungen, doch jede nach Datenbank trudeln die Ergebnisse auch unterschiedlich ein. Und somit kann ein eigener Spider ein großer Vorteil sein.
Nachdem die Entscheidung gefallen war, kam die Frage nach der richtigen Sprache und Hardware auf. Ist ein solcher Spider in PHP auf einem Webserver zu realisieren oder ist besser, das Ganze lokal anzuhandeln. Für PHP würde einiges sprechen, doch die Belastung des Servers darf nicht unterschätzt werden. Da im Keller ein großer SQL-Server läuft und noch einige virtuelle Clients auf Arbeit warten, ist die Entscheidung schnell auf einen lokalen Spider gefallen.