Die CD-Hürde überspringen

Es gibt auf Webseiten wie dieser gibt es eine grobe Regel: Je größer die Datei, desto häufiger wird sie heruntergeladen. Das liegt nicht so sehr daran, dass Besucher große Downloads an sich mögen, sondern es ist eine indirekte Korrelation, die über die Verbindung zwischen dem Alter eines Spiels und seiner Größe zu Stande kommt (also sollte es vielleicht besser heißen je jünger ein Spiel, desto häufiger wird es heruntergeladen). Man muss kein Mathematiker sein, um die Folgen dieses Zusammenhangs zu verstehen: Der Transfervolumenverbrauch (und damit die Kosten) steigen exponentiell mit der Dateigröße der angebotenen Spiele. Auf gewisse Weise werden Webmaster also gleich mehrfach dafür bestraft, sich in diese Richtung zu bewegen.

Explodierende Kosten sind wahrscheinlich der Hauptgrund, dass es kaum Seiten gibt, die Spiele der CD-ROM-Generation anbieten. Das Problem wurde bereits in einem meiner früheren Artikel erwähnt. Statt unproduktiver Verzweiflung, möchte ich nun ein paar (meiner Meinung nach) realistische Optionen zur Lösung des Problems aufzeigen.

Ich beschränke mich hierbei explizit auf das WWW. Es ist mir dabei durchaus bewusst, dass viele der angesprochenen Methoden beispiels bereits auf IRC praktiziert werden. Allerdings besitzt kein anderer Teil der Internets auch nur annähernd die Reichweite des WWW, so dass jede Lösung, die es ignoriert, auf Kosten der meisten potentiellen Benutzer geht.

Auch sollten sich Webmaster, die etwas Ähnliches auf ihren Seiten einführen, darüber klar sein, dass die Besucher es nicht mögen werden. Ihnen fehlt natürlich die Perspektive der Transferkosten und vielleicht wollen sie das auch gar nicht verstehen. Stammbesuchern kann man so etwas klar machen, aber unbedarfte Besucher (also 99,99% aller Menschen, die die Seite besuchen) werden immer fluchen und in Schimpftiraden ausbrechen. Falls man sich überhaupt mit solchen Personen auseinandersetzen möchte, gibt es eigentlich nur eine Antwort: Was ist besser - diese zugegebenermaßen nicht perfekte Lösung, oder dass diese Dateien überhaupt nicht angeboten würden?

Private Internetanbindung

Die meisten hängen heutzutage an schicken DSL-Leitungen. Und sein wir doch mal ehrlich: Der Upstream liegt, obwohl er sich meist deutlich unter der Downstreamgeschwindigkeit befindet, die meiste Zeit brach. Also würde es wohl kaum weh tun, einen einfachen lokalen Server aufzusetzen. Dynamische IP-Adressen haben ihre Bedeutung mit Services wie DynDNS verloren.
Fazit: Gute Lösung für kleine bis mittelgroße Homepages. Tendenziell größere Seiten müssten sich über mehrere solche Quellen verteilen, aber das wäre immer noch überschaubar. Für extrem große Seiten versiegen die Resourcen jedoch zu schnell.

Torrents

BitTorrent wird bereits zur Verbreitung (legaler) Software benutzt. Kurz gefasst lädt man einfach eine kleine Textdatei von der eigentlichen Webseite herunter, und bekommt das Archiv selbst dann von den anderen Leuten, die die Datei runterladen. Ein wenig wie gewisse andere "Filesharing"-Anwendungen, nur mit klarerem Fokus auf der Bereitstelllung weniger Dateien bei guter Geschwindigkeit.
Fazit: Diese Lösung funktioniert nur auf riesigen Seiten. Ohne eine große Anzahl potentieller "Seeder" ist es hoffnungslos. Wenn diese kritische Masse allerdings erreicht wird, ist es eine hervorragende Methode, sofern der Webmaster bewusst ist, dass der Torrent durchaus aktiv bleiben kann, wenn er selbst sich entschließt, den Download aus welchen Gründen auch immer eigentlich nicht mehr anbieten zu wollen.

Downloadrotation

Sollte es zu teuer sein, alle Dateien dauerhaft anzubieten, kann man über ein automatisches System, das täglich / wöchentlich o.Ä. andere Teile des Gesamtbestands den Benutzern verfügbar macht, und andere deaktiviert - wobei immer noch alles vom Hauptserver kommt. Auf diese Weise können die Besucher nicht alles gleichzeitig runterladen, sondern sie müssen später nochmal vorbeischauen, um mehr zu bekommen. So wird ihr Gesamtverbrauch an Transfervolumen über eine längere Zeit verteilt.
Fazit: Denkbar für alle möglichen Seiten, aber wenn die Besucher es darauf anlegen, senkt es nicht notwendigerweise das Transfervolumen, sondern verteilt es nur anders. Definitiv einen Versuch wert, aber man sollte immer einen zweiten Plan in der Schublade haben, für den Fall, dass der gewünschte Effekt ausbleibt.

Andere Beschränkungen

Denkbar wäre, die maximale Geschwindigkeit pro Benutzer z.B. mit mod_throttle für Apache zu begrenzen, die Häufigkeit, die eine Datei insgesamt (also unabhängig von wem) pro Monat heruntergeladen werden darf oder sogar nur einen gleichzeitigen Download zu erlauben (wie Home of the Underdogs es bereits praktiziert). Viel ist vorstellbar, aber der gemeinsame Grundgedanke ist immer der selbe: Die Besucher daran zu hindern, sich alles gleichzeitig zu holen.

Gesamtfazit

Die beste Methode hängt vom Ziel und den technischen Gegebenheiten ab. Man sollte sich etwas überlegen, dass möglichst zuverlässig für alle Beteiligten ist. Für die Besucher (z.B. Verfügbarkeit) wie für die Webmaster (keine Möglichkeit, die Sperren zu umgehen, feingranulare Kontrolle). Die technische Machbarkeit steht dem allerdings direkt entgegen. Die besten Lösungen benötigen sehr gutes (teures) Hosting, um die notwendige Kontrolle auf niedriger Ebene (z.B. Webserver) überhaupt selbst einrichten zu können. Auch müssen die eigenen technischen Kenntnisse der Aufgabe gewachsen sein. Manipulation auf einer solchen Ebene (die dann auch wirkungsvoll ist - jeder kann ein bisschen rumspielen) ist leider alles andere als trivial.

Mr Creosote (12. Oktober 2006)

Kommentare, Diskussion usw.

Quiz