(Der
Text ist meiner Promotion "Urheber- und wettbewerbsrechtliche Probleme von
Linking und Framing" entnommen)
Die
fehlende Möglichkeit, vor Gericht einen Link verbieten zu lassen, ist nicht
gleichbedeutend damit, den Link dulden zu müssen. In diesem Abschnitt soll ein
Überblick über die vorhandenen technischen Möglichkeiten vermittelt werden,
mit denen der Zugang auf die eigenen Webseiten über einen unerwünschten Link
verhindert werden kann.[2]
Zu unterscheiden ist dabei zwischen client- und serverseitig ablaufenden
Programmen.
1.
Bozo Filter
Die
meisten E-Mail Programme erlauben es ihrem Benutzer, eine große Anzahl von
Filterbedingungen zu definieren und auf diese Weise z.B. einer Belästigung
durch Spamming, dem unerwünschten Zusenden von Werbe E-Mails, zu begegnen. Sog.
Bozo-Filter[3]
verhindern, dass E-Mails von bestimmten Absendern oder mit einer bestimmten
Betreff-Zeile abgerufen werden. In ähnlicher Weise hat man sich die
Arbeitsweise eines Bozo-Filters für eine Webpage vorzustellen.[4]
Mit der Integrierung eines Java-Scripts[5]
in eine Webseite können Links von einer anderen Webseite unterbunden werden.
Hierzu muss allerdings bekannt sein, welche Adresse die Webseite mit dem Link
hat, der in Zukunft nicht mehr funktionieren soll. Aufschluss geben können
dabei Angaben in den Logfiles oder Statistiken, z.B. von Countern. Ermöglicht
wird die Kenntniserlangung durch die „Geschwätzigkeit“ des HTTP-Protokolls.
Beim Aufrufen einer Webseite beschränkt sich ein Browser nicht darauf, die
unbedingt notwendigen Informationen zu übermitteln, etwa die IP-Adresse, die
bekannt sein muss, um die Webseite an den anfragenden Nutzer schicken zu können.
Er versendet u.a. auch Informationen zum verwendeten Browser und Betriebssystem
und ebenso die URL der Webseite, auf der der Link angeklickt wurde, den sog.
HTTP-Referer.[6]
Dessen Übertragung lässt sich in gängigen Browsermodellen nicht deaktivieren.
Es bedarf dazu des Einsatzes spezieller Zusatzsoftware wie z.B. des Webwashers[7]
oder des Internet Junkbusters.[8]
Fehlt trotz allem die Kenntnis aller linkenden Webseiten, ist es möglich, nur
Links von vorher genau bezeichneten Webseiten zuzulassen, alle anderen Links zu
unterbrechen und dabei auch alle Surfer, deren Browser den HTTP-Referer nicht
mitsendet, auszuschließen.
Zusammenfassend
bestehen zwei Möglichkeiten: Entweder der Filter unterbricht alle Links, die
nicht ausdrücklich erlaubt werden oder er verhindert den Zugriff über einen
Link solange nicht, als er nicht ausdrücklich verboten wurde. Dem Wunsch des
Webmasters bleibt es überlassen, was beim Aktivieren des unerwünschten
Verweises geschieht. Der Nutzer kann schlicht eine Fehlermeldung erhalten oder
er wird darauf aufmerksam gemacht, warum er nicht zu den gewünschten Inhalten
gelangt ist.[9]
Da
diese Schutzmethode auf der Verwendung eines Java-Scripts beruht, funktioniert
sie nur in den Fällen, in denen der Browser eines Surfers diese Sprache zu
interpretieren vermag bzw. nicht die entsprechende Funktion des Browsers
deaktiviert wurde.[10]
Die meisten Internetnutzer werden zwar auf Java-Script nicht verzichten wollen,
doch gibt es z.B. Firmen, die aufgrund der Befürchtung, mittels eines
Java-Scripts könnte ein Virus eingeschleust werden, ihren Arbeitnehmern die
Ausführung von Java-Scripts generell untersagen und ihre Vorgaben mittels der
Einstellungen einer Firewall durchsetzen.[11]
2.
Frame-Killer
Einen
Schutz der eigenen Website davor, in einem fremden Frameset dargestellt zu
werden, ist unter Verwendung von HTML nicht möglich. Aber bereits ein einfaches
Java-Script erlaubt das Ausbrechen aus dem Frame. Zunächst muss dabei
festgestellt werden, ob ein fremder Frame vorhanden ist. Dazu kann der Browser
z.B. angewiesen werden, zu überprüfen, ob das eigene Dokument das im Fenster
an oberster Stelle Dargestellte ist. Verläuft der Test negativ, wird die
Webseite geframt. Sich von dem Frame zu befreien, geschieht dann mit der Angabe top.location
=“URL“ (Angabe der eigenen Datei). Der Browser wird das Dokument erneut
laden und den Frame entfernen. Das Java-Script wird in das eigene Dokument
integriert und angegeben, dass es beim ersten Laden der Webseite ausgeführt
werden soll. Fremde Frames werden dann bereits entdeckt, bevor die Webseite
einem Surfer ganz präsentiert wurde.[12]
Das
vollständige Java-Script besteht nur aus einer einzigen Zeile:
Webseiten
können durch Passwörter gesichert werden oder es kann von Surfern vor dem
Besuch der Webseiten verlangt werden, sich zu registrieren. Auf letztere Art
verfährt z.B. die New York Times bei ihrem Internetauftritt. Wer erstmals einem
Link auf einen Artikel der New York Times folgt, wird automatisch auf eine
Registrierungsseite umgeleitet. Erst nach der Registrierung können die
Webseiten uneingeschränkt aufgerufen werden. Auf gleiche Art und Weise ist es möglich,
jeden Link von einer fremden Webseite auf eine tieferliegende eigene Webseite im
Ergebnis leer laufen zu lassen, indem ein Surfer mit Hilfe eines Java-Scripts
zur Startseite umgeleitet wird.[15]
Bei
diesen Maßnahmen muss jeder Websitebetreiber selber entscheiden, ob er das
Risiko in Kauf nehmen möchte, Nutzer zu verärgern.[16]
Eine Registrierungspflicht mag für Nutzer als Grund herhalten, sich
Informationen lieber von einem anderen Anbieter zu beschaffen. Eine Umleitung
auf die Startseite kann ihn verärgern, da er sich erst zu der gewünschten
Unterseite durchklicken muss. In zahlreichen Fällen wird er dies erst gar nicht
versuchen, in anderen daran scheitern.[17]
Die
bisher dargestellten technischen Methoden beruhen auf der Verwendung eines
Java-Scripts und weisen allesamt die Schwäche auf, dass sie von den nicht
beeinflussbaren Einstellungen der Browser der Besucher abhängig sind. Es
handelt sich um sog. clientseitige Schutzmaßnahmen.[19]
Ein
völlig anderer technischer Ansatz, der die gleichen Ergebnisse erbringen kann,
besteht in der Verwendung von serverseitigen Programmen. Sie ermöglichen das
Starten durch den Benutzer, laufen aber auf dem Server des Webmasters ab,
weshalb die Einstellungen des Browsers hier bedeutungslos sind. Zu nennen sind
hier z.B. CGI-Skript, Server Side Includes (SSI),[20]
Java Server Pages (JSP) und Active Server Pages (ASP)[21].
Im folgenden sollen Vor- und Nachteile serverseitiger Schutzmaßnahmen gegen
Links im wesentlichen anhand von CGI dargestellt werden.
CGI
steht für „Common Gateway Interface“ und ist eine Schnittstelle für
Server/Client Anwendungen.[22]
CGIs können mit verschiedenen Pro-grammiersprachen erstellt werden. Am
verbreitetsten ist im Internet die Sprache Perl.[23]
CGI-Skript
wird z.B. zur Bearbeitung von durch den Besucher ausgefüllten Webformularen benötigt.
Die Arbeitsweise von Suchmaschinen basiert ebenfalls auf ihnen. Nach
Verarbeitung der Eingaben wird i.d.R. eine neue HTML-Seite erzeugt, auf der dem
Besucher z.B. die Suchergebnisse oder die Bestätigung seiner Bestellung
angezeigt wird.Da spezifisch für eine bestimmte Nutzeranfrage eine URL geschaffen wird,
spricht man von dynamischen URLs oder dynamischen Webseiten. Mangels festen
Bezugspunktes können auf sie keine Links gesetzt werden.[24]
Für
den Einsatz von CGI muss auf dem Webserver ein „CGI-BIN“-Verzeichnis
angelegt werden. Dies wird von vielen Providern aus Sicherheitserwägungen und
der größeren Belastung der Server wegen, nicht oder nur eingeschränkt unterstützt.
Auch bei „Billig-Webspace-Anbietern“ können CGI-Programme nur dann
gestartet werden, wenn man bereit ist, dafür etwas mehr Geld zu investieren.
Bei Strato ist die Verwendung eigener CGIs z.B. erst ab dem 19, 90 €/Monat
teuren Premium-Paket möglich. CGIs eignen sich deshalb nicht für die
zahlreichen Betreiber kleinerer Homepages. Diese erfreuen sich i.d.R. jedoch
keines großen Bekanntheitsgrades und sind über jeden per Link zu ihnen
gelangenden Besucher erfreut. Bei größeren Webauftritten werden häufig eigene
Server verwendet und die Verwendung von CGIs ist eine Selbstverständlichkeit.[25]
5.
Bewertung der technischen Möglichkeiten
Obwohl
das Web ursprünglich als offenes System konzipiert war, ist es heute technisch
ohne großen Aufwand möglich, Links mittels eines Java-Scripts völlig zu
unterbrechen, die eigene Webseite aus einem Frame ausbrechen zu lassen oder die
Besucher zu einer Registrierungs- oder Startseite umzuleiten. Die Maßnahme geht
ins Leere, wenn der Browser dieses nicht ausführt. Ein 100 %iger Schutz lässt
sich mit browserabhängigen Maßnahmen deshalb nicht erreichen. Sicherer sind
hingegen serverbasierende Lösungen. Der Vorteil dieser Vorgehensweise liegt in
der absoluten Browserunabhängigkeit. Andererseits setzt diese Lösung jedoch
die Ausführbarkeit von z.B. CGI-Skripts voraus, was auf den Billig-Websites gängiger
Anbieter nicht immer möglich ist. Damit ist diese Lösung im Unterschied zu
Java-Script gegebenenfalls mit zusätzlichem finanziellen Aufwand verbunden, nämlich
einmal hinsichtlich des gewählten Servers und einmal hinsichtlich der
Programmierung, sofern hier nicht auf kostenlos im Internet zur Verfügung
stehende Programme zurückgegriffen wird.[26]
[2]Von Maßnahmen im Vorfeld, um das Setzen eines Links zu verhindern,
soll dabei nicht die Rede sein. Wie das Kapitel um die Meta-Sites gezeigt
hat, benutzen diese gegebenenfalls automatische Spider, die das Netz
durchsuchen. Sofern der Betreiber einer Website es wünscht, kann er die
Spider blockieren, soweit diese robots.txt files
anerkennen (<META NAME=”robots” CONTENT=”noindex”>), was bei
den meisten, wenn auch nicht bei allen, wie die Verfahren um Ticketmaster
und eBay gezeigt haben, der Fall ist. Dann werden die eigenen Webseiten
nicht in einem automatischen Verfahren durchsucht und in weiterer Folge
dieses Prozesses keine Deep Links gesetzt.
[3]Auch Killfiles, Kill-Lists oder Laberfilter genannt.
[5]Bei JavaScript handelt es sich um eine innerhalb von HTML-Dokumenten
verwendete Sprache, die die reine HTML-Funktionalität um zahlreiche
Elemente erweitert, insbesondere Webseiten mit interaktiven und dynamischen
Elementen versehen kann. Im Internet finden sich zahlreiche Scripts zum
kostenlosen Download und Einbau in die eigene Homepage. Vgl. z.B.
<http://javascript.internet.com>.
[9]Sofern die Einwände gegen den Link ihren Grund in der Besorgnis
haben, ein Nutzer könne eine unzutreffende vertragliche Beziehung annehmen,
kann auch ein Pop-Up Fenster geöffnet werden, dessen Text einen möglichen
Irrtum ausräumt.
[10]Siehe unter dem Menüpunkt „Extras“ im Internet Explorer
„Internetoptionen/Sicherheit“.
[11]Firewalls dienen in erster Linie dazu, unberechtigte Zugriffe auf den
Datenbestand eines internen Netzes von außen abzuwehren. Sie bestehen aus
Hard- und Softwarekomponenten an der Schnittstelle zweier Netze, die den
unkontrollierten Datenfluss zwischen Internet und einem Intranet unterbinden
sollen. Die Einstellungen der Firewall entscheiden darüber, auf welche
Seite eines internen Netzes zurückgegriffen werden kann und welche Dienste
des Internets aus dem privaten Netz heraus nutzbar sind. Bei Verwendung sog.
passiver Paketfiltertechnologie wird bei jedem Datenpaket anhand vorher
festgelegter Filterregeln entschieden, ob es weitergeleitet wird oder nicht.
Zur Funktionsweise Sieber, CR 1997, 581 f., ders., CR
1997, 653, 660 f. Als Möglichkeit, Links auf Seiten eines Intranets zu
verhindern, werden Firewalls auch bei Kiritsov, Can
Millions of Internet Users Be Breaking
the Law Every
Day?, <http://stlr.stanford.edu/STLR/Events/linking/contents_f.htm>
erwähnt.
[12]Ein Frame-Killer wurde z.B. von CNN während der Auseinandersetzung
mit Total News eingesetzt. Die Webseiten von CNN aktualisierten sich beständig
und entfernten im Optimalfall bereits nach wenigen Sekunden Frames von
anderen Webseiten. Vgl. Festa, Hotmail frames raise legal ire,
<http://news.cnet.com/news/0-1005-202-334097.html>.
Siehe auch die
Klageschrift im Verfahren gegen Total News, <http://www.jmls.edu/cyber/cases/total1.html>,
Nr. 37. Die New York Times verwendet allerdings serverseitige
Programme, um dieses Ziel zu erreichen. Dazu sogleich ab S.
83
.
[16]Siehe auch Koch, Internet-Recht, S. 472: Passwörter
zumeist eher kontraproduktiv.
[17]Vgl. Nielsen, Deep Linking is Good Linking, <http://www.useit.com/alertbox/20020303.html>.
Nach einer Untersuchung finden 27 % der Besucher einer Homepage
die Webseite mit dem gewünschten Produkt nicht.
[19]Browserabhängig und deshalb zu dieser Kategorie zu zählen sind
ferner Java-Applets und VB-Skript. Auch jedes HTML-Formular ist
clientseitig.
[20]Server Side Includes ermöglichen es, immer wiederkehrende Teile in
einer Datei auszulagern und in alle gewünschten Webseiten einzubinden,
dynamische Informationen wie Datum und Uhrzeit anzuzeigen und festgelegte
Programme beim Aufruf aller Webseiten der Homepage starten zu lassen. Änderungen
in den ausgelagerten Dateien haben sofort eine Änderung in allen anderen
Webseiten zur Folge. Vgl.
<http://www.netzwelt.com/selfhtml/cgiperl/intro/ssi.htm>.
[23]Perl (Practical Extraction and Reporting Language) ist eine
Computersprache, die vor allem für die flexible und effiziente Manipulation
von textbasierten Dateien geeignet ist, und die 1987 von dem Amerikaner
Larry Wall entwickelt wurde.
Ein Perl-Skript ist eine reine
Textdatei, die sofort ausgeführt wird, wenn Perl sie ablaufen lässt. Es
wird kein Compiler benötigt, der den Code erst in eine andere Sprache
verwandelt. Näheres zu Perl unter <http://www.perl.com>.
[24]Theoretisch möglich, aber in der Praxis kaum von Relevanz, ist die Möglichkeit,
die URL „per Hand“ öfters zu ändern, so dass Links nach kurzer Zeit
ins Leere weisen und Benutzer gezwungen werden, immer über die eigene
Startseite zu gehen. Gleichzeitig werden dabei Surfer, deren Lesezeichen
ebenso schnell wie die Links veralten, verärgert. Lediglich bei
Fallgestaltungen wie im Dilbert-Fall (siehe oben S.
83
) könnte diese Möglichkeit einmal eine Rolle spielen.
Ebenfalls eher dem Bereich der „Spielerei“ zuzuordnen ist der
Vorschlag bei Oppedahl & Larson, Web Law FAQ, <http://www.patents.com/weblaw.sht>,
ein auf einer anderen Webseite mittels Inline-Links integriertes Bild
auszutauschen, ihm eine neue URL zu geben und unter der alten URL ein
anderes Bild zu speichern, das den Linkenden blamiert und von weiterem
Inline-Linking abhalten soll.
[25]Prinzipiell bestehen drei Möglichkeiten. Wer eine Internet-Präsenz
erstellen will, kann die Webseiten selbst hosten. Dies setzt eine permanente
Verbindung zum Internet voraus und ist entsprechend kostenintensiv. Er kann
sich auch an einen Massen-Hoster wenden und sich von diesem ein bestimmtes
Kontingent auf einem Server zuweisen lassen. Nachteilig an dieser kostengünstigen
Alternative ist es, dass auf einem Server gegebenenfalls die Domains von
tausenden von Kunden abgelegt sind, was zu Nachteilen im Hinblick auf die
Performance führen kann, wenn die Web-Applikationen anderer Kunden stark
frequentiert sind. Schließlich besteht die Möglichkeit des Einsatzes eines
Dedicated Servers. Der Server steht dabei weiter bei einem
Anbieter in „Web-Farmen“, jedoch liegen auf dem Server lediglich eigene
Webseiten, dieser steht einem Kunden exklusiv zur Verfügung. Die monatliche
Gebühr für einen Dedicated
Server liegt je nach Anbieter zwischen ca. 100 € und 1.200 €.