die raven homepage
Kein Zugriff - Webzensur durch Rating und Labeling
Version 1.7
In George Orwells »1984« arbeitet Winston Smith als Angestellter im Wahrheitsministerium, das in Wahrheit einen gigantischer Propaganda- und Zensurapparat darstellt.
Er bekommt tagtäglich alle möglichen Schrift- und Bildstücke vorgelegt, aus denen er, der jeweils vorherrschenden staatlichen Marschrichtung gemäß, Namen, Bilder und Texte entfernt oder verfälscht, so dass auch die letzten Spuren bestimmter Inhalte nirgendwo mehr existieren.

Einen ähnlichen Effekt könnte ein gesetzlich vorgeschriebenes PICS-Labeling von WWW Inhalten, eine nicht beeinflussbare Implementierung von PICS-Rating in Webbrowsern und ein erzwungenes PICS-Filtering auf Serverebene haben, wobei die Zensurschere schon im Kopf des Inhalteanbieters ansetzt, bevor eine Seite veröffentlicht ist und zuschneidet, wenn auf Seiten zugegriffen wird.

Kategorisch sind Filter- Labeling- und Ratingmechanismen nicht abzulehnen. Es mag sein, dass es Personen, religiöse und andere gesellschaftliche Gemeinschaften gibt, die aufgrund von persönlichen Überzeugungen oder Weltanschauungen sich bewusst dafür entscheiden, einen Teil des Internets präventiv ausblenden zu wollen. Die Beachtung ihrer Rechte und Ansprüche legitimiert die Existenz dieser Mechanismen, auch wenn eine 100% Zuverlässigkeit und Trennschärfe aufgrund der Komplexität und Struktur des Internets und seiner Inhalte nicht möglich ist - aber das liegt im Verantwortungsbereich der Personenkreise.
Wenn Service Provider gefilterte und bewertete Internetzugänge als Dienstleistung vermitteln, muss für den Kunden abolute Klarheit herrschen, welches System zum Einsatz kommt, nach welchen Kriterien es arbeitet und welche Objekte Ziel einer Filterung & Bewertung sind.

Was aber kategorisch abzulehnen und zu bekämpfen ist, ist jeder Versuch, Labeling-, Filter- und Ratingmechanismen ausserhalb der Entscheidungs- und Einflusssphäre einzelner Personen anzusiedeln, d. h., dass Applikationen, die dem Zugriff auf Internetinhalte dienen (z. B. Browser) so modifiziert werden, dass eine Entscheidung seitens des Anwenders über Einsatz und Nicht-Einsatz nicht mehr möglich ist, oder Internet Service Providern, Telekommunikationsunternehmen und Netzwerkbetreibern die Installation und den Einsatz der Mechanismen zu Zensurzwecken vorzuschreiben und Inhalteanbieter dazu zu zwingen, ihre Inhalte so zu kennzeichnen, dass sie von diesen Mechanismen erfasst werden können.
Desweiteren müssen Filter- und Ratingsysteme mit einem Höchtsmass an öffentlicher Beteiligung und unter Integration aller sie betreffenden Bevölkerungskreise entwickelt werden und nicht zentralistisch von irgendwelchen ökonomischen und gesellschaftlichen Machtzentren (z. B. eines Medienkonzerns oder nur einer Kirche) oder gar allein vom Staat.
Der Pluralität und Förderalismus der Gesellschaft muss eine Pluralität und Dezentralismus an Filter- und Ratingsystemen gegenüberstehen. Die Kriterien müssen transparent und die Zielobjekte für die Anwender einsehbar entwickelt und zur Verfügung gestellt werden - geheime Listen und Systeme sind abzulehnen.

Im Fokus aller Überlegungen zu Filter- und Ratingsystemen hat die Wahlfreiheit des einzelnen Anwenders oder der Gruppe zu stehen und nicht die ökonomischen Interessen einzelner Konzerne oder machtpolitischen Begehrlichkeiten von Regierungen.

PICS und PICSrules

Nachdem es Regierungen, wie der US-Regierung mit ihrem Communications Decency Act (CDA) oder Organisationen wie der ICTF mit ihrem Versuch, einen ganzen Webserver zu sperren, nicht gelungen ist, über "harte Zensur" unliebsame oder als "kriminell" ("indecent" oder "objectionable material") eingestufte Inhalte vom Netz zu verbannen, wird jetzt ein System etabliert, dass über ein "freiwilliges" Bewertungssystem eine Form von "weicher Zensur" einführt.

Im Grunde genommen ist es eigentlich schon zu spät, eine Gegenöffentlichkeit zu PICS ins Leben zu rufen, da sich die großen Onlinedienste wie AOL und CompuServe, die Internetindustrie wie Bertelsmann, die Browserhersteller wie Microsoft und Netscape, Providerorganisationen wie die ICTF, Contentprovider wie WIRED, Searchengines wie Lycos oder Alta Vista und die Politik wie die Europäische Kommission über die Einrichtung und Verbreitung von PICS einig sind.

Aber was ist PICS?

PICS steht für "Platform for Internet Content Selection".

Zum einen ist es ein technischer Standard zum Einsatz eines Bewertungssystems von Webinhalten des W3-Konsortiums, d. h. mit welchen Tags wird ein HTMl-Header so modifiziert, um PICS ratifiziert zu sein.
Die Absichten des W3 Konsortiums liegen darin, dem einfachen Internetuser ein einfach zu bedienendes System an die Hand geben, mit dem er selbstverantwortlich, ohne "Zensur von Oben", eine Regelung der Auswahl von Inhalten des WWW vornehmen kann.
Das W3 betont dabei, dass PICS einen Gewinn für die Gesellschaft wie für den einzelnen User darstelle und kein Tool für Regierungen, um eine Zensur des WWW durchsetzen zu können, missachtet dabei aber den steigenden Einfluss von technologischen Neuerungen, die diese auf die Ausgestaltung politischer Gesetzgebung und Ausübung politischer Kontrolle haben.
Nicht umsonst stoßen PICS und PICSRules auf ein großes Interesse seitens Regierungen der USA, China und Singapur oder der Europäischen Kommission, die diese technologischen Standards noch in ein politisches Regelwerk zur Kontrolle von Webinhalten umsetzen müssen.
Zum anderen verbindet sich mit PICS die inhaltliche Bewertung und die Möglichkeit der Filterung von Webseiten nach bestimmten Merkmalen ("labels").
Dazu wird in den HTML-Header eines Dokuments ein PICS-Code eingefügt, der im Browser nicht sichtbar ist.

Beispiel der Organisation SafeSurf

 
<HTML> 
 
<HEAD> 
 
<META http-equiv="PICS-Label" 
content='(PICS-1.1 "http://www.classify.org/safesurf/"
l r (SS~~001 4))'> <TITLE>Your Document Title</TITLE> </HEAD>

Wobei hier die der Code (SS~~001 4) eine Kategoriestufe angibt in einer Skala von SS~~000 bis SS~~009.
Im obigen Beispiel sieht die Kategorieliste so aus:

SS~~001. Profanity
1) Subtle Innuendo
Subtly Implied through the use of Slang
2) Explicit Innuendo
Explicitly implied through the use of Slang
3) Technical Reference
Dictionary, encyclopedic, news, technical references
4) n-Graphic-Artistic
Limited non-sexual expletives used in a artistic fashion
5) Graphic-Artistic
Non-sexual expletives used in a artistic fashion
6) Graphic
Limited use of expletives and obscene gestures
7) Detailed Graphic
Casual use of expletives and obscene gestures.
8) Explicit Vulgarity
Heavy use of vulgar language and obscene gestures.
Unsupervised Chat Rooms.
9) Explicit and Crude
Saturated with crude sexual references and gestures.
Unsupervised Chat Rooms.

Man sieht an diesem Beispiel, dass die grobe Klassifizierung nach Nennung von "anstößigen Wörtern" des gescheiterten CDA-Gesetzes dagegen ein Witz ist.

Meistens erkennt man PICS gekennzeichnete Seiten, durch einen Button, den die Ersteller auf ihrer Seite anbringen.

Rating nach der Organisation »Recreational Software Advisory Council«, (RSAC) dem Disney, Compuserve und Microsoft angehören
(der RSAC ist 1999 in der ICRA aufgegangen)

RSAC

Rating nach der Organisation SafeSurf (ca. 175.000 Websites Stand September 1999), die seit 1995 besteht.

SafeSurf1SafeSurf2SafeSurf3

Rating nach dem International ChildSafe Certification Standard der Organisation ChildSafe

ICCSICCS2ICCS3ICCS4 - iWatchDog

Rating nach der Internet Content Rating Association (ICRA), der u. a. Bertelsmann, T-Online, IBM, Microsoft, AOL, British Telecom, Tiscali und Yahoo angehören

ICRA1BildICRA3

Die Kategorienlisten werden von Ratingorganisationen wie der ICRA, SafeSurf oder ICCS editiert und herausgegeben. Ratingstellen können aber auch andere Verbände, Organisationen, Kirchen und der Webpublizist selbst sein.
Inwieweit sich in diesem Bereich durch Einflussnahme seitens großer Konzerne oder der Staatsregierungen eine Zentralisierung oder ein Oligopol an anerkannten Ratingstellen herausbilden wird, bleibt abzuwarten.

Der User kann sich nun die Ratinglisten der Organisationen besorgen, dessen Schemata seinen eigenen persönlichen Anschauungen (oder Vorlieben) entspricht, bzw. seine selbsterstellten Seiten mit den "PICS-Etiketten" der Ratingstellen versehen, die er für wichtig hält.
Alle Ratingstellen bieten schon auf ihren Webseiten komfortable Formulare, die der Self-Rating Willige nur auszufüllen braucht, um seine Seiten etikettieren zu lassen.

Im Browser selbst gibt es, wie schon im Internet Explorer vorhanden, ein Zensurmenü, in dem die Ratinglisten und Ratingstellen mit ihren Kategorien angegeben sind, die gefiltert werden sollen.
Über eine Skala die z.B. zur Kategorie "Gewalt" die Werte 0 = keine Gewaltdarstellung bis 4 = jede Gewaltdarstellung entscheidet der Anwender, was in seinem Browser zu sehen ist und was nicht.
Wird vom Benutzer auf eine Webseite zugegriffen, die PICS codiert ist, wird sie den Einstellungen im Browser gemäß "bewertet" und dementsprechend mit allen Inhalten geladen oder gebannt, d. h. an Stelle der Inhalte folgt ein Hinweis darauf, was zu sehen wäre oder ein lapidarer Hinweis, dass der Zugriff gesperrt ist.

Auf der anderen Seite existiert bereits mit den PICSRules eine Beschreibungssprache, mit der Filterprofile erstellt werden können, in denen die Regeln definiert werden, nach denen ein Zugriff auf eine URL erlaubt oder verwehrt wird. In diese Regeln fließt mit ein, wie eine URL mit PICS gelabelt ist, ob ein im Dokument befindliches Label ausreichend ist oder das Label direkt von der Ratingsstelle oder dem Büro eingeholt werden muss, ob diesem vertraut oder misstraut wird, welche PICS Büros und Ratingstellen dabei zulässig sind oder nicht und ob schon die URL als solche ausreicht, um geblockt zu werden.
Der Microsoft Internet Explorer 5.0 besitzt eine Implementation von PICSrules (zu finden in den Internetoptionen/Inhalt/Erweitert).

Aber wo und an welcher Stelle werden PICSRules sinnvoll eingesetzt?
Als Zensurfilterspezifikation in Proxy- und Webservern, die von Internet Service Providern oder Staaten kontrolliert werden.
In der Serversoftware enthaltene Rule-Parser, Label-Sourcefinder, Label-Validatoren und Rule-Evaluatoren setzen dabei die Regeln des PICSRules Zensurfilterprofil praktisch um, ohne das der User oder selbst eine Ratingsstelle noch irgendeine Einflussmöglichkeit hätte.
Die anfänglich angedachte Selbstverantwortung und Entscheidungsmacht des Users verlagert sich mit PICSRules gänzlich auf den Systemadministrator, den ISP, eine staatliche Zensurinstitution.
Als Ergänzung zu diesem Szenario fehlt nur noch der vom "Systemadministrator" vorinstallierte Internet Explorer mit aktivierten PICSrules.

Zur Verdeutlichung an dieser Stelle zwei Zitate aus Produktbeschreibungen

IBM's Webserver Javelin

Javelin supports filtering based on PICS labels at the proxy server. This can be used by an Internet Service Provider to provide a 'family-friendly' Internet access service, or by a company to enforce a corporate policy with respect to Internet access. Javelin breaks ground by supporting PICS for content filtering, and supporting the current draft of the emerging PicsRULZ filtering language"

IBM's Proxy WebTrafficExpress

...Most of the newer browsers can filter information based on a PICS rating; but, relying on a browser setting may not be a safe solution for your business or your customers.
(...)
Now, with Web Traffic Express, you can implement PICS filtering at the proxy server level. This means that your proxy server administrators can prevent certain types of information from being served to specific browsers (or to groups of browsers). Browsers with PICS filter settings defined will perform further filtering of Web pages based on their specific PICS settings.
(...)
In these types of applications, filtering at the proxy server (instead of the browser) has obvious benefits. Preventing your accounting data, or personnel information, from reaching a certain audience could be safely administered at one central point (the proxy). Unauthorized surfers would get a "not accessible" message back if they requested sensative information.
All server administrators should become familiar with PICS filtering...

Jeder Staat, der endlich eine umfassende Kontrolle über das WWW erhalten möchte, kann auf ein bestehendes Regelwerk und die nötige Software bauen, um damit ein WWW-Zensurgesetz praktisch durchsetzen zu können.

Gründe für die Entwicklung des Ratings/der PICS-Kennzeichnung
  • Durchsetzung des Jugendschutzes im Internet ("Parental-Control-System")
    zwar gibt es Filtersoftware wie CyberPatrol, doch diese sind aufgrund des unzureichenden Wissens seitens der Eltern für diese schwer zu konfigurieren.
    Kinder oder Jugendliche verfügen schon oft über ein Wissen im Umgang mit Computern, dass es ihnen ermöglicht, die Filtersoftware zu umgehen oder auszuschalten.
    Hinzukommt, dass Eltern auf die Vollständigkeit und Genauigkeit der Filterlisten der Filterprogramme angewiesen sind, die oft nicht gegeben sind.
  • Sex, Lügen und Gewalt
    vor dem Hintergrund der populären Berichterstattung der Massenmedien über das Internet, die dieses als "Hort der Verbreitung von Nazipropaganda und (kinder)pornografischen Materials" darstellen, wird propagiert, mit dem Rating sei es für jeden Internetbenutzer einfach möglich, solche Inhalte auszuschließen, in dem entweder auf obige Kategorien spezialisierte Ratingstellen entsprechende Listen erstellen oder spezielle Kategorien in bestehende Ratinglisten aufgenommen werden.
    Für die Internetindustrie stellt in diesem Zusammenhang ein Standard wie PICS ein verkaufsförderndes, bzw. -hemmnisbeseitigendes Instrument dar, da mit einem Schlag alle negativen Begleiterscheinungen des Internets in den Augen potentieller Kunden beseitigt sind und das universelle Internet für die ganze Familie möglich wird.
  • der freiheitliche Charakter des Internets
    die Befürworter des Ratings führen als Argument an, dass durch das dezentrale Rating durch unabhängige Ratingstellen und durch die Konfigurationsmöglichkeiten seitens des Benutzers eine zentrale, staatliche Zensur nicht nötig ist und verhindert wird. Durch die Entscheidungsmacht des Users über das selbstbestimmte Maß an Selbstzensur wird die allgemeine Freiheit des Internets gewahrt. Hinzukomme, dass jeder Kulturkreis die kulturellen Inhalte aus anderen Teilen des Internets, die nicht mit den eigenen moralischen, gesellschaftlichen und religiösen Normen harmonierten, einfach ausblenden könne

Noch besteht die Entscheidungsmöglichkeit des Anwenders, als Konsument von Webseiten, die Konfiguration der Filterkriterien selbst vorzunehmen, noch ist die Teilnahme des Webpublizisten am Ratingsystem freiwillig.

Einige Szenarien sollen aufzeigen, welche Gefahren dem Websurfer und -publizisten und welche drastische Einschränkungen der Netzfreiheit drohen könnten.
Wenn man an die Umsetzung des PICS-Systems in einem Staat wie China denkt, kann man sich vorstellen, welche Ausformungen des PICS-Systems möglich sind.

Mögliche Szenarien
  • Staaten oder Regierungen legen eine gesetzliche Kennzeichnungspflicht fest, so dass jede Webseite einen PICS-Code enthalten muss.
    Eine Nicht- oder Falschkennzeichnung wird unter Strafe gestellt.
    Variationen könnten so aussehen, dass staatliche Stellen selbst eine PICS-Codeliste herausgeben und somit die Kategorien festlegen, die der Webpublizist oder die Ratingstellen verwenden müssen.
    Ergebnis: die "elterliche Rolle" eignet sich die Regierung selbst an, dass "Erziehungsobjekt" verlagert sich vom einsam surfenden Kind auf den Internetbenutzer im Allgemeinen.
  • Searchengines und Dienste, die zur Bekanntmachung von Webseiten dienen, stellen die Voraussetzung für Webpublizisten dar, im Internet präsent zu sein und gefunden zu werden. Schreiben nun diese Dienste den Webpublizisten als Vorraussetzung der Seitenindizierung eine PICS-Kennzeichnung oder nehmen diese selbst nach eigenem Schema oder vom Staat diktierten Regeln vor, wird derjenige, der sich nicht diesem Verfahren unterwirft, im Netz nicht mehr existent sein, obwohl seine Seiten auf einem, dem Internet angeschlossenen Rechner liegen.
  • Internetprovider und Onlinedienste müssen Proxy- und Webserver einsetzen, die mit bestimmten PICS-Ratinglisten ausgestattet sind oder mit Hilfe von PICSRules ein Content- und URLblocking durchführen.
    Webseiten, die diesen Kriterien nicht entsprechen, werden vom Proxyserver nicht geladen.
    Den Providern wird vorgeschrieben, bei ihren Kunden über die Einhaltung der vorgeschriebenen PICS-Kennzeichnung zu wachen, Nichteinhaltung führt zum Accountentzug oder zur Meldung bei den Strafverfolgungsbehörden.
    Durch die Diskussion um die nötige Selbstkontrolle des Internets durch die Provider forciert, verpflichten alle Provider ihre Kunden auf PICS-Kennzeichnung ihrer Webpages.
  • Die Browserhersteller (Microsoft und Netscape) entwickeln bei Bedarf spezielle Browser, die eine Einflussnahme auf den Grad der PICS-Filterung seitens des Benutzers nicht vorsehen.
    Dies ist für diejenigen schon Realität, die vor einem vorinstallierten Browser sitzen und keine Einflussmöglichkeiten auf die Optionen des jeweiligen Browsers besitzen.
  • Für das Usenet wird ein vergleichbarer Ratingstandard entwickelt, Postings erhalten einen zusätzlichen Rating-Header, der die Filterung oder das Canceln von Postings ermöglicht?
  • Aufgrund verschiedenster Ratingsysteme und ihren differenzierten Kategorielisten, die eventuell in Zukunft an gesetzliche Bestimmungen gekoppelt werden, wird es nötig sein, verschiedenste Ratingstellen aufzusuchen und/oder entsprechende PICS-Headercodes zu integrieren.
    Aufgrund des unterschiedlichen Kenntnisstandes unter den Netizens wird es einigen nicht möglich sein, diese Anforderungen zu erfüllen.
    Als "un- oder misrated" Site werden sie im WWW nicht existent sein.
Mögliche Auswege
  • der breiten Öffentlichkeit und einer großen Anzahl an Netizens ist PICS und die möglichen Konsequenzen zur Zeit nicht bekannt (ähnlich wie vor der Debatte um die Kryptogesetzgebung). Eine Berichterstattung in den Massenmedien (außer einigen rühmlichen Artikeln) findet nicht statt.
    Deshalb ist Öffentlichkeitsarbeit (Hintergründe, Beteiligte, Konsequenzen, Interessen) nötig.
  • die schon bereits bestehenden Anti-Censorship und Free Speech Initiativen und Netzorganisationen sollten sich koordinieren und eine Kampagne, ähnlich der Blue Ribbon Aktion ins Leben rufen.
  • Webpublizisten, die mit Filter- und Ratingplänen nicht einverstanden sind, sollten das PICS-Ratingsystem boykottieren und entsprechende Label auf ihren Webseiten anbringen.
  • Schaffung alternativer Wege der Bekanntmachung von Websites, z.B. einer unabhängigen Searchengine, die keine PICS Zertifizierung verlangt (wenn Betreibern von Searchengines dies gesetzlich vorgeschrieben wird, scheidet dieser Weg natürlich aus) oder in einem Land liegt, in dem es keine PICS-Gesetze gibt (scheidet aus, wenn PICS Bestandteil internationaler Regelungen und Gesetze wird). Bekanntmachung über Webpages-Announcement-Newsgroups. Über Newsgroups-Searchengines kann dann eine Seite zu bestimmten Schlüsselwörtern herausgesucht werden.
  • Um den Jugendschutz im Internet zu stützen sollte seitens Bildungsinstitutionen und des Staates Informations- und Weiterbildungsangebote in Form von schriftlichem Material oder Kursen an Eltern und Lehrer ergehen, so dass diese sich mit dem Umgang des Mediums Internet vertraut machen und effektiv auf die Auswahl des Internetsangebots für Kinder und Jugendliche einwirken können.
    Dazu gehört auch der Gebrauch und Umgang mit Clientfiltersoftware, die stärker an die Bedürfnisse und Kenntnisse von Eltern und Lehrer angepasst werden sollten.
    Nicht zuletzt sollte die Verantwortung bei Eltern und Lehrern selbst verbleiben, d. h. ähnlich wie beim TV-Angebot sollten sie mit Kindern und Jugendlichen die Auswahl des Internetsangebots regeln oder den Zugriff verwehren und gemeinsam mit ihren Kindern "im Web surfen".
  • Um das Angebot an Inhalten, wie unter Sex, Lügen, Videos aufgeführt, die den Gesetzen gemäß kriminelle Tatbestände darstellen, zu verhindern oder zu begrenzen, sollte ein internationales "Meldepunktsystem", wie es in den Niederlanden existiert, etabliert werden, über die User, ohne Angst vor eigener Strafverfolgung, Hinweise auf kriminelle Inhalte geben können.
    Diese Meldepunkte könnten durch ein schrittweises Vorgehen, über Aufforderung an den Contentprovider, diese Inhalte zu entfernen, Hinweise auf den strafbaren Inhalt auf speziellen Webseiten oder in dafür eingerichteten Newsgroups und letztlich Anzeige bei Einheiten der Strafverfolgungsbehörden, die sich mit kriminellen Internetinhalten beschäftigen, mit dazu beitragen, dass kriminelle Inhalte erst gar nicht publiziert werden oder sofort wieder aus dem Netz verschwinden.
    Nebenbei ist es ein Unding, dass Personen, die eine Anzeige wegen kinderpornografischen Materials bei Strafverfolgungsbehörden erstatten, selbst mit einer Strafanzeige rechnen müssen.
  • das W3-Konsortium sollte PICS zu einem Standard modifizieren, nach dem Webinhalte nicht nach einem wie auch immer gearteten Wertesystem klassifiziert und zensiert werden können, sondern nach einem sachlichen Kategoriensystem, wie es ähnlich in Bibliotheken zur Anwendung kommt.
Deaktivierung von Rating-Mechanismen in Browsern

Modifizieren Sie den Browser so, dass Filtersysteme inaktiv werden:

  • Internet Explorer
  1. Extras/Internetoptionen/Inhalt/Inhaltsratgeber/Einstellungen aufrufen
  2. Kategorie Filter: alle Regler für alle Freigabedienste ganz nach rechts verschieben
  3. Kategorie Allgemein/Benutzeroptionen: Option "Zugang zu Sites, die nicht klassifiziert sind, zulassen" aktivieren
  4. Kategorie Allgemein/Filtersysteme: alle Filtersysteme bis auf ein verbleibendes System löschen
oder, falls schon Einstellungen vorgenommen wurden und die Konfiguration durch Passwort gesperrt ist:
  1. Registry Editor mit Start/Ausführen/regedit aufrufen
  2. HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows\CurrentVersion
    \Policies\Ratings suchen
  3. den obigen Schlüssel komplett löschen
  • Auf Brian Ristuccia's Home Page finden Sie Software zur Deaktivierung von Filtersystemen des Internet Explorers und des Netscape Browsers
  • Weitere Surfmöglichleiten auf der
    No Big Brother Page No. 1 - Anonymes Websurfen
  • Peek-a-Booty
    Peekabooty baut quasi ein P2P Proxy-Netzwerk auf, über das Menschen aus Ländern, in denen Regierungen per zentraler Zensurproxys, Blacklists usw. den freien Webzugang zensieren (z. B. China, Australien), diese Sperren umgehen können. Die P-a-B Software läuft auf jedem Rechner, der anfragende User erhält von einem dieser Rechner verschlüsselt die angeforderte Webpage. Jeder mit einem schnellen und unlimitierten Internetzugang (Flat, DSL, T1) kann so nach dem Motto "thinking globally and acting locally" mit gegen die Zensur des WWW kämpfen.
Update zu Filtering & Rating & Blocking
Der Aktionsplan zur sicheren Nutzung des Internets der Europäischen Union

Am 25.01.1999 wurde die Entscheidung Nr. 276/1999/EG des Europäischen Parlamentes und des Rates "über die Annahme eines mehrjährigen Aktionsplanes der Gemeinschaft zur Förderung der sicheren Nutzung des Internets durch Bekämpfung illegaler und schädlicher Inhalte in globalen Netzen" veröffentlicht.
Am 01.04.1999 wurde daraufhin zum Aktionsplan die "Ausschreibung zur Einreichung von Vorschlägen zur Demonstration von Filter- und Bewertungssystemen von Inhalten und zur Vorbereitung von Sensibilisierungsmaßnahmen (1999/C 92/11)" und die Hintergrundinformationen durch die Generaldirektion Xlll der Europäische Kommission veröffentlicht.
Wie die Titel schon andeuten, besteht der Aktionsplan aus zwei Kernbereichen:

  1. die Entwicklung von Filter- und Bewertungssystemen
  2. die Durchführung von Sensibilisierungsmaßnahmen
Filter- und Bewertungssysteme

Wie es in der Ausschreibung heisst, können die Vorschläge, die von Organisationen wie ICRA und INCORE (in den Hintergrundinformationen als Konsortien bezeichnet) eingereicht werden,

...Technologien umfassen, die entweder auf Metadatenlabeln für Inhalte oder anderen Merkmalen von on-line Inhalten basieren, "um Filter- und Bewertungssysteme" zu schaffen, welche den Zugang zu angemessenen Informationen verbessern. Die Klassifizierung von Informationsinhalten kann von Inhaltsanbietern, unabhängigen Experten (third-party), lokalen Administratoren, einer Untersuchung oder einer Abstimmung oder von automatisierten Instrumenten durchgeführt werden. Mechanismen können sich befinden: auf dem Personal Computer des Benutzers, auf einem lokalen Netz (LAN) oder lokalem Proxyserver, bei einem Internet Service Anbieter, auf einem remote Proxyserver oder als Teil einer Suchmaschine oder Web-Site.

In den Hintergrundinformationen liest sich das so:

Die Vorschläge können u. a. Techniken betreffen, die auf Metadaten-Inhaltskennzeichen oder Merkmalen von Online-Inhalten basieren. Sie müssen der Entwicklung von Filter- und Bewertungssystemen dienen, die den Zugriff auf geeignete Information erleichtern. Die Klassifizierung der Inhalte kann durch Inhaltsanbieter (Selbstbewertung), Dritte oder lokale Administratoren, mittels Umfrage oder Abstimmung oder durch automatische Tools erfolgen (unabhängige Bewertung). Die Mechanismen, die Inhalte auf der Grundlage von Klassifizierungen filtern, können auf dem PC des Benutzers, auf dem LAN oder dem lokalen Vermittlungsrechner, bei einem Internet-Dienstanbieter oder auf einem entfernten Vermittlungsrechner installiert oder aber in eine Suchmaschine oder eine Website integriert sein.

Im Abschnitt "Bereiche im Zusammenhang mit der unabhängigen Bewertung" der Hintergrundinformationen findet sich auch noch der interessante Passus:

Die Projekte können außerdem Arbeiten folgender Art beinhalten:

Analyse der einzelnen Benutzungsformen des Internet - interaktive Kommunikation (Chat), direkte persönliche Kommunikation (E-mail), Verbreitung von Inhalten (Newsgroups), Dateitransfer, On-demand-Seiten oder permanente Seiten (World Wide Web) - und entsprechende Anpassung von Filter- und Bewertungstechniken.

Dagegen sind als Zielgruppen in beiden Dokumenten vor allem Eltern, Lehrer und Bibliothekare ausgemacht, kurz diejenigen, die für andere Benutzer (Kinder, Schüler) verantwortlich sind.
Darüber hinaus nennen die Hintergrundinformationen auch noch die "Netzmanager", die wohl für die große Gruppe der in der Entscheidung häufig erwähnten "Verbraucher" im Allgemeinen verantwortlich sind.
Alle Benutzer-Zielgruppen eint, dass sowohl die Ausschreibung als auch die Hintergrundinformationen postulieren, dass die Entscheidung darüber, was zu filtern sei, in der alleinigen Verantwortung der Benutzer selbst liegen soll.
In den Hintergrundinformationen liest sich das so:

Die Entscheidung darüber, ob entsprechende Systeme genutzt werden, bleibt denen überlassen, die die Verantwortung tragen

Nur wird die Entscheidungsmacht des Benutzers vollkommen negiert, wenn die Filter- und Bewertungssysteme nicht nur auf dem eigenen PC installiert sind, sondern auch auf allen Vermittlungsrechnern, den Servern des Providers, den Proxies des Providers, in Suchmaschinen, IRC-Servern, Mailservern, Newsservern und Netzknotenrechnern, wie es alle Dokumente beschreiben.
Hier geht es nicht nur alleine um die Bewertung und Filterung irgendwelcher, für Kinder anstössigen oder gefährlichen Inhalte im WWW, hier geht es um den Versuch, ein breites Filter- und Bewertungsssystem für alle Bereiche des Internets zu erschaffen.
Ähnliche Vorstellungen hatten bereits früher die WebBlock und NewsWatch Konzepte der ICTF und Gespräche zwischen dem Bundeskriminalamt und Providern verfolgt, die jedoch aufgrund von Presseberichten, dem Widerstand einiger Provider und der Kritik von Internet-Benutzern, gescheitert waren.

Sensibilisierungsmaßnahmen

Wie die Hintergrundinformationen feststellen, ist "die Akzeptanz von Bewertungssystemen bei europäischen Inhaltsanbietern und Benutzern noch gering." Es würden "gewisse Unsicherheiten über den Umgang mit den vielfältigen Möglichkeiten der Netzkommunikation bestehen."
Diese Mankos beruhen auf der Besorgnis und der Angst, Kinder könnten nicht vor den illegalen und schädlichen Inhalten geschützt werden.
Welche Interessen neben dem Kinderschutz eine zentrale Rolle spielen, führt die Entscheidung aus, denn die besagten Inhalte könnten "die Schaffung des notwendigen günstigen Umfelds zum Gedeihen von Initiativen und Unternehmen nachteilig beeinflussen", die Selbstkontrollmaßnahmen, Filter- & Bewertungssysteme spielten dabei "eine zentrale Rolle bei der Festigung dieses sicheren Umfeldes und tragen dazu bei, die Hindernisse für die Weiterentwicklung und die Wettbewerbsfähigkeit der betroffenen Branche zu beseitigen". Die Sensibilisierungsmaßnahmen sollen dabei "die Benutzer (wahlweise auch Verbraucher, Anm. d. Autors) mit den Chancen als auch mit den Riskiken des Internets vertraut machen und dadurch eine stärkere Nutzung der von der Branche angebotenen Dienste bewirken", usw., usw.
Die Sensibilisierungsmaßnahmen umfassen Informationspakete für Journalisten, Schulen und Lehrer, Informationsmaterial, das Provider an Kunden weiterreichen können usw.

Ich habe nichts dagegen, Personen durch Informationsmaterial und Schulungen über die Mechanismen und Dienste des Internets aufzuklären (wodurch sich ja eventuell ein Zensursystem erübrigen würde), ich habe aber etwas dagegen, wenn Personen erst zu verängstigten und unmündigen Verbrauchern abgestempelt werden, um sich selbst die Legitimation zu geben, den verängstigten Verbrauchern ein Zensursystem aufzwingen zu müssen.
Und zur Wettbewerbsthematik möchte ich bemerken, dass in den USA trotz der Flut an gewalttätigen, pornografischen und rassistischen Inhalten eine prosperierende Internetindustrie entstanden ist und eine breite Teil- und Inanspruchnahme des Internets durch die amerikanische Gesellschaft. Es wäre der EU angeraten, drüber nachzudenken, ob die Gründe für Zurückhaltung und Stagnation nicht in politischen und wirtschaftlichen Versäumnissen zu suchen ist, als da wären:

  • lange und bürokratische Wege in nationalen und europäischen Bürokratien für Telekommunikations- und Internetunternehmen
  • zu hohe Telefonkosten, keine freien Ortsgespräche
  • Inkompetenz in Bereichen Neue Medien, Internet bei den politischen Mandatsträgern
  • unzureichende bis nichtexistente staatliche Informations- und Förderungsprogramme für die Erwachsenenbildung und Schulen (man sehe sich nur die bundesdeutsche Förderung des Internets an Schulen an, die erst aufgrund privater Initiativen ins Rollen kam)
Die Hauptakteure der Filterszene

Mittlerweile ist es zu einer Konzentration der Akteure, die das Filtern und Rating organisieren wollen, auf zwei Hauptgruppierungen gekommen:

  • ICRA (Internet Content Rating Association)
    Die Mitglieder:
    AOL Europe, Bertelsmann Stiftung, British Telecom, Demon Internet (UK), EuroISPA (Europäische Assoziation von Internet Service Providern), IBM, IWF (Internet Watch Foundation, UK), Microsoft, Software & Information Industry Association und T-Online.
    Die offiziellen Vorstellungen der ICRA bestehen darin, dass Industrie und Regierungen dem Internetnutzer keine Filtersysteme aufzwingen und darüber bestimmen sollen, welche Inhalte zu filtern sind.
    Die Filterung durch Eltern, Lehrer und besorgte Bürger soll Kinder vor nicht für sie geeignete Inhalte schützen, aber gleichzeitig Offenheit und Meinungsfreiheit des Internets bewahren.
    Dazu soll ein internationales Filter- & Selbstregulierungssystem entwickelt werden, das die ICRA einführt und administriert.
    Die ICRA hatte das amerikanische Filter & Bewertungssystem RSACi im Mai 1999 übernommen, das die amerikanische Internetindustrie als Antwort auf den gescheiterten, amerikanischen Communications Decency Act (CDA) favorisierten und die Grundlage eines neuen, internationalen Filter & Bewertungssystems bilden soll.
    Den besten Eindruck zu den Vorstellungen der ICRA bietet das Bertelsmann-Memorandum
  • INCORE (INternet COntent Rating for Europe)
    Die Mitglieder und Sponsoren:
    ISPA Österreich, Microsoft, AOL Compuserve, Bertelsmann Stiftung, UUNET, Associaón de Usuarios de Internet (Spanien), European Forum for Child Welfare, The Netherlands Board of Film Classification, European Broadcasting Union, ANEE (Associazione Nazionale dell'Editoria Elettronica (Italien)), Lagardère Group, International Video Federation, AFA (Frankreich), CECUA
    Die INCORE hat sich aufgrund des Aktionsplanes zur sicheren Nutzung des Internets der Europäischen Kommission gebildet und wird von der Europäischen Union finanziert. Auch die INCORE will vor allem Kinder vor Gewalt, Pornografie, Kraftausdrücken, Rassismus, Förderung des Drogenkonsums, Anstiftungen zu kriminellen oder gefährlichen Handlungen, dubiosen Verkaufspraktiken und sonstigen, schädlichen Inhalten im Internet schützen. Dazu soll ebenfalls ein Filter- und Ratingsystem entwickelt und propagiert werden, dass Eltern einsetzen können, um ihre Kinder zu schützen und zu dessen Einsatz zum Labeln ihrer Seiten sich Websitebetreiber und Webpageautoren entscheiden können. INCORE legt besonderen Wert darauf, dass die Entscheidungsgewalt allein bei den Eltern und Webautoren liegt, um die freie Meinungsäußerung im Internet zu wahren.
    Parallel soll es dazu dienen, die Verbreitung illegaler Inhalte im Internet zu verhindern und die bestehenden Filtersysteme an die sprachlich-kulturellen Besonderheiten Europas anzupassen.
    Die Ergebnisse von INCORE werden im ICRAsafe System umgesetzt.
Das Bertelsmann-Memorandum "Verantwortung im Internet"

Vom 09. - 11.09.1999 fand in München eine Konferenz statt, die von der Bertelsmann-Stiftung (ICRA) und INCORE ausgerichtet wurde und an der Vertreter der Internetindustrie, Bürgerrechtsorganisationen, Strafverfolgungsbehörden und Politik teilnahmen.
Thema war die Errichtung eines internationalen Filter- und Ratingsystems und die Vorstellung des Bertelsmann-Memorandums.

Im Bertelsmann-Memorandum bilden PICS und PICSrules zusammen mit RDF (Resource Description Framework) die grundlegende Basis innerhalb eines Sandwich-Modells für das Internet Content Rating.
Aus dieser Basis wird ein "Grundwortschatz" abgeleitet, mit denen die Content-Provider, also diejenigen, die Inhalte über Webseiten anbieten, ihre Seiten in einem PICS-Label "selbst-bewerten" und "- beschreiben".
In einer zweiten Schicht werden die PICS-Label der publizierten Webseiten von ideologisch bestimmten Bewertungsschablonen, die von Organisationen und vor allem den Ratinginstitutionen der Internetindustrieverbände herausgegeben werden, auf Übereinstimmung mit den Schablonen ausgewertet (dabei wird natürlich das RSACi System im Zentrum stehen, denn RSAC ist von der ICRA übernommen worden, die Bertelsmann-Stiftung ist ICRA-Mitglied und ICRA richtete zusammen mit INCORE den Münchner Gipfel aus.
In der dritten Schicht werden die Auswertungen der Bewertungsschablonen mit URL Positiv-/Negativlisten, anderen Blocklisten, die der Anwender über eine Nutzerschnittstelle hinzufügen kann, kombiniert, was dann je nach Ergebnis und Einstellungen des Anwenders zur Filterung, Blockierung oder Weiterleitung führt.

Dieser technische Kern wird eingebettet in eine äußere Schicht, die sich aus einem Selbstregulierungskodex für ISP's, Hotline-Beschwerdestellen für Internetnutzer, Ratinginstitutionen, Kontaktstellen für Strafverfolgungsbehörden und einem Ablaufplan, der das Zusammenwirken der aufgeführten Komponenten regelt, zusammensetzt.

Bild
ICRA Schema nach dem Bertelsmann-Memorandum
Einige Bemerkungen zur qualitativen Änderungen zu PICS und der bestehenden Situation:

Stellt sich erst mal die Frage wozu?
Die bisherige Situation ist gekennzeichnet durch weite Verbreitung individueller Filterprogramme wie z. B. CyberPatrol, die die im Memorandum genannten Zielgruppen: Eltern, Lehrer, Nutzer einsetzen. Jedes Programm stellt eine eigenwillige Interpretation von PICS dar, mit ihren Unschärfen und Fehlern.
In einzelnen Ländern gab und gibt es Gesetzesbemühungen und Vorschriften, die das Rating und Filtern zum Ziel haben (siehe CDA in den USA, die australische Gesetzgebung die sich an das Bewertungssystem im audio-visuellen Bereich orientiert und es auf das Internet überträgt, die Taliban, die in Afghanistan einfach das gesamte Internet herausfiltern.), die jedoch in Quantität und ideologischen Beweggründen teilweise erheblich voneinander abweichen.
Demgegenüber stehen noch die schlecht ausgebildeten, unerfahrenen oder unterbesetzten Strafverfolgungsbehörden, die teilweise in einer rechtlichen Grauzone operieren (Internet-Streifen).
Ein weiterer Teil, der aus Bürgerrechtlern und Internetnutzern besteht, wendet sich radikal gegen jede Rating- und Filterabsicht.
Internationale Rechtsysteme bestehen nur im Entwurfsstadium (EU-Aktionsplan)

Die Situation, wie es das Bertelsmann-Memorandum anstrebt:

Es gibt ein internationales, rechtlich legitimiertes Filter- und Ratingsystem, mit regional-kulturellen Anpassungen. Zu diesem Zweck wird ein Regime eingerichtet, dass folgende Komponenten hat:
Die Internet und Softwareindustrie stellt, durch Festlegung von Verhaltenskodizes, das "gesetzgebende Organ", dar, mit den Internetnutzern als beratendem Gremium. Das Organ ist durch die offizielle, staatliche Gesetzgebung legitimiert.
Als "ausführendes und abstrafendes Organ" treten die Selbstregulierungsinstitutionen auf, mit Begleitung der offiziell dazu ermächtigten, staatlichen Strafverfolgungsbehörden, mit denen man über Kontaktstellen eng zusammenarbeitet.
Organe der politischen Meinungsbildung (z. B. Bundeszentrale für politische Bildung) koordinieren mit den PR-Abteilungen oben genannter Industrien Aufklärungs- und Informationskampagnen, um dem Internetnutzer die Filter- und Ratingsysteme zu verdeutlichen.
Dem ganzen übergeordnet eine unabhängige & internationale Institution (UN?), die die grundlegenden Kategorien der Klassifizierung und Filterung als Vorgabe an die Selbstregulierungsinstitutionen erarbeitet.

Zusammengenommen haben wir am Ende eine Art "Internetregierung", mit einheitlichen Gesetzesgrundlagen, Gewaltenteilung, bürokratischen Hierarchien, wie wir sie vom UN oder EU-Apparat her kennen, in dem PICS nur noch eine der Grundkomponenten in einem einheitlichen Konstrukt darstellt.
Gleichzeitig stellt das Memorandum den Versuch dar, alle bereits bestehenden Entwürfe, Filtersysteme, Strafverfolgungskonzepte und -pläne zu integrieren. Z.B. finden sich Parallelen zu:

Auftritt der "Akteure"
Der Internetnutzer

Die Filter- und Ratingsysteme sollen Nutzerautonomie gewährleisten und dienen der Emanzipation des Nutzers.
Gleichzeitig spielen die Nutzer im Verhältnis zur starken Präsenz der Industrie in allen Ebenen und Organen des Regimes nur eine untergeordnete und marginale Rolle.
Entweder ist er der inkompetente und desorientierte Verbraucher, dem präventiv die Schwellenängste genommen werden müssen, oder, noch wichtiger: Er wird zur polizeilichen Hilfskraft ernannt, die die Internet-Fahnder durch Meldungen an die Hotlines unterstützt.

Die Industrie

Auffallend ist, dass sich Schlagworte wie Wettbewerbssteigerung, Nachfragesteigerung, Vertrauensförderung sehr häufig finden.
Ist das ganze Regime gar als verkaufsfördernde Maßnahme gedacht, um die Gewinnraten zu steigern? Und das, obwohl in der ICRA Gründungspressemitteilung zu lesen ist, die ICRA ist keine "gewinnorientierte Organisation"
Das Regime soll der "Regulierung von oben" zuvorkommen, aber wir bekommen dafür nur die andere Form der durch die Industrie dominierten "Regulierung von oben", denn das Regime ist durch ein starkes Übergewicht der Industrie gekennzeichnet:
Sie erlässt Verhaltenskodizes, stellt Selbstregulierungsinstitutionen auf, entwirft eigene Filtersysteme.
Sie will eine "leicht zugängliche, unparteiische und unabhängige Institution (die Hotline) einrichten", die Beschwerden und Verstößen nachgeht und vergisst dabei eine mit den gleichen Attributen versehene Institution, die über den Rechtsweg beschritten werden kann, um sich gegen unverhältnismäßige oder gar verfassungswidrige Bewertungen und Filterungen wehren zu können, denn den Content-Providern kommt nur eine Rolle zu: Desjenigen, der seine Webpages labelt.
Nebenbei: Nur die Industrie setzt diese Institution ein, die gleichzeitig unparteiisch und unabhängig sein soll?
Und das Ganze, obwohl nach eigener Aussage im Memorandum, der Anteil an illegalen und jugendgefährdenden Inhalten und Straftaten im Verhältnis gesehen, verschwindend gering ist.
Es gibt ja nur Aussagen, da eindeutige und anerkannte Quellen und Statistiken nicht vorliegen.

Die Regierungen

Es werden keine eindeutigen Absagen in Richtung Zensur getroffen, sondern "Empfehlungen" ausgesprochen, denn das ganze System bietet genügend Ansatzpunkte, an denen staatliche Zensurmaßnahmen greifen können:

  • Softwarehersteller müssen bestimmte, vorgegebene Filter in Browser einbauen.
  • Nutzerschnittstellen können so manipuliert werden, dass z. B. nicht-gelabelte Seiten automatisch nicht-angezeigt werden.
  • nur bestimmte Verwendung von "Wörtern" im "Grundwortschatz" der Label und in den Bewertungsschablonen.

Zum Schluss noch eine Aussage im Memorandum:

Auch ohne gezielte Suche kann man beim >>Surfen<< im Netz auf Seiten stoßen, die unerwünschtes, problematisches oder anstößiges Material beinhalten.

Das kann ich nur als populistische Meinungsmache bezeichnen.
Ich benutze das Internet und das WWW schon seit 4,5 Jahren und außer Werbebannern, die den "Sex-Ablegern obiger Industrien" dienen, ist mir ohne gezielte Suche kein anstößiges Material untergekommen.
Auch in der Bibliothek kann man ohne gezielte Suche über Chemiebücher stolpern, in denen die Ingredienzien und Prozeduren beschrieben werden, die zum "Bombenbau" dienen können.
Und vielleicht die wichtigste Frage: Wer bestimmt eigentlich, was problematisch, anstößig, unerwünscht ist?
Der Nutzer?
Er ist nicht involviert, sondern muss erst durch die Industrie emanzipiert und zur Autonomie erzogen werden.
Was übrigbleibt, ist die m. M. nach sinnvolle Einrichtung von Hotlines, wenn jemand wirklich über strafwürdiges Material "stolpern" sollte.
Für die Hotlines besteht nur die Befürchtung, dass sie aufgrund, schon von Nutzer zu Nutzer, divergierender Anschauungen mit Hinweisen überschwemmt oder als Denunzianten-Mailbox missbraucht werden würden.

Das Rights Protection System [RPS]

Primär dazu gedacht, URL's herauszufiltern, über die illegale MP3 Dateien heruntergeladen werden können, kann RPS als nationales WEB-Blockprogramm dazu eingesetzt werden, landesweit alle Arten von Informationen unterschiedslos für alle Anwender eines Landes zu sperren. Mit RPS kann somit die Entscheidungsgewalt und Eigenverantwortung über die Filterung von Inhalten gänzlich vom einzelnen Anwender auf eine zentrale Stelle verlagert werden, die darüber entscheidet, worauf die Bürger eines Staates Zugriff haben sollen und worauf nicht.

Als Abwandlung der schon älteren WEBBLOCK Idee soll als "nationales Schutzsystem" das RPS Rights Protection System funktionieren.
RPS wurde vom deutschen Bundesverband der Phonoindustrie entwickelt und arbeitet so:

Alle lokalen Internet Service Provider (ISP's) sind grossen Service Providern (SP's) angeschlossen, die den ISP's den Anschluss an ihre Netzwerke verkaufen. Die grossen SP's wiederum unterhalten Verbindungen zu anderen Netzwerken wie dem Internet. Zum Austausch und zur Weiterleitung von Datenpaketen aus dem Netzwerk der ISP's in das Internet werden die Datenpakete von Rechnern der SP's, die sich zwischen dem Netzwerk des SP's und dem Netzwerk des Internets befinden (Router), an andere Router im Internet weitergeleitet, die diese an weitere Rechner geben, von denen die Datenpakete bis zum Zielrechner weitertransportiert werden.

Die IFPI will nun, dass im Frühjahr 2000 auf jedem dieser Border-Gateway-Router der SP's, die sich auf der Grenze zwischen dem nationalen Netzwerk des SP's und dem internationalen Internet befinden un dem deutschen Netzknotenpunkt DE-CIX RPS installiert wird.

Nach dem "On-Border-Seizure" Modell und basiernd auf dem Caching-System des Novell Proxyservers, sorgt RPS für die Kontrolle jedes Datenpakets einer Datenübermittlung an diesen Grenzpunkten und entscheidet wie ein Zollwächter über den Zugriff auf eine URL, bzw. den Import von Datenpaketen über diese Grenze hinweg und das soll so funktionieren:

National Censorship System [NCS]?

Alle Ziel-URL's, zu denen der Zugriff unterbunden werden soll, werden in einer Negativliste gespeichert, die stündlich aktuallisiert wird. Die Pflege und Verwaltung der Zensurliste will die IFPI nicht selbst übernehmen, sondern durch staatliche Stellen oder vom Staat autorisierte Stellen wahrgenommen werden.
Bevor nun Datenpakete von den Border-Gateway-Routern weitergeleitet werden, findet zuerst ein Abgleich zwischen Routertabelle und der Zensurliste statt. Wird eine zu blockiernde Zieladresse der URL sowohl in der Routingtabelle als auch in der Zensurliste gefunden, wird die Datenweitergabe vom Router gestoppt und der Zugriff auf die URL verweigert.

Nach Aussage der IFPI soll RPS vor allem dem Schutz von Copyrights und der Verhinderung von Softwarepiraterie, speziell dem Schutz von Copyrights an Musiktiteln und der Verhinderung illegaler Musikstücke per MP3 dienen. Nach eigener Darstellung soll RPS aber auch als Allzweckwaffe gegen den Handel illegaler Produkte per Internet wie Drogen, Medikamenten und Waffen, zur Kontrolle und Besteuerung des Imports von digitalen Gütern per Internet und zur Blockierung des Zugriffs auf Internetinhalte eingesetzt werden.

Wenn es nach dem Geschäftsführer des Deutschen Bundesverbandes der Phonographischen Wirtschaft, Martin Schäfer geht, müssen Zugangsanbieter wie AOL oder T-Online gezwungen werden, RPS zu installieren. Und der Justiziar des Bundesverbandes, Clemens Rasch, sieht aufgrund des § 5 TDG eine Verpflichtung der SP's zum Einsatz von RPS.

(2) (Tele-)Diensteanbieter sind für fremde Inhalte, die sie zur Nutzung bereithalten, nur dann verantwortlich, wenn sie von diesen Inhalten Kenntnis haben und es ihnen technisch möglich und zumutbar ist, deren Nutzung zu verhindern."

(4) Verpflichtungen zur Sperrung der Nutzung rechtswidriger Inhalte nach den allgemeinen Gesetzen bleiben unberührt, wenn der Diensteanbieter unter Wahrung des Fernmeldegeheimnisses gemäß § 85 des Telekommunikationsgesetzes von diesen Inhalten Kenntnis erlangt und eine Sperrung technisch möglich und zumutbar ist.

Ferner beruft sich der deutsche Ableger der IFPI auf den Paragrafen 97 (Unterlassungsanspruch) und 111a (Grenzbeschlagnahme) des Urhebergesetz (UrhG).
Nach gegenteiliger Auffassung stellen die SP's aber keine Telediensteanbieter dar, sondern nach § 3 TKG Telekommunikationsanbieter, für die das TDG nicht gilt.
Ausserdem stellt sich noch die Frage, ob die SP's, wenn sie denn Telediensteanbieter wären, aufgrund der Weiterleitung von Datenpaketen nicht § 5 TDG (3) gilt, nach dem

Diensteanbieter nicht für fremde Inhalte, zu denen sie lediglich den Zugang zur Nutzung vermitteln, verantwortlich sind. Eine automatische und kurzzeitige Vorhaltung fremder Inhalte auf Grund Nutzerabfrage gilt als Zugangsvermittlung.

Sowohl das Justizministerium als auch das Wirtschaftsministerium haben ihr Interesse an RPS bekundet.

Laut der Anfang Mai vom europäischen Parlament verabschiedeten E-Commerce Richtlinie sind Provider für die von ihnen gecachten oder gehosteten Inhalte nicht verantwortlich, da die Provider als "Vermittler nicht für die Informationen verantwortlich sind, wenn sie eine rein passive Rolle spielen, die in der bloßen Weiterleitung von Informationen Dritter besteht"
(EU-Kommissar Frits Bolkestein).
Zum nationalen Einsatz von RPS würde die IFPI demnach auf die freiwillige Kooperation der ISP's angewiesen sein oder für jede Installation bei einem ISP eine gerichtliche Entscheidung benötigen.

RPS stellt ein nationales Zensurwerkzeug dar, um alle Internetnutzer landesweit von bestimmten Informationen und Inhalten des Internets abzuschneiden, die einem Staat, einem Unternehmen oder einer ganzen Industrie nicht genehm sind und reiht sich ein in die Zensurmöglichkeiten, die Filter- und Ratingmechanismen über Zwang-Proxies bieten.
Zwar kann das RPS System durch permanente Änderungen der URL oder durch verschlüsselte Datenverbindung umgangen werden, aber trotzdem würde RPS eine Gefahr für unliebsame Internetinhalte bleiben, die eine permanente URL besitzen und über nicht-verschlüsselte Datenverbindungen erreichbar wären.

Gerade der Wunsch, RPS auch beim DE-CIX zu installieren, lässt die Vermutung zu, dass gleichzeitig auch Daten über die Anwender gesammelt werden sollen, die "illegale" URL's abfragen.

RPS-Absurder von Hartmut Semken
Also: RPS wird als Filter auf der Basis des URL gefiltert.

Ein URL ist bekanntlich ein String der Form
<protokoll> :// <IP-Adresse> / <resourcenname>

<protokoll> beschreibt das Protokoll, typischerweise implementieren Browser das ftp und das http aber auch gopher protokoll soll schon gesichtet worden sein.
Dann ein Doppelpunkt und zwei Slashes. Einfach genau das dann die IP-Adresse wo die resource zu finden ist, folgt. Diese erscheint in der Regel in einer Form, die über DNS aufgelöst werden muss.
Welchen Substring der Browser an den nameserver schicken muss ermittelt er, indem er nach dem folgenden Slash (/) sucht.
Also: alles zwischen // und / wird als IP-Adresse interpretiert.
Danach folgt der Name der resource - und hier wird es interessant: dieser ist völlig unstrukturiert.

Es gibt zwar typischen Namen, z.B. aus Unix entlehnte Pfadangaben für Dateien, die dann relativ zum home-Verweichnis des httpd (Web-Servers) interpretiert werden wie in
http://www.tracker-tracker.com/hotline/index.html

Bitte beachten Sie: der // ist Teil des Trenners zwischen Protokoll ind IP-Adresse. Der danach folgendes / ist Trenner zwischen IP-Adresse und resourcename. Alle folgenden / sind *Teil* des Resourcennamens, hier ein Pfad zu einer Datei. Der Pfad ist kurz (ein Verzeichnis, hier hotline), dann folgt schon der Dateiname. Aber es können viele Verzeichnisse sein.

Andere typsiche Namen sind z.B.

http://www.lotus.de/home.nsf/ALL/F1A26B49D1CDC647C12567AD004D01C3

Was ein Datenbankobjekt in einer Lotus Notes Datenbank angibt. Ein anderer beliebter datenbankbasierter http-Server ist z.B. Hyper-G. IIS und "active" server pages sind auch sehr beliebt - aus mir nicht nachvollziehbaren Gründen.

Ausserdem treten oft Namen der Art

http://id.noc.ch/id-bin/idread.cgi?ID_svr=svr1&region=EU-CH&deviceid=10501&p opid=480

auf.
Hier wird über das common gateway interface für Web-Server ein Programm auf der Servermaschine gestartet (idread.cgi), diesem werden Parameter übergeben (der abzufragende Datenbankserver, die Region, das device und der POP) und damit bekomme ich dann eine Information über dieses Gerät. Sie leider nicht, da das ein interner Server ist und der Zugriff ist beschränkt. Ja, auch sowas gibt es im "Internet".

Auf dieser Form des URL basiert nun die folgende Idee: man übergebe als Parameter neben einem Dateinamen noch die aktuelle Uhrzeit auf die Minute genau an das CGI-Programm (typischerweise sind das "Skripte" verfasst in perl, in der Tat können das beliebige Programme sein, meinetwegen in PL/M, Modula, Oberon, C oder wasweisich geschrieben).

Das Programm liefert die gewünschte Datei immer dann, wenn die übergebene Uhrzeit mit der aktuellen Uhrzeit übereinstimmt.

Der URL der resource ändert sich damit jede Minute - und damit wäre für das Filter im RPS ein Update erforderlich - bzw. das Filter würde genau eine Minute wirken.

Selbst wenn man ein soches Schema einmal erkannt hat und dann dagegen vorgeht, indem man die RPS-Maschine die Filter automatisch anpassen lässt - was übrigens höchst bedenklich wäre: die Maschine *kann* nciht entscheiden, was gesperrt werden muss - es sind praktisch beliebig viele Varianten dieser Methode denkbar, die verschiedene Schemata verwenden. Am schlechtesten automatisch zu sperren dürfte ein auf Pseudozufallszahlen (mit der aktuellen Uhrzeit als Startwert) basierendes URL-Wechselschema sein.

Kurz: RPS ist trivial auszuhebeln wenn es wirklich so funktioniert, wie es beschrieben wird.

Es ist aber denkbar, dass RPS ganz anders funktioniert: nicht der URL wird ausgewertet sondern nur der Teil protokoll://IP-Adresse und dann würde es verschiedene urls gleichzeitig sperren - auch solche für Resourcen (Dateien), die völlig unverdächtig sind. Das darf offenbar nicht sein.

Es ist auch denkbar, dass (zur Vereinfachung der Berechnugnen auf dem Filter) die Negativliste nur in Form von Hashes gespeichert wird. Ein Hash ist eine Zahl, die einen Text beschreiben soll. "Gute" Hashes ordnen einem Text genau eine Zahl zu und dieselbe Zahl auch nur diesem Text. Nun ist es jedoch denkbar, dass es mehr Texte gibt als man mit einer Zahl fester Länge abzählen kann. Ein ein-Bit-Hash kann genau zwei Texte unterscheiden, ein dritter erhält denselben Hash-Wert wie einer der beiden anderen.

Es gibt ausführliche Untersuchungen zur Qualität verschiedener Hashes. Aber prinzipiell wird dabei dann immer mit Wahrscheinlichkeiten operiert: die Wahrscheinlichkeit, dass zwei verschiedene Texte (urls sind das hier) denselben Hash erhalten, ist immer von Null verschieden - selbst der beste Hashalgorithmus ist nicht perfekt (auch wenn die gperf library im Namen was anderes suggeriert).
Perfekte Hashes sind möglich wenn man die zu indizierende Menge kennt. Kennt man aber nicht, denn man kann nicht alle denkbaren URLs aufzählen. Hmm, Moment: ist die Menge aller URLs endlich? Abzählbar unendlich oder überabzählbar unendlich?

Egal: Selbst *wenn* RPS funktionieren könnte und akzeptabel implementiert (keine Sperrung von urls, die nicht gesperrt werden sollten, Kontrolle möglich) wäre - es wäre trivial auszuhebeln.
Ergo ist ein Gesetz, das den Einsatz fordert, m.E. unverhältnismässig.

Links

Rating im Ausland
Die Broadcasting Services Amendment (Online Services) Bill in Australien

Das BSA Gesetz wurde am 21.04.1999 in das australische Parlament eingebracht und am 26.05.1999 vom australischen Senat verabschiedet.
Nach dem BSA sind folgende Internet-Inhalte als potentiell verboten einzustufen:

  • R-rated, nicht jugendfrei, ohne Alterszugangskontrolle
  • RC-rated (Refused Classification)
  • X-rated, nicht jugendfrei, mit Alterszugangskontrolle

Dabei orientiert sich die Klassifizierung an dem National Classification Code, der eigentlich für die Bewertung von TV-Inhalten gedacht ist.
Reicht eine Person bei der ABA (Australian Broadcasting Authority), der australischen TV Regulierungsbehörde, eine Beschwerde zu einem Internetinhalt (z. B. einer Website) ein, entscheidet die ABA, welchen Klassifizierungsstatus der Internetinhalt hat.
Ist er als RC- oder X-rated einzustufen, weist die ABA einen ISP und/oder den Content-Provider an, den Zugriff zum Internetinhalt zu sperren, bzw. von einem Rechner innerhalb von 24 Stunden zu löschen.
Ist er als R-rated einzustufen, holt die ABA beim National Classification Board eine Klassifizierung ein, bestätigt sich das R-Rating, muss der Content-Provider den Inhalt mit einer Alterszugangskontrolle ausstatten und der ISP geeignete Filtermechanismen bereitstellen, andernfalls den Inhalt sperren/löschen.
Die ISP's verpflichten sich gegenüber der ABA, nach Benachrichtigung durch die ABA, für ausländische Internetinhalte mit R-Rating Filter bereitzustellen und den Zugriff auf ausländische Internetinhalte mit RC- und X-Rating sofort zu sperren.
Ausserdem informiert die ABA die Strafverfolgungsbehörden des Staates, in dem der Rechner der beanstandeten Site seinen Sitz hat.
Zusätzlich ist geplant, dass sich User, die sich R-rated Sites ansehen wollen, bei der ABA mit Namen, Adresse, Geburtsdatum, E-Mailadresse sowie digitaler Signatur oder Kreditkartennummer registrieren lassen müssen. Nach Überprüfung erhält der Anwender von der ABA ein Passwort oder eine PIN. Beim Zugang zu R-rated Inhalten wird die PIN und das eingegebene Geburtsdatum auf Gültigkeit überprüft, danach erschliessen sich erst die Inhalte.

Mittlerweile hat die australische Sektion der Electronic Frontier Foundation EFA versucht, eine Auflistung aller bisher von Sperrungen durch die ABA betroffenen Websites aufgrund des australischen "Freedom of Information Act" zu erhalten. Begonnen hatte die EFA damit am 22. Februar 2000, jetzt, zum 19 Juli 2001 ist die EFA immer noch nicht im Besitz der Dokumente. Seitens der ABA wird das Ansinnen der EFA auf massivste Weise behindert.
Der ganze Verlauf kann auf der Seite FOI Request on ABA, February 2000 der EFA nachvollzogen werden.

Dies zeigt auf, welche Macht Bewertungs- bzw. Zensurbehörden haben.
Nicht nur, dass der freie Zugang zu Webinhalten verhindert wird, auch der Zugang zu Informationen, welche Quellen von der Zensur betroffen sind, sprich eine Kontrolle der Zensurbehörden wird negiert.
Effektiv werden Inhalte wortwörtlich und gründlich "ausradiert".

Im Content Code 1 werden die generellen Verpflichtungen der ISP's bezüglich des Internet-Zugangs aufgeführt:

ISP's müssen
  1. Content Provider (Inhalteanbieter) darin bestärken, geeignete Labelsysteme einzusetzen, wenn es sich wahrscheinlich um Inhalte handelt, die nach dem National Classification Code als für Kinder ungeeignet eingestuft würden.
  2. Benutzer mit Informationen versorgen, wie sie den Zugang zu Internetinhalten durch Kinder überwachen und kontrollieren können, speziell Eltern über die Verfügbarkeit, Benutzung und sachgemässe Anwendung von Filterprogrammen, Labelsystemen und gefilterter Internetzugangswege informieren.
  3. Kunden informieren, dass sie für die Publizierung von Internetinhalten rechtlich verantworlich gemacht werden können und wie sie ihr Recht wahrnehmen können, Beschwerden über verbotenen oder möglichweise verbotene Inhalte an die ABA zu richten.
  4. Internet Content Hosts auf von ihnen gehostete, verbotene Inhalte per E-Mail hinweisen, wenn die ISP's von diesen Inhalten Kenntnis erhalten.

Im Content Code 2 werden die Verpflichtungen der ISP's bezüglich ausländischer Internetinhalte aufgeführt:

  • Es wird ein Benachrichtigungsschema eingeführt, in dessen Rahmen die ABA Hersteller der Filterprogramme und die IPS's Informationen zukommen lässt, anhand dessen (möglichweise) verbotene Inhalte identifiziert werden können.
  • Zur Umsetzung dieser Informationen müssen die ISP's Kunden im Rahmen eines online oder offline ablaufenden Zugangsprozesses ein zugelassenes Filtersystem verkaufen, bzw. Links zum Download und Anwendung von Filtersystemen anbieten, sofern der Kunde noch nicht über ein Filter- oder Firewallsystem verfügt.

Im Content Code 3 werden die Verpflichtungen der australischen Internet Content Hosts, die Content Providern die Bereitstellung ihrer Inhalte vermitteln (z. B. Webspace-Provider, bzw. ISP's, die ihren Kunden Webspace zur Verfügung stellen) aufgeführt:

Der Internet Content Host Betreiber muss
  • entweder ein von ABA/IIA/NetAlert geprüftes und anerkanntes Filtersystem installieren, dass auf den Content Account angewendet wird, oder er stellt anders sicher, dass über den Account des Content Providers keine (möglicherweise) verbotene Inhalte zugänglich sind.
  • die Content Provider darin bestärken, geeignete Labelsysteme einzusetzen, wenn es sich wahrscheinlich um Inhalte handelt, die nach dem National Classification Code als für Kinder ungeeignet eingestuft würden.
  • die Content Provider über ihre rechtlichen Verantwortlichkeiten aufklären und wie sie ihr Recht wahrnehmen können, Beschwerden über verbotenen oder möglichweise verbotene Inhalte an die ABA zu richten.
  • die Content Provider anweisen, einen Infolink auf ihre Startseiten zu Ressourcen der IIA, ABA, NetAlert zu setzen.
  • Bentzer mit Informationen versorgen, wie sie den Zugang zu Internetinhalten durch Kinder überwachen und kontrollieren können, speziell Eltern über die Verfügbarkeit, Benutzung und sachgemässe Anwendung von Filterprogrammen, Labelsystemen und gefilterter Internetzugangswege informieren
  • andere Internet Content Hosts auf von ihnen gehostete, verbotene Inhalte per E-Mail hinweisen, wenn der Internet Conetent Host Betreiber von diesen Inhalten Kenntnis erhält.
Wenn der Internet Content Host Betreiber von der ABA eine Meldung erhält, dass er Inhalte eines Internet Content Providers hostet, die von der ABA als (möglicherweise) verboten eingestuft wurden, muss der Internet Content Host Betreiber
  1. den Inhalt innerhalb einer vorgegeben Zeitspanne aus der Website oder Datenbank entfernen, im Falle, dass es sich um als R-rated eingestufte Inhalte handelt, die über keine Zugangskontrolle verfügen, eine geeignete Zugangskontrolle veranlassen, bzw. jede weitere Handlung veranlassen, zu der er in der ABA Meldung aufgefordert wird.
  2. den betroffenen Inhalteanbieter informieren, dass dessen Handlungsweise ein Verstoss gegen die Geschäftsbedingungen darstellt.
Korea's Communication Decency Act

Das Communication Decency Gesetz des Ministeriums für Information und Kommunikation (MIC) von Südkorea sieht vor, dass auf jedem öffentlichen PC eine Blockiersoftware installiert wird.
Das koreanische Information Communication Ethics Committee hat bereits eine Liste über 119 000 "asoziale" Sites ermittelt und zusammengestellt, die auch viele ausländische Webpages beinhaltet. Diese Liste wurde bereits den Herstellern von Blockiersoftware zur Einpflegung in ihre Programme übermittelt.
Staatliche Stellen werden in naher Zukunft auch die koreanischen ISP's dazu zwingen, Blockiersysteme mit den gleichen Listen zu installieren. Unterstützung des Zugangs zu zensierten Webpages wird unter Strafe gestellt.
Ebenso sollen zukünftig Onlineprotest und -demonstration Websites und Massen-E-Mail Kampagnen, die dem gleichen Zweck dienen, kriminalisiert werden.
Zusätzlich beinhaltet das Gesetz eine Vorschrift, nachdem alle Webpages mit dem Label eines Content Rating Systems "gestempelt" werden müssen.
Das Gesetz soll laut der koreanischen Regierung der Schaffung eines sogennaten "Safe Cyber Environment" dienen.

15.05.2002 Türkei beschliesst repressive Mediengesetzänderung und Errichtung einer Zensurbehörde
  • nach dem neuen Mediengesetz sitzen nun im türkischen, nationalen Radio & TV Aufsichtsrat (RTÜK) Vertreter des National Security Council (MGK), d.h. der türkischen Armee.

  • RTÜK wurde in ein Organ mit polizeilichen Exekutivrechten umgewandelt, dass gegen TV & Radiostationen Verwarnungen und Starfgelder verhängen, Sendungen zensieren und absetzen kann. Widersetzen sich Medienverantwortliche, drohen ihnen Haftstrafen von 6 Monaten bis zu 2 Jahren

  • RTÜK ist nun zuständig für die Kontrolle des Internets, speziell von News-Portals. Wegen "Diffarmierungen" und die "Verbreitung falscher Nachrichten" werden hohe Strafgelder verhängt.
    In der Praxis sieht das so aus, dass im Dezember 2001 die Website ideapolitika.com gerichtlich geschlossen wurde, weil den Betreibern vorgeworfen wurde, die türkische Armee beleidigt zu haben, im Februar 2002 wurde Coskun Ak, der Moderator eines Webforums, wegen Verunglimpfung und Verspottung staatlicher Institutionen zu einer Geldstrafe von 5000 € verurteilt - der Grund: Er hatte eine Nachricht im Forum nicht gelöscht, in der es um die Verletzung der Menschenrechte im Südosten der Türkei ging.
Revised media law - Reporters Without Borders deplores repressive turn by Turkish Regime
Die Sperrverfügungen und das Filterpilot-Projekt der Bezirksregierung Düsseldorf in
Nordrhein-Westfalen

Lesen Sie dazu Kein Zugriff - Zensurnetz in NRW

Links zur weiteren Information

Ich könnte noch unzählige, weitere Links an dieser Stelle anfügen, begnüge mich aber mit den oben angegebenen URL's, über die weitere Quellen zugänglich sind.

NO PICS - NO PICSrules
[ Inhalt | Top ]