BdWi - Bund demokratischer Wissenschaftlerinnen und Wissenschaftler

»Wissenschaft ist also ein prinzipielles Gegen-den-Strom-Schwimmen.«

Klaus Holzkamp

Newsletter abonnierenKontaktSuchenSitemapImpressum
BdWi
BdWi-Verlag
Forum Wissenschaft

Wissensgesellschaft für alle?

15.04.2003: Über die künstliche Verknappung von "Wissen" durch Profitinteressen

  
 

Forum Wissenschaft 2/2003

Nach wie vor finden die Auseinandersetzungen über die Verschärfung des Urherberrechts und die Ausweitung des Patentrechts auf Software nur im relativ überschaubaren Kreis von ExpertInnen statt. Weit verbreitet ist offenbar die Ansicht, dass die Auswirkungen der derzeit umkämpften Weichenstellungen "allgemeinpolitisch" eine zu vernachlässigende Größe darstellen. Richard Sietmann zeigt auf, was für kritische WissenschaftlerInnen auf dem Spiel steht und diskutiert Ansätze für ein demokartisches Gegenmodell.

Die subtile Verflechtung von altem Recht und neuer Technik stellt mannigfache Herausforderungen an WissenschaftlerInnen, die ihren emanzipatorischen Anspruch noch nicht aufgegeben haben. Sie reichen von den verfassungsrechtlichen Fragen der Abgrenzung von Selbst- und Fremdbestimmung der BürgerInnen und ihrer Entmündigung durch Hard- und Software-Architekturen bis hin zur Analyse des Sprachgebrauchs und seiner rhetorischen Figuren. Die Charakterisierung von Ideen und Werken als "geistiges Eigentum" beispielsweise impliziert schon durch die Wortwahl Festlegungen, die die wesentlichen Unterschiede der Rechte an materiellen und immateriellen Gütern verwischen. Anders als das Grundeigentum z.B. sind Information und Wissen beliebig vermehrbar und nicht ausschließend in der Nutzung. Während ein Haus nur von einer begrenzten Anzahl Menschen bewohnt werden kann und auch nicht beliebig reproduzierbar ist, können Informationen gerade durch die Digitalisierung problemlos verfielfältigt und von (theoretisch) allen genutzt werden.Warum also sollen Regelungen, die als Instrumente der Wirtschaftsordnung zur Regulierung "knapper Ressourcen" entwickelt wurden, unhinterfragt auf Wissen und Informationen übertragen werden - in Kauf nehmend, dass dadurch Knappheiten und Ausschlüsse produziert werden?

Die Auseinandersetzungen um die Verschärfung des Urheberrechts und die Ausweitung des Patentrechts auf Software sind nicht allein die Nöte von Computerfreaks. Vielmehr handelt es sich um die ersten Vorboten eines Kulturkampfes, indem die in der Tradition der Aufklärung stehenden progressiven VerfechterInnen einer "Wissensgesellschaft für alle" auf die Reaktion etablierter Medienindustrien treffen, die nicht nur mit Zähnen und Klauen ihre Besitzstände gegen gesellschaftliche Veränderungen verteidigen, sondern sie in einer Vorwärtsstrategie durch die Usurpation der neuen Möglichkeiten auszubauen trachten.

Neue Kontrollsysteme

Mit der Novellierung des Urheberrechts erhalten die UrheberInnen von Werken - präziser: die InhaberInnen der Verwertungsrechte - einen Rechtsschutz für sogenannte technische Schutzmaßnahmen, mit denen sie jegliche Nutzung digital verlegter und vertriebener Werke kontrollieren können. Der Begriff "technische Schutzmaßnahmen" bezieht sich auf Rechtekontrollsysteme, die den Endgerätezugriff auf digitale Werke entsprechend den Geschäftsmodellen der VerwerterInnen einschränken und diskriminieren. Dieses Digital Rights Management (DRM) zielt grundsätzlich auf die Kontrolle darüber, wer zu welchem Preis und zu welchen Bedingungen (z.B. wie lange, wie oft) auf ein Werk zugreifen darf. Mit dem neuen Urhebergesetz stellen die Unterlieger an einem Wasserlauf gewissermaßen jene Bagger und Raupen unter Schutz, mit denen die Oberlieger den Fluss umleiten und die Verteilung regulieren.

Einfache Ausprägungen von DRM-Systemen sind von den im Internet immer häufiger anzutreffenden PDF-Dateien bekannt. Sie sind nur mit spezieller Software, dem Acrobat-Reader, lesbar und wer darin "Datei/Sicherheitsinformationen" anklickt, findet detailliert aufgeführt, welche Datei-Operationen der/die RechteinhaberIn gewährt - etwa, ob das Ausdrucken, Kopieren oder Annotieren des Dokumentes gestattet ist oder ob nur am Bildschirm gelesen werden darf. Bei den PDF-Dateien handelt es sich um ein proprietäres DRM-Verfahren der Firma Adobe. Solche Systeme bieten jedoch nur einen unzureichenden Schutz vor Hackern und sind inhärent instabil: Einmal entschlüsselt, ist das gesamte System wertlos - Break Once, Run Everywhere. Zudem schützt es die RechteinhaberInnen nicht vor der Weitergabe, etwa durch simples Dateikopieren, und vor allem kann es die Nutzung nicht zeitlich einschränken. Dazu müsste es sich beispielsweise mit der Systemzeit des Rechners koppeln lassen, die aber können selbst unerfahrene ComputernutzerInnen recht einfach manipulieren. Deshalb müssen die Wälle um das sogenannte geistige Eigentum weiträumiger und höher ausgelegt werden.

Da der PC als technische Plattform bislang keine Mauern kennt - gegen das Aufschrauben und den Zugriff auf die entschlüsselten Digitalsignale etwa auf dem Weg zum Display ist jeglicher Softwareschutz von Dateien machtlos - haben Intel, Microsoft, HP, Compaq und IBM die Trusted Computing Platform Alliance (TCPA) gegründet, ein Konsortium, dem heute mehr als 170 Firmen angehören. Der von der TCPA verfolgte Ansatz läuft darauf hinaus, die Computer-Hardware quasi zu versiegeln, indem die gesamte Kommunikation zwischen den Rechnerkomponenten - Prozessor, Arbeitsspeicher, Festplatte, Sound- und Grafikkarte, Tastatur und Display, Wechselmedien - verschlüsselt erfolgt und sich die zugelassenen Komponenten wechselseitig authentisieren. Dies wird Eingriffe in das System wie den Einbau "unsicherer" Komponenten oder das Anzapfen der Datenströme unterbinden. Anwendungen sollen so eine (aus der Sicht der Medienindustrie) gesicherte Umgebung vorfinden, in der sie sich durch den Austausch von kryptografischen Schlüsseln automatisch vergewissern, dass sie nicht in unzulässiger Weise verändert oder manipuliert wurde. Die Bastlerin wird also nicht mehr ohne weiteres eine neue, leistungsfähigere Grafikkarte einsetzen können. Selbst wenn die Karte technisch kompatibel ist - sie muss auch über das TCPA-Zertifikat in Gestalt eingebrannter Kryptografieschlüssel verfügen, damit das System sie erkennt und akzeptiert. Veränderungen im Eigenbau scheiden damit aus.

Irreführendes Marketing

"Eine Einheit ist vertrauenswürdig, wenn sie einem gewissen Satz von Regeln gehorcht, so daß sie sich immer in der erwarteten Weise verhält," beschreibt der Leiter des Bereichs Trusted Platform Software bei Microsoft, Peter Biddle, die Zielsetzung. Der US-Konzern, der rund 90% des Weltmarkts für Desktop-Betriebssysteme kontrolliert, geht intern davon aus, dass die erste Windows-Version mit der neuen Sicherheitsplattform im Jahr 2005 auf den Markt kommt. Ihren Kern bildet das von Biddle 1997 ins Leben gerufene Palladium-Projekt, das kürzlich aufgrund der negativen Berichterstattung in Next-Generation Secure Computing Base for Windows (NGSCB) umgetauft wurde. Der PC wird darin gewissermaßen geteilt. In dem Betriebsmodus "Standard" können die NutzerInnen wie bisher machen, was sie wollen - etwa eigene Programme schreiben oder beliebig aus dem Internet geladene ablaufen lassen. Im streng getrennten Sicherheitsmodus hingegen wird der PC zu einem versiegelten Abspielgerät, das nur zertifizierte und verifizierte Programme und Dateien zum Laufen bzw. zur Darstellung bringt, und dies auch nur auf den zertifizierten Hardware-Komponenten der TCPA, die bei jedem Eingriff ihren Dienst versagen.

Es lohnt, das Augenmerk auf die Vermarktungsstrategie zu richten. Von "technischen Schutzmaßnahmen" zugunsten der Medienindustrie ist da keine Rede. Microsoft will zunächst Geschäftsanwendungen adressieren, da sich vor allem Firmen Sorgen um Angriffe durch Viren aus dem Netz und unautorisierte PC-Eingriffe von MitarbeiterInnen ("Insider-Hacking") machen. "Trustworthy Computing," gibt Peter Biddle die Stoßrichtung vor, ist ein Computing, "that users can rely on to keep their information secure and private and to be available and reliable". Ein interessanter Perspektivenwechsel, denn tatsächlich geht es nicht darum, dass die NutzerInnen ihrem Computer vertrauen können, sondern dass Softwarehersteller und Contentprovider dem Endgerät vertrauen.

Im Zusammenspiel von TCPA und NGSCB kulminiert ein groß angelegtes Projekt der Medienindustrie im Verein mit Hard- und Softwareherstellern, das durch bemerkenswerte Widersprüche gekennzeichnet ist und letztlich auf eine dreifache Rolle rückwärts in die "Wissensgesellschaft" von morgen hinausläuft:

  • Die Datenverarbeitung im und mit dem Computer beruht essentiell auf Kopierprozessen - genau diese technische (Leistungs-) Fähigkeit soll nun mit gewaltigem technischen Aufwand wieder eingeschränkt werden, um Computer daran zu hindern, wofür sie eigentlich geschaffen wurden.
  • Der Siegeszug des PC beruht auf dem Prinzip des Universal"rechners", also einer offenen Endgeräte-Plattform, bei dem die NutzerInnen (oder Freunde/Dienstleisterinnen) die gewünschten Funktionen baukastenartig nach Belieben zusammenstellen und maßschneidern können - genau dieser Freiheiten werden die NutzerInnen durch den rechtlich geschützten und technisch kodierten Zwang zur Verwendung besonders zertifizierter Komponenten wieder beraubt.
  • Die Verwertungsindustrie zielt auf die Kontrolle immaterieller Güter, von Ideen (im Patentrecht) und von Werken (im klassischen Urheberrecht), die beliebig vermehrbar sind und bei denen im Unterschied zu materiellen Gütern die Nutzung per se niemand anderen in der Nutzung behindert oder davon ausschließt - genau diese natürliche Tendenz, Allgemeingut zu werden, muss zur Aufrechterhaltung ihrer Geschäftsmodelle mit rechtlichen Barrieren künstlich verknappt werden.

Kein Forschungsprivileg

Wie erbittert um diese Verknappung gerungen wird, läßt sich an den Auseinandersetzungen um das Forschungsprivileg ablesen. Bisher war es zulässig, für Unterrichts- und Forschungszwecke Kopien von Veröffentlichungen anzufertigen, ohne dafür im Einzelfall die Genehmigung der RechteinhaberIn einholen zu müssen. Das soll mit der Urheberrechtsnovellierung auch bei den neuen Medien so bleiben. Durch eine Ergänzung in Gestalt des §52a UrhG ("Öffentliche Zugänglichmachung für Unterricht und Forschung") soll es künftig gestattet sein, "veröffentlichte Werke zur Veranschaulichung im Unterricht für den bestimmt abgegrenzten Kreis von Unterrichtsteilnehmern oder ausschließlich für einen bestimmt abgegrenzten Kreis von Personen für deren eigene wissenschaftliche Forschung öffentlich zugänglich zu machen," sofern dies keinen kommerziellen Zwecken dient.

"Durch einen solchen Paragrafen werden Autoren und Verleger enteignet," begründete eine gemeinsame Initiative des Börsenvereins des Deutschen Buchhandels e.V. und der Arbeitsgemeinschaft wissenschaftlicher Verleger die Forderung auf ersatzlose Streichung des Schul- und Forschungsprivilegs. "Denn letztlich brauchen alle deutschen Bibliotheken dann zusammen nur noch jeweils ein Exemplar eines Lehrbuches oder einer Fachzeitschrift. Das kann für alle Universitäten kopiert und in deren Datennetze gestellt werden." In Zeitungsanzeigen verstieg sich die Initiative sogar zu der Behauptung: "Universitäten und Schulen müssen sparen. Darum dürfen sie in Zukunft Bücher und Zeitschriften klauen."1 Eine bewusste Irreführung, denn der Text sieht ausdrücklich die Einschränkung auf "einen bestimmt abgegrenzten Kreis" von Personen oder UnterrichtsteilnehmerInnen vor. Gemeint ist die Wiedergabe in organisationsinternen Netzen, sogenannten Intranets, und sie ist keineswegs unentgeltlich, denn die Konditionen, zu denen die Überlassung von Werken in elektronischer Form erfolgt, müssen mit den Verlegern ausgehandelt werden und richten sich in aller Regel nach der Anzahl der an ein Intranet angeschlossenen PCs.2

Aber die VerlegerInnen sehen - durchaus richtig - auf einem lukrativen Teilmarkt mit der Öffentlichen Hand ihre Felle davonschwimmen. Sie würden lieber mit DRM-Systemen jede einzelne Werknutzung individuell abrechnen. Das hätte zur Folge, dass künftig jedem und jeder WissenschaftlerIn und allen Studierenden der Zugriff auf Veröffentlichungen kontingentiert und einzeln budgetiert werden müsste. Solche Modelle wurden in den 1990er Jahren vom Bundesministerium für Bildung und Forschung propagiert und gefördert. Nutzungsabhängige Gebühren sollten der "Bibliothekskrise" mit ihren immens wachsenden Kosten der wissenschaftlichen Literatur- und Fachinformationsversorgung entgegenwirken und zugleich den Fachverlagen die Erträge sichern, um ihre Publikationssysteme auf die elektronische Auslieferung umzustellen. Inzwischen gibt es dafür konkrete Ausgestaltungen und Konzepte. So hat der Informatiker Dietrich Boles in seiner Dissertation an der Universität Oldenburg im vergangenen Jahr ein Referenzmodell für digitale Bibliotheken zum Verkauf einzelner Objekte in sogenannten dShops entwickelt.3 Ein dShop ist ein spezielles Softwaresystem, das beim Vertrieb die Urheber- und Nutzungsrechte händelbar macht und vielfältige Entgeltmöglichkeiten von der Subskription und Gruppenlizenz bis hin zu Einzeltransaktionen berücksichtigt. In der International Standardisation Organisation arbeitet die MPEG-21-Gruppe bereits an einem weit umfassenderen Intellectual Property Management and Protection-System für beliebige digitale Objekte in allen Netzen und Endgeräten.

Das Banner des "geistigen Eigentums"

Aber das Forschungsprivileg gerät auch an einer zweiten Front unter Druck, nämlich der beharrlich vorangetriebenen Ausweitung des Patentschutzes unter dem Banner des "geistigen Eigentums." Wohin die Reise geht, lässt eine kürzlich ergangene Gerichtsentscheidung in den USA ahnen, die das Recht von Universitäten ("research exemption") in Frage stellt, in der Forschung patentgeschützte Verfahren unentgeltlich und lizenzfrei zu nutzen.4 Die Logik der Begründung des US-Bundesgerichtshofs (US Court of Appeals for the Federal Circuit) ist bestechend: Weil die Hochschulen selbst patentieren und Lizenzen gewinnbringend vermarkten, beteiligen sie sich an dem kommerziellen Verwertungsspiel und damit entfällt die Geschäftsgrundlage des Forschungsprivilegs; folglich müssen sie sich wie ein kommerzielles Unternehmen behandeln lassen.

In Europa ist das Forschungsprivileg nicht wie in den USA fallrechtlich tradiert, sondern wie in den meisten Ländern gesetzlich explizit geschützt. Im deutschen Patentgesetz z.B. durch §11: "Die Wirkung des Patents erstreckt sich nicht auf (…) Handlungen zu Versuchszwecken, die sich auf den Gegenstand der patentierten Erfindung beziehen." Noch ist das die geltende Rechtslage. Aber Staaten, die die Universitäten als öffentlichen Raum des Wissens schützen wollen, werden sich - wenn das US-Urteil vor dem Supreme Court Bestand hat - schon bald auf der Schwarzen Liste des US-Handelsbeauftragten wiederfinden, weil sie mit indirekten Subventionen nichttarifäre Handelshemmnisse aufrechterhalten, die den internationalen Wettbewerb verzerren und dem Freihandel mit Dienstleistungen im Bereich Forschung und Bildung im Wege stehen.

Dabei sind die inhärenten Widersprüche, durch Ausschließungsrechte den Fortschritt fördern zu wollen, unübersehbar. Ein vielzitiertes Beispiel ist der mit Beta-Karotin angereicherte "Goldene Reis", eine Pflanzensorte, die durch genetische Veränderungen höhere Vitamin-A-Gehalte aufweist und als gentechnische Antwort auf die Unterernährung in "Dritt-Welt-Ländern" propagiert wird. Ihre Weiterentwicklung ist durch 16 Schlüsselpatente und eine Reihe weiterer Schutzrechte nahezu blockiert, weil sie jeden Beteiligten in eine Kette bilateraler Lizenzverhandlungen zwingt. Wie beim Streit der Erbengemeinschaft um das hinterlassene Haus kann jedeR RechteinhaberIn alle anderen an der wirtschaftlichen Verwertung hindern - nicht sonderlich attraktiv für ForscherInnen, sich auf ein derart vermintes Gelände zu begeben.

Vergleichbare Barrieren und Blockaden zeichnen sich auch bei der Weiterentwicklung des Internet zum Semantic Web ab. In ihm werden die heute lediglich verlinkten Webseiten um maschinenlesbare Deskriptoren erweitert und so - beispielsweise durch die Verknüpfung mit fachsprachlichen Thesauri - der semantische Kontext automatisch herstellbar. Das verspricht enorme Erleichterungen bei Recherchen in vernetzten digitalen Archiven. Weltweit arbeiten ForscherInnen an der Entwicklung von Software-Werkzeugen, um die begrifflichen Beziehungsgeflechte ("Ontologien") in formale Darstellungen umzusetzen.

Nur wird das Semantic Web keine Erfolgsgeschichte wie das Internet werden, das durch die freie Verbreitung der Kommunikationssoftware und Browseroberflächen in wenigen Jahren die Welt eroberte. In den USA ist Software seit einem Jahrzehnt patentierbar, auf dieser Seite des Atlantik befindet sich die entsprechende Vorlage der EU-Kommission zur Rechtsangleichung im Abstimmungsverfahren des Europäischen Parlaments. Hüben wie drüben sind ForscherInnen zunehmend gehalten, die verwertbaren Ergebnisse ihrer Arbeit zu patentieren, damit die Universitäten wirtschaftlichen Mehrwert produzieren. Die Ausschließungsrechte an den Entwicklungen aber werden es gerade verhindern, dass beim Semantic Web sich der Vernetzungseffekt wiederholt, bei dem durch den freien Austausch von Programmen und Protokollen die InformatikerInnen weltweit aufeinander aufbauen konnten. Die WissenschaftlerInnen sollten, forderte deshalb jüngst ein US-Informatiker seine KollegInnen auf, "gegen die Schutzrechtspolitik und den aus dem Ruder laufenden Patentierungswahn kämpfen, die die freie Verbreitung unserer Produkte unmöglich machen."5

Selbst große Konzerne klagen inzwischen über das außer Kontrolle geratene Schutzrechtssystem. So weist beispielsweise der französische Telekommunikationsriese Alcatel in einem Geschäftsbericht6 für die US-Börsenaufsicht SEC auf die erheblich gestiegenen Belastungen und Risiken aus Patentstreitigkeiten hin: "Wie andere Unternehmen der Telekommunikationsindustrie unterliegen wir häufig gerichtlichen Auseinandersetzungen um Patente und andere geistige Eigentumsrechte. Dritte haben behauptet, und könnten künftig behaupten, wir würden ihr geistiges Eigentum verletzen. Die Zurückweisung solcher Ansprüche kann teuer sein und Belastungen unseres Managements und unserer technischen Mitarbeiter nach sich ziehen. Falls es nicht gelingt, diese Klagen abzuweisen, müßten wir beträchtliche Mittel aufwenden, Umgehungstechnologien zu entwickeln oder Lizenzen für die umstrittenen Technologien zu erwerben. (…) Wir können jedoch nicht sicher sein, dass - wenn überhaupt - uns solche Lizenzen zu wirtschaftlich vernünftigen Bedingungen eingeräumt werden."

Keine Alternativen?

Unter der Wucht des neokonservativen Ansturms auf die Claims der Wissensgesellschaft ist die historisch gewachsene Balance sowohl des Patent- als auch des Urheberrechts aus dem Gleichgewicht geraten. Der öffentliche Raum fand bislang nur schwache VerteidigerInnen. Es ist auch nicht einfach, ein schlüssiges, hinreichend tragfähiges und politisch wirksames Gegenkonzept zu formulieren, das den ausufernden Partikularinteressen Einhalt gebieten könnte. Aber anhand von drei Beispielen lässt sich andeuten, wie eine alternative Welt aussehen könnte.7

  • Ohne Software-Patente sind computer-implementierte Erfindungen mathematischen Algorithmen gleichgestellt und damit faktisch Gemeingut. Die Free Software- und Open Source Software-Bewegung verficht das im Einklang mit der bisherigen Rechtslage vehement. Das bedeutet mitnichten, dass mit Software keine betriebswirtschaftliche Wertschöpfung möglich wäre. Ein Beispiel ist das von dem Programmierer Martin Roesch gemeinsam mit anderen entwickelte Sicherheitspaket zum Aufspüren von Angriffen auf Computernetze (Intrusion Detection), das schnell zu einer Art Standard auf diesem Gebiet wurde und frei verfügbar ist (www.snort.org). JedeR kann es herunterladen und nutzen. Vor zwei Jahren gründete Roesch die Firma Sourcefire, die solche Schutzsysteme vermarktet. Wie ist das möglich, wo doch alle - also auch die Konkurrenz - das Kernprodukt kopieren und einsetzen können? Die Antwort: "Wir verkaufen nicht die Intrusion Detection, wir verkaufen alles darum herum." Mit demselben Konzept der Dienstleistung ist die Nürnberger SuSE AG zu einem der weltweit führenden Vertreiber von freier, auf CDs gepresster und zusammengestellter Software geworden, obwohl sich im Prinzip jedeR die Mühe machen könnte, das Betriebssystem Linux und die umfangreiche Anwendungssoftware selbst aus dem Netz herunterzuladen und manuell auf seinem oder ihrem Rechner zu installieren. Selbst große Computerfirmen wie IBM und Oracle verfolgen inzwischen erfolgreich die Geschäftsidee der Dienstleistungen rund um Linux.
  • Aus "der Sorge über die zunehmende Privatisierung des Wissens" initiierte das Massachusetts Institute of Technology (MIT) vor zwei Jahren das Open Course Ware- Projekt und setzte damit einen ersten Kontrapunkt in dem allgemeinen Run auf die kommerzialisierte Virtuelle Universität der Zukunft. Im Laufe der kommenden zehn Jahre will das MIT Studienmaterialien zu den meisten der rund 2000 Studiengänge und Vorlesungen - Skripte, Klausuren und Video-Vorlesungen - ins Web stellen. Die Nutzung soll für alle frei sein, ausgenommen die kommerzielle Weiterverbreitung. Das erste Kontingent von 30 Unterrichtsprogrammen aus 17 Fachbereichen steht seit dem vergangenen Herbst auf ocw.mit.edu zum Herunterladen bereit; Studierende können das Material ausschlachten, ProfessorInnen für ihre eigenen Vorlesungen verwerten. Die renommierte Lehranstalt in Boston muss keinen Ausverkauf ihres Knowhows fürchten. "Den Grundstein für die Lernprozesse am MIT bilden der Austausch zwischen Lehrenden und Lernenden im Hörsaal, und der unter den Studenten auf dem Campus," heißt es in einer Verlautbarung zu dem Projekt. Die Botschaft ist deutlich: Die Wertschöpfung wird nicht mit dem Verkauf geschützten geistigen Eigentums erzielt, sondern mit der unmittelbar erbrachten Dienstleistung.
  • Bei fortschreitender Konzentration im wissenschaftlichen Verlagswesen übertragen wenige Großverlage ihre monopolistische Preispolitik für hochspezialisierte Zeitschriften auf die digitalen Medien. Die Universitäts- und Institutsbibliotheken wiederum können bei stagnierenden Etats die alljährlichen, überproportionalen Preissteigerungen insbesondere im STM-Bereich (Science, Technology, Medicine) nur mit der Abbestellung einzelner Titel auffangen, so dass sich die Informationsversorgung für WissenschaftlerInnen und Studierende verschlechtert. Wer die Berichte des Bibliotheksausschusses der Deutschen Forschungsgemeinschaft (DFG) und die Geschäftsberichte des STM-Weltmarktführers Reed-Elsevier nebeneinander legt, kann sich einen Eindruck von der Schere zwischen "Private Wealth and Public Poverty" verschaffen. Inzwischen nehmen weltweit ForscherInnen und ihre Fachgesellschaften die Veröffentlichung ihrer Arbeiten zunehmend selbst in die Hand und verbreiten sie über das Netz. Das DFG-Projekt German Academic Publishers (www.gap-c.de) verfolgt das Ziel, eine organisatorische und technische Infrastruktur für die neuen Wege des Publizierens aufzubauen; die Open Archive Initiative (www.openarchives.org) von Bibliotheks- und Wissenschaftsorganisationen sorgt für die international vereinheitlichte Archivierung, damit die Veröffentlichungen auch auffindbar bleiben. In einem Dreisprung von elektronischen Universitätsverlagen, einem weltweiten Peer-to-Peer-System von Forschungsservern und dem Online-Peer-Review von Veröffentlichungen kristallisiert sich in der Wissenschaft eine Alternative zu den herkömmlichen Publikationsprozessen heraus.

Die Herausforderung

Die Informations- und Kommunikationstechnik - Internet und Computer - spielen in diesem Prozess nur die Rolle eines Katalysators. Das neue daran, jedenfalls in dieser geballten Form, ist ein Mechanismus der Rechtsetzung durch Technik. Der amerikanische Rechtswissenschaftler Lawrence Lessig hat ihn auf die treffende Formel "Code is Law" gebracht: "Unser Leben wird zunehmend von Umwelten bestimmt, die kodiert sind - von Instruktionen, die in der Software oder Hardware festgeschrieben wurden."8 Durch Marktmacht etablierte industrielle de-facto-Standards oder in scheinbar apolitischen, internationalen Gremien vereinbarte Normen schaffen weit im Vorfeld jeder öffentlichen Diskussion jene Architekturen, die über den Cyberspace hinaus in das reale Leben hineinwirken und die das Rechtssystem dann nur noch als normative Kraft des Faktischen akzeptieren kann.

WirtschaftswissenschaftlerInnen sollten sich dringend dem blinden Fleck der VerfechterInnen des "geistigen Eigentums" zuwenden und das Augenmerk auf die gesellschaftlichen Transaktionskosten und die Dysfunktionalität eines überzogenen Patent- und Urheberrechtsschutzes richten. Für KartellrechtlerInnen ist möglicherweise schon die Organisationsform der TCPA eine Untersuchung wert, inwieweit hier ein Industriekonsortium vollendete Tatsachen zur Einschränkung des Wettbewerbs schafft. PolitikwissenschaftlerInnen und OrganisationssoziologInnen bietet das Umfeld des Cyberspace ein überaus reichhaltiges Material für Fallstudien, wie gezielter Lobbyismus die formaldemokratischen Entscheidungsmechanismen inhaltlich aushöhlt und aushebelt. All dies sind Aufgaben, die dringend angepackt werden müssten. Ohne die intellektuelle Aufbereitung der weitreichenden Implikationen technisch kodierter Veränderungen, die in kleinen Schritten unterhalb des Wahrnehmungshorizontes bleiben, werden PolitikerInnen und Ministerialbeamte nie in der Lage sein, orientiert an Alternativmodellen den Wandel zu gestalten - selbst wenn sie in Einzelfällen durchaus spüren oder sogar durchschauen, dass hier etwas in die falsche Richtung läuft.

Anmerkungen

1) www.52a.de/inhaltsverzeichnis.htm

2) www.bibliotheksverband.de/dbv/pressemitteilungen/presse26032003.html

3) Boles, Dietrich: Integration von Konzepten und Technologien des Electronic Commerce in digitale Bibliotheken. dissertation.de, Berlin (2002)

4) Science 299 (2003) 821, 1018, 1021.

5) Hendler, James: Science and the Semantic Web. Science 299 (2003) 520

6) www.alcatel.com/finance/reports/2001/20-f/20f.pdf

7) Ein weiteres Beispiel ist Creative Commons, www.creativecommons.org

8) Lessig, Lawrence: The Future of Ideas. Random House, New York 2001


Richard Sietmann ist Wissenschaftsjournalist und Berliner Korrespondent der Computerzeitschrift c’t

Zum Seitenanfang | Druckversion | Versenden | Textversion