/ Buch

Digitaler Überfluss

Die Open-Source-Bewegung

Wer in den Anfangstagen im Usenet aktiv war und die Revolution der freien Information herbeigesehnt hat, mag von der weitgehenden Kommerzialisierung des Internets enttäuscht worden sein. Dennoch haben sich parallel dazu gewisse Ideen aus den Anfangstagen weiterentwickelt und erreichen in unterschiedlichen Bereichen ein zunehmend größeres Publikum.

Als Phil Zimmermann 1991 seine Verschlüsselungssoftware PGP frei zur Verfügung stellt, veröffentlicht er zusammen mit der Software auch den Source Code (auch: Quelltext). Damit steht die Software nicht nur für die kostenlose Verwendung frei zur Verfügung: Zimmermann hat außerdem sämtliche Rechte an seiner Erfindung abgetreten. Jedem steht es frei, Zimmermanns Source Code zu verwenden, abzuändern und die neue Software selber kommerziell zu vertreiben. Jedem steht es frei, Zimmermann geistiges Eigentum zu verwerten.

Was heute unter dem Begriff Open Source etabliert ist, ist älter als das Internet. In den Anfangstagen der Computer wird Software noch als notwendiger Zusatz mit der Hardware ausgeliefert und bezahlt wird für das Gesamtpaket. Neben der kompilierten Software wird auch der Source Code freigiebig herausgegeben. Es ist üblich, dass der User den Source Code nach Bedarf ändert und erweitert und seine eigene, angepasste Variante der Software kompiliert. Der freie Austausch von Ideen und Methoden ist in der akademischen Welt etabliert und so wird auch Software und ihr Source Code freigiebig kopiert und weitergegeben. Im Jahr 1974 wird Software in den USA schließlich in das Copyright einbezogen. Ich besitze nun die Rechte an meinem Code und meiner Software wie an einem Buch, das ich geschrieben habe. Dieser Schritt wird als folgenschwerer Eingriff in das bewertet, was damals freie Software genannt wurde. Gleichzeitig wirkt dieser Schritt logisch und notwendig: In den 1970er Jahren nimmt die Komplexität von Software-Projekten zu und zunehmend eigenständige Programme entstehen. Software ist kein Anhängsel an Hardware mehr, der Vertrieb im Bundle ruft die Kartellbehörden auf den Plan. Das Betriebssystem Unix entsteht, das von AT&T erst kostenlos angeboten wird und in Reaktion auf das gestiegene Interesse in den 1980er Jahren dann kommerziell vertrieben wird. Wer Software-Updates braucht, muss bezahlen. Das Copyright auf den Source Code ist die Grundlage dafür, mit Software Geld zu verdienen.

Der Harvard-Student Bill Gates schreibt 1976 den Offenen Brief an Hobbyisten und verlangt, dass die User seiner Software “Altair BASIC” die fällige Lizenzgebühr zahlen. Er stellt fest, dass es viel positives Feedback für Altair BASIC gibt, gleichzeitig aber kaum einer die Software gekauft hat. Bill Gates verteidigt das Prinzip proprietärer Software: Die Entwicklung muss finanziert werden. Wer Software nutzt, ohne zu bezahlen, hat geklaut. Dafür scheint es in der Szene kein Bewusstsein zu geben. Andere Entwickler stellen ihre Arbeit frei zur Verfügung, müssen das nun aber explizit ausformulieren: Seit 1988 gilt das Copyright standardmäßig, wenn keine abweichende Lizenz zur Software veröffentlicht wird.

Gegen das Copyright für Software formiert sich aktiver Widerstand. Richard Stallman fordert, dass die Freiheit des Users nicht eingeschränkt werden darf. Im Klartext: Der Source Code von Software muss dem User immer zur Verfügung stehen, damit Änderungen vorgenommen werden können. Richard Stallman verkörpert die sogenannte Freie-Software-Bewegung und obwohl “freie Software” nicht bedeutet, dass die Software kostenlos sein soll, haftet dem Begriff und Stallmans Bewegung etwas Anti-Kommerzielles an. Es entsteht das GNU-Projekt: ein Universum freier Software soll entstehen, das alle Bedürfnisse des Users abdeckt, ohne von kommerziellen Angeboten abhängig zu sein. Software wird unter der GNU Public Licence veröffentlicht, der GPL, die bis heute die meistverwendete Lizenz für freie Software ist und die Welt der Software-Entwicklung prägt. Wenn ich unter der GPL veröffentliche, fordert die Lizenz, dass ich auch den Source Code zur Verfügung stelle und dem User erlaube, diesen für eigene Projekte zu verwenden. Der Witz bei der Sache: Diese Projekte müssen dann bei Veröffentlichung aber auch die GPL verwenden. Microsoft nennt die GPL “krebsartig”. Treffender wäre: infektiös, denn mit der GPL verbreitet sich in der Software-Welt die Pflicht, den Source Code offenzulegen.

Teil des GNU-Projekts ist auch Linus Torvalds Linux. Ursprünglich will Torvald mit seinem Beitrag eine Lücke im GNU-Ökosystem schließen: Auf unterster technischer Ebene fehlt noch das sogenannte Kernel des Betriebssystems. Der Erfolg von Linux verselbstständigt sich und das Linux-Betriebssystem wird im Laufe der 1990er Jahre die Nummer 1 auf kommerziell betriebenen Servern. Parallel dazu findet der Erfolg vom proprietären Microsoft Windows auf Home-PCs statt. Die ganze Welt profitiert – von freier und von proprietärer Software. Mittlerweile hat sich Linux allerdings teils von den Zielen des GNU-Projekts entfernt. Aus praktischen Gründen wird mit dem Betriebssystem üblicherweise auch proprietäre Software ausgeliefert – dort, wo freie Software fehlt, um eine runde User-Experience zu bieten. An anderer Stelle blüht aber das GNU-Ideal: Die Entwicklung von Linux ist ein Jeder-darf-mitmachen-Projekt. Genau das wird 1997 von Eric S. Raymond in dem einflussreichen Essay „The Cathedral and the Bazaar“ analysiert: Der radikale Ansatz, der jedem erlaubt hat, mitzuprogrammieren, ist nicht in dem erwarteten Chaos geendet. Stattdessen sind in kürzester Zeit Meilensteine erreicht und Fehler behoben worden. Die freie Kollaboration ist so effizient, dass die Software-Unternehmen nicht wegschauen können. Die Firma Netscape, damals als Entwickler des populären Web-Browser bekannt, veröffentlicht mit Erfolg den Source Code ihrer wichtigsten Software, dem Netscape Communicator, um zukünftig von Beiträgen durch die Community profitieren zu können. Umgekehrt will die Entwickler-Community nur zu gerne mit den profitorientierten Firmen zusammenarbeiten. Die Fundamentalopposition gegen kommerzielle Software ist in der Minderheit. Rufe nach einem neuen Image, einem Rebranding der “freien Software” werden laut. Auf zwei Events im Jahr 1998 entsteht der Begriff Open-Source-Software und stößt auf viel Anklang. Die neue Namensgebung signalisiert Offenheit gegenüber den Interessen der Firmen und man distanziert sich erfolgreich von Stallmans anti-kommerziellen Aktivismus. Mit „Open Source“ wird ein pragmatisches Entwicklungsmodell beworben.

Seitdem hat sich viel getan. Für Programmierer sind Hilfsmittel entstanden, die das gemeinschaftliche Programmieren noch einfacher und effizienter machen. Diese Tools bilden eine frei verfügbare Infrastruktur für Software-Entwicklung im Open-Source-Modell. Die Hürde für offene Kollaboration ist so niedrig wie noch nie. Das gemeinsame Programmieren über Internet nennt sich „social coding“ und auf github.com, der größten Social-Coding-Plattform, befinden sich weit über 10 Millionen Projekte.

Aus Business-Sicht bleiben aber die offensichtlichen Herausforderungen: Wenn der Source Code meiner Software frei verfügbar ist, wie kann ich dann als Software-Schmiede überhaupt Geld verdienen? Ein verbreitetes Modell funktioniert durch das kostenpflichtige Angebot von Services (Beratung und Training) um die Software. In anderen Fällen wird mit dem Kauf der Software Rechtsschutz und Garantien geboten. Außerdem wird ein Hybrid-Modell populär: Es gibt neben der GPL auch weniger einschränkende Lizenzen, die mir erlauben, die Arbeit anderer für mein Projekt zu nutzen, ohne dass ich selber gezwungen bin, meinen Source Code frei zur Verfügung zu stellen. Das gilt in der Open-Source-Welt nicht als Verrat, sondern ist in den Augen vieler das maximale Maß an Freiheit, das man für Softwareentwicklung erreichen kann. Es steht mir frei, die Arbeit anderer für meine Zwecke zu verwerten, kommerziell oder nichtkommerziell. Auch ohne meinen Source Code zu veröffentlichen, gebe ich etwas an die Community zurück, dadurch dass ich in der Arbeit anderer Mängel und fehlende Funktionen aufdecke.

In der Open-Source-Welt lebt der Geist des All Access, der freien Verfügbarkeit von Informationen, möglich gemacht durch das Internet. Das Open-Source-Modell ist eine von mehreren Alternativen der Software-Entwicklung – ohne zu moralisieren. Wer dogmatisch am Urheberrecht festhält, kann nicht im vollem Umfang von der Community profitieren und verpasst möglicherweise eine Chance.

File Sharing

Ein weniger freundliches Willkommen gibt es für eine Unterwanderung geistigen Eigentums ganz anderer Art. Seit den ersten Tagen des Internets und schon mit dem Usenet werden online digitale Inhalte verbreitet, darunter auch urheberrechtlich geschütztes Material, was das Kopieren illegal macht. Mit wachsender Bandbreite der Datenleitungen und dem Aufkommen effizienter Dateiformate wird dieses File Sharing extrem populär. Heute ist File Sharing nach Schätzungen für mehr als die Hälfte des gesamten Internet-Traffics verantwortlich. Eine Pionierleistung in dem Bereich gelingt im Juni 1999: Durch Download der Software Napster kann jeder seinen PC automatisch nach Musikdateien im MP3-Format durchsuchen lassen und diese anderen Usern kostenlos zur Verfügung zu stellen. Dienste dieser Art werden etwas ungenau auch “Tauschbörsen” genannt – ungenau, weil nicht getauscht, sondern vervielfältigt wird.

Die moralischen Aspekte beim Kopieren urheberrechtlich geschützten Materials im Internet werden nach wie vor heiß diskutiert. Gegen die radikale Absage an alles geistige Eigentum spricht die moralische Intuition, die schon Bill Gates in seinem Offenen Brief an Hobbyisten formuliert hat: Der Autor will zu Recht vom Konsumenten für das Produkt seiner Arbeit bezahlt werden. Gegner der heutigen Auslegung des Urheberrechts verweisen darauf, dass die Geschichte menschlicher Kultur ultimativ die Geschichte von der Verbreitung und Weiterentwicklung von Ideen ist. Darüber hinaus hätten die großen Produktionsfirmen die Interessen der Künstler als Letztes im Sinn und würden schlicht ihre Marktmacht sichern wollen. Mit sogenannten Aufklärungskampagnen warnen die Produktionsfirmen die Bevölkerung reißerisch vor „Diebstahl“ und „Raubkopien“. Die moralische Bewertung des unerlaubten Vervielfältigens ist auch zu einem Kampf um Begriffe und ihre Bedeutung geworden.

Ganz unphilosophisch findet die rechtsstaatliche Verfolgung der File-Sharing-Services statt. Napster muss sein Angebot nur zwei Jahre nach der Gründung nach mehreren Klagen aus der Musikindustrie einstellen. Alternativen zu Napster tauchen auf, werden verklagt und müssen schließen. Der spektakulärste Fall ereignet sich im Januar 2012: Die Website megaupload.com wird vom FBI geschlossen, das Grundstück des Gründers Kim Dotcom in Neuseeland wird von 76 Polizisten gestürmt, sein Besitz wird beschlagnahmt, Kim Dotcom wird verhaftet.

Den offensichtlichen Rechtskonflikten zum Trotz wächst die File-Sharing-Szene weiter. Es entstehen eDonkey2000, Gnutella und Freenet. Um der Zwangsschließung zu entgehen, entwickeln die Services Einfallsreichtum. Schon längst werden Serverstandorte strategisch gewählt, um von Ländern mit günstiger Rechtslage zu profitieren. Aber auch auf der organisatorischen Ebene findet eine Evolution statt. Megaupload.com war ein typischer Service des kommerziellen Internets mit einem kommerziell betriebenen Server, der Dateien für User zum Download zur Verfügung stellt. Die hohen Downloadraten wurden maßgeblich durch Werbung finanziert. Napster funktionierte dagegen dezentral: Es waren am Ende die einzelnen Computer der User, die miteinander verbunden waren. Der Austausch von Daten lief nicht über Napsters Server, sondern von User zu User – das Prinzip nennt sich peer-to-peer. Bei der Schließung spielte die koordinierende Funktion des Napster-Servers die entscheidende Rolle: Gemäß dem Gerichtsurteil wurde Napster zwar nicht unterstellt, selber urheberrechtliches Material vervielfältigt zu haben, aber Napster hätte die Dateien, die die User kopiert haben, dahingehend kontrollieren müssen.

Aus Sicht der unbelehrbaren File-Sharing-Szene stellt sich die Frage nach der nachhaltigsten Struktur. Megaupload.com war kommerziell, zentralisiert und schnell. Der Gegenentwurf dazu heißt Gnutella und funktioniert konsequent dezentral. Es gibt keinen koordinierenden Server im Napster-Stil und keinen Besitzer oder Verantwortlichen. Wenn ich mitmachen will, lade ich eine Gnutella-Software herunter – einen sogenannten Client. Der erste verfügbare Gnutella-Client existiert nur für drei Monate. Die Firma AOL besitzt die Rechte an der Software und setzt dem Projekt aufgrund rechtlicher Bedenken ein Ende. Das Gnutella-Netzwerk ist davon unbeeindruckt. Nur kurze Zeit später stehen Clients in unterschiedlichen Varianten von unabhängigen Entwicklern zur Verfügung. Das definierende Merkmal dieser Clients ist deren Kompatibilität: Sie alle implementieren das Gnutella-Protokoll und bilden zusammen das Netzwerk, in dem schließlich die Dateien kopiert und verteilt werden. Alle beteiligten PCs sind gleichberechtigt und prinzipiell anonym. Es gibt keine Abhängigkeit von einem zentralen Server, noch nicht einmal eine konkrete Software. Es gibt nur das Protokoll, das die Regeln der Kommunikation festschreibt, und die individuellen PCs, die in dem Netzwerk die Knotenpunkte sind.

Das derzeit größte und erfolgreichste File-Sharing-Netzwerk heißt „BitTorrent“ und ist ein geistiger Nachfolger von Gnutella. Gemäß Schätzungen gibt es 250 Millionen aktive User. BitTorrent baut genauso auf ein dezentrales Netzwerk aus prinzipiell anonymen Teilnehmern, von denen jeder Einzelne verzichtbar ist. Obwohl der Erfolg von BitTorrent nicht jedem gefällt: BitTorrent abzuschalten ist praktisch unmöglich – weder durch einen Hacker-Angriff noch durch eine behördliche Maßnahme wäre viel zu erreichen. Das Netzwerk ist über die ganze Welt verteilt, ein zentraler Angriffspunkt existiert nicht. Dadurch ist BitTorrent als File-Sharing-Protokoll zu einem festen Bestandteil des Internets geworden. Es werden nicht nur urheberrechtlich geschützte Inhalte illegal verbreitet. Kleine Organisationen und Einzelpersonen profitieren von der Möglichkeit, Daten mit hoher Bandbreite zur Verfügung zu stellen, ohne dafür selber einen Server finanzieren zu müssen. Die Last verteilt sich unter den vielen Usern im BitTorrent-Netzwerk, die die Inhalte schließlich herunterladen.

BitTorrent steht an der Spitze einer Entwicklung zur uneingeschränkten Verfügbarkeit digitaler Informationen im Internet. Aufgrund der zwangsläufigen Konflikte mit dem Rechtsstaat ist ein Netzwerk entstanden, dass sich dem legalen Zugriff systematisch entzieht. BitTorrent inspiriert wohl den Namen einer Erfindung, bei der es um etwas ganz anderes geht: Bitcoin setzt auch auf die Idee eines unzerstörbaren dezentralen Netzwerks und ist der Name des ersten virtuellen knappen Guts in der Geschichte des Internets.

Weiterlesen Virtuelle Knappheit

Du bist hier Digitaler Überfluss

Voriger Artikel Das kommerzielle Internet

Zurück zur Inhaltsübersicht