Web 2.0 Applikationen zeichnen sich dadurch aus, dass sie sich die kollektive Intelligenz zu nutze machen, dass sie netzwerkfähige interaktive Dienste anbieten und dass sie darüber hinaus Nutzern Kontrolle über die eigenen Daten geben.
Mary Madden und Susannah Fox beschreiben in einer »Pew Internet« Studie, warum der Begriff Web 2.0 gerechtfertigt ist:
»That the term has enjoyed such a constant morphing of meaning and interpretation is, in many ways, the clearest sign of its usefulness. This is the nature of the conceptual beast in the digital age, and one of the most telling examples of what Web 2.0 applications do: They replace the authoritative theft of traditional institutions with the surging wisdom of the crowds.«1
Immer mehr Firmen nutzen das Schlagwort Web 2.0, um ihre Marktfähigkeit unter Beweis zu stellen. Dale Dougherty, der Vizepräsident von O’Reilly, schlug den Begriff im Jahre 2004 als Titel für eine Konferenzreihe vor. Tim O’Reilly hat aufgrund der weitläufigen Verwendung des Begriffes auf der Internetseite seines Verlages die Kernkompetenzen von Web 2.0 Firmen zusammengefasst und erläutert. Dabei ist seine Sichtweise auf die ökonomischen Möglichkeiten der sozialen Internet-Gemeinschaft ausgerichtet.2
Es handele sich so laut O’Reilly bei den heute erfolgreichen Produkten von Software-Firmen eher um Dienste, die für Nutzer zur Verfügung gestellt werden, als um Software, die als Ware verkauft wird. Als Beispiel für die Unterschiede zwischen Software als Produkt und Software als Dienst nennt O’Reilly Google:
»Google … began its life as a native web application, never sold or packaged, but delivered as a service, with customers paying, directly or indirectly, for the use of that service. … No scheduled software releases, just continuous improvement. No licensing or sale, just usage. No porting to different platforms so that customers can run the software on their own equipment, just a massively scalable collection of commodity PCs running open source operating systems plus homegrown applications and utilities that no one outside the company ever gets to see.«3
Bisher konnten Webanwendungen mit der Reichhaltigkeit und Ansprechbarkeit von Desktop-Programmen nicht konkurrieren. Jesse James Garrett von Adaptive Path veröffentlichte 2005 einen Artikel über AJAX (Asynchronous Java Script and XML), welches es ermöglicht, die Benutzerführung für Webanwendungen der von Desktop-Programmen anzupassen. Die Dienste »Gmail« und »Google-Maps« zeigen dabei, wie diese neuen Anwendungen aussehen können. Durch AJAX wird bei HTTP-Anfragen an den Server nicht länger die Interaktion des Nutzers mit der Anwendung unterbrochen. Mit der Ajax-Engine wird eine Station zwischen Client und Server geschaltet, die über JavaScript läuft. Diese ist zuständig für die Darstellung der Benutzeroberfläche und der Kommunikation mit dem Server.4
Garrett beschreibt die Funktionsweise von AJAX weiter:
»Jede Benutzeraktion, die normalerweise einen HTTP-Request zur Folge hat, nimmt stattdessen die Form eines JavaScript-Aufrufes an die Ajax-Engine an. Jede Reaktion auf eine Benutzeraktion, die nicht unbedingt eine Anfrage an den Server erfordert (z.B. Datenvalidierung, Datenbearbeitung im Speicher, einfache Navigation), bearbeitet die Engine selbst. Wenn die Engine für die Antwort etwas vom Server benötigt (sei es für die Weiterverarbeitung von Daten, das Nachladen von weiterem Interface-Code oder das Abfragen aktualisierter Daten), geschieht dies assynchron mittels XML, ohne dass die Interaktion zwischen User und Anwendung gestört wird.«5
Durch AJAX wird die Vernetzung und Kollaboration der Internetnutzer in immer komplexeren Anwendungen auf Internetbasis möglich. So nutzen Flickr also Fotografie-Plattform und neue Google-Dienste die Technologie.
Der schnelle Markteinstieg bei Internet-Firmen ist von Vorteil, da sobald eine kritische Menge an Nutzern erreicht ist, Konkurrenten nur schwierig auf dem Markt bestehen können. Dies wird am Beispiel eBay sichtbar. Je mehr Nutzer ihre Waren auf der Plattform anbieten, desto größer ist die Chance, dass andere Nutzer auf der Suche nach Waren fündig werden. Der Wert eines gruppenbildenden Netzes steigt für den individuellen Nutzer gemäß Reed’s Law proportional zur Nutzerzahl und der Nutzungshäufigkeit dieses Netzes. 6
Insgesamt wird durch die Bildung von Communities auf das Erreichen eines großen Teils der Internetnutzer abgezielt. Dies hat jedoch nichts mit dem Massenpublikum gemein, sondern wird durch das Phänomen »Long Tail« beschrieben, dass der Chefredakteur der Zeitschrift »Wired« Chris Anderson in seinem Buch ausführlich analysiert hat.7 Dabei zerfällt der Massenmarkt in unzählige Nischen, die durch die Vernetzung günstiger und leichter als je zuvor zu erreichen sind. Die Verkäufe der Unternehmen sind im Internet nicht mehr nur auf die Hits und Topseller ausgelegt, die von vielen konsumiert werden, sondern auf die Nischenprodukte, von denen immer nur ein paar verkauft werden, von denen es aber so viele gibt, dass sie laut Anderson dem Massenmarkt Konkurrenz machen. 8
Anderson schreibt über das Phänomen:
»Bei genauerem Nachdenken fällt auf, dass die erfolgreichsten Internetunternehmen auf die eine oder andere Weise vom Long Tail profitieren. Google zum Beispiel verdient bei seinen Werbekunden nicht mit den großen Konzernen am meisten, sondern mit den Anzeigen der kleinen Unternehmen. … Indem diese Unternehmen die Beschränkungen von Geografie und des Angebots überwanden, haben sie nicht nur bestehende Märkte erweitert, sondern, und das ist viel wichtiger, völlig neue Märkte erschlossen. Mehr noch, die neuen Märkte, die außerhalb der Reichweite herkömmlicher Einzelhändler liegen, sind weitaus größer als erwartet – und sie wachsen immer weiter.« 9
Dabei ist der Begriff »Long Tail« nicht nur auf die Vielzahl kleiner Unternehmen beschränkt sondern meint auch die Vielzahl der Websites im Internet, über die zum Beispiel Google Adsense an den Inhalt der Seite angepasste Werbung schaltet. So werden bei Weblogs sogenannte A-Blogs, die den Großteil der Leser-Aufmerksamkeit auf sich ziehen und die Vielzahl an kleinen Blogs unterschieden, die nur ein kleines spezielles Publikum oder auch nur einzelne den Bloggern bekannte Personen erreichen.10
Auch im Zusammenhang mit den partizipativen Medien ist der Long Tail von Bedeutung. Anderson spricht in Anlehnung an Karl Marx von der Demokratisierung der Produktionsmittel. Durch kostengünstige Software und Dienste könnten auch Amateure und nicht mehr nur Experten Musik oder Filme zu produzieren, oder eigene Publikationen veröffentlichen. Der Long Tail kann also als beschreibendes Prinzip für die Generierung und Veröffentlichung von Inhalten durch Amateure im Internet verwendet werden. Die Motivation erklärt Anderson als Liebe zur Sache. Denn der Begriff Amateur, der auf das lateinische amator zurückgeht, bedeute soviel wie »Liebhaber«.11
O’Reilly sagt, dass Web-Dienste im Web 2.0 als intelligente Vermittler auftreten, die Nutzer verbinden, ihre Ressourcen bündeln und wieder zur Verfügung stellen. Auch das Vertrauen in die Nutzer als Mitentwickler und die Nutzung der kollektiven Intelligenz betont O’Reilly, womit die Stärken der freiwilligen Software-Entwicklung auf der Basis einer breiten Anwenderschicht im Netz Einzug halten. O’Reilly nennt hier den Unterschied zwischen dem Online-Buchversand Amazon und seinen Konkurrenten. Alle Online-Buchdienste verkaufen dieselben Produkte und nutzen dieselben Produktbeschreibungen. Den Unterschied macht die Nutzerbeteiligung – der sogennante »user created content« bei Amazon und anderen Web-Diensten aus. 12 Die Nutzer bewerten Produkte, schreiben Rezensionen und die gespeicherten Daten der Nutzer-Einkäufe werden verwendet, um diesen und anderen potenziellen Käufern Vorschläge zu machen.
Eine weitere Form der Nutzerbeteiligung ist das »Tagging«, die das Verschlagworten oder auch Indizieren von Inhalten durch Nutzer. vergeben zum Beispiel die Nutzer der Foto-Community Flickr bestimmte Stichworte für ein Foto. Diese Form der Vernetzung vereinigt kollektive Intelligenz mit intuitiver Benutzerführung. Das Bild eines Welpen kann so zum Beispiel unter dem Stichwort »Tier« oder unter »süß« gefunden werden. Eine Kombination der Tags führt schnell zum gewünschten Ergebnis. Auch »Social Bookmarking« Dienste wie zum Beispiel del.icio.us arbeiten nach diesem Schema. Hier werden Lesezeichen mit Stichworten versehen und auch durch die Nutzer bewertet. Tags werden außerdem indirekt benutzt, um die Blogosphäre nach bestimmten Themen zu durchsuchen. Dabei werten Blogsuchmaschinen wie Technorati Links mit der Markierung rel=“tag“ aus. Auch innerhalb von Blog-Communities werden Tags genutzt, um Inhalte zu indizieren.13
Die Wertschöpfung verlegt sich gemäß O’Reilly immer mehr auf die Ebene der Daten. Für Google und andere Webdienste seien Kompetenzen im Bereich Datenbankmanagement für die Konkurrenzfähigkeit ausschlaggebend. Die Daten, die direkt oder indirekt durch Nutzer generiert werden, sind für andere Nutzer eine exklusive Informationsquelle, die andere Anbieter nicht zur Verfügung stellen können. Das Sammeln dieser Daten durch spezialisierte Datenbanken und die Bereitstellung für die Nutzer macht die Stärke der neuen Dienste aus. Dabei müssen die Datenbanken ständig aktualisiert werden, um im Konkurrenzkampf bestehen zu können. So muss Google ständig seine Datenbank an erreichbaren Websites aktualisieren. Und es werden außerdem auch immer neue Dienste innerhalb der Google-Website angeboten. Das Beta Zeichen auf vielen Websites ist Ausdruck dieser permanenten Weiterentwicklung von Diensten.14
Die Basis der Einbeziehung des Nutzers in die Entwicklung des Dienstes, in die Schaffung von Inhalten und die Bereitstellung von Plattformen, auf denen sich Gleichgesinnte treffen können, hat mit der Einfachheit der Bedienung und der kostenlosen Bereitstellung der Dienste das Internet zu einem Medium der Teilnahme gemacht. »Social Software« oder »Groupware« ist Bestandteil des Netzes geworden und ändert die Nutzungsgewohnheiten der Anwender. Vanessa Diemand beschreibt Social Software so:
»Der Mensch als Anwender bildet das Zentrum des Web 2.0; die Technik scheint ihm nicht mehr vorauszueilen, sondern wird entsprechend seinen Bedürfnissen entwickelt. Auch der Begriff der ›Social Software‹ unterstützt die Annahme, dass das Web 2.0 nicht länger ein un-greifbares, virtuelles Nirgendwo ist, sondern ein Gesicht erhalten hat. Weblogs und kollaborative Plattformen wie Flickr und MySpace werden unter dem Begriff der ›Social Software‹ zusammengefasst. Sie ist ›sozial‹ im Sinne von ›wohltätig‹, da sie zumeist eine kostenfreie Nutzung und einfache Handhabung erlaubt. In einem ›die Gemeinschaft betreffenden‹ Sinne ist sie ›sozial‹, da sie den interaktiven Austausch und die – mit der wachsenden Teilnehmerzahl steigende – Vernetzung von personalisierter Information und Kommunikation ermöglicht.«15
Doch der Beitrag eigener Daten setzt nicht voraus, dass die Nutzer über diese auch die Kontrolle haben. Google speichert so zum Beispiel die Suchanfragen von Nutzern. Im Bezug auf partizipative Medien dementsprechend darauf zu achten, ob die Nutzer Rechte an generierten Inhalten besitzen oder sie an die Firmen abtreten, die ihre Inhalte publiziert. In diesem Zusammenhang ist die Creative Commons Bewegung zu nennen, auf die im nächsten Kapitel weiter eingegangen wird. Sie stellt die generierten Inhalte unter eine Freie Lizenz, die vergleichbar ist mit der GPL-Lizenz der freien Software.16
Neben »Social Software« werden als Beispiel für das Phänomen Web 2.0 oft die Blogosphäre und ihre Vertreter, die Blogger genannt. Blogs für sich genommen sind nur Websites einzelner Internet-Nutzer. Durch verschiedene Techniken der Verlinkung, des Abrufens von Inhalten und der Kommentarfunktionen, vernetzen sich diese einzelnen Seiten jedoch zur Blogosphäre, die theoretisch die Möglichkeit hat, ein breites Publikum auf bestimmte Themen aufmerksam zu machen.
Erik Möller beschreibt diese Art der Vernetzung in seinem Buch »Die heimliche Medienrevolution« als Syndication und Aggregation:
»Als Syndication bezeichnet man die Integration von Inhalten eines Blogs in ein anderes, in der Regel beschränkt auf Schlagzeilen. Aggregation ist die Zusammenführung von Inhalten zu einem Thema auf einer Seite oder in einer Applikation.«17
Die Technik des RSS (Really Simple Syndication oder Rich Site Summary) erlaubt es eine Website zu abonieren. Sie wurde von David Winer in Zusammenarbeit mit Netscape entwickelt. Abonnementen der sogenannten RSS-Feeds werden in Feed-Readern – Software, die Feeds anzeigt – dabei über jede Änderung auf der Seite informiert. So können Schlagzeilen einer Nachrichten Website genauso abonniert werden, wie Fotogalerien der Foto-Community Flickr. Bekanntheit hat diese Funktion durch sogenannte Pod- und Videocast erlangt, die auf den iPod – einen portablen MP3- und Videoplayer – heruntergeladen werden können.18
Trackback ist eine der Techniken, die der Vernetzung verschiedener Blogs dienen. Dabei wird im eigenen Blog eine automatisch generierte Liste, der Blogs angezeigt, die auf den betreffenden Eintrag verweisen. Trackbacks werden durch eine spezielle URL aktiviert, die vom zitierenden Blogger eingegeben werden muss oder automatisch erkannt wird. Durch Abruf dieser Trackback-URL aktualisiert sich der zitierte Blog und fügt die Zitate in eine Liste ein.19
RSS und Trackback werden durch sogenannte Permalinks ermöglicht, Möller beschreibt sie so:
»Dabei handelt es sich um Adressen (URLs), die auf einzelne, spezifische Beiträge im Blog zeigen und sich auch nicht nachträglich ändern. Ohne Permalinks wäre eine stabile Vernetzung der Blogosphäre unmöglich.«20
Die Entwicklung des Internets hin zu Partizipation und Kommunikation ist nicht erst durch das Web 2.0 entstanden, sondern wohnt dem Internet durch seine Netz-Struktur inne. Im Web 2.0 sind persönliche und kollaborative Medien nun durch ihre einfache Bedienbarkeit und den kostenlosen Zugang einer breiten Anwenderschicht zugänglich gemacht worden. Realisieren die Nutzer die damit zusammenhängenden Vorteile, kann durch die neuen Applikationen eine Emanzipation des Publikums erfolgen, die schon im Bereich der Konsumenten zu beobachten ist.
1 Madden; Fox 2006: S. 2
2 Vg. Diemand 2007: S. 59, Vgl. O’Reilly 2005: http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html
3 O’Reilly 2005
4 Vgl. Garrett 2006: http://twozero.uni-koeln.de/content/e174/index_ger.html
5 Garrett 2006
6 Vgl. Rheingold 2002: S. 58, Vgl. Möller 2006: S. 208
7 Vgl. Anderson 2007
8 Vgl. Anderson 2007: S. 18 ff.
9 Anderson 2007: S. 26 f.
10 Vgl. Neuberger; Nuernbergk; Rischke 2007: S. 188
11 Vgl. Anderson 2006: S. 74 ff.
12 Vgl. O’Reilly 2005
13 Vgl. Möller 2006: S. 154 f., Vgl. O’Reilly
15 Vgl. Diemand 2007: S. 60
16 Vgl. Madden; Fox 2006: S. 1
17 Möller 2006: S. 150
18 Vgl. O’Reilly 2005, Vgl. Diemand 2007: S. 61, Fussnote 2
19 Vgl. Möller 2006: S. 148 f., Vgl. Diemand 2007: S. 61, Fussnote 2
20 Möller 2006: S. 149
Dieses Werk ist lizenziert unter Creative Commons Namensnennung-NichtKommerziell 4.0 international.