Grundlagen der Webpublikation, Begleittext 2: Infrastrukturen des World Wide Web, Webstandards, W3C-Empfehlungen

Damit ein weltweit (oder besser: erdweit) verteiltes Netzwerk, wie es das World Wide Web (WWW) als Teil des umfassenderen Internets darstellt, funktionieren kann, müssen unabdingbar einige Grundvoraussetzungen erfüllt sein, die sich um so vermeintlich disparate Faktoren wie Technologie und Software, Institutionen und Organisationen, Auszeichnungs- und Skriptsprachen (etc.) gruppieren lassen. Der folgende Überblick will diesen komplexen Zusammenhang jedoch nicht im Einzelnen analysieren, sondern einige Knotenpunkte daraus in einer schlaglichtartig gerafften Form präsentieren.

1Infrastrukturen des World Wide Web

1.1Technologien und Software

Die Geschichte des World Wide Web, die so untrennbar mit dem Namen von Tim Berners-Lee verbunden ist, hat bekanntlich selbst wiederum eine Vorgeschichte in der Evolution des Internets, das 1969 mit der Vernetzung von vier universitären Großrechnern (Stanford, Los Angeles, Santa Barbara und Utah) zum Arpanet gleichsam handgreiflich Gestalt angenommen hatte. Wichtig für die Frühgeschichte des Internets, die übrigens nicht nur in zeitlicher Nähe zur Entwicklung des Betriebssystems Unix verlief, wurden insbesondere die Etablierung des Netzwerkprotokolls TCP/IP (1983) und die Einführung des datenbankförmigen Domain-Name-Systems (DNS, seit 1984), das die Umsetzung von Domain-Namen in (nummerische) IP-Adressen regeln sollte.

Die Struktur des Internets, das sich vor der Erfindung des World Wide Web bereits in Telnet-, FTP-, Netnews- und E-Mail-Dienste ausdifferenziert hatte, ist durch eine grundlegende Dezentralität charakterisiert, so dass die Datenpakete, in die die einzelnen Kommunikationsakte beim Versenden zerlegt werden, sich gleichsam selbstständig den gangbarsten Weg zum Adressaten, bei dem sie wieder zusammen gesetzt werden, suchen können. Als Netzwerk von Netzwerken prinzipiell hierarchiefrei organisiert, wird das Internet allerdings erst operabel über einen Mechanismus, der als Routing bezeichnet wird und durch den es möglich wird, die einzelnen Rechner, die an der allgemeinen Kommunikation teilnehmen, zu bestimmen und zu verorten.

Die einzelnen Austauschvorgänge, die den Ablauf der Netzkommunikation bestimmen, laufen über sogenannte Protokolle, die teils selbst wieder auf anderen Protokollen aufsitzen (wie z.B. das E-Mail-Protokoll SMTP auf TCP/IP). In Protokollen werden die syntaktischen und semantischen Regeln fest gelegt, nach denen die am Netzgeschehen beteiligten Instanzen miteinander kommunizieren können. Das Protokoll, mittels dessen die Daten im World Wide Web übertragen werden und das der sogenannten Anwendungsschicht (application layer) des Netzwerkmodells angehört, ist das Hypertext Transfer Protocol (HTTP), das 1989 von Tim Berners-Lee zusammen mit der ersten Version der Auszeichnungssprache HTML, dem ersten Webserver »httpd« und dem ersten Webbrowser und -editor namens WorldWideWeb entwickelt wurde.

Die Kommunikation im und übers Web folgt grundsätzlich dem Client-/Server-Prinzip: Ein Client (Kunde, Nutzer), d.h. meist ein Webbrowser, sendet eine Anfrage bzw. eine Anforderung (Request) an einen Server (Anbieter), der wiederum als Antwort (Response) die benötigten Dokumente oder Dateien zurück schickt, so dass der Client diese aufnehmen und darstellen kann. Anforderung und Antwort nutzen dabei das bereits erwähnte HTTP-Protokoll, in das sie wie in einen Briefumschlag, der den beteiligten Parteien die jeweils entscheidenden Übertragungsmodalitäten mitteilt, eingepackt werden. Das HTTP-Protokoll stellt darüber hinaus eine Vielzahl weiterer Funktionen zur Verfügung, von denen hier nur das Setzen von Cookies, die Verschlüsselung der Übertragung (mittels HTTPS) und die Ausgabe von Fehlermeldungen (wie etwa »Error 404: Seite nicht gefunden«) erwähnt seien.

Fest zu halten bleibt zudem noch, dass ein »Webserver« zunächst nichts anderes als ein Computerprogramm ist, das die für den Datenaustausch nötigen Prozesse steuert und abwickelt. (Daneben findet der Begriff allerdings auch – geradezu klassischer Fall einer Metonymie – Verwendung für meist besonders leistungsfähige Rechner, die auf servertypische Spezialanforderungen getrimmt sind.) Werden nun auf einem Webserver (wie dem Apache-Server, um den wohl bekanntesten Namen zu nennen) weitere geeignete Programme, z.B. ein Datenbankserver (wie MySQL oder PostgreSQL), und zusätzlich eine oder mehrere Skriptsprachen (PHP, Ruby, Python, Perl) installiert, ergibt sich die Möglichkeit, nicht nur statische, sondern auch dynamische Webinhalte auszugeben. Webanwendungen, die diese serverseitigen Technologien nutzen, bedienen sich zur Generierung einzelner Webseiten im Allgemeinen verschiedener Methoden des sogenannten Content Management, d.h. sie erzeugen die Webinhalte zumeist aus Datenbankabfragen, deren Ergebnisse in Seitencontainer oder Seitentemplates eingespeist werden. Der so entstandene Output wird dann wieder als »normale« – mehr oder minder valide – (X)HTML-Seite an den Browser übergeben und kann von diesem wie gehabt dargestellt werden.

1.2Organisationen

Wenn den technologischen Prozessen selbst auch ein nicht zu unterschätzender Zug zur Vereinheitlichung, ohne den kein Austausch möglich wäre, inne wohnt, müssen doch zusätzlich bestimmte institutionelle Rahmenbedingungen gegeben sein, soll der Geltung von Standards und der Organisierbarkeit von (Netz-)Räumen eine tragfähige Basis verschafft werden. Neben den grundlegenden Protokollen für den Datenaustausch, die allgemein anerkannt oder zumindest ineinander übersetzbar sein müssen, wenn Rechner miteinander kommunizieren sollen, ist dabei insbesondere an jene Bereiche zu denken, die die Erstellung von Webseiten und die Verwaltung der Internet-Adressen und Webdomains betreffen.

An erster Stelle ist hier das World Wide Web Consortium (W3C) zu nennen, das sich die Entwicklung der Webstandards und der Webrichtlinien auf die Fahnen geschrieben hat. Gegründet von Tim Berners-Lee im Jahr 1994, und zwar am Laboratorium für Computerwissenschaft des MIT in Boston und in Zusammenarbeit mit dem CERN und anderen Institutionen, hat das W3C seitdem entscheidenden Einfluss auf die Erringung von Interoperabilität im Web genommen. Das W3C ist ein internationales Industriekonsortium, das sich aus sogenannten Mitgliedern (wissenschaftlichen und anderen Organisationen, IT-Firmen, Einzelpersonen) und einem vollzeitbeschäftigten Expertenteam zusammen setzt, deren Aufgabe es ist, Technologien zu entwerfen, die die zukünftige Entwicklung des Webs sichern, und zwar in einer von Herstellerinteressen unabhängigen und somit offenen Form, zielend auf ein »Web für jedermann«. Da das W3C keine durch zwischenstaatliche Verträge etablierte Institution wie z.B. die ISO ist, werden die in meist langwierigen Diskussionsprozessen ausgearbeiteten Dokumente des Konsortiums auch etwas zurückhaltend unter dem Titel »W3C Recommendations« geführt, was aber nichts daran ändert, dass ihnen durchaus verbindlicher Rang zukommt.

Die Organisation, die für die Verwaltung der Top-Level-Domains (.com, .de, .org, etc.) und der IP-Adressen (der Webadressen in ihrer nummerischen Grundform) zuständig ist, ist die in Kalifornien ansässige International Corporation for Assigned Names and Numbers (ICANN), eine privatrechtlich verankerte Non-Profit-Einrichtung, die jedoch zugleich dem US-Handelsministerium untersteht. Dass die Regierungen der am Web beteiligten Länder in der ICANN nur beratenden Status haben, der US-Regierung hingegen eine vertraglich gesicherte Sonderrolle zukommt, ist auf internationalen Konferenzen zur Gestaltung des Web – wie dem von der UNO initiierten Weltgipfel zur Informationsgesellschaft (WSIS) – zwar immer wieder kritisch debattiert worden, eine Änderung des Kontrollzugriffs konnte bisher allerdings nicht durchgesetzt werden.

In Deutschland werden die Domains, die sich unterhalb der Top-Level-Domain .de befinden, von der DENIC, dem Deutschen Network Information Center, registriert und verwaltet. Alle Anmeldevorgänge für Webadressen mit deutschem Länderkürzel (wie z.B. http://parataktika.de) laufen über das automatisierte Registrierungssystem dieser eingetragenen Genossenschaft (eG). Der Anmeldeauftrag wird entweder direkt bei der ohne Gewinnerzielungsabsicht arbeitenden DENIC eG gestellt oder von dem Internetprovider, bei dem man seinen Webspace bucht, an diese weiter geleitet (was in der Regel deutlich kostengünstiger ist). Die DENIC stellt zudem einige weitere Dienste zur Verfügung, darunter einen Whois-Service, über den die Daten der Inhaber und Verwalter der einzelnen Domains abgefragt werden können.

2Webstandards und W3C-Empfehlungen

2.1Zur Frage der Webstandards

Das verpflichtende Moment, das von den Empfehlungen des W3C für den Einsatz der verschiedenen Webtechnologien ausgeht, wird nicht nur von den Herstellern von Websoftware (Browsern, Webdesign-Programmen, etc.) immer wieder umgangen oder schlicht ignoriert, sondern auch von denjenigen, die real Webseiten schreiben, häufig genug nur unzureichend berücksichtigt. Die Exzesse im Einsatz von Tabellen zu reinen Layoutzwecken – was vom W3-Konsortium als Missbrauch des Tabellen-Elements gebrandmarkt wird – sind noch längst nicht Vergangenheit. Zugleich sind sie als Indiz für eine weit verbreitete Unbekümmertheit im Umgang mit primär strukturell gedachten HTML-Elementen, die allzu schnell einfachen Präsentationszwecken dienstbar gemacht werden, zu werten.

Hinzu kommt, dass die real existierenden Browser immer wieder durch fehlerhafte Implementierungen der W3C-Empfehlungen von sich reden machen, was eine an Standards orientierte Webarbeit nicht gerade vereinfacht. Allerdings zeichnet sich hier in den letzten Jahren durch das Aufkommen standardkonformerer Browser (Gecko-Familie, Opera, Safari, Konqueror) eine deutliche Besserung ab; selbst Microsoft scheint mit der Neukonzeption des Internet Explorers die Sünden der Vergangenheit korrigieren zu wollen. Ob die immer mehr zum Einsatz kommenden CMS-Techniken hier einen Fortschritt oder eher einen Rückschritt bringen, wird die Zukunft zeigen; die bisherigen Erfahrungen jedenfalls pendeln noch zwischen Ernüchterung und Ermunterung.

Als standardkonform können jene Verfahren der Webpublikation und des Webdesigns gelten, die – den Empfehlungen des W3-Konsortiums folgend – einer möglichst strikten Trennung von Struktur (Semantik), Layout (Präsentation) und Verhalten bei der Erstellung von Webseiten zuarbeiten. Für das eigentliche Markup der Seite, d.h. für die Auszeichnung des Inhalts mit Strukturelementen, bilden jeweils die verschiedenen vom W3C verabschiedeten HTML- und XHTML-Standards die verpflichtende Grundlage, Layout und Darstellung des Webauftritts werden über ausgelagerte CSS-Stylesheets geregelt, und das Verhalten der Seite kann unter Nutzung des Document-Object-Modells zusätzlich mit clientseitigen JavaScript-Techniken beeinflusst werden. (Arbeitet man mit serverseitigen Webtechnologien, hat man weitere Ebenen ins Kalkül zu ziehen, aber das ist Gegenstand einer gesonderten Lehrveranstaltung.)

Die Vorteile, die durch die Beachtung von Webstandards erreicht werden können, liegen auf der Hand. Webseiten lassen sich, wenn ihr (X)HTML-Quelltext nicht mehr mit unnötigem Präsentationsballast aufgedunsen ist, nicht nur einfacher und effizienter warten, sie werden von den Browsern gleichsam als Zugabe auch noch schneller geladen. Zudem ist ein (X)HTML-Quelltext, wenn sein Markup nach sinnvoll eingesetzten semantisch-strukturellen Kriterien erstellt wurde, schlicht und ergreifend besser zu lesen, ganz abgesehen von den zusätzlichen Möglichkeiten, die ein reich strukturierter Quelltext einer Darstellung mittels CSS ohnehin bietet. Dazu kommt, dass dasselbe Stylesheet gleichzeitig auf vielen Seiten eingebunden werden kann, Änderungen an einem einzigen Stylesheet also Auswirkungen auf einen ganzen Webauftritt haben können – mit dem Ergebnis einer erheblichen Reduktion des Layoutaufwands. Nicht zuletzt bleibt noch zu erwähnen, dass das Bemühen um standardkonforme Webtechniken auch einen disziplinierenden Effekt auf den eigenen Schreibstil fürs Web mit sich bringt, ganz abgesehen davon, dass hiermit zugleich ein grundlegendes Interesse an Validität, Interoperabilität und Zugänglichkeit der eigenen Seiten signalisiert wird.

2.2Die Empfehlungen des W3-Konsortiums

Das W3-Konsortium gibt seit 1994 seine »Recommendations« genannten Richtlinien für standardkonforme Webtechnologien heraus. Sie sollten die Basis jeglicher Webarbeit bilden, beschreiben sie doch im Einzelnen, aus welchen Bestandteilen die jeweiligen Standards zusammengesetzt sind und wie sie korrekt umgesetzt werden können. (Dass die Browser nicht immer mitspielen wollen, steht auf einem anderen Blatt, sollte aber nicht als billige Entschuldigung für einen laxen Umgang mit den Empfehlungen selbst herhalten.)

Wenn man clientseitig arbeitet, kommen zunächst vor allem die Empfehlungen zu den verschiedenen HTML- und XHTML-Versionen in Betracht, dann jene zum Thema CSS-Stylesheets und schließlich noch die Papiere, die das Document Object Model (DOM) beschreiben. (Der Standard für JavaScript liegt nicht beim W3C, sondern bei der ECMA, und wird von mir in den Sitzungen zum DOM-Scripting herangezogen.) Die einzige verbindliche (normativen Rang beanspruchende) Sprache dieser Dokumente ist übrigens Englisch, daher führen die folgenden Verweise auch ausschließlich zu diesen Originalseiten.

2.2.1Kleiner Wegweiser zu einigen wichtigen W3C-Empfehlungen

↓ Verknüpfung

Textanker