Maßnahmen zur QualitĂ€tssicherung von Websites

Artikel vom 21. Dezember 2007. ISSN 1614-3124, #35 (Feed).

Dieser und viele andere BeitrĂ€ge sind auch als hĂŒbsches, wohlerzogenes E-Book erhĂ€ltlich: On Web Development. Und wo wir gerade dabei sind, hier ist ein kleines BĂŒchlein nur ĂŒber die QualitĂ€tssicherung von Websites: The Little Book of Website Quality Control.

Wartung und QualitĂ€tssicherung bilden das RĂŒckgrat von Informationsangeboten und machen den Unterschied zwischen laienhaftem und professionellem Umgang mit Websites aus. LeitfĂ€den fĂŒr hochwertiges Webdesign kommen dementsprechend nicht an QualitĂ€tssicherung als Prozess vorbei, der in unterschiedlicher RegelmĂ€ĂŸigkeit zu ergreifende Maßnahmen kennt:

Inhalt

  1. Nutzertests
  2. Korrekturlesen
  3. LinkprĂŒfung
  4. Ladezeitmessung
  5. Validierung
  6. ErgÀnzende automatisierte Tests
  7. Fehlerbelohnung

Nutzertests

WĂ€hrend Tests mit Benutzern gerade in den frĂŒhen Phasen der Website-Erstellung und -Überarbeitung kritisch sind, tragen diese auch im Betrieb zur Gewinnung von Erkenntnissen ĂŒber die Bedienbarkeit einer Website bei. RegelmĂ€ĂŸige Tests können nicht nur Probleme mit initialen Tests aufdecken, gerade wenn nur Runden mit wenigen oder spezialisierten Nutzern durchgefĂŒhrt wurden, sondern auch VerĂ€nderungen hinsichtlich Konventionen und allgemeiner Wahrnehmung offenlegen.

Korrekturlesen

Das Lektorieren von Inhalten ist nicht nur essentieller Bestandteil der Wartung und Pflege eines Angebots in Bezug auf neue Inhalte, sondern auch der fortlaufenden QualitĂ€tssicherung. Inhaltliche und orthographische MĂ€ngel können bemerkenswert lange unter dem Radar fliegen, so dass wiederholtem Gegenlesen hohe Bedeutung zukommt. Legt man diesen Punkt tolerant aus, will man ein privates Blog von einem Lektorat ausnehmen, betrachtet man ihn strikt, weiß man um den negativen Einfluss von Fehlern jeglicher Art.

Coole URLs Ă€ndern sich immer noch nicht, aber die Praxis gibt dies nicht unbedingt mit voller Inbrunst wieder. Auch wenn man zumindest bei Verweisen auf externe Inhalte wenig dafĂŒr kann, wenn diese irgendwann ins Leere zeigen, kann man ĂŒber bestimmte webbasierte Werkzeuge wie dem W3C- oder dem LinkTiger-LinkprĂŒfer Sorge tragen, dass sich so wenige Besucher wie möglich darĂŒber – oder gar ĂŒber Sie – Ă€rgern mĂŒssen.

Ladezeitmessung

Ladezeit stellt einen wichtigen Faktor der Erfahrung dar, die ein Besucher mit einer Website macht; Schnelligkeit ist ein Attribut guten Webdesigns, und nicht alle Benutzer warten auf einen LKW voll von Dekorationselementen. Ladezeit ist im Hinblick auf kontinuierliche QualitĂ€tssicherung (QS) interessant, da man sie wie Benutzbarkeit gerade vor (Re-)Launch prĂŒfen sollte, aber regelmĂ€ĂŸige Ladezeittests zum Beispiel via WSOs Performance-Analyse (und Ă€hnlichem) sinnvoll sind, um Ineffizienz angesichts wechselnder Teaser-Bilder oder Code-Änderungen einzudĂ€mmen.

Validierung

Invalide Dokumente und Stylesheets sind oftmals Zeugnis schlampiger und unprofessioneller Arbeit. Ein GebĂ€ude stĂŒrzt ebensowenig ein wie eine Website, wenn ein paar Ziegelsteine fehlen oder falsch sitzen, aber der Webentwickler sollte sich in so einem Fall die gleichen Fragen gefallen lassen mĂŒssen wie der Maurer. QualitĂ€tssicherung von Websites bezieht Validierung unbedingt ein, und je flexibler die Pflege eines Angebots erfolgt und je mehr Leute an ihm arbeiten, desto hĂ€ufiger sollten Tests mittels beispielsweise W3C-HTML-, WDG-HTML- (mitsamt Option, 100 Seiten der Website zu validieren) oder W3C-CSS-Validierer durchgefĂŒhrt und etwaige Defizite beseitigt werden.

ErgÀnzende automatisierte Tests

Die QualitĂ€t einer Website kann durch viele weitere Instrumente ĂŒberprĂŒft und verbessert werden, was je nach eingesetzter Technologie und Änderungsfrequenz regelmĂ€ĂŸig erfolgen sollte, um Nutzerfrustration, technische Probleme, höhere Kosten und fachliche VorwĂŒrfe zu vermeiden.

Fehlerbelohnung

Um Fehler aller Art zu entdecken und ihre negative Wirkung zu mildern, kann es hilfreich sein, Besucher und Benutzer um Hinweise zu bitten und gar zu entlohnen; nach Donald Norman ist die kommerzielle EinsatzfĂ€higkeit nicht unbedingt gegeben, die verhĂ€ltnismĂ€ĂŸig geringe ĂŒbliche Zahl von Fehlerberichten kann sich durch diese QS-Maßnahme jedoch leicht verzehnfachen, wie Donald Knuth wohl wiederum frĂŒhzeitig demonstrierte. Perfektionismus ist eine aufwendige Disziplin.

Dieser Maßnahmenkatalog zielt nicht auf »initiale« QualitĂ€tssicherung ab und setzt somit voraus, dass Websites in den populĂ€rsten Browsern funktionieren sowie HTML-Elemente gemĂ€ĂŸ ihrer Semantik verwenden. Zudem gibt er webbasierten Werkzeugen den Vorzug gegenĂŒber zu installierenden Hilfsmitteln.

HierĂŒber tooten oder tweeten?

Über mich

Jens Oliver Meiert, am 30. September 2021.

Ich bin Jens, und ich bin ein Engineering Lead und Autor. Ich habe als technischer Leiter fĂŒr Google gearbeitet, bin W3C und WHATWG verbunden und schreibe und begutachte BĂŒcher fĂŒr O’Reilly. Ansonsten experimentiere ich gerne, mitunter in den Bereichen Philosophie, Kunst und Abenteuer. Hier auf meiert.com teile ich einige meiner Ansichten und Erfahrungen.

Wenn du eine Frage oder Anregung zu dem hast, was ich schreibe, sende bitte jederzeit eine Nachricht. Danke!