Maßnahmen zur Qualitätssicherung von Websites

Artikel vom 21. Dezember 2007. ISSN 1614-3124, #35. Schwerpunkt: (RSS-Feed für alle Themen).

Dieser und viele andere Beiträge sind auch als hübsches, wohlerzogenes E-Book erhältlich: On Web Development. Und wo wir gerade dabei sind, hier ist ein kleines Büchlein nur über die Qualitätssicherung von Websites: The Little Book of Website Quality Control.

Wartung und Qualitätssicherung bilden das Rückgrat von Informationsangeboten und machen den Unterschied zwischen laienhaftem und professionellem Umgang mit Websites aus. Leitfäden für hochwertiges Webdesign kommen dementsprechend nicht an Qualitätssicherung als Prozess vorbei, der in unterschiedlicher Regelmäßigkeit zu ergreifende Maßnahmen kennt:

Inhalt

  1. Nutzertests
  2. Korrekturlesen
  3. Linkprüfung
  4. Ladezeitmessung
  5. Validierung
  6. Ergänzende automatisierte Tests
  7. Fehlerbelohnung

Nutzertests

Während Tests mit Benutzern gerade in den frühen Phasen der Website-Erstellung und -Überarbeitung kritisch sind, tragen diese auch im Betrieb zur Gewinnung von Erkenntnissen über die Bedienbarkeit einer Website bei. Regelmäßige Tests können nicht nur Probleme mit initialen Tests aufdecken, gerade wenn nur Runden mit wenigen oder spezialisierten Nutzern durchgeführt wurden, sondern auch Veränderungen hinsichtlich Konventionen und allgemeiner Wahrnehmung offenlegen.

Korrekturlesen

Das Lektorieren von Inhalten ist nicht nur essentieller Bestandteil der Wartung und Pflege eines Angebots in Bezug auf neue Inhalte, sondern auch der fortlaufenden Qualitätssicherung. Inhaltliche und orthographische Mängel können bemerkenswert lange unter dem Radar fliegen, so dass wiederholtem Gegenlesen hohe Bedeutung zukommt. Legt man diesen Punkt tolerant aus, will man ein privates Blog von einem Lektorat ausnehmen, betrachtet man ihn strikt, weiß man um den negativen Einfluss von Fehlern jeglicher Art.

Coole URLs ändern sich immer noch nicht, aber die Praxis gibt dies nicht unbedingt mit voller Inbrunst wieder. Auch wenn man zumindest bei Verweisen auf externe Inhalte wenig dafür kann, wenn diese irgendwann ins Leere zeigen, kann man über bestimmte webbasierte Werkzeuge wie dem W3C- oder dem LinkTiger-Linkprüfer Sorge tragen, dass sich so wenige Besucher wie möglich darüber – oder gar über Sie – ärgern müssen.

Ladezeitmessung

Ladezeit stellt einen wichtigen Faktor der Erfahrung dar, die ein Besucher mit einer Website macht; Schnelligkeit ist ein Attribut guten Webdesigns, und nicht alle Benutzer warten auf einen LKW voll von Dekorationselementen. Ladezeit ist im Hinblick auf kontinuierliche Qualitätssicherung (QS) interessant, da man sie wie Benutzbarkeit gerade vor (Re-)Launch prüfen sollte, aber regelmäßige Ladezeittests zum Beispiel via WSOs Performance-Analyse (und ähnlichem) sinnvoll sind, um Ineffizienz angesichts wechselnder Teaser-Bilder oder Code-Änderungen einzudämmen.

Validierung

Invalide Dokumente und Stylesheets sind oftmals Zeugnis schlampiger und unprofessioneller Arbeit. Ein Gebäude stürzt ebenso wenig ein wie eine Website, wenn ein paar Ziegelsteine fehlen oder falsch sitzen, aber der Webentwickler sollte sich in so einem Fall die gleichen Fragen gefallen lassen müssen wie der Maurer. Qualitätssicherung von Websites bezieht Validierung unbedingt ein, und je flexibler die Pflege eines Angebots erfolgt und je mehr Leute an ihm arbeiten, desto häufiger sollten Tests mittels beispielsweise W3C-HTML-, WDG-HTML- (mitsamt Option, 100 Seiten der Website zu validieren) oder W3C-CSS-Validierer durchgeführt und etwaige Defizite beseitigt werden.

Ergänzende automatisierte Tests

Die Qualität einer Website kann durch viele weitere Instrumente überprüft und verbessert werden, was je nach eingesetzter Technologie und Änderungsfrequenz regelmäßig erfolgen sollte, um Nutzerfrustration, technische Probleme, höhere Kosten und fachliche Vorwürfe zu vermeiden.

Fehlerbelohnung

Um Fehler aller Art zu entdecken und ihre negative Wirkung zu mildern, kann es hilfreich sein, Besucher und Benutzer um Hinweise zu bitten und gar zu entlohnen; nach Donald Norman ist die kommerzielle Einsatzfähigkeit nicht unbedingt gegeben, die verhältnismäßig geringe übliche Zahl von Fehlerberichten kann sich durch diese QS-Maßnahme jedoch leicht verzehnfachen, wie Donald Knuth wohl wiederum frühzeitig demonstrierte. Perfektionismus ist eine aufwendige Disziplin.

Dieser Maßnahmenkatalog zielt nicht auf »initiale« Qualitätssicherung ab und setzt somit voraus, dass Websites in den populärsten Browsern funktionieren sowie HTML-Elemente gemäß ihrer Semantik verwenden. Zudem gibt er webbasierten Werkzeugen den Vorzug gegenüber zu installierenden Hilfsmitteln.

War dies nützlich oder interessant? Teile diesen Beitrag, werde Nanosponsor oder unterstütze meine Arbeit, indem du mit meinen E-Books lernst.

Über mich

Jens Oliver Meiert, am 9. November 2024.

Ich bin Jens (lang: Jens Oliver Meiert), und ich bin ein Frontend-Engineering-Leiter und technischer Autor/Verleger. Ich habe als technischer Leiter für Firmen wie Google und als Engineering Manager für Firmen wie Miro gearbeitet, bin Mitwirkender an verschiedenen Webstandards und schreibe und prüfe Fachbücher für O’Reilly und Frontend Dogma.

Ich experimentiere gerne, nicht nur in der Webentwicklung (und im Engineering Management), sondern auch in anderen Bereichen wie der Philosophie. Hier auf meiert.com teile ich einige meiner Erfahrungen und Ansichten. (Bitte sei kritisch, interpretiere wohlwollend und gib Feedback.)