Themen
Automatische Scans richtig einordnen
Dieser Leitfaden erklärt, was automatische Barrierefreiheits-Checks auf Websites tatsächlich leisten können, wo ihre Grenzen liegen und warum selbst gute Websites trotzdem einzelne Auffälligkeiten oder technische Warnungen zeigen können.
Automatische Scans sind nützlich, weil sie schnell, wiederholbar und skalierbar sind. Sie ersetzen aber keine vollständige fachliche oder manuelle Prüfung. Wer Ergebnisse fair lesen will, sollte sie als Orientierung verstehen, nicht als endgültiges Urteil über die gesamte Nutzbarkeit einer Website.
Warum automatische Scans hilfreich sind
Automatische Checks helfen, typische Barrieren früh und wiederholbar sichtbar zu machen. Sie finden in kurzer Zeit viele technische Auffälligkeiten, die sonst leicht übersehen werden: fehlende Alternativtexte, Kontrastprobleme, leere Links, unbeschriftete Formulare oder strukturelle Fehler im Markup.
Für Betreiber sind solche Scans besonders nützlich, weil sie einen schnellen Einstieg geben. Sie helfen bei Orientierung, Priorisierung und Verlaufskontrolle. Wer dieselbe Website regelmäßig scannt, erkennt außerdem schneller, ob ein Redesign, ein neues CMS-Modul oder ein Relaunch zu sichtbaren Verschlechterungen geführt hat.
Was automatische Checks typischerweise erkennen
Automatische Werkzeuge prüfen vor allem Dinge, die sich technisch aus HTML, Attributen, Rollen, Zuständen oder Farbwerten ableiten lassen. Genau dort sind sie stark: bei klar definierbaren Regeln, die maschinell überprüfbar sind.
Typische technische Funde
Dazu gehören etwa fehlende `alt`-Attribute, leere oder unklare Links, Kontrastprobleme, fehlende Formularbeschriftungen, doppelte IDs, fehlerhafte Überschriftenhierarchien oder unklare Strukturen.
Stärke bei Wiederholungen
Wenn dieselbe Komponente auf vielen Seiten oder mehrfach innerhalb einer Seite vorkommt, finden automatische Prüfungen solche Muster sehr effizient und konsequent.
Genau deshalb sind automatische Checks ein guter erster Filter. Sie liefern oft einen praktischen Arbeitsvorrat, mit dem Teams schnell anfangen können, statt komplett im Unklaren zu bleiben.
Was automatische Checks nicht zuverlässig bewerten können
Automatische Prüfungen sehen nicht den ganzen Nutzungskontext. Sie können aus dem Code ableiten, ob etwas technisch auffällig ist. Sie können aber nicht vollständig beurteilen, ob eine Website in der Praxis wirklich verständlich, robust und gut nutzbar ist.
- Bedeutung und Kontext: Ein Tool erkennt nicht sicher, ob ein Bild dekorativ oder inhaltlich relevant ist.
- Qualität von Alt-Texten: Ob ein Alternativtext hilfreich, präzise oder missverständlich ist, braucht menschliche Bewertung.
- Tatsächliche Verständlichkeit: Ein Text kann formal korrekt sein und trotzdem unklar, zu komplex oder schlecht erklärt.
- Reale Bedienung: Ob Menüs, Modale, Filter, Overlays oder Formulare im echten Ablauf zuverlässig funktionieren, zeigt sich oft erst mit Tastatur, Screenreader oder Zoom in der Nutzung.
- Abdeckung: Viele Prüfungen sehen nur die konkret gescannte Seite oder einzelne Zustände, nicht automatisch alle Wege, Schritte und Sonderfälle einer Website.
Warum gute Websites trotzdem Probleme angezeigt bekommen
Ein automatischer Fund bedeutet nicht automatisch, dass eine Website insgesamt schlecht ist. Gute Websites können einzelne technische Auffälligkeiten haben, ohne dass der gesamte Auftritt unbrauchbar wäre. Umgekehrt können Websites mit wenig automatischen Funden trotzdem echte Nutzungsprobleme haben, die im Scan nicht sichtbar werden.
Manche Funde sind außerdem formal korrekt, aber in ihrer praktischen Relevanz nur mit Kontext zu bewerten. Ein fehlendes `alt`-Attribut auf einem dekorativen Bild ist anders zu gewichten als ein fehlender Alternativtext auf einer wichtigen Infografik. Ein Tool kann solche Unterschiede nicht in jedem Fall sicher erkennen.
Warum einzelne Probleme mehrfach auftauchen können
Automatische Prüfungen arbeiten oft auf Ebene einzelner Elemente. Wenn dieselbe Komponente mehrfach auf einer Seite vorkommt, kann derselbe Fehlertyp mehrmals gemeldet werden: etwa drei Carousel-Buttons mit identischem Kontrastproblem oder mehrere Formularfelder mit derselben fehlenden Beschriftung.
Das bedeutet nicht zwingend, dass drei völlig verschiedene Ursachen vorliegen. Oft handelt es sich um ein wiederholtes Muster derselben Komponente. Für die Priorisierung ist deshalb nicht nur die reine Anzahl wichtig, sondern auch die Frage, ob viele Funde auf ein einzelnes Muster zurückgehen.
Warum ein guter Score keine vollständige Entwarnung ist
Ein guter Score ist ein positives Signal, aber keine endgültige Freigabe. Er zeigt, dass im gescannten Ausschnitt wenige oder weniger starke technisch erkennbare Auffälligkeiten gefunden wurden. Er sagt nicht automatisch, dass alle Prozesse, Inhalte und Nutzungssituationen einer Website barrierefrei gelöst sind.
Das gilt besonders für komplexe Abläufe wie Registrierung, Checkout, Suche, Login, mehrstufige Formulare, eingebettete Drittinhalte oder dynamische Interaktionen. Viele dieser Bereiche brauchen zusätzliche manuelle Sicht- und Nutzungstests, damit Ergebnisse wirklich belastbar werden.
Wie Betreiber Ergebnisse sinnvoll lesen sollten
- 1. Score als Einstieg lesen: Er hilft bei der schnellen Einordnung, ersetzt aber nicht den Blick auf konkrete Probleme und Kategorien.
- 2. Muster statt Rohzahlen suchen: Mehrfache Funde können auf eine einzige Komponente zurückgehen, die dann systematisch korrigiert werden sollte.
- 3. Kategorien ernst nehmen: Kontrast, Formulare, Struktur, Bilder oder Tastaturprobleme deuten auf unterschiedliche Arbeitsfelder im Team hin.
- 4. Kontext prüfen: Einzelne technische Meldungen sollten in der echten Oberfläche gegengeprüft werden, statt sie nur als Textmeldung zu bewerten.
- 5. Verlauf beobachten: Wiederkehrende Scans sind besonders nützlich, um Verbesserungen oder Regressionen sichtbar zu machen.
Wenn Sie neben der Ergebnis-Einordnung auch verstehen möchten, welche konkreten Anforderungen eine barrierefreie Website insgesamt erfüllen muss, hilft der ausführlichere Leitfaden Was eine barrierefreie Website leisten muss .
Wann man zusätzlich manuell prüfen sollte
Manuelle Prüfung ist besonders wichtig, wenn zentrale Nutzerwege betroffen sind, wenn ein Angebot rechtlich relevant ist oder wenn ein Ergebnis kritisch eingeordnet werden muss. Spätestens vor Relaunches, bei größeren Designänderungen oder bei sensiblen Abläufen wie Checkout, Bewerbung oder Terminbuchung reicht ein automatischer Scan allein nicht aus.
Sinnvolle manuelle Ergänzungen sind zum Beispiel Tastaturtests, Zoom- und Vergrößerungstests, kurze Screenreader-Stichproben, Prüfung realer Formularabläufe und die Sichtkontrolle von Zuständen, Fehlermeldungen und responsiven Varianten.