Les outils de tests automatiques d’accessibilité peuvent malheureusement faire mal alors que ce n’est absolument pas le but.
Sur des sites entrant dans le champ d’application de l’article 47 de la loi no2005-102, j’ai vu des déclarations d’accessibilité qui affichaient le score de l’outil de tests automatiques sans scrupule, se permettant alors d’afficher la mention « partiellement conforme » plutôt que « non conforme ». C’est pourtant ce qui devrait être affiché puisque, en réalité, aucun audit n’a été réalisé.
J’ai aussi vu au moins (car c’était totalement assumé) une entreprise qui vend des prestations d’accessibilité alors qu’elle ne fait que s’assurer que son travail atteint un score « vert » dans un outil de test automatique ; autrement dit un score soit à 100%, soit plutôt proche – ça dépend des outils…
Comme toujours dans ces cas-là, ce sont les personnes handicapées ayant besoin que le web soit accessible qui en pâtissent. En effet, quand on croit qu’on a atteint les 100% à l’outil et que, par conséquent, notre site est accessible ou conforme aux règles d’accessibilité alors, on ne va pas plus loin. Logique !
Pourtant, on estime que ces outils de tests automatiques d’accessibilité ne peuvent tester qu’environ 20 à 30% maximum des critères d’accessibilité. Même si vous atteignez 100% à l’outil automatique, vous n’avez pas fini le travail ! Ce n’est qu’un début. Mais encore faut-il le savoir.
Donner un score pour le respect de ces 20 à 30% de règles d’accessibilité est totalement trompeur. Ajouter une mention explicative ne sera pas suffisant car, oui, les gens ne lisent pas les petites lignes.
Les outils de tests automatiques d’accessibilité ne devrait pas donner de score. Si tous les tests sont validés, alors, la seule mention acceptable serait quelque chose comme : Félicitations, aucune erreur n’a été détectée automatiquement mais cela ne veut pas dire que votre site est accessible aux personnes handicapées, ou conforme au RGAA ou aux WCAG. Faites faire un audit complet par des spécialistes pour vous en assurer !
.
Bien sûr, ces outils ne sont pas les seuls coupables sur ce sujet mais l’affichage de ce score est une composante essentielle du problème relevé ici.
Ressources complémentaires
- Un article de Karl Groves « So, you want an accessibility score? » sur le blog de Level Access, daté du 26 octobre 2021, où il revient sur l’absence de pertinence des scores d’accessibilité en évoquant particulièrement les outils de tests automatiques ;
- La page de mon wiki « Tester l’accessibilité web » avec une introduction à lire et quelques outils de tests ;
- Un article d’Adrian Roselli « Comparing Manual and Free Automated WCAG Reviews », daté du 19 janvier 2023, où il donne un exemple comparé de l’analyse d’une page web avec différents outils de tests automatiques et également un audit WCAG manuel. Ça donne un bon aperçu du fossé qui existe entre ce que les outils permettent et la réalité qu’on obtient via un audit manuel ;
- Un article de Manuel Matuzović « Building the most inaccessible site possible with a perfect Lighthouse score », daté du 31 mai 2019, où il démontre comment biaiser un outil de tests automatiques d’accessibilité en faisant un site inaccessible tout en obtenant la note de 100% ;
- Un article d’Eric Eggert « Automated testing won’t solve web accessibility », daté du 11 février 2023, où il explique en quoi les tests automatiques sont utiles ou non.