Les validations automatiques se déroulent en deux phases : une première phase d'exploration et de saisie d'infos dans une base de données, et une phase de résolution de chaque bonne pratique testée. La première phase peut prendre un temps fou, ce qui rend en pratique le validateur peu utilisable. Conscient du problème, Fabrice Bonny et Mickael Hoareau viennent de travailler sur le sujet, et nous mettrons rapidement en ligne un nouveau système de validation qui devrait permettre d'avoir des résultats bien plus rapidement. Voici les résultats des premiers tests effectués pour des sites qui contiennent de très nombreux liens. Le nouveau système récupère bien plus de données et fait bien plus de tests pendant la phase d'exploration, ce qui accélère la phase suivante de validation :

  • tf1.fr (exploration de 30 pages) : 45 secondes avec tests CSS, erreurs 404, favicon, images, syndication, js) au lieu de 160 secondes (tests CSS et favicon) - (-72%)
  • lequipe.fr (exploration de 30 pages) : 17 secondes (avec tests CSS, erreurs 404, favicon, images, syndication, js) au lieu de 26 secondes (tests CSS et favicon) - (-34%)
  • lemonde.fr (exploration de 30 pages) : 90 secondes (avec tests CSS, erreurs 404, favicon, images, syndication, js) au lieu de 90 secondes (tests CSS et favicon) (pas de gain de temps sur l'exploration, mais gain important sur les données récupérées)

En parallèle, j'ai également demandé à Fabrice et Mickael que les utilisateurs soient informés en permanence de l'avancement de leurs tests automatiques. Toute cette partie sera sans doute mise en ligne lundi prochain, pas la peine de vous jeter sur le validateur, il est toujours tout pourri à l'heure où je vous parle ;-)

Ce n'est pas tout. Beaucoup d'entre vous ont du mal à comprendre le fait que l'évaluation mon-opquast doive être lancée de façon manuelle. Beaucoup souhaiteraient assez légitimement qu'une analyse soit systématiquement et automatiquement lancée sur chaque site au moment de sa création dans mon-opquast. Ce sera bientôt le cas. Dès que vous créerez un projet, une analyse automatique sera lancée, et en attendant les résultats (voir améliorations ci-dessus), vous pourrez compléter votre feuille d'évaluation pour les tests manuels.

Dernière chose : pour les abonnés gratuits, les tests continueront a se faire sur une seule page, mais dans deux semaines environ, nous allons proposer non seulement une évaluation globale d'un projet, mais une évaluation pour chaque page de ce projet. Ainsi, les abonnés corporate pourront évaluer jusqu'à 30 pages par projet. Cela devrait commencer à ressembler à une évaluation très pointue.