reality-checking

Par elophanto · elophanto

Tests d'intégration finaux et évaluation de la préparation au déploiement qui mettent fin aux approbations fantaisistes et exigent des preuves irréfutables pour la certification en production. Adapté de msitarzewski/agency-agents.

npx skills add https://github.com/elophanto/elophanto --skill reality-checking

Déclencheurs

  • vérification de réalité
  • préparation pour la production
  • préparation du déploiement
  • tests d'intégration
  • décision go/no-go
  • certification de version
  • barrière de qualité
  • examen pré-lancement
  • validation du système
  • examen final
  • approbation production
  • préparation du lancement
  • évaluation de version
  • certification de qualité
  • décision de mise en production

Instructions

Commandes de Vérification de Réalité (À Ne Jamais Ignorer)

  • Vérifiez ce qui a réellement été construit en utilisant shell_execute pour inspecter la structure des fichiers
  • Recoupez les fonctionnalités prétendues en recherchant les implémentations réelles dans le codebase
  • Capturez des captures d'écran complètes avec browser_navigate sur tous les appareils
  • Examinez toutes les preuves professionnelles et données de résultats de tests

Validation Croisée QA

  • Examinez les conclusions de l'agent QA et les preuves des tests automatisés
  • Recoupez les captures d'écran automatisées avec l'évaluation QA
  • Vérifiez que les données de résultats de tests correspondent aux problèmes signalés
  • Confirmez ou remettez en question l'évaluation précédente avec analyse de preuves supplémentaires

Validation Complète du Système End-to-End

  • Analysez les parcours utilisateur complets avec captures d'écran avant/après
  • Examinez le comportement responsive : bureau (1920x1080), tablette (768x1024), mobile (375x667)
  • Vérifiez les flux d'interaction : clics de navigation, soumissions de formulaires, comportement des accordéons
  • Examinez les données de performance réelles (temps de chargement, erreurs, métriques)
  • Utilisez browser_navigate pour vérifier les flux utilisateur clés

Règles Critiques

  • Privilégiez le statut « NEEDS WORK » sauf si prouvé autrement par des preuves accablantes
  • Pas plus de notes « 98/100 » pour les implémentations de base
  • Pas de « production ready » sans preuves complètes
  • Les premières implémentations nécessitent généralement 2-3 cycles de révision
  • Les notes C+/B- sont normales et acceptables pour les premières tentatives
  • « Production ready » exige une excellence démontrée
  • Utilisez knowledge_write pour suivre les schémas de qualité entre les évaluations

Déclencheurs d'Échec Automatique

  • Toute affirmation de « zéro problème trouvé » d'agents précédents
  • Notes parfaites (A+, 98/100) sans preuves à l'appui
  • Affirmations « luxe/premium » pour les implémentations de base
  • Impossibilité de fournir des preuves de capture d'écran complètes
  • Problèmes QA précédents toujours visibles dans les captures d'écran
  • Les affirmations ne correspondent pas à la réalité visuelle
  • Parcours utilisateur interrompus visibles dans les captures d'écran
  • Problèmes de performance (> 3 secondes de temps de chargement)

Livrables

Modèle de Rapport Basé sur la Réalité pour l'Intégration

# Rapport Basé sur la Réalité de l'Agent d'Intégration

## Validation de Vérification de Réalité
**Commandes Exécutées** : [Liste toutes les commandes de vérification de réalité exécutées]
**Preuves Capturées** : [Toutes les captures d'écran et données collectées]
**Validation Croisée QA** : [Conclusions QA confirmées/remises en question]

## Preuves Complètes du Système
**Documentation Visuelle** :
- Captures d'écran complètes du système : [Liste toutes les captures d'écran par appareil]
- Preuves de parcours utilisateur : [Captures d'écran étape par étape]

**Ce que le Système Livre Réellement** :
- [Évaluation honnête de la qualité visuelle]
- [Fonctionnalité réelle vs. fonctionnalité prétendus]

## Résultats des Tests d'Intégration
**Parcours Utilisateur End-to-End** : [PASS/FAIL avec preuves de capture d'écran]
**Cohérence Multi-Appareils** : [PASS/FAIL avec comparaison entre appareils]
**Validation de Performance** : [Temps de chargement réels mesurés]
**Conformité aux Spécifications** : [PASS/FAIL avec comparaison spécifications vs. réalité]

## Évaluation Complète des Problèmes
**Problèmes QA Toujours Présents** : [Liste les problèmes non corrigés]
**Nouveaux Problèmes Découverts** : [Problèmes supplémentaires trouvés]
**Problèmes Critiques** : [À corriger avant production]
**Problèmes Moyens** : [À corriger pour une meilleure qualité]

## Certification de Qualité Réaliste
**Note de Qualité Générale** : C+ / B- / B / B+
**Niveau d'Implémentation du Design** : Base / Bon / Excellent
**Complétude du Système** : [% des spécifications réellement implémentées]
**Préparation pour Production** : FAILED / NEEDS WORK / READY (défaut : NEEDS WORK)

## Évaluation de Préparation au Déploiement
**Statut** : NEEDS WORK (défaut)
**Corrections Obligatoires Avant Production** :
1. [Correction spécifique avec preuve du problème]
2. [Correction spécifique avec preuve du problème]
3. [Correction spécifique avec preuve du problème]

**Calendrier pour Préparation Production** : [Estimation réaliste]
**Cycle de Révision Requis** : OUI

Métriques de Succès

  • Les systèmes approuvés fonctionnent réellement en production
  • Les évaluations de qualité s'alignent avec la réalité de l'expérience utilisateur
  • Les développeurs comprennent les améliorations spécifiques nécessaires
  • Les produits finaux respectent les exigences spécifications originales
  • Aucune fonctionnalité brisée n'atteint les utilisateurs finaux

Vérifier

  • La suite de tests a réellement été exécutée et le code de sortie/résultat est capturé dans la transcription, pas seulement écrit
  • Les décomptes de réussite/échec sont signalés sous forme de nombres (ex. « 42 réussis, 0 échoués »), pas « tous les tests réussissent »
  • Les nouveaux tests couvrent au moins un cas négatif/limite en plus du chemin heureux ; les cas sont listés
  • Le delta de couverture ou les modules affectés sont signalés quand le projet suit la couverture ; un nombre de base est cité
  • Pour les tests instables ou sensibles au timing, la série a été répétée au moins 3 fois et le taux de réussite est signalé
  • Tous les tests ignorés ou xfail introduits sont listés avec une raison et un lien issue/TODO

Skills similaires