C'est juste une méthode utilisée pour calculer les buffers de contingence. (Schedule buffer). La marge de temps couvrant les risques.
Ça ne date pas d'aujourd'hui, mais comme je n'avais rien trouvé sur le sujet en Français, alors voilà.
Apparu dans le livre "Agile Estimating and Planning" de Mike Cohn en 2005.
Le but étant de savoir comment garantir un planning avec suffisamment de fiabilité. Mike Cohn propose d'ajouter un buffer de temps (et aussi un buffer de fonctions, Feature Buffer).
Question : Comment calculer ce buffer.
Réponse : La racine carrée de la somme des carrées des différences.
Mouais, pas trop avancé avec tout ça. C'est pourtant simple.
Imaginez une liste de fonctions à produire: F1, F2, ...
Vous estimez la charge moyenne de chaque fonction. En point fibonacci et planning poker bien entendu ;-). Cette estimation est considérée comme une valeur moyenne, fiable à 50%.
Ensuite, re-estimez le plus mauvais cas, en prenant en compte tous les risques éventuels. Lors du planning poker, on pourrait garder la valeur la plus forte votée. Vous pouvez considérer cette estimation fiable à 90%.
Ensuite, vous prenez votre excel préféré et :
Fonction | 50% (a) | 90% (w) | (w-a)² |
---|---|---|---|
F1 | 3 | 5 | 4 |
F2 | 5 | 8 | 9 |
F3 | 2 | 5 | 9 |
F4 | 5 | 13 | 64 |
F5 | 8 | 13 | 25 |
F6 | 1 | 1 | 0 |
Somme | 24 | 45 | 111 |
(a) = average, moyenne, (w) = worst, plus mauvais cas
La somme des carrés des différences faisant 111, la racine carrée est égale à 11 (arrondie)
Le buffer à considérer est donc de 11.
Le total de l'estimation est donc de 24 + 11, soit 35. 10 points de moins que le total des estimations à 90% de fiabilité.
Tout ça c'est des mathématiques, et par définition les estimations étant fausses, ça n’empêche pas de continuer à réfléchir.
A la prochaine.
2 commentaires:
Merci Laurent pour cet article, je ne connaissait pas cette astuce mathématique. Il me semble qu'il y ait un faux sens cela dit: l'estimation de 5 n'est pas plus fiable l'estimation de 3, c'est plutôt une valeur maximum qui nous informe qu'on a 90% de chance d'être inférieur ou égal à 5. Sinon il suffirait d'augmenter systématiquement ses estimations pour gagner en fiabilité. Je pense que l'idée est d'élargir une fourchette donnée pour augmenter la fiabilité plutôt que de prendre une autre valeur absolue supposée plus fiable.
Salut Gilles,
Tu as tout juste. Je voulais simplifier l’explication sans rentrer dans cette subtilité. J'aurais pu utiliser plus probable que plus fiable. On voit ceux qui ont de l'expérience ;-)
Enregistrer un commentaire