
Le 15 janvier 2019, le quotidien gratuit belge metro a fait sa une en caractères gras extra larges sur l’affirmation : « Le réseau ferroviaire plus sûr. » Il fallait sans doute rassurer la population, à nouveau sous le coup de l’émotion suite à la catastrophe de Buizingen qui, le 15 février 2010, avait fait dix-neuf morts et plus de cent cinquante blessés… et dont le procès venait de commencer, neuf ans après les faits ! La presse venait de rappeler les circonstances de l’accident en l’agrémentant de détails scabreux. Un court article faisait suite à l’affirmation optimiste du gros titre pour en détailler le contenu objectif. Il disait très exactement : « Sur les quelque 1,3 million de trains qui ont circulé sur les voies du réseau belge, 87 ont dépassé un signal rouge en 2018 pour 55 en 2017, d’après Infrabel [gestionnaire de l’infrastructure du réseau des chemins de fer belges, NDLR]. Toutefois la proportion de dépassements dangereux est, elle, en diminution, passant de 34,5 % en 2017 à 27,6 % en 2018. » Que peut-on retirer de ces données ?
Déjà, seule la dernière proposition (baisse du taux de dépassements dangereux) est prise en compte pour l’élaboration du titre, les autres données ne permettant pas un réel optimisme…
On constate ensuite que les données fournies sont de deux types : données absolues concernant le nombre de dépassements, données relatives pour les dépassements qualifiés de « dangereux ». Ce simple fait doit nous mettre la puce à l’oreille. La mise en parallèle de résultats mesurés de manière différente est toujours suspecte. Un petit calcul élémentaire nous le montre. Il s’agit de compter le nombre de dépassements dangereux. On vérifie que ce dernier est passé de 19 (soit 55 ✕ 0,345) en 2017 à 24 (c’est-à-dire 87 ✕ 0,276) en 2018, soit une augmentation de cinq unités, qui en valeur relative représente plus de 26 % ! Alors ? Le réseau ferroviaire a-t-il vraiment été plus sûr ?
La théorie des erreurs
Un autre constat doit aussi être fait : la totale ignorance, dans l’article, de la notion de chiffres significatifs dans la présentation des données. En effet, les taux de dépassement sont présentés avec trois chiffres, affichant un ordre de grandeur du « pour mille ». Or le nombre de dépassements dangereux est de l’ordre de grandeur de 20, sur un total de moins de 100. Aussi la plus légère modification dans les critères de détermination de la dangerosité peut-elle faire fluctuer le nombre de dépassements de manière importante. Ainsi, en 2017, un seul dépassement dangereux de moins aurait fait passer le taux de 0,345 à 18 / 55, soit 0,327, soit une fluctuation de presque 2 %. De même, un dépassement de plus aurait fait passer le taux à 20 / 55, à savoir 0,364. Dans ce contexte, et étant donné le caractère subjectif de la notion de « dangerosité » (non définie dans l’article), quelle est la signification de la troisième décimale ?
La théorie des erreurs est là pour nous renseigner. Dans le monde réel, la plupart des mesures sont entachées d’erreur. Elles peuvent être dues aux instruments de mesure. Elles peuvent être dues à l’observateur. Il arrive que l’ordre de grandeur de cette mesure soit estimé. Ainsi, si la « vraie » grandeur A peut être approchée par la valeur a avec une certaine précision ε, on peut écrire a – ε < A < a + ε. Le niveau de précision ε est alors appelé erreur absolue sur A. Mais très souvent cette erreur absolue n’est pas connue et doit être remplacée par la notion de borne supérieure d’erreur. Lorsque l’on additionne ou soustrait deux nombres entachés d’erreur, on vérifie que les erreurs absolues s’additionnent, ce qui peut toutefois poser problème quand on soustrait deux valeurs « proches ». Il arrive alors que l’on perde toute précision sur la valeur de la différence !
Quand on passe au produit ou au quotient de deux nombres, on introduit la notion d’erreur relative, qui est égale au quotient de l’erreur absolue ε par le nombre A. Dans ce cas, on admet que l’erreur relative du produit ou du quotient est égale à la somme des erreurs relatives de chacun des facteurs (ou du dividende et du diviseur). Cette règle est en fait une approximation (voir FOCUS). De plus, il n’est que rarement possible de calculer les erreurs relatives. Théoriquement, cette dernière vaut ε / A. Elle est presque toujours approchée par ε / a.
La question des chiffres significatifs
À cela s’ajoute encore l’imprécision induite par l’usage de notre système décimal. Comment représenter une valeur réelle A, comprise, comme dans le cas de notre exemple de taux de dépassements, entre 0,327 et 0,364 ? Quel est le nombre de chiffres dont on peut assurer l’exactitude, le nombre de chiffres significatifs ? Les règles d’arrondis n’aident pas à garantir une précision optimale. En notant le taux « 0,35 », on suppose implicitement que la mesure véritable est comprise entre 0,345 et 0,355, ce qui n’est pas le cas dans notre exemple. En réalité, le seul chiffre exact pour cette donnée particulière est « 3 ». Mais peut-on noter le taux cherché 0,3 ? L’ordre de grandeur de l’erreur, qui est en fait de 2 %, passerait alors à 5 % par le simple fait du choix de notre système de numération. La manipulation de données entachées d’erreurs ou d’imprécision est délicate. Elle demande une attention et un traitement en adéquation avec chaque problème particulier. Et comme il n’est pas facile de calculer avec des données imprécises, certains ne vont pas manquer d’en profiter…
Lire la suite