Sylvaner a écrit :Probabilités et statistiques sont des choses différentes : la probabilité évalue à partir de données "fiables" (plus une hypothèse d'équiprobabilité souvent douteuse, sauf dans le cas du loto) les chances qu'un événement donné survienne. Les statistiques évaluent à partir d'un grand nombre de cas la fréquence d'apparition d'un événement.
Sachant que si la probabilité" est calculable, les statistiques sont censées donner des résultats d'autant plus proches que le nombre est élevé. L'écart-type est également une donnée calculable.
Sylvaner a écrit :Ce que je veux dire, c'est que si on a des individus associés à des valeurs d'une grandeur, on peut vérifier que la différence entre ces valeurs pour deux individus sont significatives par un t test (loi de Student).
En revanche, si on a cinq individus avec des valeurs élevées et cinq individus avec des valeurs faibles, on ne peut pas vérifier que la différence entre les populations est significatives en faisant des t-test deux à deux.
Ça, c'est le problème de la taille de l'échantillon. Un classique des statistique.
Sylvaner a écrit :C'est, il me semble, une question d'intervalle de confiance : pour un test statistique, on obtient un résultat fiable à 95%. Mais si on rajoute un test, puis un autre, la fiabilité descend à 90, puis 86%...
Tu répètes ton affirmation de ton précédent message, mais tu n'as toujours pas expliqué cette assertion. Aurais-tu un exemple concret ?
À ma connaissance, plus on répète un test, plus sa fiabilité augmente (sauf si les résultats sont incohérents, évidemment).