La familia normal de distribuciones tiene todas la misma forma general y están parametrizadas por media y desviación estándar. Eso significa que si se conocen la media y la desviación estándar y si la distribución es normal, se conoce la probabilidad de que cualquier observación futura se encuentre en un rango dado.
Suponga que tenemos una muestra de 99 puntajes de prueba con una media de 100 y una desviación estándar de 1. Si asumimos que los 99 puntajes de prueba son observaciones aleatorias de una distribución normal, entonces predecimos que hay un 1% de probabilidad de que la puntuación número 100 de la prueba sea superior a 102,33 (es decir, la media más 2,33 desviaciones estándar), asumiendo que la puntuación 100 de la prueba proviene de la misma distribución que las demás. Los métodos estadísticos paramétricos se utilizan para calcular el valor 2.33 anterior, dadas 99 observaciones independientes de la misma distribución normal.
Una estimación no paramétrica de lo mismo es el máximo de las primeras 99 puntuaciones. No es necesario que asumamos nada sobre la distribución de las puntuaciones de las pruebas para pensar que antes de dar la prueba era igualmente probable que la puntuación más alta fuera cualquiera de las primeras 100. Por lo tanto, hay un 1% de probabilidad de que la puntuación 100 sea más alto que cualquiera de los 99 que lo precedieron.