For univariate data Y1, Y2, …, YN er formlen for skævhed:
- \
hvor \ (\ bar {Y} \) er tematisk, s er standardafvigelse, og N er antallet af datapunkter. Bemærk, at i beregning af skævheden beregnes s med N i nævneren snarere end N – 1.
Ovenstående formel for skævhed kaldes Fisher-Pearson-koefficienten for skævhed. Mange softwareprogrammer beregner faktisk den justerede Fisher-Pearson-skævhedskoefficient
- \
Dette er en justering for stikprøvestørrelse. Justeringen nærmer sig 1, når N bliver stor. Til reference er justeringsfaktoren1,49 for N = 5, 1,19 for N = 10, 1,08 for N = 20,1,05 for N = 30 og 1,02 for N = 100.
Skævheden for en normalfordeling er nul , og alle symmetriske data skal have en skævhed nær nul. Negative værdier for skævheden angiver data, der er skævt til venstre, og positive værdier for skævheden angiver data, der er skævt til højre. Ved skæv venstre, kvindes, at venstre hale er lang i forhold til højre hale. Tilsvarende betyder skæv højre, at højre hale er lang i forhold til venstre hale. Hvis dataene er multimodale, kan dette påvirke tegn på skævhed.
Nogle målinger har en nedre grænse og er skæv ret. For eksempel, i pålidelighedsundersøgelser, kan svigtstider ikke være negative.
Det skal bemærkes, at der er alternative definitioner af skævhed i litteraturen. F.eks. Er Galtons skævhed (også kendt som Bowleys skævhed) defineret som
- \
hvor Q1 er den nederste kvartil, Q3 er den øverste kvartil, og Q2 er medianen.
Pearson 2 skævhedskoefficient er defineret som
- \
hvor \ (\ tilde {Y} \) er medianen på prøven.
Der er mange andre definitioner på skævhed, der ikke diskuteres her .