La prueba t de Student es una prueba estadística que se utiliza para comprobar si la diferencia entre las respuestas de dos grupos es estadísticamente significativa o no. Es cualquier prueba de hipótesis estadística en la que el estadístico de prueba sigue una distribución t de Student bajo la hipótesis nula . Se aplica más comúnmente cuando el estadístico de prueba seguiría una distribución normal si se conociera el valor de un término de escala en el estadístico de prueba (normalmente, el término de escala es desconocido y, por tanto, es un parámetro molesto ). Cuando el término de escala se estima en función de los datos , el estadístico de prueba, en determinadas condiciones, sigue una distribución t de Student . La aplicación más común de la prueba t es comprobar si las medias de dos poblaciones son significativamente diferentes. En muchos casos, una prueba Z arrojará resultados muy similares a una prueba t porque esta última converge a la primera a medida que aumenta el tamaño del conjunto de datos.
El término " estadística t " es la abreviatura de "estadística de prueba de hipótesis". [1] En estadística, la distribución t fue derivada por primera vez como una distribución posterior en 1876 por Helmert [2] [3] [4] y Lüroth . [5] [6] [7] La distribución t también apareció en una forma más general como distribución tipo IV de Pearson en el artículo de Karl Pearson de 1895. [8] Sin embargo, la distribución t , también conocida como distribución t de Student , recibe su nombre de William Sealy Gosset , quien la publicó por primera vez en inglés en 1908 en la revista científica Biometrika usando el seudónimo "Student" [9] [10] porque su empleador prefería que el personal usara seudónimos al publicar artículos científicos. [11] Gosset trabajaba en la fábrica de cerveza Guinness en Dublín , Irlanda , y estaba interesado en los problemas de las muestras pequeñas; por ejemplo, las propiedades químicas de la cebada con muestras de tamaño pequeño. Por lo tanto, una segunda versión de la etimología del término Student es que Guinness no quería que sus competidores supieran que estaban usando la prueba t para determinar la calidad de la materia prima. Aunque el término "Student" se debe a William Gosset, en realidad fue a través del trabajo de Ronald Fisher que la distribución se hizo conocida como "distribución de Student" [12] y " prueba t de Student ".
Gosset ideó la prueba t como una forma económica de controlar la calidad de la cerveza negra . El trabajo sobre la prueba t se presentó a la revista Biometrika y fue aceptado en ella, y se publicó en 1908. [9]
Guinness tenía una política de permitir que el personal técnico se ausentara para estudiar (la llamada "licencia de estudio"), que Gosset utilizó durante los dos primeros semestres del año académico 1906-1907 en el Laboratorio Biométrico del Profesor Karl Pearson en el University College de Londres . [13] La identidad de Gosset era entonces conocida por sus colegas estadísticos y por el editor en jefe Karl Pearson. [14]
Una prueba t de Student de una muestra es una prueba de ubicación para determinar si la media de una población tiene un valor especificado en una hipótesis nula . Para probar la hipótesis nula de que la media de la población es igual a un valor especificado μ 0 , se utiliza la estadística
donde es la media de la muestra, s es la desviación estándar de la muestra y n es el tamaño de la muestra. Los grados de libertad utilizados en esta prueba son n − 1 . Aunque no es necesario que la población original tenga una distribución normal, se supone que la distribución de la población de medias de muestra es normal.
Por el teorema del límite central , si las observaciones son independientes y existe el segundo momento, entonces será aproximadamente normal .
Prueba de ubicación de dos muestras de la hipótesis nula, de modo que las medias de dos poblaciones sean iguales. Todas estas pruebas suelen denominarse pruebas t de Student , aunque estrictamente hablando ese nombre solo debería utilizarse si también se supone que las varianzas de las dos poblaciones son iguales; la forma de la prueba utilizada cuando se descarta esta suposición a veces se denomina prueba t de Welch . Estas pruebas suelen denominarse pruebas t de muestras independientes o no pareadas , ya que normalmente se aplican cuando las unidades estadísticas subyacentes a las dos muestras que se comparan no se superponen. [15]
Las pruebas t de dos muestras para una diferencia en las medias involucran muestras independientes (muestras no pareadas) o muestras pareadas . Las pruebas t pareadas son una forma de bloqueo y tienen mayor potencia (probabilidad de evitar un error de tipo II, también conocido como falso negativo) que las pruebas no pareadas cuando las unidades pareadas son similares con respecto a los "factores de ruido" (ver factor de confusión ) que son independientes de la pertenencia a los dos grupos que se comparan. [16] En un contexto diferente, las pruebas t pareadas se pueden utilizar para reducir los efectos de los factores de confusión en un estudio observacional .
La prueba t para muestras independientes se utiliza cuando se obtienen dos conjuntos separados de muestras independientes e idénticamente distribuidas y se compara una variable de cada una de las dos poblaciones. Por ejemplo, supongamos que estamos evaluando el efecto de un tratamiento médico e inscribimos a 100 sujetos en nuestro estudio, luego asignamos aleatoriamente 50 sujetos al grupo de tratamiento y 50 sujetos al grupo de control. En este caso, tenemos dos muestras independientes y utilizaríamos la forma no pareada de la prueba t .
Las pruebas t de muestras pareadas generalmente consisten en una muestra de pares coincidentes de unidades similares , o un grupo de unidades que se ha probado dos veces (una prueba t de "medidas repetidas" ).
Un ejemplo típico de la prueba t de medidas repetidas sería cuando se realizan pruebas a los sujetos antes de un tratamiento, por ejemplo, para la presión arterial alta, y se vuelven a realizar pruebas a los mismos sujetos después del tratamiento con un medicamento para reducir la presión arterial. Al comparar los números del mismo paciente antes y después del tratamiento, estamos utilizando efectivamente a cada paciente como su propio control. De esa manera, el rechazo correcto de la hipótesis nula (aquí: de que el tratamiento no produjo ninguna diferencia) puede volverse mucho más probable, y el poder estadístico aumenta simplemente porque ahora se ha eliminado la variación aleatoria entre pacientes. Sin embargo, un aumento del poder estadístico tiene un precio: se requieren más pruebas y cada sujeto debe ser examinado dos veces. Debido a que la mitad de la muestra ahora depende de la otra mitad, la versión pareada de la prueba t de Student solo tienenorte/2 − 1 grados de libertad (siendo n el número total de observaciones). Los pares se convierten en unidades de prueba individuales y la muestra debe duplicarse para lograr el mismo número de grados de libertad. Normalmente, hay n − 1 grados de libertad (siendo n el número total de observaciones). [17]
Una prueba t de muestras pareadas basada en una "muestra de pares pareados" resulta de una muestra no pareada que se utiliza posteriormente para formar una muestra pareada, mediante el uso de variables adicionales que se midieron junto con la variable de interés. [18] La comparación se lleva a cabo identificando pares de valores que consisten en una observación de cada una de las dos muestras, donde el par es similar en términos de otras variables medidas. Este enfoque se utiliza a veces en estudios observacionales para reducir o eliminar los efectos de los factores de confusión.
Las pruebas t de muestras pareadas a menudo se denominan " pruebas t de muestras dependientes ".
La mayoría de las estadísticas de prueba tienen la forma t = Z / s , donde Z y s son funciones de los datos.
Z puede ser sensible a la hipótesis alternativa (es decir, su magnitud tiende a ser mayor cuando la hipótesis alternativa es verdadera), mientras que s es un parámetro de escala que permite determinar la distribución de t .
A modo de ejemplo, en la prueba t de una muestra
donde es la media muestral de una muestra X 1 , X 2 , …, X n , de tamaño n , s es el error estándar de la media , es la estimación de la desviación estándar de la población y μ es la media poblacional .
Los supuestos subyacentes a una prueba t en la forma más simple mencionada anteriormente son los siguientes:
En la prueba t que compara las medias de dos muestras independientes, se deben cumplir los siguientes supuestos:
La mayoría de las pruebas t de dos muestras son robustas a todos los supuestos, excepto a grandes desviaciones. [22]
Para mayor exactitud , la prueba t y la prueba Z requieren normalidad de las medias de la muestra, y la prueba t requiere además que la varianza de la muestra siga una distribución χ 2 escalada , y que la media de la muestra y la varianza de la muestra sean estadísticamente independientes . La normalidad de los valores de los datos individuales no es necesaria si se cumplen estas condiciones. Por el teorema del límite central , las medias de la muestra de muestras moderadamente grandes suelen aproximarse bien mediante una distribución normal incluso si los datos no se distribuyen normalmente. Sin embargo, el tamaño de la muestra necesario para que las medias de la muestra converjan a la normalidad depende de la asimetría de la distribución de los datos originales. La muestra puede variar de 30 a 100 o más valores dependiendo de la asimetría. [23] [24] F
Para datos no normales, la distribución de la varianza de la muestra puede desviarse sustancialmente de una distribución χ 2 .
Sin embargo, si el tamaño de la muestra es grande, el teorema de Slutsky implica que la distribución de la varianza de la muestra tiene poco efecto sobre la distribución de la estadística de prueba. Es decir, a medida que aumenta el tamaño de la muestra:
A continuación se presentan expresiones explícitas que se pueden utilizar para realizar varias pruebas t . En cada caso, se proporciona la fórmula para un estadístico de prueba que sigue exactamente o se aproxima mucho a una distribución t bajo la hipótesis nula. Además, se proporcionan los grados de libertad apropiados en cada caso. Cada uno de estos estadísticos se puede utilizar para realizar una prueba de una o dos colas .
Una vez que se determinan el valor t y los grados de libertad, se puede hallar un valor p utilizando una tabla de valores de la distribución t de Student . Si el valor p calculado está por debajo del umbral elegido para la significación estadística (normalmente el nivel 0,10, 0,05 o 0,01), se rechaza la hipótesis nula en favor de la hipótesis alternativa.
Supongamos que uno está ajustando el modelo
donde x es conocido, α y β son desconocidos, ε es una variable aleatoria distribuida normalmente con media 0 y varianza desconocida σ 2 , e Y es el resultado de interés. Queremos probar la hipótesis nula de que la pendiente β es igual a un valor especificado β 0 (que a menudo se toma como 0, en cuyo caso la hipótesis nula es que x e y no están correlacionados).
Dejar
Entonces
tiene una distribución t con n − 2 grados de libertad si la hipótesis nula es verdadera. El error estándar del coeficiente de pendiente :
puede escribirse en términos de los residuos. Sea
Entonces la puntuación t viene dada por
Otra forma de determinar la puntuación t es
donde r es el coeficiente de correlación de Pearson .
La puntuación t , la intersección se pueden determinar a partir de la puntuación t , la pendiente :
donde s x 2 es la varianza de la muestra.
Dados dos grupos (1, 2), esta prueba sólo es aplicable cuando:
Las violaciones de estos supuestos se analizan a continuación.
La estadística t para comprobar si las medias son diferentes se puede calcular de la siguiente manera:
dónde
Aquí s p es la desviación estándar agrupada para n = n 1 = n 2 , y s 2x1
y s 2
X 2son los estimadores insesgados de la varianza poblacional. El denominador de t es el error estándar de la diferencia entre dos medias.
Para la prueba de significancia, los grados de libertad para esta prueba son 2 n − 2 , donde n es el tamaño de la muestra.
Esta prueba se utiliza únicamente cuando se puede suponer que las dos distribuciones tienen la misma varianza (cuando se viola este supuesto, véase más adelante). Las fórmulas anteriores son un caso especial de las fórmulas siguientes, se recuperan cuando ambas muestras son iguales en tamaño: n = n 1 = n 2 .
La estadística t para comprobar si las medias son diferentes se puede calcular de la siguiente manera:
dónde
es la desviación estándar combinada de las dos muestras: se define de esta manera para que su cuadrado sea un estimador insesgado de la varianza común, independientemente de que las medias de la población sean las mismas o no. En estas fórmulas, n i − 1 es el número de grados de libertad de cada grupo, y el tamaño total de la muestra menos dos (es decir, n 1 + n 2 − 2 ) es el número total de grados de libertad, que se utiliza en las pruebas de significancia.
Esta prueba, también conocida como prueba t de Welch , se utiliza únicamente cuando no se supone que las varianzas de las dos poblaciones sean iguales (los dos tamaños de muestra pueden ser iguales o no) y, por lo tanto, deben estimarse por separado. La estadística t para comprobar si las medias de la población son diferentes se calcula como
dónde
Aquí s i 2 es el estimador insesgado de la varianza de cada una de las dos muestras con n i = número de participantes en el grupo i ( i = 1 o 2). En este caso no es una varianza agrupada. Para su uso en pruebas de significancia, la distribución de la estadística de prueba se aproxima como una distribución t de Student ordinaria con los grados de libertad calculados utilizando
Esto se conoce como ecuación de Welch-Satterthwaite . La distribución real de la estadística de prueba depende (levemente) de las dos varianzas poblacionales desconocidas (véase el problema de Behrens-Fisher ).
La prueba [25] aborda el famoso problema de Behrens-Fisher , es decir, comparar la diferencia entre las medias de dos poblaciones distribuidas normalmente cuando no se supone que las varianzas de las dos poblaciones sean iguales, basándose en dos muestras independientes.
La prueba se desarrolló como una prueba exacta que permite tamaños de muestra desiguales y varianzas desiguales de dos poblaciones. La propiedad exacta se mantiene incluso con tamaños de muestra extremadamente pequeños y desequilibrados (por ejemplo, ).
La estadística para comprobar si las medias son diferentes se puede calcular de la siguiente manera:
Sean y los vectores de muestra iid ( ) de y por separado.
Sea una matriz ortogonal cuyos elementos de la primera fila son todos , de manera similar, sean las primeras n filas de una matriz ortogonal (cuyos elementos de la primera fila son todos ).
Entonces es un vector aleatorio normal n-dimensional.
De la distribución anterior vemos que
Esta prueba se utiliza cuando las muestras son dependientes, es decir, cuando solo hay una muestra que se ha probado dos veces (medidas repetidas) o cuando hay dos muestras que se han emparejado o "emparejado". Este es un ejemplo de una prueba de diferencias pareadas . La estadística t se calcula como
donde y son la media y la desviación estándar de las diferencias entre todos los pares. Los pares son, por ejemplo, las puntuaciones de una persona antes y después de la prueba o entre pares de personas emparejadas en grupos significativos (por ejemplo, extraídas de la misma familia o grupo de edad: véase la tabla). La constante μ 0 es cero si queremos comprobar si la media de la diferencia es significativamente diferente. El grado de libertad utilizado es n − 1 , donde n representa el número de pares.
|
|
This article may need to summarize its corresponding main article in better quality. |
Sea A 1 un conjunto obtenido extrayendo una muestra aleatoria de seis mediciones:
y sea A 2 un segundo conjunto obtenido de manera similar:
Estos podrían ser, por ejemplo, los pesos de tornillos que fueron fabricados por dos máquinas diferentes.
Realizaremos pruebas de la hipótesis nula de que las medias de las poblaciones de las que se tomaron las dos muestras son iguales.
La diferencia entre las dos medias de muestra, cada una denotada por X i , que aparece en el numerador para todos los enfoques de prueba de dos muestras analizados anteriormente, es
Las desviaciones estándar de las muestras para las dos muestras son aproximadamente 0,05 y 0,11, respectivamente. Para muestras tan pequeñas, una prueba de igualdad entre las varianzas de las dos poblaciones no sería muy eficaz. Dado que los tamaños de las muestras son iguales, las dos formas de la prueba t de dos muestras tendrán un rendimiento similar en este ejemplo.
Si se sigue el enfoque para varianzas desiguales (discutido anteriormente), los resultados son
y los grados de libertad
La estadística de prueba es aproximadamente 1,959, lo que da un valor p de prueba de dos colas de 0,09077.
Si se sigue el enfoque de varianzas iguales (discutido anteriormente), los resultados son
y los grados de libertad
La estadística de prueba es aproximadamente igual a 1,959, lo que da un valor p de dos colas de 0,07857.
La prueba t proporciona una prueba exacta para la igualdad de las medias de dos poblaciones normales iid con varianzas desconocidas, pero iguales. ( La prueba t de Welch es una prueba casi exacta para el caso en que los datos son normales pero las varianzas pueden diferir). Para muestras moderadamente grandes y una prueba de una cola, la prueba t es relativamente robusta a violaciones moderadas del supuesto de normalidad. [26] En muestras suficientemente grandes, la prueba t se aproxima asintóticamente a la prueba z y se vuelve robusta incluso a grandes desviaciones de la normalidad. [19]
Si los datos son sustancialmente anormales y el tamaño de la muestra es pequeño, la prueba t puede arrojar resultados engañosos. Consulte la prueba de ubicación para distribuciones de mezclas de escala gaussiana para obtener información sobre algunas teorías relacionadas con una familia particular de distribuciones anormales.
Cuando el supuesto de normalidad no se cumple, una alternativa no paramétrica a la prueba t puede tener mejor poder estadístico . Sin embargo, cuando los datos no son normales con diferentes varianzas entre los grupos, una prueba t puede tener un mejor control de error de tipo 1 que algunas alternativas no paramétricas. [27] Además, los métodos no paramétricos, como la prueba U de Mann-Whitney analizada a continuación, normalmente no prueban una diferencia de medias, por lo que deben usarse con cuidado si una diferencia de medias es de interés científico primario. [19] Por ejemplo, la prueba U de Mann-Whitney mantendrá el error de tipo 1 en el nivel deseado alfa si ambos grupos tienen la misma distribución. También tendrá poder para detectar una alternativa por la cual el grupo B tiene la misma distribución que A pero después de algún cambio por una constante (en cuyo caso sí habría una diferencia en las medias de los dos grupos). Sin embargo, podría haber casos en los que el grupo A y el grupo B tengan distribuciones diferentes pero con las mismas medias (como dos distribuciones, una con asimetría positiva y la otra con asimetría negativa, pero desplazadas para que tengan las mismas medias). En tales casos, MW podría tener más poder que el nivel alfa para rechazar la hipótesis nula, pero atribuir la interpretación de la diferencia en las medias a tal resultado sería incorrecto.
En presencia de un valor atípico , la prueba t no es robusta. Por ejemplo, para dos muestras independientes cuando las distribuciones de datos son asimétricas (es decir, las distribuciones están sesgadas ) o las distribuciones tienen colas grandes, entonces la prueba de suma de rangos de Wilcoxon (también conocida como prueba U de Mann-Whitney ) puede tener una potencia tres o cuatro veces mayor que la prueba t . [26] [28] [29] La contraparte no paramétrica de la prueba t para muestras pareadas es la prueba de rangos con signo de Wilcoxon para muestras pareadas. Para una discusión sobre la elección entre la prueba t y las alternativas no paramétricas, consulte Lumley, et al. (2002). [19]
El análisis de varianza unidireccional (ANOVA) generaliza la prueba t de dos muestras cuando los datos pertenecen a más de dos grupos.
Cuando en el diseño de dos muestras se encuentran presentes tanto observaciones pareadas como observaciones independientes, suponiendo que los datos faltan de forma completamente aleatoria (MCAR), se pueden descartar las observaciones pareadas o las observaciones independientes para continuar con las pruebas estándar anteriores. Como alternativa, haciendo uso de todos los datos disponibles, suponiendo normalidad y MCAR, se podría utilizar la prueba t generalizada de muestras parcialmente superpuestas . [30]
Una generalización de la estadística t de Student , llamada estadística t -cuadrada de Hotelling , permite probar hipótesis en múltiples medidas (a menudo correlacionadas) dentro de la misma muestra. Por ejemplo, un investigador puede someter a varios sujetos a una prueba de personalidad que consta de múltiples escalas de personalidad (por ejemplo, el Inventario Multifásico de Personalidad de Minnesota ). Debido a que las medidas de este tipo suelen estar correlacionadas positivamente, no es aconsejable realizar pruebas t univariadas separadas para probar hipótesis, ya que estas descuidarían la covarianza entre las medidas e inflarían la posibilidad de rechazar falsamente al menos una hipótesis ( error de tipo I ). En este caso, es preferible una sola prueba multivariada para probar hipótesis. El método de Fisher para combinar múltiples pruebas con alfa reducido para correlación positiva entre pruebas es uno. Otro es la estadística T 2 de Hotelling que sigue una distribución T 2. Sin embargo, en la práctica, la distribución rara vez se utiliza, ya que los valores tabulados para T 2 son difíciles de encontrar. Generalmente, T 2 se convierte en una estadística F.
Para una prueba multivariante de una muestra, la hipótesis es que el vector medio ( μ ) es igual a un vector dado ( μ 0 ). La estadística de prueba es la t 2 de Hotelling :
donde n es el tamaño de la muestra, x es el vector de medias de columnas y S es una matriz de covarianza de muestra m × m .
Para una prueba multivariante de dos muestras, la hipótesis es que los vectores de media ( μ 1 , μ 2 ) de dos muestras son iguales. El estadístico de prueba es la t 2 de Hotelling para dos muestras :
La prueba t de dos muestras es un caso especial de regresión lineal simple como lo ilustra el siguiente ejemplo.
En un ensayo clínico se examina a 6 pacientes a los que se les administra un medicamento o un placebo. Tres (3) pacientes reciben 0 unidades del medicamento (el grupo placebo). Tres (3) pacientes reciben 1 unidad del medicamento (el grupo de tratamiento activo). Al final del tratamiento, los investigadores miden el cambio con respecto al valor inicial en la cantidad de palabras que cada paciente puede recordar en una prueba de memoria.
A continuación se muestra una tabla del recuerdo de palabras de los pacientes y los valores de las dosis del medicamento.
Paciente | dosis del medicamento | palabra.recordar |
---|---|---|
1 | 0 | 1 |
2 | 0 | 2 |
3 | 0 | 3 |
4 | 1 | 5 |
5 | 1 | 6 |
6 | 1 | 7 |
Se proporcionan datos y códigos para el análisis utilizando el lenguaje de programación R con las funciones t.test
y lm
para la prueba t y la regresión lineal. Aquí se muestran los mismos datos (ficticios) anteriores generados en R.
> palabra.recuperación.datos = datos.marco ( droga.dosis = c ( 0 , 0 , 0 , 1 , 1 , 1 ), palabra.recuperación = c ( 1 , 2 , 3 , 5 , 6 , 7 ))
Realice la prueba tvar.equal=T
. Observe que se requiere el supuesto de varianzas iguales, , para que el análisis sea exactamente equivalente a la regresión lineal simple.
> con ( palabra.recuperación.datos , t.prueba ( palabra.recuperación ~ fármaco.dosis , var.igual = T ))
La ejecución del código R arroja los siguientes resultados.
Realice una regresión lineal de los mismos datos. Los cálculos se pueden realizar utilizando la función R lm()
para un modelo lineal.
> palabra.recuperación.datos.lm = lm ( palabra.recuperación ~ fármaco.dosis , datos = palabra.recuperación.datos ) > resumen ( palabra.recuperación.datos.lm )
La regresión lineal proporciona una tabla de coeficientes y valores p.
Coeficiente | Estimar | Error estándar | valor t | Valor p |
---|---|---|---|---|
Interceptar | 2 | 0,5774 | 3.464 | 0,02572 |
dosis del medicamento | 4 | 0,8165 | 4.899 | 0,000805 |
La tabla de coeficientes da los siguientes resultados.
Los coeficientes de la regresión lineal especifican la pendiente y el punto de corte de la línea que une las medias de los dos grupos, como se ilustra en el gráfico. El punto de corte es 2 y la pendiente es 4.
Compare el resultado de la regresión lineal con el resultado de la prueba t .
Este ejemplo muestra que, para el caso especial de una regresión lineal simple donde hay una única variable x con valores 0 y 1, la prueba t arroja los mismos resultados que la regresión lineal. La relación también se puede mostrar algebraicamente.
Reconocer esta relación entre la prueba t y la regresión lineal facilita el uso de la regresión lineal múltiple y el análisis de varianza de múltiples vías . Estas alternativas a las pruebas t permiten la inclusión de variables explicativas adicionales asociadas con la respuesta. La inclusión de dichas variables explicativas adicionales mediante regresión o ANOVA reduce la varianza que de otro modo no se explica y, por lo general, produce un mayor poder para detectar diferencias que las pruebas t de dos muestras .
Muchos programas de hojas de cálculo y paquetes de estadísticas, como QtiPlot , LibreOffice Calc , Microsoft Excel , SAS , SPSS , Stata , DAP , gretl , R , Python , PSPP , Wolfram Mathematica , MATLAB y Minitab , incluyen implementaciones de la prueba t de Student .
Idioma/Programa | Función | Notas |
---|---|---|
Microsoft Excel anterior a 2010 | TTEST(array1, array2, tails, type) | Ver [1] |
Microsoft Excel 2010 y versiones posteriores | T.TEST(array1, array2, tails, type) | Ver [2] |
Números de Apple | TTEST(sample-1-values, sample-2-values, tails, test-type) | Ver [3] |
Calc de LibreOffice | TTEST(Data1; Data2; Mode; Type) | Ver [4] |
Hojas de cálculo de Google | TTEST(range1, range2, tails, type) | Ver [5] |
Pitón | scipy.stats.ttest_ind(a, b, equal_var=True) | Véase [6] |
MATLAB | ttest(data1, data2) | Véase [7] |
Matemática | TTest[{data1,data2}] | Véase [8] |
R | t.test(data1, data2, var.equal=TRUE) | Véase [9] |
SAS | PROC TTEST | Véase [10] |
Java | tTest(sample1, sample2) | Véase [11] |
Julia | EqualVarianceTTest(sample1, sample2) | Véase [12] |
Estado | ttest data1 == data2 | Véase [13] |
{{cite book}}
: CS1 maint: DOI inactive as of November 2024 (link)