Rectas de Regresión
Si al calcular el coeficiente de correlación lineal obtenemos un número que en valor absoluto está próximo a 1, podemos afirmar que hay alguna recta que “aproxima” la nube de puntos.
Al considerar la relación lineal entre X e Y caben dos posibilidades, el estudio del comportamiento de Y en función de los valores que tome X y viceversa. En el primer caso Y será la variable dependiente y X la independiente, a esta recta se le llama recta de regresión de Y sobre X. Al caso contrario se le llama recta de regresión de X sobre Y.
Determinaremos la recta de regresión de Y sobre X y por analogía se deducirá la de X sobre Y.
Sean X e Y dos variables de las que tenemos n observaciones conjuntas, habrá n pares de la forma
. La recta de regresión de Y sobre X será la que aproxime los valores que toman las variables y tendrá la forma
. Para cada xi
,
será una aproximación de y i. El error que se comete es
, si hacemos lo mismo con todos los valores habrá una serie de errores donde unos serán por exceso y otros por defecto con lo que se pueden compensar unos con otros. Para evitar la llegada a conclusiones erróneas debido a esa compensación calcularemos los errores al cuadrado.
. La recta de regresión de Y sobre X será aquella que minimice la suma de los errores al cuadrado. Este método de determinación de la recta de regresión se llama de mínimos cuadrados.
Hay que minimizar ![]()
Tras los cálculos pertinentes (si deseas ver la deducción pincha aquí) se deduce que :
![]()
![]()
La recta de regresión de Y sobre X queda:
o ![]()
Análogamente, obtenemos la recta de regresión de X sobre Y.
Intercambiado los papeles de X e Y
o ![]()
Características de las rectas de regresión
Estas predicciones tendrán sentido y serán más significativas cuanto mayor sea la correlación entre las variables.
1