Miembro : Login |Registro |Subir conocimiento
Buscar
Análisis de regresión [Modificación ]
En el modelado estadístico, el análisis de regresión es un conjunto de procesos estadísticos para estimar las relaciones entre las variables. Incluye muchas técnicas para modelar y analizar varias variables, cuando el foco está en la relación entre una variable dependiente y una o más variables independientes (o 'predictores'). Más específicamente, el análisis de regresión ayuda a entender cómo el valor típico de la variable dependiente (o "variable de criterio") cambia cuando se varía cualquiera de las variables independientes, mientras que las otras variables independientes se mantienen fijas.
Más comúnmente, el análisis de regresión estima la expectativa condicional de la variable dependiente dadas las variables independientes, es decir, el valor promedio de la variable dependiente cuando las variables independientes son fijas. Con menos frecuencia, el foco está en un cuantil u otro parámetro de ubicación de la distribución condicional de la variable dependiente dadas las variables independientes. En todos los casos, se debe estimar una función de las variables independientes llamada función de regresión. En el análisis de regresión, también es interesante caracterizar la variación de la variable dependiente alrededor de la predicción de la función de regresión usando una distribución de probabilidad. Un enfoque relacionado pero distinto es el análisis de condiciones necesarias (NCA), que estima el valor máximo (en lugar del promedio) de la variable dependiente para un valor dado de la variable independiente (línea de techo en lugar de línea central) para identificar qué valor de la variable independiente es necesaria pero no suficiente para un valor dado de la variable dependiente.
El análisis de regresión es ampliamente utilizado para predicción y predicción, donde su uso tiene una superposición sustancial con el campo del aprendizaje automático. El análisis de regresión también se usa para comprender cuál de las variables independientes está relacionada con la variable dependiente y para explorar las formas de estas relaciones. En circunstancias restringidas, el análisis de regresión puede usarse para inferir relaciones causales entre las variables independientes y dependientes. Sin embargo, esto puede conducir a ilusiones o relaciones falsas, por lo que se recomienda precaución; por ejemplo, la correlación no prueba la causalidad.
Se han desarrollado muchas técnicas para llevar a cabo el análisis de regresión. Los métodos conocidos, como la regresión lineal y la regresión por mínimos cuadrados ordinarios, son paramétricos, ya que la función de regresión se define en términos de un número finito de parámetros desconocidos que se estiman a partir de los datos. La regresión no paramétrica se refiere a las técnicas que permiten que la función de regresión se encuentre en un conjunto específico de funciones, que pueden ser de dimensión infinita.
El rendimiento de los métodos de análisis de regresión en la práctica depende de la forma del proceso de generación de datos y de cómo se relaciona con el enfoque de regresión que se utiliza. Dado que la verdadera forma del proceso de generación de datos generalmente no se conoce, el análisis de regresión a menudo depende en cierta medida al hacer suposiciones sobre este proceso. Estas suposiciones a veces se pueden verificar si hay una cantidad suficiente de datos disponible. Los modelos de regresión para la predicción a menudo son útiles incluso cuando los supuestos se violan moderadamente, aunque es posible que no funcionen de manera óptima. Sin embargo, en muchas aplicaciones, especialmente con pequeños efectos o preguntas de causalidad basadas en datos de observación, los métodos de regresión pueden dar resultados confusos.
En un sentido más restringido, la regresión puede referirse específicamente a la estimación de las variables de respuesta continua (dependiente), a diferencia de las variables de respuesta discreta utilizadas en la clasificación. El caso de una variable dependiente continua se puede referir más específicamente como regresión métrica para distinguirlo de los problemas relacionados.
[Estadística][Previsión][Aprendizaje automático][Datos][Recopilación de datos]
1.Historia
2.Modelos de regresión
2.1.Número necesario de mediciones independientes
3.Presunciones subyacentes
4.Regresión lineal
4.1.Modelo linear general
4.2.Diagnostico
4.3.Variables dependientes limitadas
5.Interpolación y extrapolación
6.Regresión no lineal
7.Cálculos de potencia y tamaño de muestra
8.Otros metodos
9.Software
[Subir Más Contenido ]


Derechos de autor @2018 Lxjkh