Guía

 

Análisis Multivariante

   
 

www.virtual.unal.edu.co

 

Palabras Clave: Análisis Multivariante,  análisis discriminante, técnicas multivariables

 

 

 

Análisis Multivariante

DEFINICION

El análisis multivariante no es fácil de definir. En un sentido amplio, se refiere a todos los métodos estadísticos que analizan simultáneamente medidas múltiples de cada individuo u objeto sometido a investigación. Cualquier análisis simultáneo de más de dos variables puede ser considerado aproximadamente como un análisis multivariante. En sentido estricto, muchas técnicas multivariantes son extensiones del análisis univariante (análisis de distribuciones de una sola variable) y del análisis bivariante (clasificaciones cruzadas, correlación, análisis de la varianza y regresiones simples utilizadas para analizar dos variables). Por ejemplo, una regresión simple (con una variable predictor) se extiende al caso multivariante para incluir varias variables predictor. De la misma forma, la variable dependiente que se encuentra en el análisis de la varianza se extiende para incluir múltiples variables dependientes en el análisis multivariante de la varianza, Como veremos más adelante, en muchas ocasiones las técnicas multivariantes son un medio de representar en un análisis simple aquello que requirió varios análisis utilizando técnicas univariantes. Otras técnicas multivariantes, sin embargo, están diseñadas exclusivamente para tratar con problemas multivariantes, tales como el análisis factorial que sirve para identificar la estructura subyacente de un conjunto de variables o el análisis discriminante que sirve para diferenciar entre grupos basados en un conjunto de variables.

Una de las razones de la dificultad de definir el análisis multivariante es que el término multivariante no se usa de la misma forma en la literatura. Para algunos investigadores, multivariante significa simplemente examinar relaciones entre más de dos variables. Otros usan el término sólo para problemas en los que se supone que todas las variables múltiples tienen una distribución normal multivariante. Sin embargo, para ser considerado verdaderamente multivariante, todas las variables deben ser aleatorias y estar interrelacionadas de tal forma que sus diferentes efectos no puedan ser interpretados separadamente con algún sentido. Algunos autores afirman que el propósito del análisis multivariante es medir, explicar y predecir el grado de relación de los valores teóricos (combinaciones ponderadas de variables). Por tanto, el carácter multivariante reside en los múltiples valores teóricos (combinaciones múltiples de variables) y no sólo en el número de variables u observaciones. A efectos de este libro, no insistiremos en una definición rígida del análisis multivariante. En lugar de esto, el análisis multivariante incluirá tanto técnicas multivariables como técnicas multivariantes, debido a que los autores creen que el conocimiento de las técnicas multivariables es un primer paso esencial en la comprensión del análisis multivariante.

ALGUNOS CONCEPTOS BASICOS DEL ANALISIS MULTIVARIANTE

Aunque el análisis multivariante tiene sus raíces en la estadística univariante y bivariante, la extensión al dominio multivariante introduce conceptos y cuestiones adicionales. Estos conceptos van desde la necesidad de un entendimiento conceptual del elemento básico del análisis multivariante (el valor teórico) a las cuestiones especificas acerca de los tipos de escalas de medida utilizadas y los resultados estadísticos de los test de significación y los intervalos de confianza. Cada concepto juega un papel importante en la correcta aplicación de cualquier técnica multivariante.

EL VALOR TEORICO

Como ya se ha mencionado, el elemento esencial del análisis multivariante es el valor teórico, una combinación lineal de variables con ponderaciones determinadas empíricamente. El investigador especifica las variables, mientras que las ponderaciones son objeto específico de determinación por parte de la técnica multivariante, Un valor teórico de n variables ponderadas (X1a Xn) puede expresarse matemáticamente así:

Valor teórico = w1X1 + w2X2 + w3X3 + … + wnXn

­donde Xnes la variable observada y Wnes la ponderación determinada por la técnica multiva­riante.

El resultado es un valor único que representa una combinación de todo el conjunto de variables que mejor se adaptan al objeto del análisis multivariante específico. En regresiones múltiples, el valor teórico se determina de tal forma que guarde la mejor correlación con la variable que se está prediciendo. En el análisis discriminante, el valor teórico se forma de tal manera que produzca resultados para cada observación que diferencien de forma máxima entre grupos de observaciones. Y en el análisis factorial, los valores teóricos se forman para representar mejor las estructuras subyacentes o la dimensionalidad de las variables tal y como se representan en sus intercorre­laciones.

En cada caso, el valor teórico capta el carácter multivariante del análisis. Por tanto, en nues­tras discusiones de cada técnica, el valor teórico es el punto central del análisis por varias razones. Debemos entender no sólo su impacto conjunto para lograr cumplir el objetivo de cada técnica, sino también la contribución de cada variable separada al efecto del valor teórico en su conjunto.

ESCALAS DE MEDIDA

El análisis de los datos implica la separación, identificación y medida de la variación en un conjunto de variables, tanto entre ellas mismas como entre una variable dependiente y una o más variables independientes. El término clave aquí es medida, dado que el investigador no puede separar o identificar una variación a menos que pueda ser mesurable. La medida es importante para representar con precisión el concepto de nuestro interés y es crucial en la selección del método de análisis multivariante apropiado. En los siguientes párrafos vamos a discutir el concepto de medida en lo que se refiere al análisis de datos y particularmente a las diversas técnicas multivariantes.

Existen dos tipos básicos de datos: no métricos (cualitativos) y métricos (cuantitativos). Los datos no métricos son atributos, características o propiedades categóricas que identifican o describen a un sujeto. Describen diferencias en tipo o clase indicando la presencia o ausencia de una característica o propiedad. Muchas propiedades son discretas porque tienen una característica peculiar que excluye todas las demás características. Por ejemplo, si uno es hombre, no puede ser mujer; No hay cantidad de «género», sólo la condición de ser hombre o mujer. Por el contrario, las medidas de datos métricos están constituidas de tal forma que los sujetos pueden ser identificados por diferencias entre grado o cantidad. Las variables medidas métricamente reflejan cantidades relativas o grado. Las medidas métricas son las más apropiadas para casos que involucran cantidad o magnitud, tales como el nivel de satisfacción o la demanda de trabajo.

Escalas de medidas no metricas

Las medidas no métricas pueden tener escalas nominales u ordinales. La medida con una escala nominal asigna números que se usan para etiquetar o identificar sujetos u objetos. Las escalas nominales, también conocidas como escalas de categoría, proporcionan el número de ocurrencias en cada clase o categoría de la variable que se está estudiando. Por tanto, los números o símbolos asignados a los objetos no tienen más significado cuantitativo que indicar la presencia o ausencia del atributo o característica bajo investigación. Los ejemplos de datos con escala nominal incluyen el sexo, la religión o el partido político de una persona. Para trabajar con estos datos, el analista puede asignar números a cada categoría, por ejemplo, 2 para mujeres y 1 para hombres. Estos números sólo representan categorías o clases y no implican cantidades de un atributo o característica.

Las escalas ordinales representan un nivel superior de precisión de la medida. Las variables pueden ser ordenadas o clasificadas con escalas ordinales en relación a la cantidad del atributo poseído. Cada subclase puede ser comparada con otra en términos de una relación de «mayor que» o «menor que». Por ejemplo. los diferentes niveles de satisfacción del consumidor individual con diferentes productos nuevos puede ilustrarse en una escala ordinal. La siguiente escala muestra la idea que tiene un encuestado acerca de tres productos. El encuestado está más satisfecho con A que con B y más satisfecho con B que con C.

Los números utilizados en escalas ordinales como éstas no son cuantitativos, dado que indican sólo posiciones relativas en series ordenadas. No hay medida de cuánta satisfacción recibe el consumidor en términos absolutos, el investigador ni conoce la diferencia exacta entre puntos de la escala de satisfacción. Muchas escalas de las ciencias del comportamiento caen dentro de esta categoría ordinal.

Escalas de medidas métricas

Las escalas de intervalos y de razón (ambas métricas) proporcionan el nivel más alto de medida de precisión, permitiendo realizar casi todas las operaciones matemáticas. Estas dos escalas tienen unidades constantes de medida, de tal forma que las diferencias entre dos puntos adyacentes de cualquier parte de la escala son iguales. La única diferencia real entre las escalas de intervalo y las de razón es que las de intervalo tienen un punto cero arbitrario, mientras que las escalas de razón tienen un punto de cero absoluto. Las escalas de intervalo más familiares son las escalas de temperatura Celsius y Fahrenheit. Ambas tienen un punto de cero arbitrario, pero ese cero no indica una cantidad cero o ausencia de temperatura, dado que podemos registrar temperaturas por debajo del punto cero de esa escala. Por tanto, no es posible decir que un valor cualquiera situado en un intervalo de la escala es un múltiplo de cualquier otro punto de la escala. Por ejemplo, si un día se registran 80°F, no se puede decir que sea dos veces más caluroso que uno de 40°F porque sabemos que 80°F, en una escala diferente como Celsius, equivalen a 26,7°C. De la misma forma, 40°F en Celsius corresponden a 4,4°C. Aunque 80°F son, desde luego, dos veces 40°F, no se puede afirmar que el calor de 80°F sea dos veces el calor de 40°F porque usando diferentes escalas, el calor no es dos veces mayor; esto es, 4,4°F X 2 '* 26,7°C.

Las escalas de razón representan la forma superior de medida de precisión, dado que poseen las ventajas de todas las escalas inferiores más un punto de cero absoluto. Con las medidas de escala de razón se permiten todas las operaciones matemáticas. El peso que tenemos en el baño u otras máquinas de peso comunes utilizan estas escalas, dado que tienen un punto de cero absoluto y que pueden ser expresados en términos de múltiplos cuando se relaciona un punto con otro de la escala; por ejemplo, 100 kilos es dos veces más pesado que 50 kilos.

Es importante entender los diferentes tipos de escalas de medida por dos razones. En primer lugar, el investigador debe identificar la escala de medida de cada variable empleada, de tal forma que no se estén utilizando datos no métricos como si fueran métricos. En segundo lugar, la escala de medida es crucial para determinar qué técnica multivariante es la más conveniente para los datos, consideración hecha tanto para las variables dependientes como las independientes. En la discusión de las técnicas y su clasificación, que haremos en posteriores secciones de este capítulo, las propiedades métricas o no métricas de las variables dependientes o independientes son los factores determinantes en la selección de la técnica apropiada.

ERROR DE MEDIDA Y MEDIDAS MULTIVARIANTES

El uso de múltiples variables así como la dependencia de su combinación (el valor teórico) en las técnicas multivariantes también dirige su atención a un tema complementario, el error de medida.

El error de medida es el grado en que los valores observados no son representativos de los valores «verdaderos». El error de medida tiene múltiples fuentes, que van desde errores en la entrada de datos a la imprecisión en la medición (por ejemplo, imponiendo escalas de puntuación de siete puntos a la actitud medida cuando el investigador sabe que los encuestados sólo pueden responder con precisión a una puntuación de tres puntos) pasando por la incapacidad de los encuestados a proporcionar información precisa (por ejemplo, las respuestas a la renta de una economía familiar pueden ser razonablemente precisas pero rara vez lo son completamente). Por tanto, se debe asumir que todas las variable usadas en las técnicas multivariantes tienen algún grado de error de medida. El impacto del error de medida es añadir «ruido» a las variables medidas u observadas. Por tanto, el valor observado obtenido representa tanto el nivel «verdadero» como el «ruido». Cuando se calculan correlaciones o medias, normalmente el efecto «verdadero» está parcialmente camuflado por el error de medida, causando la debilidad de las correlaciones y la pérdida de precisión de las medias.

El objetivo del investigador de reducir el error de medida puede seguir varios caminos. Al valorar el grado de error de medida presente en cualquier medición, el analista debe enfrentarse tanto con la validez como con la fiabilidad de la medida. La validez es el grado en que la medida representa con precisión lo que se supone que representa. Por ejemplo, si queremos medir la renta discrecional, no preguntaremos por la renta total de las economías domésticas. Asegurar la validez empieza con un conocimiento profundo de lo que se va a medir y sólo entonces realizar la medida tan «correcta» y precisa como sea posible. Sin embargo, la precisión no asegura la validez. En nuestro ejemplo de la renta, el investigador podría definir muy precisamente el total de la renta familiar pero no tiene una medida válida de la renta discrecional porque no se ha planteado la pregunta «correcta».

Si la validez está asegurada, el investigador debe considerar la fiabilidad de las medidas. La fiabilidad es el grado en que la variable observada mide el valor «verdadero» y está «libre de error»; por tanto es lo opuesto al error de medida. Si la misma medida se realiza repetidas veces, por ejemplo, las medidas más fiables mostrarán una mayor consistencia que las medidas menos fiables. El investigador deberá valorar siempre las variables que están siendo usadas y si se pueden encontrar medidas alternativas válidas, elegir la variable con la mayor fiabilidad.

El investigador puede también optar por desarrollar mediciones multivariantes, también conocidas como escalas sumadas, donde diversas variables se unen en una medida compuesta para representar un concepto (por ejemplo, una escala de personalidad de entrada múltiple o puntuaciones sumadas de un producto). El objetivo es evitar usar sólo una única variable para representar un concepto, y en su lugar utilizar varias variables como indicadores, representando todos ellos diferentes facetas del concepto para obtener una perspectiva más completa. El uso de indicadores múltiples permite al investigador llegar a una especificación más precisa de las respuestas deseadas y no deja la fiabilidad plena a una única respuesta sino en la respuesta «media» o «típica» de un conjunto de respuestas relacionadas. Por ejemplo, al medir la satisfacción, uno podría preguntar una única cuestión, «¿cuál es su grado de satisfacción?», y basar el análisis en una única respuesta. O se podría desarrollar una escala aditiva que combinara varias respuestas de satisfacción, quizá en diferentes formatos de respuesta y en diferentes áreas de interés, que contemple la satisfacción total. La premisa básica es que las respuestas múltiples reflejan con mayor precisión la respuesta «verdadera» que la respuesta única.

El impacto del error de medida y la escasa fiabilidad no pueden ser observadas directamente, dado que se encuentran en las variables observadas. El investigador debe, por tanto, trabajar siempre para aumentar la validez y la fiabilidad, lo que al final llevará a un retrato más «auténtico» de las variables de interés. Los malos resultados no siempre se deben al error de medida, pero la presencia del error de medida es garantía de distorsión en las relaciones observadas y hace menos poderosas las técnicas multivariantes. Reducir el error de medida, aunque implique esfuerzo, tiempo y recursos adicionales, puede mejorar resultados débiles o marginales, así como fortalecer resul­tados probados.

SIGNIFICACION ESTADISTICA FRENTE A POTENCIA ESTADISTICA

Todas las técnicas multivariantes, excepto el análisis cluster y el análisis multidimensional, se basan en la inferencia estadística de los valores de una población o la relación entre variables de una muestra escogida aleatoriamente de esa población. Si estamos realizando un Censo de toda la población, entonces la inferencia estadística no es necesaria, porque cualquier diferencia o relación, por pequeña que sea, es «verdad» y existe. Pero rara vez, casi nunca, se realiza un censo; por tanto, el investigador está obligado a deducir inferencias de una muestra.

Para interpretar las inferencias estadísticas, el investigador debe especificar los niveles aceptables de error estadístico. El modo de aproximación más común es determinar el nivel de error de Tipo I, también conocido como alfa (α). El error de Tipo I es la probabilidad de rechazar la hipótesis nula cuando es cierta, o expresado en términos más sencillos, la posibilidad de que la prueba muestre significación estadística cuando en realidad no está presente (el caso de un «positivo falso»). Especificando un nivel alfa, el investigador fija los márgenes admisibles de error especificando la probabilidad de concluir que la significación existe cuando en realidad no existe.

Al especificar el nivel de error de Tipo I. el investigador también determina un error asociado. denominado el error de Tipo II o beta (β). El error de Tipo II es la probabilidad de fallar en rechazar la hipótesis nula cuando es realmente falsa. Una probabilidad más interesante es 1 - β, denominado la potencia del test de inferencia estadística. Potencia es la probabilidad de rechazar correctamente la hipótesis nula cuando debe ser rechazada. Por tanto, la potencia es la probabilidad de que la inferencia estadística se indique cuando esté presente.

Aunque la especificación alfa establece el nivel de significación estadística aceptable, es el nivel de potencia el que dicta la probabilidad de «éxito» en la búsqueda de las diferencias si es que realmente existen. Entonces, ¿por qué no se plantean niveles aceptables tanto de alfa como de beta? Porque los errores de Tipo I y Tipo II están inversamente relacionados, y a medida que el error de Tipo I se hace más restrictivo (se acerca a cero), el error de Tipo II aumenta. Al disminuir el error de Tipo I también se reduce el poder de la prueba estadística. Por tanto, el analista tiene que conseguir un equilibrio entre el nivel de alfa y la potencia resultante.

La potencia no es sólo una función de alfa; Realmente está determinada por tres factores:

1.Efecto tamaño: La probabilidad de conseguir significación estadística se basa no sólo en consideraciones estadísticas sino también en la magnitud real del efecto que nos interesa (por ejemplo, una diferencia de medias entre dos grupos o la correlación entre variables) en la población, denominado efecto tamaño. Como cabría esperar, un efecto grande es más probable de encontrar que un efecto pequeño y por tanto, afecta a la potencia de la prueba estadística. Para evaluar la potencia de cualquier prueba estadística, el investigador debe entender primero el efecto examinado. Los efectos de tamaños se miden en términos estandarizados para facilitar la comparación. Las diferencias respecto de la media se determinan en términos de desviaciones estándar, así que un efecto tamaño de 0,5 indica que la diferencia respecto de la media es la mitad de la desviación estándar. Para las correlaciones, el efecto tamaño se basa en la correlación efectiva entre las variables.

2.Alfa (α):  Como ya se ha discutido, a medida que alfa se vuelve más restrictivo, la potencia decrece. Esto significa que como el analista reduce la oportunidad de encontrar un efecto incorrecto significativo, la probabilidad de encontrar correctamente un efecto también disminuye. Las directrices convencionales sugieren niveles alfa de 0,05 o 0,01. Pero el investigador debe considerar el impacto de esta decisión sobre la potencia antes de seleccionar el nivel alfa.

3.El tamaño de la muestra: Para cualquier nivel de alfa dado, el aumento de la muestra siempre produce una mayor potencia del Test estadístico. Pero aumentar el tamaño de la muestra también puede producir «demasiada» potencia. Por este hecho, entendemos que al aumentar el tamaño de la muestra, se observará que efectos cada vez más y más pequeños serán significativos, hasta que para muestras muy grandes casi cualquier efecto es significativo. El investigador debe tener siempre presente que el tamaño de la muestra puede afectar a la prueba estadística tanto por hacerla insensible (para muestras muy pequeñas) o demasiado sensible (para muestras muy grandes).

Las relaciones entre alfa, tamaño de la muestra, efecto tamaño y potencia son bastante complicadas, pero se pueden encontrar ciertos puntos de partida. Cohen ha examinado la potencia para la mayor parte de las pruebas de inferencia estadística y ha proporcionado pautas para los niveles aceptables de potencia, sugiriendo que los estudios deben diseñarse para conseguir niveles de alfa de al menos 0,05 con niveles de potencia del 80 por ciento.

Para conseguir dichos niveles, deben considerarse simultáneamente los tres factores. Estas interrelaciones se pueden ilustrar mediante dos ejemplos sencillos. El primero implica la comprobación de la diferencia entre las puntuaciones medias de dos grupos. Suponiendo que el efecto tamaño sea entre pequeño (0,02) y moderado (0,5), el investigador debe determinar el nivel alfa y el tamaño de muestra necesario de cada grupo. La Tabla 1.1 ilustra el impacto tanto del tamaño de la mues­tra como del nivel alfa sobre la potencia. Como puede verse, la potencia llega a ser aceptable para tamaños de muestra de 100 o más en situaciones con un efecto tamaño moderado para ambos niveles de alfa. Pero cuando ocurre un efecto tamaño pequeño, las pruebas estadísticas tiene poca potencia, incluso con niveles de alfa expandidos a muestras de 200 o más. Por ejemplo, una muestra de 200 en cada grupo con un alfa de 0,05 todavía tiene un 50 por ciento de posibilidades de encontrarse diferencias significativas si el efecto tamaño es pequeño. Esto sugiere que el analista, al anticipar que los efectos van a ser pequeños, debe diseñar el estudio con muestras mucho mayores y/o niveles de alfa menos restrictivos (0,05 o 0,10).

 

Tamaño muestral alfa (x) = 0.05
Efecto tamaño (ET)
alfa (x) = 0.01
Efecto tamaño (ET)
Pequeño (0.2) Moderado (0.5) Pequeño (0.2) Moderado (0.5)
20 0.095 0.338 0.025 0.144
40 0.143 0.598 0.045 0.349
60 0.192 0.775 0.067 0.549
80 0.242 0.882 0.092 0.709
100 0.290 0.940 0.120 0.823
150 0.411 0.990 0.201 0.959
200 0.516 0.998 0.284 0.992

TABLA 1.1. Niveles de potencia para la comparación entre dos medias: variaciones por el tamaño de la muestra, el nivel de significación y el efecto tamaño
Fuente: Solo Power Analysis. BMDP Statistical Software, Inc

 

 

En el segundo ejemplo, la Figura 1.1 representa gráficamente ]a potencia para niveles de significación de 0,01; 0,5 Y 0,10 con tamaños de muestra de 20 a 300 por grupo, cuando el efecto tamaño (0,35) es entre pequeño y moderado. Enfrentado a tales perspectivas, la especificación de un nivel de sig­nificación de un 0,01 requiere una muestra de 200 por grupo para conseguir el nivel deseado de potencia del 80 por ciento. Pero si se relaja el nivel alfa, se alcanza la potencia del 80 por ciento para muestras de 130 para un nivel alfa 0,05 y muestras de 100 para un nivel de signi­ficación de un 0,10.

Tales análisis permiten al investigador tomar decisiones más adecuadas en el estudio, diseño e interpretación de los resultados. Al planificar la investigación, el investigador debe estimar el efecto tamaño esperado para seleccionar entonces el tamaño de la muestra y el nivel alfa para conseguir el nivel de potencia deseado. Además de sus usos para la planificación, el análisis de potencia se utiliza también después de que el análisis ha terminado para determinar la potencia real conseguida, de tal forma que los resultados puedan ser correctamente interpretados. ¿Se deben los resultados al efecto tamaño, tamaño muestral o niveles de significación? Los analistas pueden evaluar cada uno de estos factores por su impacto sobre la significatividad o no significatividad de los resultados. El investigador puede referirse hoy en día a estudios publicados donde se analizan los detalles concretos de la determinación de la potencia  o acudir a varios programas de ordenador personal que asisten en los estudios de planificación para conseguir la potencia deseada o calcular la potencia de los resultados reales.
Habiendo ya expuesto la extensión de las técnicas multivariantes desde sus orígenes univariantes o bivariantes, introduciremos ahora brevemente cada método multivariante. A partir de la introducción de las técnicas, presentamos un esquema de clasificación para ayudar en la selección de la técnica apropiada respecto de la identificación de los objetivos de investigación (relaciones de dependencia o independencia) y el tipo de datos (métricos o no métricos).

CLASIFICACION DE LAS TECNICAS MULTIVARIANTES

Para ayudarle a familiarizarse con las técnicas multivariantes, presentamos una clasificación de los métodos multivariantes. Esta clasificación se basa en tres juicios que el analista debe hacer sobre el objeto a investigar y la naturaleza de los datos: (l) ¿pueden dividirse las variables en dependientes o independientes basándose la clasificación en alguna teoría? (2) Si puede hacerse, ¿cuántas de estas variables son tratadas como dependientes en un análisis simple? (3) ¿Cómo son las variables medidas? La selección de la técnica multivariante apropiada depende de las respuestas a estas tres cuestiones.

Cuando consideramos la aplicación de las técnicas estadísticas multivariantes, la primera cuestión que nos debemos preguntar es, ¿pueden dividirse las variables mediante la clasificación de dependiente e independiente? La respuesta a esta cuestión indica si se debería utilizar un análisis de dependencia o interdependencia.

Un análisis de dependencia puede definirse como aquel en el que una variable o conjunto de variables es identificado como la variable dependiente y que va a ser explicada por otras variables conocidas como variables independientes. Como ejemplo de una dependencia técnica tenemos el análisis de regresión múltiple. Como contraste, un análisis de interdependencia es aquel en que ninguna variable o grupo de variables es definido como independiente o dependiente. Más bien, el procedimiento implica el análisis de todas las variables del conjunto simultáneamente. El análisis factorial es un ejemplo de un análisis de interdependencia.

Los diferentes métodos que constituyen el análisis de dependencia pueden ser a su vez divididos en dos tipos según: (1) el número de variables dependientes y (2) el tipo de escalas de medida empleadas para las variables. Teniendo en cuenta el número de variables dependientes, el análisis de dependencia puede clasificarse como aquel que tiene tanto una variable dependiente única como varias variables dependientes o incluso varias relaciones de dependencia/independencia. El análisis de dependencia puede incluso ser clasificado en función del tipo de escala de la variable con variables métricas (numéricas/cuantitativas) o no métricas (cualitativas/categóricas). Si el análisis implica una única variable dependiente que es métrica, la técnica apropiada es tanto el análisis de regresión múltiple como el análisis conjunto. El análisis conjunto es un caso especial. Se trata de un procedimiento de dependencia que puede tratar la variable dependiente como métrica o no métrica, en función de las circunstancias. Por otro lado, si la única variable dependiente es no métrica (categórica), entonces la técnica apropiada es, o bien el análisis discriminante múltiple, o bien los modelos de probabilidad lineal. En contraste, cuando el problema del investigador implica varias variables dependientes, hay otras cuatro técnicas estadísticas apropiadas. Si varias variables dependientes son métricas, debemos entonces mirar a las variables independientes. Si las variables independientes son no métricas, debemos elegir la técnica multivariante de análisis de la varianza. Si las variables independientes son métricas, la apropiada es la correlación canónica.
 

REPRESENTACION PARA EL ANALISIS MULTIVARIANTE  INTERPRETACION

Como se ha podido comprobar, el análisis multivariante tiene un carácter variado y puede ser bastante poderoso. Este poder es especialmente tentador cuando el investigador no está seguro del diseño del análisis más apropiado y utiliza el análisis multivariante como un sustituto del necesario análisis conceptual. Incluso cuando se aplica correctamente, los esfuerzos por acomodar las múltiples variables y relaciones crean complejidades adicionales en los resultados y su interpretación. Por tanto, advertimos contra su uso sin la base conceptual apropiada para apoyar la técnica seleccionada sobre aquellos conceptos básicos mencionados previamente y los temas abordados en la siguiente sección.

Hemos discutido también varios asuntos particularmente aplicables al análisis multivariantes. Por tanto, mientras no exista una única «respuesta», hemos encontrado que el análisis y la interpretación de cualquier problema multivariante puede verse ayudado por un conjunto general de directrices. No se trata de ningún modo de una lista exhaustiva de consideraciones, sino que la lista representa más bien una «filosofía del análisis multivariante». Las siguientes secciones discuten estos puntos pero no en un orden concreto, sino haciendo igual énfasis en todos ellos.

ESTABLECER LA SIGNIFICACION PRACTICA ASI COMO LA ESTADISTICA

La fuerza del análisis multivariante reside en sus medios aparentemente «mágicos» para clasificar una variedad de posibles alternativas y encontrar aquellas que tienen significación estadística. Pero con este poder debemos tener precaución. Muchos investigadores se vuelven miopes al fijarse solamente en la significación conseguida por los resultados sin entender sus interpretaciones, buenas o malas. En su lugar. el investigador debe atender no sólo a la significación estadística de los resultados sino también a su significación práctica. La significación práctica se refiere a la cuestión, «¿y para qué'?». Para cualquier aplicación en la gestión, los resultados deben tener un efecto demostrable que justifique la acción. En el terreno académico, el investigador se llega a fijar no sólo en la significación estadística de los resultados sino también en sus implicaciones teóricas y sustantivas, que en muchas ocasiones se deducen de su significación práctica.

Como ejemplo ilustrativo de esta situación consideramos un análisis de regresión para predecir las intenciones de compra, medidas como la probabilidad entre O y 100 de que el cliente volverá a comprar a la empresa. El estudio se lleva a cabo y el resultado es significativo al nivel de significación de 0,05. Los ejecutivos aceptan los resultados y modifican la estrategia de la empresa. Pero lo que no se ha percibido es que mientras la relación era significativa, la capacidad predictiva era baja, tan baja que la estimación de la posibilidad de repetir compra podría variar tanto como un 20 por ciento al nivel de significación del 0,05. ¡La relación de la «significación estadística» podría entonces tener un rango de error de 40 puntos porcentuales! Un cliente del cual se predice que tiene una oportunidad de volver de 50/50 podría realmente tener probabilidades del 30 al 70 por ciento, representando niveles inaceptables sobre los cuales actuar. Los investigadores y los gerentes no han probado la significación práctica o de gestión de los resultados. olvidando que la relación todavía necesitaba un ulterior refinamiento.

TAMAÑO MUESTRAL AFECTA A TODOS LOS RESULTADOS

La discusión de la potencia estadística demuestra que el impacto sustancial del tamaño muestral opera en la consecución de la significación estadística, tanto en tamaños muestrales grandes como pequeños. Para muestras pequeñas, la sofistificación y la complejidad del análisis multivariante puede fácilmente resultar tanto en (1) muy poca potencia estadística de la prueba para identificar de forma realista resultados significativos o (2) fácilmente un «sobreaprovechamiento» de los datos de tal forma que sean artificialmente buenos porque se ajustan muy bien a la muestra, aunque no sean generalizables. Lo mismo ocurre para muestras grandes que, como ya se ha discutido antes, pueden hacer a los test estadísticos altamente sensibles. Siempre que los tamaños muestrales excedan los 200 o 400 encuestados, el investigador debería examinar todos los resultados signifi­cativos para asegurarse que tienen significación práctica debido al aumento de la potencia estadística como consecuencia del tamaño muestral. Los tamaños muestrales también afectan a los resultados cuando los análisis implican grupos de encuestados, como ocurre en el análisis discriminante o en MANOVA. Tamaños muestrales desiguales entre los grupos influencian a los resultados y requieren un análisis y/o interpretación adicional. Por tanto, el investigador o usuario del análisis multivariante debería siempre valorar los resultados a la luz de la muestra utilizada.

CONOCER LOS DATOS

Las técnicas del análisis multivariante, por su propia naturaleza, identifican relaciones complejas que son difíciles de representar de forma simple. Como resultado, la tendencia es aceptar los re­sultados sin el típico examen que uno emprende en los análisis univariante y bivariante (por ejem­plo, gráfico de dispersión de correlaciones y boxplots de comparaciones de media). Pero estos «atajos» pueden ser el preludio del desastre. El análisis multivariante requiere un examen incluso más riguroso de los datos porque la influencia de atípicos, violaciones de los supuestos y la pér­dida de datos puede agravarse a través de varias variables y tener efectos sustancialmente diferentes. Para servirse de todos los beneficios de las técnicas multivariantes, el analista debe también «sa­ber dónde mirar» con formulaciones alternativas del modelo original, tales como relaciones no li­neales e interactivas. El analista tiene, sin embargo, un conjunto de técnicas de diagnóstico en continua expansión que permiten que estas relaciones multivariantes sean descubiertas por medios similares a los métodos univariantes y bivariantes. El investigador de un problema multivariante debe tomarse su tiempo en utilizar estas medidas de diagnóstico para un mayor entendimiento de los datos y de las relaciones básicas que existen.

PROCURAR LA PARSIMONIA DEL MODELO

Las técnicas multivariantes se diseñan para acomodar las variables en el análisis. Este carácter, sin embargo, no debería sustituir el desarrollo de modelos conceptuales antes de que se apliquen las técnicas multivariantes. Aunque es siempre importante evitar omitir una variable predictor crítica, denominada error de especificación, por varias razones el analista debe también intentar evi­tar insertar variables indiscriminadamente. En primer lugar, las variables irrelevantes habitualmente aumentan la capacidad del análisis para ajustar la muestra de datos pero a costa de sobreajustar los datos y hacerlos menos generalizables para la población. En segundo lugar, las variables irrelevantes no sesgan típicamente las estimaciones de las variables relevantes, pero pueden enmascarar los efectos verdaderos debido a la multicolinealidad. La multicolinealidad representa el grado en el que cual­quier efecto de una variable puede ser prevista o explicada por las otras variables del análisis. A medida que aumenta la multicolinealidad. la capacidad para definir el efecto de cualquier variable disminuye. Por tanto, incluyendo variables que no son relevantes conceptualmente podemos tener varios efectos potencialmente dañinos. incluso si las variables adicionales no sesgan directamente los resultados del modelo.

ATENDER A LOS ERRORES

Incluso con la capacidad del análisis multivariante. difícilmente conseguiremos la mejor predicción en el primer análisis. El analista se enfrenta con la cuestión. «¿adónde podemos ir desde aquí?». La mejor respuesta es mirar a los errores en la predicción. tanto si son los residuos del análisis de regresión. la ausencia de clasificación de observaciones en el análisis discriminante o los atípicos del análisis cluster.
En cada caso. el analista debería utilizar los errores de predicción no como una medida de error o como algo meramente a eliminar. sino como un punto de partida para diagnosticar la validez de los resultados obtenidos y como una indicación de las relaciones que quedan sin explicar.

VALIDAR LOS RESULTADOS

La capacidad del análisis multivariante para identificar interrelaciones complejas también impli­ca que puede darse el caso de que los resultados sean especificas sólo para la muestra y no generalizables a la población. El investigador debe siempre asegurar que existen observaciones suficientes por parámetro estimado para evitar el «sobreajuste» de la muestra. como se ha discu­tido antes. Pero igual de importantes son los esfuerzos destinados a validar los resultados mediante diferentes métodos, que incluyen (1) división de la muestra y el uso de una submuestra para estimar el modelo y usar una segunda submuestra para estimar la precisión predictiva. (2) empleo de un análisis de «bootstrapping» [9]. o (3) incluso conseguir una muestra distinta para asegurar que los resultados son apropiados para otras muestras. Cualquiera que sea la técnica multivariante empleada. el investigador debe centrarse no sólo en estimar un modelo significativo sino también en asegurar que es representativo de la población en su conjunto. Recordemos que el objetivo no es encontrar el mejor «ajuste» sólo para la muestra sino desarrollar el modelo que mejor describa a la población en su conjunto.

   
 

Técnica Administrativa, Buenos Aires
ISSN 1666-1680
http://www.cyta.com.ar  -
http://www.cyta.com.ar/biblioteca/bddoc/bdlibros/guia_multivariante/guia_multivariante.htm

junio 2005

 

url original
http://www.virtual.unal.edu.co/cursos/sedes/manizales/4010059/docs_curso/Modulo%20Estadistica/interpretacion.htm