Por: Gladys Dávila Msc.
En ámbitos como economía y negocios,
se plantea una serie de metodologías para análisis de los comportamientos
pasados y predicciones del futuro; considerando que todas las variables son
conocidas, controladas y controlables, medibles y asociadas a parámetros de
entrada en un sistema, tales como los llamados fenómenos o perturbaciones, que
son variaciones de los mismos datos de entrada de un sistema, se puede analizar
con ayuda de la estadística, una serie de escenarios que permitan realizar los
sondeos necesarios para actuar frente a cualquiera de ellos por medio de
métodos paramétricos y modelos lineales.
Sin embargo los métodos no
paramétricos y modelos no lineales; aparentemente aplican a sistemas bióticos,
ya que en su entorno hay mayor número de factores perturbadores, que hacen
posible reacciones únicas, insospechadas, ya que responden a construcciones no
estandares cambiantes en el tiempo, a la inclusión en el sistema, de datos
híbridos, cuyos límites de referencia, tal como menciona Cabo J. sería
un n+ n∞ .
Cito:
“A la hora de analizar los
datos recogidos para una investigación, la elección de un método de análisis
adecuado es crucial para evitar llegar a conclusiones erróneas. La selección de
la técnica de análisis más apropiada ha de hacerse tomando en cuenta distintos
aspectos relativos al diseño del estudio y a la naturaleza de los datos que se
quieren cuantificar. El número de grupos de observaciones a comparar, la
naturaleza de las mimas (según se trate de muestras independientes u
observaciones repetidas sobre los mismos individuos), el tipo de datos
(variables continuas / cualitativas) o su distribución de probabilidad son
elementos determinantes a la hora de conocer las técnicas estadísticas que se
pueden utilizar.
En el análisis de datos
cuantitativos, los métodos estadísticos más conocidos y utilizados en la
práctica, como el test t de Student o el análisis de la varianza, se basan en
asunciones que no siempre son verificadas por los datos de los que se dispone.
Así, es frecuente tener que asumir que la variable objeto de interés sigue por
ejemplo una distribución gaussiana. Cuando la ausencia de normalidad es obvia,
o no puede ser totalmente asumida por un tamaño muestral reducido, suele
recurrirse a una transformación de la variable de interés (por ejemplo, la
transformación logarítmica) para simetrizar su distribución o bien justificar
el uso de las técnicas habituales recurriendo a su robustez (esto es, su escasa
sensibilidad a la ausencia de normalidad). Existen a su vez otros métodos,
usualmente llamados no paramétricos, que no requieren de este tipo de hipótesis
sobre la distribución de los datos, resultan fáciles de implementar y pueden calcularse
incluso con tamaños de muestra reducidos” (Díaz S. y Col).
Este tipo de muestras aplican y son
usados mayormente para estudios médicos, o casos clínicos, sin escapar a
formulas y cálculos matemáticos, se tiene como ejemplo algunos casos encontrados
en la web como: medición del dolor (en una escala de 0 a 10) en dos grupos de
pacientes sometidos a dos tratamientos analgésicos diferentes; variación del
peso, en una muestra de 20 pacientes, antes y después de someterse a un
programa de adelgazamiento; satisfacción laboral de los profesionales de
atención primaria.
Los métodos no-paramétricos incluyen
las técnicas de selección a utilizarse en condiciones en donde carecen
supuestos sobre el de distribución de los datos; Badii, M.H y col, mencionan
algunos métodos comunes no-paramétricos o de tipo de distribución libre, tales como:
X2, Tabla de contingencia, Wald-Wolfwitz, pruebas de: mediana,
McNemar, Kolmogorov-Smirnov, Cochran, Cox, Wilcoxon, Mann- Whitney, Kruskal-Wallis,
Friedman, Spearman. El campo de la estadística de diseños de distribución libre
o no paramétrica ha tenido un desarrollo tan grande, que se tiene, para casi
cualquier diseño de investigación, pruebas estadísticas alternativas válidas para
elegir entre ellas y producir resultados acerca de una hipótesis.
Velásquez y col (2009), usan como
método no lineal la comparación del desempeño de un modelo ARIMA, un perceptron
multicapa y una red neuronal autorregresiva para pronosticar la demanda mensual
de electricidad en Colombia, ya que les permite ir y devolverse en el tiempo,
en este caso, mes a mes, sin embargo proponen, a fin de obtener mayor precisión,
otros tipos de redes neuronales difusas y nuevos tipos de arquitecturas de
redes neuronales artificiales.
Se considera la calibración a una
muestra de predicción que provea el menor residuo de ajuste en el modelo
esperado.
REFERENCIAS
Badii,
M.H., A. Guillen, L.A. Araiza, E. Cerna, J. Valenzuela & J. Landeros. UANL,
. Abril 2012. Revista Daena: International Journal of Good Conscience. 7(1)
132-155. ISSN 1870-557X 132. Métodos No-Paramétricos de Uso Común, México. Disponible
en: http://www.spentamexico.org/v7-n1/7%281%29132-155.pdf
Velasquez
J.. y col. 2009. Un modelo no lineal para la predicción de la demanda mensual
de electricidad en Colombia. Revista Scielo, Disponible en: http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0123-59232009000300003.