Entendidos son aquellos que quieren entender sin llegar a ser “enterados” (coloquial). El “enterado” es un tipo social que se ha generalizado gracias a las nuevas tecnologías de la comunicación llegando a ser casi requisito imprescindible para acreditarse como tertuliano, columnista periodístico y similares formas de ser. La diferencia entre entendido y “enterado” es clara. El entendido sabe que le faltan muchas preguntas por hacer mientras que el “enterado” entiende que tiene todas las respuestas habidas y por haber. Aun cuando comiencen con frecuencia las frases “a mi humilde entender…”. Esto que escribo lo hago en calidad de metodólogo y pensando en quien quiera comprender, sabiendo perfectamente que los “enterados”, teniendo el vaso de la sabiduría lleno, no necesitan de más y les basta con tintar el contenido con su última opinión.
La ciencia social y en particular la sociología inició en el siglo XX una carrera llena de brillantes expectativas empíricas gracias a las encuestas de opinión pública. El punto de partida fue la conocida coloquialmente como ley de los “grandes números” y su formalización en la ley del límite central. En esencia su nacimiento era paradójico: anclando las raíces profundamente en lo aleatorio aspiraba a medir y estudiar las estructuras, regularidades y patrones propias de la vida social. La clave del arco: la aleatoriedad. Ya saben, la conocida bolsa negra llena de canicas blancas y negras que, bien mezcladas, dan razón de ser a todo lo que viene después.
El método tenía sus problemas, dado que la sociedad esta embolsada (guetos de ricos y pobres, por ejemplo) y no bien mezclada. Es más, la mezcla de ricos y pobres, así como de otras categorías sociales, es un indeseable social en muchas culturas. No teniendo por definición todas las personas las mismas probabilidades de ser elegidas entraron en acción diversos mecanismos, como establecer rutas aleatorias para que, agitando los entrevistadores por las calles, se produjese el efecto de mezclar la sociedad. Otra idea fueron las cuotas para elegir las personas entrevistadas, de modo que posibilitase su posterior ponderación comparando la forma de la muestra con la forma de distribuciones conocidas (habitualmente de género y edad). Como siempre, una modificación metodológica implica una presunción o cuña teórica: aquello que queremos medir está asociado con dichas variables “estructurales”, que no pueden ser nunca de opinión: siempre son exógenas y no sujetas a la voluntad o deseo de la persona entrevistada.
Las cuotas y la ponderación son contratiempos que limitan la acción de la aleatoriedad, algo que recordemos es la base y justificación de la encuesta de opinión pública. De hecho, se establecen dos frentes entre los analistas, puritanos contra pragmáticos. Los puritanos afirman que cuando la muestra deja de ser totalmente aleatoria, todo lo que venga después es arbitrario. Se desconecta la información y el dato de todos los procedimientos de significación estadística. Los pragmáticos afirmaban que, bueno, el que la aleatoriedad interaccionase con los patrones sociales no es algo intrínsecamente negativo, sino todo lo contrario. La nueva clave de arco es no engañarse, e intentar controlar los sesgos que aparecen por la no aleatoriedad estricta al igual que se intenta con tantos otros sesgos: de fraseo, no respuesta, etc. En definitiva, entender cuáles son los límites de lo que sabemos (en qué condiciones se ha generado el conocimiento, el dato). Eso sí, sacar la cabeza lo justo para respirar, pero mantener el máximo del cuerpo dentro del agua de la aleatoriedad.
En un giro de guion, ahora muchas encuestas no lo son. No lo son por un fenómeno muy curioso. Las encuestas son posibles gracias a la aleatoriedad (muestra) y sin embargo muchas de las que publican los medios de comunicación se fundamentan en la estructura. Una estructura que se emplea como referencia explícita para construir la muestra en encuestas por internet (Propagación, Random Forest, etc.), entrevistando a personas “estabuladas” en paneles donde su opinión se remunera, recurriendo de forma masiva a cuotas y ponderaciones indiscriminadas mediante variables subjetivas. Una de las últimas que pude ver ponderaba por cuotas de clase social ¿?, recuerdo de voto (variable subjetiva sujeta a los efectos de la memoria), género, edad, área geográfica, educación, estado civil y situación laboral. Posiblemente olvide alguna más, por actuación de los mecanismos de defensa que protegen del daño cerebral. Todo ello en poco más de 1000 entrevistas y combinando (válgame San Bayes) dos modos de recolección: telefónica e internet.
Cómo algunas encuestas de opinión pública han desplazado el foco desde lo aleatorio hacia la estructura para justificarse metodológicamente es una cuestión económica que también habla de la función social y política de la información. Por no extendernos aquí, lo que resulta más curioso es que cuanto más se avanza en la senda de la no aleatoriedad más científicos se consideran. Estoy seguro de que quien diseño una encuesta con dos modos de recolección de datos y ocho variables de ponderación diferentes (la gran mayoría subjetivas o sin referente paramétrico validado) consideraba que con ello avalaba y reforzaba la calidad de sus datos.
Ahora la cuestión es cómo desde el paradigma del “muestreo aleatorio simple sin reemplazamiento a una población con probabilidades conocidas de ser elegidos” se ha pasado a “muestra no probabilística seleccionada mediante ajuste con patrones preexistentes y administrada a una población autoseleccionada para ser entrevistada (panel)” y nadie se ha dado por enterado de la revolución que supone. Algún día tocará escribir de Leonardo Sciascia y su intuición (Todo modo) sobre la falsificación que la pseudociencia hace de la realidad social.