¿Por qué necesitamos estadística en QbD?
En las lecciones anteriores definimos los elementos del QbD: perfiles objetivo, atributos críticos, parámetros de proceso, espacio de diseño. Pero hay una pregunta que quedó abierta: ¿cómo construimos el espacio de diseño en la práctica?
La respuesta es: con diseño experimental (DOE, Design of Experiments). No con ensayo y error, no con la intuición del experto, no con "vamos a ver qué pasa". Con una planificación estadística rigurosa que nos permita extraer la máxima información del mínimo número de experimentos.
Si vamos a usar QbD, la idea es que no le dejemos tanto a la suerte. Un diseño experimental bien planeado nos lleva a buenos resultados con eficiencia — sin desperdiciar materiales, tiempo ni recursos.
El diseño experimental permite responder preguntas como: ¿cuáles factores afectan realmente la respuesta? ¿Cuánto la afectan? ¿Hay interacciones entre factores? ¿Cuáles son los rangos óptimos? Y todo esto con la validez estadística necesaria para que los resultados sean extrapolables a producción.
Población y muestra: la base de todo
Antes de cualquier análisis estadístico, debemos entender dos conceptos fundamentales:
El objetivo de toda la estadística aplicada es sacar conclusiones sobre la población a partir de la muestra. En QbD, esto se traduce en: realizo un número limitado de experimentos (muestra) para entender cómo se comportará el proceso en todas las condiciones posibles (población).
Parámetros vs. estimadores
Los parámetros son las características reales de la población — la media verdadera, la variabilidad real del proceso. Como no podemos medir toda la población, usamos estimadores calculados a partir de la muestra:
Cuanto mejor sea nuestra muestra (representativa, de tamaño adecuado, correctamente seleccionada), más se acercarán nuestros estimadores a los parámetros reales.
Muestreo: probabilístico vs. no probabilístico
La forma en que seleccionamos la muestra determina qué conclusiones podemos sacar. Esta es una distinción crítica:
Un error frecuente en la industria es hacer estudios con muestreo por conveniencia (lo que "me queda más fácil") y luego intentar generalizar los resultados. Funciona bien en el laboratorio, pero cuando se escala... falla. ¿Por qué? Porque la muestra no era representativa de la población. Es la diferencia entre un resultado que funciona "de suerte" y uno que funciona por fundamento estadístico.
Variables y escalas de medición
En todo diseño experimental trabajamos con dos tipos de variables:
Variables independientes (factores)
Son las que el experimentador controla y manipula deliberadamente. En QbD, corresponden a los CMA (atributos de materiales) y CPP (parámetros de proceso). Ejemplos: velocidad de agitación, temperatura, porcentaje de un excipiente, tiempo de mezclado.
Variables dependientes (respuestas)
Son las que medimos como resultado del experimento. En QbD, corresponden a los CQA. Ejemplos: viscosidad del producto, dureza de tabletas, perfil de disolución, uniformidad de contenido.
Las variables también se clasifican por su escala de medición:
| Escala | Tipo | Ejemplo en pharma | Operaciones posibles |
|---|---|---|---|
| Nominal | Cualitativa | Tipo de excipiente (A, B, C), proveedor | Clasificar, contar |
| Ordinal | Cualitativa | Grado de severidad (leve, moderado, grave) | Clasificar, ordenar |
| De intervalo | Cuantitativa | Temperatura (°C), pH | Sumar, restar, promediar |
| De razón | Cuantitativa | Peso (mg), concentración (mg/mL), tiempo (min) | Todas las operaciones |
El tipo de escala determina qué análisis estadísticos son válidos. Con variables de razón podemos hacer superficies de respuesta y encontrar óptimos. Con variables nominales solo podemos comparar categorías. Por eso, en DOE, preferimos siempre factores cuantitativos (velocidad en RPM, temperatura en °C) — nos dan más información y más capacidad de optimización que los factores cualitativos.
Pruebas de hipótesis: la lógica fundamental
Toda la estadística inferencial se basa en una mecánica simple: plantear una hipótesis y decidir si los datos la apoyan o la contradicen.
El planteamiento
Se formulan dos hipótesis:
- H₀ (hipótesis nula): "no hay efecto" o "no hay diferencia". Es la posición conservadora — asumimos que nada pasa hasta que los datos demuestren lo contrario.
- H₁ (hipótesis alternativa): "sí hay efecto" o "sí hay diferencia". Es lo que queremos demostrar.
H₀: "La velocidad de agitación no tiene efecto sobre la viscosidad del producto"
H₁: "La velocidad de agitación sí tiene efecto sobre la viscosidad del producto"
Realizamos el experimento, medimos las viscosidades a diferentes velocidades, y aplicamos un análisis estadístico (ANOVA) para decidir: ¿los datos apoyan H₀ o H₁?
El valor p y la decisión
El resultado del análisis es un valor p — la probabilidad de obtener los resultados observados si H₀ fuera cierta. Cuanto menor el valor p, más evidencia contra H₀:
- p < 0.05: rechazamos H₀ → el efecto es estadísticamente significativo (hay evidencia de que el factor sí afecta la respuesta)
- p ≥ 0.05: no rechazamos H₀ → no hay evidencia suficiente de que el factor afecte la respuesta
Cuando hacemos un ANOVA sobre los resultados de un diseño factorial y obtenemos un valor p < 0.05 para un factor, estamos diciendo con fundamento estadístico que ese factor es significativo — es decir, que su variación tiene un efecto real sobre la respuesta. Esto es lo que nos permite identificar, con rigor, cuáles CPP realmente afectan los CQA.
Vocabulario del diseño experimental
Antes de entrar a los diseños específicos (próxima lección), necesitamos un lenguaje común. Estos son los términos que usaremos constantemente:
Los tres principios de Fisher
Ronald Fisher, el padre del diseño experimental moderno, estableció tres principios que todo experimento bien diseñado debe cumplir:
Replicación: por qué no basta con una sola vez
Si haces un solo experimento con cada tratamiento, no puedes saber si el resultado se debe al efecto del tratamiento o a la variabilidad natural. Con réplicas, puedes estimar el error experimental — la variabilidad que existe incluso cuando el tratamiento es el mismo. Sin esa estimación, no puedes hacer pruebas de hipótesis.
El número mágico típico es 3 réplicas por tratamiento — suficiente para estimar la variabilidad sin disparar los costos. En la industria farmacéutica, donde los materiales son costosos y los procesos largos, 3 réplicas suele ser el balance adecuado. Si el recurso lo permite, 5 réplicas mejoran significativamente la estimación del error.
Aleatorización: eliminar el sesgo
El orden en que se realizan los experimentos importa. Si siempre haces primero el nivel bajo y luego el alto, cualquier tendencia temporal (desgaste del equipo, fatiga del operario, cambio de temperatura ambiental) se confundirá con el efecto del factor. La aleatorización rompe esa correlación.
En la práctica: se genera un orden aleatorio (con software o con una simple tabla de números aleatorios) y se ejecutan los tratamientos en ese orden. El software estadístico (StatGraphics, R, Minitab, incluso Excel) hace la aleatorización automáticamente al crear el diseño.
Control local (bloqueo): cuando las unidades no son homogéneas
Si sabes que hay una fuente de variabilidad que no es un factor de interés pero que afecta los resultados (por ejemplo, diferentes equipos o diferentes días), puedes bloquear — agrupar las unidades experimentales por esa variable y hacer comparaciones dentro de cada bloque.
Quieres comparar 3 equipos de medición de hemoglobina. Pero sabes que los dos laboratorios donde están los equipos pueden dar resultados ligeramente diferentes. En vez de ignorar esa variación, la controlas: el laboratorio se convierte en un bloque. Así, comparas los equipos dentro de cada laboratorio, eliminando la variabilidad entre laboratorios del análisis de los equipos.
Un error común es hacer pruebas de hipótesis sobre los bloques. No se hace. Los bloques se incluyen en el modelo para absorber variabilidad, no para estudiarla. Ya asumimos que hay diferencia entre bloques — por eso bloqueamos. Las pruebas de hipótesis se hacen solo sobre los factores de interés (tratamientos). El software mostrará el efecto del bloque en la tabla ANOVA, pero no debe interpretarse como un resultado del experimento.
Lo que debes recordar
El diseño experimental es la herramienta formal para construir el espacio de diseño. No es ensayo y error con estadísticas encima — es una planificación rigurosa que maximiza la información con el mínimo de recursos.
- El DOE permite extrapolar resultados del laboratorio a producción — si y solo si se usa muestreo probabilístico
- Parámetros (μ, σ) son de la población; estimadores (x̄, s) son de la muestra. Lo segundo aproxima lo primero
- Variables independientes = factores (CPP, CMA); variables dependientes = respuestas (CQA)
- Las pruebas de hipótesis (valor p < 0.05) son el mecanismo para determinar si un factor es significativo
- El vocabulario esencial: factor, nivel, tratamiento, réplica, unidad experimental, respuesta, error, bloque
- Los 3 principios de Fisher son innegociables: replicación (estimar error), aleatorización (eliminar sesgo), control local (controlar variabilidad)
- Sin réplicas no hay pruebas de hipótesis. Sin aleatorización no hay estimadores válidos. Sin bloqueo se pierde precisión