You are on page 1of 75

2018

Universidad Evangélica De El
Salvador.

Integrantes:
 Corvera Mejía, Jennifer Abigail.
 Guandique Hernández, Melba
Julissa.
Docente:
 Ing. Elizabeth Espinoza
Materia:
 Estadística Medica

14-5-2018
Índice
INTRODUCCION ................................................................................................................................... 1
OBJETIVO GENERAL ............................................................................................................................. 2
OBJETIVOS ESPECIFICOS ...................................................................................................................... 2
¿Cómo el método científico en etapas ayuda a la investigación? ...................................................... 4
Las 14 etapas del método científico .......................................................................................... 5
Etapa 1: Observación curiosa .................................................................................................... 7
El planteamiento de un problema .......................................................................................... 7
Etapa 2: ¿Existe algún problema?............................................................................................. 8
Etapa 3: Objetivos y planificación .............................................................................................. 9
Etapa 4: Búsqueda, exploración y recopilación de pruebas................................................ 10
Buscar posibles soluciones ................................................................................................... 10
Etapa 5: Generación creativa y alternativas lógicas ............................................................. 11
Etapa 7: Realización de hipótesis, conjeturas y suposiciones ............................................ 13
Características y nomenclatura de las Hipótesis............................................................... 13
Predicción de las consecuencias ......................................................................................... 13
Etapa 8: Refutación o cuestionamiento de las hipótesis...................................................... 15
Experimentación, testeo y desafío de hipótesis ................................................................ 15
Repetición de los experimentos ........................................................................................... 16
Etapa 9: Realización de conclusiones .................................................................................... 19
Características de la conclusión .......................................................................................... 19
Pensamiento crítico con nuestras conclusiones................................................................ 19
Preparación de las conclusiones al público ....................................................................... 20
Etapa 10: Prórroga o dilación de afirmaciones o juicios de valor ....................................... 21
Etapa 11: Desarrollo de la teoría y envío a revisión por pares ........................................... 22
Procedimientos en función del tipo de investigación ........................................................ 22
Ingrediente o etapa 12: Métodos creativos, lógicos y no lógicos y técnicos ..................... 24
Métodos no lógicos ................................................................................................................ 24
Métodos lógicos ...................................................................................................................... 24
Métodos técnicos .................................................................................................................... 24
Ingrediente o etapa 13: Objetivos del método científico ...................................................... 25
Ingrediente o etapa 14: Aptitudes y habilidades cognitivas ................................................. 25
Habilidades cognitivas ........................................................................................................... 25
Definición de estadística Descriptiva ................................................................................................ 27
La importancia de conocer la aplicación de la estadística descriptiva en estudios de investigación
en el área de salud. ........................................................................................................................... 28
Frecuencias absolutas y relativas ...................................................................................................... 30
TIPOS DE DATOS ................................................................................................................................ 31
Elección de los procedimientos analíticos en los diferentes estudios de investigación en el área de
salud. ................................................................................................................................................. 34
FASE ANALITICA O INFERENCIAL ....................................................................................................... 35
ESTUDIO ANALITICO .......................................................................................................................... 35
Uso de procedimientos descriptivos en la Salud Pública. Y Uso de la estadística analítica en la Salud
Publica. .............................................................................................................................................. 40
USO DE PROCEDIMIENTOS DESCRIPTIVOS EN LA SALUD PUBLICA ................................................... 41
USO DE LA ESTADÍSTICA ANALÍTICA EN LA SALUD PUBLICA ............................................................. 42
Estimación de una media ...................................................................................................... 43
Introducción a la Epidemiología. Corredor Endémico ...................................................................... 50
INTRODUCCIÓN A LA EPIDEMIOLOGIA. CORREDOR ENDÉMICO ...................................................... 51
CORREDOR ENDEMICO ..................................................................................................................... 54
CANAL ENDÉMICO ............................................................................................................................. 55
CRITERIOS PARA SU CONSTRUCCIÓN ............................................................................. 55
Relaciones entre la Bioestadística y la Epidemiología ...................................................................... 66
CONCLUSION ..................................................................................................................................... 69
GLOSARIO .......................................................................................................................................... 70
Bibliografía ........................................................................................................................................ 72
1

INTRODUCCION

Cuando coloquialmente se habla de estadística, se suele pensar en una relación


de datos numéricos presentada de forma ordenada y sistemática. Esta idea es la
consecuencia del concepto popular que existe sobre el término y que cada vez
está más extendido debido a la influencia de nuestro entorno.

Sólo cuando nos adentramos en un mundo más específico como es el campo de


la investigación de las Ciencias Sociales como Medicina percibimos que la
Estadística se convierte en la única herramienta que permite dar luz y obtener
resultados, y por tanto beneficios, en cualquier tipo de estudio, cuyos movimientos
y relaciones, por su variabilidad intrínseca, no puedan ser abordadas desde la
perspectiva de las leyes deterministas.

Desde un punto de vista más amplio, podemos decir que la Estadística se utiliza
como tecnología al servicio de las ciencias donde la variabilidad y la incertidumbre
forman parte de su naturaleza.

La Estadística es la rama de las matemáticas aplicadas que permite estudiar


fenómenos cuyos resultados son en parte inciertos. Al estudiar sistemas
biológicos, esta incertidumbre se debe al desconocimiento de muchos de los
mecanismos fisiológicos, a la incapacidad de medir todos los determinantes de la
enfermedad y a los errores de medida que inevitablemente se producen. Así, al
realizar observaciones en clínica o en salud pública, los resultados obtenidos
contienen una parte sistemática o estructural, que aporta información sobre las
relaciones entre las variables estudiadas, y una parte de “ruido” aleatorio. El objeto
de la estadística consiste en extraer la máxima información sobre estas relaciones
estructurales a partir de los datos recogidos

La necesidad de un enfoque estadístico está actualmente bien reconocida en la


investigación y en la práctica de las disciplinas que constituyen la salud pública.
Ya que estas estudian comunidades o poblaciones en las que claramente se
aplican las leyes de los grandes números y de las fluctuaciones aleatorias.

El conocimiento del método estadístico está estrechamente ligado a una buena


práctica de la investigación en salud. Ya que es necesario para poder interpretar
correctamente y de una manera crítica los resultados obtenidos. Podemos
considerar como premisa que un buen trabajo de investigación en salud debe
dedicar un espacio a describir los métodos de análisis de datos utilizados; y entre
los factores determinantes para un buen análisis se encuentra el tipo de diseño y
el conocimiento de las variables de estudio.
2

OBJETIVO GENERAL

 Demostrar la importancia de cada tema en este trabajo de investigación.

OBJETIVOS ESPECIFICOS

 Resumir las etapas de la investigación científica, así mismo sintetizar la


información sobre los demás temas.
 Seleccionar los datos más importantes para tener una idea de su
importancia.
 Conceptuar las opiniones de autores que han escrito sobre dichos temas.
3
4

¿Cómo el método científico en etapas ayuda a la investigación?


Cuando se quiere conocer algo haciendo uso del método científico, es necesario
aplicar estas 14 etapas para obtener la respuesta. No obstante, hay que tener en
cuenta que, aunque suelen realizarse en un proceso lineal, no es estrictamente
necesario que sea así. De hecho, las 14 etapas se dividen en distintas categorías
y secciones, que catalogan las etapas en etapas principales (las que son de
obligado cumplimiento en cualquier investigación científica que se considere como
tal), y las etapas de apoyo (conformadas por las tres últimas, y que cumplen una
función de apoyo para las otras, ya que no son imprescindibles en todas las
investigaciones que se realicen).
5

Las 14 etapas del método científico

El método científico es neutral al tema presentado y puede ser dividido en un


proceso de 14 etapas o pasos bien descritos que se conoce como método
científico de 14 etapas o pasos, o MC-14 (SM-14 en inglés).
Las etapas se pueden dividir en once etapas principales y tres ingredientes de
apoyo o extra. Las etapas principales se agrupan en secciones o partes según los
objetivos que deben alcanzarse en cada una de ellas. Aun así, aunque las etapas
se listen en un orden típico, el método no está limitado a un orden determinado o
fijo, en realidad permiten ser realizadas en distinto orden y de manera flexible. Es
decir, en la práctica, al hacer uso de las etapas habrá vueltas hacia atrás, saltos,
comienzos falsos, ciclos, subproblemas y otras divergencias al seguimiento lineal
presentado en función de la complejidad del problema que se trate.
Los ingredientes de apoyo se añaden para ayudar a entender en qué consiste el
método a las personas y para ayudar a enseñarlo a estudiantes y otros. Presentar
solo las etapas no permite ver todo el cuadro o tener visión general del sistema. El
método científico es el método maestro de todos los métodos.

• Etapas principales

• Sección 1: Observación
Etapa 1: Observación curiosa
Etapa 2: ¿Existe algún problema?
Etapa 3: Objetivos y planificación
Etapa 4: Búsqueda, exploración y recopilación de pruebas

• Sección 2: Inducción o generalización


Etapa 5: Generación creativa y alternativas lógicas
Etapa 6: Evaluación de las pruebas

• Sección 3: Hipótesis: Se realiza la predicción de resultados de nuevas


observaciones (se evita caer en la falacia del francotirador)
Etapa 7: Realización de hipótesis, conjeturas y suposiciones

• Sección 4: Prueba de hipótesis por experimentación


Etapa 8: Experimentación, prueba y cuestionamiento de las hipótesis

• Sección 5: Análisis y conclusiones


Etapa 9: Realización de conclusiones
Etapa 10: Prórroga o dilación de afirmaciones o juicios de valor

• Sección 6: Tesis o teoría científica


Etapa 11: Desarrollo de la teoría y envío a revisión por pares
6

Ingredientes de apoyo:
Etapa 12: Métodos creativos, lógicos y no lógicos y técnicos
Etapa 13: Objetivos del método científico
Etapa 14: Actitudes y habilidades cognitivas
7

Etapa 1: Observación curiosa

La observación curiosa es el comienzo del proceso inductivo. El descubrimiento de


nuevos problemas, ideas, teorías, decisiones necesarias y prevención de
problemas normalmente comienzan con la observación curiosa de nuestros
sentidos. Los instrumentos y las herramientas pueden usarse para extender
nuestros sentidos. Se debe usar la propia percepción y proyección visual. Usar el
razonamiento, la imaginación y la introspección. Estar en un buen estado de
ánimo, motivado y sensible a lo que te rodea puede ayudar.
El planteamiento de un problema
No existe una respuesta para el origen particular de los problemas. Los orígenes
más frecuentes son:

• Cosas que se perciben como capaces de cubrir necesidades, o cosas que te


irritan o te dejan perplejo.
• Brainstorming - Se puede realizar una tormenta de ideas para encontrar
problemas o campos de investigación.
• Interés específico o experiencia previa - Se decide investigar un resultado
sorprendente, una opinión o prejuicio propio o de otro determinado, un interés
de conocimiento, una oportunidad, una controversia, observación, una
reflexión, una pista o una combinación de otros factores.
• Problema asignado o sugerido - Es un problema específico en cualquier
campo a resolver.
8

Etapa 2: ¿Existe algún problema?

Una vez se encuentra el problema, es necesario definirlo. Una buena forma de


definir el problema es enunciarlo mediante una pregunta. Un ejemplo sería
definir ciencia que podría enunciarse sencillamente como ¿qué es ciencia? y a
partir de ahí intentar definir el problema inherente en la pregunta. Una idea,
problema o decisión debería presentarse como una pregunta, porque:

• Te anima a mantener una mente abierta y en búsqueda de la verdad y no a


probar una afirmación
• Una pregunta es una herramienta y una guía para el razonamiento productivo
sobre la resolución de un problema
Definir el problema te permite:

• Saber la dirección más probable para su resolución


• Te previene del gasto innecesario de tiempo en caso de ser irresoluble
• Un problema bien definido permite soluciones alternativas
• Un problema bien definido es un problema medio resuelto
Técnicas que te ayudan a entender el problema son:

• Considerar el propósito, el objetivo, criterios, y significancia del problema


• Dibujar, usar modelos, elementos numéricos y de conceptos o símbolos,
analogías, atributos y características
• Aunque ya hubiera estudios empieza desde el principio o lo más básico hasta
entenderlo
• Descartes en su método, (1637), aconsejaba:
• No aceptar nada por verdadero que no tengas claro que lo es
• Divide y vencerás. Dividir cada dificultad en tantas partes como te sea
posible
• Comienza por lo fácil y simple de conocer
• Revisa para evitar que no se ha omitido por ver algo
9

Etapa 3: Objetivos y planificación

Se debe apuntar cuales son los objetivos que se desean alcanzar al resolver el
problema.

• Los objetivos deben ser realistas, flexibles y con posibilidad de cambiarlos


• Establecer prioridades en caso de disponer objetivos más importantes que
otros
• Identificar fechas límite, etapas para su finalización Diagrama de Gantt
Para realizar una buena planificación se deben tener en cuenta estos aspectos:

• Planificar soluciones rápidas y evitar pérdida de tiempo y esfuerzo.


• Inducir teorías, conceptos y principios básicos relacionados con el problema
• Considerar romper o dividir el problema en subproblemas a los que se le
pueda aplicar un plan específico
• El plan debe ser flexible. No empezar con un plan muy detallado ya que los
problemas complejos cambian con frecuencia.
• Búsqueda de experimentos en el área de interés. Investigar por métodos que
puedan probar o testar las soluciones planificadas
• Problemas similares pueden haber sido resueltos. Revisar para beneficiarse de
la experiencia
10

Etapa 4: Búsqueda, exploración y recopilación de pruebas


Este es el centro de la resolución de problemas. Se empieza buscando por todas
partes, explorando todos los puntos de vista, pistas, y fuentes de información. Se
toman los principios básicos de la documentación que se ha leído, visto o
escuchado. Se recopilan todas las pruebas que te ayudarán a resolver el
problema, siempre intentando usar la innovación y creatividad y construyendo una
lista con las posibles soluciones. Ante todo hay que aprender a ser ordenados y a
poner por escrito nuestros pensamientos.
Buscar posibles soluciones
Antes de empezar a mirar las posibles soluciones anteriores del problema o
subproblema encontrados en el caso de que hubiera es importante realizar un
ejercicio para la búsqueda de soluciones propias ya que de lo contrario se estaría
sesgado por el conocimiento de las soluciones y esto minaría la creatividad.
Existen dos razones básicas para hacer esto:

• Te permite conocer los propios límites y al mismo tiempo te da ideas de por


donde se podrán buscar las soluciones previas
• Te permite usar la imaginación antes de estar influenciado por el conocimiento
de las soluciones previas
Internet facilita la búsqueda y recopilación de información, sin embargo, ha de ser
cuidadoso con las fuentes y tener pensamiento crítico. Se puede aplicar también el
método científico para testar la fiabilidad de la información.
11

Etapa 5: Generación creativa y alternativas lógicas

Se pueden resolver muchos problemas por el mismo método que lo han sido
muchos otros descubrimientos; la prueba y error o usando un método sistemático,
gradual y analítico de razonamiento lógico. Se debe recopilar toda la información y
agruparla o reordenarla hasta que encaje. Más importante, sin embargo, es que
los problemas sean resueltos por saltos o chispas en la imaginación ya que el
número de soluciones son infinitas.
Es importante buscar y recopilar las ideas anteriores o de las personas que te
rodean. También usar dichas ideas tal y como se reciben o adaptarlas para el
caso o problema particular mediante el uso del razonamiento y creatividad.
La creatividad es descrita normalmente como el proceso de tomar dos ideas ya
existentes y combinarlas en una nueva y mejor idea. Este proceso se usa en
la innovación, intuición, introspectiva, diseño, inspiración, etc. Para desarrollar las
ideas hay varios métodos de los que se podrían destacar los siguientes:

• Razonamiento reflexivo
• Disparadores de idea
Ambos métodos trabajan cooperativamente y complementariamente. Es decir, uno
es el que ofrece y ordena la información y otro es el que hace que se
desencadene la red neuronal y percibamos la solución, aún cuando la teníamos
siempre delante.
El razonamiento reflexivo: Se trata sencillamente de buscar, explorar, seguir las
intuiciones, recopilar los datos pertinentes, principios y conceptos básicos y
ordenarlos mentalmente. Buscar con esos datos en la memoria las conexiones
existentes. Se puede cargar la mente con todos los datos, después descansar, y
luego comenzar de nuevo con la solución del problema de una manera relajada.
Cada parada y comienzo del problema hace que se aborde inconscientemente el
problema de forma diferente pero teniendo en cuenta la experiencia anterior. Los
resultados mejores se obtienen cuando el tiempo entre intento e intento es lo
suficientemente grande como para descansar la mente y lo suficientemente corto
como para que las ideas se tengan todavía frescas en la memoria.
Los disparadores de idea: Se trata de situaciones, comportamientos, objetos o
palabras que permiten simular la memoria o una parte de la memoria de datos que
está almacenada y disparar o desencadenar un tren de sucesos nuevos que no
habían sido simulados por el razonamiento reflexivo. Es por eso que primero es
necesario cargar la mente con los datos pertinentes usando el razonamiento
reflexivo para que la idea pueda llegar a ser desencadenada. Algunos
disparadores de uso común son:

• Experimentación y visualización
• Tener discusiones o debates, opiniones
12

• Revisar los componentes del problema o lugares relacionados


• Brainstorm o tormenta de ideas
• Conferencias y exhibiciones acerca de temas relacionados
• Usar programas o software de ordenación de ideas. Véase Rationale.
• Describir por escrito la situación actual y revisión por parte de otros
Con esto lo que se está haciendo es adquirir más información y reflexionar sobre
el problema. Los disparadores de idea se producen por introducir nueva
información no controlada, es decir, que no está sujeta a los propios sesgos. Esta
nueva información viene con una interpretación diferente de los datos o lo que es
lo mismo un sesgo diferente producido por otra persona, situación o explicación.=
Etapa 6: Evaluación de las evidencias o pruebas == En esta etapa se realiza la pre
experimentación y una verificación de las pruebas que se han recopilado, de las
fuentes de información, no de las predicciones finales o de la inducción o solución
planificada. Es decir, si se planea una nueva pintura para el ala de un avión. Aquí
se puede simular con maquetas que la rugosidad de la pintura afecta tal como se
ha leído en las fuentes de información observadas comprobando así que los datos
adquiridos son ciertos. En esta etapa es posible tener varias opciones o
candidatos como solución al problema, es decir, diferentes fuentes de información.
Es necesario, por tanto, ser capaz de analizar las fuentes de información
con pensamiento crítico. Hay varias características que deben ser comprobadas
en las evidencias o datos recopilados:

• La información en la que se basan los datos es suficiente, si no es así recopilar


más información.
• Los métodos de calidad y rutinas son los adecuados para la información
recopilada véase revisión por pares
Existen multitud de formas para comprobar las fuentes de información y datos
recopilados algunas son más rigurosos que otras y su aplicación depende del
problema a verificar. A continuación se muestran algunos ejemplos:

• Prueba por razonamiento lógico


• Encuesta
• Entrevistas
• Modelado de objetos
• Visualización gráfica
• Simulación
• Solución matemática
• Comprobación en laboratorio independiente
• Opinión de expertos
• Medición
• Realización y comprobación de predicciones
• Gráficas
13

Etapa 7: Realización de hipótesis, conjeturas y suposiciones

Primero, es necesario revisar el paso 6 ya que la hipótesis final es la solución


propuesta para la más reciente definición del problema. En el probablemente se
habrán descartado las soluciones menos probables obteniéndose la solución más
fuerte.
Características y nomenclatura de las Hipótesis

• Las hipótesis son denominadas con frecuencia como "suposición educada"


porque los científicos reconocen así la dificultad implícita de alcanzar
la verdad.
• Hipótesis de trabajo es el término usado para describir la solución propuesta.
Esta es solo una candidata para la verdad y debe ser probada en el paso 8.
• Una hipótesis debería ser una teoría sobre la naturaleza en el campo científico.
En otros campos, puede llegar a ser simplemente una decisión, un plan, un
diagnóstico de una enfermedad, ideas, invenciones, etc.
• Es recomendable realizar más de una hipótesis o soluciones al problema. Los
problemas en las ciencias sociales requieren normalmente de varias hipótesis.
• La solución perfecta es rara vez obtenida resolviendo problemas complejos.
• El razonamiento inductivo ayuda a crear hipótesis. Véase paso 14.
• Las hipótesis falsas pueden ser también valiosas. Una hipótesis falsa puede
llegar a conducir a un nuevo descubrimiento o un nuevo campo de
investigación o a la modificación de la hipótesis. Es decir, las excepciones o
diferencias (diagnóstico diferencial) pueden aportar información vital para la
comprensión del problema.
• Las características deseables de las hipótesis son: Relevancia, verificabilidad
o falsabilidas, lógicamente posibles, consistentes con el conocimiento
existente, predicen consecuencias, son sencillas y elegantes, añaden
conocimiento y responden a un determinado problema.
Predicción de las consecuencias
Cuando la hipótesis principal ha sido elegida, es necesario realizar predicciones
de por qué y cómo algo ocurrirá, basándose en la precisión de las
hipótesis. Verificar estas predicciones permite probar, justificar, falsear y
cuestionar la hipótesis en el paso 8. La predicción de las consecuencias mediante
la hipótesis o solución escogida es una parte muy importante del método científico.
Esto es así porque evita caer en la falacia del francotirador. Es decir, no se puede
probar una hipótesis mediante los mismos datos que han servido para generarla.
Resulta obvio que cuando la hipótesis fue realizada la intención fue hacerla caber
dentro del conjunto de datos de los que se dispone. Este comportamiento
produciría una circularidad en la que la hipótesis se demuestra a sí misma y no
para un caso más general. La hipótesis debe predecir resultados para cumplir con
el estado actual de información y además con posibles nuevos experimentos y
datos de entrada. Esta circularidad o falacia del francotirador se evita prediciendo
y probando nuevas consecuencias. También es posible prever las mismas
14

consecuencias pero con diferentes y nuevos datos de entrada. Esto podría probar
que los datos de entrada no tienen relación con las consecuencias, que para ese
caso los datos son equivalentes a los anteriores, que existe una variable
escondida que no ha sido tenida en cuenta en la hipótesis, que se han identificado
mal las consecuencias o datos de entrada o se ha realizado mal el experimento.
Algunos ejemplos para exponer o lanzar predicciones de consecuencias son:

• Si un cambio aquí es realizado, las consecuencias serán...


• Si este experimento se realiza, se mostrará que...
• Si se aplica este razonamiento, los resultados serán...
• Si los costos y beneficios son calculados, mostrarán...
• Si se realiza una encuesta o entrevista, ésta mostrará que...
• Una simulación o cálculo matemático sobre estos datos mostrará que...
• Si un modelo o maqueta es realizado, se observará que...
15

Etapa 8: Refutación o cuestionamiento de las hipótesis

En el cuestionamiento de las hipótesis se deben tener en cuenta el grado o nivel


del desafío, es decir, el desafío o prueba que debe superar la hipótesis dependerá
del tipo de problema y su importancia. Por ejemplo, verificar la hipótesis de que las
personas separan la basura por tipo no requerirá de un estudio tan profundo cómo
verificar que las alas de un avión aguantan la presión ejercida por el aire. Aun así
los experimentos o desafíos realizados a las hipótesis deben como mínimo
comprobar las predicciones.
Experimentación, testeo y desafío de hipótesis

• La falsación: Karl Popper defendía que era mejor tratar de probar que una
hipótesis era falsa más que probar que ésta fuera correcta mediante los
experimentos. Esto podría ahorrar tiempo y al mismo tiempo evitar el sesgo de
confirmación típico del científico.
• Verificación: Muchos podrán no estar de acuerdo con el método de falsificación
o experimento realizado, por tanto, es necesario usar varios métodos para
verificar la hipótesis desde diferentes aproximaciones.
• Decisión correcta: Decidir si el experimento no ha sido sesgado por nuestros
propios prejuicios cognitivos es difícil. Para hacer eso es necesario poner en
práctica los dos primeros puntos o esperar a ser descubierto por la revisión por
pares de los pasos siguientes.
• Predicciones: En el anterior paso 7 se realizaron diferentes predicciones a
través de las hipótesis. El modo de desafiar o refutar las propias hipótesis es
tratando de probar que éstas son falsas, probablemente verdaderas o si se
sostienen.
• Modificar las hipótesis: En la prueba de las predicciones, si se encuentra algo
incorrecto, se deber volver al paso 7, modificar las hipótesis y cambiar así las
predicciones. Si se falla completamente, se debe volver al paso 4 y paso 5.
Respecto a la modificación de hipótesis se debe tener cuidado de no caer en la
falacia ad Hoc típica de la pseudociencia y tampoco caer en la falacia del
francotirador. Para evitar caer en la falacia del francotirador, los experimentos
y predicciones que se vuelvan a realizar deben hacerse con nuevos y
diferentes datos o condiciones iniciales. Por ejemplo, para verificar la
afirmación de que los cuerpos más pesados caen a mayor velocidad que los
más ligeros se observa que esto es falso (caen con igual aceleración)
experimentando con canicas y balones de agua. Al modificar la hipótesis
diciendo que esto es debido a que el balón de agua tiene más volumen y es
frenado por el aire para caer al mismo tiempo que la canica, se proporciona
una nueva forma de experimentación o refutación con diferentes objetos que
tengan igual volumen pero diferente peso. Nuevos errores en la predicción
podrían llevarnos a la correcta conclusión de que los objetos en el vacío caen
con igual aceleración independientemente de su masa.
16

• Variables de control: Se recomienda variar solo una variable por cada prueba o
test y realizar anotación de cada una de las modificaciones. Así se podrá
identificar que variable es la que provoca los cambios.
Repetición de los experimentos
Una de las características más importantes del experimento es la posibilidad de
ser repetido. Para que la hipótesis sugerida sea aceptada por los demás, los
experimentos y resultados deben ser repetidos por uno mismo y por aquellos que
quieran verificar la teoría. Para que el experimento tenga la posibilidad de ser
repetido debe estar descrito y caracterizado de forma correcta, por se aconseja lo
siguiente:

• Describir todos los pasos, test realizados y resultados


• Descripción de las muestras o datos de entrada y condiciones iniciales
• Ser preciso en la descripciones
• Describir cuales son los efectos o consecuencias no predecibles o
desconocidas
• Usar verificación matemática o estadística
• Se puede preparar una lista de posibles fallos para conocer las debilidades de
las hipótesis o del experimento realizado.
El método científico también puede ser usado como método de prevención ya que
por medio del paso 1 o observación curiosa se pueden descubrir futuros
problemas que el método científico puede solucionar mediante el test de hipótesis.
Para alcanzar rigurosidad en las hipótesis, se debe emplear correctamente los
métodos estadísticos. Para estar seguros de se han interpretado correctamente
los datos y se ha realizado bien las estadísticas es recomendable seguir ciertos
estándares. A continuación, se muestran los parámetros más importantes que
deben ser controlados a la hora de probar las hipótesis, suponga el análisis de los
resultados de un nuevo fármaco:

• Tamaño muestral: Es crucial hacer un estudio con el mayor número posible


de personas, así se asegura de que las conclusiones serán sólidas. Así pues,
se sabe que el Omega-3 sirve para bajar el colesterol y reducir la mortalidad
gracias a un estudio con más de cuatro mil participantes. Y un ensayo con más
de quince mil pacientes mostró que añadir azúcar a la aspirina no aporta
ninguna ventaja.
• Grupo de control: Sin un grupo de control, no se podría calcular ninguna
diferencia. Ej. Comparar un fármaco A con una sustancia biológicamente
inactiva B (sustancia placebo) o, mejor, con otro fármaco que ya haya
demostrado su eficacia. Si no es así, no hay forma de justificar que las
variaciones que aparecen se deben a la intervención del fármaco en prueba A:
puede ser desde un Efecto Hawthorne hasta efectos ocasionales, pero en
cualquier caso, los resultados sirven poco sin un grupo de control.
• Representatividad de la muestra, estudios multicéntricos. Si se quiere saber
si el medicamento será útil cuando se lo dé a pacientes con artrosis en
17

general. Puede que el efecto no sea el mismo si se le aplic,a por ejemplo, a


mujeres menopáusicas de 55 a 65 años sin osteoporosis y que no hayan
tomado antiinflamatorios en el último mes. A mayor restricción o número de
condiciones, mayor probabilidad para que el estudio no sea extrapolable. Los
estudios no generales y muy específicos son más caros e inefectivos. De todas
formas, siempre se debe usar una amplica muestra para establecer los límites
de aplicación de la hipótesis. Para eso está el análisis multivariante; cuando
los datos sean procesados se verá que estos variarán en función del sexo (o
de la edad, o…).
• Aleatorización: Si se asigna al azar quién recibe el fármaco y quién el
placebo, al final se tendrá dos grupos iguales entre sí. Pero si en el hospital se
da el fármaco y en el B dan el placebo, ¿las diferencias se deben al
medicamento, a que el A tiene pacientes más enfermos, o a que en el B se les
añaden otros tratamientos?. Para evitar esas otras variables en juego, la
aplicación de los fármacos debe ser distribuida aleatoriamente.
• Solidez de las variables de resultado. Dentro de todo el conjunto de
variables hay algunas con efectos más fuertes que otros. Por ejemplo,
suponga que el fármaco es para la diabétes y que como efecto secundario
tiene la bajada de azúcar en sangre. Si el resultado del fármaco es sólido en
su objetivo de evitar la diabétes y por tanto evitar la muerte, no es importante
la bajada de azúcar. Sin embargo, si la bajada del azúcar es notable, entonces
debe ser tenida en cuenta. Todas las variables resultado deben ser
ponderadas y contrastadas adecuadamente para asegurar que se alcanza el
efecto esperado.
• Enmascaramiento: simple, doble o triple ciego. Del mismo modo que a
los catadores no se les dice qué están probando, en un ensayo no se debe
decir si se suministra el antiguo y poco eficaz tratamiento, o el nuevo fármaco
con mayor eficiencia en pruebas. Podría pasar que aunque él fármaco no
funcionase, el paciente afirmara lo contrario debido al efecto placebo. Así es
imprescindible “cegar” al paciente (simple ciego), al paciente y al médico que lo
evalúa (doble), o al paciente, al médico, y al matemático que procesa los datos
(triple ciego). Así nadie puede tener la tentación de inclinar o sesgar los
resultados. Véase Lista de prejuicios cognitivos.
• Significación estadística. Significación clínica. Este es un problema clásico
en la aplicación correcta de las estadísticas. Que algo sea “estadísticamente
significativo” quiere decir que, si realmente no hubiese diferencias entre las
opciones ensayadas, sería muy difícil e improbable, encontrar las diferencias
con el estudio que se está realizando. Es decir, si no hay diferencias la
distribución de resultados con una muestra grande o repetido un gran número
de veces sería plana. Se puede decir, que la significación estadística (que se
otorga a partir del 5% de diferencia - valor elegido por convenio) es como un
sello que avala mis resultados y con ello se quiere decir que casi seguro hay
un efecto y que no es por casualidad. ¿esas diferencias pueden ser casuales,
o son demasiado grandes como para ser pura coincidencia? es ahí donde la
significancia estadística pone el límite. Imagínase que se lanza una moneda al
aire: se espera que la mitad salgan caras, y la mitad cruces. Si la lanzó treinta
18

veces, es posible que en 17 veces salga cara. Sin embargo, sería muy poco
probable que salieran treinta caras: si ocurre, ¡es que la moneda tiene truco!
Pero precaución: significación estadística, no implica relevancia clínica. La
relevancia clínica es más amplia y tiene en cuenta otros factores como el
económico y social. Puede que un antibiótico cure la infección en 8,3 días y otro lo
haga en 8,2. Sin embargo, quizás no valga la pena dar un medicamento nuevo y
más caro a cambio de 0,1 días de ingreso menos.
19

Etapa 9: Realización de conclusiones

Revisando las líneas generales mostradas en el paso 6 ya se habrán probado y


desafiado todas las hipótesis. Si las hipótesis se consideran parcialmente
incorrectas, se debe retroceder, modificar y luego volver a probar las nuevas
hipótesis otra vez. Si las hipótesis son totalmente incorrectas se retrocede y se
toma un camino diferente. Se debe aprender de los errores y no desanimarse.
Incluso las personas más importantes están con frecuencia equivocadas.
Por otro lado, si las hipótesis pasan las pruebas más importantes entonces es que
se ha llegado a una conclusión.
Su concepto es que después de hacer todas las pruebas y estar seguro de su
teoría se saca la conclusión que se puede dar a conocer a la luz pública.
Características de la conclusión
Las conclusiones desarrolladas a partir de las hipótesis que han pasado las
pruebas deben tener las siguientes características más importantes:

• Ser lo suficientemente general como para ajustarse a todos los datos


relacionados
• Ser lo suficientemente concreta como para definir posibles excepciones y
conocer que datos de entrada son aceptables o no
• Ser consistente cuando es probada o verificada por otras personas, multitud de
veces
• Rara vez debe describir situaciones de las que no se tenga evidencia o no
hayan sido probadas
• Debe ser posible realizar una descripción de ésta y debe quedar claro qué
problema se ha resuelto
Pensamiento crítico con nuestras conclusiones
Se debe realizar una vez alcanzada la conclusión un pensamiento crítico que
aporte luz sobre nuestros propios sesgos y prejuicios. Para hacer este ejercicio
objetivo se debe revaluar la investigación siguiendo los pasos típicos del pensador
crítico. Algunas preguntas que conviene realizarse son:

• ¿Se ha recopilado toda la información importante?


• ¿Se han tenido en cuenta las consideraciones éticas?
• ¿Se han realizado los experimentos de forma rigurosa y correcta?
• ¿Es adecuada la precisión y la rigurosidad?
• ¿Ha habido posibilidad de fraude por parte de algún compañero de equipo?
• ¿Se ha cometido algún sesgo o prejuicio en las medidas?
• ¿Han sido visualizadas todas las variables en juego?
• ¿Se han asumido lemas erróneos?
• ¿Se ha realizado alguna revisión?
20

• ¿Se han contemplado todas las consecuencias?


• ¿Se han contemplado los cambios medioambientales?
Preparación de las conclusiones al público
En este punto en el que el proyecto está en la memoria, se deben preparar y
anotar sobre las conclusiones las siguientes cuestiones.

• Limitaciones: Si existe alguna limitación en el esfuerzo o resultado referente a


la definición del problema, la búsqueda de evidencia o la fase de prueba es
necesario describirla y dar parte de ésta mediante notas de proyecto.
• Especulaciones y vista futura: Si la solución presentada representa un
adelanto en el campo y puede provocar algunas consecuencias más allá de lo
que las evidencias prueban o de lo que se ha probado, escribe las
predicciones o pronósticos y anúncialas en los informes o notas como
especulaciones.
• Recomendaciones de método de investigación: Basándote en la experiencia
adquirida a la hora de resolver el problema, realiza recomendaciones,
consejos, avisos y referencias a aquellos que quieran intentar desafiar,
verificar y falsear las conclusiones.
• Presentación y recomendaciones de la conclusión: Si se trabaja en un
problema en el que es necesaria una decisión o en un plan, es posible que se
quiera preparar una lista de recomendaciones, o presentación basada en las
conclusiones para enviar a diferentes autoridades en la materia.
21

Etapa 10: Prórroga o dilación de afirmaciones o juicios de valor

A lo largo del proyecto un investigador ha debido tener una mente abierta y al


mismo tiempo comportarse de forma escéptica. Es decir, el científico debe
abstenerse de realizar juicios de valor hasta cierto grado y no caer en el
empecinamiento de la conclusión.
En otras palabras, el investigador debe mantener su conclusión hasta que esta
sea probada como falsa, pero debe mantener una mente abierta y estar preparado
para aceptar nuevas pruebas o especulaciones lo suficientemente convincentes.
Es decir, debe estar preparado para reajustar sus propios puntos de vista.
Es importante considerar nueva información o nuevas posibilidades antes de
lanzar una conclusión. Al mismo tiempo el método MC-14 posee una gran
flexibilidad a la hora de seguir los pasos, pero aunque el orden presentado es el
usual, éste puede alterarse según mejor se ajuste a las particularidades de cada
caso.
22

Etapa 11: Desarrollo de la teoría y envío a revisión por pares

Este paso es llamado normalmente como etapa de ganancia de aceptación. Las


claves principales para este punto son:

• Recopilar fuerzas para la actuación, reforzando la propia seguridad mediante


la revisión del plan y objetivos
• La innovación y la creatividad es interesante. Lee cómo presentar, vender y
ganar el favor de los demás para con las hipótesis. Al mismo tiempo recopila y
tasa las opiniones de los demás.
• Trata de dar crédito al equipo de colaboradores. Utiliza fuentes de referencia y
socios.
• Notifica de los posibles efectos sociales y ecológicos de las hipótesis.
• Intentar estar un paso por delante y prever posibles contenciones, argumentos
en contra y problemas aunque los demás quizás no los vean.
Procedimientos en función del tipo de investigación
La forma de operar a la hora de publicar en cada proyecto es diferente en función
de la naturaleza de la investigación o decisión llevada a cabo.

• Teoría científica, proceso, descubrimiento: Con frecuencia es necesario un


informe completo que contemple una introducción, método, resultados y
discusión. Cada revista, organismo o entidad tiene sus propios criterios o
formato de entrega de los documentos, el científico debe informarse de cómo
deben presentarse los resultados. Este informe puede ser enviado a revistas
científicas para la revisión por pares y posible publicación.

• Otras posibilidades son: Publicación de un libro, aplicar por patentes,


publicación en prensa, proceso de comercialización, información a
colegas con cualificación, etc.

• Invención, diseño técnico, idea de nuevo producto: Para estos casos, la


forma de actuar es menos rigurosa aunque también pasa por asegurarse el
reconocimiento del invento. Aplicar por patentes, realizar un modelo,
realizar una investigación de mercado y realizar un estudio de marketing
para el nuevo diseño son algunos de los pasos a seguir.

• Decisión, plan, discusión, problema de ciencias sociales, geografía o


investigación histórica: Igualmente se debe tomar algunas de las acciones
anteriormente nombradas e implementar una solución. Prever posibles
futuros problemas por los grupos afectados.
A lo largo de la revisión pueden aparecer ciertos obstáculos como:

• Recomendaciones desfavorables: Si se envía el informe a un grupo de


autoridades en la materia y el documento es modificado, rechazado o
simplemente tomado de forma parcial, se tendrá que volver a pasos
23

anteriores del método científico y comenzar otra vez en función del grado
de desacuerdo.
• Nuevos problemas: Cuando un problema es resuelto pueden aparecer
nuevos problemas. Es posible que se hayan realizado nuevos
descubrimientos y se hayan visto oportunidades de investigación en
nuevas áreas. Este tipo de nuevas cuestiones son muy importantes y
deben ser mencionadas en el informe como líneas futuras.
• Obstáculos para la aceptación: Algunas hipótesis realmente correctas
pueden llegar a ser muy difíciles de aceptar. Otras, por el contrario, pueden
llegar a tener rápidamente popularidad. Esto es debido, a los prejuicios
cognitivos. Las acciones a llevar a cabo deben contemplar
estos prejuicios u obstáculos para evitar que la gente rechace las
conclusiones sin tratar siquiera de contemplarlas.
24

Ingrediente o etapa 12: Métodos creativos, lógicos y no lógicos y


técnicos

Los ingredientes del método científico de 14 pasos se usan para facilitar el


entendimiento del método científico a los estudiantes. Para el entendimiento
general del método científico se necesita identificar correctamente los métodos
de trabajo, acción y de efectividad que producen los resultados. La
metodología o procedimiento usa tácticas, operaciones, programas, criterios,
técnicas, sistemas, aproximaciones, estrategias y demás acciones auxiliares
que permiten obtener mejores resultados que la mera improvisación.
Métodos no lógicos
Aunque no pueda llegar a ser científico, el uso de métodos no lógicos es
herramienta habitual. Científicos e interesados en resolver problemas los usan
continuamente. El tiempo es la principal razón por la que estos métodos son
usados. Algunos métodos no lógicos son el resultado de hábitos, emociones,
prueba y error, frustración, experimentación, intuitiva adivinación (esta viene
del prejuicio cognitivo), toma de riesgos, etc. Este método puede afectar los
resultados positiva o negativamente.
Métodos lógicos
Cualquier método basado en el razonamiento sólido es, en general, clasificado
como lógico. Algunos investigadores aceptan como método lógico solo
aquellos basados en reglas de razonamiento estandarizadas por especialistas
en lógica. Normalmente, la gente usa un proceso "semi-intuitivo" y lógico,
resultado de su propia experiencia, procesos mentales y conocimiento.
Algunos ejemplos métodos lógicos de resolución bien conocidos son:

•Variación controlada
•Revisión de la literatura
• Identificación de patrones
• Inteligencia artificial
• Prueba y error
• Clasificación
• Falsificación
• Encuesta
Métodos técnicos
No existe un estándar para determinar cuándo un método se considera
técnico. Un método que envuelva medidas, matemáticas, el uso de
herramientas, instrumentos y aparatos puede ser denominado como técnico.
Aunque los demás métodos son usados en todas las disciplinas, algunos
autores apuntan a que los métodos técnicos son en realidad los únicos que
pueden ser consideraros métodos de ciencia o métodos científicos.
25

Ingrediente o etapa 13: Objetivos del método científico

El propósito básico es refinar, extender y aplicar el conocimiento y al mismo


tiempo buscar la verdad aunque ésta quizás nunca pueda llegar a ser
determinada con toda precisión.

Ingrediente o etapa 14: Aptitudes y habilidades


cognitivas
En este punto no se habla de la actitud sino de la aptitud que debe desarrollar
una persona científica. Algunas de estas aptitudes personales son:
• Curiosidad innata • Valiente
• Honestidad • Experimentadora
• Flexibilidad • Mente abierta
• Comunicadora • Paciente en los juicios de valor
• Organizadora • Estable emocionalmente
• Creativa • Pensadora crítica y lógica
Habilidades cognitivas
Las dos principales habilidades cognitivas primarias son las inducción y
la deducción
26
27

Definición de estadística Descriptiva

En el área de salud se emplean, consciente o no, muchos conceptos estadísticos


al adoptar decisiones relativas a diagnósticos clínicos, o bien al predecir probables
resultados de un programa de intervención en la población. Por ello es importante
poder definirla mediante el conocimiento de diferentes autores:

Lwanga y Tye (1987)


"disciplina que comprende los métodos estadísticos y el estudio de métodos
científicos de acopio, tratamiento, reducción, presentación, análisis e
interpretación de datos y de hacer deducciones y sacar conclusiones de datos
numéricos"

Spiegel (1992)
"estudia los métodos científicos para recoger, organizar, resumir y analizar datos,
así como para sacar conclusiones válidas y tomar decisiones razonables basadas
en tal análisis"

Daniel (2002)
"es un campo del estudio relacionado con la recopilación, organización y resumen
de datos y la obtención de inferencias acerca de un conjunto de datos cuando sólo
se observa una parte de ellos"
28

La importancia de conocer la aplicación de la estadística


descriptiva en estudios de investigación en el área de salud.
Es que proporciona el conocimiento y comprensión de la información acerca de la
etiología y el pronóstico de las enfermedades, a fin de asesorar a los pacientes
sobre la manera de evitar las enfermedades o limitar sus efectos.

Otorga su discernimiento sobre los problemas sanitarios para que eficientemente


se apliquen los recursos disponibles para resolverlos.

Permite también comprender los fundamentos racionales en que se basan las


decisiones en materia de diagnóstico, pronostico y terapéutica.
29

Definicion e importancia
Planteamiento del del problema
problema ,Determinacion del
objetivos.
Busqueda de la
informacion existente.
PLANIFICACION DE LA
INVESTIGACION
Formulacion de hipotesis

Verificacion de hipotesis.
METODO ESTADISTICO

Observacion,Entrevista,
Fuentes Primarias
Experimentos.
RECOLECCION DE LA
INVESTIGACION.
Registros,Anuarios y
Fuentes Secundarias.
censos.

ELABORACION DE DATOS. Cuadros y Graficos.

Proporciones porcentajes
ANALISIS E y tasas medidas de
INTERPRETACION tendencia central y
Dispercion.
30

Ejemplo 1.

Se desea realizar un estudio sobre hipertensión arterial en población anciana.


Queremos estudiar este problema y que características de los pacientes pueden
tener relación o no con él. Identifica las unidades experimentales del estudio y las
variables de interés. Las unidades experimentales serian todos aquellos ancianos
integrantes del estudio. Las variables de nuestro estudio serian: la presión arterial
de los ancianos que es la variable de interés sobre la que queremos aprender y
otras variables que desearíamos conocer si están relacionadas o no con la
hipertensión como edad, sexo, consumo de calorías diarias…

Cons.
Persona Presión Art. Edad Sexo Calorías …

… … … … … …
… … … … … …

El primer paso en todo estudio será la planificación de cómo han de ser recogidos los datos de
forma que las conclusiones que se puedan extraer de ellos sean “validas” y por tanto conduzcan a
conclusiones adaptadas a la realidad.

Frecuencias absolutas y relativas


Podremos resumir individualmente variables de tipo cualitativo mediante las frecuencias
absolutas y relativas de sus categorias. Frecuencias absolutas. Se definen las frecuencias absolutas
(fa) de una variable cualitativa como el numero de ocasiones en las que se ha dado cada una de las
categorias de la variable que queramos resumir. Frecuencias relativas. Por otro lado las
frecuencias relativas (fr) se definen como la proporcion de veces que se ha dado cada uno de las
categorias de la variable. Por tanto las frecuencias absolutas y relativas de una variable cumplen la
siguiente relación:
Fa
𝑓𝑓𝑓𝑓 = Numero de unidades experimentales
31

TIPOS DE DATOS
Lo que estudiamos en cada individuo de la muestra son las variables (edad, sexo,
peso, talla, tensión arterial sistólica, etcétera). Los datos son los valores que toma
la variable en cada caso. Lo que vamos a realizar es medir, es decir, asignar
valores a las variables incluidas en el estudio. Deberemos además concretar la
escala de medida que aplicaremos a cada variable.

La naturaleza de las observaciones será de gran importancia a la hora de elegir el


método estadístico más apropiado para abordar su análisis. Con este fin,
clasificaremos las variables, a grandes rasgos, en dos tipos 3-5: variables
cuantitativas o variables cualitativas.

• Variables cuantitativas: Son las variables que pueden medirse,


cuantificarse o expresarse numéricamente. Las variables cuantitativas
pueden ser de dos tipos:
a) Variables cuantitativas continuas, si admiten tomar cualquier valor
dentro de un rango numérico determinado (edad, peso, talla).
b) Variables cuantitativas discretas, si no admiten todos los valores
intermedios en un rango. Suelen tomar solamente valores enteros
(número de hijos, número de partos, número de hermanos, etc).
• Variables cualitativas: Este tipo de variables representan una cualidad o
atributo que clasifica a cada caso en una de varias categorías. La situación
más sencilla es aquella en la que se clasifica cada caso en uno de dos
grupos (hombre/mujer, enfermo/sano, fumador/no fumador). Son datos
dicotómicos o binarios. Como resulta obvio, en muchas ocasiones este tipo
de clasificación no es suficiente y se requiere de un mayor número de
categorías (color de los ojos, grupo sanguíneo, profesión, etcétera).

En el proceso de medición de estas variables, se pueden utilizar dos


escalas:

• Escalas nominales: ésta es una forma de observar o medir en la que los


datos se ajustan por categorías que no mantienen una relación de orden
entre sí (color de los ojos, sexo, profesión, presencia o ausencia de un
factor de riesgo o enfermedad, etcétera).
• Escalas ordinales: en las escalas utilizadas, existe un cierto orden o
jerarquía entre las categorías (grados de disnea, estadiaje de un tumor,
etcétera).
32

Una vez que se han recogido los valores que toman las variables de
nuestro estudio (datos), procederemos al análisis descriptivo de los
mismos. Para variables categóricas, como el sexo o el estadiaje, se quiere
conocer el número de casos en cada una de las categorías, reflejando
habitualmente el porcentaje que representan del total, y expresándolo en
una tabla de frecuencias.

Para variables numéricas, en las que puede haber un gran número de


valores observados distintos, se ha de optar por un método de análisis
distinto, respondiendo a las siguientes preguntas:
 ¿Alrededor de qué valor se agrupan los datos?
 Supuesto que se agrupan alrededor de un número, ¿cómo lo
hacen? ¿muy concentrados? ¿muy dispersos?
a) Medidas de tendencia central
Las medidas de centralización vienen a responder a la primera pregunta. La
medida más evidente que podemos calcular para describir un conjunto de
observaciones numéricas es su valor medio. La media no es más que la
suma de todos los valores de una variable dividida entre el número total de
datos de los que se dispone.

Como ejemplo, consideremos 10 pacientes de edades 21 años, 32, 15, 59,


60, 61, 64, 60, 71, y 80. La media de edad de estos sujetos será de:

21+32+15+59+60+71+80
𝑥𝑥 = 10
= 52.3 años.

Más formalmente, si denotamos por (X1, X2,...,Xn) los n datos que


tenemos recogidos de la variable en cuestión, el valor medio vendrá dado
por:

∑𝑛𝑛𝑗𝑗−1 𝑋𝑋𝑋𝑋
𝑀𝑀𝑀𝑀𝑀𝑀𝑀𝑀𝑀𝑀(𝑥𝑥) =
n

Otra medida de tendencia central que se utiliza habitualmente es la


mediana. Es la observación equidistante de los extremos.

La mediana del ejemplo anterior sería el valor que deja a la mitad de los
datos por encima de dicho valor y a la otra mitad por debajo. Si ordenamos
los datos de mayor a menor observamos la secuencia:
15, 21, 32, 59, 60, 60,61, 64, 71, 80.
33

Como quiera que en este ejemplo el número de observaciones es par (10


individuos), los dos valores que se encuentran en el medio son 60 y 60. Si
realizamos el cálculo de la media de estos dos valores nos dará a su vez
60, que es el valor de la mediana.

Si la media y la mediana son iguales, la distribución de la variable es


simétrica. La media es muy sensible a la variación de las puntuaciones. Sin
embargo, la mediana es menos sensible a dichos cambios.

Por último, otra medida de tendencia central, no tan usual como las
anteriores, es la moda, siendo éste el valor de la variable que presenta una
mayor frecuencia.

En el ejemplo anterior el valor que más se repite es 60, que es la moda.


34

Elección de los procedimientos


analíticos en los diferentes estudios
de investigación en el área de salud.
35

FASE ANALITICA O INFERENCIAL

Es aquella rama de la estadística mediante la cual se trata de sacar


conclusiones de una población en estudio a partir de la información que
proporciona una muestra representativa de la misma, apoyándose en el
cálculo de probabilidades.

ESTUDIO ANALITICO
Un estudio analítico o estudio etiológico es un estudio epidemiológico en el que
el análisis del estudio se establecen relaciones entre las variables, de asociación o
de causalidad. Cuando se plantea realizar un estudio analítico, se conoce bastante
sobre la enfermedad, así pueden probarse hipótesis específicas previas surgidas
de un estudio descriptivo.
Son estudios analíticos típicos: El estudio de cohorte, el estudio caso control y
el ensayo clínico.

 Estudios de cohortes: Son aquellos estudios cuyo grupo de investigación


se realiza en función de la exposición al factor de estudio.

Las personas se seleccionan según la exposición y tras el seguimiento se observa


la aparición del efecto tanto en la cohorte de personas expuestas como en la
cohorte de personas no expuestas al factor.

EXPUESTOS NO EXPUESTOS

INVESTIGADOR
36

A partir de aquí se pueden dar dos situaciones:

• Que el desenlace NO HAYA tenido lugar cuando se inicia el estudio:


Seguiremos a los sujetos durante un tiempo determinado para ver si
presentan o no la enfermedad. Es el estudio de cohortes prospectivo. Por
ejemplo, seguimiento de los niños expuestos a radiaciones e identificación
de los casos de leucemias a lo largo de la infancia de estos niños y a
medida que estas son diagnosticadas.
• Que el desenlace HAYA tenido lugar: Seleccionaremos los grupos de
sujetos expuestos y no expuestos, y reconstruiremos la historia de la
enfermedad a partir de registros ya existentes, generalmente las historias
clínicas: Estudio de cohortes retrospectivo. Presenta la limitación de la
calidad de los registros. Por ejemplo, la selección de registros de niños
expuestos y no expuestos en el pasado (por ejemplo como consecuencia
de un accidente en una central nuclear cercano a una población
determinada), así como el registro en historias clínicas del padecimiento de
leucemias tiempo después constituye un abordaje del mismo problema de
investigación desde un diseño de cohortes retrospectivo.

Los objetivos de este tipo de estudio son:

1. Estimar incidencias de la enfermedad (o del desenlace).

2. Estimar el riesgo de los expuestos al factor de estudio para padecer la


enfermedad, en relación a la de los no expuestos.

3. Estimar la proporción de casos que pueden atribuirse al factor de riesgo.

Las medidas de asociación que pueden calcularse en este tipo de estudios son:

1. Riesgo relativo: Razón entre la incidencia del fenómeno entre los no


expuestos a la variable y la incidencia del fenómeno entre los no expuestos.

2. Riesgo atribuible: La incidencia en expuestos menos la incidencia en no


expuestos.
37

3. Fracción de riesgo atribuible en el grupo expuesto: Riesgo relativo -


1/Riesgo Relativo X 100.

 Estudios de casos y controles: Son aquellos en los que el criterio de


formación del grupo de estudio es la presencia de la enfermedad o el
efecto. Las personas se seleccionan según el efecto (enfermedad) y se
busca cuántos de ellos tenían relación con la exposición.

En los estudios de casos-control la selección de la población a estudiar se hace en


función de la enfermedad, eligiéndose un grupo de individuos que tienen la
enfermedad: casos, y otro sin la enfermedad: controles. Ambos grupos se
comparan respecto a una exposición que se sospecha está relacionada con la
enfermedad. Ambas características, enfermedad y exposición ya se han producido
cuando los sujetos entran en el estudio.

Por ejemplo, analizar en un grupo de niños con leucemia la exposición anterior a


radiaciones comparando con la exposición a radiaciones de un grupo de niños sin
leucemia.

El objetivo de este tipo de estudio es estimar el riesgo de padecer un determinado


problema de salud asociado a la presencia de una exposición previa.

La medida de asociación que puede calcularse en estos estudios es la odds ratio


(una aproximación al riesgo relativo que veíamos en los estudios de cohortes) que
es el cociente de la frecuencia de exposición a la causa entre los casos (a/c) y la
frecuencia de exposición de los controles (b/d).

Metodologías para resolver estudios analíticos

Basados en registros y los análisis de datos se circunscriben a medidas de frecuencia, de fuerza y


efecto de asociación.

Clasificación:

 Direccionalidad
 temporalidad
38

Direccionalidad:

 Longitudinales= Casos y controles, y cohortes


 Verticales= Transversales
Temporalidad:
 Futuros= Cohorte
 Pasado= Casos y controles
 Presente= Transversales
Transversales: El juicio de la observación se hace en un momento
determinado. Es un estudio estático. Ej: conocer el status de una
enfermedad en un momento determinado. Conocer un diagnóstico de
situación (Hembras con mal umbral corporal en una lactancia). Análisis de
datos: medida de frecuencia (Prevalencia). Está basado en muestras
aleatorias, en mediciones puntuales y en caso que se considere algún
factor de exposición se pueden recurrir a medidas de fuerza y efecto de
asociación (Siguiendo con el ej: ¿las hembras de bajo umbral corporal se
debe a que están expuestas a camadas numerosas? ¿Al tipo genético? ¿Al
tipo de paridera? ¿Al sistema de alimentación? ¿Al sistema de lactancia=
individual o en grupos?

Conocer la magnitud del problema (Medidas de frecuencia)


a) medidas absolutas: (Nº de casos de aftosa en la Argentina por año) = 15
focos. Se usan en connotaciones de tipo público y no económico.
b) medidas relativas: tratan de relacionar con la población que pudo haber
sufrido el evento. 15 focos pero en 4 establecimientos de tantos animales por
establecimiento.
- Prevalencia= Nº de casos/Nº total de la población en riesgo= Proporción de
individuos que tiene la característica en un momento dado. Es una medida
estática.
- Incidencia acumulada: Nº de casos nuevos/Nº de individuos en riesgo en la
población durante el período considerado. Idea de cómo se difunde el evento. Es
una medida dinámica.
- Tasa de incidencia= Nº de casos nuevos/Sumatoria de períodos de tiempo en
riesgo para cada individuo. Toma en cuenta el tiempo.
39

Conocer las medidas de asociación entre evento y factor de


exposición (medidas de fuerza y efecto)
Conceptualización de términos
Factor de exposición: posibles causas que pueden originar un evento.
Evento o efecto: condición del individuo o la población frente al factor de
exposición.
Ej: Efecto: individuo enfermo o no enfermo, individuo con ganancia diaria
esperada o no, etc.
Factor de exposición: individuo enfermo o no enfermo expuesto a vacunación o no
expuesto. Individuo con ganancia diaria esperada expuesto a niveles nutricionales
adecuados o no.
Hay tres tipos de medidas de asociación: 1) Fuerza, 2) Efecto y 3) Efecto total

Las de fuerza expresan qué tan asociado está un factor de exposición con un
determinado efecto o evento. Por ejemplo, que tan asociado está el piso de
cemento de las parideras con las descargas vaginales de las cerdas en la primer
semana de gestación. Riesgo relativo, odds ratio, riesgo relativo poblacional y
odds ratio poblacional. Hasta aquí se puede informar si hay o no efecto de
asociación entre el evento y el factor de exposición.

Las de efecto determinan qué impacto produce esa causa, pero en los individuos
expuestos. Riesgo atribuible, Fracción atribuible y fracción atribuible estimada.
¿Cuánto del evento se debe a ese factor de exposición y cuánto a otras causas?

Las de efecto total expresan la importancia que produce esa causa en toda la
población. Riesgo atribuible poblacional, fracción atribuible poblacional y Fracción
atribuible poblacional estimada.

Supuestos para el análisis estadístico:


1) Homogeneidad de proporciones 2) Independencia de la población 3) Si hay
diferencias significativas, no se deben al azar.
40

Uso de procedimientos descriptivos


en la Salud Pública. Y Uso de la
estadística analítica en la Salud
Publica.
41

USO DE PROCEDIMIENTOS DESCRIPTIVOS EN LA SALUD


PUBLICA
Se emplea la tendencia lineal, simple siendo la variable que establece la relación,
el coeficiente de correlación. Representan a poblaciones entera y se usan para
describir las enfermedades desde un punto de vista que puede ser útil (edad,
sexo). Pero no son estudios fiables.

En los estudios descriptivos estudiamos se estudia un único individuo o grupo de


individuos, sin grupo de control. Por lo tanto, las conclusiones obtenidas no se
podrían generalizar al resto de la colectividad, porque no son representativos.

Al no existir grupos de comparación, ni siquiera con otros estudios semejantes, las


conclusiones que se sacan son muy limitadas.

Estadística de la salud

Es una serie de procedimientos sistemáticos de recolección de datos continuos,


sean estos por medio de fuentes censuales y muéstrales.

Estadística descriptiva en la salud publica

Es por las variables que entre personas distintas y de la misma época, porque lo
que nació a estadística en la salud pública. Pudiéndose trabajar con dos
estadísticas: Estadística inferencial y estadística descriptiva

Estadística inferencial

Permite generalizar datos de una muestra a un número más grande de individuos

Estadística descriptiva

Es la encargada de la presentación, organización y resumen de los datos.

Caracterizan fenómenos epidemiológicos, factores de riesgo, efectos según las


variables de persona, lugar y tiempo.

La estadística descriptiva presenta, organiza y resume los datos que caracterizan


diversos fenómenos epidemiológicos, de factores de riesgos según las variables
de personas, lugar y tiempo, haciendo énfasis que todo esto se toma bajo el
estudio descriptivo.

La estadística descriptiva ordena y analiza los estudios bajo las siguientes


medidas:

• Medidas de tendencia central


42

• Medidas de dispersión
• Desviación de la normal
• Relación y comparación
• Medidas de posición
• Gráficos
• Frecuencia
Variables que más se toman en cuenta al momento de un análisis descriptivo

 Variables cuantitativas
 Variables continuas
 Variables discretas
 Variables cualitativas o categóricas
 Variables ordinales
 Variables nominales
En cualquier análisis, la estadística descriptiva es muy importante, dado que nos
permite considerar una a una cada variable y mejor aún conocer el
comportamiento de las variables y si estas ligadas o no.

USO DE LA ESTADÍSTICA ANALÍTICA EN LA SALUD PUBLICA


La estadística descriptiva, cuyo conocimiento damos por supuesto en este curso,
nos permite saber de forma aproximada cómo es la distribución de una muestra,
mediante:

 frecuencias absolutas y relativas para variables categóricas


 medidas de tendencia central (media, mediana y moda) y de dispersión
(varianza y desviación estándar) para variables continuas.
A estas medidas las llamamos estimadores o estadísticos. Adoptan un valor
concreto para cada muestra, denominado estimación. La estimación del
estadístico media en una muestra se representa por x, y la estimación del
estadístico desviación típica por s.
Sin embargo, nuestro objetivo último no es describir una muestra, sino conocer la
población de la que se ha obtenido dicha muestra. Al valor de los estimadores en
la población se les llama parámetros. El parámetro medio se representa por μ y el
parámetro desviación típica (o estándar) por σ. Calcular los parámetros de una
población es lo que pretende la estadística analítica o inferencial.
La Estadística Analítica o Inferencial pretende llegar a conclusiones sobre
la distribución de una variable y sus asociaciones en una población a partir de
la distribución de esa variable o variables en una muestra extraída de ella.
Dentro de la estadística analítica hay dos aproximaciones:
43

 Por una parte, podemos calcular un intervalo de valores en el que estaremos


bastante seguros que estará incluido el parámetro que nos interesa. Es lo
que conocemos como estimación de parámetros.
Con este tipo de procedimientos, aprenderemos a construir un intervalo
alrededor del resultado que hayamos obtenido, bien como media de una
variable cuantitativa, bien como proporción de una cualitativa, en el que pueda
encontrarse, con gran probabilidad, el parámetro deseado a nivel poblacional,
sea éste una media o una proporción.

 Por otra, podemos establecer la hipótesis de que un parámetro es diferente


a un valor determinado (un valor de referencia), o que la diferencia entre dos
parámetros es distinta a un valor preestablecido, como por ejemplo cero.
Estaremos haciendo entonces un contraste de hipótesis o prueba de
significación.
Y así podremos conocer si la reducción conseguida por un determinado
fármaco o intervención en un grupo de pacientes con dislipemia es
significativa estadísticamente por comparación bien con un grupo control (al
que no administramos fármaco o sometemos a intervención), bien con sus
valores de partida de los mismos individuos. O si la distribución de valores de
colesterol en sangre es igual en una subpoblación determinada, por ejemplo,
entre los individuos de una determinada raza, que en el conjunto de la
población (que actuaría como valor de referencia).

Esta perspectiva de la estadística analítica es la llamada “frecuentista”, y es la


que seguiremos en curso. Existe otra, la “bayesiana” que, aunque prometedora,
todavía no está suficientemente implantada.

Estimación de una media


Partimos de un ejemplo que ya utilizamos en un curso previo, el de Introducción a
la Estadística, sobre la distribución de los niveles de colesterol en la población
española; en él observábamos cómo la media (μ) de esa distribución en varones
de entre 45 y 64 años era de 206,5 mg/dl, y su desviación estándar (σ) era de
41,23 mg/dl. Supongamos que la población asignada a mi centro de trabajo
sanitario tiene los mismos parámetros. ¿Qué ocurrirá si extraigo varias muestras
poblacionales de ese mismo grupo de edad y sexo en mi centro, recurriendo a
métodos aleatorios (por ejemplo, otorgando un número a cada individuo de la
población y ayudándome de una tabla de números aleatorios)?

Pues que cada muestra obtenida de esa forma tendrá estimaciones (media y
desviación típica muéstrales) distintas, porque no habrá dos muestras
exactamente iguales ya que nos encontramos en el ámbito de la variabilidad de
los fenómenos biológicos. Sin embargo, si vamos anotando tanto las medias como
las desviaciones típicas de cada una de las muestras veremos que se van
agrupando en torno a los valores (parámetros) poblacionales, de forma simétrica,
44

a uno y otro lado de los mismos, y que son más frecuentes los valores más
cercanos a esos valores poblacionales. La distribución de las medias muéstrales
anotadas tendrá su propia media y su desviación típica, y lo mismo ocurrirá con la
distribución de desviaciones típicas.

Se puede demostrar matemáticamente que la desviación típica de las medias


muéstrales, que se conoce como error estándar de la media (EEM), es igual a:

σ / √n

siendo σ la desviación estándar de la distribución de la variable en la


población (dato que es posible que no conozcamos; más adelante veremos cómo
resolver esto).
El error estándar de la media disminuye al incrementar el tamaño de las muestras
que utilicemos. Pero lo hace de forma no lineal, ya que la n en la fórmula del EEM
está bajo una raíz cuadrada: eso quiere decir que, para reducir el EEM a la mitad
(y hacer el intervalo de confianza más pequeño aumentando la precisión)
precisamos multiplicar el tamaño de la muestra por 4. Esto da idea de la dificultad
que elevar la precisión supone a nivel organizativo e incluso económico en
muchas ocasiones.

Si las muestras son pequeñas, pongamos que de cinco individuos (n=5), es


posible que haya valores extremos en ellas que pesen excesivamente en el
cálculo de la correspondiente media, con lo que la distribución de medias puede
no ser simétrica e incluso no centrada en la media poblacional (Figura 1). Pero si
vamos aumentando el tamaño de las muestras (por ejemplo, con n=30), la
distribución irá haciéndose cada vez más centrada en la media poblacional y
simétrica (Figura 1).

Que la distribución de medias muéstrales se centra en la media poblacional


cuando se toman muestras suficientemente grandes es lo que se conoce como ley
de los grandes números y tiene un correlato intuitivo: nos “fiamos” más de las
estimaciones de una muestra grande que de una muestra pequeña.
45

Figura 1. Distribución muestral de las medias de colesterol de 100 muestras de


tamaño 5 (izquierda) y 30 (derecha) elegidas aleatoriamente de una población
normal de media 206,5 mg/dl y desviación estándar 41,23 mg/dl. Frecuencias
absolutas.

Como vemos en la Figura 1, al aumentar el tamaño de la muestra también se


reduce la dispersión de la curva de distribución de medias muéstrales que se
obtiene, que va pareciéndose cada vez más a la curva normal. Esto no es
sorprendente teniendo en cuenta que el propio dato en sí de este ejemplo, el nivel
de colesterol, se distribuye también de forma normal en la población. Pero también
pasaría, aunque la variable no tuviera una distribución normal. Es lo que se
conoce como teorema central del límite.
El teorema central del límite, esencial para la Estadística Inferencial, establece
que si tomamos muestras suficientemente grandes (≥30) de una población, la
distribución muestral de medias tenderá a seguir una distribución normal aun
cuando la variable no tuviese una distribución normal en la población.
Sabiendo esto, podremos aplicar las propiedades de la distribución normal a
nuestra distribución de medias, y calcular el intervalo que debería contener el 95%
de las medias muéstrales, que, como ya sabemos, debe obtenerse sumando y
restando a la media 1,96 veces la desviación típica de nuestra distribución, que es
el error estándar de la meda:

μ ± 1,96*EEM

siendo μ la media poblacional y EEM la desviación típica de la distribución de


medias, que es un concepto diferente al de desviación típica o estándar de
cualquiera de nuestras muestras. 1,96 es el factor por el que multiplicamos el EEM
para que incluya, a uno y otro lado de la media, al 95% de la distribución; en los
cálculos manuales se redondea 1,96 a 2.

Si quisiéramos el intervalo que debería contener el 99% de las medias muéstrales,


la fórmula sería:

μ ± 2,58*EEM

(2,6 en los cálculos manuales).

¿Y qué pasa si no conocemos los parámetros de la población (media y desviación


típica)?
46

Todo este ejercicio ha partido de la base de que conocíamos la media y la


desviación típica en la población y obteníamos numerosas muestras, pero en la
vida real sucede todo lo contrario: desconocemos los parámetros poblacionales y
para averiguarlos no contamos más que con una muestra. ¿Qué hacemos
entonces? Pues asumir que la media de nuestra muestra es la media poblacional
y construir a partir de ella un intervalo sumándole y restándole 1,96 ó 2,58 (según
el intervalo que queramos construir) multiplicado por el EEM. A este intervalo lo
llamamos intervalo de confianza, porque por la forma en que lo hemos
construido, tenemos una confianza o seguridad del 95 ó 99% según corresponda
de que contendrá la media poblacional.
Pero… ¿cómo calculamos el EEM, si no conocemos la desviación estándar en la
población (σ)?

Aquí viene en nuestra ayuda la distribución t de Student. Su utilidad consiste en


que nos proporciona unos coeficientes más grandes que 1,96 ó 2,58 que nos
permiten calcular un intervalo de confianza de la media poblacional a partir de la
desviación típica de la muestra en lugar de la de la población.
Para saber cuál es el valor del nuevo coeficiente que debemos utilizar, es
necesario conocer, en primer lugar, el concepto de “grados de libertad” en la
distribución de una muestra. Se refiere al número de términos que son realmente
libres. Y es que, una vez que conocemos su media, el valor correspondiente al
último de los sujetos de una muestra no nos aporte ninguna información, ya que
se puede calcular a partir del resto de valores de la muestra y de su media. Por
eso en este caso los grados de libertad de esa muestra serían n-1. El concepto de
grados de libertad quedará más claro cuando estudiemos la asociación entre
variables categóricas.
De momento, nos basta saber que los coeficientes de la distribución t de
Student aparecen recogidos en tablas. Encontraremos el valor deseado en la
confluencia entre los grados de libertad de nuestra muestra (n-1) y el error α que
tomemos como referencia (que es la proporción complementaria a la del intervalo
de confianza; ver más adelante). Es importante distinguir si estamos realizando
una prueba a dos colas (contraste bilateral, considerando ambos extremos de la
curva, que es lo habitual) o a una sola cola (contraste unilateral, excepcional),
porque los coeficientes se buscan en columnas distintas (también lo explicaremos
más adelante). Veremos en dichas tablas que, cuanto mayor es el tamaño de la
muestra, los coeficientes que las tablas nos proporcionan se parecen más a los ya
establecidos de la curva normal, 1,96 para un intervalo de confianza del 95%
(error α de 0,05), y 2,58 para un intervalo de confianza de 99% (error α de 0,01).
Una vez conocido todo esto, tan sólo nos queda proceder de la siguiente manera:
asumimos la desviación estándar de la muestra, calculamos a partir de ella el valor
del EEM (con la fórmula ya conocida, σ/√n), y la multiplicamos por el valor de la t
de Student que corresponda a nuestros grados de libertad (recordemos, n-1) y al
error α que deseemos utilizar. Sumando y restando el valor obtenido del de la
media, tendremos el intervalo de confianza que buscábamos.
47

Para ejemplificar el cálculo del intervalo de confianza, supongamos que en una


muestra de 30 individuos de nuestro centro sanitario hemos obtenido una media
muestral de 204 mg/dl y una desviación típica muestral de 45 mg/100ml. El
intervalo de confianza al 95% sería:

204 ± 2,05*8,2 = 187,2 a 220,8 mg/dl.

(Utilizamos 2,05 en lugar de 1,96 según el valor obtenido para 29 grados de


libertad (30-1) y un error alfa de 0,05 en una prueba a dos colas en la tabla de los
valores t de Student).

Este procedimiento sólo puede emplearse cuando el tamaño de la muestra es


mayor de 30 (lo que se considera muestra grande) o cuando la distribución de la
variable en la población es normal. Hay que tomar este valor de 30, como todos
los que indican la elección de determinados procedimientos en estadística, como
valores orientativos, no exactos. En este caso, hay una cierta “compensación”
entre tamaños de muestra y normalidad de las variables. Si una variable tiene una
distribución no muy alejada de la normal, se pueden considerar “grandes” tamaños
de muestra un poco por debajo de 30. Pero si la distribución está muy alejada de
la normal, incluso tamaños de muestra por encima de 30 podrían no considerarse
suficientes para aplicar el teorema central del límite. Como procedimiento general,
recomendamos hacer un histograma de la variable en cuestión. Si no se aleja
mucho de una distribución normal, puede considerarse que la variable tiene una
distribución normal en la población y considerar muestras grandes las que pasan
de 20. Preferimos estudiar la normalidad con gráficos antes que con test
estadísticos como el de Kolmogorov-Smirnov o el de Shapiro-Wilk para ser más
flexibles en la valoración de la normalidad y no depender exclusivamente de un
resultado de un test. Si la forma se aleja mucho de la normal o si la muestra tiene
un tamaño demasiado pequeño, no se puede calcular un intervalo de confianza
salvo que se transforme la variable para que adquiera una forma más “normal”.

Una transformación que se usa habitualmente cuando la variable tiene asimetría


positiva, como el colesterol del que una mayoría de la población tiene valores en
torno a la media, pero algunos individuos tienen valores muy altos, es la
logarítmica. Transformar simplemente es calcular el logaritmo de cada uno de los
valores de la variable y trabajar luego con los valores logarítmicos en lugar de los
originales. Hay que tener en cuenta que no se pueden tomar logaritmos de 0,
luego las existencias de estos valores en la variable original impiden el uso de esta
técnica.

Es muy importante tener claro que la media obtenida en nuestra muestra sirve
para construir el intervalo de confianza en el que se debería encontrar la media
real de la variable en la población, pero esto no significa que esa estimación sea
más probable que cualquiera de los otros valores que incluye ese intervalo.
48

Incluso puede suceder que el intervalo calculado por este procedimiento haya
partido de una estimación de la media que está muy alejada de la media
poblacional, por lo que ese intervalo de confianza no la incluya. Habríamos tenido
en ese caso mala suerte, porque esto sólo debería ocurrir en el 5% de los casos (o
en el 1%, según el intervalo que hayamos construido). Pero es una posibilidad que
siempre habremos de tener en cuenta.

El intervalo de confianza incluirá o no la media poblacional, no lo sabemos, pero sí


podremos decir que el método seguido para construirlo nos da una seguridad del
95% de que la incluye. Es decir, que en un 5% de los casos la media poblacional
estará fuera del intervalo. Ese 5% es nuestra probabilidad de equivocarnos el
estimar la media poblacional, es decir, el error alfa (α) de nuestro experimento.
Con toda esta explicación debería quedar claro que no tiene sentido decir que el
intervalo de confianza al 95% tiene una probabilidad del 95% de contener la media
poblacional. La contiene o no la contiene, pero el procedimiento que usamos
para construirlo tiene un 95% de probabilidad de contenerla. También debería
estar claro que una estimación puntual sin su intervalo de confianza es
completamente insuficiente, pues ya sabemos que la media de la muestra no tiene
por qué coincidir con la media de la población (y, de hecho, lo más frecuente es
que no coincida).
Si la muestra es un porcentaje muy alto de la población habría que multiplicar el
EEM, además de por el factor 1,96 ó 2,58, por el siguiente factor reductor (su valor
siempre es inferior a 1):

La lógica de usar este factor es que si la muestra es una parte importante de la


población será más probable que su media y desviación estándar coincidan con la
de la población, con lo que podremos reducir el intervalo de confianza utilizando
este factor. En la práctica sólo se usa cuando la muestra supone más del 5% de la
población.
50

Introducción a la Epidemiología.
Corredor Endémico
51

INTRODUCCIÓN A LA EPIDEMIOLOGIA. CORREDOR ENDÉMICO

Entender la epidemiología es de un inmenso valor para todos aquellos que están


dedicados a ayudar al ser humano desde el área de la salud. Como tal, el
conocimiento agrupado bajo la epidemiología ha abierto una extraordinaria senda
que ha permitido enormes avances para la humanidad. Su gran objeto ha sido y
será combatir las enfermedades y hoy se incorpora en la búsqueda de la salud. A
continuación, se esbozará a manera de introducción algunos componentes del
maravilloso mundo de la epidemiología

Unas palabras que necesariamente entran en cualquier definición de la


epidemiología han de ser enfermedad y población. Sin duda, la ocupación de la
epidemiología será estudiar la enfermedad en la población. Las epidemias
(enfermedades casi siempre infecciosas que afectaban grupos poblacionales)
como ejemplo clásico, fueron combatidas con las técnicas epidemiológicas
(descripción, comparación e intervención). Ello establece un objetivo: preservar al
ser humano. Las frecuencias (como expresión de ocurrencia), sin duda, han de
acompañar cualquier definición. Y qué decir de la etiología, probablemente sin
esta palabra no existirían los grandes éxitos que la epidemiología se ha anotado.
Pero hoy… hoy no se habla solo de la enfermedad… se habla de la salud, por
ende, la epidemiología tiene que ver también con la búsqueda de la etiología para
mantener la salud. Por ello, la definición de epidemiología deberá contemplar,
población, enfermedad, salud, frecuencias (ocurrencias), etiología… claro, falta la
palabra que va integrar todo este aspecto… ¿será ciencia? o, ¿técnica?... la
verdad es que, al momento de estas líneas, no se sabe. Una ciencia tiene una
cantidad de componentes que tal vez la epidemiología aún no tiene (teorías e
hipótesis) y una técnica parece ser muy simple para la epidemiología. A lo mejor,
el método científico puede ser ese enlace que “activa” la epidemiología…

La utilidad de la epidemiología

-Buscando las causas

Para combatir la enfermedad, el saber la causa es un elemento importante, que no


indispensable. La historia ha demostrado cómo a pesar de no saber la causa, la
epidemiología ha contribuido a desarrollar una serie de medidas protectoras que
protegen al ser humano. Por ejemplo, el médico James Lind en 1740 a través de
un sencillo experimento, descubrió cómo combatir el escorbuto mucho antes de
saber cuál era la causa. Pero al saber la causa, esta tarea se facilita
52

enormemente. Es más… bajo esta condición, la enfermedad puede ser derrotada.


Hoy surge con la misma fuerza la búsqueda de la “causa” que puede mantener
sano al ser humano. Pero no cabe duda que la humanidad esté más entrenada en
torno el estudio de la etiología de la enfermedad. Como una propuesta de
definición se propone: Es el uso del método científico en el estudio de la
enfermedad y la salud de la población, buscando la causa para, así entender, qué
se puede hacer en beneficio del hombre. De todo lo anterior ha de quedar en claro
que la epidemiología tiene una gran utilidad en la salud de los seres humanos.

Hoy se sabe que nada es el producto de un solo componente. La multicausalidad


parece reafirmar la certeza de la “complejidad”. Se habla de “redes” y de
“pasteles” causales. Se habla de causas necesarias y suficientes; intentos todos
de ordenar y clasificar el sorprendente mundo etiológico Se habla de factores de
riesgo y de factores protectores, de componentes “primordiales”, en fin… según y
cómo pretenden ordenar los grandes “pensadores” del mundo de la medicina, el
estudio de la etiología o de la causa emblemática la utilidad inmensa que tiene la
epidemiología en torno al ser humano.

Así como contribuye al estudio de la causalidad, la epidemiología es una de las


bases de la salud pública. ¿Por qué? Para ello se hace necesario “entender” el
significado de la salud pública. Aceptando lo difícil que es encontrar una definición,
se puede afirmar que la que sea, ha de tener como componentes esenciales:
comunidad referida como hacia dónde se dirige; bienestar como el objetivo que se
busca; Estado por ser el responsable. Tal vez con otros componentes, pero
seguros de que estos términos han de participar en cualquier definición, se deja en
la búsqueda de los lectores interesados la definición de la salud pública.

La salud pública está íntimamente relacionada con el desarrollo social.


Condiciones económicas (revolución industrial), políticas (revolución francesa),
sociales (surgimiento del proletariado) junto con las científicas (aportadas por la
epidemiología) se integran en un ente ejecutor y responsable que es el Estado.

Dado que en la epidemiología el elemento esencial de estudio es la población y el


ver cómo se comporta en la enfermedad, ofrece con sus análisis importantes
aportes para la toma de decisiones, lo que, sin duda, hace parte de la salud
pública. Si bien la epidemiología entra como un componente básico de la salud
pública, la política con sus desarrollos (cualidades y defectos) forman parte del
otro componente fundamental de la salud pública.

1.3. Las herramientas de la epidemiología

La epidemiología usa la “duda” que surge de observar y/o comparar. Ahí plantea
sus problemas y usa (como cualquier otro conocimiento) la descripción como un
53

primer paso para entender, para pasar ulteriormente a la comparación en donde


plantea predicciones hipotéticas, pasando finalmente a las intervenciones (o
experimentos) de donde obtiene el máximo de sus aplicaciones. De lo anterior se
entiende que las herramientas de la epidemiología son todas aquellas que se
derivan de la observación objetiva (de descripciones, comparaciones e
intervenciones).

1.3.1. La observación

La observación tiene una connotación especial en epidemiología. Sin duda,


corresponde al primer paso del método científico y concluye con el planteamiento
del problema, expresando de esta manera la “concreción” de la observación. En
general y, hasta hace muy poco, las observaciones correspondían a
manifestaciones que dieron pie a la construcción de enfermedades. Hoy, además,
lo hace a los procesos que preservan la salud. Lo cierto es que la epidemiología
ha provocado extraordinarios planteamientos de problemas a través de los cuales
ha logrado beneficiar a la humanidad cuando los contesta.

1.3.1.1. La descripción

Una vez planteado el problema, la epidemiología describe, y lo hace para


entender. Describir es mencionar lo que se ve usando referentes. Para ello,
primero ordena y luego clasifica. Un ejemplo de la extraordinaria capacidad
descriptiva que usa la epidemiología son los aportes que ha hecho a las
enfermedades a través de lo que se conoce como la historia natural. Ahí la
epidemiología, usando una serie de criterios, describe a las enfermedades
permitiendo entenderlas

La estadística se ha convertido en una excelente “ayuda” para la epidemiología.


Dado que la ciencia busca entender los datos (respuestas de las variables) la
estadística ofrece “referentes” que permiten comprender dichas respuestas
(Estadística Descriptiva) y ofrece alternativas para comparar (Estadística
Analítica). Por ejemplo, el uso de referentes estadísticos (medidas de tendencia
central o de dispersión…) contribuye enormemente en el proceso de entender

1.3.1.2. La comparación

Tabla de comparación o de contingencia o del 2X2o del SI y el NO El ser humano


entiende mejor cuando compara. Por ello la epidemiología, como pocas ramas del
conocimiento, usa una extraordinaria herramienta para la comparación. Se trata de
la tabla de contingencia (o tabla del 2X2) que permite consolidar a los ojos lo que
se compara. Una vez más la estadística contribuye con sus técnicas, sus pruebas,
a confirmar si lo que se compara definitivamente es diferente o igual.
54

1.3.1.3. La intervención

El objeto final de la epidemiología es entender y con ello predecir qué hacer para
evitar que lo nocivo ocurra. Esa predicción se construye a través de las
intervenciones. Intervenir es hacer que la población sea sometida a una “acción”
puesta de manera consciente, esperando que a través de dicha acción no ocurra
(prevención) o se corrija una adversidad (disminuya la morbimortalidad). En
esencia, las intervenciones se convierten en la máxima aplicación de la
epidemiología. Las intervenciones son la razón esencial de la medicina: se busca
que con lo que el médico formula (variable interviniente) modifique el pronóstico
(mueran menos) o las manifestaciones (se curen más rápido). Implica conocer la
historia natural de las enfermedades en torno al pronóstico (intervenciones cuando
está presente la enfermedad) o pretenden disminuir su incidencia (intervenciones
preventivas).

CORREDOR ENDEMICO
Una curva epidémica es una representación gráfica del número de casos de una
patología dada en un período epidémico dispuestos según etapas de tiempo, por
ejemplo, semanas epidemiológicas.

Las curvas epidémicas son útiles porque proveen información acerca de:

• Patrón de propagación de la epidemia.


• Casos aislados.
• Tendencia en el tiempo.
• Periodo de exposición y/o incubación de la enfermedad.
55

CANAL ENDÉMICO
Un corredor o canal endémico permite ver representada gráficamente la incidencia
actual de una patología sobre la incidencia histórica de la misma, dando lugar a la
detección temprana de cifras anormalmente altas (o bajas) de los casos de la
enfermedad en estudio.

En las tareas de vigilancia epidemiológica en una población, es sumamente


importante conocer cuán endémica es una determinada enfermedad en dicha
población o grupo de personas en un momento determinado del año.

En 1970, Héctor Boffi Borggero y Carlos Álvarez Herrera describieron varios


métodos para elaborar corredores endémicos (1). Estos métodos consisten en
calcular una medida central y un recorrido de fluctuación normal de la incidencia
para cada uno de los meses, a partir de una serie de casos notificados en un
periodo de 5 a 7 años.

El más sencillo consistía en representar gráficamente el número máximo y mínimo


de casos notificados cada mes, generando así una "banda endémica" con un área
inferior de seguridad y una superior o epidémica.

Los más sofisticados comprenden modelos matemáticos más o menos complejos


por medio de los cuales se pretende pronosticar, a partir de cinco o siete cifras, el
número de casos que cabría esperar para ese período del año con un recorrido
superior y uno inferior. Obviamente, cuanto mejor sea el modelo deseado, tanto
mayor será el número de cálculos que deberán llevarse a cabo.

CRITERIOS PARA SU CONSTRUCCIÓN

Factores que deben tenerse en cuenta antes de elaborar un corredor endémico

La selección de la entidad, las poblaciones, la serie de años que van a incluirse y


los intervalos de tiempo determinarán el grado de precisión de los corredores
endémicos.

En enfermedades de baja incidencia, en poblaciones pequeñas o con intervalos de


tiempo cortos, el papel que desempeña el azar se hace más prominente. La
consiguiente inestabilidad o dispersión de los casos notificados en los años
previos condiciona notablemente la posibilidad de realizar predicciones, lo cual
resulta en corredores de líneas dentadas con anchas áreas de seguridad y alarma.
56

Es posible afirmar en esos casos que, a mayor nivel de desagregación de la


información, menor será la precisión de la predicción. Otra posibilidad para
enfermedades endémicas de baja incidencia es la realización de corredores
acumulativos o bien trabajar con tasas de incidencia en lugar de casos

Criterios de selección de entidades patológicas. Al seleccionar una


enfermedad para realizar un corredor endémico, habrá que tener presente que se
trate de una enfermedad endémica cuyo período de incubación sea breve y su
evolución, aguda. No tendrá sentido realizar corredores endémicos para
enfermedades de muy baja frecuencia en las cuales la sola presencia de uno o
pocos casos debe alertar a los sistemas de vigilancia. De igual modo, en las
enfermedades de evolución crónica, la acumulación de nuevos casos en un breve
período de tiempo no tendrá, en general, mayor significación para la vigilancia
epidemiológica y, seguramente, será la consecuencia de cambios o de la
intensificación de los métodos diagnósticos (tamizaje) o simplemente del azar.
Solo en situaciones muy excepcionales será la consecuencia de una verdadera
epidemia, como lo fue el sarcoma de Kaposi durante el inicio de la epidemia del
sida.
57

Agrupación de entidades patológicas. Cuando la incidencia lo permita, será útil


realizar corredores independientes para cada enfermedad y sus subgrupos, por
ejemplo, diarreas por grupos de edad o por agentes etiológicos. En el otro
extremo, como es el caso de las poblaciones pequeñas, se podrían mantener
agrupadas las entidades con formas de transmisión similares, vigilando no el
comportamiento de un micro organismo o de una enfermedad, sino el de una vía
de transmisión.

Poblaciones. Al igual que en el caso anterior, mantener la información y los


corredores endémicos desagregados por pequeñas áreas geográficas favorecerá
la posibilidad de detectar pequeños brotes locales que se diluirían en cifras
acumuladas de zonas más amplias. No obstante, este nivel de desagregación
deberá equilibrarse con el aumento de la imprecisión de los resultados. Cabe
destacar aquí que, en ciertas circunstancias, es justamente la vigilancia en
poblaciones más grandes y su consiguiente aumento de precisión lo que permite
detectar un brote. Así, es posible que en varias áreas se genere un número de
casos mayor que la media, pero sin ingresar en la zona de alarma, mientras que
sobre el corredor endémico de la zona este ligero aumento en los niveles locales
resulte en un ascenso notable en la zona.

Otro punto que ha detenerse en consideración es el de los cambios que se


observan en el número de habitantes de una población con el transcurso de los
años. Por esta razón, no será adecuado analizar los datos como casos. Siempre
que sea posible, se deberá disponer de cifras de población que permitan realizar
corredores utilizando tasas de incidencia. Del mismo modo, si las enfermedades
se consideran según ciertos grupos de edad, será preciso trabajar con tasas de
incidencia específicas para esos grupos, al mismo tiempo que habrá de
disponerse de la información de habitantes por grupos de edad y para cada año
de las series incluidas.

Longitud de las series e intervalos de tiempo. Habitualmente, los corredores se


construyen con series de casos de 5 a 7 años. Es lícito presuponer que, al
aumentar el número de años, mejorará el modelo de predicción, pero deberá
tenerse en cuenta que si se analizan series muy largas, es probable que tanto las
condiciones que mantienen la endemia como los criterios diagnósticos y los
mecanismos de notificación y registro hayan cambiado. Esto no es igual en todas
las entidades, aunque, en líneas generales, si se considera una serie de 15 años,
las condiciones de hace 15 años difícilmente podrán compararse con las
actuales.}
58

Este tipo de cambio también deberá tenerse en cuenta, aunque se considere un


período de pocos años. Por ejemplo, si acaban de realizarse mejoras sustanciales
en la red de cloacas de una localidad, la incidencia de enfermedades de
transmisión fecal-oral debería ser menor que la pronosticada por el corredor
endémico.

En cuanto a los intervalos de tiempo, siempre sería deseable realizar corredores


por semanas epidemiológicas, pero ante incidencias bajas habrán de utilizarse
períodos mayores, (2 ó 4 semanas), lo cual tenderá a estabilizar las fluctuaciones
debidas al azar. La desventaja que supone utilizar períodos de 2 a 4 semanas es
que se reduce la posibilidad de detectar tempranamente los brotes y que se
retrasa la implantación de las consiguientes medidas de control.

Selección del programa para elaborar el corredor

Si bien existe la posibilidad de desarrollar programas específicos para realizar


corredores endémicos, estos funcionarían como una caja negra. Los datos serían
introducidos en un extremo de la caja y los corredores saldrían por el otro extremo,
distanciando a quien realiza la vigilancia epidemiológica de todo el proceso de su
elaboración. Por esta razón, y considerando el amplio uso de las plantillas de
cálculo y las facilidades que estos programas ofrecen para realizar cálculos y
construir gráficos, este tipo de herramienta es la más adecuada para la tarea.

Las plantillas de cálculo a las que aquí se hará referencia son las siguientes: QPro
versión 4.0 o 5.0 y Microsoft Excel versión 5.0 y 97. Se sobrentiende que los
usuarios han de tener cierta experiencia en la utilización de estos programas.2

Método de las medias geométricas de las tasas

El método de la media geométrica de las tasas y sus intervalos de confianza es


uno de los más sólidos desde el punto de vista estadístico. Como ya se ha
mencionado, el uso de tasas en lugar de casos ajusta las distorsiones que
generan los cambios en los tamaños de las poblaciones con el transcurso de los
años

Media geométrica

Teniendo en cuenta que las cinco o siete tasas con las que hay que calcular un
valor central difícilmente tengan una distribución normal, el uso de la media
aritmética no sería lo más adecuado. En cambio, la media geométrica es una
59

medida de tendencia central apropiada para distribuciones de valores asimétricos


o no normales y está especialmente indicada para distribuciones con valores
aislados altos o muy altos. Esto último explica el hecho de que las posibles cifras
muy elevadas que se detectan en alguna epidemia declarada durante la serie de
tiempo incluida en la construcción del corredor se diluyan y no distorsionen la
incidencia histórica. Para calcular la media geométrica (µ), se ha de realizar una
transformación logarítmica de los valores mediante la siguiente formula.

µ = log x

donde x es el valor inicial, y µ, el valor transformado.

Esta transformación estira los valores bajos y comprime los altos. A continuación,
todos los cálculos (de medias, desviaciones estándar e intervalos de confianza) se
realizan con los valores transformados. Finalmente, los datos obtenidos se convier
ten en las unidades originales, calculando el antilogaritmo o, lo que es lo mismo,
calculando 10µ (x =10µ). Otros tipos de logaritmos (por ejemplo, los de base no
naturales) pueden utilizarse con los mismos resultados:

µ = ln(x) y x = exp(µ)

En el cuadro 1 aparecen las tasas de sarampión del período comprendido entre


1983 y 1989 en la provincia del Neuquén, Argentina. En el mismo figuran la media
aritmética y la geométrica de las tasas y sus respectivas desviaciones estándar.
Como puede apreciarse, el brote de 1984 (tasa = 37,92/100 000) y la epidemia de
1989 (136,43) afectaron mucho más a la media aritmética (27,64) y a su
desviación estándar (49,7) que a la media geométrica (7,1) y a su respectiva
desviación estándar (5,88).
60

Elaboración en etapas

Para elaborar el corredor endémico en una plantilla de cálculo, será necesario


construir una serie de tablas y realizar cálculos en varias etapas, tal como se
detalla a continuación.

Primera etapa: ingreso de los datos. El primer paso consiste en construir un


bloque en el cual se ingresarán los casos detectados por años y períodos. Por
ejemplo, el bloque 1 [A1 a BB10] con 52 semanas en las columnas y los años en
las filas se ha preparado para ingresar los casos de 1990 a 1998. Nótese que se
ha preparado la última columna (BB) para colocar en ella las poblaciones de cada
año.
61

Segunda etapa: cálculo de las tasas. En el segundo paso se calculan las tasas
de incidencia semanal y se suma 1 a cada una de ellas, con objeto de permitir
calcular la media geométrica en caso de existir tasas = 0. Para ello, se preparará
un bloque similar de bajo del anterior (bloque 2 [A15 a BA24]) y en cada celda del
bloque se incluirá la fórmula correspondiente. La forma más rápida de hacerlo es
incluir la formula en la casilla B16 y copiarla en las restantes casillas. La fórmula
de la casilla B16 será:

((+B2 / $BB2 * 100 000) + 1)

donde B2 es el numero de casos de la semana 1 del año 1990, y BB2, la


población en 1990. El signo $ que precede a BB permite que, al copiar esta
fórmula en otras casillas, se continúe utilizando la columna BB para obtener las
poblaciones.

Después de copiar las fórmulas, habrá que verificar este procedimiento y confirmar
que las fórmulas se hayan copiado adecuadamente. Nótese, por ejemplo, que la
casilla D19 contiene la fórmula ((+D5 / $BB5 *100 000) + 1).

Tercera etapa: transformación logarítmica de las tasas. Para transformar las


tasas a la escala logarítmica, se utilizará un tercer bloque similar al anterior
(bloque 3) y se usará la función ln (x), donde x es la casilla correspondiente al
bloque anterior.
62

Cuarta etapa: cálculo de las medias, desviaciones estándar e intervalos de


confianza de 95% en escala logarítmica. Para calcular las medias, las
desviaciones estándar y los IC95% (bloque 4) serán necesarias otras cuatro filas.
Dado que hay algunas diferencias en los nombres de las funciones entre QPro y
Excel, las fórmulas empleadas en uno u otro programa serán ligeramente distintas.
En los ejemplos se utilizarán los datos entre 1990 y 1996 (filas 28 a 34); de ahí
que en los cálculos de los intervalos de confianza n = 7 y t = 2,45.

Quinta etapa: transformación a unidades originales restando 1, y conversión


de tasas a casos esperados. El último paso consiste en convertir los valores
obtenidos a su escala original, restarles 1 para restablecer el corrimiento de las
63

tasas introducido al sumarle 1 en la segunda etapa, y convertir las tasas a casos


esperados para facilitar la utilización del corredor. El bloque 5 muestra las
fórmulas necesarias para realizarlo. La fila 45 contendrá la media geométrica y las
filas 46 y 47, los límites superior e inferior de los intervalos de confianza del 95%.
En las filas 48 a 50 las tasas se convierten a casos esperados, teniendo en cuenta
la población del año 1997 (celda BB9)

Sexta etapa: gráfico. Por último, con la media geométrica y su intervalo de


confianza expresa dos en casos para la población del año en curso se estará en
condiciones de construir un gráfico de áreas. Sobre este gráfico se deberán
representar gráficamente a mano, semana a semana, el número de casos
notificados como parte de la actividadde vigilancia.

Para facilitar la “superposición” de las áreas del gráfico, será conveniente construir
otro bloque a fin de calcular, por un lado, la diferencia entre el límite inferior del
intervalo de confianza y la media geométrica, y, por otro, la diferencia entre esta
última y el límite superior de dicho intervalo (bloque 6).

Gráfico con QPro

Desde menú-gráficos se creará un gráfico de áreas, se definirán como series 1, 2


y 3 las celdas A52..BA52, A53, BA53 y A54, BA54, respectivamente, y, pulsando
<F10>, podrá visualizarse. Posteriormente, se colocarán los títulos adecuados y
ya estará listo para imprimirse. También se podrán realizar cambios en los colores,
tramas y en otros detalles de la presentación gráfica.
64

Gráfico con Microsoft Excel

Se marca el bloque (A52..BA54) y, desde insertar-gráfico-en esta hoja, se ingresa


al asistente para gráficos. Se selecciona un gráfico de áreas tipo 1 y se procede
con el asistente hasta finalizar. Al igual que con QPro, y antes de imprimir,
posteriormente se podrán añadir títulos, modificar los colores o tramas de las
series, etc. (figura 2).

Corredor endémico acumulativo

Tal como se ha comentado, una alternativa para realizar corredores endémicos


para enfermedades endémicas pero de baja incidencia es utilizar la incidencia
acumulada en lugar de la incidencia semanal. De este modo, se evitará que el
corredor presente una imagen muy dentada. Las figuras 3 y 4 muestran,
respectivamente, el corredor endémico y el corredor endémico acumulativo para
meningitis bacteriana en la provincia del Neuquén correspondientes al período
comprendido entre 1990 y 1996. En ambos corredores también se representó
gráficamente la incidencia del año 1997 hasta la semana 31 como una línea
negra. Como puede verse, la vigilancia de la incidencia actual se simplifica en
la figura 4 de incidencia acumulada
65

Para realizar corredores conincidencia acumulada, bastará introducir la incidencia


acumulada semanal en lugar de la incidencia semanal o incluir un bloque que
acumule la incidencia a partir de los datos de incidencia semanal.
66

Relaciones entre la Bioestadística y la


Epidemiología
67

Relación entre la Bioestadística y la Epidemiologia

La Estadística en los estudios epidemiológicos

La epidemiología es la ciencia que estudia la frecuencia y distribución de los


fenómenos relacionados con la salud en las poblaciones humanas, así como las
causas que los producen. La propia definición de epidemiología ya deja entrever la
importancia de la estadística para cumplir su objetivo, ya que habla de “estudio de
frecuencia y distribución” y “estudio de las causas”. La estadística ha jugado
históricamente un papel fundamental en el campo de la epidemiología, hasta el
punto que algunos de los métodos estadísticos empleados en la actualidad han
surgido por la necesidad de dar solución a preguntas de investigación surgidas en
esta disciplina. Esta fuerte presencia y especialización de la estadística en el
campo de la investigación biomédica, ha propiciado la aparición del término
bioestadística para describir la estadística aplicada al ámbito de la salud humana.
En esta sesión se hará un repaso a algunas de las técnicas estadísticas más
utilizadas en epidemiología, con especial atención a su aplicación en
epidemiología ambiental, línea de investigación principal del ponente. Para ello se
presentarán ejemplos de aplicación de diversas técnicas estadísticas en estudios
epidemiológicos reales.

La estadística ayuda para diseñar correctamente una investigación y la estadística


y la epidemiologia comparten un patrimonio común y toda la base cuantitativa de
la epidemiologia.

La estadística debe ser la compañera inseparable del razonamiento científico.


Pero no sirve de nada si una investigación se diseña y desarrolla correctamente

Estudios epidemiológicos y estadísticos

Estudios epidemiológicos

Permiten establecer la relación entre las causas de la enfermedad (variables


independientes) y la influencia de estas sobre el surgimiento de la enfermedad

Clasificación de estudios epidemiológicos

• Según la temporalidad
- Estudio retrospectivo
- Estudio transverso
68

- Estudio prospectivo
• Según el tipo de resultado
- Estudio descriptivo
- Estudio analítico
• Según la unidad de estudio
- Estudio ecológico o de correlación
- Estudio en los que los individuos son las unidades de estudio
• Según la forma de recogida de datos
- Estudios en papel
- Estudios con recogida electrónica, mayoritariamente online

Estudios estadísticos

- El muestreo en los estudios de casos y controles


Se investiga hacia atrás en el tiempo, para tratar de identificar causas o de
factores de riesgo posibles de dicho resultado.

Los casos en estos estudios se seleccionan de manera individual, sobre la base


de alguna de enfermedad o consecuencia de ella.

- El estudio de casos y controles frente al estudio de cohortes


En el estudio de cohortes, se seleccionan sujetos al principio y se determina si
posee el factor de riesgo o han sido expuestos. Se observa estas personas
expuestas y no expuestas por cierto tiempo, para constatar el efecto de este
factor. Debido a que los eventos de interés, como enfermedad, se manifiestan
después de iniciado el estudio, en ocasiones se denomina prospectivo.
69

CONCLUSION

Como resultado de la investigación estadística presentada, es posible concluir que


es necesario aplicar estas 14 etapas para obtener la respuesta; también nos
demuestra La importancia de conocer la aplicación de la estadística descriptiva en
estudios de investigación en el área de salud la cual Es que proporciona el
conocimiento y comprensión de la información acerca de la etiología y el
pronóstico de las enfermedades, a fin de asesorar a los pacientes sobre la
manera de evitar las enfermedades o limitar sus efectos.

Como demostrábamos en los temas anteriores La epidemiología es la ciencia que


estudia la frecuencia y distribución de los fenómenos relacionados con la salud en
las poblaciones humanas, así como las causas que los producen.

Todos estos temas nos sirven para llevar a cabo una completa investigación
acerca del tema de nuestro interés también nos explican con algunos ejemplos
con los cuales podemos guiarnos.
70

GLOSARIO

es una entrada que puede encontrarse en


C diferentes ámbitos y contextos, pero que alude
al incremento y reducción de algo en particular y
cognitivas
de manera alternada, es decir es la variación,
La cognición (del latín cognoscere, 'conocer') es la
alteración o transformación en el valor, cualidad
facultad de un ser vivo para procesar
o intensidad de algo., 1
información a partir de la percepción, el
conocimiento adquirido (experiencia), 21
concretar H
Reducir algo a lo más importante o limitarse a tratar
una sola cosa., 28 hipertensión
conjeturas Presión excesivamente alta de la sangre sobre la
se entiende el juicio que se forma (moral, ético o pared de las arterias., 27
matemático) de las cosas o sucesos por indicios y
observaciones., 12
I

D incertidumbre
Falta de seguridad, de confianza o de certeza sobre
dilación algo, especialmente cuando crea inquietud., 1
Retraso en un proceso o actividad., 18 Invención
disnea Creación, diseño o producción de alguna cosa nueva
Ahogo o dificultad en la respiración, 28 que antes no existía., 19
divergencias
es una palabra que puede poseer diferentes
J
significados, cada uno de ellos dependiendo del
ámbito o del contexto donde se utilice, 6 jerarquía
Organización de personas o cosas en una escala
E ordenada y subordinante según un criterio de
mayor o menor importancia o relevancia dentro
Enmascaramiento de la misma., 28
Ocultación o modificación de algo generalmente
negativo para que no se manifieste o no se
P
aprecie cómo es en realidad., 16
estadiaje Prórroga
Grado de extensión de un tumor maligno que se Tiempo que se alarga un encuentro deportivo para
calcula con métodos radiológicos., 28 deshacer un empate., 6
pseudociencia
F La pseudociencia o seudociencia ('falsa ciencia') es
aquella afirmación, creencia o práctica que es
falacia presentada incorrectamente como científica,
Engaño o mentira que se esconde bajo algo, en pero que no sigue un método científico válido,
especial cuando se pone de manifiesto su falta 14
de verdad., 13
falsabilidas,
R
concepto adoptado por el filósofo Karl Raimund
Popper, que designa la oportunidad que tiene Refutación
una teoría de ser desmentida, falseada, 13 Argumento o prueba cuyo objeto es destruir las
fluctuaciones razones del contrario., 13
71

sesgado
Que está en posición oblicua., 10
72

Bibliografía

https://prezi.com/dkx6vu2vignm/usos-de-procedimientos-estadisticos-en-salud-
publica/

http://amyts.es/curso-introduccion-estadistica-analitica-1/

https://www.juanncorpas.edu.co/uploads/media/Libro_de_Biometria_Comunitaria.p
df

https://www.scielosp.org/article/rpsp/1999.v5n1/1-8/

https://prezi.com/4k1tumiftyt5/relacion-de-la-epidemiologia-y-la-estadistica/

https://es.slideshare.net/gloriahg02/metodo-estadistico-fase-descriptiva-y-
analitica

http://www.ciap.org.ar/ciap/Sitio/Archivos/ESTUDIOS%20DESCRIPTIVOS
%20Y%20ANALITICOS.pdf

http://new.paho.org/hq/dmdocuments/2010/Tipos-de-Estudio--
Dise%C3%B1os-OPS-2.pdf

https://www.fisterra.com/gestor/upload/guias/10descriptiva2.pdf
http://www.smo.edu.mx/colegiados/apoyos/estadis5.pdf
https://es.slideshare.net/reycol04/estadistica-descriptiva-
11816356
https://www.sciencedirect.com/science?_ob=PdfExcerptURL&_i
magekey=3-s2.0-B978849022446500001X-
main.pdf&_piikey=B978849022446500001X&_cdi=311259&_orig
=article&_zone=centerpane&_fmt=abst&_eid=3-s2.0-
B978849022446500001X&_user=12975512&md5=5396b539283
01d8233531d485a62e22c&ie=/excerpt.pdf
http://saludpublicavirtual.udea.edu.co/eva/pluginfile.php/3077/mo
d_resource/content/0/Estad%C3%ADstica%20cap%C3%ADtulo
%201.pdf

https://es.wikipedia.org/wiki/MC-14
73

https://www.universidadviu.es/metodo-cientifico-etapas-y-su-
importancia-en-la-investigacion/

http://www.sld.cu/galerias/pdf/sitios/bmn/metodologia_de_la_investigac
ion.diseno_teorico_y_formulacion_proyecto_investigacion.pdf

http://www.ics-aragon.com/cursos/salud-publica/2014/pdf/M2T00.pdf

You might also like