You are on page 1of 141

UNIVERSIDAD DE GUANAJUATO

FACULTAD DE INGENIERÍA MECÁNICA,


ELÉCTRICA Y ELECTRÓNICA

“ESTIMACION OPTIMA BASADA EN GPS DEL


ERROR DE TIEMPO DE UN RELOJ LOCAL
CON EL FILTRO DE PROMEDIOS MOVILES
OPTIMAMENTE CENTRADOS.”

TESIS PROFESIONAL
QUE PARA OBTENER EL GRADO DE

MAESTRO EN INGENIERÍA ELÉCTRICA

PRESENTA:
ING. REYNEL OLIVERA REYNA.

ASESORES:
DR. YURIY S. SHMALIY.
DR. JOSE AMPARO ANDRADE LUCIO.

SALAMANCA, GTO. JUNIO 2003.


Agradecimientos

AGRADECIMIENTOS:

AL CONACyT

Agradezco al Consejo Nacional de Ciencia y Tecnología por haberme apoyado durante

mis estudios de posgrado con el número de becario 165676 y por el apoyo al proyecto

J38818-A, así como del convenio celebrado con la Universidad de Guanajuato “Apoyo a

las Actividades Académicas de los Posgrados de Excelencia”, convenios específicos 5 y 6.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. i
Agradecimientos

A LA UNIVERSIDAD DE GUANAJUATO

A la Universidad de Guanajuato, específicamente a la FIMEE por haberme permitido

realizar mis estudios de posgrado en sus instalaciones.

A CONCYTEG

Este proyecto ha sido apoyado por el Consejo Estatal de Ciencia y Tecnología del Estado

de Guanajuato CONCYTEG a través del proyecto 5987 denominado “Apoyo Mixto de

Fomento a la Investigación Científica y Tecnología CONACyT – GOBIERNO DEL

ESTADO DE GUANAJUATO” (FONINV).


_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. ii
Dedicatorias

DEDICATORIAS
A DIOS:

Dios mío, agradezco de ti el dejarme seguir con mi trayectoria profesional, gracias por

tu infinito apoyo, Señor y gracias por dejarme vivir y ser la persona que soy.

A MIS PADRES:

A mi papá el Sr. Buena Ventura Olivera Martínez y a mi mamá la Sra. Romualda

Reyna Álvarez; por su incondicional apoyo en esta nueva etapa de mi vida, por su

confianza, por sus palabras, por sus consejos, por tus preocupaciones mamá y por tus

sacrificios papá, solo les puedo decir mil gracias, que dios los bendiga y los quiero mucho.

A MIS HERMANOS:

A mis hermanas Ana Maria y Alma Rosa Olivera Reyna gracias muchachas por

consentirme al volver a casa.

A mis hermanos Roberto, Raúl y Miguel Olivera Reyna por estar siempre

dispuestos a ayudarme y hacerme los días más felices en casa.

AL ING. ROBERTO OLIVERA REYNA:

Por haber estado una vez más juntos en este ciclo de la vida y ser nuevamente mi

compañero de generación, por tu fuerza y voluntad inquebrantable, por tu apoyo para

conmigo y por ser mi hermano gemelo, gracias Robert.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. iii
Dedicatorias

AL DR. ROBERTO ROJAS LAGUNA:

Al jefe de la Maestría en Ingeniería Eléctrica por su inmenso apoyo en toda mi etapa

como estudiante de posgrado, por ser el hombre y amigo sincero que exige y aconseja, que

busca y mira de frente, por todo, muchas gracias Doctor.

AL DR. EDGAR ALVARDO MENDEZ:

Por su confianza y apoyo, por su manera sencilla y humana de ser, por su alegría y

por compartir sus experiencias y sueños en clases.

A MI ASESOR EL DR. YURIY S. SHMALIY:

Al Dr. Yuriy S. Shmaliy por su paciencia y dedicación durante todos los cursos que

recibí y durante mi etapa como tesista, por su sencillez y calidad humana. Thanks a lot for

your comments Dr. Yuriy Shmaliy!

AL DR. JOSE AMPARO ANDRADE LUCIO:

Por ser mí segundo asesor y por su disposición siempre plena para ayudar en la

concepción del trabajo final de tesis.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. iv
Dedicatorias

A MIS COMPAÑEROS DE GENERACIÓN:

Al Ing. Roberto Olivera Reyna, fue así el destino, Roberto, fuiste el único niño de

aquellos que conocí desde mi primer dia en un aula de clases, el único que me siguió hasta

aquí, FIMEE.

Al Ing. Osbaldo Vite Chávez, fue un gran placer ser tu amigo y conocer a la

persona que mas ama y defiende lo bello que es nuestro Sur Mexicano, no cambies nunca

amigo VITE.

Al M. en I. Heriberto Zavala Fernández, eres el amigo sincero que ayuda y anima,

el que infunde tranquilidad y paz, gracias Heriberto por ser un gran profesionista y

compañero de posgrado.

Al M. en I. Iván Esteban Villalón Turrubiates, eres la persona mas honesta,

amable y de un alto sentido del deber que he conocido.

Al Ing. Osvaldo Rodríguez Quiroz, por tu sentido del humor y tu tenacidad para

enfrentar los retos de la Maestría y de la vida, eres todo un ejemplo amigo.

Al M. en I. Hamurabi Gamboa Rosales, por ayudarme a conocer a través de ti la

forma de trabajo y el pensar de la gente del Norte de nuestro México.

Al Ing. Maribel Méndez Zúñiga, por ser mi compañera, por compartir las angustias

conmigo en los proyectos y por ser mujer gracias,... “Molly”.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. v
Dedicatorias

A MIS AMIGOS DE MAESTRIA:

Al Ing. Juan Pablo Vite Frías, al Ing. Mobolagi Akinola Olukunle, al Ing.

Gilberto Anzueto Sánchez, al Ing. Héctor Javier Estrada García, al Ing. José Enrique

Reyna Martínez. Por su amistad, por compartir muchas cosas en común conmigo y por ser

como son y por todo muchachos, muchas gracias.

También a al Ing. José Luis López Moreno, al Ing. Abel del Moral Perea, al Ing.

Ney Angélica Guillen Cañaveral, al Ing. Ruth Ivonne Mata Chávez, al Ing. Nancy

Georgina Cruz Ávila, al Ing. José Marcos Navarro Alvarado, al Ing. Pedro Aranda Díaz,

al Ing. Milton Arturo Ramírez Chiu, al Ing. Cesar Ramses Gamundi Prieto.

A MIS PROFESORES DE MAESTRIA:

Al Dr. Edgar Alvarado Méndez.


Al Dr. José Amparo Andrade Lucio.
Al Dr. Roberto Rojas Laguna.
Al Dr. Oscar G. Ibarra Manzano.
Al Dr. Julián Moisés Estudillo Ayala.
Al Dr. Yuriy Shvarkov.
Al Dr. Yuriy S. Shmaliy.
Al Dr. José Ruiz Pinales.
Al Dr. Víctor Ayala Ramírez.
Al M. en I. Everardo Vargas Rodríguez.
Al Ing. J. Antonio Álvarez Jaime.
Gracias por sus conocimientos y consejos.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. vi
Dedicatorias

A LA GENTE BONITA DE SALAMANCA GUANAJUATO:

A las personas lindas que me ayudaron y brindaron su amistad en Salamanca

Guanajuato, con especial cariño al Sr. Austreberto Yubi Urías “Don Beto” y a la Sra.

Alicia Loza “Doña Licha” por ser unas personas maravillosas y sinceras por sus consejos y

horas de platica amena.

A SALAMANCA GUANAJUATO:

Salamanca tu fuiste mi refugio, mi hogar y mi amiga, la Salamanca que conocí, es

calida, quieta y la modernidad su belleza borrar no ha podido. Fuiste testigo de muchos

cambios en mi persona, eres la casa de mi escuela... la FIMEE, la casa de mis amigos, la

casa de mis profesores y la casa de tantos y tantos lugares que al recordarlos me harán

soñar y vivirlos otra vez.

A MIS TIOS:

A mis tíos, gracias por sus consejos y su manera de hacerme ver las realidades de la

vida en muchas ocasiones, a mi tío Miguel Ángel Reyna Álvarez, a mi tío Lorenzo Olivera

Martínez, y a mi tío Genaro Olivera Martínez (Q. D. E. P).

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. vii
Contenido

CONTENIDO.
Índice de figuras. x
Índice de tablas. xii

CAPITULO I ANTECEDENTES.
1.0 Antecedentes. 1
1.1 Objetivos. 3
1.2 Justificación. 3
1.3 Organización de la tesis. 4

CAPITULO II EL SISTEMA GPS.


2.0 Introducción. 5
2.1 El sistema de posicionamiento global GPS. 6
2.2 Visión global del sistema GPS. 7
2.2.1 Servicio de posicionamiento preciso PPS. 10
2.2.2 Servicio de posicionamiento estándar SPS. 11
2.3 Fuentes de error GPS. 11
2.4 Limitaciones del GPS. 13

CAPITULO III MATEMATICAS DE SEÑALES ALEATORIAS Y


PROCESOS.
3.0 Introducción. 14
3.1 Clasificación de las señales. 14
3.1.1 Que es una señal. 14
3.1.2 Clasificación de las señales por su duración. 17
3.1.3 Clasificación de las señales por su simetría. 17
3.1.4 Clasificación de las señales por su área absoluta, energía y potencia. 18
3.1.5 Señales en tiempo discreto. 19
3.1.6 Señales deterministicas o predecibles. 19
3.1.7 Señales aleatorias. 19
3.2 Conceptos probabilísticos. 20
3.2.1 Que es una señal aleatoria y que es probabilidad. 20
3.2.2 La regresión lineal. 21
3.2.3 Ruido blanco o Gaussiano. 24
3.2.4 Los procesos Markovianos – Gaussianos. 24
3.2.5 La densidad espectral de potencia. 25
3.2.6 Distribución de probabilidad. 26
3.2.7 Estimaciones estadísticas. 27
3.2.8 Medidas de variables aleatorias. 28
3.2.9 Razón señal ruido. 28

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. viii
Contenido

CAPITULO IV ESTIMACIÓN DE SE ÑALES RUIDOSAS.


4.0 Filtros digitales y su representación. 29
4.1 Que es una tarea de filtrado óptimo. 33
4.2 Estimación óptima estadística. 43
4.2.1 Filtrado. 43
4.2.2 Suavizado. 44
4.2.3 Predicción. 44
4.3 Filtrado lineal en tiempo discreto. 45
4.4 El filtrado Kalman. 50
4.4.1 Filtrado Kalman unidimensional. 51
4.4.2 Filtrado Kalman multidimensional en tiempo discreto. 58
4.5 El modelo ARMA (Auto Regressive Moving Average). 64
4.5.1 AR (Auto Regressive). 66
4.5.2 MA (Moving Average). 66
4.5.3 Filtrado Kalman en el modelo ARMA. 69
4.6 Filtro de promedios móviles óptimamente centrados OMA. 70

CAPITULO V FILTRADO BASADO EN GPS Y ESTIMACIÓN


DEL ERROR DE TIEMPO DEL RELOJ LOCAL.
5.0 La señal de referencia, el ruido y la observación. 79
5.1 Desarrollo de los filtros simple MA y OMA. 82
5.2 Desarrollo del filtro Kalman de tres estados. 83
5.3 Desarrollo del filtro Kalman de dos estados. 88
5.4 Análisis de la desviación bias. 94
5.5 Análisis del RMSD. 97
5.6 Análisis del RMSE. 100
5.7 Análisis del error máximo. 106

CAPITULO VI CONCLUSIONES. 109

APENDICE A TABLAS DE VALORES. 111

APENDICE B GRAFICAS DE ESTIMACIONES. 114

APENDICE C CODIGO EN MATLAB. 116

GLOSARIO. 127

BIBLIOGRAFIA. 128

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. ix
Índice de figuras

2.1 Constelación de satélites. 9


2.2 Segmentos del sistema GPS. 10
3.1 Señal analógica, muestreada, cuantizada y digital. 16
3.2 Forma de onda típica de ruido. 20
3.3 Influencia del ruido en un sistema de navegación. 21
3.4 Relación entre dos variables. 22
3.5 Errores de predicción. 23
3.6 Regresión lineal. 23
3.7 Ruido blanco gaussiano y distribución no – gaussiana. 25
3.8a Distribución de probabilidad uniforme. 26
3.8b Distribución normal o gaussiana. 26
4.1 Bloques de construcción para diagramas de filtros digitales. 30
4.2 Diagrama de un filtro no recursivo (izquierda) y otro recursivo (derecha). 31
4.2a Diagrama directo de un filtro digital. 32
4.2b Diagrama canónico de un filtro digital. 33
4.3 Tiempo de referencia GPS. 34
4.4 Señal deterministica lineal y ruido gaussiano. 35
4.5 Formulación de la tarea de filtrado. 37
4.6 Problema del filtrado lineal optimo. 39
4.7a Filtrado. 43
4.7b Suavizado. 44
4.7c Predicción. 44
4.8 Diagrama del modelo ARMA usando la transformada Z. 50
4.9 Estructura del filtro Kalman Recursiva. 55
4.10 Estructura del filtro Kalman No - recursivo. 56
4.11 Estructura del filtro Kalman cuasi - optimo. 57
4.12 Forma esquemática del algoritmo de Kalman. 64
4.13 Problema continúo. 64
4.14 Bias producido por el simple MA. 71
4.15 Función de peso optimo. 75
5.1 Señal de referencia de referencia Gpsp0202. 79
5.2 Señal de referencia de referencia Gpsp1401. 79
5.3 Ruido Gpsp0202. 80
5.4 Ruido Gpsp1401. 80
5.5 Señal de observación Gpsp0202. 80
5.6 Señal de observación Gpsp1401. 80
5.7 Señal de referencia, ruido y observación Gpsp0202. 81
5.8 Señal de referencia, ruido y observación Gpsp1401. 81
5.9 Representación de promedios. 82
5.10 Respuesta transitoria para el filtro Kalman tridimensional. 87
5.11 Transitorio de la fase (tiempo) para el Kalman tridimensional. 88
5.12 Respuesta transitoria del filtro Kalman bidimensional. 91
5.13 Respuesta transitoria del tiempo del filtro Kalman bidimensional. 91
5.14 Comparación entre la fase (tiempo) del filtro Kalman de dos y tres estados. 92
5.15 Estimaciones MA para N = 50. 92
5.16 Estimaciones MA para N = 100. 92
_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. x
Índice de figuras

5.17 Estimaciones MA para N = 150. 93


5.18 Estimaciones MA para N = 200. 93
5.19 Estimación del bias producido por el simple MA, OMA, 2-K y 3-K. 94
5.20 Bias del filtro simple MA. 96
5.21 Bias del filtro OMA. 96
5.22 Bias del filtro 2-K. 96
5.23 Bias del filtro 3-K. 96
5.24 Bias generado con el archivo Gpsp1401. 97
5.25 Estimación del RMSD del simple MA, OMA, 2-K y 3-K. 98
5.26 RMSD para el simple MA. 99
5.27 RMSD para el OMA. 99
5.28 RMSD para el 2-K. 99
5.29 RMSD para el 3-K. 99
5.30 RMSD generado por el archivo Gpsp1401. 100
5.31 RMSE del simple MA, OMA, 2-K y 3-K. 101
5.32 Ubicación RMSE del filtro de promedios óptimos OMA. 103
5.33 RMSE para el filtro simple MA. 104
5.34 RMSE para el filtro OMA. 104
5.35 RMSE para el filtro 2-K. 104
5.36 RMSE para el filtro 3-K. 104
5.37 RMSE generado por el archivo Gpsp1401. 105
5.38 Error máximo del simple MA, OMA, 2-K y 3-K. 106
5.39 Error máximo del filtro simple MA. 107
5.40 Error máximo del OMA. 107
5.41 Error máximo del filtro 2-K. 107
5.42 Error máximo del filtro 3-K. 107
5.43 Error máximo generado por el archivo Gpsp1401. 108
B.1 N = 50. 114
B.2 N = 100. 114
B.3 N = 150. 114
B.4 N = 200. 114
B.5 N = 250. 115
B.6 N = 300. 115
B.7 N = 350. 115
B.8 N = 400. 115
B.9 N = 450. 115
B10 N = 500. 115

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. xi
Índice de tablas

Tabla 1 Bias para N = 50 95


Tabla 2 Bias para N = 100 95
Tabla 3 RMSE para N = 50 102
Tabla 4 RMSE para N = 100 102
Tabla 5 RMSE para N = 150 103

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. xii
Capitulo I

Capitulo I.
1.0 Antecedentes.

El Procesamiento de Señales posee una larga y rica historia. Es una tecnología que
se entronca con un inmenso conjunto de disciplinas entre las que se encuentran las
telecomunicaciones, el control, la exploración del espacio, la medicina y la arqueología, por
nombrar solo unas pocas. Hoy en día, esta afirmación es incluso más cierta con la televisión
digital, los sistema de información y el entretenimiento multimedia. Es más, a medida que
los sistemas de comunicación se van convirtiendo cada vez más en sistemas sin hilos,
móviles y multifunción, la importancia de un procesamiento de señales sofisticado en
dichos equipos se hace cada vez más relevante.
El Procesamiento de señales trata de la representación, transformación y
manipulación de señales y de la importancia que contienen. Cuando se refiere al procesado
digital de señales, se refiere a la representación mediante secuencias de números de
precisión finita y el procesado se realiza utilizando una computadora digital.
A menudo es deseable que estos sistemas funcionen en tiempo real, lo que significa
que el sistema en tiempo discreto se implementa de forma que las muestras de salida se
calculan a la misma velocidad a la que se muestrea la señal en tiempo continuo. Son
muchas las aplicaciones que requieren esta especificación. El tratamiento en tiempo
discreto y en tiempo real de señales en tiempo continuo es práctica común en sistema de
control, comunicaciones, radar, sonar, codificación y realce de voz y vídeo, ingeniería
biomédica, etcétera.
Ahora es necesario remarcar la importancia que tiene el desarrollo de la teoría de la
estimación y algunas de sus aplicaciones.
La historia del desarrollo del filtrado óptimo, suavizado y predicción esta muy
ligado con la historia del extenso campo de la teoría de la estimación.
En 1601 Kepler, usando métodos bastante torpes, estimo la orbita de Marte de doce
observaciones, pero no fue hasta 1875 que Gauss con su método mas elegante de los
mínimos cuadrados fue capaz de predecir las orbitas planetarias con razonable precisión.
_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 1
Capitulo I

A finales de los años 30’s y principios de los 40’s, A. N. Kolmogorov (URSS) y N.


Wiener (USA) trabajando con procesos aleatorios estacionarios desarrollaron la
aproximación por mínimos cuadrados para el problema de predicción en el tiempo discreto
y continuo respectivamente. Los trabajos de Kolmogorov fueron impulsados en la
consideración puramente matemática mientras que los trabajos de Wiener se interesaron en
aplicaciones a una gran variedad de problemas incluyendo boletines meteorológicos,
economía y sistemas de comunicaciones. Todos los trabajos de Wiener están en el dominio
de la frecuencia con señales caracterizadas por sus densidades espectrales de potencia y
filtros derivados en términos de sus funciones de transferencia. En general, a la
aproximación Kolmogorov-Wiener se le llamo el Filtrado Wiener y este filtrado esta
aplicado a señales aleatorias estacionarias como optimas.
Desarrollos posteriores hicieron su aparición cuando la señal se modeló por un
sistema dinámico conducido desde una fuente de ruido blanco. Esto motivó a que este
proceso no-estacionario se modelara convenientemente y subsecuentemente tales
problemas de estimación se solucionaran en el dominio del tiempo. En este aspecto, los
trabajos más importantes fueron los de R. E. Kalman y R. S. Bucy (1960-1961). Esta
aproximación se conoce ahora como el filtrado de Kalman, es más, a la teoría del filtrado
optimo lineal se le llamo justamente filtrado de Kalman optimo lineal porque el filtrado de
Kalman es valido para señales aleatorias estacionarias y no-estacionarias.
Como una herramienta importante, el proveer tiempo preciso a nuestra vida, la
sincronización resuelve dos tareas muy importantes: estimación del error de tiempo usando
las señales de sincronización de referencia (normalmente señales del GPS) y la eliminación
del error de tiempo por medio de un lazo de sincronización. La teoría del filtrado Kalman
directamente da la solución a las tareas de sincronización. Sin embargo la respuesta no es
explicita en términos de error medio (bias) y varianza (ruido). La aproximación alternativa
se llama MA (Moving Average).

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 2
Capitulo I

1.1 Objetivos.

A. Presentar la estimación del error de tiempo de un reloj local (OCXO) mediante el Filtro
de Promedios Móviles Óptimamente Centrados (Optimally Unbiased Moving Average
Filter), apoyándose para esto en los conceptos y técnicas desarrolladas en el campo de
la teoría del filtrado optimo.
B. Utilizar los recursos matemáticos que nos proporciona el tratamiento de las señales
aleatorias en una manera probabilística para lograr el propósito final que es el de
estimar el error de tiempo en una señal lo mas preciso posible.
C. Comparar cada uno de los resultados obtenidos entre los diferentes algoritmos como
son el Filtrado Kalman de dos estados, el Filtrado Kalman de tres estados, el filtro de
movimientos promedios simple MA y el filtro de movimientos promedios óptimamente
centrado OMA para así comprender cuales son las ventajas y desventajas que ofrecen
cada uno a la estimación de la señal de error de tiempo.

1.2 Justificaciones.

a) Estudiar los factores de optimidad en tareas de estimación del error de tiempo.

b) Analizar el problema de estimación del error de tiempo y buscar una solución optima.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 3
Capitulo I

1.3 Organización de la tesis.

La tesis esta organizada en seis capítulos y tres secciones de apéndices, los cuales
conforman el contenido de este trabajo de tesis.
El capitulo uno esta dedicado a poner de manifiesto la importancia que tiene el
trabajo de tesis. Esto se aborda mediante el planteamiento de objetivos y justificaciones, en
las cuales se hace énfasis en la estimación del error de tiempo como factor primordial en
tareas de gran precisión.
El capitulo dos esta enfocado a dar una introducción del sistema de
posicionamiento global GPS, el cual el cual es parte en el desarrollo de la investigación.
El capitulo tres se desarrolla el tratamiento matemático para el estudio de las
señales y su clasificación. En este capitulo se parte desde los conceptos básicos como los
son el concepto de señal y sus diferentes clasificaciones; los conceptos probabilísticos
necesarios que se involucran al hablar de estimación del error de tiempo.
El capitulo cuatro esta enfocado a estudiar las técnicas para la estimación de las
señales ruidosas. Las técnicas que se estudian son el filtrado de Kalman unidimensional y
multidimensional, el modelo ARMA y el filtro de promedios móviles óptimamente
centrados.
El capitulo cinco es el desarrollo del trabajo de tesis, en este apartado se encuentran
todos las simulaciones con los mas importantes resultados obtenidos durante el desarrollo
del proyecto. Las simulaciones se realizaron en el software Matlab versión 6.5.
El capitulo seis son las conclusiones finales.
Finalmente en los apéndices se encuentran elementos como tablas de datos, graficas
que ayudan a la comprensión de los resultados obtenidos y finalmente el código fuente en
Matlab.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 4
Capitulo II

Capitulo II.
2.0 Introducción.

La navegación se define como la ciencia de la destreza de una persona para


trasladarse de un lugar a otro. Cada uno de nosotros utiliza alguna forma de navegación en
nuestra vida diaria. Al conducir al trabajo o al caminar a una tienda se requiere que usemos
las habilidades de navegación fundamental. Para la mayoría de nosotros, esas habilidades
requieren del uso de nuestros ojos y sentido común. Sin embargo, en algunos casos donde
se requiere de un mayor conocimiento preciso de nuestra posición, proyección del curso,
y/o el tiempo transitado al destino deseado requerido, se usan otros tipos de elementos para
la navegación. Estos pueden tener la forma de un simple reloj para determinar la velocidad
sobre una distancia conocida o la de un odómetro en nuestro automóvil para guardar la
distancia recorrida. Algunos otros elementos para la navegación son más complejos y
transmiten señales electrónicas. A estos se les llama elementos de radionavegación. Las
señales de uno o mas elementos de radionavegación le permiten a una persona (usuario)
calcular su posición. (Algunos elementos de radionavegación tienen la capacidad para
determinar la velocidad y la diseminación del tiempo muy bien). Es importante notar que el
receptor de radionavegación del usuario es el que procesa estas señales y calcula la posición
fija. El receptor ejecuta los cálculos necesarios (p.ej., rango, presión, tiempo estimado de
llegada) al navegar en una localidad deseada. En algunas aplicaciones, el receptor solo
puede procesar las señales recibidas haciendo los cálculos de navegación con un procesador
por separado.
Los primeros sistemas desarrollados con base en el espacio llamado Sistema de
Navegación por Satélite de la Armada de los Estados Unidos, conocido como Transit y el
Sistema Tsikada Ruso proporcionan un servicio de posicionamiento en dos dimensiones de
alta precisión. Sin embargo, la frecuencia para obtener una posición fija varia con la latitud.
Teóricamente, un usuario del Transit en el ecuador debería obtener una posición fija en el
promedio de cada 110 minutos; mientras que, a 80 ° de latitud la razón fija debería mejorar
el promedio en cada 30 minutos. Las limitaciones aplicables a ambos sistemas son que cada
_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 5
Capitulo II

posición fija requiere aproximadamente de 10 a 15 minutos de procesamiento en el receptor


y una estimación de la posición del usuario. Estas características eran convenientes para la
navegación para bajas velocidades, pero no para aviones y usuarios de gran dinamismo.
Fueron estas limitaciones las que llevaron al desarrollo del Sistema de Posicionamiento
Global Global Positioning System (GPS) de los Estados Unidos y el Sistema de Satélites de
Navegación Global Ruso Russian Global Navigation Satellite System (GLONASS).

2.1 El sistema de posicionamiento global (GPS).

En el inicio de los años 60’s, diferentes organizaciones del gobierno de los Estados
Unidos incluyendo a la militar, a la Administración del Espacio y Aeronáuticas Nacionales
the Nacional Aeronautics and Space Administration (NASA) y el Departamento del
Transporte the Department of Transportation (DOT) se interesaron en el desarrollo de
sistemas de satélites para la determinación de la posición. El sistema óptimo se examino
para que tuviera las siguientes características: cobertura global, operación continua en todo
clima, habilidad para servir a plataformas con gran dinamismo y alta precisión. Cuando el
Transit llego a ser operacional en 1964, este fue ampliamente aceptado para el uso en
plataformas de bajo dinamismo. Sin embargo, debido a sus limitaciones, la Armada
investigo como mejorar el Transit o desarrollar otro sistema de navegación por satélite con
las capacidades deseadas mencionadas anteriormente. Algunas variantes del sistema Transit
original se propusieron por sus desarrolladores en el Laboratorio de Física Aplicada de la
Universidad Johns Hopkins Johns Hopkins University Applied Physics Laboratory. Al
mismo tiempo, el Laboratorio de Investigaciones de la Marina Naval Research Laboratory
(NRL) llevo a cabo experimentos con relojes muy estables con base en el espacio para
conseguir tiempo de transmisión preciso. A este programa se le llamo Timation. Las
modificaciones que se le hicieron a los satélites Timation proporcionan un rango de
capacidades para determinar la posición en dos dimensiones. El programa Timation empleo
una modulación side-tone para un rango satellite a usuario.
Al mismo tiempo que se consideraban mejoras al Transit y Timation, la Fuerza
Aérea conceptuó un sistema de posicionamiento por satélite denotado como System 621B.
Fue previsto que los satélites de el System 612B deberían estar en orbitas elípticas en

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 6
Capitulo II

ángulos de inclinación de 0°, 30° y 60°. Se examinaron numerosas variantes del número de
satélites (15 a 20) y de sus configuraciones orbítales.
Fue procesado el uso de modulación de ruido pseudoaleatorio (PRN) para tener
cierto alcance con las señales digitales. El System 612B proporcionó cobertura
tridimensional y servicio mundial continuo. Los conceptos y técnicas de operacionales se
verificaron en el Holloman AFB and White Sands Missile Range usando un rango invertido
en el que pseudolites (p.ej. satélites con base en tierra) transmitieron señales de satélite para
el posicionamiento de aeronaves. Además, la Armada en Ft. Mommouth, NJ, investigó
muchos candidatos a técnicas incluyendo el ranqueo, la determinación del ángulo y el uso
de las mediciones Doppler. Los resultados de las investigaciones de la Armada
recomendaron que la fluctuación usando la modulación PRN (p.ej., pseudorango) fuera la
aproximación deseada.
En 1969, la Oficina de la Secretaria de la Defensa the Office of the Secretary of
Defense (OSD) estableció el programa Sistema de Navegación por Satélites para la Defensa
the Defense Navigation Satellite System (DNSS) para consolidar los esfuerzos desarrollados
independientemente por cada servicio militar para formar un solo sistema de uso articulado.
La OSD también estableció el Grupo de Directores Ejecutivos de la Navegación por
Satélite the Navigation Satellite Executive Steering Group, el cual fue el encargado de la
determinación de la viabilidad del DNSS y de la planeacion de su desarrollo. De este
esfuerzo, se formo el concepto del sistema NAVSTAR GPS

2.2 Visión global del sistema GPS.

Actualmente, el sistema GPS es totalmente operacional y reúne los criterios


establecidos en los años 60’s para un sistema de posicionamiento óptimo. El sistema
proporciona precisión, continuidad, cobertura mundial, posicionamiento tridimensional e
información de la velocidad a los usuarios con un equipo de recepción apropiado. El
sistema GPS también difunde una forma de Tiempo Universal Coordinado Coordinated
Universal Time (UTC). La constelación de satélites consiste de 24 satélites colocados en 6
orbitas planas con 4 satélites por plano, (figura 2.1). Una red de monitoreo/control mundial
desde tierra supervisa el buen estado y el funcionamiento de los satélites. Esta red también

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 7
Capitulo II

supervisa la navegación y otros datos a los satélites. El sistema GPS puede dar servicio a un
número ilimitado de usuarios ya que los receptores de los usuarios operan pasivamente
(p.ej. solo reciben). Los sistemas utilizan el concepto de rango de arribo de sentido único
(TOA). Las trasmisiones de los satélites están referenciadas a estándares de frecuencias
atómicas de alta precisión a bordo de los satélites, los cuales están en sincronismo con una
base interna de sistema de tiempo GPS. Los satélites transmiten rangos de códigos y datos
de navegación usando una técnica llamada Acceso Múltiple por División de Código Code
Division Multiple Access (CDMA); esto es, hay solo dos frecuencias de uso para el sistema,
llamados L1 (1575.42 MHz) y L2 (1227.6 MHz). Cada satélite transmite en estas
frecuencias, pero con diferentes rangos de código que los empleados por otros satélites.
Estos códigos fueron seleccionados porque tienen bajas propiedades de correlación cruzada
(cross-correlation) con respecto a los otros. Los datos de navegación suministran los
medios para que el receptor determine la localización del satélite en el tiempo de la
transmisión de la señal, mientras que los rangos de los códigos habilitan a los receptores de
los usuarios para determinar el tiempo de trafico (p.ej., la propagación) de la señal y por
consiguiente determinar el rango satélite a usuario. Estas técnicas requieren que el receptor
del usuario también contenga un reloj. Utilizando estas técnicas para medir la localización
tridimensional de los receptores se requiere que los rangos de mediciones TOA se hagan
con cuatro satélites. Si el reloj del receptor fue sincronizado con los relojes del satélite,
podrían ser requeridos solo tres rangos de mediciones. Sin embargo, normalmente se
emplea un reloj de cristal en los receptores de navegación para minimizar el costo, la
complejidad, y el tamaño del receptor. De esta manera, se requieren de cuatro mediciones
para determinar la latitud del usuario, longitud, altitud, y el desplazamiento del reloj
receptor del sistema de tiempo interno. Si el sistema de tiempo o la altitud se conocen con
precisión, se requieren menos de cuatro satélites.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 8
Capitulo II

Figura 2.1. Constelación de satélites.

El sistema GPS proporciona dos servicios: el Servicio de Posicionamiento Estándar


the Standard Positioning Service (SPS) y el Sistema de Posicionamiento Preciso the
Precise Positioning Service (PPS). El SPS esta destinado para las comunicaciones civiles,
mientras que el PPS se designo para el empleo del ejército de los Estados Unidos y usuarios
de agencias de gobierno seleccionados. El acceso al GPS PPS esta controlado a través de
criptografía.
El sistema GPS consiste de tres partes, los cuales son el segmento de espacio, el
segmento de control y el segmento de usuario, (figura 2.2). Hay satélites que transmiten la
información de posición, están las estaciones de tierra que son usadas para controlar los
satélites y actualizar la información, y finalmente un receptor portátil que el usuario puede
comprar. Es el receptor el que recolecta los datos de los satélites y calcula su localización
en cualquier parte del mundo basándose en la información que obtiene de los satélites. Hay
un concepto erróneo popular que un receptor GPS de alguna manera envía información a
los satélites pero esto no es verdadero, este solo recibe los datos.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 9
Capitulo II

Figura 2.2 Segmentos del sistema GPS.

2.2.1 El servicio de posicionamiento preciso PPS.

El PPS esta especificado para proporcionar una precisión predecible de por lo


menos 22m (2 drms, 95%) en el plano horizontal y 27.7m (95%) en el plano vertical. La
raíz cuadrada media de la distancia (o drms) es una unidad de medida común utilizada en la
navegación. Dos veces el valor de drms, o 2 drms, es el radio de un círculo que contiene
menos del 95% de todos los posibles arreglos que pueden ser obtenidos con un sistema (en
este caso, el PPS) en cualquier lugar. El PPS proporciona un tiempo de transferencia UTC
preciso dentro de los límites de los 200 nsec (95%) con referencia en el tiempo de
observación del Observatorio de la Armada de los Estados Unidos U.S. Naval Observatory
y esta denotado como UTC (USNO).
La precisión de la medición de la velocidad esta especificada como 0.2 m/sec
(95%).

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 10
Capitulo II

Como se dijo anteriormente, el PPS esta proyectado principalmente para los


usuarios de las agencias seleccionadas del gobierno y del ejército. El uso a civiles esta
permitido pero solo en aprobaciones especiales del Departamento de la Defensa de los
Estados Unidos U.S Department of Defense (DOD). El acceso a la precisión de posición
PPS esta controlada a través de dos características criptográficas denotadas como Anti-
Engaño Antispoofing (AS) y Disponibilidad Selectiva Selective Availability (SA). El AS es
un mecanismo intencional de bloqueo engañoso de frustración. El Antispoofing es una
técnica en la cual un adversario podría copiar uno o más de los códigos de rangos de los
satélites, señales de información de navegación y los efectos Doppler de la frecuencia
portadora con el propósito de engañar a un receptor victima. Además, dentro de la política
actual del DOT, la SA esta implementada para negarle la completa exactitud a los sistemas
de usuarios SPS. La SA “hace temblar” el reloj de los satélites, de este modo corrompe la
exactitud de la mediciones TOA. Además, la SA induce errores en las transmisiones de los
parámetros de datos de navegación. Los usuarios PPS eliminan los efectos SA por medio de
la criptografía.

2.2.2 El Servicio de posicionamiento estándar SPS.

El SPS esta disponible para todos los usuarios del mundo. No hay restricciones en el
uso del SPS. Este servicio provee precisiones predecibles de 100m (2 drms, 95%) en el
plano horizontal y 156m en el plano vertical. La exactitud de diseminación de tiempo UTC
(USNO) esta dentro de los 340 nsec (95%). La exactitud de este servicio esta establecido
por el U.S DOT y el DOT basado en los intereses de seguridad de los Estados Unidos. El
SA es normalmente la fuente de error principal en una posición fija deducida SPS.

2.3 Fuentes de error GPS.

Los errores del sistema GPS son una combinación de ruido, desajustes y espúreas.
Los errores por ruido son efectos del ruido del código PRB (alrededor de un metro) y ruido
en el receptor (un metro aproximado). Los errores por desajuste son el resultado de la
disponibilidad selectiva y de otros factores. Los receptores GPS civiles tienen errores
potenciales de posición debidos al resultado de los errores acumulados producidos por:
_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 11
Capitulo II

a).- Reloj del satélite. Una billonesima de segundo de inexactitud en el reloj


satelital produce unos 30 cm de error de medición a ese satélite. Por esta razón, los satélites
son equipados con relojes atómicos (cesio) muy exactos.
b).- Reloj del receptor. Similar a los errores del reloj satelital, cualquier error en el
reloj del receptor causa inexactitud en medición de distancias.
c).- Retardos de la ionosfera y de la troposfera. Los retardos por la ionosfera, son
de 10 metros. La ionosfera es la capa de la atmósfera que va desde los 50 hasta 500 Km de
altura y consiste en aire ionizado. El modelo de transmisión para esta capa, que es enviado
en la trama de datos, solo puede eliminar la mitad de los posibles 70 ns dejando un residuo
que puede dar errores de 10 metros. Los receptores que usan las portadoras L1 y L2 pueden
corregir todo el error.
Los retardos troposfericos, dan un metro de error. La troposfera es la capa mas baja
de la atmósfera (desde la superficie hasta entre 8 y 13 Km), esta capa esta afectada por
cambios de temperatura, precisión y humedad asociados a cambios meteorológicos. Se
requieren modelos de los retardos troposfericos que aproximen estos parámetros.
d).- Multicamino. El multicamino, produce medio metro de error. El multicamino
es causado por la reflexión de las señales en superficies próximas al receptor y puede inferir
o producir errores en las señales que llegan directamente desde los satélites al receptor. El
error por multicamino es muy difícil de detectar y en ocasiones es imposible de evitar.
e).- Disponibilidad selectiva. La disponibilidad selectiva esta controlada por el
Departamento de Defensa de los Estados Unidos para limitar la precisión a los usuarios no
pertenecientes al gobierno o defensa estadounidenses. La precisión potencial del código
C/A de 30 metros es reducida hasta 100 metros (dos desviaciones estándar). La
disponibilidad selectiva es la degradación intencionada que da las señales del servicio de
posicionamiento estándar (SPS) mediante variaciones en los datos de corrección de reloj.
f).- Orbita Satelital. La exactitud de la posición estimada también depende de que
tan exactamente se conozca la localización de los satélites. La exactitud de la predicción
orbital esta en el orden de pocos metros. Estos producirán alrededor de metros del error de
estimación de la posición.
g).- Errores de usuario. Incluyendo la selección de un Datum geodésico erróneo,
pueden causar errores uno hasta unos cientos de kilómetros.
_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 12
Capitulo II

h).- Errores en el receptor. Debido a fallos del programa o del hardware pueden
producir errores esporádicos de cualquier magnitud.
i).- Ruido y desvió de relojes. Pueden resultar erróneos de alrededor de los 15
metros para cada satélite utilizado en el cálculo de la posición.
j).- Otras fuentes de error. Los errores de los relojes de los satélites no corregidos
por las estaciones de control de tierra pueden originar errores de un metro. Los errores de
efemérides pueden producir un metro de error. Las espúreas pueden producir errores de
cientos de kilómetros. Errores en el segmento de control debido a fallos humanos o de
computación pueden causar errores desde un metro a cientos de kilómetros.

2.4 Limitaciones del GPS.

El GPS es, sin duda, el más sencillo y preciso sistema de navegación


disponible en la actualidad, sin embargo no debe ser el único instrumento de navegación en
un vehículo, ya que además de poder estropearse, el departamento de defensa de USA
puede (ya lo ha hecho en alguna ocasión) interrumpir, modificar o degradar las señales
cuando lo considere oportuno.
Las señales emitidas por los satélites se comportan, en cierto modo como la luz, ya
que pueden traspasar el cristal y el plástico, sin embargo no pasan a través de montañas,
túneles, edificios, superficies metálicas o estructuras similares. La antena de los
receptores debe estar orientada de forma que tenga "acceso visual" a los satélites. En el
modo navegación, un receptor GPS indica la distancia que falta para alcanzar un punto
de destino en línea recta. Hay que tener en cuenta que en la tierra es prácticamente
imposible, incluso en el desierto, seguir una trayectoria recta por largos periodos ya que
los accidentes orográficos obligan a variar la dirección con frecuencia.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 13
Capitulo III

Capitulo III.
3.0 Introducción.
Durante todo el transcurso del trabajo de tesis se habla de señales, así que se
considera necesario comentar las características principales de una señal, partiendo desde
su significado, clasificación, hasta los conceptos probabilísticos necesarios para el
entendimiento de la tarea de estimación del error de tiempo.

3.1 Clasificación de las señales.


El estudio de las señales nos permite evaluar cómo podrían procesarse para poder
extraer información útil. Esto es, desde luego, hacia todo lo que apunta al procesamiento de
señales. Los métodos que se usan en el procesado de una señal o en el análisis de la
respuesta de un sistema a una señal dependen fuertemente de las características de la señal
en particular. Existen técnicas que se aplican solo a familias específicas de señales. En
consecuencia, se considera importante la clasificación de las señales antes de iniciar con
una aplicación en concreto.

3.1.1 Que es una señal.


Una señal se define como una cantidad física que varia con el tiempo, el espacio o
cualquier otra variable o variables independientes. Matemáticamente, se describe a una
señal como una función de una o más variables independientes. Por ejemplo, las funciones

s1 (t ) = 5t
(3.1)
s2 (t ) = 20t 2

describen dos señales, una que varia linealmente con la variable independiente t (tiempo) y
una segunda que varia cuadraticamente con t. Como otro ejemplo consideremos la función

s ( x, y ) = 3 x + 2 xy + 10 y 2 (3.2)

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 14
Capitulo III

Esta función describe una señal con dos variables independientes x e y que pueden
representar las coordenadas espaciales de un plano.
Las señales descritas en (3.1) y (3.2) pertenecen a la clase de señales que quedan
perfectamente definidas especificando la dependencia funcional con la variable
independiente. Sin embargo existen casos en los que dicha relación funcional es
desconocida o demasiado complicada como para tener utilidad practica.
Por ejemplo una señal de voz no se puede describir funcionalmente mediante
expresiones como la (3.1). En general, un segmento de voz puede representarse con un alto
grado de exactitud como la suma de varias sinusoides de diferentes amplitudes y
frecuencias, esto es, como

∑ A (t )sen[2πF (t )t + θ (t )]
i =1
i i i (3.3)

donde {Ai (t )}, {Fi (t )}, y {θ i (t )} son los conjuntos (probablemente variables con el tiempo)
de amplitudes, frecuencias y fases, respectivamente, de las sinusoides. De hecho, una
manera de interpretar la información o el mensaje contenido en un segmento corto de una
señal de voz es medir las amplitudes, frecuencias y fases contenidas en el segmento corto
de la señal.
Nuestro mundo esta lleno de señales, tanto naturales como las que produce el
hombre. Algunos ejemplos son la variación en la presión del aire cuando hablamos, los
ascensos y descensos diarios de la temperatura y las señales eléctricas periódicas que
genera el corazón. Las señales representan información. A menudo, las señales no llevan
directamente la información necesaria y es posible que no estén libres de perturbaciones. Es
en este contexto que el procesamiento de señales forma la base para resaltar, extraer,
almacenar o transmitir información útil. Las señales quizás ofrecen el ámbito más amplio
para tales manipulaciones. De hecho es común convertir las señales en forma eléctrica para
su procesamiento.
El valor de una señal, en cualquier instante, corresponde a su amplitud. El tiempo
puede asumir un continuo de valores, t, o valores discretos, nt s donde t s es un intervalo de
muestreo y n es un entero. La amplitud también puede tomar valores continuos o estar

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 15
Capitulo III

cuantizada en un numero finito de niveles discretos entre sus extremos. Esto resulta en
cuatro tipos posibles de señales, como se muestra en la Fig. 3.1.

Fig. 3.1 Señal analógica, muestreada, cuantizada y digital.

Un claro ejemplo de la importancia de las señales es el siguiente, la música que es d


escuchada por un reproductor de discos compactos (CD) debido a cambios en la presión del
aire causados por la vibración en el diafragma del altavoz es una señal analógica porque la
variación de la presión es una función continua del tiempo. Sin embargo, la información
almacenada en el disco compacto esta en forma digital. Esta debe procesarse y convertirse
en una forma analógica antes de que pueda escucharse la música. Un registro del aumento
anual de la población mundial describe el tiempo medido en incrementos de uno (año), y el
aumento poblacional se mide en incrementos de uno (persona). Esto es una señal digital
con valores discretos tanto para el tiempo como para la población.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 16
Capitulo III

3.1.2 Clasificación de las señales por su duración.


Aquí tenemos la siguiente clasificación:
 Causales: Son 0 para t < 0. Se definen solo para el eje positivo de t.
 Anticausales: Son para t > 0. Se definen solo para el negativo de t.
 No causales: Se definen para ambos ejes de t.
 Continuas: Se definen para todo tiempo t. Las señales continuas por secciones poseen
diferentes expresiones sobre intervalos diferentes. Las señales continuas tales como x(t)
= sen(t), se definen siempre mediante una sola expresión para todo tiempo.
 Periódicas: Las señales periódicas son señales de duración infinita que repiten el
mismo patrón perpetuamente. El intervalo de repetición mas pequeño se llama periodo
T, n es un entero y conduce a la definición formal (3.4):

x p (t ) = x p (t ± nT ) (3.4)

3.1.3 Clasificación de las señales por su simetría.


En esta clasificación, las señales se clasifican de la siguiente manera:
 Simetría par: Si una señal es idéntica a su versión reflejada, con x(t) = x(-t), recibe el
nombre de simétrica par. Vemos simetría de espejo alrededor del eje vertical pasando
por el origen en t = 0.
 Simetría impar: Si una señal y su versión refleja difieren solo en signo, con x (t) = x(-t),
se denomina simétrica impar. En cualquier caso, la señal se extiende sobre límites
simétricos en torno al origen.
 Una señal no simétrica puede siempre expresarse como la suma de una función par
xe (t ) y una función impar x0 (t ) :

xe (t ) = ( x(t ) + x(−t )) / 2 (3.5)

x0 (t ) = ( x(t ) − x(−t )) / 2 (3.6)

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 17
Capitulo III

3.1.4 Clasificación de las señales por su área absoluta, energía y potencia.


Área absoluta de una señal: el área absoluta de una señal brinda medidas útiles de su
tamaño. Una señal x(t) se dice que es absolutamente integrable si posee área absoluta finita:

∫ x(t ) dt < ∞
−∞
(Para una señal absolutamente integrable) (3.7)

Todas las funciones limitadas en tiempo de amplitud finita tienen área absoluta
finita. El criterio de integrabilidad absoluta se usa a menudo para verificar la estabilidad del
sistema o justificar la existencia de ciertas transformaciones.
 Energía de una señal: La energía de una señal esta definida como:


Ex = ∫ x(t )
2
dt (3.8)
−∞

y la definición para el tiempo discreto es:


E≡ ∑ x ( n)
2
(3.9)
n = −∞

Si definimos la energía de una señal sobre un intervalo finito − N ≤ n ≤ N como:

N
EN ≡ ∑ x ( n)
2
(3.10)
n=− N

Una señal se dice que es de energía si Ex es finita, lo que implica que Px es 0. Por
ejemplo: pulsos limitados en el tiempo.
 Potencia de la señal: La potencia de una señal esta definida como:

1
Px = limT0 → ∞ ∫
2
x(t ) dt (3.11)
T0 T0

Una señal se dice que es de potencia si Px es finita, lo que implica que Ex es


infinita. Por ejemplo: una señal periódica.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 18
Capitulo III

3.1.5 Señales en tiempo discreto.


Señales discretas (tales como la población anual) pueden surgir naturalmente o
como consecuencia de muestrear señales continuas (por lo general en un intervalo de
muestreo t s ). Una señal muestreada o discreta x [n] es justamente una sucesión ordenada de
valores correspondientes al índice entero n que engloba la historia del tiempo de la señal.
No contiene información directa acerca del intervalo de muestreo t s , excepto por el índice
n de las posiciones de la muestra. Una señal discreta x[n] se grafica como líneas contra el
índice n. Cuando se comparan señales analógicas con sus versiones muestreadas, se
considera que el origen t = 0 corresponde también al instante de muestreo n = 0.

3.1.6 Señales deterministicas o predecibles.


Las señales deterministicas o predecibles son gobernadas por una representación
matemática única que, una vez establecida, nos permite caracterizar por completo la señal
en todo tiempo, pasado, presente o futuro. Esto es muy importante ya que para el procesado
de las señales es necesario que esta sea descrita matemáticamente. Esta descripción
matemática normalmente se denomina modelo matemático. La respuesta al impulso
unitario de un filtro lineal invariante al movimiento es un ejemplo de una señal
deterministica.

3.1.7 Señales aleatorias.


En contraste con las señales deterministicas o predecibles se encuentra la clase de
señales conocidas como aleatorias o estocásticas cuyo valor preciso no puede predecirse en
principio. Subrayamos que solo los valores futuros de una señal aleatoria imponen un
problema pues los valores pasados de cualquier señal, aleatoria o de otro tipo, se conocen
con exactitud una vez que han ocurrido. La aleatoriedad o incertidumbre en torno a los
valores de señales futuras es inherente en muchas situaciones prácticas. De hecho, un grado
de incertidumbre es esencial para comunicar información. Cuanto más se observe una señal
aleatoria, tanta más información adicional ganaremos y menor resulta la incertidumbre.
Para entender por completo la naturaleza de las señales aleatorias se requiere del uso de la
teoría de la probabilidad, variables aleatorias y estadísticas. Incluso con tales herramientas,
_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 19
Capitulo III

lo mejor que se puede hacer es caracterizar señales aleatorias solo en promedio con base en
su comportamiento pasado.

3.2 Conceptos probabilísticos.


Puesto que un proceso aleatorio solo puede ser descrito probabilisticamente o en
términos de su comportamiento promedio, en este apartado se desarrollan los aspectos de
fondo necesarios para entender como puede ser descrito un proceso aleatorio.

3.2.1 ¿Qué es una señal aleatoria y que es probabilidad?


El ruido es usualmente indeseado. El ruido agregado (lineal) en las señales de radio
perturba nuestro placer por la música o interfieren con nuestro entendimiento de las
palabras habladas Fig. 3.2.

Fig. 3.2 Forma de onda típica de ruido.

El ruido en un sistema de navegación induce a errores de posición que pueden ser


desastrosos en situaciones críticas; el ruido en un sistema de transmisión de datos digitales
(redes de comunicación) puede causar errores de bits con consecuencias indeseables; y así
sucesivamente. Cualquier ruido que corrompe a la señal deseada es malo; la pregunta es
que tan malo. Incluso desde antes los diseñadores han hecho lo mejor para eliminar todos
los mecanismos obvios que producen el ruido, al parecer siempre se presenta algún tipo de
señal no deseada que debe ser suprimida con los medios mas sutiles, por medio de un
filtrado. Para hacerlo eficazmente se debe entender al ruido en términos cuantitativos.
La probabilidad juega un papel importante en la descripción de las señales ruidosas.
Típicamente, con la aproximación intuitiva primero podemos considerar a todos los
posibles resultados de un experimento del cambio que sea igualmente probable, y entonces
la probabilidad de un evento en particular, digamos, el evento A, se define como:

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 20
Capitulo III

Posibles resultados que favorescan al evento A


P ( A) = , (3.12)
Total de los posibles resultados

donde P(A) se lee como “la probabilidad del evento A”. Esto se extiende a incluir la
frecuencia relativa de ocurrencia o estadística desde el punto de la probabilidad. Con el
concepto de frecuencia relativa, nos imaginamos a un gran número de pruebas de algún
experimento de azar y entonces se define a la probabilidad como la frecuencia relativa de
ocurrencia de el evento en cuestión. Las consideraciones tales como que significa “grande”
y la existencia de limites son evitados normalmente en un tratamiento elemental. Esto es
por una buena razón. La idea del límite en el sentido probabilístico es sutil. Aunque las
viejas nociones intuitivas de probabilidad tienen restricciones, ellas juegan aun un papel
importante en la teoría de la probabilidad.
La figura 3.3 muestra la influencia del ruido en un sistema de navegación.

Figura 3.3 Influencia del ruido en un sistema de navegación.

3.2.2 La regresión lineal.


¿Que es una regresión? Una regresión es una manera de ajustar una línea a los
datos; en otras palabras es un método de hallar los parámetros de una función lineal que
describe la relación entre un conjunto de variables independientes y variables dependientes.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 21
Capitulo III

Figura 3.4 Relación entre dos variables.

En la figura 3.4 se tiene un ejemplo de la relación entre una variable x y una


variable y. En la que se ve claramente que hay una relación positiva. La x mas grande es la
y mas grande. Cuando se hace la regresión se busca ser lo más precisos en esta relación.
En otras palabras se busca estimar la inclinación de la línea. Cuando se encuentran
todos los parámetros (la desviación y la intercepción) para una línea que une a una variable
dependiente y a una variable independiente, entonces se puede usar la ecuación de la recta
para “predecir” un valor de la variable dependiente basándose en el valor de la variable
independiente. La “mejor” recta, la que se quiere que funcione, es la que realiza los errores
más pequeños la mayoría de las veces. Es la que minimiza la variación de los errores que se
hacen.

¿Que es un error en este contexto?


Para responder a esto, se dibuja una línea como se indica en la figura 3.5. Se
escogen algunos valores de la variable independiente y se usa la línea para hacer algunas
predicciones acerca del valor de la variable independiente. La diferencia entre la predicción
y el valor verdadero es el tamaño del error. En la figura 3.5 se muestran algunos errores
(como flechas), hay muchos. Antes de afinarlo, se intenta dibujar la mejor línea (recta) que
se pueda en la grafica 3.4. Ciertamente debería ser mejor que la de la figura 3.5.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 22
Capitulo III

Figura 3.5 Errores de predicción.

Una vez que se tiene la mejor recta ¿que se puede hacer con ella?
La mejor recta se parece a algo como la figura 3.6:

Figura 3.6 Regresión lineal.


La línea tiene una inclinación de 1.25 y una intercepción de -2. Se pueden calcular
esto usando la regresión. Esta ecuación se puede determinar de la siguiente manera:

y = −2 + 1.25 x (3.13)

De alguna manera esta ecuación captura la relación entre x y y. La regresión da una


buena respuesta cuando se puede asumir que la relación verdadera es realmente es lineal.
Ahora se pueden hacer declaraciones precisas acerca de como x afecta a y.
Una gran ventaja de la regresión es que se puede usar aun si hay muchas variables
independientes diferentes. Cuando hay muchas variables diferentes (podrían ser algunas

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 23
Capitulo III

variables políticas, algunas variables demográficas, algunas variables de salud, etc.)


entonces se debe estimar con algo como esto:

y = a + b1 x1 + b2 x2 + b3 x3 + b4 x4 (3.14)

La interpretación de los términos “b” es que a un cambio unitario en xi produce un

cambio de bi unidades de y. Y en algún sentido este efecto de xi en y es ahora


“condicional” en los efectos de las otras variables independientes de y.

3.2.3 Ruido blanco o gaussiano.


Un proceso fundamental e importante en tiempo discreto que frecuentemente es
encontrado en el tratamiento de procesos aleatorios en tiempo discreto es el ruido blanco.
El término “blanco” es una palabra propia de la óptica que quiere decir que la luz blanca
posee frecuencias de todo el espectro visible y esta definido por la siguiente ecuación:

Px ( f ) =
N0
N0 es un constante positiva (3.15)
2

El ruido blanco es también llamado ruido blanco-Gaussiano ó simplemente ruido


Gaussiano, ya que la densidad de probabilidad del ruido blanco obedece a la ley normal
(3.16) y se representa como se muestra en la figura 3.7a

 ( x − µ )2 
P(x ) =
1
exp −  (3.16)
2πσ 2  2σ 2 

Estas ecuaciones obedecen todas las propiedades de la ley normal.

3.2.4 Los procesos Markovianos – Gaussianos.


También llamado proceso no – gaussiano, y en contraste con el proceso estacionario
gaussiano, el proceso gaussiano–markoviano es el modelo inherente del proceso no–
estacionario. El proceso gaussiano – markoviano es importante por el gran número de
aplicaciones desde que este se ajusta al proceso físico real con precisión razonable y con
relativa simplicidad en forma matemática. También como es el caso del proceso

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 24
Capitulo III

estacionario gaussiano, el proceso gaussiano – markoviano modela el proceso real


completamente a través de la función de autocorrelación. Esto significa que cualquier
función de densidad de probabilidad del más alto orden puede ser descritos para el proceso
explícitamente, esto se muestra en la figura 3.7b.

3.7a

3.7b

Figura 3.7 Ruido blanco gaussiano y distribución no-gaussiana.

3.2.5 La densidad espectral de potencia.


La densidad espectral de potencia simplemente es la transformada de Fourier de la
función de autocorrelación, esto es:


Sξ ( jω ) = F {Rξ (τ )} = ∫ Rξ (τ )e
− jωτ
dτ (3.17)
−∞

donde a Sξ ( jω ) se le llama función de densidad espectral de potencia o simplemente la

función de densidad espectral del proceso ξ (t ) .


La densidad espectral de potencia es una medición directa del contenido de la
frecuencia en una señal, y de aquí, el contenido de su potencia.
_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 25
Capitulo III

3.2.6 Distribución de probabilidad.


Dos de las distribuciones de probabilidad encontradas más comúnmente son la
distribución uniforme y la distribución normal (o gaussiana). Estas se ilustran en las figuras
3.8a y 3.8b, respectivamente.

Densidad uniforme Distribución uniforme

f (x) F(x)
1
β −α

Figura 3.8a Distribución de probabilidad uniforme.

Densidad gaussiana Distribución gaussiana

F(x)

0.5

Figura 3.8b Distribución normal o gaussiana.

En una distribución uniforme, todo valor es igualmente probable, puesto que la


variable aleatoria no muestra preferencia por un valor particular. La función de densidad
f(x) es justo un pulso rectangular definido por :

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 26
Capitulo III

 1 
 ,α ≤ x ≤ β 
f ( x) =  β − α 
0, 
  (Distribución uniforme) (3.18)

y la distribución F(x) es una rampa que se aplana. Cuando se subdividen las señales en
escalones uniformes, el error en la representación del valor de una señal se considera que se
distribuirá de manera uniforme entre − 0.5∆ y 0.5∆ , donde ∆ es el escalón de
cuantificación. La función de densidad de la fase de una senoide con fase aleatoria también
se distribuye uniformemente entre − π y π .
La densidad de probabilidad gaussiana en forma de campana se conoce también
como normal y se define mediante la siguiente ecuación:

1  ( x − mx )2 
f ( x) = exp −  (Distribución normal) (3.19)
2πσ 2  2σ 2 

La media (o varianza) de la suma de las distribuciones gaussianas es igual a la suma


de las medias individuales (o varianzas).

3.2.7 Estimaciones estadísticas.


La teoría de la probabilidad nos permite caracterizar por completo una señal
aleatoria a partir de un conocimiento previo de su distribución de probabilidad. Esta origina
características como la media y la varianza de la variable aleatoria. En la práctica, nos
enfrentamos con el problema exactamente opuesto de encontrar tales características de un
conjunto de datos discretos, a menudo ante la ausencia de una distribución de probabilidad.
Lo mejor que podemos hacer es obtener una estimación de tales características y quizás
incluso de la propia distribución. Esto es lo que logra la estimación estadística. La media y
la varianza se estiman muchas veces directamente de las observaciones x x , k = 0, 1, 2,...,
N-1 como:
N −1
1 N −1
mx =
1
∑ xk σ x2 = ∑ ( x k − m x )2 (3.20)
N k =0 N − 1 k =0

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 27
Capitulo III

3.2.8 Medidas de variables aleatorias.


Las medidas o características de una variable aleatoria X se basan en su distribución.
Dos características utilizadas comúnmente son la media y la varianza, definidas por


Eˆ ( x) = mx = ∫ xf ( x)dx
−∞
[ ] ∞
σ x2 = Eˆ (x − m x )2 = ∫ ( x − m x ) 2 f ( x)dx
−∞
(3.21)

La media, o esperanza, es una medida donde se centra la distribución. La varianza


mide la dispersión de la distribución en torno a la media. Cuanto menor es la dispersión,
tanto mas pequeña es la varianza. Esta es también una medida de la potencia de ca en una
señal. La cantidad σ se conoce como la desviación estándar y proporciona una medida de
la incertidumbre en una región física.

3.2.9 Razón señal a ruido.

Para una señal ruidosa x(t ) = s (t ) + An(t ) con una componente de señal s (t ) y una
componente de ruido An(t ) (con amplitud de ruido A), la razón señal a ruido (Signal to

Noise Ratio, SNR) es la razón entre la potencia de la señal σ 2 y la potencia del


ruido A2σ n2 y suele definirse en decibeles (dB) como:

 σ 2s 
SNR = 10 log 2 2  dB (3.22)
 A σn 

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 28
Capitulo IV

Capitulo IV.
4.0 Filtros digitales y su representación.

Un filtro digital puede describirse mediante la ecuación de diferencias

y[n] + A1 y[n − 1] + ... + AN y[n − N ] = B0 x[n] + B1 x[n − 1] + ... + BM x[n − M ] .

Esta describe un filtro recursivo de orden N cuya salida depende de sus propios
valores pasados y[n − k ] y de los valores presentes y pasados de la entrada. También se
denomina filtro de respuesta infinita al impulso (IIR) porque su repuesta al impulso h[n]
(la respuesta al impulso unitario de entrada) es usualmente de duración infinita. Ahora
consideremos la ecuación de diferencias descrita por

y[n] = B0 x[n] + B1 x[n − 1] + ... + BM x[n − M ]

Su respuesta presente depende solo de los términos de entrada y no muestra


dependencia (recursión) de los valores pasados de la respuesta. Se le llama filtro no
recursivo, o filtro promedio móvil, porque su respuesta es solo una suma ponderada
(promedio móvil) de los términos de entrada. Además se conoce como filtro de respuesta
finita a impulsos (FIR), porque su respuesta al impulso es de duración finita.

 Representación de los filtros digitales.


Los filtros digitales descritos por ecuaciones de diferencias pueden representarse
usando elementos correspondientes a las operaciones de escalado (o multiplicación),
desplazado (o retraso), y suma (o adición) que ocurren naturalmente en tales ecuaciones.
Estos elementos describen la ganancia (multiplicador escalar), el retraso y la suma (o
adición), y se representan simbólicamente en la figura 4.1.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 29
Capitulo IV

Retraso Multiplicador Sumador


X[n] X[n]+ y[n]
X[n] A Ax[n]
X[n] X[n-1]
Y[n]

Figura 4.1 Bloques de construcción para diagramas de filtros digitales.

Los elementos de retraso en cascada dan como resultado una salida retrasada por la
suma de los retrasos individuales. La notación operacional para un retraso de k unidades es
z − k . Un filtro no recursivo descrito por

y[n] = B0 x[n] + B1 x[n − 1] + ... + BN x[n − N ]

puede representarse usando una estructura de alimentación hacia adelante con N elementos
de retraso, y un filtro recursivo de la forma

y[n] = − A1 y[n − 1] − ... − AN y[n − N ] + x[n]

Requiere una estructura de retroalimentación (porque la salida depende de sus


propios valores pasados). Cada representación se muestra en la figura 4.2 y requiere N
elementos de retraso. La forma general descrita por

y[n] = − A1 y[n − 1] − ... − AN y[n − N ] + B0 x[n] + B1 x[n − 1] + ... + BN x[n − N ]

requiere: alimentación hacia delante, retroalimentación y 2N elementos de retraso como se


muestra en la figura 4.2a. Sin embargo, ya que los sistemas LTI pueden ponerse en cascada
en cualquier orden, pueden intercambiarse los dos subsistemas para obtener una
representación canónica con solo N retrasos, como se muestra también en la figura 4.2b.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 30
Capitulo IV

yn x[n ] y[n ]
x n +
B0 + + + −1
-1 z

-A1
+
B1 + +
+
-1 z −1

-A2

B + + + +
2

-1 −1
z
BM -AN

Figura 4.2 Diagrama de un filtro no recursivo (izquierda) y otro recursivo (derecha).

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 31
Capitulo IV

x n yn

Figura 4.2a Diagrama directo de un filtro digital.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 32
Capitulo IV

x n yn

Figura 4.2b Diagrama canónico de un filtro digital.

4.1 Que es una tarea de filtrado optimo.


Las estimaciones y controles más exactos aplicados en muchas ramas de nuestra
vida implican, primero, recoger la señal ruidosa, la cual esta dentro de la observación
ruidosa. A esta herramienta se llama filtrado óptimo y, respectivamente, la teoría y los
algoritmos prácticos se han desarrollado y ahora están disponibles para resolver esta tarea.
La respuesta a la frecuencia de un filtro obedece ciertas condiciones y criterios, estas son
diferentes para las señales estacionarias y para las no-estacionarias aleatorias. Las señales
estacionarias se estiman muy bien basadas en el filtrado Kolmogorov-Wiener, ya que el
caso no-estacionario es un asunto del filtrado Kalman-Bucy. Debido a que el caso no-
estacionario es mas universal, a la teoría del filtrado lineal optimo moderno se le llama
filtrado de Kalman optimo lineal. Los resultados fundamentales en la teoría del filtrado no-

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 33
Capitulo IV

gaussiano (no-lineal) de procesos aleatorios, incluso los procesos Markovianos, fueron los
trabajos del científico Soviético R. L. Stratonovich.
Antes de dar la descripción y la representación matemática del problema de filtrado
optimo, consideremos un gran ejemplo de nuestra vida moderna real. La figura 4.3 nos
muestra como eliminar el error de un reloj basado en el tiempo de referencia GPS y un
receptor barato.

Figura 4.3 Tiempo de referencia GPS.

Asumir que el reloj es inexacto así que el intervalo de tiempo deseado de 1


segundo, Tcl , cambia en el tiempo debido a inestabilidades de los mecanismos del reloj u
oscilaciones electrónicas internas. Usualmente, el reloj demuestra una pequeña variación
ruidosa. Para medir el error de tiempo del reloj la señal de sincronización de 1 segundo del
Sistema de Posicionamiento Global (GPS), TGPS esta actualmente disponible, la cual es
extremadamente precisa con una pequeña variación al ruido. Para medir, usamos un
receptor GPS barato, el cual inherentemente agrega el ruido a la señal de Sincronización
GPS, entonces a la salida del receptor tenemos el intervalo de sincronización de 1
segundo, Tr , el cual es extremadamente exacto con una gran variación de ruido. Entonces la
diferencia de tiempo de la medición Tr − Tcl es ruidoso y no-estacionario.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 34
Capitulo IV

Nos gustaría estimar el error ε de nuestro reloj. Entonces debemos estimar este error
basado en la diferencia ruidosa Tr − Tcl . En otras palabras, debemos “limpiar” a ε del ruido
GPS o proporcionar un filtrado. Es más, debemos hacer esta “limpieza” con la mayor
precisión posible, porque una inexactitud conduce directamente a un error del reloj.
Entonces debemos suministrar el filtrado mas preciso del filtrado óptimo.
Ahora que ya hemos considerado el ejemplo de la figura 4.3 de la tarea de filtrado
de optimo, el cual esta relacionado a varios procesos físicos en electrónica, óptica,
mecánica, etc. Sin embargo, la formulación de la tarea permanece igual: “recoger” la señal
de la observación ruidosa en la manera más exacta, y así, proporcionar el filtrado óptimo.
 Aproximación por mínimos cuadrados: ¿Cuál es la forma de proporcionar la estimación
más exacta de la señal basada en la evidencia o señal ruidosa conocida (observación)?
Una vez más consideremos el ejemplo de la figura 4.3. La figura 4.4 esboza la suma de
una señal deterministica lineal y el ruido gaussiano.

Figura 4.4 Señal deterministica lineal y ruido gaussiano.

Naturalmente, nos gustaría tener un conocimiento explicito acerca de la señal


basada en la observación. Sin embargo, incluso una vista rápida del proceso muestra que,

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 35
Capitulo IV

ocasionalmente, algunos puntos (encerrados en un círculo) caen dentro de un rango, el cual


queda debajo de la señal. Entonces, en principio, no podemos estimar la señal
explícitamente. Aquí, cada estimación que nos gustaría proporcionar debe estar implícita,
en principio. Y la pregunta es cual es el error de esta estimación no-exacta y como
eliminar el error al nivel más pequeño posible.
Hay dos aproximaciones básicas para responder a esta pregunta.
1. La primera aproximación. Podemos evaluar el error estimado como
ε = señal − estimada y encontrar la estimación en alguna manera para satisfacer las
condiciones de cada punto del proceso,

E [ε 2 ] = E[( señal - estimación) 2 ] (4.1)


min

Esto es llamado el criterio del error-cuadrático-medio mean-squire-error (MSE).


Basándonos en este criterio podemos suministrar la diferencia mínima posible entre la señal
y su estimación. Por esta razón se le llama a esta aproximación la estimación óptima en un
sentido de MSE.

2. La segunda aproximación. Alternativamente, podemos extraer la estimación de la


observación ruidosa, transfiriéndolo de esta manera a puramente ruidosa, se calcula su
varianza, y se requiere minimizar esta varianza en alguna forma. Se formula la
condición en el sentido de MSE.

E [σ 2 ] = E[(observacion − estimacion) 2 ] (4.2)


min

Debido a que en este caso inicialmente estimamos el error entre la observación y la


estimación, entonces podemos obtener la mejor estimación de la expectativa de la
observación, y, por esta razón se la llama aproximación óptima estocástica.
Ambas estimaciones optimas y aproximaciones estocásticas nos permiten resolver
las tareas de filtrado con bastante exactitud. Sin embargo, los algoritmos prácticos para el
filtrado optimo están principalmente proveídos por la aproximación estocástica, y la
aproximación estocástica se usa principalmente en el análisis de series y procesamiento de
datos sin notación directa del problema de filtrado.
_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 36
Capitulo IV

 ¿Que es una tarea de filtrado optimo estadístico?


Consideremos una señal aleatoria no-estacionaria figura 4.5. Como la señal ξ (t ) ,
llamada observación, esta formada por una señal no-estacionaria λ (t ) mezclada con un
ruido n(t ) .

ξ(t)
ξ(t)

λ(t)

0 time
Figura 4.5 Formulación de la tarea de filtrado.

De esta figura se pueden formular las tareas de filtrado de la siguiente manera:

 Suministrar la estimación más exacta λˆ (t ) de una señal λ (t ) a través de una


observación ξ (t ) , tomando en cuenta que el ruido corrompe esta estimación, así que no
es posible, en principio, obtener los resultados con cero errores. Cuando un filtro (o
algoritmo de filtrado) proporciona los resultados mas exactos entonces se le llama filtro
optimo. El diseño de dicho filtro o algoritmo es la principal tarea en filtrado optimo.
En el caso más común, la tarea de filtrado se puede formular de la siguiente manera:


Dado un vector de una señal aleatoria ξ (t ) (observación), el cual es una función
de un vector de algunas variables.

     
ξ(t ) = Φ ( s (t , λ(t )), u (t ), n (t )) (4.3)

 
donde s (t , λ(t )) es una señal útil dependiente en el tiempo t y en una señal

multidimensional λ(t ) = {λ1 (t ),..., λ n (t )} ,

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 37
Capitulo IV


u (t ) es una señal de control,

n (t ) es un vector de ruido.

Con respecto a una observación ξ (t ) podemos seleccionar los siguientes casos
especiales:


1. La observación ξ (t ) es posible solo en cierta duración de tiempo [0, T]. Este caso
corresponde al procesamiento de señales en tiempo no-real.

2. Obtenemos observaciones actuales de el proceso ξ (t ) en el tiempo de duración [0, t].
Aquí, el procesamiento de señales es llevado a cabo en tiempo real.

Como normalmente, se supone que el siguiente conocimiento a priori acerca del



proceso ξ (t ) es conocido en la etapa preliminar:

• Cierto tipo de la función deterministica Φ (⋅) o el método de la combinación de la
señal y el ruido.
  
• La señal s (t , λ(t )) es una función deterministica en las variables t y λ (t ) .

• Las características de probabilidad de un proceso aleatorio λ (t ) y el ruido son
conocidos.

Basándose en estos conocimientos y en un proceso real ξ (t ) , es posible resolver
las siguientes tareas de estimación:

• Tareas de filtrado en curso: basada en una observación ξ (t ) obtenemos una
ˆ
estimación λ(t ) ;

• Tareas de predicción o extrapolación: basada en una observación ξ (t ) obtenemos
ˆ
una estimación λ(t + τ) ;

• Tareas de interpolación: basada en una observación ξ (t ) obtenemos una
ˆ
estimación del retardo λ(t − τ) .
La formula 4.1 se puede reducir también a las siguientes ecuaciones:

ξ(t ) = s (t , λ(t )) + n0 (t ) , (4.4)

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 38
Capitulo IV


= g (t , λ) + nλ (t ) , (4.5)
dt

donde n0 (t ) y nλ (t ) son ruidos blancos gaussianos independientes con media-cero y

densidades espectrales de banda-única N 0 y N λ , respectivamente, λ0 es un valor inicial


(determinístico o aleatorio).
Con respecto a (4.4) y (4.5) tenemos, en principio, dos realizaciones del filtrado:
1. El filtrado lineal corresponde al caso de una observación ξ (t ) es linealmente

dependiente de una señal λ (t ) , y el nivel de inicio λ0 esta distribuido normalmente.


Para este caso todos los procesos pueden ser tratados como procesos gaussianos.
2. El filtrado no-lineal corresponde a el caso donde ambos o cualquiera de ellos ya sea la
observación ξ (t ) y/o la señal λ (t ) son funciones no-lineales, y el nivel de inicio λ0 es un
proceso no-gaussiano.

La siguiente figura 4.6 esboza el problema de filtrado lineal en detalles. En esta


figura el mayor problema es diseñar y estudiar un filtro lineal optimo en el tiempo continuo
(t ) o en el tiempo discreto (t ≡ nT ) con la respuesta a la frecuencia correspondiente
K ( jω ) ó su respuesta impulso h(t ) del filtro optimo.

n(t)
λ(t) ξ(t) Filtro óptimo λˆ (t )
K(jω), h(t)

Figura 4.6 Problema de filtrado lineal optimo.

Para el caso lineal la observación se presenta como la suma de una señal λ (t ) y un


ruido aleatorio n(t )

ξ(t ) = λ(t ) + n(t ) , (4.6)

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 39
Capitulo IV

La tarea de filtrado se formula de la siguiente manera: obteniendo una estimación


λˆ (t ) de una señal λ (t ) a la salida de un filtro con una máxima relación señal-ruido (SNR).
En otras palabras una señal estimada λˆ (t ) debe ser extraída de una observación ξ (t ) lo mas
cerca a una señal real λ (t ) como sea posible, y la influencia del ruido en una estimación
debe ser tan mínima como sea posibles.
Esta tarea se puede lograr basándose en dos estructuras conocidas de filtros óptimos:
• Ya que un filtro lineal es dado y se alcanza la máxima SNR por el cambio de los
parámetros del filtro entonces el filtro es llamado filtro quaisi-optimo.
• Ya que se obtiene la respuesta de un filtro entre K ( jω ) ó h(t ) con una máxima SNR
con el diseño de estadística directa entonces el filtro es llamado filtro optimo. Al
filtro lineal óptimo para un ruido blanco gaussiano se le llama filtro lineal
emparejado (matched linear filter).
La única manera eficiente conocida para alcanzar una máxima SNR (para solucionar
la tarea de filtrado optimo) es obteniendo una estimación λˆ (t ) con un error cuadrático
medio mínimo mean-squire error (MSE)

σε2 = E{[λ(t ) − λˆ (t )]2 } = E[ε 2 (t )] , (4.7)

donde ε (t ) es un error de filtrado instantáneo y una estimación λˆ (t ) se obtiene a través de la


respuesta impulso del filtro h(t ) por una convolucion

b
λˆ (t ) = ∫ ξ(θ)h(t , θ)dθ (4.8)
a

donde para un sistema físicamente realizable se asume que h(t , θ) = 0 , t < θ .

 Teorema de Bayes.

Hay otra forma eficiente para extraer la señal de la observación ruidosa. Esta
basada en el análisis de probabilidad de las señales (en el teorema de Bayes), conduciendo a
algo diferente en el proceso de filtrado.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 40
Capitulo IV

Supóngase que tenemos una observación discreta ξ0v = ξ0 , ξ1 , ..., ξv

correspondiente a puntos en el tiempo t0 , t1 , ..., tv , y una señal s (t , λ) depende de un

parámetro simple continuo λ con una densidad de probabilidad a priori p pr (λ) . La

siguiente densidad condicional describe exhaustivamente los parámetros útiles de λ en una


observación ξv0

p ps (λ) = p (λ ξv0 ) (4.9)

a la cual se le llama densidad de probabilidad a priori de la señal λ .


Considerando el teorema de multiplicación de las probabilidades para dos
variables A y B, esto es,

p( A, B) = p( A B) p ( B) = p ( B A) p ( A) . (4.10)

Basándonos en este teorema (4.10) podemos escribir

( ) ( )( )
p λ, ξ0v = pξ ξ0v p λ ξ0v = p pr (λ ) p ξ0v λ . ( ) (4.11)

Una vez que pξ (ξv0 ) en (4.11) no depende de λ podemos escribir también

( ) ( )
p ps (λ ) = p λ ξv0 = kp pr (λ ) p ξv0 λ , (4.12)

donde
1 1
k= = (4.13)
p ξ (ξ v0 ) ∫ p pr (λ) p(ξ 0 λ)dλ
v

es un coeficiente de normalización.
La formula (4.12), en esencia, es una representación matemática del muy
conocido teorema de Bayes para un número arbitrario de variables Bk , esto es,

p ( A Bk ) p ( Bk )
p( Bk A) = n
. (4.14)
∑ p( A B ) p( B )
i =1
i i

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 41
Capitulo IV

eso permite formar un conocimiento a posteriori de uno a priori y el resultado de la


experiencia (resultados del procesamiento de señales inicial).
El teorema de Bayes (4.14) se usa en la teoría de la estimación en diferentes formas
y no puede ser aplicado directamente para las tareas de filtrado. Sin embargo, es importante
conocer las principales propiedades de este teorema. Asumamos que conocemos la
distribución a priori p ( Bk ) de la señal Bk como resultado de estudios previos. Entonces,

saber la distribución a priori p ( Bk A) de la misma variable, debemos definir de alguna

manera las condiciones de densidad p ( A Bk ) , multiplicándolo por p ( Bk ) , y lo dividimos

por los coeficientes de normalización para tener el cuadrado de la unidad.


Entonces la densidad condicional p ( A Bk ) juega un papel importante en este tipo de

consideraciones, y hay la teoría especial de cómo usar esta distribución.


Ya que hemos calculado en esta manera (4.14) la densidad p ( Bk A) , entonces

podemos estimar su significado. De esta manera, proporcionamos el filtrado de la


observación ruidosa. Este es el resultado principal de la aplicación del teorema de Bayes en
la teoría del filtrado óptimo.

 La función Likelihood.

La densidad condicional p ( A Bk ) juega en la teoría de la estimación su papel por

separado. Basándose en esta distribución también podemos estimar la señal en una manera
óptima, ya que el máximo de esta función corresponde al valor más probable de la señal.
Tomando en consideración el significado independiente de la densidad de
probabilidad p ( A Bk ) , a esto se le conoce como la función likelihood. Con respecto a la

forma (4.11), la función likelihood se calcula como

L(λ) = p (ξv0 λ) (4.15)

Naturalmente que con ξv0 fijo la función (4.15) muestra si un valor de λ tiene mas
probabilidad en comparación con otro.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 42
Capitulo IV

Hay muchos resultados en la teoría de estimación consagrados a la aplicación de la


función likelihood para estimar las señales. Pero, otra vez, esta función no puede ser usada
directamente para las tareas de filtrado, y requiere de las transformaciones apropiadas.

4.2 Estimación optima estadística.


En los sistemas de comunicaciones y de control, las observaciones ruidosas son
frecuentemente procesadas para lograr la estimación de señales, estados, o parámetros.
Usualmente el esfuerzo se hace para construir estimadores, los cuales permitan una
estimación óptima para algunos criterios convenientes de optimidad tales como el error
cuadrático medio mínimo minimun mean squire error (MSE), la raíz cuadrada del error
medio mínimo minimun root mean squire error (RMSE), etc.
Hay tres tipos básicos de estimadores, denominados filtros, suavizadores y
predictores. Ahora se hará una caracterización de cada uno de ellos.
Asumir que hay disponibles j + 1 puntos {0,1,... j} de los datos medidos, estos son,
{ξ ,ξ ,...,ξ }. Considerar ahora que cualquier estimación de la señal
0 1 j xk , k = 0,1,... esta

denotada por xˆk / j . De esta manera, se tienen las siguientes estimaciones.

4.2.1 Filtrado.

1. Filtrado: j = k y j están disponibles. Esto significa que la estimada xˆk / k esta


relacionado con el fin de la secuencia de datos medidos. La figura 4.7a muestra este caso.

Figura 4.7a Filtrado.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 43
Capitulo IV

4.2.2 Suavizado.
2. Suavizado: j > k. Esto significa que todos o algunos puntos de la observación
están en el futuro con respecto a la estimación. La figura 4.7b muestra muy bien este caso.

Figura 4.7b Suavizado.


Hay tres modos de suavizado de la operación de estimación:

• Suavizado de punto fijo o fixed-point smoothing: k esta fija y j > k es variable,


• Suavizado de retraso fijo o fixed-lag smoothing: (j – k) esta fija y k es variable,
• Suavizado de intervalo fijo o fixed-interval smoothing: j esta fija y j > k es
variable.

4.2.3 Predicción.
3. Predicción: j < k. Esto significa que la secuencia de observación pasada es usada
para tener una estimación en el futuro. La figura 4.7c ilustra este caso.

Figura 4.7c Predicción.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 44
Capitulo IV

4.3 Filtrado lineal en tiempo discreto.


El filtrado óptimo en tiempo discreto parece ahora como la más importante
herramienta en el procesamiento de señales en comunicaciones y control. La aproximación
mas avanzada para tener estimación estadística en una manera optima en señales
estacionarias y no-estacionarias fue propuesta por Kalman. Hoy en dia la teoría de filtrado
lineal optimo es conocida como el filtrado de Kalman lineal. A continuación se hará una
introducción al problema de filtrado discreto, empezando por la aplicación de la
aproximación Bayesiana para el problema de filtrado.

 Aproximación Bayesiana para el Filtrado Discreto.

Consideremos la representación discreta del proceso, apuntando a resolver una tarea


de filtrado discreto. Persiguiendo el objetivo para obtener los fundamentos para el filtrado
digital y la metodología para el diseño del filtro correspondiente, primero se considera el
caso mas simple (unidimensional o escalar).
Se sabe de la teoría de filtros que cualquier filtro digital se puede describir en el
estado-espacio, así que las ecuaciones de observación y las ecuaciones de estado se pueden
escribir de la siguiente manera

ξ v = s (tv , λv ) + n0 , (4.16)
λv = g (tv , λv −1 ) + nλv , (4.17)

donde s (tv , λv ) es una función arbitraria dependiente de la señal λv y del tiempo discreto

tv , v = 0,1,...; g (tv , λv −1 ) es una función arbitraria dependiente de un paso de retraso de la

señal λv −1 y del tiempo discreto tv ; n0 v y nλv son ruidos Gaussianos blancos


independientes de una observación y estados, respectivamente.
La formula de Bayes es fundamental en este caso para proveer filtrado de señales
lineales y no-lineales λ (t ) basadas en la observación ξ (t ) . Ahora se mostrara como se
emplea la aproximación Bayesiana para el problema de filtrado discreto.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 45
Capitulo IV

Supóngase que la densidad posterior p (λv −1 ξ 0v −1 ) se conoce para el momento de

tiempo tv −1 . Entonces busquemos una densidad posterior p (λv −1 ξ 0v ) para el siguiente

momento de tiempo tv . Basándose en la formula para la multiplicación de probabilidades,


se puede escribir la densidad condicional

( ) ( )( ) ( )(
p λ v , ξ v ξ 0v −1 = p λ v ξ v0−1 p ξ v (ξ v0−1 , λ v ) = p ξ v ξ v0−1 p λ v (ξ v0−1 , ξ v ) ) (4.18)

Transformando esta formula (4.18) basándose en (4.16) y (4.17) y apuntando a


obtener la formula para la estimación en tiempo discreto de una señal.
Una vez que la señal s (tv , λv ) en (4.16) es una función deterministica de sus

variables, y n0 v para v = 0,1,..., es una secuencia de variables aleatorias independientes

entonces un valor de ξ v con λv fijo depende solo en n0 v y no depende de los valores de


ruido discretos previos. Por consiguiente, es valido escribir

( )
p ξ v (ξ v0−1 , λ v ) = p (ξ v λ v ) (4.19)

Considerando que una reunión de {ξ 0v , ξ v } es simplemente ξ 0v se tiene

( ) (
p λ v (ξ v0−1 , ξ v ) = p λ v ξ v0 ) (4.20)

Mientras se substituye (4.19) y (4.20) por (4.18), se llega a la forma deseada de la


formula de Bayes, esto es,

(
p λv ξ = )
( )
p λ v ξv0−1 p (ξv λ v )
( )
= cp λ v ξv0−1 p (ξv λ v )
( )
v
v −1
(4.21)
p ξv ξ
0
0

donde c es un coeficiente de normalización. Como se ha podido ver, la formula


(4.21) provee descripción probabilística general de una señal.
Ahora es necesario determinar las densidades de probabilidad para (4.21).
La densidad condicional p (ξ v λv ) es un valor actual de la función likelihood

(4.19). Esta función puede ser encontrada de la ecuación de observación (4.16).

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 46
Capitulo IV

Proporcionándola se puede sustituir una variable ξ v = s (tv , λv ) + n0 v en lugar de la variable

n0 v en una distribución normal p (n0v ) .

La densidad condicional p (λv ξ 0v −1 ) para el valor extrapolado de λv se puede definir

como


( ) ∫ p(λ
p λ v ξv0−1 = v −1 )
ξv0−1 p (λ v λ v −1 ) dλ v −1 (4.22)
−∞

Basándose en (4.21), una estimación λ̂v de una señal se puede calcular como

( ) {
λˆ v = ∫ λ v p λ v ξ 0v dλ v = E λ v ξ 0v } (4.23)

La formula (4.23) para la expectativa condicional (a posterior) lleva al algoritmo de


una señal estimada λ̂v . Es mas, esta formula es optima en un sentido de MSE.
Entonces el error de estimación (4.23) se suministra rápidamente como una
variación a posterior

( 2
) (
Rv = ∫ λ v − λˆ v p λ v ξ0v dλ v ) (4.24)

Hasta aquí se ha observado que todas las transformaciones y notaciones necesarias


fueron proveídas para aplicar a la aproximación Bayesiana para el problema de filtrado.

 Presentación vectorial.

Se ha considerado el caso escalar del filtrado en tiempo discreto. Con esto, en


muchas aplicaciones prácticas (el filtrado de un conjunto de diferentes señales GPS, por
ejemplo) se trata con las señales en tiempo discreto en forma de vector. Entonces se debe
saber como escribir las ecuaciones correspondientes y resolver la tarea de filtrado.
Para las señales en forma de vector se debe formar una observación correspondiente
y las ecuaciones de estado-espacio tal como en las ecuaciones (4.16) y (4.17)

   
ξv = s (tv , λ v ) + n0 v (4.25)
_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 47
Capitulo IV

   
λ v = g (tv , λ v −1 ) + nλv (4.26)

No es difícil mostrar que las transformaciones (4.19) y (4.20) en este caso a

( ) ( )( )
     
p λ v ξv0 = cp λ v ξv0−1 p ξv λ v (4.27)

p (λ ξ ) = ∫ p (λ ξ )p (λ λ ) dλ
    ∞   
v −1 v −1
v 0 v −1 0 v v −1 v −1 (4.28)
−∞

También es posible mostrar que de la misma manera una estimación de un vector de


error esta proporcionado basado en (4.23) como

( )
λˆ iv = ∫ ...∫ λ iv p λ v ξ0v dλ v , i = 1, n

(4.29)
n

Así, la presentación vectorial para las señales esta sujeta a las mismas reglas como
en el caso de la presentación escalar.
Se ha observado que las formulas (4.25)-(4.29) son fundamentales para muchas
aplicaciones practicas, en comunicaciones, sincronización, control, etc.
La teoría de la probabilidad escalar y vectorial para el filtrado digital lineal y no-
lineal esta basado en la teoría Markoviana de procesos aleatorios.

 El modelo de estado en tiempo discreto del modelo ARMA.

Se mencionado previamente que algunos procesos son intrínsecamente discretos y


no tienen nada que ver con una evolución en tiempo continuo. Tales procesos están
frecuentemente descritos en términos de un modelo de Movimientos Promedios
Autorregresivos Autoregressive Moving Average (ARMA), el cual no es más que el
modelo de filtro digital generalizado que consiste de bloques FIR e IIR. Ahora se mostrara
como el modelo ARMA puede ser convertido a la forma estado-espacio.
El modelo ARMA esta dado como
yv + n + a n −1 yv + n −1 + ... + a0 y v = bm wv + m + bm−1 wv + m−1 + ... + b0 wv (4.30)

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 48
Capitulo IV

donde yv es la salida del filtro, wv es la entrada del filtro, m = n − 1 , v = 0,1,... Aquí la


parte izquierda representa puramente al modelo AR y la parte derecha representa
puramente al modelo MA. Notar que el modelo es de un solo lado en v y el orden del MA
es por lo menos uno menor que la parte AR.
La conversión del modelo ARMA a la forma canónica controlable se efectúa
mediante el siguiente procedimiento.
Primero, se debe definir una variable intermedia rv , la cual es la solución de

rv + n + a n −1rv + n −1 + ... + a0 rv = wv (4.31)

Después, se definen las variables de estado

x1v = rv 
x2v = rv +1 
 (4.32)
......... 
xnv = rv + n −1 

Usando las variables de estado como se definieron en (4.32) y la ecuación de


diferencias (4.31), da la ecuación de matrices

 x1( v +1)   0 1 0 0 ...   x1v   0 


x  
 2 ( v +1)  =  0 0 1 0 ...   x 2 v   0 
+   wv (4.33)
 .......   ... ... ... ... ...   ...  ...
      
 x n ( v +1)  − a 0 − a1 − a2 ... − a n −1   x nv   1 

Ahora es necesario reconstruir la variable original yv como una combinación lineal


de los elementos del vector de estado. Esto se puede hacer considerando una superposición
de ecuaciones del tipo dado por (4.31) con el índice v adelantado apropiadamente. Sin
embargo, es más fácil hacerlo con diagramas de bloques usando la transformada z como se
muestra en la figura 4.8.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 49
Capitulo IV

b0 b0x1

wv 1 rv b1z b1x2 yv
z n + an −1 z n −1 + ... + a0

Bmzm b mx n

Figura 4.8. Diagrama del modelo ARMA usando la transformada Z.

Esta claro ahora que la ecuación de salida que se tomo del estado espacio regresa a
yv , es

 x1v 
x 
y v = [b0 b1 ... bn ] 2 v  (4.34)
 ... 
 
 xnv 

4.4 El filtrado Kalman.


La manera estadística más eficiente para realizar la estimación lineal óptima de las
señales aleatorias estacionarias y no–estacionarias fue presentada por los científicos
Americanos R. E. Kalman y R. S. Busy y se toma ahora como la teoría del filtrado lineal
óptimo o simplemente como el filtrado lineal Kalman. El documento de R. E. Kalman
describe la solución recursiva del problema del filtrado lineal de datos discretos que fue
publicado en 1960. Casi al mismo tiempo, los avances de la tecnología en la computadora
digital hicieron posible la implementación considerando la solución recursiva y el número
de aplicaciones en tiempo real. Esta fue la circunstancia fortuita que el filtrado de Kalman
tomo influencia casi inmediatamente.
La teoría Markoviana de procesos gaussianos en los antecedentes de la
aproximación Kalman, basada sobre la cual, se puede estimar la señal a través de la
observación del ruido de manera óptima. Hoy en día, la teoría de Kalman no se aplica
solamente a señales lineales, sino también en señales no–lineales y problemas adaptivos. En

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 50
Capitulo IV

este tipo de estimación, la aproximación Kalman aparece como el más universal del
filtrado óptimo.

4.4.1 Filtrado Kalman unidimensional.


La mejor manera de comprender la esencia del filtrado de Kalman es estudiando
primero los algoritmos de Kalman unidimensionales, como a continuación se presenta.

1. Distribución gaussiana de una señal discreta.

Al considerar la señal de observación discreta ξ v esta es la combinación lineal de la

señal discreta λv y el ruido blanco gaussiano n0 v . Para este caso las ecuaciones de
observación y de estado son:

ξ v = H v λv + uv + n0v (4.35)
λv = β v −1λv −1 + nλv (4.36)

donde el valor inicial de la señal λ (0) = λ0 y, es conocido.

H v Es la llamada medición de coeficientes de acoplamiento de la señal y la observación,

uv Es la función de control determinístico, qué para la tarea de filtración se toma como


cero,
β v Es la función de transición,
n0 v Es el ruido blanco gaussiano discreto de una observación con media-cero y varianza

D0 v = N 0 / 2∆ ,

nλv Es el ruido blanco gaussiano de una señal con media-cero y varianza Dλv ,

∆ = tv − tv −1 Es un paso de la muestra de tiempo discreto (muestra de tiempo).


En el marco de la aproximación gaussiana se puede suponer que el valor inicial de
λ0 esta normalmente distribuida con la densidad de probabilidad previa conocida, entonces
se toma este proceso como un proceso determinístico en perspectiva a λ0 y varianza cero.

De acuerdo con (4.36), todos los valores de λv se obtienen por la transformación lineal de

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 51
Capitulo IV

la secuencia discreta con distribución normativa independiente aleatoria de valores nλv , por

lo tanto, para la distribución normativa λ0 , la secuencia λv , esta también normalmente


distribuida.
La variable aleatoria ξ v en (4.35) es la suma de las dos uniones independientes

normalmente distribuidas de las variables aleatorias H v λv y n0 v . Correspondientemente, los

ensambles aleatorias ξ v −1 = {ξ 0 , ξ ,..., ξ v −1} y {λ v −1 , ξ 0v −1 } son también variables unidas

distribuidas normalmente. A continuación, la aplicación de la regla de probabilidad de la


multiplicación, la cual es:

(
P λ v −1 ξ 0v −1 = ) (
P λv −1 ,ξ 0v −1 )
( )
P ξ 0v −1 (4.37)

Ahora retomando la densidad de probabilidad condicional de la unión de dos


procesos gaussianos como normal. Por lo tanto, la densidad p (λv −1 ξ 0v −1 ) (4.37) es además

normal, y la densidad posterior de la etapa (v-1) es normal también, esto es:

 (λv −1 − λˆV −1 )2 
(
P λv −1 ξ v −1
0 ) = c1 exp − 
 2 Rv −1  (4.38)

donde c1 es una constante normalizada,

λˆv −1 Es la probabilidad condicionada tomada como la estimación óptima de λˆv −1 , Rv −1 es la


varianza posterior de la señal λ .

2. Ecuación escalar en tiempo discreto del Filtro Kalman.

De acuerdo con (4.36), la variable λv con la λv −1 fija, es la suma de las funciones

deterministicas β v −1λv −1 y el ruido gaussiano nλv con media cero y varianza Dλv . De igual
forma, la densidad de probabilidad condicional puede ser encontrada con (4.36), esto es:
 (λv − β v −1λˆv −1 )2 
P(λv λv −1 ) = c2 exp − 
 2 Dλv  (4.39)
_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 52
Capitulo IV

La densidad de probabilidad condicional está dada como sigue:

( ) ( )
P λv ξ 0v −1 = ∫ P λv −1 ξ 0v −1 P(λv λv −1 )dλv −1

−∞ (4.40)

Por lo tanto, sustituyendo las ecuaciones (4.38) y (4.39) en (4.40) y arreglando


después de la integración tenemos:

 (λv − β v −1λˆv −1 )2 
(
P λv ξ v −1
) = c3 exp −
( 
)
 2 β v −1Rv −1 + Dλv
0 2
 (4.41)

Respectivamente, en analogía con (4.40) se puede escribir la densidad condicional


de (4.35) como:

 (ξ − uv − H v λv )2 
P(ξ v λv ) = c4 exp − v 
 2 D0 v  (4.42)

Una formula común para la multiplicación de las probabilidades (4.37)

( ) ( )
P λv ξ 0v −1 = cP λv ξ 0v −1 P(ξ v λv )
(4.43)

con la cuenta de (4.40) y (4.42)

  (λ − β λˆ )2 (ξ − uv − H vλv )2  
(
P λv ξ v −1
) = c exp−  v 2 v −1 v −1 + v
( ) 
  2 β v −1Rv −1 + Dλv
0
2 D0 v  
(4.44)

Ahora, una vez la potencia del índice en el exponencial (4.44) es relativamente de


segundo orden λv , entonces la densidad condicional (4.44) es normal. Entonces, de acuerdo
con el método de inducción matemática, la distribución (4.44) habría de ser normal para la
v arbitraria ya que el valor inicial de λ0 es fijado o distribuido por la ley normal. Es más,

ambas la esperanza λv y la varianza Rv de la ley normal (4.44) pueden ser encontrados


fácilmente a través de la expresión estándar para la densidad normal.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 53
Capitulo IV

1  (λ − λˆ )2    λ2 λ 
exp −  = c exp −  − λˆ 
2πR  2 R    2R R 
(4.45)

Siguiendo con la (4.45) de la esperanza de λ̂ es solo un coeficiente anexo a λ / R ,


y 1 / R es el coeficiente anexado a − λ2 / 2 . Tomando en consideración estas observaciones
mientras se compara la (4.44) y (4.45), se obtiene después la transformación del sistema
que ecuaciones, las cuales son conocidas ampliamente como Ecuaciones del Filtrado
Kalman

λˆv = β v −1λˆv −1 + kv (ξ v − uv − H v β v −1λˆv −1 ) (4.46)

1 1 H2
= 2 + v
Rv β v −1Rv −1 + Dλv D0 v (4.47)

Rv
kv = H v
D0 v (4.48)

Este sistema de ecuaciones es muy importante, ya que la primera ecuación (4.46)


define un algoritmo para la estimación óptima de la señal λ de información, la segunda
ecuación (4.47) muestra la evolución de una varianza posterior, y la tercera ecuación (4.48)
es conocida como la ganancia del filtro Kalman. Notemos que las ecuaciones (4.47) y
(4.48) no dependen de la entrada ni salida. Entonces, pueden ser calculados
independientemente en la primera etapa y por esta razón Rv y kv se consideran como
funciones dependientes del tiempo conocido.

3. Estructura generalizada del filtro Kalman de tipo recursivo.


Al analizar la posible estructura del filtro Kalman, comenzando desde las ecuaciones
generales (4.46) – (4.48), las cuales permiten el diseño directo de la estructura del filtro
Kalman (Figura 4.9).

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 54
Capitulo IV

Figura 4.9. Estructura del Filtro Kalman Recursivo.

Analizando la primera estructura se supone que inicialmente la observación ξ v esta

ausente, entonces H (tv ) ≡ 0 . Entonces, una densidad posterior es igual a la densidad previa
y así obtenemos la (4.46) para este caso

λˆv = β v −1λˆv −1 (4.49)

Analizando la relación (4.49), da una estimación interpolada para una etapa, en otras
palabras, podemos predecir el valor de λv a través del coeficiente de transición β v −1 y el

valor previo λv −1 . El filtro Kalman degenera en este caso solamente lo que esta dentro del

recuadro el cual es llamado filtro de formación de una señal λv . En un caso general, la

parte predicha uv + H v β v −1λˆv −1 es substraída en la entrada del filtro desde una observación

ξ v . Además, una estimación óptima λ̂v es formada como la suma de esta multiplicación

substraída por un coeficiente kv tomando en cuenta el dato previo β v −1λˆv −1 .

4. Estructura generalizada del filtro Kalman de tipo no-recursivo.

Ahora se considerará la posibilidad de diseñar el filtro Kalman en la forma de un filtro


FIR o en la forma no–recursiva. Entonces, para proveer un cálculo no–recursivo se retoma
la (4.46) en la siguiente forma:

λˆ = β v' −1λˆv −1 + H v
Rv
(ξ v − uv ) (4.50)
D0 v

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 55
Capitulo IV

 Rv 
Donde: β v' −1 = β v −1 1 − H v  (4.51)
 D0 v 

La Figura 4.10 muestra la estructura del filtro correspondiente, el cual obviamente es


básico para el algoritmo computacional.

Figura 4.10. Estructura del Filtro de Kalman No – Recursivo

Como puede verse en la Figura 4.10, el filtro consiste de un mismo filtro formador, sin
embargo, no vemos aquí ninguna retroalimentación entre la entrada y la salida, entonces,
esta estructura del filtro es no–recursiva. La salida es formada aquí como la suma del valor
predicho obtenido por el filtro formador y la observación multiplicada por el coeficiente

H v  v .
R

 D0v 

En efecto se debe notar que es difícil dar preferencia a la estructura recursiva o no


recursiva en un caso común por que los algoritmos para ambos son formados de las mismas
ecuaciones. Para demostrarlo, se considerará y se comparará bajo varios algoritmos de
filtrado Kalman siendo basado en las ecuaciones generales para el tipo recursivo (4.46) –
(4.48) y del tipo no–recursivo (4.50) y (4.51). Entre todas las posibles soluciones, el
algoritmo Kalman estacionario cuasi–óptimo es el más simple.

5. Estructura generalizada del filtro Kalman de tipo cuasi-optimo.


Una característica especialmente importante del filtro Kalman (Fig. 4.9) es su principal
habilidad para realizar un filtrado preciso de una señal no–estacionaria, porque el
coeficiente kv esta cambiando en el tiempo siendo dependiente de las propiedades de
_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 56
Capitulo IV

observación. Más bien, el filtro no–estacionario es guardado siempre en el caso de los


parámetros constantes β , Dv , H , u y D0 .

Este hallazgo importante es debido a la transición de la varianza Rv . En efecto, una vez

que β , Dv , H , u y D0 son constantes y el límite de Rst = lim Rν existe, entonces la


ν →∞

estimación puede ser formada como sigue:

λˆ = βλˆv −1 + H
Rst
(ξ v − uv − Hβλˆv −1 ) (4.52)
D0

Notemos que la estimación (4.52) es no–óptima estrictamente hablando. No obstante,


esta estimación se exhibe óptimamente asintótica con tv → ∞ . Por esta razón, el
procedimiento del filtro Kalman con los parámetros constantes (4.52) es llamado filtro
estacionario o cuasi–óptimo.

La Figura 4.11 muestra la figura generalizada del filtro Kalman estacionario, mientras
se analiza la estructura de la figura 4.11, se llega a la deducción obvia, esto es el filtro
Kalman estacionario es la estructura posible más simple, la cual esta disponible en un
marco de aproximación Kalman.

Figura 4.11. Estructura del Filtro de Kalman Cuasi - Óptimo

Este es el filtro Kalman estacionario más simple y es obtenido con la siguiente


consideración: Suponga que no hay ningún conocimiento preliminar sobre la entrada,
entonces nosotros no podemos poner tempranamente los coeficientes del filtro en la forma

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 57
Capitulo IV

apropiada y la mejor idea es ponerlos con valores mínimos, esto es H = 1, β = 1, u = 0 .


Instantáneamente se tiene la siguiente ecuación:

λˆv = λˆv −1 +
Rst
(ξ v − λˆv −1 ) (4.53)
D0

donde Rst es obtenida de la ecuación (4.47) con tv → ∞ y Rv = Rv −1 a través de la igualdad

Rv2 + Rv Dλv = Dλv D0 v . A pesar del valor previo λv en el momento inicial se toma

usualmente como λ0 = ξ 0 , debido a la ausencia de cualquier información en el momento

inicial, para mostrar trascendencia se pone inicialmente a λ0 = 0 .

4.4.2 Filtrado Kalman multidimensional en tiempo discreto.


A continuación se describe el filtrado Kalman multidimensional el cual se emplea
en el trabajo de tesis para hacer la estimación optima del error de tiempo, se emplean los
filtros Kalman de dos y de tres estados respectivamente para hacer las comparaciones con
el filtro de promedios móviles óptimamente centrados.
El caso escalar no es extensamente usado en el filtrado Kalman, la razón es que el
filtro no iguala la señal del sistema en el modelo de estado, esto es, el filtro no es óptimo
desde este punto de vista. El caso más general es el que consiste la ecuación del filtro
estado–espacio del número de estados apropiados, este es el caso vector o
multidimensional. Básicamente, debe iniciar con la consideración llamada caso
multidimensional y entonces determinar el número de estados del filtro.
1. Ecuaciones de Kalman Multidimensionales.

Se empieza por asumir que la observación del proceso ξ v que es tomado como

puntos en tiempo discreto, y el proceso aleatorio λv para ser estimada se pueden modelar
de la siguiente forma:
ξ v = H v λv + uv + n0v (4.54)
λv = Av −1λv −1 + nλv (4.55)

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 58
Capitulo IV

donde λv = [λ1v λ2v ... λnv ]T es el vector de la señal de dimensión n x 1,

ξ v = [ξ1v ξ 2 v ... ξ mv ]T es el vector de observación de dimensión m x 1, H es la matriz de


medición (m x n) dada la conexión ideal entre el vector de la medición y el vector de
tiempo, esto es:
 H11v H12 v ... H1mv 
H H 22 v ... H 2 mv 
H v =  21v (4.56)
 ... ... ... ... 
 
 H n1v H n 2v ... H nmv 

uv es el vector de control m x 1, el cual es igual a cero para simplificar la tarea del filtrado
y puede tener la siguiente forma:

uv = [u1V u2 v ... umv ]


T
(4.57)

Av −1 es una matriz de n x n que relaciona a λv con λv −1 en ausencia de la función forzada

(si λv es una muestra del proceso continuo, Av −1 es la matriz de transición de estados), esto
es:
 A11v A12 v ... A1nv 
A A22 v ... A2 nv 
Av =  21v (4.58)
 ... ... ... ... 
 
 An1v An 2 v ... Annv 

n0 v y nλv son la unión discreta independiente de los vectores de ruido blanco gaussiano con
el de observación de la señal independientemente, con media cero y matriz de covarianza
Vv y Ψv de dimensiones m x m y n x m respectivamente.

k =v
[ T
E nov nok
V
= ] k≠v
(4.59)
0
Ψ k = v
[
E nλv nλTk ] = (4.60)
0 k ≠ v

Así, que para toda k y v, el ruido es no correlacionado, esto es:

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 59
Capitulo IV

[ ]
E n0 v nλTv = 0 (4.61)

Para asumir que estos puntos que se han estimado inicialmente del proceso en
algunos puntos en tiempo tv , y que esta estimación es trazada sobre todo conocimiento

acerca del proceso previo de tv . Esta estimación previa debería denotarse como λˆv −1 donde
la testa denota “la estimada”, y el signo negativo (-1) es un recordatorio que esta es una
buena salida estimada previa para asimilar la medición en tv . También, se asume que se

conoce el error asociado con la matriz de covarianza con λˆv −1 , que se denota como error de
estimación y tiene la siguiente forma:

ε v −1 = λ v − A v −1 λ̂ v −1 (4.62)

y el error asociado en la matriz de covarianza es el error de estimación de media cero.

[ ] [
R v −1 = E ε v −1εTv−1 = E (λ v − A v −1λˆ v −1 )(λ v − A v −1λ
ˆ v −1 )T ] (4.63)

En muchos casos, se empieza el problema de estimación con mediciones no previas,


esto es, en este caso, si el proceso es cero, la estimación inicial es cero, el error asociado de
la matriz de covarianza es solamente la matriz de covarianza de λ es la misma.
Con la suposición de la estimada previa λˆv −1 , ahora se ve que al usar la medición ξ v
para manejar la estimada previa, se escoge una mezcla lineal del ruido de medición y la
estimada previa en acuerdo con la siguiente ecuación:

λˆv = A v −1λˆv −1 + K v (ξ v − u v − H v A v −1λˆv −1 ) (4.64)

donde λ̂v es la estimada del dato actual, K v es la ganancia del filtro el cual va ha ser
determinado.

2. La ganancia de Kalman.
El problema ahora es encontrar la ganancia del filtro Kalman que produzca una
estimación actual que sea óptima en algún sentido. Justamente como la solución de Wiener,
se usa el error medio cuadrático como el criterio desarrollado, primero para la expresión de
_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 60
Capitulo IV

la matriz de error con la covarianza asociada del dato de estimación actual y toma la
siguiente forma:

[ ] [
R v = E ε vε vT = E (λv − λˆv )(λv − λˆv )
T
] (4.65)

sustituyendo la (4.54) dentro de la (4.64) y el resultado a su vez se sustituye dentro de


(4.65) se tiene que:
R v = E {[(λv − A v λˆv −1 ) − K v (H v λv + n0 v − H v A v −1λˆv −1 )]
(4.66)
x[(λv − A v λˆv −1 ) − K v (H v λv + n0 v − H v A v −1λˆv −1 )]
T

ahora desarrollando la expresión indicada y notando que (λ


v − λˆv −1 ) es el error de

estimación previa que es no correlacionado con el error de medición n0 v

R v = (I − K v H v )R v −1 (I − K v H v ) + K v Vv K VT
T
(4.67)

donde I es la matriz identidad, nótese que en (4.67) es una expresión general perfecta para
la matriz de covarianza del error, y esta aplicado para cualquier ganancia óptima K v o sub
óptima en otro caso. Volviendo al problema de optimización, se desea buscar en particular
K v que minimice el término individual a lo largo de la diagonal principal de R v (4.67),

debido a que estos términos representan las variaciones del error para los elementos de λv
del vector de estado al incidir la estimación. Ahora expandiendo la forma general de (4.67)
se puede rescribir de la siguiente manera:

(
R v = R v −1 − K v H v R v −1 − R v −1HTv K Tv + K v H v R v −1HTv + Vv K Tv ) (4.68)

Se nota que el segundo y el tercer elemento son lineales en K v y que el cuarto

termino es cuadrático en K v . La diferenciación de la matriz R v puede ser aplicada en


(4.68) para desear la mínima en la traza, ya que esta es la suma de los errores MSE en la
estimación de todos los elementos del vector de estado. Se puede usar el argumento aquí
que es el error individual MSE son también minimizadas cuando el total es minimizado.
Proporcionando

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 61
Capitulo IV

d (traza R v )
dK v
T
(
= −2(H v R v −1 ) + 2K v H v R v −1HTv + Vv ) (4.69)

ahora, se toma que la derivada es igual a cero y resolviendo para la ganancia óptima se
tiene el siguiente resultado:

K v = R v −1 H Tv (H v R v-1 H Tv + Vv ) -1 (4.70)

donde se nota que R v −1 = R Tv−1 . Esta en particular, la llamada K v , la que minimiza el error
medio cuadrático de la estimación es llamada ganancia de Kalman.

3. El error de filtrado Kalman.

La matriz de covarianza asociada con la estimación óptima se puede calcular por


comparar la (4.67) y (4.68).

R v = (I − K v H v )R v −1 (I − K v H v ) T + K v Vv K Tv

= R v −1 − K v H v R v −1 − R v −1 H Tv K Tv + K v (H v R v −1 H Tv + Vv )K Tv (4.71)

sustituyendo la rutina de la expresión de la ganancia óptima (4.70) dentro de (4.71) y


arreglando se tiene:

R v = R v −1 − R v −1 H Tv (H v R v −1 H Tv + Vv ) −1 H v R v −1 (4.72)
R v = R v −1 − K v (H v R v −1 H Tv + Vv ) −1 K Tv (4.73)
R v = (I − K v H v )R v −1 . (4.74)

4. Algoritmos del filtro Kalman.


Ahora se generalizara las consideraciones hechas mientras se presentan los
algoritmos del filtrado óptimo de Kalman para dos situaciones comunes.
El primer caso es si m ≥ n . Este caso corresponde para la situación donde el
número de observaciones es más o igual que el número de estados. Primero se predecirá el
error inicial de R v −1 y la estimada λˆv −1 . El algoritmo óptimo de Kalman se llega a ser:

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 62
Capitulo IV

R v−1 = [ A Tv−1 R v −1 A v −1 + Ψ v ] −1 + H Tv Vv−1 H v (4.75)

v=v+1 K ν = R ν HTν Vν−1 (4.76)

λ
ˆ ν = A ν −1λ
ˆ ν −1 + K ν ( ξ ν − u ν − H ν A ν −1λ
ˆ ν −1 ) (4.77)

donde la ganancia K v (4.76) se rescribe directamente basada en el caso de una dimensión.


Después del primer ciclo, se cambia la etapa v = v + 1 y actualiza la estimación.

Para el segundo caso que m < n al considerar el caso de arriba y en esta es, la
situación donde el número de observaciones son menos que el número de estados. La forma
alternativa de las ecuaciones (4.75)  (4.77) para estas ecuaciones esta basada en el uso de
la matriz de conversión, por lo que se tiene el algoritmo de filtrado Kalman óptimo para
este caso.
~
R v = A Tv−1 R v −1 A v −1 + Ψ v (4.78)
~ ~
K v = R v H Tv (H v R v H Tv + Vv ) −1 (4.79)
v=v+1
λ
ˆ ν = A ν −1λ
ˆ ν −1 + K ν ( ξ ν − u ν − H ν A ν −1λ
ˆ ν −1 ) (4.80)
~
R v = (I − K v H v ) R v (4.81)

donde el símbolo “~” denota la predicción de la etapa principal. Ahora se nota que para
todos los algoritmos multidimensionales, una expresión analítica del error de filtrado vía
expresión de la matriz y la ganancia es un requerimiento problemático extremo en el
camino óptimo.
Se tiene finalmente la representación del algoritmo de Kalman esquemáticamente,
puesto que este es un algoritmo de cálculo, en la siguiente figura 4.12 se muestra el
correspondiente ciclo del filtro.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 63
Capitulo IV

Figura 4.12. Forma esquemática del Algoritmo de Kalman.

4.5 El modelo ARMA (Auto Regressive Moving Average).


Una aproximación alternativa para describir y optimizar el filtro en tiempo discreto
esta basada en la consideración del modelo Auto Regressive Moving Average (ARMA).
Muchos diseños de algoritmos en sistemas control y algoritmos de filtrado se han
examinado desde hace varias décadas atrás. Basado en el conocimiento de los parámetros
del modelo en el proceso de señal y muchos algoritmos ARMA, MA y AR puros pueden
ser designados para proveer el filtrado y control óptimo.
En la Figura 4.13 se presenta el problema continuo que puede ser situado en el
siguiente camino: dado las condiciones iniciales y la entrada aleatoria x(t ) , y las
características dinámicas del sistema G (S ) y la salida y (t ) . Como se muestra a
continuación:

Figura 4.13 Problema continuo.


_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 64
Capitulo IV

Esta es conocida como teoría de sistemas donde la ecuación del sistema en tiempo
continuo se escribe generalmente como:

(b d
m
m
) (
+ bm −1d m −1 + ... + b1d + b0 x(t ) = d n + an −1d n −1 + ... + a1d + a0 y (t ) ) (4.82)

donde la d es el operador de derivada, x(t ) y y (t ) son la entrada y la salida del sistema


lineal. La función de transferencia del sistema es:

bm s m + bm −1s m −1 + ... + b1s + b0


G (S ) = (4.83)
s n + an −1s n −1 + ... + a1s + a0

Esta debe ser aparentemente que el proceso en tiempo continuo x(t ) generada por
(4.82) puede ser cualquier señal estacionaria o no–estacionaria, dependiendo en la
característica de estabilidad de G (S ) y de las condiciones iniciales. Al hablar del tiempo
discreto, la relación entrada–salida correspondiente a la (4.82) es la ecuación en diferencias
y esta toma la siguiente forma:

φn yv − n + φn −1 yv − n −1 + ... + φ1 yv −1 + φ0 yv = θ m xv − m + θ m −1 xv − m −1 + ... + θ1 xv −1 + θ 0 xv (4.84)

donde xv es la entrada en tiempo discreto (observación), yv es la salida en tiempo discreto,

φn y θ n son los coeficientes discretos de la función de transferencia correspondiente (4.83).


Sin pérdida de una generalidad, se puede poner en la función φ0 = 1 y arreglando
después tiene la siguiente forma:

n m
yv = ∑ φ j yv − j + ∑θ i xv − i (4.85)
j =1 i =0

la cual es conocida como el modelo ARMA de la señal yv y, φn y θ n son los llamados


coeficientes del modelo ARMA. En la práctica frecuentemente se usan casos particulares
de este modelo, como se podrá ver en los siguientes apartados (4.5.1) y (4.5.2).

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 65
Capitulo IV

4.5.1 AR (Auto Regressive).

El modelo ARMA se compone de dos bloques, uno IIR que es la parte AR


(izquierda) y el otro bloque es un filtro FIR que es la parte MA (derecha). A continuación
se mostrara la parte del modelo AR.
Modelo Auto Regresivo (AR). Este modelo esta formado con θ i = 0 en (4.85) y se
presenta de la forma siguiente:
n
y v = ∑ φ j yv − j (4.86)
j =1

En la practica, se usa a menudo el proceso de auto regresivo en primer orden (n =


1) y de segundo orden (n = 2). El sentido del nombre “Auto Regresivo” se justifica por el
hecho de que la salida yv regresa en valor precedentes a n yv − j , j = 1, 2,…, n.

4.5.2 MA (Moving Average).

Modelo de Movimientos promedios (MA). Que es formado cuando φ j = 0 en

(4.86) y esta tiene la siguiente forma:


m
yv = ∑θ i xv − i (4.87)
i =0

En la forma anterior (4.87), para el modelo MA, la salida yv esta formada por m + 1

valores precedentes de la entrada xv − i , i = 0, 1,…, m. En la practica al usar el modelo MA


sin limitaciones con respecto para el orden m.
El simple MA es el filtro más común en el procesamiento digital de señales,
principalmente porque este es un filtro digital fácil de comprender y usar. A pesar de esta
simplicidad, el filtro simple MA es óptimo para una tarea en común: reducir el ruido blanco
mientras retiene una respuesta a un paso pronunciado. De cualquier modo, el filtro MA
simple es el peor filtro para las señales codificadas en el dominio de la frecuencia, con poca
habilidad para separar una frecuencia con otra.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 66
Capitulo IV

La ecuación del filtro simple MA es fácil de mostrarse en su forma general (4.87) si


para asumir que se promedia N = m – 1 miembros y todos los coeficientes pueden ser

identificados como constantes θ i = 1 , esto es:


N
N −1
1
yv − M =
N
∑x
i =0
v −i (4.88)

donde M es un entero adicional dependiente de la aplicación del filtro.


Este modelo (4.88) es usado extensamente en diferentes secciones técnicas y
científicas para estimar parámetros de una señal con ruido reducido. Dependiendo del valor
de M son las diferentes aplicaciones de este modelo. Por ejemplo:

 Si M = 0 entonces la estimada y0 relaciona al último punto del proceso promedio, de


esta manera, esta se clasifica como la tarea del filtrado y el modelo (4.88) representa el
filtro simple MA.

 Si 0 < M < N – 1 entonces la estimada yv − M relaciona al último punto arbitrario del


proceso pero no para el ultimo punto. Este caso es usado en estadística y análisis de
series en tiempo no real, así, en términos de filtrado óptimo esta es la tarea de
suavizado. Esta tarea es solucionada en forma óptima cuando M toma usualmente un

valor medio en el rango anteriormente mencionado, pero si M ≈ ( N − 1) entonces la


2
estimada se relaciona por el centro del proceso promedio.
Ahora se presentara la estimación del error del modelo simple MA. Se asume el
proceso promedio xv = ξ v (observación) esta dado por el modelo aditivo

ξ v = λ v + n0 v (4.89)

donde n0 v es el ruido blanco discreto con media cero y varianza

N0
σ 2n = (4.90)
2∆

donde N 0 / 2 es la varianza del correspondiente ruido blanco continuo.


_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 67
Capitulo IV

Entonces basándose en (4.88) se escribe la estimación del filtro MA simple (M=0)

N −1 N −1 N −1
1 1 1
λˆv =
N
∑ ξv −i =
i =0 N
∑ λv −i +
i =0 N
∑n
i =0
0(v −i )
(4.91)
= E[λv − i ]N + E[n0 ( v − i ) ]N

donde E[λ v −i ] N representa la estimación regular y E[n0 ( v −i ) ] N representa la parte aleatoria.

Ahora observando que E[n0 ( v −i ) ] N es el ruido blanco discreto n0 Nv con varianza reducida

por N veces, esto es,

N0
σ nN
2
= . (4.92)
2 N∆

Finalmente rescribiendo a (4.91) en la forma de

λˆ v = E[λ v −i ] N + n0 Nv (4.93)

Evaluando el error estimado como

ε v = λ v − λˆ v (4.94)

y calculando su promedio

E[ε v ] = E[λ v − E[λ v −i ] N ] − E[n0 Nv ] ≈ ∆λˆ v = bias , (4.95)

donde el primer termino representa el error regular de filtrado (bias) (la inclinación)
[durante todo el texto se manejara como bias] y el segundo termino muestra la influencia
del ruido. Debido a que se asume que el ruido tiene media-cero, se pone en (4.95)
E[n0 Nv ] ≈ 0 y se observa que el error promedio del filtro MA simple se debe
principalmente al bias promedio.
La varianza estimada del error de filtrado, es,

σ 2MA = E[(ε v − ∆λˆ v ) 2 ] = E[(λ v − λˆ v − ∆λˆ v ] 2 }


. (4.96)
= E[(λ − E[λ ] − n − ∆λˆ ) 2 ]
v v −i N 0 Nv v

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 68
Capitulo IV

Ya que λ v − E[λ v −i ] N no es más que el bias entonces con la consideración de (4.95) se


puede escribir,

N0
σ 2MA = E[n02Nv ] = . (4.97)
2 N∆

Ahora es importante notar que el bias es el principal problema del filtro MA simple
y su ruido se reduce por N veces comparado al de entrada de origen.

4.5.3 Filtrado Kalman en el modelo ARMA.


Al considerar el filtro en tiempo discreto dado por el modelo ARMA se tiene la
siguiente ecuación general:
n m
λˆ = −∑ φ j λv − j + ∑θ i nv − i + γnv (4.98)
j =1 i =0

donde λ̂v es la señal y n̂v es el ruido blanco gaussiano con media-cero y varianza

normalizada, φ j y θ j son los coeficientes del modelo ARMA para ser estimados en el

sentido óptimo. Note que cuando estos coeficientes óptimos del filtro en tiempo discreto
serian óptimos con respecto a la señal dada.
Un posible camino para tomar la estimada de los coeficientes φ j y θ j esta basada en la

aplicación del filtrado Kalman y esto es a través de las ecuaciones de estado – espacio en la
forma conocida de
ξ v = H v λ v + u v + n 0v (4.99)
λ v = A v −1λ v −1 + n λv (4.100)

Para transferir las formas de (4.99) y (4.100), introducir el error estimado actual

n m
ε v = λv + ∑ φˆ j λv − j − ∑θˆi nv − i (4.101)
j =1 i =1

suponiendo que el modelo ARMA para el filtrado Kalman (4.98) es totalmente observable,
esto es ξv = λ v , se puede rescribir como:

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 69
Capitulo IV

n m
ξv = λ v = −∑ φ j λ v − j + ∑ θi nv − i + γnv (4.102)
j =1 i =0

y llevando la (4.99) para formar la matriz estándar como:

ξv = H v −1Λ v + γnv (4.103)

donde la matriz de medición, es de dimensiones de 1 x (n + m) y tiene la siguiente forma:


H v −1 = [− λ v −1 − λ v − 2 ... λ v − n nv −1 ... nv − m ], la matriz de estado – espacio de los

coeficientes del filtro, de dimensiones de (n + m) x 1 es: Λ = [φ1 ... φn θ1 ... θm ] , es


T

más, debido a que la matriz es constante en el tiempo entonces la ecuación de la señal es


inherente a la ecuación de transferencia (4.100) de la siguiente forma:

Λ v = Λ v +1 (4.100′)

4.6 El filtro de promedios móviles óptimamente centrados OMA.

De todos los filtros conocidos, el filtro de promedios móviles simple,


inherentemente produce el ruido más pequeño. Al mismo tiempo el simple MA produce
una gran bias, el cual es del 50% desde que la señal es filtrada. Entonces los coeficientes
constantes del modelo MA no son la solución óptima en términos de estimación de error.
También se ha mostrado que el filtro Kalman identifica los coeficientes del modelo en una
manera óptima una vez que es conocida la entrada. Alternativamente, una estimación del
bias puede ser óptimamente compensada si se usa una aproximación estocástica óptima
lineal como un estimador del bias. A continuación se hace el análisis de la siguiente
manera.
Normalmente para saber el intercambio (tradeoff), debemos examinar cada filtro
para el modelo del error de tiempo identificado por el polinomio finito:

D 2 2
xn = x0 + y0 ∆n + ∆ n + wxn (4.104)
2

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 70
Capitulo IV

donde n = 0, 1,...; ∆ = tn − tn −1 es una muestra de tiempo; tn es el tiempo discreto; x0 es el

error de tiempo inicial; y0 es el desplazamiento de la frecuencia fraccional inicial de la


frecuencia de referencia de un reloj local; D es la razón de fluctuación de la frecuencia
fraccional lineal; y wxn es un componente de desviación del error de tiempo aleatorio. La
eliminación del bias del filtro de promedios simple, con la ayuda de la aproximación
estocástica, tomando en cuenta que el error de tiempo (4.104) ordinariamente esta
cambiando lentamente y bastante lineal durante el intervalo promedio θ = ∆( N − 1) .

1. El bias de un movimiento promedio simple.

Consideremos la observación no-estacionaria en tiempo discreto ξ v dada en un

intervalo de tiempo limitada por los puntos discretos v − N + 1,..., v (Fig. 4.14).

Figura 4.14 Bias producido por el simple MA.

Asumamos que la señal esta cambiando linealmente en un intervalo promedio y la


observación es una mezcla de una señal λv y un ruido blanco gaussiano n0 v con media-cero

y varianza σ n2 , esto es,

ξ v = λ v + n0 v (4.105)

Estimando la señal con el filtro de movimientos promedios simple


_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 71
Capitulo IV

N −1
1
λˆ ′v =
N
∑ξ
i =0
v −i (4.106)

entonces la estimación del bias inherentemente se ve como en la figura 4.14 y es,

∆λˆ v = λˆ ′v − λ v ≅ λ v − N +1 − λˆ ′v (4.107)

Ahora se nota que el bias parece despreciable al relacionarse al centro del intervalo
promedio. Entonces se plantea la tarea: Encontrar una función de peso adicional Wv′(N )
para el filtro MA simple (4.106), apuntando a eliminar el bias (4.107) de la siguiente
manera
N −1
1
λˆ v =
N
∑W ′( N )ξ
i =0
i v −i (4.108)

y proporcionando la nueva estimación unbiased en una forma de modelo MA

N −1
λˆ v = ∑ Wi ( N )ξ v −i (4.109)
i =0

donde Wv ( N ) = Wv′( N ) / N es el peso requerido con los coeficientes del modelo MA a ser
identificados en una manera optima.

2. Función de peso optimo.


Presentemos la tarea. Ya que la señal es asumida como lineal entonces la estimación
sin inclinación unbiased (Fig. 4.14) se puede obtener formalmente por (4.106) de la
siguiente manera

λˆ v = λˆ ′v − ∆λˆ v ≅ λˆ ′v − (λ v − N +1 − λˆ ′v ) = 2λˆ ′v − λ v − N +1 (4.110)

donde la variable desconocida λv − N +1 es el valor de la señal del punto inicial. Si se supone

que esta variable λv − N +1 es conocida explícitamente entonces la estimación (4.110) podría


ser unbiased con el mismo ruido pequeño que inherentemente es producido por el
movimiento promedio simple.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 72
Capitulo IV

Ciertamente, no se conoce λv − N +1 y se debe de encontrar la manera de evaluarlo


aproximadamente. Ahora recalcando que la regresión lineal sirve en estadística como una
aproximación estocástica optima en cierto sentido de mínimos cuadrados least mean
squares (LMS) para el proceso como el de la figura (4.110). Para la señal lineal la función
de regresión lineal es una aproximación óptima en el intervalo promedio de n − N + 1,..., n ,
esto es,
L(t ) = a v + bv (t − cv ) (4.111)

donde av , bv y cv son los coeficientes dados como

1 N −1
a v = E[ξ v ] = ∑ ξ v−i = λˆ ′v
N i =0
(4.112)

Cov(ξ v , t v ) E[(ξ v − a v )(t v − cv )]


bv = = (4.113)
σ tv2 E[(t v − cv ) 2 ]
1 N −1
c v = ∑ t v −i (4.114)
N i =0

donde Cov(ξ v , tv ) es la covarianza de ξ y t, y σ tv2 es una varianza formal de tiempo.


Desde (4.111) las aproximaciones estocásticas a cada punto del proceso en la
manera optima, entonces su valor L(tv − N +1 ) se puede tratar como la evidencia mas precisa

de λn − N +1 . Entonces se debe poner

λ v − N +1 ≅ L(t v − N +1 ) . (4.115)

Substituyendo (4.112) y (4.115) por (4.110) da una formula

λˆ v = λˆ ′v − bv (t v − N +1 − cv ) (4.116)

para la cual, primero, se calcula (4.114)

1 N −1
t v − N +1 + t v (v − N + 1)∆ + v∆
cv =
N
∑t
i =0
v −i =
2
=
2
(4.117)
 N −1
= ∆ v − 
 2 

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 73
Capitulo IV

entonces una transformación de rutina produce la varianza

1 N −1
N 2 −1
σ tv2 =
N
∑ (t v−i − cv ) 2 = ∆2
i =0 12
(4.118)

y da la covarianza de ξ y t, esto es,

N −1
1
Cov(ξ v , t v ) =
N
∑ (ξ
i =0
v −i − a v )(t v −i − cv )
(4.119)
∆ N −1
 N −1 
=
N
∑ 
i =0  2
− i ξ v −i

Ahora substituyendo (4.113), (4.117)-(4.119) por (4.116), haciendo la


transformación, se tiene la deseada estimación de movimientos promedios óptimamente
centrados.

N −1
2(2 N − 1) − 6i
λˆ v = ∑ ξ v −i , (4.120)
i =0 N ( N + 1)

y escribiendo la función de peso optimo requerida

 2(2 N − 1) − 6i
 , 0 ≤ i ≤ N −1
Wi ( N ) =  N ( N + 1) (4.121)
 0, otherwise

la cual aparentemente no es igual a cero solo en el intervalo promedio.

3. Análisis de la función de peso.


Primero, hay que notar que la formula (4.121) es lineal con un máximo de

2N − 1
W0 ( N ) = 2 (4.122)
N ( N + 1)

y un mínimo de
N −2
W N −1 ( N ) = −2 (4.123)
N ( N + 1)

y con un nivel de cero en

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 74
Capitulo IV

2N − 1
n0 = . (4.124)
3

La figura 4.15 muestra la forma de la función de peso óptimo (4.121), cuyo análisis
muestra que la función exhibe la parte asimétrica y la parte negativa.

Wi(N)
W0(N)

N−1
-1 0 1 2 … n0 N i

WN−1(N)

Figura 4.15 Función de peso optimo.

Hay dos características especiales importantes de la función de peso (4.121),


llamadas:
 Su cuadrado es unitario, así, en términos de procesamiento digital de señales entonces
no es mas que la respuesta impulso del filtro FIR;
 La relación máximo-mínimo de peso tiende

W0 ( N )
lim =2 (4.125)
N →∞ W
N −1 ( N )

Esto significa que el peso puede reconstruirse fácilmente mientras se diseña el filtro.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 75
Capitulo IV

4. Los errores de filtrado y optimabilidad.


Ahora se examinaran los errores de filtrado y optimidad del filtro de movimientos
promedios óptimamente centrados (4.120). El error cuadrático medio (MSE) del filtro es
entonces

E[ε v2 ] = E[(λ v − λˆ v ) 2 ] (4.126)

donde se asume que la señal que cambia linealmente en el intervalo promedio, así que

λ v = b0 + b1 ∆v , (4.127)

donde b0 y b1 son constantes.


Para tener las formas mas compactas, se rescribe la estimación (4.109) en la forma
de matriz

N −1
λˆ v = ∑ Wi ( N )ξ v −i = ξ TN WN , (4.128)
i =0

donde
ξ N (v) = [ξ v ξ v −1 ...ξ v − N +1 ]T (4.129)

es un vector de datos de observación, de dimensiones N×1,

WN = [W0 ( N ),W1 ( N ),...,W N −1 ( N )]T (4.130)

son los coeficientes de la matriz del filtro de movimientos promedios, de dimensiones N×1.
Presentando la observación (4.105) como

ξ N (v ) = λ N (v ) + n N (v ) (4.131)

donde

λ N (v) = [λ v λ v −1 ...λ v − N +1 ]T (4.132)

es el vector de datos del error de tiempo, de dimensiones N×1,

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 76
Capitulo IV

n N (v) = [n0 v n0 ( v −1) ...n0 ( v − N +1) ]T (4.133)

es el vector de datos de ruido, de dimensiones N×1.


Sin perder la generalidad, se puede omitir b0 = 0 (este termino no influye en el
error en estado-continuo), y se escribe

E[ε v2 ] = E[(b1 ∆v − λ TN WN − n TN WN ) 2 ]
(
= b12 ∆2 v 2 − 2b1 ∆vλ TN WN + λ TN WN WNT λ N ) + E[n TN WN WNT n N ]
(4.134)
− 2b1 ∆vWNT E[n N ] − 2λ TN WN WNT E[n N ]

Ahora transformando esta expresión. Se presenta a (4.132) como

λ N (v) = b1 ∆[v v − 1 ...v − N + 1]T = b1 ∆v N (4.135)

donde

v N (v) = [v v − 1 ...v − N + 1]T (4.136)

es un vector digital, de dimensiones N×1. Entonces la expresión entre paréntesis en (4.137)


a causa de (4.135) se transforma a b12 ∆2 (v − v TN WN ) 2 .
El siguiente término en (4.134) da después de la transformación

E[n TN WN WNT n N ] = σ 2n WN WNT , (4.137)

Recalcando que el ruido es de media cero, esto es E[n N ] = 0 . Esto significa que los
dos términos pasados en (4.134) son iguales a cero.
Finalmente se llaga a

(
E[ε v2 ] = b12 ∆2 v − v TN WN )
2
+ σ 2n WNT WN . (4.138)

De esto se deduce que:


 El primer término en (4.138) es un bias de segundo orden. Si la expresión entre
paréntesis tiende a cero, esto es v − v TN WN → 0 , la desviación se compensa en el
sentido de LMS, y se asume que el filtro esta compensado óptimamente;

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 77
Capitulo IV

 El segundo término σ OMA


2
= σ 2n WNT WN en (4.138) es la varianza del ruido del nuevo
filtro.
Examinando la compensación de la inclinación (4.138) por el primer punto MA,
esto es v = N − 1 en (4.138). Entonces la expresión N −1 − v TN WN con consideración de
(4.138) resulta

N − 1 − vTN WN = 0 . (4.139)

Así, el bias esta compensado totalmente, entonces el filtro es óptimo asintoticamente.


Examinando el ultimo termino en (4.138) tomando en cuenta a (4.121) y mostrando
que

σ n2 WNT WN ≅ 2σ nN
2
, (4.140)
N =2

σ 2n WNT WN ≅ 4σ 2nN , (4.141)


N >>1

donde σ 2nN = σ 2n / N es la varianza de un ruido discreto de un filtro MA simple para el


intervalo promedio de N puntos.

Entonces se concluye:

 El filtro es óptimamente centrado (optimally unbiased) con el bias totalmente


compensado en el caso de una señal lineal.

 El ruido del filtro de movimientos promedios óptimamente centrados depende del


número de puntos en el promedio, esto es 2σ nN ≤ σ OMA ≤ 2σ nN .

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 78
Capitulo V

Capitulo V.
5.0 La señal de referencia, el ruido y la observación.

Las simulaciones se realizaron con el archivo de datos Gpsp0202.prn el cual


contiene 2720 muestras y el archivo de datos Gpsp1401.prn, que contiene 851 muestras.
Estos archivos contienen los datos que se utilizan en el trabajo de tesis para simular a las
señales de observación y de referencia GPS. La finalidad de utilizar dos archivos es para
poder comparar los errores de tiempo obtenidos en cada uno y describir las diferencias
encontradas en cada uno para la estimación del error de tiempo. Los resultados del análisis
y comparaciones se hacen al final de este capitulo.

Figura 5.1 Señal de referencia Gpsp0202.

Figura 5.2 Señal de referencia Gpsp1401.


_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 79
Capitulo V

En las figura 5.1 y 5.2 se tienen la señal de referencia se asume como la señal mas
precisa, esta señal es precisa porque proviene de una fuente GPS, la cual es de un orden de
10−12 ns de precisión. Aunque hay que recordar que estas señales están acompañadas de
ruido.
La función de ruido nv = ξ v − xv las graficas son las siguientes:

Figura 5.3 Ruido Gpsp0202. Figura 5.4 Ruido Gpsp1401.

En las graficas 5.3 y 5.4 podemos observar que el ruido es Gaussiano, ya que su
densidad de probabilidad obedece a la ley normal. En la figura 3.7 del capitulo III se
muestra la explicación al ruido blanco gaussiano y distribución no – gaussiana.

Para la señal de observación ξ v = xv + nv tenemos la siguiente grafica:

Figura 5.5 Señal de observación Gpsp0202. Figura 5.6 Señal de observación Gpsp1401.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 80
Capitulo V

En la señal de observación podemos ver como el ruido nv “envuelve” la forma de la

señal de referencia xv , dando como resultado la señal de observación ξ v , la cual es la

medición ruidosa de la señal que estamos estimando x̂v . En las figuras 5.7 y 5.8 se ilustran
a las tres señales graficadas para realizar nuestras comparaciones.

Figura 5.7 Señal de referencia, ruido y observación Gpsp0202.

Figura 5.8 Señal de referencia, ruido y observación Gpsp1401.

Todo el análisis del trabajo de tesis se realiza con el archivo Gpsp0202.prn, debido a
que es el archivo que contiene un mayor número de muestras, luego entonces se obtienen
resultados mejores. Los resultados en el sentido de RMSE y bias obtenidos con el archivo
Gpsp1401.prn ayudan para tener una comparación entre los resultados de ambos archivos.
Al final de este capitulo se encuentran las graficas con los resultados obtenidos con los dos
archivos.
_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 81
Capitulo V

5.1 Desarrollo de los filtros de promedios móviles simple y óptimo.

Para desarrollar los cuatro filtros se toma un número de puntos N en el promedio.


La figura 5.9 es una manera muy sencilla de visualizar la cantidad de puntos que se toman
en el promedio.

Figura 5.9 Representación de promedios.

 Estimación con el filtro de promedios móviles simple (Simple MA):

El filtro de promedios simple MA nos permite tener estimación no - óptima de la


señal x̂v , de la señal de error de tiempo xv (en el sentido de error cuadrático medio mínimo

RMSE mínimo) basado en la señal de observación ξ v directamente. Este algoritmo no


requiere de ningún conocimiento a priori acerca del modelo del estado del oscilador, error
de tiempo, e incluso de la observación, dando una estimación de la siguiente manera:

N −1
1
xˆn′ =
N
∑ξ
i =0
n −i (5.0)

La constante de peso 1 / N es una fuente de desviacion bias por llamarlo así, en el


filtro de promedios simple simple MA. Entonces lo que se necesita es optimizar la formula
mediante la compensación del bias de alguna manera. La solución a este problema es
mediante un filtro de promedios móviles óptimamente centrados. A continuación se
describe brevemente la ecuación de este filtro.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 82
Capitulo V

 Estimación con el filtro de promedios móviles óptimamente centrados (OMA):

El filtro de promedios móviles óptimamente centrados OMA nos permite tener una
estimación óptima x̂v de la señal de error de tiempo xv (en el sentido del bias) basado en la

señal de observación directamente ξ v .

N −1
xˆn′ = ∑Wi ( N )ξ n − i . (5.1)
i =0

La diferencia entre esta formula y la del filtro de promedios simple es la función de


peso adicional, la cual le permite compensar el bias totalmente para cualquier N arbitraria.

5.2 Desarrollo del filtro Kalman de tres estados.

En el capitulo IV ya se hizo el análisis para las ecuaciones del Filtrado de Kalman,


así que aquí solo están las ecuaciones utilizadas en el trabajo.
Para el filtro Kalman de tres estados las ecuaciones para la fase (tiempo),
frecuencia y el envejecimiento de la frecuencia (aging), son:

xv = xv −1 + yv −1∆ + 0.5α v −1∆2 + nxv (5.2)

yv = yv −1 + α v −1∆ + n yv (5.3)

α v = α v −1 + nαv . (5.4)

De la forma matricial la ecuación de estado esta dada como:

λv = A v −1λv −1 + n λv . (5.5)

Para normalizar el filtro se toma el tiempo de muestreo ∆ = 1 y se considera en el


resultado final.
El vector de la señal de dimensiones (n x 1) es:

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 83
Capitulo V

 xv 
λv =  yv  . (5.6)
α v 

La matriz de transición de estados es,

1 ∆ 0.5 ⋅ ∆2 
 
A3v = 0 1 ∆  . (5.7)
0 0
 1 

El vector de ruido es,

 nxv 
n3λv =  nyv  . (5.8)
nα v 

La matriz identidad es,

1 0 0
I 3 = 0 1 0 . (5.9)
0 0 1

Las condiciones iniciales para la fase (tiempo), la frecuencia y el aging, son,

x30 = x0 , y30 = 0 , α 30 = 0 .

La ecuación de observación es la siguiente,

ξ v = H v λv + nv (5.10)

donde,

H 3 = (1 0 0) (5.11)

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 84
Capitulo V

la varianza del ruido de observación es,

V = var(n) . (5.12)

La densidad espectral de ruido inicial de la fase, (n sec) 2 es

Sx = (2) 2 ⋅ 0 . (5.13)

La densidad espectral de ruido inicial de la frecuencia, (10−9 ) 2

Sy = (10 ⋅ 10−4 ) 2 ⋅ 343000 (5.14)

La densidad espectral de ruido inicial del agin, (10−9 / s ) 2

Sα = Ax ⋅ 10−5 (5.15)
Ax es un coeficiente.

La matriz de covarianza de ruido se define de la siguiente manera (h = 0 o h = 1),

 ∆3 ∆5 ∆2 ∆4 ∆3 
 Sx ⋅ ∆ + Sy ⋅ ⋅ h + Sα ⋅ ⋅ h Sy ⋅ ⋅ h + S α ⋅ ⋅ h Sα ⋅ ⋅ h
 3 20 2 8 6 
 ∆2 ∆4 ∆3 ∆2 
Ψ3 = Sy ⋅ ⋅ h + Sα ⋅ Sy ⋅ ∆ + Sα ⋅ ⋅ h Sα ⋅ ⋅ h . (5.16)
 2 8 3 2 
 ∆ 3
∆ 2 
 Sα ⋅ ⋅ h Sα ⋅ ⋅ h Sα ⋅ ∆ 
 6 2 

La matriz de covarianza de ruido es muy importante ya que por medio de ella se


hacen los ajustes de los errores de los estados del filtro.
La matriz con los valores iniciales para la fase (tiempo), frecuencia y el
envejecimiento de la frecuencia (agin) es,

 x30 
λ 3o =  y30  (5.17)
α 30 

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 85
Capitulo V

se asigna la matriz de covarianza de ruido a una variable R3o = Ψ 3 para realizar las
operaciones de las ecuaciones del filtro de Kalman. El siguiente paso es calcular la
ganancia del filtro y la matriz del error de covarianza, estas ya fueron desarrolladas en el
capitulo IV, la formula para la ganancia es la (4.70) y la (4.67) es para la matriz del error de
covarianza.
Ahora se calcula la estimación para la fase, la frecuencia y el agin de la ecuación
λ 3 , que es de dimensiones de (n x 1), podemos estimar a x3v , y3v y α 3v . Después se
forman las funciones de predicción para el comportamiento de la fase y la frecuencia.

∆2
x3 pv = x3v + y3v ⋅ ∆ + ⋅ α 3v (5.18)
2

y3 pv = y3v + ∆ ⋅ α 3v . (5.19)

Estas ecuaciones son muy importantes para el trabajo de tesis, en especial la del
comportamiento de la fase (tiempo) x3 pv , ya que se utiliza para estimar el error de tiempo
en el filtro Kalman de tres estados y compararse con los errores de los otros tres filtros.
Después se determinan los tiempos transitorios para la fase, la frecuencia y el aging.

hK 0 x3v , hK1 y3v , hK 2α 3v .

Para determinar el tiempo transitorio del error de tiempo estimado por el filtro
Kalman de tres estados, se necesita saber primero el intervalo promedio, este se determina
como,

θ = T ( N − 1) (5.20)

donde
θ = el intervalo promedio en horas.
T = el tiempo de digitalización dado en segundos.
N = el número de puntos en el promedio.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 86
Capitulo V

convirtiendo las unidades a horas se tiene:

 1Hr 
θ = T ( N − 1) s  = Hr (5.21)
 3600 s 

la formula (5.20) expresada finalmente en horas queda como:

T ( N − 1)
θ= (5.22)
3600

ahora tomando una sencilla condición se puede visualizar la respuesta transitoria del filtro
Kalman de tres estados, esta condición se expresa como:

0 if v < θ
Smv = (5.23)
1 otherwise

donde
θ = intervalo promedio en horas.
Smv = la respuesta del filtro FIR.
v = 0,... ni, ni es el numero de muestras.

Como ejemplo se grafica el tiempo transitorio del filtro de Kalman de tres estados
para un promedio de N = 50, de la siguiente manera:

Figura 5.10 Respuesta transitoria para el filtro Kalman tridimensional.


_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 87
Capitulo V

5.11 Transitorio de la fase (tiempo) para el Kalman tridimensional.

En la figura 5.10 se observan los tres estados del filtro Kalman para una constante
de tiempo (transitorio) de 1.361 horas. Durante la simulación para comparar los errores se
ponen los cuatro filtros a la misma constante de tiempo.

5.3 Desarrollo del filtro Kalman de dos estados.

Para realizar el filtro Kalman de dos estados en este caso solo se toman los estados
de fase (tiempo) y frecuencia.

xv = xv −1 + yv −1∆ + nxv (5.24)

yv = yv −1 + n yv . (5.25)

De la forma matricial la ecuación de estado esta dada como:

λv = A v −1λv −1 + n λv . (5.26)

Para normalizar el filtro se toma el tiempo de muestreo ∆ = 1 y se considera en el


resultado final.
El vector de la señal de dimensiones (n x 1) es,

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 88
Capitulo V

x 
λv =  v  . (5.27)
 yv 

La matriz de transición de estados es,

1 ∆ 
A2v =  . (5.28)
0 1 

El vector de ruido es,

 nx 
n 2λv =  v  . (5.29)
nyv 

La matriz identidad es,

1 0
I2 =  . (5.30)
0 1 
Las condiciones iniciales para la fase (tiempo), y la frecuencia son,

x 20 = x0 , y 20 = 0 .

Después se describe la ecuación de observación de forma matricial para el filtro


Kalman de tres estados.

ξ v = H v λv + n0v (5.31)

donde,

H 2 = (1 0 ) . (5.32)

La varianza V, las densidades espectrales de potencia de ruido inicial de la fase Sx


y de la frecuencia Sy se utilizan de la misma forma que en el filtro Kalman de tres estados.
La matriz de covarianza de ruido se define de la siguiente manera (h = 0 o h = 1),

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 89
Capitulo V

 ∆3 ∆2 
 Sx ⋅ ∆ + Sy ⋅ ⋅ h Sy ⋅ ⋅ h
Ψ2 =  3 2 . (5.33)
 ∆ 2
Sy ⋅ ⋅ h Sy ⋅ ∆ 
 2 

Al igual que en el Kalman de tres estados, aquí en el filtro Kalman de dos estados
ponemos los estados propios de los ruidos en la matriz de ruidos de la señal.
La matriz con los valores iniciales para la fase (tiempo), y frecuencia son,

 x2 
λ 2o =  0  (5.34)
 y 20 

igual que en el Kalman de tres estados se asigna la matriz de covarianza de ruido a una
variable R 2o = Ψ 2 para realizar las operaciones de las ecuaciones del filtro de Kalman. La
ganancia del filtro y la matriz del error de covarianza, también se toman de las ecuaciones
(4.70) y la (4.67) del capitulo IV.
Ahora se calcula la estimación para la fase, y la frecuencia de la ecuación λ 2 , que
es de dimensiones de (n x 1), podemos estimar a x2v , y y2v .Después se forman las
funciones de predicción para el comportamiento de la fase y la frecuencia.

x 2 pv = x 2v + y 2v ⋅ ∆ (5.35)

y 2 pv = y 2v . (5.36)

Como en el Kalman de tres estados, el comportamiento de la fase es muy importante


para nuestro trabajo para la estimación del error de tiempo y compararlo con los del
Kalman de tres estados, el simple MA y OMA.
Después se determinan el transitorio para la fase y la frecuencia,

hK 0 x 2v , hK1 y 2v .

Para determinar el tiempo transitorio del error de tiempo estimado por el filtro
Kalman de dos estados, este se determina como en el filtro Kalman de tres estados.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 90
Capitulo V

Figura 5.12 Respuesta transitoria del filtro Kalman bidimensional.

Figura 5.13 Respuesta transitoria del tiempo del filtro Kalman bidimensional.

En las figuras 5.12 y 5.13 se grafican las señales de fase y frecuencia para el filtro
Kalman de dos estados para una constante de tiempo de 1.33 h, con un numero de puntos
promedios de N = 50. El numero de puntos promedios N, tomados para las simulaciones
van desde N = 50 hasta N = 500, para evaluar el desempeño de cada filtro.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 91
Capitulo V

Figura 5.14 Comparación entre la fase (tiempo) del filtro Kalman de dos y tres estados.

La figura 5.14 es una comparación entre la fase del filtro Kalman de dos estados y el
de tres estados para una constante de tiempo de 1.33 h y N = 50. Este tiempo transitorio es
eliminado al momento de formar la función de error.
La respuesta de los filtros tanto simple MA como OMA es unitaria, ya que no es
mas que la respuesta impulso del filtro FIR. A continuación se muestran algunas
simulaciones hechas para diferentes promedios, en las cuales se observara el
comportamiento de los filtros simple y óptimo.

Figura 5.15 Estimaciones MA para N = 50. Figura 5.16 Estimaciones MA para N = 100.
_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 92
Capitulo V

Figura 5.17 Estimaciones MA para N = 150. Figura 5.18 Estimaciones MA para N = 200.

En estas figuras se puede ver que el filtro de promedios móviles óptimamente


centrados OMA es capaz de seguir a la señal de referencia con mayor precisión que el filtro
de promedios móviles simple (simple MA). En el Apendice B se encuentran otras figuras
para diferentes promedios de N.
El tiempo transitorio es de 1.361 horas, pero al realizar la estimación del error de
tiempo este se elimina y la estimación comienza después del tiempo transitorio.
La forma de eliminarlo es de la siguiente manera:
Formamos una función de error, exceptuando el transitorio como:

m = 0..M − θ − 1 (5.37)

ahora formamos la función del error como:

εMAm = xm + N −1 − xMAm + N −1 . (5.38)

Por ejemplo tomemos a θ = N = 50, entonces en la primera estimación aparecerá


con un retardo de N puntos. Este caso es similar para los cuatro filtros utilizados para la
estimación del error de tiempo.
Después de haber analizado cada uno de los parámetros de optimidad para los filtros
simple MA, OMA, filtro Kalman de tres estados y de dos estados, que al aumentar el
promedio N, aumenta el tiempo de transición en los filtros.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 93
Capitulo V

5.3 Análisis de la desviación bias.

El bias es el error medio que existe entre una señal estimada y una de referencia, de
acuerdo a este parámetro de optimidad podemos saber que tan optima es la señal estimada.
El bias se calcula tomando la media del valor de una señal estimada, en este caso es la resta
entre una señal de referencia y la estimada (simple MA, OMA, 2-K y 3-K).
El error de filtrado se expresa matemáticamente como:

ε = xn − xˆn (5.39)

donde x̂n es una estimación del error de tiempo y xn se asume que es un valor preciso del
error de tiempo. Ahora evaluando a (5.39) para los errores de muestreo en particular para
un número arbitrario M de estimaciones, el bias se representa como:

∆xˆ = E[ε n ] . (5.40)

Las siguientes figuras nos muestran el comportamiento de los filtros simple MA,
OMA, 2-K y 3-K para los parámetros de optimabilidad de la señal xn .

Figura 5.19 Estimación del bias producido por el simple MA, OMA, 2-K y 3-K.
_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 94
Capitulo V

En la figura 5.19 se observa el bias para los cuatro filtros para diferentes promedios,
para un promedio de N = 50 el filtro OMA tiene un bias casi despreciable, al igual que el
filtro Kalman de dos y de tres estados, en tanto que el MA produce un bias considerable,
[tabla 1].

Tabla 1 Bias para N = 50


N = 50 Relación de error
Estimaciones sma oma 2-k 3-k sma/oma sma/2-k sma/3-k
Bias, ns 102.405 7.726 22.883 40.194 13.254 4.485 2.548

Rmsd, ns 464.487 197.801 304.622 349.218 2.348 1.525 1.33

Rmse, ns 475.641 197.952 305.477 351.523 2.403 1.557 1.353

Error máximo, ns 1065 883.053 877.226 1221 1.206 1.214 0.872

Para el promedio de N = 100 el filtro OMA junto con el filtro Kalman de dos
estados muestran un bias similar, el MA presenta un bias que va aumentando con el
promedio a razón de aproximadamente 3 veces [tabla 2].

Tabla 2 Bias para N = 100


N = 100 Relación de error
Estimaciones sma oma 2-k 3-k sma/oma sma/2-k sma/3-k
Bias, ns 230.564 18.398 6.776 49.979 12.532 34.072 4.613

Rmsd, ns 876.535 227.314 393.037 327.192 3.856 2.23 2.679

Rmse, ns 906.352 228.058 393.096 330.985 3.974 2.306 2.738

Error máximo, ns 2052 805.105 1288 1598 2.548 1.593 1.284

En N = 150 encontramos un comportamiento similar al de N = 100, con un ligero


incremento en la relación MA/OMA y MA/2-K [apéndice A].
En el promedio comprendido de N = 200 a N = 250 el OMA y el filtro Kalman de
dos estados muestran una diferencia que empieza a crecer a favor de el OMA en el sentido
de bias, mientras que el MA muestra una pronunciada separación de estos dos filtros.
A partir de N = 250 hasta N = 500 el filtro OMA es optimo en el sentido de bias,
que los filtros de promedios simple MA y el filtro Kalman de dos estados. El

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 95
Capitulo V

comportamiento del filtro OMA es similar con el filtro Kalman de tres estados al final del
promedio de N = 450 a 500.
A continuación se presentan los siguientes diagramas para especificar la desviación
de los cuatro filtros.

Figura 5.20 Bias del filtro simple MA. Figura 5.21 Bias del filtro OMA.

Figura 5.22 Bias del filtro 2-K. Figura 5.23 Bias del filtro 3-K.

En las figuras 5.20 – 5.23 se observa el bias para los filtros simple MA, OMA, 2-K
y 3-K. De cada grafica podemos ver que el OMA es óptimo en el sentido de bias, ya que
conforme aumentamos el promedio N, este filtro se comporta mejor y se obtienen
resultados en ns, aceptables para la tarea de estimación del error de tiempo.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 96
Capitulo V

Figura 5.24 Bias generado con el archivo Gpsp1401.

Los resultados obtenidos en la figura 5.24 evalúan el bias y se puede comprobar que
el filtro de promedios móviles óptimamente centrados tiene un comportamiento mas estable
que los otros tres filtros durante el intervalo de N = 50 a N = 500.
El filtro de promedios simple (simple MA) es el que tiene una inclinación más
marcada con errores de tiempo mucho mayores que el filtro de promedios móviles
óptimamente centrados y los filtros Kalman de dos y de tres estados.

5.4 Análisis del RMSD.

El RMSD (root-mean-square-deviation) es la desviación estándar del error de


filtrado del filtro en estudio, matemáticamente se debe encontrar la varianza como:

σ ε2 = E[(ε n − ∆xˆ ) 2 ] . (5.41)

El RMSD es expresado como la raíz cuadrada de la varianza como:

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 97
Capitulo V

σ ε = σ ε2 . (5.42)

Figura 5.25 Estimación del RMSD del simple MA, OMA, 2-K y 3-K.

La figura 5.25 muestra las desviaciones RMS del ruido estimado. En esta figura
vemos que el OMA para un promedio de N = 50 muestra el mas bajo RMSD igual a
197.952 ns. Estas características se mantienen hasta un promedio de N = 150 para un
tiempo de 4.136 horas el OMA es optimo en el sentido de RMSD. Para un promedio a
partir de N = 200 el filtro Kalman de tres estados presenta una mejora con respecto al
OMA, el simple MA y el filtro Kalman de dos estados.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 98
Capitulo V

Figura 5.26 RMSD para el simple MA. Figura 5.27 RMSD para el OMA.

Figura 5.28 RMSD para el 2-K. Figura 5.29 RMSD para el 3-K.

En las figuras 5.26 – 5.29 se puede ver que el filtro de promedios móviles
óptimamente centrados, hasta un promedio de N = 200 presenta un comportamiento mucho
mejor que los otros tres filtros. A partir de este promedio se ubica entre los filtros Kalman
de dos y de tres estados.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 99
Capitulo V

Figura 5.30 RMSD generado por el archivo Gpsp1401.

En la figura 5.30 se obtiene la varianza o RMSD mediante las simulaciones con el


archivo de datos Gpsp1401.prn. En esta simulación nosotros encontramos que el filtro
Kalman de dos estados y el filtro de promedios móviles óptimamente centrados tienen un
comportamiento similar.

5.5 Análisis del RMSE.

La raíz cuadrada media del error RMSE (Root-Mean-Square-Error), se calcula de la


siguiente manera:

ε RMS = E[ε n2 ] = ∆xˆ 2 + σ ε2 (5.43)

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 100
Capitulo V

Figura 5.31 RMSE del simple MA, OMA, 2-K y 3-K.

En la figura 5.31 se hace la comparación entre los cuatro filtros en el sentido de


RMSE, para un numero de muestras n de 2720 y 50 ≤ N ≤ 500 . El filtro simple MA para
un promedio de N = 50 tiene un RMSE de 475.641 ns, el OMA de 197.952 ns, el filtro
Kalman de dos estados es de 305.477 ns y el filtro Kalman de tres estados de 351.523 ns.
Entonces podemos notar que el filtro OMA es mejor para este promedio que los
otros tres filtros. El filtro Kalman de dos estados después del OMA es mejor ya que
presenta un error relativamente bajo, seguido del filtro Kalman de tres estados y luego del
simple MA. Esta estimación se realiza para un tiempo transitorio de θ = ∆( N − 1) ≅ 1.361 h
para cada filtro, [tabla 3].

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 101
Capitulo V

Tabla 3 RMSE para N = 50


N = 50 Relación de error
Estimaciones sma oma 2-k 3-k sma/oma sma/2-k sma/3-k
Bias, ns 102.405 7.726 22.883 40.194 13.254 4.485 2.548

Rmsd, ns 464.487 197.801 304.622 349.218 2.348 1.525 1.33

Rmse, ns 475.641 197.952 305.477 351.523 2.403 1.557 1.353

Error máximo, ns 1065 883.053 877.226 1221 1.206 1.214 0.872

Ahora analizando el comportamiento de los filtros y su habilidad para estimar la


señal xv , se hace el estudio para un nuevo promedio de N = 100, el RMSE para el simple
MA es de 906.352 ns, el OMA es de 228.058 ns, el del Kalman de dos estados es de
393.096 ns y el Kalman de tres estados es de 330.985 ns.
Al igual que en el promedio de N = 50, el OMA presenta un RMSE mas bajo que
los otros tres filtros. En cuestión de RMSE el filtro Kalman de tres estados se presenta
como el segundo mejor filtro después del OMA. Para N = 100 se tiene un tiempo transitorio
θ = ∆( N − 1) = 2.75 h para cada filtro, [tabla 4].

Tabla 4 RMSE para N = 100


N = 100 Relación de error
Estimaciones sma oma 2-k 3-k sma/oma sma/2-k sma/3-k
Bias, ns 230.564 18.398 6.776 49.979 12.532 34.072 4.613

Rmsd, ns 876.535 227.314 393.037 327.192 3.856 2.23 2.679

Rmse, ns 906.352 228.058 393.096 330.985 3.974 2.306 2.738

Error máximo, ns 2052 805.105 1288 1598 2.548 1.593 1.284

Para el promedio de N = 150, el OMA tiene un RMSE de 321.224 ns, el simple MA


de 1316 ns, el filtro Kalman de dos estados es de 587.917 ns, y el filtro Kalman de tres
estados es 368.609 ns; el tiempo transitorio es de θ = ∆( N − 1) = 4.139 h para cada filtro.

Si observamos la figura 5.31 podemos notar que para el intervalo 50 ≤ N ≤ 150 el


OMA tiene un RMSE menor que los filtros Kalman de tres estados, Kalman de dos estados
y simple MA, estos errores son de 2.4, 3.9 a 4 veces más pequeños que los del filtro simple

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 102
Capitulo V

MA; de 1.5, 2.3 y 2.2 para el filtro Kalman de dos estados y de 1.3, 2.7 a 3.5 veces mas
pequeños que los obtenidos con el filtro Kalman de tres estados, [tabla 5].

Tabla 5 RMSE para N 150


N = 150 Relación de error
Estimaciones sma oma 2-k 3-k sma/oma sma/2-k sma/3-k
Bias, ns 386.415 38.164 51.735 58.666 10.125 7.469 6.587

Rmsd, ns 1258 318.949 585.636 363.91 3.944 2.148 3.456

Rmse, ns 1316 321.224 587.917 368.609 4.096 2.238 3.57

Error máximo, ns 2981 852.562 1192 1809 3.497 2.502 1.648

Para el intervalo 200 ≤ N ≤ 500 el filtro OMA se ubica entre el filtro Kalman de
dos estados y el de tres estados.
Para el promedio de N = 200 el OMA es de 455.621 ns, el simple MA es de 1704
ns, el filtro Kalman de dos estados es de 844.711 ns y el filtro Kalman de tres estados es de
429.714 ns. En la figura 5.18 podemos ver que el OMA y el filtro Kalman de tres estados
tienen un RMSE casi similar. El tiempo transitorio es de θ = ∆( N − 1) = 5.528 h para cada
filtro, [ver apéndice A].
En general podemos decir que 200 ≤ N ≤ 500 el filtro OMA se ubica entre el filtro
Kalman de dos estados y el Kalman de tres estados. En la figura 5.32 se ilustra esta
información.

Figura 5.32 Ubicación RMSE del filtro de promedios óptimos OMA.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 103
Capitulo V

Figura 5.33 RMSE para el filtro simple MA. Figura 5.34 RMSE para el filtro OMA

Figura 5.35 RMSE para el filtro 2-K. Figura 5.36 RMSE para el filtro 3-K.

Las figuras 5.33 – 5.36 muestran por separado el RMSE para cada uno de los filtros,
en las que podemos decir que el filtro OMA para un promedio de (N = 50, 100, 150)
presenta un RMSE mas bajo que los filtros simple MA, Kalman de dos estados y Kalman
de tres estados. En el apéndice A se puede ver la tabla con todos los promedios utilizados.
En general podemos concluir que el utilizar el OMA nos permite obtener
estimaciones de errores de fase semejantes con el filtro Kalman de tres estados.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 104
Capitulo V

Figura 5.37 RMSE generado por el archivo Gpsp1401.

En la figura 5.37 el filtro de promedios móviles óptimamente centrados tiene un


comportamiento similar a los filtros Kalman de dos y de tres estados desde un promedio de
N = 50 hasta N = 200. A partir de ese intervalo los filtros Kalman de tres estados y de
promedios móviles óptimamente centrados presentan las mismas características en cuanto a
ruido RMSE.
La razón de utilizar esta segunda base de datos Gpsp1401 es para comparar los
resultados obtenidos con el archivo Gpsp0202 en esta figura podemos observar que a partir
de N = 400 los filtros Kalman presentan un comportamiento peor que el filtro de promedios
móviles óptimamente centrados, esto obedece al numero de muestras que contienen las
bases de datos, entre mayor numero de datos tengamos mejores serán nuestros resultados.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 105
Capitulo V

5.6 Análisis del error máximo.

El error máximo es el valor máximo del error de filtrado entre una señal estimada y
una de referencia, como se ilustra en la ecuación (5.39). En la figura 5.38 tenemos el error
máximo de tiempo para el simple MA, OMA, 2-K y 3-K.

Figura 5.38 Error máximo del simple MA, OMA, 2-K y 3-K.

De esta grafica 5.38 podemos comentar lo siguiente, para un promedio de N = 50 el


error máximo obtenido con el filtro OMA es parecido con el del filtro de Kalman de dos
estados. Para el intervalo 50 ≤ N ≤ 400 el filtro OMA presenta el error máximo mas bajo,
hasta cruzarse con el filtro de Kalman de tres estados en N = 400.
A partir de N = 400 el filtro OMA se ubica entre el filtro de Kalman de tres estados
y el filtro Kalman de dos estados. En la tabla del apéndice A podemos ver que cada uno de
los valores obtenidos para el error máximo y se puede comprobar que al comparar el filtro
OMA con el simple MA se obtienen errores máximos que son de 1.2, 2.5, 3.4, 3.7, 3.9, 3.5,
3.4, 3.2, 3.0, 2.9 y 2.8 veces mas pequeña que el simple MA [apéndice A].
_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 106
Capitulo V

Fig. 5.39 Error máximo del filtro simple MA. Fig. 5.40 Error máximo del OMA.

Figura 5.41 Error máximo del filtro 2-K. Figura 5.42 Error máximo del filtro 3-K.

En las figuras 5.39 – 542, se muestran los errores máximos para cada filtro, de estas
graficas podemos comentar que el filtro de promedios móviles óptimamente centrados
presenta un error mínimo comparado con los obtenidos con el filtro de promedios simple
simple MA.
A partir del promedio de N = 400 a N = 500 el filtro Kalman de tres estados
presenta resultados semejantes con el filtro de promedios móviles óptimamente centrados,
en general podemos decir que los resultados mas estables y sobre un intervalo mayor de
tiempo son obtenidos con el filtro OMA.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 107
Capitulo V

Figura 5.43 Error máximo generado por el archivo Gpsp1401.

Analizando la figura 5.43 se puede ver que el filtro de promedios móviles


óptimamente centrados OMA es superior al filtro de promedios simple MA y al filtro
Kalman de dos estados, mostrando un comportamiento similar al filtro Kalman de tres
estados hasta un promedio de N = 150.
El error máximo del filtro de promedios móviles óptimamente centrados desde el
intervalo de N = 150 a N = 200 presenta el nivel mas bajo de error que los otros tres filtros,
a partir de este punto su comportamiento varia de N = 200 a N = 250 obteniendo valores
semejantes a los obtenidos con el filtro Kalman de tres estados.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 108
Conclusiones

Capitulo VI.
En este trabajo se ha analizado y estudiado el problema de estimación de error de
tiempo en un reloj local (OCXO), mediante el filtro de promedios móviles óptimamente
centrados.
Los errores obtenidos se examinaron y compararon entre los cuatro filtros, estos son
el filtro de promedios móviles simples, el filtro de promedios móviles óptimamente
centrados (OMA), el filtro Kalman de dos estados y el filtro Kalman de tres estados.
Las señales con las que se trabajaron son de naturaleza no – estacionaria, razón por
la cual los filtros Kalman y de promedios móviles (MA) fueron los mas indicados para
realizar la estimación del error de tiempo.
El estudio realizado nos permite tener un conocimiento explicito de la señal basada
en una observación. El tener un conocimiento mejor de la señal ayuda a controlar el error
de tiempo, esto es tener un conocimiento estadístico de la desviacion y el ruido de la señal.
Algo muy importante que se debe tener en cuanta al trabajar con señales
almacenadas en archivos de datos es que no son señales infinitas y por lo tanto los
resultados están limitados a la cantidad de n muestras contenidas en dicho archivo.
El ruido acompaña inevitablemente a todos los procesos, sean físicos o electrónicos
y la descripción probabilística del ruido es la única manera para especificar sus parámetros
y poder desarrollar filtros que minimicen su efecto en un proceso deseado.
Los parámetros de interés estudiados que son la desviacion bias y el ruido RMSE
muestran sus efectos de forma más acentuada en el filtro de promedios simple MA y filtro
Kalman de dos estados. En el sentido de bias el filtro de promedios móviles óptimamente
centrados OMA es optimo durante todo el intervalo de 50 ≤ N ≤ 500 .
En el sentido de RMSE el filtro de promedios móviles óptimamente centrados es
mucho mejor que los otros tres filtros hasta un promedio de N = 200. A partir de este
promedio se ubica en medio de los filtros Kalman de dos y de tres estados.
Algo importante que se experimenta en el filtro de promedios móviles óptimamente
centrados OMA es el tiempo de cómputo debido al peso adicional introducido al filtro de
_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 109
Conclusiones

promedios móviles simples (simple MA). Sin embargo este detalle no se considera como
una seria desventaja ya que normalmente el tiempo de muestreo usado en la sincronización
basada en GPS es de T = 10...1000 s; por lo tanto se tiene suficiente tiempo de computo.
Hay que recordar que el trabajo realizado es solamente de estimación del error de
tiempo en un reloj local, esto quiere decir que aquí no se realiza el control del mismo.
Nuestro trabajo consistió en presentar toda la estadística del error de tiempo con los
cuatro filtros propuestos. A si que lo observado es que a medida que aumentamos el
promedio N para cada filtro los parámetros aumentan, siendo el filtro de promedios móviles
óptimamente centrados el que mejor se comporta para el intervalo promedio.
El filtro de movimientos promedios óptimamente centrados esta justificado para las
señales lineales, este filtro es una solución óptima para la estimación del error de tiempo,
obteniendo resultados similares o mejores a los obtenidos con el filtro Kalman de dos
estados y tres estados.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 110
Apéndice A

Tabla de promedios.
En este apéndice se muestra la tabla de valores con los resultados para todos los
promedios utilizados en las simulaciones, que van desde N = 50 hasta N = 500.

N = 50 Relación de error
Estimaciones sma oma 2-k 3-k sma/oma sma/2-k sma/3-k
Bias, ns 102.405 7.726 22.883 40.194 13.254 4.485 2.548

Rmsd, ns 464.487 197.801 304.622 349.218 2.348 1.525 1.33

Rmse, ns 475.641 197.952 305.477 351.523 2.403 1.557 1.353

Error máximo, ns 1065 883.053 877.226 1221 1.206 1.214 0.872

N = 100 Relación de error


Estimaciones sma oma 2-k 3-k sma/oma sma/2-k sma/3-k
Bias, ns 230.564 18.398 6.776 49.979 12.532 34.072 4.613

Rmsd, ns 876.535 227.314 393.037 327.192 3.856 2.23 2.679

Rmse, ns 906.352 228.058 393.096 330.985 3.974 2.306 2.738

Error máximo, ns 2052 805.105 1288 1598 2.548 1.593 1.284

N = 150 Relación de error


Estimaciones sma oma 2-k 3-k sma/oma sma/2-k sma/3-k
Bias, ns 386.415 38.164 51.735 58.666 10.125 7.469 6.587

Rmsd, ns 1258 318.949 585.636 363.91 3.944 2.148 3.456

Rmse, ns 1316 321.224 587.917 368.609 4.096 2.238 3.57

Error máximo, ns 2981 852.562 1192 1809 3.497 2.502 1.648

N = 200 Relación de error


Estimaciones sma oma 2-k 3-k sma/oma sma/2-k sma/3-k
Bias, ns 564.286 62.443 99.671 62.26 9.037 5.661 -9.198

Rmsd, ns 1608 451.321 832.504 427.174 3.562 1.931 3.735

Rmse, ns 1704 455.621 838.449 431.687 3.74 2.032 3.919

Error máximo, ns 3900 993.189 1445 1773 3.927 2.699 2.184

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 111
Apéndice A

N = 250 Relación de error


Estimaciones sma oma 2-k 3-k sma/oma sma/2-k sma/3-k
Bias, ns 761.713 85.073 153.333 58.814 8.954 4.989 12.951

Rmsd, ns 1931 619.19 1103 541.239 3.118 1.751 3.567

Rmse, ns 2076 625.007 1113 544.425 3.321 1.865 3.813

Error máximo, ns 4790 1337 1786 2043 3.554 2.681 2.344

N = 300 Relación de error


Estimaciones sma oma 2-k 3-k sma/oma sma/2-k sma/3-k
Bias, ns 975.017 101.039 219.801 61.623 9.65 4.436 15.822

Rmsd, ns 2232 811.817 1360 661.849 2.75 1.642 3.375

Rmse, ns 2436 818.08 1377 664.712 2.978 1.768 3.665

Error máximo, ns 5622 1653 2189 2142 3.401 2.568 2.625

N = 350 Relación de error


Estimaciones sma oma 2-k 3-k Sma/oma Sma/2-k Sma/3-k
Bias, ns 1202 110.235 311.257 72.048 10.901 3.861 16.679

Rmsd, ns 2515 1019 1576 805.543 2.468 1.596 3.122

Rmse, ns 2787 1025 1606 808.759 2.719 1.735 3.447

Error máximo, ns 6391 1965 2537 2109 3.253 2.519 3.029

N = 400 Relación de error


Estimaciones sma oma 2-k 3-k Sma/oma Sma/2-k Sma/3-k
Bias, ns 1461 114.235 434.515 93.494 12.784 3.362 15.627

Rmsd, ns 2739 1238 1749 995.269 2.213 1.566 2.752

Rmse, ns 3104 1243 1802 999.951 2.498 1.723 3.105

Error máximo, ns 7096 2312 2900 2274 3.07 2.447 3.121

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 112
Apéndice A

N = 450 Relación de error


Estimaciones sma oma 2-k 3-k sma/oma sma/2-k sma/3-k
Bias, ns 1693 115.829 587.06 136.594 14.615 2.884 12.393

Rmsd, ns 3018 1466 1886 1191 2.059 1.601 2.534

Rmse, ns 3460 1470 1975 1199 2.353 1.752 2.889

Error máximo, ns 7753 2629 3295 2277 2.949 2.353 3.405

N = 500 Relación de error


Estimaciones sma oma 2-k 3-k Sma/oma Sma/2-k Sma/3-k
Bias, ns 1956 121.604 770.173 197.07 16.087 2.54 9.945

Rmsd, ns 3234 1705 2001 1352 1.897 1.617 2.368

Rmse, ns 3780 1709 2144 1367 2.211 1.763 2.739

Error máximo, ns 8315 2911 3799 2127 2.857 2.188 3.834

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 113
Apéndice B

Graficas de estimaciones.
A continuación se presenta el comportamiento de los filtros simple MA y OMA
para diferentes constantes de tiempo (transitorio):

Figura B.1 N = 50. Figura B.2 N = 100.

T ( N − 1) T ( N − 1)
θ= = 1.361horas θ= = 2.75horas
3600 3600

Figura B.3 N = 150. Figura B.4 N = 200.

T ( N − 1) T ( N − 1)
θ= = 4.139horas θ= = 5.528horas
3600 3600

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 114
Apéndice B

Figura B.5 N = 250. Figura B.6 N = 300.

T ( N − 1) T ( N − 1)
θ= = 6.917 horas θ= = 8.306horas
3600 3600

Figura B.7 N = 350. Figura B.8 N = 400.

T ( N − 1) T ( N − 1)
θ= = 9.694horas θ= = 11.083horas
3600 3600

Figura B.9 N = 450. Figura B.10 N = 500.

T ( N − 1) T ( N − 1)
θ= = 12.472horas θ= = 13.861horas
3600 3600

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 115
Apéndice C

clear; clf
fprintf('****____ UNIVERSIDAD DE GUANAJUATO. ____****: \n');
fprintf('****____ FACULTAD DE INGENIERIA MECANICA, ELECTRICA Y ELECTRONICA. ____****: \n');
fprintf('****____ FIMEE. ____****: \n');
fprintf('****____ PROGRAMA DE TESIS GENERAL. ____****: \n');
fprintf('****____ QUE PRESENTA PARA OBTENER EL GRADO DE M. EN I. ELECTRICA ____****: \n');
fprintf('****____ ING. REYNEL OLIVERA REYNA. ____****: \n');
fprintf('****____ "ESTIMACION OPTIMA BASADA EN GPS DEL ERROR DE TIEMPO DE ____****: \n');
fprintf('****____ UN RELOJ LOCAL CON EL FILTRO DE PROMEDIOS MOVILES ____****: \n');
fprintf('****____ OPTIMAMENTE CENTRADOS" ____****: \n');
fprintf('****____ ASESORES: ____****: \n');
fprintf('****____ DR. YURIY S. SHMALIY. ____****: \n');
fprintf('****____ DR. JOSE AMPARO ANDRADE LUCIO. ____****: \n');
fprintf('****____ SALAMANCA GUANAJUATO MEXICO. ____****: \n');
fprintf('****____ JUNIO DEL 2003. ____****: \n');
clear; clf

%%%--- SOLUCION AL PROBLEMA DE ESTIMACION DEL ERROR DE TIEMPO DEL RELOJ LOCAL ---%%%
%%%1.- SE LEE EL ARCHIVO Y SE FORMAN LAS FUNCIONES ---%%%
N= load('GpsP0202.prn'); %%%---- LECTURA DEL ARCHIVO (DATOS DE OBSERVACION) ---%%%
ni=size(N,1)-1; %%%---- TOMANDO LA LONGITUD DEL ARCHIVO ---%%%
for ml= 0:1:100
b(ml+1)= 2 ^ (ml);
end;
m=11; M= 2 ^ (m);
T=100;
for v= 0:1:(ni-1) %%%--- FORMAR LA ESCALA DE TIEMPO, (EN HORAS) -----%%%
t(v+1)= (v*T) / 3600;
end;
Delta_t=t(2) - t(1);
for v= 0:1:(ni-1)
ER(v+1)= (N((v+1),1))*10^0;
end;
for v= 0:1:(ni-1)
E(v+1)= (N((v+1),2) - (N((0+1),1)*1))*10^1;
end;

yRO=-0.31;
for v= 0:1:(ni-1)
ER1(v+1)=ER(v+1) + (yRO * (v+1));
end;
corrcoef(ER1,E);
Slope=9.809;
for v= 0:(ni - 1)
x(v+1)= (ER1(v+1) - mean(ER1)) * Slope + mean(E);
end;
%%%%%%%----- FORMACION DE LA FUNCION DE RUIDO -----%%%%%%%
for v= 0:(ni - 1)
no(v+1)= E(v+1) - x(v+1);
end;

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna 116
Apéndice C

dis= var(no);
figure(1)
hold on
plot(t,x,'r-'),
ejes=[0 76 -10000 30000];
axis(ejes);
title('Señal de referencia');
xlabel('Horas');
ylabel('ns');
grid on;

figure(2)
hold on
plot(t,no,'c-')
plot(t,0,'r')
ejes=[0 75.528 -1000 2000];
title('Ruido');
xlabel('Horas');
ylabel('ns');
grid on;

figure(3)
hold on
plot(t,E,'k-')
ejes=[0 80 -1190 3000];
title('Observacion');
xlabel('Horas');
ylabel('ns');
grid on;

figure(4)
hold on
plot(t,x,'r-')
plot(t,no,'c-')
plot(t,E,'k-')
ejes=[0 80 -20006 7027];
title('Señal de referencia, ruido y observacion');
xlabel('Horas');
ylabel('ns');
grid on;

%%%%%----- 2.- OBTENER LAS ESTIMACIONES CON EL FILTRO DE PROMEDIOS MA ------%%%%%


%%%%%----- 2.1.- ESTIMACIONES CON EL FILTRO DE PROMEDIOS SIMPLE MA ------%%%%%
%%%%%----- TOMAR EL NUMERO DE PUNTOS EN EL PROMEDIO ------%%%%%
Nn=50;

for nn=0:(ni-1)
if nn>= (Nn-1)
aux=0;
for i=0:(Nn-1)
aux= aux + E(nn-i+1);
end;
LMA(nn+1)= (1/Nn)* aux;
else
LMA(nn+1)= 0;
end;
end;

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna 117
Apéndice C

%%%-------- 2.2.- ESTIMACION CON EL FILTRO DE PROMEDIOS MOVILES OPTIMOS OMA ---------%%%%
for nn=0:(ni-1)
if nn>= (Nn-1)
aux1=0;
for i=0:(Nn-1)
aux1= aux1 + (((2 * ((2 * Nn) - 1) - (6 * i))/ (Nn * (Nn + 1 ))) * E(nn-i+1));
end;
LOMA(nn+1)= aux1;
else
LOMA(nn+1)=0;
end;
end;

figure (5)
hold on
plot(t,E,'k-')
plot(t,x,'r:')
plot(t,LMA,'m--');
plot(t,LOMA,'g-.');
ejes=[0 80 0 30000];
title('Show plots of the MA estimates');
xlabel('Hours');
ylabel('ns');
grid on;

%%%%%%----- 3.- DISEÑO DEL FILTRO KALMAN DE TRES ESTADOS -----%%%%%%


%%%%%%----- 3.1.- ECUACIONES DE ESTADO DEL FILTRO KALMAN DE TERES ESTADOS ----%%%%%%
D=1;
A3=[1 D 0.5*D^2;0 1 D;0 0 1]; I3=[1 0 0;0 1 0;0 0 1];
X(1)=x(1); y(1)=0; a(1)=0;
H3= [1 0 0]; %%%%%%---- ECUACION DE LA MATRIZ DE OBSERVACION ----------%%%%%
V2= var(no); %%%%%%---- VARIANZA DEL RUIDO DE LA OBSERVACION ----------%%%%%
Sx= 2^2*0; %%%---- DENSIDAD ESPECTRAL DE RUIDO INICIAL DE LA FASE,(nsec)^2 ------%%%
Sy= (10*10^-4)^2*343000; %%%%%%---- FRECUENCIA, (10^-9)^2 -----%%%%%%%
Ax= (39.12368)^2; Sa= Ax*(10^-5); %%%%%%---- ENVEJECIMIENTO A LA FRECUENCIA ----%%%%%
h=0; %%%%%%---- (h=0 or h=1) -----%%%%%%%%
F3=[0 0 0;0 Sy 0;0 0 Sa];
%%%------ MATRIZ DE VALORES INICIALES DE LA FASE, FRECUENCIA, Y ENVEJECIMIENTO -----%%%
L3O=[X(1) y(1) 0];
R30=F3;
%%%---- 3.2 ECUACIONES DEL FILTRO KALMAN TRIDIMENSIONAL EN LA FORMA DE MATRIZ --------%%%
%%%---- CALCULO DE LA GANANCIA DEL FILTRO Y MATRIZ DEL ERROR DE COVARIANZA ---------%%%%
m_K= zeros(ni,1);
m_R= zeros(ni,9);
m_rp= zeros(ni,9);
for f= 1:ni
n=1;
for i=1:3,
for j=1:3,
m_R(f,n)= R30(i,j);
n= n+1;
end;
end;
i=1;
for n= 1:3,
for m= 1:3
Rx(n,m)= m_R(f,i);
i=i+1;

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna 118
Apéndice C

end;
end;
rp= A3 * Rx * A3' + F3;
n=1;
for i= 1:3,
for j= 1:3,
m_rp(f,n)= rp(i,j);
n= n + 1;
end;
end;

%%%%%--------- CALCULO DE LA GANANCIA DEL FILTRO KALMAN TRIDIMENSIONAL ----------%%%%%


i= 1;
for n= 1:3,
for m=1:3
rpx(n,m)= m_rp(f,i);
i= i+1;
end;
end;
K= rpx * H3' * (H3 * rpx * H3' + V2)^-1;
for j= 1:3,
m_K(f,j)= K(j,1); %%%---- MATRIZ DE LA GANANCIA KALMAN TRIDIMENSIONAL -----%%%
end;
i=1;
for m=1:3
Kx(m,1)= m_K(f,m);
end;
R3= (I3 - Kx * H3) * rpx;
R30= R3;
end;
%%-- CALCULO DE LAS ESTIMACIONES (FASE, FRECUENCIA Y ENVEJECIMIENTO DE LA FRECUENCIA) --%%
lam= zeros(ni,3);
for f= 1:ni,
for j=1:3,
lam(f,j)= L3O(1,j);
end;
for m= 1:3,
aux3(m,1)= m_K(f,m);
end;
lamda= A3 * lam(f,:)' + aux3 * (E(f) - H3 * A3 * lam(f,:)');
for j= 1:3,
lam(f+1,j)= lamda(j,1); %%%%%---- PARAMETROS DESEADOS DE LA MATRIZ ----%%%%%
end;
L3O= lam(f+1,:);
end;

Xv= lam(:,1); %%%%%---- TIEMPO DE ERROR EN SEGUNDOS -----%%%%%


Yv= lam(:,2) * 10; %%%%%---- FRECUENCIA, 10^-12 -----%%%%%
alfav= lam(:,3) / 10; %%%%%----- FRECUENCIA 10^-12 -----%%%%%
%%%----3.3 FORMACION DE LAS FUNCIONES DE PREDICCION PARA LA FASE Y FRECUENCIA -------%%%
for v=0:1:(ni-1)
xp(v+1)=Xv(v+1) + Yv(v+1) * D + ((D^2) / 2 * alfav(v+1)); %%-- COMPORTAMIENTO DE LA FASE ---%%
yp(v+1)=Yv(v+1) + (D * alfav(v + 1)); %%---- COMPORTAMIENTO DE LA FRECUENCIA ----%%%
end;

figure(6)
hold on
plot(t,E,'g-'),

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna 119
Apéndice C

plot(t,x,'b-'),
plot(t,xp,'r-'),
plot(t,(xp-Xv(1:ni)'),'g-'),
ejes=[0 80 -12200 31000];
axis(ejes);
title('Grafica de la estimación del error de tiempo en ns');
xlabel('tv');
ylabel('E(v),x(v),xp(v),xp(v)-Xv');
grid on;

figure(7)
hold on
plot(t,(xp - Xv(1:ni)'),'g-'),
ejes=[0 80 -1000 1000];
axis(ejes);
title('Grafica de la estimación del error de tiempo (predicción de la fase - tiempo de error');
xlabel('tv');
ylabel('xp(v)-Xv(v)');
grid on;

%%---- 3.4 DETERMINAR LOS TIEMPOS TRANSITORIOS DEL FILTRO KALMAN TRIDIMENSIONAL -----%%
hKOxv= (((m_R(:,1)) - (m_R(1,1))) / ((m_R(M-1)) - (m_R(1,1))));
hK1yv= (((m_R(:,2)) - (m_R(1,2))) / ((m_R(M-1,2)) - (m_R(1,2))));
hK2av= (((m_R(:,3)) - (m_R(1,3))) / ((m_R(M-1,3)) - (m_R(1,3))));
Tr= 50; %%%%%%----- DETERMINAR LOS TIEMPOS TRANSITORIOS ----%%%%%%
for v= 0:ni-1
if v < Tr
Smv(v+1)= 0;
else
Smv(v+1)= 1;
end;
end;
for v=0:ni-1
laux(v+1)=0.95;
end;
V=[0:1:(ni-1)];

figure(8)
hold on
plot(t,laux,'g'),
plot(t,hKOxv,'k-'),
plot(t,hK1yv,'m-'),
plot(t,hK2av,'b-'),
plot(t,Smv,'r-'),
ejes=[0 5 0 1.1];
axis(ejes);
title('Respuesta transitoria del filtro Kalman de tres estados');
xlabel('Horas');
ylabel('ns');
grid on;

figure(9)
hold on
plot(t,laux,'g'),
plot(t,hKOxv,'k-'),
plot(t,Smv,'r'),
ejes=[0 5 0 1.1];
axis(ejes);

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna 120
Apéndice C

title('Respuesta transitoria del tiempo del filtro Kalman de tres estados');


xlabel('Horas');
ylabel('ns');
grid on;

%%%%---- 4. DISEÑO DEL FILTRO KALMAN DE DOS ESTADOS -----%%%%


%%%%---- 4.1.1 ECUACIONES DE ESTADO DEL FILTRO KALMAN DE DOS ESTADOS -----%%%%
A2=[1 D;0 1]; I2=[1 0;0 1];
X2(1)=x(1); y(1)=0;
H2= [1 0];
V2= var(no);
F2=[0 0;0 Sy];
L2O=[X2(1) y(1)];
R20=F2;

%%%%%%-------- 4.2 Ecuación del filtro Kalman ecuaciones en la forma de matriz ----%%%%%%%%%
%%%%%%-------- Calculo de la ganancia del filtro y matriz de error de covarianza ----%%%%%%%%%
m2K= zeros(ni,1);
m2R= zeros(ni,4);
m2rp= zeros(ni,4);
for f2= 1:ni
n2=1;
for i=1:2,
for j=1:2,
m2R(f2,n2)= R20(i,j);
n2= n2+1;
end;
end;
i=1;
for n2= 1:2,
for m2= 1:2
Rx2(n2,m2)= m2R(f2,i);
i=i+1;
end;
end;
rp2= A2 * Rx2 * A2' + F2;
n2=1;
for i= 1:2,
for j= 1:2,
m2rp(f2,n2)= rp2(i,j);
n2= n2 + 1;
end;
end;
%%---- Calculo de la ganancia Kalman -----%%
i= 1;
for n2= 1:2,
for m2=1:2
rpx2(n2,m2)= m2rp(f2,i);
i= i+1;
end;
end;
K2= rpx2 * H2' * (H2 * rpx2 * H2' + V2)^-1;
for j= 1:2,
m2K(f2,j)= K2(j,1); %%%---- Matriz de la ganancia Kalman -----%%%
end;
i=1;
for m2=1:2
Kx2(m2,1)= m2K(f2,m2);

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna 121
Apéndice C

end;
R2= (I2 - Kx2 * H2) * rpx2;
R20= R2;
end;
%%%%%%---- Estimación de la fase y frecuencia -----%%%%%%
lam2= zeros(ni,2);
for f2= 1:ni,
for j=1:2,
lam2(f2,j)= L2O(1,j);
end;
for m2= 1:2,
aux2(m2,1)= m2K(f2,m2);
end;
lamda2= A2 * lam2(f2,:)' + aux2 * (E(f2) - H2 * A2 * lam2(f2,:)');
for j= 1:2,
lam2(f2+1,j)= lamda2(j,1); %%%%---- Matriz con los parámetros deseados ----%%%%
end;
L2O= lam2(f2+1,:);
end;

Xv2= lam2(:,1); %%------ Tiempo de error in sec ----%%


Yv2= lam2(:,2) * 10; %%%--- Frecuencia, 10^-12 ----%%

%%%%------ 4.3 Formación de las funciones de predicción para la fase y frecuencia -------%%%%%
for v=0:1:(ni-1)
xp2(v+1)=Xv2(v+1) + Yv2(v+1) * D; %%%%--- Predicción del comportamiento de la fase ---%%%%
yp2(v+1)=Yv2(v+1); %%%%--- Predicción del comportamiento de la frecuencia ---%%%%
end;

%%%%--------- 4.4 Determinación de los tiempos transitorios del filtro Kalman --------%%%%
h2KOxv= (((m2R(:,1)) - (m2R(1,1))) / ((m2R(M-1)) - (m2R(1,1))));
h2K1yv= (((m2R(:,2)) - (m2R(1,2))) / ((m2R(M-1,2)) - (m2R(1,2))));
TR= 50;
for v= 0:ni-1
if v < Tr
Smv(v+1)= 0;
else
Smv(v+1)= 1;
end;
end;
for v=0:ni-1
laux(v+1)=0.95;
end;

V=[0:1:(ni-1)];
figure(10)
hold on
plot(t,laux,'g'),
plot(t,h2KOxv,'k-'),
plot(t,h2K1yv,'m-'),
plot(t,Smv,'r-'),
ejes=[0 5 0 1.1];
axis(ejes);
title('Respuesta transitoria del filtro Kalman de dos estados');
xlabel('Horas');
ylabel('ns');
grid on;

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna 122
Apéndice C

figure(11)
hold on
plot(t,laux,'g'),
plot(t,h2KOxv,'k-'),
plot(t,Smv,'r'),
ejes=[0 5 0 1.1];
axis(ejes);
title('Respuesta transitoria del tiempo del filtro Kalman de dos estados');
xlabel('Horas');
ylabel('ns');
grid on;

figure(12)
hold on
plot(t,laux,'g'),
plot(t,hKOxv,'b'),
plot(t,h2KOxv,'k'),
plot(t,Smv,'r'),
ejes=[0 5 0 1.1];
axis(ejes);
title('Respuesta transitoria del tiempo de los filtros Kalman de dos y de tres estados');
xlabel('Horas');
ylabel('ns');
grid on;

%%%%---- Estimación de los errores con el filtro de promedios simple MA ----%%%%


for mm= 0:(M-Tr)
eMA(mm+1)=x(mm+Tr) - LMA(mm+Tr);
end;
BiasMA= mean(eMA);
RmsdMA= std(eMA);
RmseMA= sqrt((BiasMA)^2+(RmsdMA)^2);
MaxMA= max(eMA);

%%%%------------------- Estimación de errores con el filtro de promedios OMA ---------------------%%%%


for mm= 0:(M-Tr)
eOMA(mm+1)=x(mm+Tr) - LOMA(mm+Tr);
end;
BiasOMA= mean(eOMA);
RmsdOMA= std(eOMA);
RmseOMA= sqrt((BiasOMA)^2+(RmsdOMA)^2);
MaxOMA= max(eOMA);

%%%%------------------ Estimación de errores con el filtro Kalman de tres estados ----------------%%%%


for mm= 0:(M-Tr)
e3Kal(mm+1)=x(mm+Tr) - xp(mm+Tr);
end;
Bias3Kal= mean(e3Kal);
Rmsd3Kal= std(e3Kal);
Rmse3Kal= sqrt((Bias3Kal)^2+(Rmsd3Kal)^2);
Max3Kal= max(e3Kal);

%%%%---------------- Estimación de errores con el filtro Kalman de dos estados -----------------%%%%


for mm= 0:(M-Tr)
e2Kal(mm+1)=x(mm+Tr) - xp2(mm+Tr);
end;
Bias2Kal= mean(e2Kal);
Rmsd2Kal= std(e2Kal);

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna 123
Apéndice C

Rmse2Kal= sqrt((Bias2Kal)^2+(Rmsd2Kal)^2);
Max2Kal= max(e2Kal);

%%%%----------------- Grafica del BIAS vs N -------------------------------------%%%%%


biasMA= abs([102.405, 230.564, 386.415, 564.286, 761.713, 975.017, 1.202*10^3, 1.461*10^3, 1.693*10^3,
1.956*10^3]);
biasOMA= abs([7.726, 18.398, 38.164, 62.443, 85.073, 101.039, 110.235, 114.235, 115.829, 121.604]);
bias2Kal= abs([-22.833, 6.776, 51.735, 99.671, 153.333, 219.801, 311.257, 434.515, 587.06, 770.173]);
bias3Kal= abs([-40.194, -49.979, -58.666, -62.26, -58.814, -61.623, -72.048, -93.494, -136.594, -197.07]);
N_A= [50:50:500];
f1=[biasMA biasOMA bias2Kal bias3Kal];
figure(13)
hold on
plot(N_A,biasMA,'r--o');
plot(N_A,biasOMA,'b-p');
plot(N_A,bias2Kal,'g--d');
plot(N_A,bias3Kal,'m-.<');
ejes=[0 550 -300 2*10^3];
axis(ejes);
xlabel('N, Promedio')
ylabel('BIAS')
grid on;

%%%%----------------- Grafica del RMSD vs N -------------------------------------%%%%%


rmsdMA= abs([464.487, 876.535, 1.258*10^3, 1.608*10^3, 1.931*10^3, 2.232*10^3, 2.515*10^3,
2.739*10^3, 3.018*10^3, 3.234*10^3]);
rmsdOMA= abs([197.801, 227.314, 318.949, 451.321, 619.19, 811.817, 1.019*10^3, 1.238*10^3,
1.466*10^3, 1.705*10^3]);
rmsd2Kal= abs([304.622, 393.037, 585.636, 832.504, 1.103*10^3, 1.36*10^3, 1.576*10^3, 1.749*10^3,
1.886*10^3, 2.001*10^3]);
rmsd3Kal= abs([349.218, 327.192, 363.91, 427.174, 541.239, 661.849, 805.543, 995.269, 1.191*10^3,
1.352*10^3]);
N_A= [50:50:500];
figure(14)
hold on
plot(N_A,rmsdMA,'r--o');
plot(N_A,rmsdOMA,'b-p');
plot(N_A,rmsd2Kal,'g--d');
plot(N_A,rmsd3Kal,'m-.<');
ejes=[0 550 0 4*10^3];
axis(ejes);
xlabel('N, Promedio');
ylabel('RMSD');
grid on;

%%%%----------------- Grafica del RMSE vs N -------------------------------------%%%%


rmseMA= abs([475.641, 906.352, 1.316*10^3, 1.704*10^3, 2.076*10^3, 2.436*10^3, 2.787*10^3,
3.104*10^3, 3.46*10^3, 3.78*10^3]);
rmseOMA= abs([197.952, 228.058, 321.224, 455.621, 625.007, 818.08, 1.025*10^3, 1.243*10^3, 1.47*10^3,
1.709*10^3]);
rmse2Kal= abs([305.477, 393.096, 587.917, 838.449, 1.113*10^3, 1.377*10^3, 1.606*10^3, 1.802*10^3,
1.975*10^3, 2.144*10^3]);
rmse3Kal= ([351.523, 330.985, 368.609, 431.687, 544.425, 664.712, 808.759, 999.951, 1.199*10^3,
1.367*10^3]);
N_A= [50:50:500];
figure(15)
hold on
plot(N_A,rmseMA,'r--o');

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna 124
Apéndice C

plot(N_A,rmseOMA,'b-p');
plot(N_A,rmse2Kal,'g--d');
plot(N_A,rmse3Kal,'m-.<');
ejes=[0 550 0 4*10^3];
axis(ejes);
xlabel('N, Promedio');
ylabel('RMSE');
grid on;

%%%%----------------- Grafica del ERROR MAXIMO vs N ----------------------%%%%


maxMA= abs([1.065*10^3, 2.052*10^3, 2.981*10^3, 3.9*10^3, 4.79*10^3, 5.622*10^3, 6.391*10^3,
7.096*10^3, 7.753*10^3, 8.315*10^3]);
maxOMA= abs([883.053, 805.105, 852.562, 993.189, 1.337*10^3, 1.653*10^3, 1.965*10^3, 2.312*10^3,
2.629*10^3, 2.911*10^3]);
max2Kal= abs([877.226, 1.288*10^3, 1.192*10^3, 1.445*10^3, 1.786*10^3, 2.189*10^3, 2.537*10^3,
2.9*10^3, 3.295*10^3, 3.799*10^3]);
max3Kal= abs([1.221*10^3, 1.598*10^3, 1.809*10^3, 1.773*10^3, 2.043*10^3, 2.142*10^3, 2.109*10^3,
2.274*10^3, 2.277*10^3, 2.127*10^3]);
N_A= [50:50:500];
figure(16)
hold on
plot(N_A,maxMA,'r--o');
plot(N_A,maxOMA,'b-p');
plot(N_A,max2Kal,'g--d');
plot(N_A,max3Kal,'m-.<');
ejes=[0 550 -805.105 1*10^4];
axis(ejes);
xlabel('N, Promedio');
ylabel('ERROR MAXIMO');
grid on;

%%%%----------------- Grafica de barras del BIAS del simple MA ----------------------%%%%


figure(17)
hold on
N_A= [50:50:500];
f1=[biasOMA];
bar(f1);
xlabel('N, Promedio');
ylabel('BIAS DEL FILTRO simple MA');
grid on;

%%%%----------------- Grafica de barras del BIAS del OMA ----------------------%%%%


figure(18)
hold on
N_A= [50:50:500];
f1=[biasOMA];
bar(f1);
xlabel('N, Promedio');
ylabel('BIAS DEL FILTRO OMA');
grid on;

%%%%----------------- Grafica de barras del BIAS del 2-K ----------------------%%%%


figure(19)
hold on
N_A= [50:50:500];
f1=[bias2Kal];
bar(f1);
xlabel('N, Promedio');

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna 125
Apéndice C

ylabel('BIAS DEL FILTRO KALMAN DE DOS ESTADOS');


grid on;

%%%%----------------- Grafica de barras del BIAS del 3-K ----------------------%%%%


figure(20)
hold on
N_A= [50:50:500];
f1=[bias3Kal];
bar(f1);
xlabel('N, Promedio');
ylabel('BIAS DEL FILTRO KALMAN DE TRES ESTADOS');
grid on;
return

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna 126
Glosario

GLOSARIO
ARMA: Auto Regressive Moving Average (Movimientos Promedios Auto Regresivo).

AR: Auto Regressive (Auto Regresivo).

BIAS: Inclinación, sesgo, desviación.

CDMA: Code Division Multiple Access (Acceso Multiple por División de Código).

DSP: Digital Signal Processing (Procesamiento Digital de Señales).

GPS: Global Positioning System (Sistema de Posicionamiento Global).

LMS: Least-Mean-Square (Minimos Cuadrados Medios).

MA: Moving Average (Movimiento Promedio).

OMA: Optimally Unbiased Moving Average (Movimientos Promedios Óptimamente


Centrados).

PPS: Precise Positioning Service (Servicio de Posicionamiento Preciso).

RMSE: Root Mean Square Error (Raiz del Error Cuadrático Medio).

RMSD: Root Mean Square Deviation (Raiz Cuadrada Media de la Desviación).

UNBIASED: Imparcial; el sentido de esta palabra en la tesis es sin inclinación.

3-K: Filtro Kalman de tres estados.

2-K: Filtro Kalman de dos estados.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 127
Bibliografía

BIBLIOGRAFIA
1. R. G. Brown, P. Y. C. Hwang, Introduction to Random Signals and Applied Kalman
Filtering, 3rd Ed., John Wiley & Sons, 1997.
2. Advances in spectrum analysis and array processing, Vol. 1, Ed. S. Haykin, Prentice
Hall, New York, 1991.
3. M. H. Hayes, Statistical Digital Signal Processing and Modeling, John Wiley &
Sons, New York, 2002.
4. J. G. Proakis, D. G. Manolakis, Tratamiento digital de señales principios, algoritmos
y aplicaciones, 3ª edición, Prentice Hall, México, 2004.
5. A. Ambardar, Procesamiento de señales analógicas y digitales, 2ª edición,
Thomson Learning, México, 2002.
6. Y. S. Shmaliy, “A simple optimally unbiased MA filter for timekeeping,” IEEE
Trans. on Ultrason. Ferroel. Frequency Contr., vol. 49, pp. 789-797, Jun. 2002.
7. Y. S. Shmaliy, Lectures on Optimal Filtering, FIMEE, Universidad de Guanajuato,
México, 2002.
8. Y. S. Shmaliy, Lectures on Stochastic Processes, FIMEE, Universidad de
Guanajuato, México, 2001.
9. S. Nakamura, Análisis numérico y visualización grafica con Matlab, Prentice Hall,
México, 1997.
10. E. M. Dowling, Seminario en Telecomunicaciones, Universidad de Guanajuato,
México, Julio, 1996.
11. M. S. Grewal, A P. Andrews, Kalman Filtering: Theory and Practice Using Matlab,
2nd edition, John Wiley & Sons, New York, 401.
12. R. F. Vázquez Bautista, Tesis profesional “Realización de filtrado Kalman con
aplicación a la sincronización del GPS Oncore UT+ basado en el TMS320C6711”,
Universidad de Guanajuato, México, Junio 2002.

_________________________________________________________________________
FIMEE, Universidad de Guanajuato. Ing. Reynel Olivera Reyna. 128