Filtro de Kalman
En la estadística y la teoría del control, el filtro de Kalman es un algoritmo que utiliza una serie de medidas observadas a través del tiempo, incluido el ruido estadístico y otras fallas, para producir estimados de variables desconocidas que suelen ser más precisas que las que se basan en una sola medida, estimando la distribución de probabilidad conjunta de las variables en cada paso de tiempo. El filtro está construido como un minimizador del cuadrático medio, pero una derivación alterna de este filtro también está relacionada con la estadística de máxima verosimilitud.[1] El filtro toma el nombre de Rudolf E. Kálmán.

El filtrado de Kalman[2] tiene varias aplicaciones tecnológicas. Una aplicación común es para la guía, navegación y control de vehículos, particularmente aeronaves, naves espaciales y barcos posicionados de forma dinámica.[3] También, el filtrado de Kalman es usado en tareas de análisis de series temporales, como el procesamiento de señales y la econometría. El filtrado de Kalman es importante para la planificación del movimiento y el control robótico,[4][5] y puede ser usado para la optimización de trayectorias.[6] También funciona para modelar el control de movimiento del sistema nervioso central. Debido al retraso temporal entre las emisiones de órdenes a los motores y la retroalimentación sensorial, el filtrado de Kalman[7]proporciona un modelo realista para estimar el estado actual de un sistema de motores y emitir órdenes actualizadas.[8] El filtro de Kalman también ha sido usado con éxito para la detección y aislamiento de fugas en tuberías de agua. Lo cual, ayuda a reducir el impacto ambiental causado por el desperdicio de agua limpia o potable.[9][10] Además, el filtro de Kalman ha sido usado para entrenar redes neuronales de alto orden con el fin de diseñar controladores y observadores de estado.[11][12]
El algoritmo funciona con un proceso de dos fases: una fase de predicción y otra fase de actualización. En la fase de predicción, el filtrado de Kalman produce estimados del estado actual de las variables, incluidas sus indeterminaciones. Cuando se observa el resultado de la siguiente medición (necesariamente corrompida con algún error, incluyendo ruido aleatorio), estos estimados se actualizan usando un promedio ponderado, dando más peso a las estimaciones con mayor certeza. El algoritmo es recursivo y puede operar en tiempo real, usando las mediciones de entrada actuales y el estado previamente calculado, junto con su matriz de incertidumbre; no se requiere información adicional pasada.
La optimalidad del filtro de Kalman asume que los errores tienen una distribución normal (gaussiana). En palabras de Rudolf E. Kálmán: “Las siguientes suposiciones están hechas acerca de procesos aleatorios: los fenómenos físicos aleatorios pueden considerarse como consecuencia de fuentes primarias aleatorias que excitan sistemas dinámicos. Se asume que las fuentes primarias son procesos gaussianos independientes con media cero; los sistemas dinámicos serán lineales.”[13] Independientemente de la gaussanidad, si se conocen las covariantes, el filtrado de Kalman es el mejor estimador lineal posible en el sentido del error cuadrático medio mínimo,[14] aunque podrían existir estimadores no lineales mejores. Es un concepto erróneo común (perpetuado en la literatura) que el filtro de Kalman no puede aplicarse de forma rigurosa a menos que se suponga que todos los procesos de ruido son gaussianos.[15]
También se han desarrollado extensiones y generalizaciones del método, como el filtro de Kalman extendido y el filtro de Kalman no lineal, que funcionan en sistemas no lineales. La base es un modelo de Markov oculto, en el que el espacio de estados de las variables latentes es continuo y todas las variables latentes y observadas tienen distribuciones gaussianas. El filtrado de Kalman ha sido usado con éxito en la fusión de multi-sensores[16] y en redes de sensores distribuidas para desarrollar el filtrado de Kalman distribuido o por consenso. [17]
Historia
El método de filtrado recibe el nombre del emigrante húngaro Rudolf E. Kálmán, aunque Thorvald Nicolai Thiele [18][19] y Peter Swerling desarrollaron un algoritmo similar. Richard S. Bucy, del Laboratorio de Física Aplicada de Johns Hopkins contribuyó a la teoría, causando que a veces se le conozca como el filtrado de Kalman–Bucy. Kalman se inspiró en derivar el filtro de Kalman aplicando variables de estado al problema del filtrado de Wiener.[20] Stanley F. Schmidt es generalmente acreditado con el desarrollo de la primera implementación del filtro de Kalman. Se dio cuenta de que el filtro puede ser dividido en dos partes distintas, una para los lapsos de tiempo entre las salidas de los sensores y otra para la incorporación de mediciones.[21] Fue durante una visita de Kalman al Centro de Investigación Ames de la NASA que Schmidt vio la aplicabilidad de las ideas de Kalman al problema no lineal de estimación de trayectorias para el programa Apolo, lo que llevó a su incorporación en la computadora de navegación del Apolo.[22]
Este filtro digital a veces es denominado como el filtro de Stratonovich–Kalman–Bucy porque es un caso específico de un filtro no lineal más general desarrollado por el matemático soviético Ruslan Stratónovich. De hecho, algunas de las ecuaciones del filtro lineal aparecieron en artículos de Stratónovich publicados antes del verano de 1961, cuando Kálmán se reunió con Stratonovich durante una conferencia en Moscú.
El filtrado de Kalman fue descrito y desarrollado de forma parcial en artículos técnicos por Swerling (1958), Kálmán (1960) y Kálmán y Bucy (1961).
La computadora del Apolo usaba 2k de RAM de núcleos magnéticos y 36k de memoria de cableado [...]. El CPU fue construido por circuitos integrados [...]. La velocidad del reloj era inferior a 100 kHz. El hecho de que los ingenieros del MIT fueron capaces de incorporar un software tan avanzado (una de las primeras aplicaciones del filtro de Kalman) en una computadora tan pequeña s verdaderamente notable.
— Entrevista con Jack Crenshaw, por Matthew Reed, TRS-80.org (2009)
Los filtros de Kalman han sido vitales en la implementación del sistema de navegación e submarinos nucleares balísticos de la Marina de los Estados Unidos, también en los sistemas de guía y navegación de misiles de crucero como el Tomahawk de la Marina de Estados Unidos y el misil de crucero lanzado desde el aire de la Fuerza Aérea de Estados Unidos. También es usado en los sistemas de guía y navegación de vehículos de lanzamiento reutilizables y el control de actitud y navegación de naves espaciales que están en la Estación Espacial Internacional. [23]
Descripción general del cálculo
El filtrado de Kalman utiliza el modelo dinámico de un sistema (ej. Leyes físicas del movimiento), las entrada de control conocidas de dicho sistema y múltiples mediciones secuenciales (como las de los sensores)para formar un estimado de las cantidades variables del sistema (su estado) que es mejor que el estimado obtenido usando únicamente una medición. Por eso, es un algoritmo común de fusión de sensores y de datos.
Los datos ruidosos de los sensores, las aproximaciones en las ecuaciones que describen la evolución del sistema y los factores externos que no son contemplados limitan la precisión con la que es posible saber el estado del sistema. El filtro de Kalman maneja de forma efectiva la incertidumbre gracias al ruido en los datos de los sensores y, hasta cierto grado, los factores externos aleatorios. El filtro de Kalman produce una estimación del estado del sistema como un promedio entre el estado predicho del sistema y una nueva medida, usando un promedio ponderado. El propósito de los pesos es que los valores (menores) son más "confiables". Los pesos se calculan con la covarianza, que es una medida de la incertidumbre estimada en la predicción del estado del sistema. El resultado de este promedio ponderado es una estimación nueva del estado que se encuentra entre el estado predicho y el estado medido, y tiene una incertidumbre estimada menor que cualquiera de los dos por separado. Este proceso se repite en cada paso de tiempo, donde la estimación nueva y su covarianza informan la predicción usada en la iteración que sigue. Esto significa que el filtro de Kalman funciona de manera recursiva y solo requiere la última “mejor suposición” del estado del sistema, en lugar de toda la historia, para calcular un nuevo estado.
La certeza de las mediciones y la estimación del estado actual son consideraciones importantes. Es común discutir la respuesta del filtro en términos de ganancia del filtro de Kalman. Las ganancias de Kalman son el peso dado a las mediciones y el estimado actual puede "ajustarse" para alcanzar un desempeño particular. Con una ganancia alta, el filtro coloca más peso a las mediciones más recientes y se adapta a ellas más rápido. Con una ganancia baja, el filtro se ajusta más de cerca a las predicciones del modelo. En los extremos, una ganancia alta (cerca a uno) dará una trayectoria estimada más alta, mientras que una ganancia baja (cerca a cero) suavizará el ruido, pero bajará la capacidad de respuesta.
Al realizar los cálculos del filtro (como se discute más adelante), la estimación del estado y las covarianzas están codificadas en matrices por las múltiples dimensiones involucradas en una serie de cálculos. Esto permite representar relaciones lineales entre diferentes variables de estado (como posición, velocidad y aceleración) en cualquiera de los modelos de transición o covarianzas.
Ejemplo de aplicación
Como un ejemplo de aplicación, consideremos el problema de determinar la ubicación exacta de un camión. El camión puede estar equipado con una unidad GPS que nos brinda una estimación de la posición con un margen de error de unos metros. El estimado del GPS probablemente sea ruidosa; las lecturas “saltan” rápidamente, aunque se mantienen dentro de unos pocos metros de la posición real. Además, dado que se espera que el camión siga las leyes de física, su posición también se puede estimar integrando su velocidad a lo largo del tiempo, lo cual termina llevando un registro de las revoluciones de las ruedas y el ángulo del volante. Esta técnica se conoce como navegación inercial (dead reckoning). Normalmente la navegación inercial proporcionará una estimación muy suave de la posición del camión, pero se desviará con el tiempo a medida de que acumulen errores pequeños.
En este ejemplo, se puede considerar que el filtro de Kalman opera en dos fases distintas: predicción y actualización. En la fase de predicción, la posición se modifica de acuerdo con las leyes físicas de movimiento (el modelo dinámico o de "transición de estados"). No solo calculará una nueva estimación de la posición, también se calculará una nueva covarianza. Tal vez esa covarianza sea proporcional a la velocidad del camión porque tenemos menos certeza sobre la precisión de la estimación de posición por la navegación oficial altas velocidades, pero mucha en bajas velocidades. Luego, en la fase de actualización, se toma una posición del camión a partir de la unidad GPS. Junto con esta medición llega cierta incertidumbre y su covarianza relativa con relación a la predicción de la fase anterior determina cuanto influirá la nueva medición en la predicción actualizada. Idealmente, como las posiciones de la navegación inercial tienden a desviarse de la posición real, las medidas del GPS deberían "jalar" a las estimaciones de la posición hacia la posición real, pero sin perturbarla al punto de volverse ruidosa y saltar rápidamente.
Descripción técnica y contexto
El filtro de Kalman es un filtro recursivo eficiente que estima el estado interno de un sistema dinámico lineal a partir de una serie de mediciones ruidosas. Se utiliza en un amplio rango de aplicaciones en ingeniería y econometría desde el radar y visión por computadora hasta la estimación de modelos macroeconómicos estructurales, [24] [25] y es un tema importante en la teorías de control e ingeniería de sistemas de control. Juntos con el regulador lineal-cuadrático (LQR), el filtro el Kalman resuelve el problema de control lineal–cuadrático–gaussiano (LQG). El filtro de Kalman, el regulador lineal-cuadrático y el controlador lineal–cuadrático–gaussiano son soluciones a los problemas más fundamentales de la teoría de control.
En la mayoría de las aplicaciones, el estado interno es más grande (tiene más grados de libertad) que las pocas variables "observables" que se miden. Sin embargo, al combinar una serie de mediciones, el filtro de Kalman puede estimar todo el estado interno.
Para la teoría de Dempster–Shafer, cada ecuación de estado o de observación se considera un caso especial de una función de creencia lineal, y el filtrado de Kalman es una caso especial de la combinación de funciones de creencia lineales en un árbol de unión o árbol de Markov. Métodos adicionales incluyen el filtrado por creencias que utiliza actualizaciones bayesianas o basadas en evidencia para las ecuaciones de estado.
Una gran variedad de filtrados de Kalman existen en la actualidad: La formulación original de Kalman —ahora llamado el filtro de Kalman "simple" —, el filtro de Kalman–Bucy, el filtro "extendido" de Schmidt, el filtro de información, y una variedad de filtros de "raíz cuadrada" que fueron desarrollados por Bierman, Thornton y muchos otros. Quizá el filtro "simple" de Kalman más utilizado sea el bucle de enganche de fase (phase-locked loop, PLL), que ahora es ubicuo en radios, especialmente en radios de modulación de frecuencia (FM), televisores, receptores de comunicaciones satelitales, receptores de comunicaciones satelitales, sistemas de comunicación en el espacio exterior y básicamente cualquier otro equipo electrónico de comunicaciones.
Modelo de sistema dinámico subyacente
El filtrado de Kalman está basado en sistemas dinámicos lineales discretizados en el dominio del tiempo. Son modelados con una cadena de Markov construida sobre operadores lineales perturbados por errores que pueden incluir ruido gaussiano. El estado del sistema objetivo se refiere a la configuración real del sistema (aunque oculta) de interés, que se representa como un vector de números reales. En cada incremento de tiempo discreto, un operador lineal se aplica al estado actual para generar un estado nuevo, con un poco de ruido mezclado y, opcionalmente, algo de información de los controles del sistema si se conocen. Luego, otro operador lineal mezclado con más ruido genera las salidas medibles (observaciones) a partir del estado verdadero ("oculto").
El filtrado de Kalman puede considerarse análogo al modelo oculto de Markov, con la diferencia de que las variables de estado ocultas tienen valores en un espacio continuo, a diferencia del espacio de estados discretos del modelo oculto de Markov. Hay una analogía fuerte entre las ecuaciones del filtro de Kalman y las del modelo oculto de Markov. Una revisión de este y otros modelos se presenta en Roweis y Ghahramani (1999)[26] y en Hamilton (1994), Capítulo 13.[27]
Para usar el filtro de Kalman para estimar el esetado interno de un proceso dado únicamente la secuencia de las observaciones ruidosas, es necesario modelar el proceso de acuerdo al siguiente marco. Esto significa especificar las matrices para cada paso del tiempo , de la siguiente forma:
- , el modelo de transición de estado;
- , el modelo de observación;
- , la covarianza del ruido del proceso;
- , la covarianza del ruido de la observación;
- y a veces , el modelo de entrada de control; si se incluye entonces también existe
- , el vector de control, que representa la entrada de control en el modelo de entrada de control.
Como se observa, es común en muchas aplicaciones que las matrices , , , , y sean constantes en el tiempo, en cuyo caso se puede omitir el índice .
El modelo del filtro de Kalman asume que el estado verdadero en el tiempo evoluciona desde el estado según:
Donde:
- es el modelo de transición de estado, que se aplica al estado previo xk−1;
- es el modelo de entrada de control, que se aplica al vector de control ;
- es el ruido del proceso, que se asume proviene de una distribución normal multivariante con media cero, , y covarianza : . Si es independiente del tiempo, siguiendo a Roweis y Ghahramani,[26] se escribe en lugar de para enfatizar que el ruido no tiene conocimiento del tiempo.
En el tiempo una observación (o medición) del estado verdadero según:Donde:
- es el modelo de observación, que mapea el espacio del estado verdadero al espacio observado y
- es el ruido de observación, que se asume como ruido blanco gaussiano con media cero y covarianza : .
De forma análoga a , se puede escribir en lugar de si s independiente del tiempo
El estado inicial y los vectores de ruido en cada paso se asumen mutuamente independientes.
Muchos sistemas dinámicos en tiempo real no se ajustan a este modelo. De hecho, la dinámica no modelada puede degradar seriamente el rendimiento del filtro, incluso cuando se supone que debe funcionar con señales estocásticas desconocidas como entradas. La razón es que el efecto de la dinámica no modelada depende de la entrada y, por lo tanto, puede llevar al algoritmo de estimación a la inestabilidad (divergencia). Por otro lado, señales de ruido blanco independientes no harán que el algoritmo diverja. El problema de distinguir entre ruido de medición y dinámica no modelada es complicado y se trata como un problema de teoría de control usando control robusto. [28][29]
Detalles
El filtro de Kalman es un estimador recursivo. Esto significa que solo se necesita el estado estimado del paso del tiempo anterior y la medición actual para calcular el estado actual. En contraste con las técnicas de medición por lotes, no se necesita historial de las observaciones o estimaciones. En lo que sigue la notación https://wikimedia.org/api/rest_v1/media/math/render/svg/c3eff5422264edcbe21aed62839528629f28dc6a representa el estimado de en el tiempo n dadas las observaciones hasta e incluyendo el tiempo m ≤ n.
El estado del filtro está representado por dos variables:
- , la media de la estimación del estado a posteriori en el tiempo k, dadas las observaciones hasta e incluyendo el tiempo k.
- , la matriz de covarianza de la estimación a posteriori (una medida de la precisión estimada de la estimación del estado).
La estructura del algoritmo del filtro de Kalman es similar a la del filtro alfa-beta. El filtro de Kalman puede ser escrito con una sola ecuación; sin embargo, se suele conceptualizar en dos fases distintas: "Predicción" y "Actualización". La fase de predicción utiliza la estimación del paso de tiempo anterior para producir una estimación del estado en el paso de tiempo actual. Cada estado corresponde a un punto del espacio de estado. Esta predicción del estado estimado también es conocida como estimación del estado a priori porque, aunque es una estimación del estado en el paso de tiempo actual, no incluye información de las observaciones de ese mismo paso. En la fase de actualización la innovación (el residuo previo al ajuste), es decir, la diferencia entre la predicción a priori y la información de observación actual, se multiplica por la ganancia de Kalman óptima y se combina con la estimación previa del estado para refinar la estimación. Esta estimación mejorada basada en la observación actual se denomina estimación del estado a posteriori.
Típicamente ambas fases se alternan, con la predicción avanzando el estado hasta la siguiente observación programada y, la actualización incorporando dicha actualización. Sin embargo, esto no es necesario; si una observación no está disponible por alguna razón, la actualización puede ser saltada y realizar múltiples procedimientos de predicción. De forma similar, si múltiples observaciones independientes están disponibles al mismo tiempo, múltiples procedimientos de actualización pueden ser realizadas (normalmente con diferentes matrices de observación Hk). [30][31]
Predicción
| Estimación del estado predicho (a priori) | |
| Covarianza de la estimación predicha (a priori) |
Actualización
| Innovación o residuo previo al ajuste de la medición | |
| Covarianza de la innovación (o residuo previo al ajuste) | |
| Ganancia óptima de Kalman | |
| Estimación del estado actualizada (a posteriori) | |
| Covarianza de la estimación actualizada (a posteriori) | |
| Residuo posterior al ajuste de la medición |
La fórmula de la covarianza de la estimación actualizada (a posteriori) mostrada arriba es válida para la ganancia óptima Kk que minimiza el error residual, y esta forma es la más utilizada en aplicaciones. La demostración de las fórmulas está en la sección de derivaciones, donde también se encuentra la fórmula válida para cualquier Kk.
Una forma más intuitiva de expresar la estimación del estado actualizado () es:
Esta expresión nos recuerda a una interpolación lineal: para t entre [0,1]. En nuestro caso:
- t, es la matriz que toma valores desde cero (cuando el sensor tiene mucho error) hasta I o una proyección (cuando el error es bajo).
- a, es el estado interno estimado del modelo.
- b, es el estado interno estimado a partir de la medición, suponiendo que es no singular.
Esta expresión también se asemeja al paso de actualización del filtro alfa-beta.
Invariantes
SI el modelo es correcto, y los valores de y reflejan los valores del estado inicial, entonces se preservan los siguientes invariantes:
Donde es el valor esperado de . Eso quiere decir que las estimaciones tienen un error medio de cero. Además:
por lo tanto, las matrices de covarianza reflejan con precisión la covarianza de las estimaciones.
Estimación de las covarianzas del ruido Qk y Rk
la implementación práctica del filtro de Kalman suele ser difícil debido a la dificultad de obtener una buena estimación de las matrices de covarianza del ruido Qk y Rk. Se han realizado varias investigaciones para estimar estas covarianzas de los datos. Un método práctico para realizar esto es la técnica de mínimos cuadrados con autocovarianza (ALS) esta técnica usa autocovarianzas con retardo temporal de datos de operación rutinaria para estimar las covarianzas. [32][33] El código en GNU Octave y Matlab para calcular las matrices de covarianza del ruido utilizando la técnica ALS está disponible en línea bajo la Licencia Pública General GNU (GPL).[34]
Se ha propuesto el Filtro de Kalman de Campo (FKF), un algoritmo bayesiano que permite la estimación simultánea del estado, parámetros y covarianza del ruido. [35] El algoritmo FKF tiene una formulación recursiva buena, convergencia observada y una complejidad relativamente baja, lo que sugiere que puede ser una alternativa valiosa a los métodos ALS. Otro enfoque es el filtro de Kalman optimizado (OKF) que considera las matices de covarianza no como representaciones del ruido, sino como parámetros destinados a lograr la estimación más precisa del estado. Ambas perspectivas coinciden bajo los supuestos del KF, pero a veces se contradicen bajo los supuestos del KF. Por lo tanto, la estimación de estados mediante OKF resulta más robusta frente a inexactitudes en el modelado.
Optimalidad y rendimiento
El filtro de Kalman provee una estimación de estado óptima en casos donde a) el modelo coincide perfectamente con el sistema real, b) el ruido de entrada es "blanco" (no correlacionado), y c) las covarianzas del ruido son conocidas exactamente. El ruido correlacionado también puede ser tratado con el filtro de Kalman [36] Se han propuesto varios métodos para la estimación de las covarianzas del ruido en las últimas décadas, incluido ALS mencionado en la sección anterior. De forma general, si los supuestos del modelo no coinciden con el sistema real perfectamente, la estimación óptima del estado no se obtiene necesariamente fijando Qk y Rk a las covarianzas del ruido. En ese caso, los parámetros Qk y Rk pueden ajustarse de forma explícita para optimizar la estimación del estado, por ejemplo, usando aprendizaje supervisado estándar.
Después de establecer las covarianzas, es útil evaluar el rendimiento del filtro; es decir, si es posible mejorar la calidad de la estimación del estado. Si el filtro de Kalman trabaja de forma óptima, la secuencia de innovación (el error de predicción de la salida) es ruido blanco; por lo tanto, la propiedad de blancura de las innovaciones mide el rendimiento del filtro. se pueden usar diferentes métodos para este propósito.[37] Si los términos de ruido se distribuyen de manera no gaussiana, se conocen en la literatura métodos para evaluar el rendimiento de la estimación del filtro basados en desigualdades de probabilidad o en la teoría de muestras grandes.[38][39]
Ejemplo de aplicación técnica
Considere un camión en rieles rectos sin fricción. Inicialmente el camión esta detenido en la posición 0, pero es sacudido de un lado a otro por fuerzas aleatorias e incontroladas. La posición del camión se mide cada Δt segundos, pero esas medidas son imprecisas; queremos mantener un modelo de la posición velocidad del camión. Aquí se muestra como se deriva el modelo el cual se crea el filtro de Kalman.
Dado que son constantes, se omiten sus índices de tiempo.
La posición y velocidad el camión se describen mediante el espacio de estados lineal:
Donde es la velocidad, es decir, la derivada de la posición con respecto al tiempo.
Asumimos que entre los pasos de tiempo (k − 1) y k fuerzas incontrolables causan la aceleración constante de ak que es normalmente distribuida con media 0 y derivación estándar σa. A partir de las leyes de Newton, concluimos que:
(no hay un término ya que no existen entradas de control conocidas. En su lugar, ak es el efecto de una entrada desconocida y aplica ese efecto al vector de estados) donde.....
de modo que
donde
La matriz no tiene rango completo (su rango es uno si ). Por lo tanto la distribución no es absolutamente continua y no tiene función de densidad de probabilidad. Otra forma de expresarlo, evitando distribuciones degeneradas explícitas, es:
En cada fase de tiempo, se realiza una medición ruidosa de la posición verdadera del camión. Supongamos que el ruido de medición vk también se distribuye normalmente, con media 0 y desviación estándar σz.
donde
y
Conocemos el estado inicial del camión con perfecta posición, por lo que inicializamos:
y para indicarle al filtro que conocemos la posición y velocidad exacta le damos una matriz de covarianza nula:
Si la posición inicial y la velocidad no son conocidas perfectamente, la matriz de covarianza debe inicializarse con varianzas apropiadas en su diagonal:El filtro preferirá la información de las primeras medidas sobre la información ya presente en el modelo.
Forma asintótica
Para simplificar, asuma que la entrada de control . Luego el filtro de Kalman puede escribirse como:
Una ecuación similar se cumple si incluimos una entrada de control no nula. Las matrices de ganancia y las matrices de covarianza evolucionan independientemente de las medidas . A partir de lo anterior, las cuatro ecuaciones necesarias para actualizar las matrices son:
Como estas dependen solamente del modelo y no de las medidas, pueden computarse fuera de línea. La convergencia de las matrices de ganancia hacia una matriz asintótica se aplica bajo las condiciones establecidas por Walrand y Dimakis.[40] Si la serie converge, entonces converge de forma exponencial hacia una asintótica, asumiendo ruido no nulo en la planta. [41] Análisis recientes han mostrado que la tasa y la naturaleza de esta convergencia pueden involucrar múltiples modos coiguales, incluyendo componentes oscilatorios, dependiendo de la estructura de autovalores (eigenestructura) del Jacobiano del mapeo de Riccati anterior evaluado en .[42] Para el ejemplo del camión en movimiento descrito arriba, con y , la simulación muestra convergencia en 10 iteraciones.
Usando la ganancia asintótica, y asumiendo que y son independientes de , el filtro de Kalman convierte en un filtro lineal invariante en el tiempo:
La ganancia asintótica , si existe, puede computarse primero resolviendo la siguiente ecuación de Riccati discreta para la covarianza de estado asintótica P∞: [40]
La ganancia asintótica se calcula como antes:Adicionalmente, una forma del filtro de Kalman asintótico más común en teoría de control se da por
donde
Esto conduce a un estimador de la forma
Derivaciones
El filtro de Kalman puede ser derivado como un método de mínimos cuadrados generalizados que opera sobre datos previos.[43]
Derivando la matriz de covarianza de la estimación a posteriori
Comenzando con nuestra invariante en la covarianza del error Pk | k como se indicó abajo:
se sustituye en la definición de
y se sustituye
junto con
y juntando los vectores de error obtenemos:
Cómo el error de medición vk es incorrelacionado con los otros términos, esto se convierte en:
por las propiedades de la covarianza de los vectores, esto se convierte en:
lo cual, usando la intervariante en Pk | k−1 y la definición de Rk se convierte en:
Ésta fórmula (a veces conocida como la forma de Joseph de la ecuación de actualización de la covarianza) es válida para cualquier valor de Kk. Resulta que si Kk es la ganancia óptima de Kalman, esto puede simplificarse aún más como se muestra abajo.
Derivación de la ganancia de Kalman
El filtro de Kalman es un estimador de error cuadrático medio mínimo (MMSE). El error en la estimación del estado a posteriori es:
Buscamos minimizar el valor del cuadrado de la magnitud del vector, . Esto es equivalente a minimizar la traza de la matriz de covarianza de la estimación a posteriori . Al expandir los términos en la ecuación anterior y agrupar, obtenemos:
La traza se minimiza cuando su derivada matricial con respecto a la matriz de ganancia es cero. Usando las reglas de gradiente matricial y la simetría de las matrices involucradas, encontramos que:
Resolviendo esto para Kk obtenemos la ganancia de Kalman:
Esta ganancia, conocida como la ganancia de Kalman óptima, es la que produce estimaciones MMSE cuando se utiliza.
Simplificación de la fórmula de la covarianza del error a posteriori
La fórmula utilizada para calcular la covarianza del error a posteriori puede simplificarse cuando la ganancia de Kalman es igual al valor óptimo derivado anteriormente. Multiplicando ambos lados de nuestra fórmula de ganancia de Kalman a la derecha por SkKkT, se sigue que:
Refiriéndonos a la fórmula expandida para la covarianza del error a posteriori,
encontramos que los últimos dos términos se cancelan, dando:
Esta fórmula es computacionalmente más barata y por ello casi siempre se usa en la práctica, pero solo es correcta para la ganancia óptima. Si la precisión aritmética es inusualmente baja causando problemas de estabilidad numérica, o si se utiliza deliberadamente una ganancia de Kalman no óptima, no puede aplicarse esta simplificación; en ese caso debe usarse la fórmula de la covarianza del error a posteriori derivada anteriormente (forma de Joseph).
Análisis de sensibilidad
Las ecuaciones del filtrado de Kalman proveen un estimado del estado y su covarianza de error de forma recursiva. El estimado y su calidad dependen de los parámetros del sistema y de las estadísticas del ruido que se introducen como entradas al estimador. Esta sección analiza el efecto de las incertidumbres en las entradas estadísticas del filtro.[44] En ausencia de estadísticas confiables o de los valores reales de las matrices de covarianza de ruido y , la expresión:
ya no proporciona la covarianza de error real. En otras palabras: . En la mayoría de las aplicaciones de tiempo real las matrices de covarianza que son usadas en el diseño del filtro de Kalman son distintas a las matrices de covarianza de ruido reales (verdaderas). Este análisis de sensibilidad describe el comportamiento de la covarianza del error de estimación cuando las covarianzas del ruido, así como las matrices del sistema y que se introducen al filtro, son incorrectas. Así, el análisis de sensibilidad describe la robustez (o sensibilidad) del estimador ante entradas estadísticas y paramétricas mal especificadas.
Esta discusión se limita al análisis de sensibilidad para el caso de incertidumbres estáticas. Esta discusión se limita al análisis de sensibilidad para el caso de incertidumbres estáticas. Aquí las covarianzas reales del ruido son denotadas por y respectivamente, mientras que los valores de diseño usados en el estimador son y respectivamente. La covarianza de error real se denota por y, tal como se calcula en el filtro de Kalman, se denomina la variable de Riccati. Cuando y , significa que . Al calcular la covarianza de error real usando , sustituyendo y usando el hecho de que y , se obtienen las siguientes ecuaciones recursivas para :
y
Mientras se calcula , por diseño el filtro se asume de forma implícita que y . Las expresiones recursivas para y son idénticas, excepto por la presencia de y en lugar de los valores de diseño, respectivamente. Se han realizado investigaciones para analizar la robustez de los sistemas con filtro de Kalman.[45]
Forma factorizada
Un problema del filtro de Kalman es su estabilidad numérica. Si la covarianza del ruido del proceso Qk es pequeña, los errores de redondeo suelen provocar que un autovalor positivo pequeño de la matriz de covarianza del estado P se calcule como un número negativo. Esto hace que la representación numérica P sea indefinida, mientras que su forma verdadera es definida positiva.
Las matrices definidas positivas tienen la propiedad de que se pueden factorizar como el producto de una matriz triangular inferior no singular S y su transpuesta: P = S·ST . El factor S puede calcularse de forma eficiente utilizando el algoritmo de factorización de Cholesky. Esta forma de producto de la matriz de covarianza P es garantizada como simétrica, y para todo 1 <= k <= n, el elemnto diagonal Pkk es igual a la norma euclidiana de la k-ésima fila de S, lo cual es necesariamente positivo. Una forma equivalente, que evita muchas de las operaciones de raíz cuadrada en el algoritmo de factorización de Cholesky, pero que conserva las propiedades numéricas deseables, es la descomposición U-D: P = U·D·UT, donde U es una matriz triangular unitaria (con diagonal unitaria) y D es una matriz diagonal.
Entre ambas, la factorización U-D utiliza la misma cantidad de almacenamiento y algo menos de cómputo y es la factorización triangular más usada. (La literatura temprana sobre la eficiencia relativa es algo engañosa, ya que asumía que las raíces cuadradas eran mucho más costosas en tiempo que las divisiones,[46] mientras que en las computadoras del siglo XXI son solo ligeramente más costosas).
Algoritmos eficientes para los pasos de predicción y actualización del filtro de Kalman en forma factorizada fueron desarrollados por G. J. Bierman y C. L. Thornton.[47][48]
La descomposición L·D·LTde la matriz de covarianza de la innovación Sk es la base de otro filtro de raíz cuadrada, numéricamente eficiente y robusto.[49] El algoritmo comienza con la descomposición LU tal como está implementada en el Linear Algebra PACKage (LAPACK). Estos resultados se factorizan aún más en la estructura L·D·LT con los métodos dados por Golub y Van Loan (algoritmo 4.1.2) para una matriz simétrica no singular.[50] Cualquier matriz de covarianza singular se pivotea de forma que la primera partición diagonal sea no singular y bien condicionada. El algoritmo de pivoteo debe retener cualquier porción de la matriz de covarianza de innovación que corresponda directamente a las variables de estado observadas Hk·xk|k-1 las cuales están asociadas con observaciones auxiliares en yk.
El filtro de raíz cuadrada l·d·lt requiere la ortogonalización del vector de observación.[51][52] Esto puede hacerse con la inversa de la raíz cuadrada de la matriz de covarianza de las variables auxiliares usando el Método 2 en Higham (2002, p. 263). [53]
Sistema lineal en el espacio de estado
Se entiende como espacio de estado el conjunto de todos los posibles estados de un sistema dinámico.
Caso de tiempo discreto

Se tiene un sistema representado en el espacio de estado:
siendo y el verdadero estado y su estimación (u observación) en el tiempo . Se consideran y tales que:
es ruido blanco de valor promedio igual a cero y con varianza en el instante .
es ruido blanco de valor promedio igual a cero y con varianza en el instante .
El filtro de Kalman permite estimar el estado a partir de las mediciones anteriores de , , , y las estimaciones anteriores de .
Caso de tiempo continuo
Se tiene un sistema representado en el espacio de estado:
donde:
es ruido blanco de valor promedio igual a cero y con varianza en el intervalo de tiempo descrito como .
es ruido blanco de valor promedio igual a cero y con varianza en el intervalo de tiempo descrito como .
El filtro de Kalman permite estimar el estado a partir de las mediciones anteriores de , , , y las estimaciones anteriores de .
Algoritmo del filtro discreto de Kalman
El filtro de Kalman es un algoritmo recursivo en el que el estado es considerado una variable aleatoria Gaussiana. El filtro de Kalman suele describirse en dos pasos: predicción y corrección.
Predicción
| Estimación a priori |
|
|
Covarianza del error asociada a la estimación a priori |
|
Corrección
| Actualización del residuo de la medición |
|
| Ganancia de Kalman | |
| Estimación a posteriori | |
| Covarianza del error asociada a la estimación a posteriori |
donde:
Matriz de transición de estados. Es la matriz que relaciona con en la ausencia de funciones forzantes (funciones que dependen únicamente del tiempo y ninguna otra variable).
El estimado a priori del vector de estados
Covarianza del error asociada a la estimación a priori
Vector de mediciones al momento k
La matriz que indica la relación entre mediciones y el vector de estado al momento k, en el supuesto ideal de que no hubiera ruido en las mediciones.
La matriz de covarianza del ruido de las mediciones (depende de la resolución de los sensores).
Extensibilidad
En el caso de que el sistema dinámico sea no lineal, es posible usar una modificación del algoritmo llamada "Filtro de Kalman Extendido", el cual linealiza el sistema en torno al identificado realmente, para calcular la ganancia y la dirección de corrección adecuada. En este caso, en vez de haber matrices A, B y C, hay dos funciones y que entregan la transición de estado y la observación (la salida contaminada) respectivamente. El modelo lineal dinámico con observación no lineal y no Gaussiano se estudia en este caso. Se extiende el teorema de Masreliez (ver. C. Johan Masreliez, 1975) como una aproximación de filtrado no Gaussiano con ecuación de estado lineal y ecuación de observaciones también lineal, al caso en que la ecuación de observaciones no lineal pueda aproximarse mediante el desarrollo en serie de Taylor de segundo orden.[54]
Primeras aplicaciones
Kalman encontró una audiencia receptiva de su filtro en el verano de 1960 en una visita de Stanley F. Schmidt del Ames Research Center de NASA en Mountain View (California). Kalman describió su resultado y Schmidt reconoció su potencial aplicativo - la estimación de la trayectoria y el problema del control del programa Apolo. Schmidt comenzó a trabajar inmediatamente en lo que fue probablemente la primera implementación completa del filtro de Kalman. Entusiasmado sobre el éxito del mismo, Schmidt impulsó usar el filtro en trabajos similares. A comienzos de 1961, Schmidt describió sus resultados a Richard H. Battin del laboratorio de instrumentación del MIT (llamado más tarde el Charles Stark Draper Laboratory). Battin estuvo usando métodos de espacio de estado para el diseño y la implementación de sistemas de navegación astronáutica, y él hizo al filtro de Kalman parte del sistema de guía del Apolo, el cual fue diseñado y desarrollado en el laboratorio de instrumentación. A mediados de la década de 1960, influenciado por Schmidt, el filtro de Kalman se hizo parte del sistema de navegación del transporte aéreo C5A, siendo diseñado por Lockheed Aircraft Company. El filtro de Kalman resolvió el problema de la fusión de datos asociado con la combinación de los datos del radar con los datos del sensor inercial al lograr una aproximación global de la trayectoria de la aeronave. Desde entonces ha sido parte integral de la estimación de trayectorias a bordo de las aeronaves y del diseño de sistemas de control.[55]
Impacto del filtro de Kalman en la tecnología
Desde el punto de vista de los problemas que involucran control y estimación, el filtro de Kalman ha sido considerado el gran logro en la teoría de estimación del siglo XX. Muchos de los logros desde su introducción no hubiesen sido posibles sin éste. Se puede decir que el filtro de Kalman fue una de las tecnologías que permitió la era espacial, ya que la precisión y eficiencia en la navegación de las naves espaciales a través del sistema solar no habrían sido posibles sin éste.
El principal uso del filtro de Kalman ha sido en los sistemas de control modernos, en el seguimiento y navegación de todo tipo de vehículos y en el diseño predictivo de estimación de los mismos.
Aplicaciones
- Reducción de ruido en lectura de sensores
- Algoritmos de control en radares
- Vehículos de conducción autónoma
- Interfaz Cerebro Computadora
- sistema global de navegación por satélite
Véase también
- Filtro de Kalman Extendido
- filtro adaptativo
- filtro de Wiener
- teorema de Bayes
- Teorema de Shannon-Hartley
Notas
- ↑ «Chapter 11 Tutorial: The Kalman Filter».
- ↑ Fauzi, Hilman (15 July 2019). «A Three-bar Truss Design using Single-solution Simulated Kalman Filter Optimizer». A Three-bar Truss Design using Single-solution Simulated Kalman Filter Optimizer. doi:10.15282/mekatronika.v1i2.4991. Consultado el 19 de agosto de 2025.
- ↑ Paul Zarchan. Fundamentals of Kalman Filtering: A Practical Approach. American Institute of Aeronautics and Astronautics, Incorporated.
- ↑ Lora-Millan, Julio S.; Hidalgo, Andres F.; Rocon, Eduardo (2021). «An IMUs-Based Extended Kalman Filter to Estimate Gait Lower Limb Sagittal Kinematics for the Control of Wearable Robotic Devices». IEEE Access.
- ↑ Kalita, Diana; Lyakhov, Pavel (December 2022). «Moving Object Detection Based on a Combination of Kalman Filter and Median Filtering». Big Data and Cognitive Computing 6 (4): 142. ISSN 2504-2289. doi:10.3390/bdcc6040142.
- ↑ Ghysels, Eric; Marcellino, Massimiliano (2018). Applied Economic Forecasting using Time Series Methods. New York, NY: Oxford University Press. p. 419. ISBN 978-0-19-062201-5. OCLC 1010658777.
- ↑ Azzam, M. Abdullah; Batool, Uzma; Fauzi, Hilman (15 July 2019). «Design of an Helical Spring using Single-solution Simulated Kalman Filter Optimizer». Mekatronika 1: 93-97. doi:10.15282/mekatronika.v1i2.4990. Consultado el 19 de agosto de 2025.
- ↑ Wolpert, Daniel; Ghahramani, Zoubin (2000). «Computational principles of movement neuroscience». Nature Neuroscience 3: 1212-7. PMID 11127840. doi:10.1038/81497.
- ↑
- ↑ Delgado-Aguiñaga, J.A.; Besançon, G.; Begovich, O.; Carvajal, J.E. (2016-04). «Multi-leak diagnosis in pipelines based on Extended Kalman Filter». Control Engineering Practice (en inglés) 49: 139-148. doi:10.1016/j.conengprac.2015.10.008. Consultado el 21 de agosto de 2025.
- ↑ Sanchez, Edgar N.; Alanís, Alma Y.; Loukianov, Alexander G. (2008). Discrete-Time High Order Neural Control: Trained with Kaiman Filtering. Studies in Computational Intelligence (en inglés) 112. Springer Berlin Heidelberg. ISBN 978-3-540-78288-9. doi:10.1007/978-3-540-78289-6. Consultado el 21 de agosto de 2025.
- ↑ Sanchez, Edgar N.; Alanis, Alma Y.; Loukianov, Alexander G. (2007). Melin, Patricia, ed. Discrete-Time Recurrent High Order Neural Observer for Induction Motors (en inglés) 4529. Springer Berlin Heidelberg. pp. 711-721. ISBN 978-3-540-72917-4. doi:10.1007/978-3-540-72950-1_70. Consultado el 21 de agosto de 2025.
- ↑ Kalman, R. E. «A New Approach to Linear Filtering and Prediction Problems». Journal of Basic Engineering 82: 35-45. doi:10.1115/1.3662552.
- ↑ Humpherys, Jeffrey (2012). «A Fresh Look at the Kalman Filter». SIAM Review 54: 801-823. doi:10.1137/100799666.
- ↑ Uhlmann, Jeffrey; Julier, Simon J. (30 de junio de 2022). «Gaussianity and the Kalman Filter: A Simple Yet Complicated Relationship». Journal de Ciencia e Ingeniería 14 (1): 21-26. ISSN 2539-066X. doi:10.46571/JCI.2022.1.2. Consultado el 20 de agosto de 2025.
- ↑ Li, Wangyan; Wang, Zidong; Wei, Guoliang; Ma, Lifeng; Hu, Jun; Ding, Derui (2015). «A Survey on Multisensor Fusion and Consensus Filtering for Sensor Networks». Discrete Dynamics in Nature and Society 2015: 1-12. ISSN 1026-0226. doi:10.1155/2015/683701.
- ↑ Li, Wangyan; Wang, Zidong; Ho, Daniel W. C.; Wei, Guoliang (2019). «On Boundedness of Error Covariances for Kalman Consensus Filtering Problems». IEEE Transactions on Automatic Control 65: 2654-2661. ISSN 0018-9286. doi:10.1109/TAC.2019.2942826.
- ↑ Lauritzen, Steffen L. (1981-12). «Time Series Analysis in 1880: A Discussion of Contributions Made by T.N. Thiele». International Statistical Review / Revue Internationale de Statistique 49 (3): 319. doi:10.2307/1402616. Consultado el 21 de agosto de 2025.
- ↑ Lauritzen, Steffen L.; Thiele, T. N. (2002). Thiele, pioneer in statistics. Oxford University Press. ISBN 978-0-19-850972-1.
- ↑ Grewal, Mohinder S.; Andrews, Angus P. (2015). Kalman filtering: theory and practice using MATLAB (4th ed edición). Wiley. ISBN 978-1-118-98498-7.
- ↑ Grewal, Mohinder S.; Andrews, Angus P. (2 de enero de 2002). Kalman Filtering. Wiley. ISBN 978-0-471-39254-5. Consultado el 21 de agosto de 2025.
- ↑ Elliott, Derek W. (1999). «Project Apollo Crew (1967), National Aeronautics and Space Administration (NASA) astronauts». American National Biography Online (Oxford University Press). ISBN 978-0-19-860669-7. Consultado el 21 de agosto de 2025.
- ↑ Gaylor, David; Lightsey, E. Glenn (11 de agosto de 2003). GPS/INS Kalman Filter Design for Spacecraft Operating in the Proximity of International Space Station (en inglés). American Institute of Aeronautics and Astronautics. ISBN 978-1-62410-090-1. doi:10.2514/6.2003-5445. Consultado el 21 de agosto de 2025.
- ↑ Strid, Ingvar; Walentin, Karl (2009-04). «Block Kalman Filtering for Large-Scale DSGE Models». Computational Economics (en inglés) 33 (3): 277-304. ISSN 0927-7099. doi:10.1007/s10614-008-9160-4. Consultado el 26 de agosto de 2025.
- ↑ Andreasen, Martin M. (2008). «Non-Linear DSGE Models, the Central Difference Kalman Filter, and the Mean Shifted Particle Filter». SSRN Electronic Journal. ISSN 1556-5068. doi:10.2139/ssrn.1148079. Consultado el 26 de agosto de 2025.
- ↑ a b Roweis, Sam; Ghahramani, Zoubin (1 de febrero de 1999). «A Unifying Review of Linear Gaussian Models». Neural Computation (en inglés) 11 (2): 305-345. ISSN 0899-7667. doi:10.1162/089976699300016674. Consultado el 26 de agosto de 2025.
- ↑ 13 The Kalman Filter. Princeton University Press. 31 de diciembre de 1994. pp. 372-372. ISBN 978-0-691-21863-2. Consultado el 26 de agosto de 2025.
- ↑ Terra, Marco H.; Cerri, Joao P.; Ishihara, Joao Y. (2014-09). «Optimal Robust Linear Quadratic Regulator for Systems Subject to Uncertainties». IEEE Transactions on Automatic Control 59 (9): 2586-2591. ISSN 0018-9286. doi:10.1109/TAC.2014.2309282. Consultado el 26 de agosto de 2025.
- ↑ Ishihara, J.Y.; Terra, M.H.; Campos, J.C.T. (2006-08). «Robust Kalman Filter for Descriptor Systems». IEEE Transactions on Automatic Control (en inglés) 51 (8): 1354-1354. ISSN 0018-9286. doi:10.1109/TAC.2006.878741. Consultado el 26 de agosto de 2025.
- ↑ Kelly, Alonzo (2 de mayo de 1994). A 3D State Space Formulation of a Navigation Kalman Filter for Autonomous Vehicles. Defense Technical Information Center. Consultado el 27 de agosto de 2025.
- ↑ «Wayback Machine». www.frc.ri.cmu.edu. Archivado desde el original el 23 de junio de 2018. Consultado el 27 de agosto de 2025.
- ↑ Rajamani, Murali R.; Rawlings, James B. (2009-01). «Estimation of the disturbance structure from data using semidefinite programming and optimal weighting». Automatica (en inglés) 45 (1): 142-148. doi:10.1016/j.automatica.2008.05.032. Consultado el 29 de agosto de 2025.
- ↑ Wu, Zhuang; Rajamani, Murali R.; Rawlings, James B.; Stoustrup, Jakob (2007-07). «Model Predictive Control of Thermal Comfort and Indoor Air Quality in livestock stable». 2007 European Control Conference (ECC) (IEEE): 4746-4751. doi:10.23919/ecc.2007.7068610. Consultado el 29 de agosto de 2025.
- ↑ Amemiya, Takeshi (1973-07). «Generalized Least Squares with an Estimated Autocovariance Matrix». Econometrica 41 (4): 723. ISSN 0012-9682. doi:10.2307/1914092. Consultado el 29 de agosto de 2025.
- ↑ Bania, Piotr; Baranowski, Jerzy (2016-12). «Field Kalman Filter and its approximation». 2016 IEEE 55th Conference on Decision and Control (CDC) (IEEE): 2875-2880. doi:10.1109/cdc.2016.7798697. Consultado el 29 de agosto de 2025.
- ↑ Bar‐Shalom, Yaakov; Li, X.‐Rong; Kirubarajan, Thiagalingam (4 de enero de 2002). Estimation with Applications to Tracking and Navigation: Theory, Algorithms and Software (en inglés) (1 edición). Wiley. ISBN 978-0-471-41655-5. doi:10.1002/0471221279. Consultado el 29 de agosto de 2025.
- ↑ Matisko, Peter; Havlena, Vladimír (2012-07). «Optimality tests and adaptive Kalman filter». IFAC Proceedings Volumes (en inglés) 45 (16): 1523-1528. doi:10.3182/20120711-3-BE-2027.00011. Consultado el 29 de agosto de 2025.
- ↑ Maryak, J.L.; Spall, J.C.; Heydon, B.D. (2004-01). «Use of the Kalman Filter for Inference in State-Space Models With Unknown Noise Distributions». IEEE Transactions on Automatic Control (en inglés) 49 (1): 87-90. ISSN 0018-9286. doi:10.1109/TAC.2003.821415. Consultado el 29 de agosto de 2025.
- ↑ Spall, James C. (1995-10). «The Kantorovich inequality for error analysis of the Kalman filter with unknown noise distributions». Automatica (en inglés) 31 (10): 1513-1517. doi:10.1016/0005-1098(95)00069-9. Consultado el 29 de agosto de 2025.
- ↑ a b Dimakis, Antonis; Jain, Rahul; Walrand, Jean (2006). «Mechanisms for Efficient Allocation in Divisible Capacity Networks». Proceedings of the 45th IEEE Conference on Decision and Control (IEEE): 1264-1269. doi:10.1109/cdc.2006.377178. Consultado el 30 de agosto de 2025.
- ↑ KALMAN, R. E.; ENGLAR, T. S.; BUCY, R. S. (1 de abril de 1962). FUNDAMENTAL STUDY OF ADAPTIVE CONTROL SYSTEMS. Defense Technical Information Center. Consultado el 30 de agosto de 2025.
- ↑ Herbst, Daniel C. (2024). «Exponential Convergence Rate and Oscillatory Modes of the Asymptotic Kalman Filter Covariance». IEEE Access 12: 188137-188153. ISSN 2169-3536. doi:10.1109/ACCESS.2024.3508578. Consultado el 30 de agosto de 2025.
- ↑ Mahadi, Maaz; Ballal, Tarig; Moinuddin, Muhammad; Al-Saggaf, Ubaid M. (16 de febrero de 2022). «A Recursive Least-Squares with a Time-Varying Regularization Parameter». Applied Sciences 12 (4): 2077. ISSN 2076-3417. doi:10.3390/app12042077. Consultado el 2 de septiembre de 2025.
- ↑ Anderson, Brian D.; Moore, John B. (1979). Optimal filtering. Prentice-Hall information and system sciences series. Prentice-Hall. ISBN 978-0-13-638122-8.
- ↑ Referencia
- ↑ APPENDIX C:. University of Arizona Press. 4 de enero de 2022. pp. 1052-1052. Consultado el 2 de septiembre de 2025.
- ↑ «Factorization Methods for Discrete Sequential Estimation». Mathematics in Science and Engineering. 1977. ISSN 0076-5392. doi:10.1016/s0076-5392(08)x6052-7. Consultado el 2 de septiembre de 2025.
- ↑ APPENDIX C:. University of Arizona Press. 4 de enero de 2022. pp. 1052-1052. Consultado el 2 de septiembre de 2025.
- ↑ Bar-Shalom, Yaakov; Li, Xiao-Rong; Kirubarajan, Thiagalingam (2007). Estimation with applications to tracking and navigation: theory, algorithms and software. A Wiley-Interscience publication (Nachdr. edición). Wiley. ISBN 978-0-471-41655-5.
- ↑ Golub, Gene H.; Van Loan, Charles F. (1996). Matrix computations. Johns Hopkins studies in the mathematical sciences (3rd ed edición). Johns Hopkins University Press. ISBN 978-0-8018-5413-2.
- ↑ Bar-Shalom, Yaakov; Li, Xiao-Rong; Kirubarajan, Thiagalingam (2007). Estimation with applications to tracking and navigation: theory, algorithms and software. A Wiley-Interscience publication (Nachdr. edición). Wiley. ISBN 978-0-471-41655-5.
- ↑ «Factorization Methods for Discrete Sequential Estimation». Mathematics in Science and Engineering. 1977. ISSN 0076-5392. doi:10.1016/s0076-5392(08)x6052-7. Consultado el 2 de septiembre de 2025.
- ↑ Society for Industrial and Applied Mathematics, Nicholas J. (2002). Accuracy and stability of numerical algorithms. Other titles in applied mathematics (2nd ed edición). Society for Industrial and Applied Mathematics (SIAM, 3600 Market Street, Floor 6, Philadelphia, PA 19104). ISBN 978-0-89871-521-7.
- ↑ T. Cipra & A. Rubio; Kalman filter with a non-linear non-Gaussian observation relation, Springer (1991).
- ↑ Mohinder, S. Grewal (2001). Kalman Filtering. John Wiley & Sons, Inc. ISBN 0-471-26638-8.
Enlaces externos
- Introducción al filtro de Kalman
- Filtro de Kalman
- Explicación en castellano (pdf - Dañado)
- Otra explicación en castellano (pdf -Dañado)
- Detección de burbujas inmobiliarias, por J F Bellod