Professional Documents
Culture Documents
por
2008
INTRODUCCION.
Este texto trata de presentar, desde un punto de vista más teórico, los krigeados simple
(importante en las simulaciones condicionales) y ordinario (importante en la construcción
de un modelo de bloques de leyes en un depósito minero).
Figura 1: Krigeado de una zona V la cual contiene N datos. La zona es, en general 3D.
Z S* = λ1Z1 + λ2 Z 2 + ... λN Z N
Como es natural, el krigeado atribuirá pesos débiles a las muestras alejadas, e inversamente.
Sin embargo esta regla intuitiva puede fallar cuando aparecen fenómenos más complejos
conocidos como efecto de pantalla (por ejemplo, en la figura 2 el krigeado atribuye un peso
nulo a las muestras de la segunda aureola) y de transferencia de influencia (tal como
muestra la figura siguiente).
Figura 3: Estimación por krigeado del bloque V de la figura. Se tiene una agrupación de datos al lado derecho.
⎧λ1 = 0.488
⎪
γ (h) = ω | h | ⇒ ⎨λ2 = 0.256
⎪λ = 0.256
⎩ 3
En un caso isótropo ¿cuáles serían las relaciones entre los pesos λi de cada compósito de la
figura 4:
Figura 4: Si el variograma es isótropo, se verifica que λ1 debe ser el de mayor peso. Se debe verificar que
luego vienen λ2 y λ3. Se verifica además que λ4 es muy próximo a λ5+λ6+λ7+λ8 (transferencia de influencia o
desagrupación) y que λ6 es próximo a 0 (efecto de pantalla).
Figura 5: Histograma de las leyes de los bloques y de las muestras. Ambos tienen la misma media (cuando no
hay agrupaciones de datos en zonas ricas o pobres). La varianza de las muestras es más grande que la varianza
de los bloques.
Nuestra noción de krigeado permite interpretar fácilmente este fenómeno, y corregir sus
efectos. Cuando se selecciona un panel rico, la aureola de muestras exteriores tiene, en
general, una ley más débil que las muestras interiores, sin embargo su influencia sobre el
panel a estimar no es despreciable porque el krigeado le atribuye un peso no nulo. Si no se
toma en cuenta esta aureola exterior, se introduce, necesariamente, una causa de error
sistemático por exceso (ver la figura 2a).
La otra recta de regresión, la que entrega la esperanza de la ley media del panel en función
de la ley de la muestra (que es la más interesante) tiene entonces una pendiente inferior a la
unidad. Si la ley x de la muestra es superior a la media general m, la esperanza del panel es
entonces inferior a x, e inversamente. Krige corrigió este error utilizando la ecuación:
(1) y = m + β ( x − m)
σx σy
1= ρ , β =ρ
σy σx
y, por consiguiente:
σ y2
β = 2 <1
σx
El coeficiente β es igual a la razón de las varianzas (en todo el yacimiento) de los paneles y
de las muestras.
Un examen más detallado de (1) sugiere otras posibilidades. La ley media m, no es
conocida en general, y se le estima tomando la media aritmética m*=(1/n)Σxi de las
muestras disponibles en el yacimiento. Pero si se reemplaza m por m*, (1) toma el aspecto:
Y * = ∑ ai X i
i
de una combinación lineal de las leyes disponibles Xi de las muestras, por otra parte con la
condición:
∑a i =1
Sobre la cual volveremos largamente: Pero ahora, en lugar de atribuir a todas las muestras
exteriores el mismo peso ai = (1 - β) / n sin diferenciar entre ellas, independientemente
que se trate de muestras cercanas o alejadas, es natural buscar atribuir a cada una de ellas,
un peso ai apropiado, el cual considere su localización con respecto al panel a estimar. Se
llaga así a la investigación de los pesos óptimos ai , es decir a la noción de krigeado, tal
como la hemos presentado anteriormente.
2. Notaciones
• Z(x) designa una F.A. (estacionaria o no), en general de esperanza no nula, e Y(x)
una F.A. (no necesariamente estacionaria ni intrínseca) de esperanza nula: por
ejemplo, a menudo se tomará:
Y ( x ) = Z ( x ) − E [ Z ( x )]
S = { xα , α = 1, 2,..., N }
Dependiendo del caso, se buscará estimar, sea el valor Z(x0) en un punto x0 que no
pertenece a S, o bien el promedio (1/ V ) ∫ Z ( x)dx en un dominio V diferente de S.
V
• Para ello se formarán estimadores lineales a partir de los datos disponibles, que
serán los Z(x), xЄS. En el caso discreto se escribirá siempre:
Zα = Z ( xα ) , ( xα ∈ S )
análogamente, para las funciones f(x), C(x,y), etc., ...:
fα = f ( xα ) , C(x α , xβ ) = Cαβ
Z * = ∑ λα Zα
α
Pasemos ahora a las ecuaciones del krigeado, distinguiendo 3 casos (F.A. de esperanza nula
o conocida; F.A. estacionaria de esperanza desconocida; F.A. intrínseca sin deriva). En
todos los casos supondremos que la covarianza o el variograma son conocidos (es decir han
sido calculados, interpretados y ajustados a partir de los datos disponibles).
Sea Y(x) una F.A. de esperanza nula, σ(x,y) su covarianza S={xα} el conjunto de los puntos
experimentales, que en primer lugar supondremos finito, Y0 = (1/V)∫Y(x)dx, la variable a
estimar.
El krigeado simple:
YK = ∑ λα Yα
α
α α β
con:
⎧ 1
⎪⎪ 0 V ∫ σ ( xα , x)dx
σ α Y =
⎨
⎪ D 2 (Y ) = 1
V2 ∫∫
σ ( x, y )dxdy
⎪⎩ 0
Al derivar las derivadas parciales en λα de esta forma cuadrática, se obtiene el sistema:
(2) ∑β λβ σ αβ = σ α Y0
Este sistema que tiene N ecuaciones y N incógnitas es regular y admite una solución única
si y solamente si la matriz de covarianzas σαβ es estrictamente definida positiva (luego con
determinante > 0), lo cual supondremos siempre. La varianza σ2K (o varianza de krigeado)
de esta estimación óptima es igual al valor de la forma cuadrática E(Y0-YK)2 cuando se
toma como coeficientes λα la solución de (2). Por otra parte (2) implica:
∑∑
α β
λα λβ σ αβ = ∑ λα σ α
α
Y0
(3) σ K2 = D 2 (Y0 ) − ∑ λα σ αY 0
α
En el caso del krigeado puntual (estimación de Y(x0) para un punto x0 que no pertenece a S)
el sistema se reduce a:
⎧∑ λβ σ αβ = σ α , x0
⎪β
(4) ⎨ 2
⎪σ K = σ x0 , x0 − ∑ λα σ α , x0
⎩ α
Y ( x0 ) = ∑ λα ( x0 )Yα
α
YK ( xα 0 ) = Yα 0
directamente del sistema (4), pero es evidente a priori que el estimador Yα es óptimo,
0
Sea ahora Z(x) una F.A. la cual admite una covarianza centrada σ(x,y) y una esperanza
constante m = E[Z(x)], no nula, pero conocida. Llegamos inmediatamente al caso
precedente al razonar sobre la F.A. Y(x) = Z(x) – m . El estimador óptimo de krigeado
simple es entonces:
(5) Z K = m + ∑ λα ( Zα − m)
α
Con coeficientes λα verificando los mismos sistemas (2) . La varianza σ2K mantiene la
misma expresión.
Sea ahora Z(x) una F.A. de esperanza m constante pero desconocida, y σ(x,y) su covarianza
centrada. Se desea estimar:
1
V∫
Z0 = Z ( x)dx
S = { xα , α = 1, 2,..., N }
Z * = ∑ λα Zα
α
Debido a que la esperanza m no se conoce, es necesario imponer a los coeficientes λα la
condición siguiente, llamada condición de universalidad:
(6) ∑
α
λα = 1
E ( Z * − Z 0 ) 2 = E ( Z 0 2 ) − 2 E ( Z 0 Z * ) + E[( Z * ) 2 ]
= m 2 (1 − ∑ λα ) 2 + D 2 ( Z 0 ) − 2∑ λα σ α Z0 + ∑∑ λα λβ σ αβ
α α α β
Como m es desconocido, solo se puede minimizar esta expresión cuando ella no depende
de m, es decir, si (6) se verifica
E ( Z 0 − Z * ) = m − m∑ λα = 0
α
E ( Z 0 − Z * ) 2 = D 2 ( Z 0 − Z * ) = D 2 ( Z 0 ) − 2∑ λ α σ α , Z0 + ∑∑ λα λβ σ αβ
α α β
Expresando que esta forma cuadrática es mínima considerando la condición (6), se obtiene
el sistema siguiente donde figura un parámetro µ de Lagrange:
⎧∑ λβ σ αβ = σ α , Z0 + µ
⎪β
(7) ⎨
⎪∑ λα = 1
⎩α
∑∑
α β
λ α λ β σ αβ = λ α σ α , Z0 + µ ∑ λα = ∑ λ α σ α , Z0 + µ
α α
⎧
⎪∑ λβ σ αβ = σ α , x0 + µ
⎪⎪ β
(9) ⎨∑ λα = 1
⎪α
⎪ D2 (Z * − Z ) = σ + µ − ∑ λ σ
α α , x0
⎪⎩ 0 x0 x0
α
1
V∫
En lugar de estimar una media espacial del tipo Z ( x)dx , se puede también buscar estimar
m* = ∑ λα0 Zα
α
∑
α
λα = 1
0
Que expresa que m* es insesgado cualquiera que sea el valor desconocido de m, y se eligen
los coeficientes λ0α que minimizan D2(m*) = E(m - m*) considerando esta condición. De la
relación:
D 2 (m − m* ) = ∑∑ λα0 λβ0σ αβ
α β
se deduce que los λ0α constituyen la única solución del sistema siguiente, donde figura un
parámetro de Lagrange µ0:
⎧∑ λβ0σ αβ = µ0
⎪β
(10) ⎨
⎪∑ λα = 1
0
⎩α
∑∑
α β
λα λβ σ αβ = µ ∑ λα = µ
0 0
α
0
0
0
(11) D 2 ( m* ) = µ 0
Al final del párrafo (3), hemos indicado cómo formar el estimador óptimo cuando la
esperanza m no es nula pero es conocida: se calculan los coeficientes λα óptimos del caso
m=0, y se efectúa la corrección, muy simple, que consiste en reemplazar Y(x) por Z(x)-m,
es decir:
(12) Z K = m + ∑ λα ( Zα − m)
α
Probemos que el estimador óptimo Z* del caso en que m no es conocida (párrafo 4.1) y el
estimador óptimo m* de m, están relacionados por la relación siguiente (muy similar a
(5)):
(13) Z K* = m* + ∑ λα ( Zα − m* )
α
con los mismos coeficientes λα , solución del sistema (2). Este resultado significa que se
puede krigear como si m fuera conocida, con la condición de reemplazar el valor
desconocido de m por su estimador óptimo m*.
⎡ ⎤
m* + ∑ λα ( Zα − m* ) = ⎢λα + λα0 (1 − ∑ λβ ) ⎥ Zα
α ⎣ β ⎦
Las cantidades:
λ 'α = λα + λα0 (1 − ∑ λβ )
β
verifican la condición de universalidad, porque:
⎛ ⎞
∑ λ 'α = ∑ λα + ∑ λα ⎜1 − ∑ λβ ⎟ = 1
0
α α α β ⎝ ⎠
al considerar ∑
α
λα = 1 (sistema (10)). Formemos ahora la expresión:
0
⎛ ⎞
∑β λ 'β σ αβ = ∑β λβ σ αβ + ⎜1 − ∑γ λγ ) ⎟ ∑β λβ σ αβ 0
⎝ ⎠
⎛ ⎞
∑β λ 'β σ αβ = σ α , Z0 + ⎜1 − ∑ λγ ) ⎟ µ0
⎝ γ ⎠
Luego, los λ’β verifican bien la primera relación (10), con el parámetro de Lagrange
⎛ ⎞
(14) µ = ⎜1 − ∑ λγ ) ⎟ µ0
⎝ γ ⎠
Según la unicidad de la solución, se tiene bien λ’α = λα, luego la ecuación (13) es válida.
Z * − Z 0 = (∑ λα Zα − Z 0 ) + (1 − ∑ λβ )m*
α β
D 2 ( Z * − Z 0 ) = D 2 (∑ λα Zα − Z 0 ) + (1 − ∑ λβ ) 2 D 2 (m* )
α β
es decir:
(15) D 2 ( Z * − Z 0 ) = σ K2 + (1 − ∑ λβ ) 2 D 2 (m* )
β
El primer término es la varianza σ2K del krigeado cuando m es desconocido. El segundo
proporciona una medida exacta de la pérdida de información que se tiene, relativo a Z0,
cuando no se conoce el verdadero valor de m.
Sea ahora Z(x) una F.A.I. sin deriva, con variograma γ pero no existe la covarianza. Para
estimar:
1
V∫
Z0 = Z ( x)
Z * = ∑ λα Zα
α
tal que:
La condición a/ proporciona:
1
∑
α
λα − ∫ dx = 0
V
∑
α
λα = 1
Cuando esta condición se verifica, según el mecanismo de cálculo que indica que se puede
calcular la varianza de Z*- Z0 como si existiera una covarianza igual a – γ. Se puede
entonces, transponer directamente el sistema (9): los coeficientes λα del estimador óptimo
constituyen la única solución del sistema:
⎧ 1
⎪⎪ ∑β
λβ γ αβ =
V∫
γ ( x, xα )dx − µ
(16) ⎨
⎪∑ λα = 1
⎪⎩ α
⎧∑ λβ ( x0 )γ αβ = γ ( x0 , xα ) − µ ( x0 )
⎪β
⎪
(17) ⎨∑ λα ( x0 ) = 1
⎪α
⎪σ 2 ( x ) = µ ( x ) + λ ( x )γ ( x , x )
⎩ K 0 0 α 0 0 α
según el carácter lineal de los segundos miembros de (16), la solución del krigeado de
1
V∫
Z ( x)dx
es:
1
V∫
λα = λα ( x)dx
1
V∫
µ= µ ( x)dx
Sin embargo la varianza no se obtiene por una combinación lineal de las varianzas σ2K(x0)
de los krigeados puntuales.