You are on page 1of 182

INTRODUÇÃO À

GEOFÍSICA DE RESERVATORIO

Carlos Rodriguez
UN-Rio/Atp-Ro /Res

2a edição
Rio de Janeiro, julho de 2006

1
0 – APRESENTAÇÃO, UM BREVE HISTÓRICO, UM REGISTRO E AGRADECIMENTOS

Os objetivos principais deste curso são:


- apresentar, de forma sucinta, a profissionais de reservatório (geólogos, engenheiros e,
secundariamente, a geofísicos com menos de três anos de experiência), as principais
utilizações da sísmica e suas limitações, com maior enfoque nas etapas ligadas direta ou
indiretamente às aplicações de estudos de reservatório;
- apresentar métodos sísmicos relacionados diretamente à caracterização,
desenvolvimento e produção, e
- encorajar estes profissionais a um intercambio efetivo com geofísicos de reservatório
mais experientes e de exploração (interpretação, processamento e aquisição).
Este material, em sua segunda edição, ficou muito aquém do que o autor
considera desejável para este curso, com a razão principal para esta falta de qualidade
sendo a grande falta de tempo para a realização de um melhor produto, pois esta apostila
foi realizada secundariamente às atividades de um ativo de produção. Particularmente
deficiente foi a consulta à literatura especializada (Geophysics, Geophysical Prospecting
(GP), The Leading Edge (TLE) e First Break, principalmente) e trabalhos apresentados
em eventos da Petrobras no período entre 1995 e 2006.
A apostila foi estruturada em capítulos relacionados às atividades consideradas
mais importantes na geofísica pelo autor, tentando-se apresentar um resumo da teoria, as
principais premissas (e onde e quando elas podem ou não ser válidas), alguns resultados
e opiniões divergentes sobre alguns tópicos.

O primeiro registro do assunto ‘geofísica de reservatórios’ na Petrobrás por mim


encontrado foi Schwedersky et al. (1992)1. No artigo, é apresentado um resumo dos
resultados de um grupo de trabalho (GT-OS-059/-CENPES) cujo objetivo era “...levantar
os recursos disponíveis e necessários para o desenvolvimento de trabalhos de Geofísica
de Reservatório e definir projetos de caráter técnico inovador na Companhia”. Os autores
comentam e comparam o uso da sísmica (determinismo) e métodos (geo)estatísticos para
obtenção de propriedades de reservatório entre poços. Algumas das ações práticas
sugeridas pelo GT foram realizadas pelo Pravap-2.
Pode-se considerar que algumas das observações do artigo são verdadeiras até
hoje, e que algumas recomendações não foram, infelizmente, acatadas – a de maior
interesse para este curso o fato do termo ‘geofísica de reservatório’ não se referir
“...necessariamente a novos métodos mas sim ao objetivo da aplicação dos métodos
geofísicos conhecidos”. Isto porque vários técnicos (geofísicos, inclusive) da empresa
(dentro ou não da área de reservatório) consideram a ‘geofísica de reservatório’ como
uma disciplina à parte, esquecendo-se que as equações e premissas são basicamente as
mesmas que a geofísica (sísmica, especialmente) ‘convencional’, com a principal
diferença sendo o foco, o que causa a necessidade de se procurar (algumas vezes sem
sucesso) ajustes residuais, nem sempre se obtendo ganhos significativos.

Ainda fora da parte técnica, aproveito para registrar também o isolamento em que
os geofísicos de reservatório se encontram na Petrobrás, o que é prejudicial para todos –
mas principalmente para a própria área de desenvolvimento e produção. Tal isolamento
se auto-alimenta, pois vários técnicos qualificados da exploração (onde estão vários
geofísicos capacitados e experientes) têm – deixando de lado por um momento a sempre
presente dificuldade da ‘liberação’ dos técnicos por parte dos gerentes – receio (algumas

1
Nem o documento propondo o GT-016/89 (que sugeriu o uso de estações de interpretação por
geólogos de desenvolvimento), nem um possível relatório final deste GT, foram encontrados.

2
vezes, justificado) de ir para a área de reservatórios – por vários motivos, como por ex., o
‘domínio’ (que freqüentemente se reverte na ascensão profissional) de engenheiros, a
menor comunidade, etc. Como os geofísicos da exploração geralmente não desejam (e
alguns poucos não podendo) ir para o reservatório, os gerentes de reservatório não
‘liberam’ seus geofísicos – processo pernicioso, pois impede aos geofísicos de
reservatório – principalmente os menos experientes – uma capacitação técnica e/ou
acumulo de experiência para realizar da melhor forma possível suas obrigações
profissionais. Espero que tal círculo vicioso possa ser rompido, se não breve, ao menos
num futuro não muito distante.

Diversas pessoas têm me ajudado ao longo de vários anos com seu tempo e
atenção em explicações e discussões sobre vários assuntos que reduziram um pouco
minha vasta ignorância sobre sísmica, mas devo reconhecer especialmente a contribuição
de Adelson de Oliveira, Andre Romanelli Rosa, Antonio Buginga Ramos, Carlos Cunha,
Carlos Varela, Eduardo Faria, Fernando Rodrigues, Gerson Ritter, Guenther
Schwedersky, Gustavo Ponce Correia, Tutor Jose Tassini, Marcos Gallotti, Prof. Osvaldo
Duarte, Raimundo Freire e Wander Amorim. Especificamente para a realização deste
curso, agradeço os esforços de Ronaldo Jaegher e Mauro Mihaguti. Agradeço também
aos geólogos Carlos Beneduzi, Carlos Varela, Cristiano Sombra, Darci Sarzenski, Jorge
Andre de Souza, Luis Carlos de Freitas, Mauro Becker, Olinto de Souza, Paulo Paraizo,
Pedro Zalan, Sandra Carneiro, Thomas Adams e Zilander Camoleze o grande
aprendizado adquirido sobre geologia (e não só de desenvolvimento) ao longo do convívio
profissional.

3
1 – INTRODUÇÃO AOS MÉTODOS GEOFÍSICOS

1.1 Objetivos e breve histórico

Basicamente, a geofísica procura estudar a terra (geo) através de suas


propriedades físicas. Geralmente desejam-se informações sobre depósitos minerais
(incluindo hidrocarbonetos) – quase sempre associados a características que diferenciam
estes depósitos das rochas ao redor – ou sobre a estrutura do planeta em profundidades
em que observações diretas não são possíveis. Nunca se deve esquecer que, por mais
fortes que sejam as indicações de qualquer método geofísico sobre a presença de óleo e
gás, são sempre baseadas em observações indiretas.
Os métodos potenciais são aqueles em que são apenas registradas quantidades
de uma determinada propriedade, sem que seja necessário o uso de uma fonte de
energia. Os mais comuns são a gravimetria e magnetometria. As técnicas mais comuns
na prospecção de petróleo envolvem o uso de uma fonte, com a sísmica de reflexão
sendo de longe a mais usada.
Nesta apostila, os dados geofísicos são considerados como coletados na
superfície (solo ou nível do mar), com as exceções sendo explicitadas. Assim, não se
pretende tratar de perfilagem de poços. O método de refração será citado de forma muito
superficial.
Há vários séculos sabe-se que a Terra atua como um magneto gigantesco e
irregular, e obviamente a gravidade é um conceito estabelecido desde Newton, pelo
menos. A teoria de propagação de ondas em meios elásticos já tem bem mais de um
século, e a teoria de tratamento de sinal (similar a usada por engenheiros elétricos e de
telecomunicações) teve grande impulso há uns 50 anos com a implementação do
tratamento digital. Operacionalmente, a geofísica teve grande impulso nas duas grandes
guerras, com o desenvolvimento de várias ferramentas para localização de artilharias,
submarinos e aviões.

1.2 Gravimetria

Na prospecção gravimétrica são medidas pequenas variações na força da


gravidade causadas por mudanças nas densidades das rochas. As mudanças de maior
interesse na industria do petróleo são de dois tipos: 1) as existentes entre o embasamento
(rochas ígneas ou metamórficas, relativamente de alta densidade) e rochas sedimentares
(de menor densidade) e 2) as presentes entre rochas evaporíticas e demais rochas
sedimentares.
O primeiro tipo indica a presença de bacias sedimentares, bem como a espessura
aproximada de sedimentos. A segunda vem sendo usada, em alguns casos, como auxiliar
ao método sísmico de reflexão na definição da geometria de corpos de sal (que algumas
vezes são bastante disformes, prejudicando o imageamento sísmico).
As anomalias gravimétricas de interesse são da ordem de 10-6 a 10-7 da gravidade
terrestre (g), fazendo com que os instrumentos que medem essas variações (os
gravímetros) sejam criados para medir a variação em g, e não a própria gravidade.
O maior problema da gravimetria é que não é possível determinar uma fonte única
para uma determinada anomalia – ou seja, matematicamente a solução do problema
inverso admite mais de uma solução.
Na prática, tem uso restrito e limitado na industria do petróleo, geralmente nas fase
exploratórias iniciais, em que se procuram definir geometria de bacias sedimentares.

4
1.3 Magnetometria

Obtém variações locais do campo magnético terrestre relacionadas a mudanças


na susceptibilidade magnética das rochas. Rochas sedimentares apresentam geralmente
uma susceptibilidade bastante inferior a rochas ígneas e metamórficas (na prática, os
minerais ferromagnéticos – magnetita, principalmente – são as principais fontes de
anomalias), por isso na industria do petróleo esta ferramenta é usada – geralmente
juntamente com a gravimetria – na definição de bacias e grandes feições. Algumas vezes,
no entanto, variações de susceptibilidade intra-embasamento são mais importantes que
as diferenças entre o embasamento e rochas sedimentares – assim, este método pode
ser menos conclusivo que a gravimetria na definição de bacias sedimentares.
Diferente da gravimetria, as anomalias magnéticas geralmente são significativas
em relação ao campo principal. Em comum com o método gravimétrico (e com qualquer
outro método potencial, em geral), a interpretação dos dados aceita mais de uma solução.

1.4 Métodos Elétricos

Existem vários métodos, que podem ser agrupados entre os que usam fontes
naturais (self-potential, telúricos e magnetotelúricos), eletromagnéticos (terrestres e
aéreos), resistivos e polarização induzida.
Historicamente tem sido de aplicação bastante restrita na prospecção de
hidrocarbonetos a partir da superfície, mas nos últimos anos o uso de sea-bed logging
tem se mostrado como uma ferramenta útil – usando junto com a sísmica – em atividades
exploratórias na diminuição de incertezas de qual tipo de fluido preenche potenciais
reservatórios. Devido a sua importância, será discutido em maior detalhe no cap. 10.

1.5 Refração Sísmica

As ondas refratadas (que se propagam na interface entre duas camadas, com


velocidade definida pelo meio com maior velocidade, ver item 2.7) tem aplicação na
prospecção de petróleo principalmente para definição de domos de sal (tendo sido usada
na indústria antes da sísmica de reflexão, as vezes juntamente com a gravimetria) e
definição da espessura da zona de intemperismo (camadas superficiais de baixa
velocidade), informação útil na obtenção de correções estáticas. É usada em sismologia
no estudo de terremotos e estrutura interna da Terra.

5
2 – INTRODUÇÃO AO MÉTODO SÍSMICO

Métodos sísmicos abrangem as várias escalas necessárias à caracterização de


reservatórios, como mostra a fig. 2.1. Nos extremos da figura, temos, de um lado, análises
de testemunho e perfis, que fornecem informações bastante detalhadas, porém pontuais,
e no outro a sísmica de superfície, que amostra todo o reservatório com baixa resolução
(10 a 20 m). À esquerda da linha tracejada geralmente são usados métodos indiretos,
como por ex. geoestatística (o mais comum), redes neurais e – mais raramente – teoria
de fractais. A fig. 2.1 mostra também alguns valores aproximados de resolução para
diferentes métodos. A fig. 2.2 indica quais informações – teórica e geralmente – são
obtidas dos dados sísmicos com interesse direto em caracterização de reservatórios.
A principal ferramenta usada na definição de limites e geometria de camadas
geológicas é a sísmica de superfície tri-dimensional (3D); algumas vezes a sísmica de
superfície é chamada de ‘convencional’.

Fig. 2.1 – Alguns métodos sísmicos com suas


escalas de observação (relacionado à resolução)
e fração do reservatório amostrada (extraído de Fig. 2.2 – Informações de interesse para
Harris, 1994). caracterização de reservatório que podem ser
obtidas (ao menos em tese) a partir de dados
sísmicos. Na prática, a obtenção e confiabilidade
das medidas dependem da geologia (tipo e
profundidade das rochas e fluidos) e dado
disponível (extraído de Nur, 1993).

2.1 Introdução à propagação de ondas

Onda é uma perturbação que se propaga em um corpo sem provocar


deslocamento de material, somente de energia. Uma onda pode ser analisada pelo
deslocamento de um ponto fixo ao longo do tempo (fig. 2.1.1a), quando se obtém:
. seu período (ou ciclo) T, que é o tempo necessário para uma partícula retornar ao
estado original de repouso (antes da passagem da onda),
. sua freqüência (f=1/T), que é o número de ciclos por unidade de tempo (unidade s-1
ou Hertz (Hz)), correspondendo ao inverso do período,
. sua fase (φ), ou atraso, que é a posição de um ponto da onda em relação a uma
referencia (geralmente a origem, ou tempo inicial) arbitrária, e
. amplitude (A), que representa o deslocamento sofrido por uma partícula fixa em cada
tempo; a amplitude máxima é denominada pico (peak) ou crista, e a mínima cava (trough)
ou vale.

6
A freqüência é muito estudada porque determina, entre outras coisas, a menor
espessura observável (resolução vertical). Já a amplitude é bastante usada na definição
de litologias e fluidos. O conceito de fase é um pouco menos difundido, estando
associado a ‘amarração’ entre dados sísmicos e perfis de poços.
Quando analisamos diversos pontos de uma onda ao mesmo tempo (fig. 2.1.1b),
além da amplitude, observam-se
. o comprimento de onda (wavelength) (λ), que é a distância entre pontos com mesma
fase em ciclos sucessivos, e
. o número de onda (wavenumber) ( κ=1/λ ), que é o número de comprimentos de
onda por unidade de distância.
Uma observação conjunta das fig. 2.1.1a e b fornece a velocidade (V=λ/T=λ.f), que
é a razão de propagação de uma onda.
Para uma onda não periódica analisada em um ponto fixo, existe o período
dominante (fig. 2.1.1c), definido pelas cavas principais, e a freqüência dominante, que é o
inverso deste período. Ela não deve ser confundida com a freqüência de pico, que é
definida pelo maior valor de amplitude em um espectro da transformada de Fourier
(explicada a seguir). Analisando-se uma onda não periódica em tempo fixo, existe o
comprimento de onda dominante (fig. 2.1.1d), medido da mesma maneira que o período
dominante. A resolução vertical é função direta da freqüência (ou período) dominante.

Fig. 2.1.1 – Características de uma onda periódica, para (a) ponto fixo, (b) tempo fixo e não
periódica, mostrando (c) período e (d) comprimento de onda dominantes (extraído de Lindseth,
1982).

A interferência é a superposição de duas ou mais formas de onda, gerando uma


nova onda, que é a resultante desta superposição. É totalmente construtiva quando as
ondas estão em fase (fig. 2.1.2a), e totalmente destrutiva quando a diferença de fase é de
1800 (fig. 2.1.2b). Geralmente, a diferença de fase entre duas (ou mais) ondas está entre
00 e 1800, ocorrendo interferência parcialmente destrutiva e parcialmente construtiva ao
mesmo tempo (fig. 2.1.2c). Um atraso menor que meio período causa interferência
construtiva – como na sísmica trabalhamos com tempo duplo, o atraso a ser considerado
para interferência será de um quarto de período.
O fenômeno da interferência permite minimizar alguns ruídos coerentes na
aquisição – caso sejam conhecidos os comprimentos de onda dominante desses ruídos –
através de um arranjo de receptores. Este é um caso de interferência ‘desejável’;
geralmente, no entanto, a interferência é indesejável, pois mistura reflexões de eventos

7
distintos, tornando impossível sua separação – o caso mais comum e conhecido sendo o
tunning, em que a amplitude de topo e base de camadas pouco espessas (inferiores a 15
ou 20 m) se interferem.

0 0 0
Fig. 2.1.2 – Interferência entre ondas com diferenças de fase (atraso) de (a) 0 , (b)180 ) e (c) 90
(extraído de Lindseth, 1982).

Vários conceitos do método sísmico são ‘emprestados’ da ótica geométrica, pois


são comuns às duas ciências; isto é especialmente útil nas análises cinemáticas, ou seja,
quando estamos interessados apenas, por ex., no tempo de trânsito e velocidades, sem
considerações dinâmicas, i.e., de amplitudes. Assim, o estudo de propagação de ondas
pode ser feito pelas leis da ótica geométrica e/ou pela equação (elástica, viscoelástica ou
inelástica) da onda.

Frente de onda (fig. 2.1.3) é a região do espaço em que uma determinada


propagação tem a mesma fase, ocorrendo interferência construtiva.
A trajetória do raio é uma linha imaginária, perpendicular à frente de onda (fig.
2.1.3). O princípio de Fermat estabelece que esta trajetória é aquela em que as variações
de primeira ordem (primeira derivada) do tempo de trânsito com respeito a pontos
vizinhos é nula, i.e., que o tempo de trânsito é mínimo (de longe o caso mais comum),
máximo (caso de focos enterrados, fig. 2.1.10) ou estacionário (ou seja, invariante).
A velocidade de fase é a velocidade de cada componente de freqüência, ou da
frente de onda. A velocidade de grupo é a velocidade da energia, ou envelope. Estas
velocidades podem ser diferentes em meios anisotrópicos e/ou inelásticos, mas
geralmente a diferença é pequena.
Zona de Fresnel é a região em sub-superfície que limita todos os pontos de duas
frentes de onda com atraso menor que meio período (fig. 2.1.4). Seu conceito é
importante em estudos de resolução horizontal (espacial), migração e comparação entre
velocidades sísmicas (referentes a zona de Fresnel da sísmica de superfície, da ordem de
dezenas de metros) e de perfis (média de uma região ao redor do poço limitada
aproximadamente por um círculo com raio geralmente inferior a um metro), entre outros.
O princípio de Huygens estabelece que os pontos de uma frente de onda podem
ser considerados com novas frentes de ondas. A frente de onda após um intervalo de
tempo ∆t é definida pelo envelope das diversas pequenas frentes de onda (fig. 2.1.5).
Este princípio permite demonstrar que uma onda plana incidindo em uma interface gera
ondas refletidas e transmitidas (refratadas) também planas.

8
Fig. 2.1.4 – Significado geométrico da 1ª
zona de Fresnel.

Fig. 2.1.3 – Frentes de onda e trajetórias de


raios (extraído de Sheriff, 1991).

Uma pergunta que pode ocorrer é por que não existe propagação de ondas ‘para
trás’ (ou seja, por que a onda não ‘volta’, e se propaga somente ‘para frente’)? Espera-se,
intuitivamente, que as ondas geradas ‘para trás’ tenham forte interferência destrutiva com
o campo de ondas posterior que se propaga ‘para frente’, porém com ‘atraso’. Esta idéia,
denominado de teorema da extinção, é demonstrado de uma forma rigorosa
matematicamente por Rosa (2002).

Fig. 2.1.6 – Significado geométrico da lei de


Fig. 2.1.5 – Demonstração geométrica do Snell e ondas refletida, transmitida e
principio de Huygens, em que cada ponto da convertida (extraído de Rosa e Tassini,
frente de onda no tempo t age como uma 1990).
nova fonte, com a frente de onda no tempo
t+∆t sendo definida pelo envelope das
diversas ondas geradas em t (extraído de
Rosa, 2002).
A Lei da Reflexão estabelece que um raio incidente gera um raio refletido cujo
ângulo com a normal à superfície é o mesmo do raio incidente. Foi provada por Heron de
Alexandria em 1 D.C. e, através do reductio ad absurdum, por Arquimedes (in Catoptrica,
de Euclides) (Heath, 1921), podendo assim ser provavelmente considerada a primeira lei
física com aplicação no método sísmico.
A Lei de Snell (ou de Descartes) estabelece que um raio que se propaga na
camada i com velocidade Vi e atravessa uma interface com um ângulo de incidência θi em
relação à normal à interface (fig. 2.1.6), tem ângulo de reflexão ou transmissão na
camada i+1 (com velocidade Vi+1) dado pela expressão
p = sen θi / V = sen θi+1 / Vi+1 2.1.1
p o componente horizontal da vagarosidade, sendo denominado parâmetro do raio.

9
O parâmetro do raio pode também ser definido como (fig. 2.1.7)
p=dt/dx 2.1.2
Neste caso, p pode ser visto como o inverso da velocidade aparente.
É possível demonstrar (por ex., a partir de Huygens) que uma descontinuidade em
um refletor (causada, por ex., por uma falha ou afinamento de camada) gera como
reflexão uma difração, ou onda difratada (fig. 2.1.8). Em seções sísmicas, a frente de
onda de uma difração aparece como uma hipérbole (fig. 2.1.9). Isto ocorre porque uma
frente de onda, gerada espacialmente como uma esfera, é amostrada no método sísmico
a uma profundidade geralmente constante e por um intervalo de tempo qualquer, tendo
seu tempo de trânsito t definido aproximadamente pela equação hiperbólica
t2 = t02 + x2 / V2 2.1.3
t0 tempo de trânsito (teórico) para distância fonte-receptor (offset) X nula e V velocidade do meio
(considerada constante).

Fig. 2.1.7 – Demonstração geométrica do


parâmetro de raio p (extraído de Margrave, Fig. 2.1.8 – Geração de reflexão a partir de
1996). um refletor e difração a partir de uma
descontinuiuade no refletor. (extraído de
Krebes, 1989).

Fig. 2.1.9 – Frentes de ondas de difrações


aparecem como hipérboles em dados
sísmicos.

A análise da propagação de ondas pela teoria das difrações, apesar de mais


complicada do que se usando trajetória de raios, é adequada para observações de
descontinuidades. É útil também em estudos de limites de resolução sísmica e
absolutamente necessária para estudos de migração (cap. 4).

10
Os pontos de uma frente de onda, que podem ser considerados como pontos
secundários para geração de novas frentes pelo principio de Huygens, não geram ondas
com mesma distribuição de energia em todas as direções; na realidade, eles se
comportam com difratores. É possível demonstrar que a resposta sísmica a um difrator
esta associada à diretividade da onda, ou fator de obliqüidade, segundo o qual a
amplitude de uma difração é função da trajetória do raio. Como conseqüência, as maiores
amplitudes de uma difração são no ápice da hipérbole gerada pelo ponto difrator.

Modelagem sísmica é o processo de gerar dados sísmicos sintéticos a partir de


uma configuração geométrica com determinados parâmetros (modelo geológico). Ao
realizarmos modelagens, devemos procurar respeitar um dito atribuído a Einstein, de que
o modelo deve ser o mais simples possível, mais não mais simples do que isso –
naturalmente, conseguir isso não é fácil, sendo necessário conhecimento, bom senso e
experiência. Por ex., se um meio é tão heterogêneo que a velocidade muda
substancialmente em um comprimento de onda, então o próprio conceito de comprimento
de onda perde seu sentido.
A modelagem numérica é a mais comum, sendo realizada principalmente por
. traçado de raio (menos precisa, porém muito mais rápida, e suficiente em várias
situações) e suas variações (feixes gaussianos, por ex.),
. equação de onda (mais precisa, mas muito demorada) – usando aproximações,
como por ex., diferenças finitas,
. híbrida (raios são usados em regiões de menor interesse, com as áreas de maior
importância usando equação de onda),
. refletividade, e
. o método WKBJ (Wentzel, Kramers, Brillouin e Jeffreys), usado para resolver a
equação da onda, é válido em meios variando suavemente na vertical (de forma que a
derivada segunda da fase em relação a z é nula) e constante lateralmente. A condição é
que o gradiente vertical de velocidade seja muito menor que a freqüência em radianos, o
que geralmente acontece de acordo com Krebes (1989). Já Sheriff (2002) prefere dizer
que a premissa fundamental é que as propriedades do meio sejam constantes para vários
comprimentos de onda. De qualquer forma, WKBJ é aproximação de alta freqüência,
também chamada aproximação assintótica ou da ótica geométrica.

A modelagem física, bem menos comum, necessita da criação de um modelo


próximo ao geológico em escala muito reduzida (1:1.000 a 1:10.000, por ex.). Costuma
ser bem demorada e as fontes e receptores naturalmente não respeitam essa relação
(i.e., um receptor, que na prática é pontual, ocupa proporcionalmente dezenas de metros),
mas tem a grande vantagem de gerar quase todas as ondas existentes em uma aquisição
real, o que é complexo e algumas vezes impossível em modelagens numéricas.

Um exemplo de modelagem sísmica numérica é mostrado na fig. 2.1.10, em que


uma depressão geológica (sinclinal) gera um anticlinal aparente em uma seção sísmica.
Este efeito, denominado na sísmica ‘foco enterrado’, é similar ao que ocorre na ótica com
um espelho côncavo com foco antes do observador, e é um caso particular do principio de
Fermat, pois nesta situação o tempo não é mínimo.

11
Fig. 2.1.10 – Exemplo de modelagem sísmica numérica. Observar que uma depressão (sinclinal)
gera um alto (anticlinal) aparente. Este efeito, denominado de foco enterrado, é demonstrado
matematicamente pelo principio de Fermat (extraído de Rosa e Tassini, 1990).

2.2 Introdução à teoria dos sinais

O Teorema da Amostragem (também chamado cardinal ou de Nyquist) diz que


funções contínuas limitadas (não infinitas) podem ser reconstruídas de dados equi-
espaçados se ocorrer uma amostragem de pelo menos duas amostras por período desta
função (fig. 2.2.1). Como corolário, o intervalo (algumas vezes chamado erroneamente de
razão) de amostragem (∆t) usado no registro de uma onda deve ser igual à pelo menos
duas vezes o inverso da maior freqüência que se deseja preservar. Esta freqüência é
denominada freqüência de Nyquist (fN). A equação simples
fN = 1 / 2(∆t) 2.2.1
fornece a freqüência máxima que pode ser registrada com um intervalo de amostragem
determinado, usado na aquisição. No caso de amostragem insuficiente, ocorre o
fenômeno de faseamento (alias), exemplificado na linha tracejada da fig. 2.2.1. Este
fenômeno é observado em filmes de cinema antigos, pelo movimento aparentemente
contrário das rodas de um automóvel. Já uma amostragem excessiva gera 1) maior tempo
de computação durante o processamento (devido ao maior número de amostras) e 2)
maior presença de ruídos, já que acima de determinados valores de freqüência
praticamente não ocorrem mais sinais.
Na prática, usa-se um intervalo que permita registrar sem alias freqüências muito
superiores às que efetivamente se esperam ocorrer nos sinais, principalmente pela
construção do filtro anti-alias matemático. Assim, usa-se comumente um intervalo de 2 ms
(que permite registro de freqüências de até 250 Hz), mesmo que em freqüências tão altas
ocorra somente ruídos, para que se possa registrar sem problemas freqüências em torno
de 150 Hz, que ainda podem ter informações de sinal; a mesma coisa ocorre em
aquisições – especialmente para reservatórios – em que 1 ms é usado. A razão para esta
amostragem maior é a impossibilidade de se criarem filtros físicos (eletrônicos) ou
matemáticos ‘bruscos’ (função caixa), não sendo possível aplicar um filtro que atenue
completamente uma freqüência, de por ex. 191 Hz e ‘deixe passar’ completamente uma
freqüência de 189 Hz. Na prática, os filtros tem formato de trapézio, e não de retângulos
ou quadrados; a inclinação do trapézio é denominada slope. Intervalos de amostragem
menores que 1 ms são restritos a levantamentos especiais, de muito alta resolução, como
para reservatórios muito rasos (menos de 500 m) e/ou trabalhos de geotecnia/engenharia.
O teorema de Nyquist – e as propriedades subseqüentes – é válido para também
para amostragem espacial (horizontal). Isto costuma ter impacto no custo da aquisição,
pois o imageamento de camadas e/ou falhas com alto ângulo demandam um intervalo de

12
amostragem espacial reduzido, ou seja, (grupos de) receptores mais próximos entre si, o
que significa o uso de um número maior de receptores.

Fig. 2.2.1 – Amostragem de uma função


contínua de 50 Hz com intervalo de
amostragem (o termo razão de amostragem,
não totalmente correto, é muitas vezes
usado) de 4 ms (linha contínua, suficiente Fig. 2.2.2 – Exemplo do significado no
para 50 Hz, pois a freqüência de Nyquist método sísmico do teorema (e transformada)
para 4 ms é 125 Hz) e 16 ms (linha tracejada, de Fourier, em que um pulso é obtido pela
insuficiente, pois para 16 ms Nyquist é 31,25 soma de diferentes ondas, cada uma com
Hz) (extraído de Rosa e Tassini, 1990). fase, amplitude e freqüência distintas
(extraído de Rosa e Tassini, 1990).

O Teorema de Fourier diz que uma função ou polinômio (por ex., uma onda) pode
ser descrita pela superposição (somatório) de um conjunto de ondas senoidais e
cossenoidais de diferentes freqüências, amplitudes e fases (fig. 2.2.2). Cada onda
individual às vezes é chamada de harmônica. A série matemática que representa um
sinal, definida em termos de amplitude e fase para cada freqüência, é denominada
Transformada de Fourier (T.F.).
Quando esta transformada é aplicada a uma função ou polinômio, ocorre uma
mudança no domínio da observação dos dados. Um sinal originalmente no domínio do
tempo (por ex., um traço sísmico), tem sua T.F. no domínio da freqüência, e vice-versa.
Esta mudança de domínio é extremamente útil e poderosa para análises e alterações de
diversas características de um sinal. A T.F. de um traço sísmico, por ex., mostra o
espectro de amplitude (e também o de fase, mas na prática análises de fase são sempre
mais complicadas) deste traço (fig. 2.2.3).

Fig. 2.2.3 – Exemplo de um espectro de


amplitude de um traço sísmico típico
(extraído de Lindseth, 1982).

A mudança de domínio realizada pela T.F. é totalmente reversível e não altera


nenhuma propriedade do sinal. Quando a T.F. é aplicada em uma série discreta (ou seja,
não contínua, mas amostrada a intervalos regulares), fala-se em Transformada de Fourier

13
Discreta. Um tipo específico da TF Discreta – a Fast Fourier Transform – é a usada no
processamento sísmico.
Alguns sinais importantes para a sísmica, e suas T.F., são mostrados na fig. 2.2.4.
A fig. 2.2.4a indica um sinal com freqüência e amplitude constantes (uma onda cosenoidal
perfeita). A fig. 2.2.4b mostra um pulso unitário (spike), cuja característica importante é o
espectro de amplitude plano (ou completo), com todas as freqüências presentes à
amplitude constante; apesar de irrealizável na prática, este pulso é extremamente
interessante em análises de algoritmos de processamento sísmico. A fig. 2.2.4c mostra
um ruído aleatório branco (white noise), assim denominado por analogia a cor branca da
ótica; este ruído possui espectro parecido a de um pulso unitário, sendo útil em algumas
etapas do processamento, quando se a usa a premissa (relativamente comum) de que o
ruído dominante em dados sísmicos é aleatório.

Fig. 2.2.4 – Transformadas de Fourier (TF)


de alguns eventos importantes na sísmica:
(a) sinal monocromático no tempo
(freqüência única e constante), com TF
sendo um spike; (b) impulso unitário (spike)
no tempo (fonte desejada, mas irrealizável
fisicamente), com TF em que todas as
freqüências têm mesma amplitude e (c) ruído
branco (todas as freqüências possuindo
amplitudes idênticas) (extraído de Lindseth,
1982).

Um Sistema Linear (S.L.) representa uma operação cujo produto final (saída) é
relacionado linearmente com os dados de entrada; as propriedades de um S.L. de
interesse para a sísmica são
. não são criadas informações (por ex., um S.L. não introduz ruído),
. um S.L. pode alterar a amplitude e fase de um sinal, mas não sua freqüência,
. um S.L. é estacionário (invariante) no tempo, i.é., uma operação realizada no
tempo t é idêntica a uma operação realizada no tempo t+∆t, e
. um S.L. é distributivo, ou seja, a superposição de vários sinais como entrada não
altera o resultado final aplicado individualmente.

A operação de convolução (nesta apostila indicada pelo símbolo ∗) pode ser vista
como a mudança na forma de um sinal pelo efeito de um S.L. Fisicamente, pode ser
entendida como uma superposição (‘envolvimento’) entre duas séries quaisquer, de forma
que o resultado final é função de operações de soma e multiplicação entre todos os
elementos da série entre si – ou seja, uma multiplicação de matrizes. Um exemplo
simples de convolução é apresentado na fig. 2.2.5. A convolução é absolutamente
fundamental no método sísmico porque o traço sísmico pode ser definido (e é
freqüentemente considerado) como a convolução entre um pulso (gerado artificialmente)

14
e a função refletividade (que representa as camadas em sub-superfície) adicionado de
ruídos. O sismograma sintético, que é a primeira etapa na interpretação, corresponde à
convolução de um pulso sísmico (construído sinteticamente de forma a ser o mais
próximo ao dado real, ou extraído do próprio dado) com a função refletividade (obtida
pelos perfis sônico e/ou densidade). A deconvolução, muito comum e importante no
processamento, é o processo inverso à convolução.

Fig. 2.2.5 – Exemplo de uma operação de


convolução, em que um operador (2,-1) (à
esquerda) é convolvido (∗) com uma função
(1,-2), resultando em (2,-5,2) (à direita)
(extraído de Rosa e Tassini, 1990).
Matematicamente, a convolução corresponde
à multiplicação de matrizes.

Uma propriedade muito importante da T.F. é que uma convolução no domínio do


tempo corresponde a uma multiplicação dos espectros de amplitude e soma dos
espectros de fase. Assim, diversas etapas do processamento sísmico são realizadas no
domínio da freqüência de uma forma bem mais eficiente, já que são realizadas
multiplicações e somas (após a transformação), operações muito mais rápidas que
cálculos entre matrizes.

Correlação cruzada (simbolizada neste material por ⊗) é uma operação que mede
a similaridade entre duas séries, ou a extensão da relação linear entre duas séries; as
séries tem que ter mesmo intervalo de amostragem. A autocorrelação é a correlação de
uma série consigo mesma.

Se formos rigorosos, o conceito de fase de um pulso deve ser analisado usando-


se a Transformada Z, o que está além dos objetivos deste curso. Como uma aproximação
razoável, podemos considerar que um pulso de fase mínima (ou atraso mínimo) é aquele
em que a energia da fonte é liberada no menor tempo possível, concentrando-se próxima
ao tempo zero. Um pulso de fase máxima é o oposto, e um de fase misturada, como o
próprio nome sugere, possui componentes com as duas características (fig. 2.2.6). Pulsos
de fase mínima são de interesse por possibilitar a aplicação de forma segura e estável
(i.e., com convergência) de algumas etapas do processamento, como a deconvolução. A
Transformada de Hilbert (T.H.) possibilita a obtenção da fase mínima de um sinal quando
seu espectro de amplitude é conhecido e este não possui nenhum componente de
freqüência com amplitude nula; a segunda premissa é garantida adicionando-se uma
pequena quantidade (0,1 %, por ex.) de ruído branco ao sinal.
Um pulso de fase zero é simétrico em relação à origem, sendo irrealizável
fisicamente por pressupor a existência de energia antes da fonte sísmica ter sido ativada.
Apesar disso, é muito usado na interpretação, e ao final do processamento procura-se
obter um pulso com a fase mais próxima de zero possível, para que os máximos
absolutos de amplitude sejam coincidentes com os coeficientes de reflexão.

Filtros são operadores que modificam uma série qualquer, com um objetivo
especifico. Os filtros usados no processamento sísmico têm as propriedades de um S.L.;
um filtro linear é um operador que altera uma série através de uma operação de
convolução. Os filtros mais comuns no processamento são (fig. 2.2.7):

15
Fig. 2.2.6 – Classificação de pulsos (wavelet)
sísmicos em relação à fase. Um pulso de
fase mínima tem a maior parte da energia
liberada no menor tempo possível, com o
oposto ocorrendo para um pulso de fase
máxima. Um pulso de fase misturada tem
componentes com as duas características
(extraído de Rosa e Tassini, 1990).

. passa-banda – limita a faixa (range) de freqüências de um sinal; na prática, é


quase sempre usado, geralmente com o objetivo de cancelar as regiões em que ruídos
tem maiores amplitudes que o sinal, que são as freqüências muito baixas (inferiores a 6
Hz) e muito altas (acima de 60 ou 90 Hz, dependendo do dado e objetivo);
. inverso – quando aplicado em um pulso procura um resultado o mais próximo
possível a um spike, fornecendo um espectro de freqüências plano (ou seja, todas as
freqüências têm valores de amplitude próximos), aumentando assim as altas freqüências
– porém, geralmente, nas altas freqüências não ocorre nenhum sinal, somente ruído;
. de forma – altera um pulso para uma forma desejada; se a forma desejada for um
spike, é idêntico ao filtro inverso;
. de predição – a partir de um intervalo de uma série, prevê valores futuros para a
série; útil quando o dado é contaminado por reverberações de curto período (i.e., eventos
similares, periódicos e próximos entre si).

Fig. 2.2.7 – Alguns tipos de filtros usados no processamento sísmico (extraído de Rosa e Tassini,
1990).

2.3 Introdução à petrofísica

Os tipos de ondas sísmicas que mais interessam na indústria de hidrocarboneto (e


as mais estudadas neste trabalho) são as compressionais e cisalhantes. Na dedução da
equação da onda (o que está além dos objetivos deste curso), mostra-se que estes dois

16
tipos são gerados durante a propagação de uma perturbação mecânica (a onda) por um
material.
Nas ondas compressionais os movimentos das partículas são paralelos à direção
de propagação. Estas ondas causam movimentos alternados de compressão e expansão
nas partículas (fig. 2.3.1). Também são denominadas ondas primárias (por serem quase
sempre as primeiras a chegarem), P (abreviação de primary), ou longitudinais. Nas ondas
cisalhantes os movimentos das partículas são perpendiculares à direção de propagação
(fig. 2.3.1). São também denominadas ondas secundárias (por chegarem após a P), S,
rotacionais ou tangenciais. Algumas vezes são estudadas separadamente as ondas-SV e
SH. Nas SV as partículas vibram no plano vertical definido pela posição da fonte e
receptor (plano sagital), enquanto que nas SH o movimento é no plano horizontal. As
ondas-SV, geralmente geradas a partir de conversão/transmissão em interfaces de uma
onda-P incidente em ângulo diferente da normal à interface, são bem mais comuns e de
maior interesse.

Fig. 2.3.1 – Ondas compressional (esquerda),


em que o deslocamento da partícula é paralelo
à direção de propagação da onda e cisalhante
(direita), quando a vibração é normal à direção
de propagação (extraído de Sheriff, 1992).

A imensa maioria dos estudos de exploração e caracterização são realizados


usando-se dados de ondas P, pois o registro de ondas S costuma ser caro a muito caro, o
processamento é quase sempre mais difícil (algumas vezes sendo bem complexo) e a
qualidade do dado é geralmente melhor a muito melhor nas ondas P. Por outro lado, as
ondas S têm o potencial de informar sobre tipo de rochas e fluidos em algumas situações
(especialmente em rochas fraturadas) e costumam ajudar o imageamento das ondas P.
Na prática, informações indiretas de ondas S são obtidas a partir das ondas P
convencionais, por estudos de AVO e inversões elásticas. Em meios não homogêneos, as
deformações não se separam distintamente entre P e S, ocorrendo acoplamento entre as
duas ondas. No entanto, caso a heterogeneidade for fraca (i.e., variações de V, µ,λ, etc
forem pequenas dentro de um comprimento de onda), então ondas que são
predominantemente P, SV ou SH podem se propagar (Krebes, 1989).

À medida que as ondas se propagem em subsuperfície, são gerados esforços


(stress), definidos como tensões internas existentes quando um corpo é submetido à
esforços externos. Os esforços geram deformações (strain), que podem ser analisadas
como variações de um vetor deslocamento em um meio representando movimentos de
partículas. A deformação gera distorções, i.é., alterações na forma e/ou dimensões de um
corpo. Os tipos de deformação mais comuns – mostrados na fig. 2.3.2 – são extensional,
volumétrica, cisalhamento puro e cisalhamento simples.

17
Fig. 2.3.2 – Tipos de deformações elásticas:
(a) extensional, (b) volumétrica, (c)
cisalhamento puro e (d) cisalhamento
simples (extraído de Nur, 1983).

Um corpo é dito elástico quando existe uma relação única entre esforços aplicados
e deformações resultantes. Em um meio elástico, a deformação independe de como o
processo de esforço foi aplicado; alem disso, apos a remoção dos esforços, o corpo
retorna a forma original.
Para pequenas deformações (10-5 a 10-6), é válida a Lei de Hooke, que estabelece
τij=Σkl cijkl εkl 2.3.1
τij esforço na direção ij, εkl deformação na direção kl e cijkl constante de rigidez (stifness) na direção
kl de um corpo para um esforço na direção ij.

Pode-se dizer que a Lei de Hooke generalizada é uma relação constitutiva para
um corpo linearmente elástico (Krebes, 1989).

Para um material sobre efeito de pressão litostática, existem nove componentes de


esforços, gerando nove componentes de deformação e 81 constantes de rigidez. No
entanto, devido à simetria de τ e ε, as 81 se tornam 36. Introduzindo-se consideraçoes
termodinâmicas (por ex., τ12 = τ21 caso contrário existiria rotação com aceleração
constante – e conseqüente aumento infinito de velocidade, o que seria um absurdo – do
corpo em volta do eixo 3; assim, nove τij diminuem para seis), este número é reduzido
para 21.
Um sólido isotrópico (que possui as mesmas propriedades físicas independente da
direção em que elas são medidas) tem as deformações causadas por um esforço
medidas por somente duas constantes, as constantes de Lamé, µ e λ. Neste caso, a eq.
2.3.1 se torna
τij= λδij εkk + 2µεij 2.3.2

O módulo de cisalhamento (ou de rigidez) µ é definido pela razão entre o esforço e


a deformação para o caso de cisalhamento simples (fig. 2.3.3),
µ= τT/(∆L/L) ≈ F/(A.θ) 2.3.3
τT (=F/A) esforço tangencial, ∆L deslocamento do cisalhamento, L distância entre os planos de
cisalhamento, F força, A área e θ ângulo de cisalhamento; a aproximação θ ≈ tgθ = ∆L/L é válida
para pequenos ângulos de cisalhamento.

18
Uma característica importante de µ é ser invariável com o tipo de fluido que
preenche os poros. Experimentos mostram que µ é positivo para pequenas deformações
(Krebes, 1989).

O módulo de volume (bulk modulus), ou incompressibilidade, κ, representa a razão


entre esforço hidrostático e deformação volumétrica através da expressão
κ= ∆τ/(∆V/V) 2.3.4
∆τ esforço variação de pressão, ∆V variação de volume e V volume inicial.
Este parâmetro é o inverso da compressibilidade C.
O módulo de Young (ou de estiramento) E mostra a razão entre esforços e
deformações axiais no caso de esforço uniaxial (fig. 2.3.4)
E= τi/(∆L/L) = (F/A)/(∆L/L) 2.3.5
τi esforço na direção i, ∆L variação no comprimento e L comprimento inicial.

A constante de Lamé λ é definida por


λ= κ - 2µ/3 2.3.6
sendo algumas vezes definida como incompressibilidade dos fluidos porque, para fluidos,
tem o mesmo valor que κ.
A razão de Poisson σ é a razão entre as deformações transversal e longitudinal no
caso de um corpo tracionado (fig. 2.3.5)
σ= (∆W/W)/(∆L/L) 2.3.7
∆W variação da espessura original W e ∆L variação do comprimento inicial L.
A razão de Poisson, devido a sua importância em estudos de AVO e inversão elástica,
merece comentários adicionais. Teoricamente, σ varia entre –1,0 e 0,5, mas na pratica
seus valores estão entre 0 e 0,5, com 0,5 sendo a razão de Poisson de fluido (µ=0 na eq.
2.3.8). Rochas ‘duras’ têm valores de Poisson pequenos (próximos de zero), porque a
‘dilatação’ é pequena quando a rocha sofre tração; rochas ‘moles’ tem Poisson alto (≈
0,5). O quase sempre brilhante e muitas vezes polêmico geofísico Leon Thomsen
considera que o uso de Poisson não é relevante para nenhum estudo de sismologia
(Thomsen, 1990), com a razão desta irrelevância sendo a definição de Poisson – segundo
o autor, um experimento que não tem o menor valor para propagação de ondas.

Estas expressões podem ser reescritas como


κ= (3λ + 2µ)/3, E = µ [(3λ+2µ)/(λ+µ)], σ=λ/2(µ+λ) 2.3.8
As expressões gerais de relação entre parâmetros petrofísicos e velocidades de
propagação de ondas P e S são obtidas avaliando-se a equação 2.3.1 através do teorema
da Divergência (também chamado de Gauss ou Stokes, que estabelece que a integral de
volume do divergente é igual à integral de superfície dos vetores normais à superfície,
permitindo transformar a integral de superfície em uma integral de volume) e usando-se a
segunda lei de Newton (a=F/m). Para um meio isotrópico,

VP= [(λ+2µ)/ρ]1/2, VS=(µ/ρ)1/2 2.3.9

19
A eq. 2.3.9 mostra que nos fluidos, que não oferecem resistência ao cisalhamento
(ou seja, µ=0), VS é nula, ou seja, ondas cisalhantes não se propagam em fluidos. Vê-se
também que VP é maior que VS – apesar de demonstrado aqui somente para meios
isotrópicos, este fato (VP>VS) ocorre em praticamente todas as situações de interesse na
natureza.

Fig. 2.3.3 – Significado geométrico do


módulo de cisalhamento (µ) estático, obtido
por F / [A. tg(θ)].

Fig. 2.3.5 – Significado geométrico da razão


de Poisson (σ) estática, obtido por (∆W/W) /
(∆L/L).
Fig. 2.3.4 – Significado geométrico do
módulo de Young (E) estático, obtido por
(F/A) / (∆L/L).

A tab. 2.3.1 (extraída de Sheriff, 2002) mostra relações entre parâmetros elásticos
e VP e VS. Deve-se observar que esses parâmetros são agora definidos a partir de
velocidades de propagação de ondas sísmicas – por isso, quando assim obtidos são
denominados dinâmicos. Da mesma forma, quando obtidos por ensaios em laboratório de
acordo com as eq. 2.3.3 a 2.3.8, são chamados de estáticos.
A tab. 2.3.2 (extraída de McQuillin et al., 1984) indica valores destes parâmetros
para algumas rochas, minerais, fluidos e outros materiais de importância na indústria do
petróleo.
A importância de se conhecer as constantes elásticas é que elas podem indicar
características das rochas e fluidos – as propriedades petrofísicas de interesse de
geólogos e engenheiros, como porosidade (φ), volume de argila (VSH) e saturação de água
(SW). Então, o que desejamos é obter essas constantes, o que se procura fazer a partir de
algumas teorias que relacionem valores em constantes elásticas de rochas com medidas
de propagação de ondas elásticas, e também como mudanças nas constantes estão
relacionadas a variações no comportamento das propagações.

20
Tab. 2.3.1 – Relações entre parâmetros elásticos, VP, VS e densidade para um meio isotrópico
(extraído de Sheriff, 2002).

Neste tipo de estudo, é necessário se conhecer as constantes elásticas individuais


de cada componente da rocha, as frações volumétricas dos constituintes e o fabric
(‘padrão’), sendo este último o mais difícil de se conhecer e/ou medir. A partir destas
informações (ou o mais próximo e confiável possível delas), deve-se ‘escolher’ um modelo
– uma discussão aprofundada dos quais está acima dos objetivos deste curso –, sendo os
mais comuns os de Voigt (que considera deformação constante, sendo por isso chamado
iso-deformação), Reuss (iso-esforço) e Hashin-Shtrikman (premissa de estrutura interna
isotrópica, mais complexo que os anteriores). Na prática, muitas vezes se usa uma média
entre os modelos de Voigt e Reuss.

Empiricamente, Grant e West (1965) mostraram há mais de 40 anos que existe


muita sobreposição nos valores de velocidades (VP) para diferentes litologias (fig. 2.3.6),
ou seja, VP isoladamente não pode ser usado geralmente como identificador de tipo
rocha.

21
Tab. 2.3.2 – Valores de alguns parâmetros elásticos para rochas, minerais, fluidos e materiais
comuns na indústria do petróleo (extraído de McQuillin et al, 1984).

Gardner et al (1974) obtiveram a expressão


ρ = 0,23 (VP)1/4 2.3.10
ρ densidade (g/cm3) e VP velocidade (pés/s).
por ajuste da curva mostrada na fig. 2.3.7. Na prática, os parâmetros que relacionam ρ e
VP são obtidos para cada área ou campo de estudo, a partir dos poços que possuam as
duas curvas. Geralmente, os resultados são próximos aos valores de Gardner (0,23 e ¼),
mas pequenas diferenças podem ser importantes em inversões elásticas e/ou estudos de
reservatório.

Fig. 2.3.6 – Histograma


empírico da distribuição de
velocidades (em pés/s) para
diferentes tipos rochas
indicando não ocorrer
individualização clara do tipo
de rocha por VP(extraído de
Grant e West, 1965).

22
Fig. 2.3.7 – Relação entre VP
e densidade para diferentes
tipos de rocha (extraído de
Gardner et al, 1974), com
ajuste da eq. 2.3.10.

Existem algumas relações empíricas entre velocidade e algumas variáveis, como


por ex. a de Faust (1951), que relaciona VP, idade geológica e profundidade:
VP = 125,3 (z. T)1/6 2.3.11
z profundidade (pés) e T tempo geológico.

Wyllie et al. (1956) observaram que o tempo de trânsito de uma onda


compressional em rochas consolidadas (sob altas pressões) saturadas com água pode
ser descrito aproximadamente como a média ponderada volumétrica do tempo de trânsito
dos constituintes, obtendo a expressão:
1/VP = φ/VA + (1-φ)/ VM 2.3.12
φ porosidade, VA velocidade da onda P na água e VM velocidade da onda P na matriz.
Segundo McQuiliin et al (1984), esta aproximação é razoável para areias
saturadas com água com mais de 1.800 m de sedimentos sobrepostos.

Gassman (1951) obteve uma equação que fornece a relação entre o módulo da
rocha seca e saturada. Biot (1956), usando uma situação equivalente a impor propagação
de onda P sem movimentos relativos entre fluidos e sólidos, obteve uma condição em que
VP é igual à velocidade de Gassmann em todas as freqüências. Carcione et al. (2005)
apresentam uma generalizaçao do módulo bulk de Gassmann para meios multi-
minerálicos. Geerstma (1961) desenvolveu, a partir da teoria desenvolvida por
Gassman e Biot a expressão:

VP2 = ρ-1 { ( κR + 4µR/3 ) + ( 1 - κR/κM )2 / [ ( 1-φ - κR/κM ) / κM + φ/κF] } 2.3.13


κR, κM, κF bulk modulus (incompressibilidade) da rocha seca, da matriz (grãos) e do fluido
respectivamente, µ módulo de cisalhamento e φ porosidade.

23
Esta expressão é geral, independendo da geometria, mas assume que a rocha é
isotrópica, as constantes elásticas dos constituintes das rochas (minerais) são constantes
e a freqüência analisada é baixa (inferior a 100 Hz).
Essa equação, de grande uso e interesse para caracterização e monitoramento de
reservatórios, permite uma análise quantitativa entre a velocidade de propagação de
ondas e propriedades de fluidos, através de substituição dos mesmos. Uma grande
vantagem é que ela permite a obtenção de parâmetros de litologia para rocha seca –
parâmetros estes insensíveis à absorção (item 2.7), logo podemos estimar o
comportamento da velocidade nas freqüências sísmicas a partir de medidas de
laboratórios (plugs) e/ou de perfis.
κR pode ser medida em laboratório ou obtida por valores aproximados disponíveis
na literatura. κ e a densidade de fluidos e da matriz podem ser obtidos em laboratório (de
água pode ser obtido por modelos teóricos que relacionam as variações destes
parâmetros com as condições do reservatório) ou de valores da literatura. Rosa e Tassini
(1990) citam κM de 360 a 400 kbar para grãos de arenito e 670-700 kbar para grãos
de carbonato.
Alguns autores (por ex., McQuillin et al., 1984) consideram problemática a
obtenção de κR, e Nur (1993) sugere usá-la com cautela em fluidos muito viscosos e
arenitos muito argilosos.
Uma conclusão interessante e importante da eq. 2.3.13 é que como κ da água é
de duas a dez vezes superior a do óleo e dezenas de vezes maiores que do gás, podem-
se esperar decréscimos na velocidade de arenitos inconsolidados do Terciário na Bacia
de Campos de 10 a 15% em rochas com óleo e 30 a 40% em reservatórios com gás –
segundo Rosa e Tassini (1990), tal fato ocorre na prática. Isto explica o relativo grande
sucesso do uso de anomalias de amplitude na exploração e explotação dos campos mais
importantes da Petrobras.
Berryman (1999) apresenta um excelente resumo (e, segundo o autor, completo)
da origem e aplicação das equações de Gassman. As equações originais relacionam
mudanças nos módulos de cisalhamento (µ) e compressibilidade (κ) entre rochas secas e
saturadas com fluidos. Segundo Berryman, é freqüentemente dito – de forma incorreta –
que Gassmann assume que o módulo de cisalhamento µ seja constante. O autor
apresenta a derivação para meios isotrópicos, garantindo que a generalização para meios
anisotrópicos não é muito difícil. As equações relacionam, segundo Berryman (1999), µ e
κ de um meio mono-minerálico poroso saturado e isotrópico com o mesmo meio no caso
seco, e mostram que µ tem que ser independente mecanicamente da presença do fluido.
Uma premissa importante é que não ocorre interação química entre a rocha porosa e o
fluido. O artigo de Gassmann trata de situações quase-estáticas, ou seja, de baixas
freqüências, sendo este talvez o principal atrativos das equações, pois tratam da faixa de
freqüências dos dados sísmicos de superfície.

Domenico (1974) demonstrou que uma quantidade muito pequena de gás produz
uma grande queda em κF e, conseqüentemente, em VP (fig. 2.3.8). Isto leva a uma
importante conclusão, tanto teórica quanto prática: fortes variações de amplitudes em
seções e mapas de amplitude podem indicar somente a presença de gás, e não sua
quantidade, e muito menos se esta quantidade é comercial. Nos estudos de AVO esta
conclusão será recordada, pois é um dos grandes problemas atuais em análises de AVO.

24
Fig. 2.3.8 – Variação de VP com saturação de
água para areias com gás e óleo em
diferentes profundidades (extraído de
Domenico, 1974). Observar que quantidades
muito pequenas de gás (menos de 5%)
causam forte decréscimo em VP.

Existem algumas equações que procuram relacionar via modelos matemáticos


(Biot-Gassman, por ex.) ou empiricamente velocidades com propriedades das rochas. O
maior problema dos modelos matemáticos usados é que geralmente as premissas
dificilmente são respeitadas no mundo real, sendo difícil a obtenção de um modelo
confiável em várias situações – até o momento, pode-se considerar que isso ainda não foi
obtido. Expressões empíricas, por outro lado, costumam ter aplicação local, ou pelo
menos necessitam a ‘calibração’ (na verdade, reparametrização) para uma área diferente
da que foi definida. Como exemplo, apresentamos as expressões obtidas por Han et al.
(1986), que relacionam VP e VS com porosidade e teor de argila (C)
VP = 5,59 – 6,93.φ – 2,18.C, VS = 3,52 – 4,91.φ – 1,89.C
VP – 5,41 – 6,35. φ – 2,87.C, VS = 3,57 – 4,57.φ – 1,83.C 2.3.14
para rochas saturadas com água e seca, respectivamente. Nestas expressões, mudanças
na porosidade tem peso três vezes maior que mudanças no teor de argila; entretanto,
como variações em C são geralmente muito maiores que em φ, o conteúdo de argila tem,
na prática, grande importância no cálculo da velocidade no caso analisado por Han et al.

Para arenitos argilosos, o diagrama da fig. 2.3.9, extraído de Nur (1993), mostra
que para um valor constante de porosidade (20%, por ex.) existe uma grande variação
nos valores de VP de acordo com a litologia (o que é bom, pois em tese permite a
estimativa do tipo de rocha a partir de VP, sendo uma noticia melhor que a da fig. 2.3.6,
que sugere ser isto bem mais difícil), porém a obtenção de φ a partir de VP continua muito
problemática. Na figura, estão as curvas de correlação VP φ obtidas pelos modelos de
Voigt, Woods-Reuss e Wyllie, mostrando que para a relação analisada Wyllie funciona
razoavelmente bem para areias limpas, mas que nas demais litologias não respeita
nenhum dado em particular, sendo uma entre algumas possibilidades. Na figura vê-se
também que Woods-Reuss funciona bem para rochas próximas da porosidade critica
(acima de 40%) – acima desta porosidade, o material não deve mais ser considerado

25
‘rocha’, mas sim grãos em suspensão em um fluido (água), com VP ficando muito próximo
de 1.500 m/s e praticamente constante para qualquer φ.

Fig. 2.3.9 – Variação de VP


com porosidade para
arenitos argilosos (extraído
de Nur, 1993). Para φ > 40%,
os grãos não formam um
sedimento, se tornando
material em suspensão, e VP
se torna próximo de 1.500
m/s (VP da água) e quase
constante.

O efeito da saturação de água em VS é muito menor, já que ondas S não se


propagam em fluidos, ocorrendo apenas o efeito indireto do aumento da velocidade com o
decréscimo da densidade causado por uma menor SW.

Vernik (1994) analisou rochas siliciclásticas consolidadas pobres em carbonatos e


matéria orgânica e obteve expressões que indicam uma correlação entre VP e φ melhor
que a fornecida pr Wyllie ou Raymer (que negligenciam fatores texturais) para quatro
grupos diferentes de rochas (agrupadas de acordo com conteúdo de argila). Já a
correlação entre φ e κ varia bastante em função da saturação de água irredutível,
existindo uma diferença muito grande entre arenitos limpos (menos de 2% de argila) e
comuns (2 a 15% de argila).

Spikes e Dvorkin (2005) lembram que os módulos efetivos e velocidades


dependem não somente de litologia, porosidade e fluidos, mas também na geometria de
grãos e poros, textura dos minerais e trends de compactação e diagênese. Os autores
consideram que, ainda que equações empíricas não considerem esses parâmetros
explicitamente, elas são fáceis de usar e, se explicarem quantitativamente dados reais,
são mais usadas que equações teoricamente mais corretas, porém geralmente muito
mais complexas – apesar de não citado, deve-se lembrar também sobre a confiabilidade
(e impacto de valores incorretos nos resultados finais) dos parâmetros necessários para
equações complexas. No artigo é avaliado se duas equações empíricas (Wyllie et al
(1956) e Raymer (1980)) são válidas independente do fluido (o que, segundo os autores,
é afirmando nos artigos de Wyllie e Raymer) ou se uma substituição mais sofisticada
(Gassmann) é necessária – de acordo com Spikes e Dvorkin, Wyllie não é consistente
com equações de substituição de fluidos, mas Raymer é.

Berryman (2005) analisa – no caso VTI – o aumento do módulo de cisalhamento


quando liquido é substituído por gás, concluindo que o aumento máximo é de 20% (em
cada camada isotrópica isolada, µ é independente do fluido). O autor cita que análises

26
ultra-sônicas em laboratório mostram claramente que µ é mais rígido na presença de
liquido do que o esperado por Gassmann.

2.4 Velocidades sísmicas

A obtenção de velocidades sísmicas é um processo bastante complexo, existindo


livros somente sobre o assunto (Hubral e Krey, 1980; Thomas, 2003).

A velocidade média é obtida dividindo-se a espessura total por metade do tempo


sísmico
VMÉDIA = (h1+...+hn)/[(t1+...+tn)/2] 2.4.1
hi e ti espessura e tempo sísmico da camada i.

A maneira mais comum e usual de se obter velocidades intervalares (ou seja,


velocidade de uma determinada camada, considerada constante), é através de Dix (1955)
Vint2 = (V22t22 – V12t12) / (t2 – t1) 2.4.2
em que V na prática é a velocidade de NMO ou de migração, apesar da equação ter sido
derivada para velocidade RMS – somente o uso de VNMO ou de migração já é uma fonte
de erros. Ainda assim, esta equação é vastamente usada, por ex., em quase todos os
pacotes (softwares) de interpretação, na geração de modelos de velocidade para
conversão tempo-profundidade. Este uso é disseminado principalmente à simplicidade da
equação. Outra maneira de se obter velocidades intervalares é por migração em
profundidade – o que, a propósito, não tem relação alguma com uma boa conversão
tempo-profundidade.
A formula de Dix gera grandes erros quando o intervalo de tempo é pequeno. Por
isso, geralmente os programas de conversão tempo-profundidade tem problemas se
forem usados interfaces muito próximas, como por ex., com pinchs.

O método WKBJ (item 2.1) necessita que o gradiente vertical de velocidade seja
muito menor que a freqüência (em radianos). No caso – bastante comum – de aumento
linear da velocidade com profundidade (V(z)=V0+az, V0 velocidade inicial, a gradiente
vertical e z profundidade), podemos verificar que com a em torno de 0,1 (um valor
razoável), temos f ≈ 10 Hz e ω (freqüência angular) ≈ 63 Hz.

Pennebaker (1968), em artigo clássico, mostrou como informações da sísmica de


superfície – mais especificamente, as velocidades obtidas durante o processamento –
podem ser usadas para prever aproximadamente tanto a profundidade de zonas de
pressão anormais quanto à intensidade das mesmas. As considerações de Peenebaker
são usadas ainda hoje – naturalmente, com algumas evoluções, como o uso de ondas-S.

Wang (2001) apresenta algumas relações práticas, teóricas e empíricas entre


velocidades sísmicas com rochas, fluidos e o meio. A maioria dos parâmetros tem seus
efeitos analisados isoladamente, apesar do próprio autor reconhecer que a maioria não é
independente (por ex., porosidade e VSH, viscosidade e RGO). Usando a classificação do
artigo, um resumo dessas relações é apresentado a seguir.

1. Propriedades das rochas:


. compactação, consolidação, idade e cimentação: VP e VS aumentam;

27
. textura: em geral, areias com maiores grãos e/ou menos selecionadas tem
maiores VP e VS devido a melhor contato e menor porosidade, enquanto que areias com
grãos angulosos têm menores VP e VS – porém maiores VP/VS – que areias esféricas;
. conteúdo de argila: depende da posição da argila no interior da rocha, mas
estatisticamente maior VSH significa menor VP e VS e maior VP/VS;
. anisotropia: na intrínseca, folhelhos mais consolidados e/ou com grande
conteúdo de matéria orgânica (geradores) geralmente são mais anisotrópicos; a induzida,
causada por tensões, é proporcional aos esforços envolvidos e relacionados à fraturas;
. fraturas: VP é maior na direção paralela às fraturas; duas VS são criadas
(fenômeno denominado birrefringência ou splitting, cap. 10), uma mais rápida, paralela à
direção das fraturas (VS1) e outra mais lenta (VS2), ortogonal à VS1;
. porosidade: inversamente proporcional à VP e VS; geralmente não afeta VP/VS;
. litologia: maiores VP e VS em dolomitos, seguidos de calcários e arenitos;
folhelhos podem ter VP e VS maiores ou menores que arenitos; calcários tem os maiores
VP/VS, seguidos de dolomitos e arenitos; folhelhos geralmente têm VP/VS maiores que
areias, a exceção mais importante sendo arenitos inconsolidados, o que algumas vezes
causa pit-falls em análises de AVO (cap. 7);
. forma do poro: Wang (2001) considera este o fator mais importante na definição
de VP e VS, porém o mais difícil de ser obtido; segundo o autor, 1) a dispersão em gráficos
V-φ é causada principalmente por diferenças na forma do poro e 2) rochas com poros
planos tem menores VP e VS.

2. Propriedades dos fluidos


. viscosidade: diretamente proporcional a VP e VS;
. densidade: VP aumenta, mas VS pode diminuir;
. molhabilidade: altera a relação de forças internas entre fluido e grãos, geralmente
ocorrendo um pequeno decréscimo com maior molhabilidade;
. composição e tipo de fluido: óleo mais pesados causam maior VP e pequena
diminuição em VS; VP costuma aumentar com salinidade;
. fase do fluido: rochas com gás tem menor VP e pequeno aumento em VS,
gerando aumento em VP/VS; saturações de gás entre 5 e 100% causam praticamente o
mesmo efeito nas velocidades (fig. 2.3.8), dificultando a separação entre acumulações
comerciais e não-econômicas;
. RGO, RGA: alguns óleos com alto RGO têm comportamento sísmico de gás;
RGA tem pouca importância, mesmo porque também geralmente é bem baixa;
. saturação: tem efeito maior em rochas fraturadas.

3. Propriedades do meio
. freqüência: geralmente VP e VS aumentam com freqüência, mas a magnitude da
dispersão é difícil medir;
. histórico de tensão: relacionado à criação e destruição de fraturas e
microfraturas, que gera anisotropia;
. ambiente deposicional: talvez seja o fator de maior complexidade; a razão, fonte
e energia da deposiçao costumam gerar ciclos, que afetam VP e VS; Wang (2001) cita
que argilas autigênicas e detríticas afetam diferentemente as velocidades;
. temperatura: inversamente proporcional à VP e VS, sendo mais significativo para
arenitos inconsolidados com óleos pesados;
. estratégia e histórico de produção: injeção de água aumenta SW e pressão,
sendo necessárias modelagens para obter o resultado final em VP e VS ao longo dos
anos;

28
2.5 Modelo convolucional

O traço sísmico (s(t)) pode ser visto como resultado da convolução entre um pulso
(w(t)) e uma função refletividade (r(t)), adicionando-se ruído (n(t)) ao sistema.
s(t) = w(t) ∗ r(t) + n(t) 2.5.1
Esta expressão é usada em várias etapas fundamentais durante o processamento
sísmico. Devemos lembrar que é uma aproximação e simplificação, com algumas
premissas que muitas vezes não são observadas, como por ex. se considerar o pulso w(t)
constante (estacionário) durante a propagação.
Uma grande importância desta equação – talvez a principal – é que a obtenção de
r(t) é o objetivo final do método sísmico, pois r(t) muitas vezes indica as variações
litológicas e/ou de fluidos. Então, vemos que o objetivo do processamento é retirar
(atenuar, na verdade) todo o ruído e efeitos do pulso, o que é uma operação sempre
muito complexa, com várias etapas, algumas das quais serão discutidas no cap. 4.
A eq. 2.5.1 é usada em uma etapa inicial e fundamental da interpretação, que é a
geração de sismogramas sintéticos (cap. 5). Neste caso, r(t) é obtido a partir de perfis
sônicos e/ou densidade e w(t) pode ser extraída do dado sísmico (de uma forma
estatística ou determinística) ou gerada (modelada) sinteticamente.
A seguir, analisaremos algumas propriedades do pulso, alguns efeitos da
propagação sobre o mesmo, e conseqüências de impacto direto na caracterização de
reservatório.

2.6 O pulso sísmico

O pulso sísmico – também chamado de assinatura, ou ondícula (a partir da


tradução de wavelet) – é o sinal gerado por uma fonte de energia sísmica. Para se
verificar isoladamente os efeitos de algumas variáveis (e ao mesmo tempo avaliar a
dificuldade e confiabilidade das análises) que afetam o pulso p(t), o mesmo pode ser
decomposto em (Rosa e Tassini, 1995):
p(t) = w(t) ∗ a(t) ∗ i(t) ∗ h(t) ∗ g(t) ∗ e(t) 2.6.1
com os efeitos sendo: w(t) assinatura, a(t) arranjos da fonte e receptores, i(t) instrumento, h(t)
recepto,r g(t) reflexões fantasmas e e(t) terra.

Efeitos de acoplamentos de fontes e receptores geralmente não são considerados


por serem de pouca importância no caso marítimo (já que a água é geralmente
homogênea e perfeitamente acústica) e em terra de difícil correção, já que seria
necessário o conhecimento detalhado da topografia e parâmetros de camadas rasas
(zona de intemperismo), visando modelagens para obtenção das distorções de fase e
amplitude.

A assinatura w(t) é definida pelo tipo de fonte usado, que corresponde quase
sempre à dinamite em terra e canhões de ar comprimido (air-gun) no mar. Estas são
fontes explosivas, que é quase sempre impulsiva, ou seja, com liberação de grande
quantidade de energia em um tempo muito curto, de forma a termos um pulso com fase
mínima. A assinatura pode ser medida ou estimada. Vibradores (cap. 3) geram
assinaturas longas com forma controlada, que são gravados na aquisição para geração,
durante o processamento, de operadores de deconvolução.

A parametrização da aquisição procura sempre minimizar possíveis efeitos de


arranjos, que são sempre mais prejudiciais em levantamentos terrestres, devido a
variações topográficas e da zona de intemperismo e diferenças no acoplamento.

29
A distorção do instrumento de registro – apesar de geralmente pouco danosa – é
considerada no processamento, com a resposta impulsiva dos instrumentos sendo
medidos durante a aquisição ou obtidos de uma ‘biblioteca’. A distorção dos receptores
(especialmente hidrofones ou – mais recentemente – acelerômetros) não é, geralmente,
muito significativa. Geofones podem ter distorções significativas associadas à freqüência
de ressonância, mas na prática são usados fatores de amortecimento para contornar este
problema.

Fantasmas (ghosts) são gerados por interfaces de altíssimo contraste de


impedância situados relativamente próximos à fonte e/ou receptores. São eventos
descendentes gerados por reflexões do campo ascendente na superfície (terrestre ou do
mar) (fig. 2.6.1), que geram um novo campo de ondas, com o grande problema de uma
diferença de fase de 1800 (ou seja, com polaridade invertida) em relação ao campo
original. Isto causa uma forte atenuação (denominada notch) em alguns valores de
freqüências, de acordo com a profundidade da fonte e/ou receptor. Um exemplo é
mostrado na fig. 2.6.2, em que se compara o mesmo sinal registrado por um hidrofone a
180 m e a 5 m de profundidade. Segundo Rosa e Tassini (1995), os efeitos dos fantasmas
no pulso talvez sejam os mais importantes e difíceis de serem corrigidos.

Na Petrobras, os efeitos do instrumento e fantasmas são atenuados no


processamento por um operador matemático único chamado defaninst (deconvolução do
fantasma e instrumento), com os efeitos do instrumento sendo fornecidos pela aquisição
ou obtidos em arquivos internos ou externos e os do fantasma modelados realisticamente,
considerando-se a distribuição da variação da profundidade dos (principalmente)
receptores (e não uma profundidade média única e constante, pois um operador assim
gerado afetaria excessivamente uma determinada freqüência, alem de ser menos realista,
já que os receptores nunca têm a mesma profundidade durante o levantamento).
Fig. 2.6.2 – Efeito do fantasma do receptor
no pulso, registrado em (a) 180 m e (b) 5 m
de profundidade (extraído de Rosa e Tassini,
1990).

Fig. 2.6.1 – Origem do fantasma da fonte


(representada por uma estrela na figura),
com o mesmo efeito ocorrendo para o
receptor. A diferença de tempo entre a
primária e o fantasma (definido pela
profundidade da fonte (ou do receptor) D)
determina a freqüência de ocorrência do
notch do fanstama (fNOTCH = 750/D para raios
verticais). Na prática, procura-se usar D de
no máximo 6 m para a fonte e 9 m para
receptores.

30
Os efeitos da terra são aqueles que podem nos informar sobre as litologias e
fluidos percorridos durante a propagação de onda. Naturalmente, tal análise não é trivial,
por várias razões, algumas das quais são discutidas nesta apostila.

2.7 Propagação de ondas

Serão analisadas as características e alterações de amplitude, conteúdo de


freqüência e de fase das ondas, para entendermos como extrair informações – bem como
das limitações (alguma quase incontornáveis) – da sísmica de superfície.
Apesar de prejudicial para o método sísmico, se não fosse a atenuação intrínseca
do som no interior da Terra, a energia dos terremotos reverberaria por muito mais tempo.
A perda de energia que ocorre no pulso sísmico durante a propagação causa uma
atenuação de amplitudes, que é algumas vezes contornável quando sinais muito fracos
são amplificados suficientemente durante o registro para serem recuperados no
processamento, mas também uma perda de freqüências, que pode ser considerada como
efeito mais danoso por ser muito mais difícil (e várias vezes impossível) recuperar uma
freqüência não registrada.
Perdas de amplitude são muitas vezes medidas e analisadas em décibeis (dB),
que mede a razão entre duas amplitudes AINICIAL e AFINAL pela expressão
razão em dB = 20 log (AFINAL / AINICIAL ) 2.7.1
Algumas vezes é usado o conceito de oitavas, com uma oitava entre duas
freqüências indicando que a maior freqüência é o dobro da menor. Assim, um espectro de
três oitavas significa que a freqüência mais elevada é oito (=23) vezes superior à menor.

As principais causas das perdas de amplitude e freqüência são:

espalhamento geométrico (divergência esférica) – é a perda de energia por


unidade de volume.
Pelo principio de conservação, a energia emitida pela fonte sísmica (que pode ser
considerada pontual) é distribuída, à medida que a onda se propaga, por toda a frente de
onda (que, em meios homogêneos e isotrópicos, é uma esfera). Esta distribuição causa
um decréscimo de energia proporcional ao inverso do quadrado da distância
(considerando-se a frente de onda esférica).
Considerando que a perda é função direta da velocidade de propagação e tempo
de trânsito, Newman (1973) propôs uma equação para correção deste tipo de perda
proporcional a tV2 (V velocidade RMS do meio, sendo aplicada na prática uma velocidade
preliminar de processamento), que é usada até hoje, com algumas variações, quando não
é efetuada migração com amplitude (pseudo-) verdadeira.
Segundo Anstey (1977), a diferença média de amplitude entre 0,1 e 5,0 s é em
torno de 50 dB, o que corresponde a uma perda de 99,7%, de acordo com o gráfico da fig.
2.7.1.

31
Fig. 2.7.1 – Escala de decibéis (dB, que mede o logaritmo da razão entre duas
amplitudes) indicando que uma queda de 50 dB (considerada por Anstey como
representativa entre eventos a 0,1 e 5,0 s) equivale a 99,97% de perdas (extraído de
Anstey, 1977).

absorção (ou atenuação inelástica) – este fenômeno não é completamente


entendido, mas a hipótese mais aceita é que esteja relacionado à conversão de energia
mecânica em calor, causada pelas propriedades inelásticas das rochas, com o calor
sendo gerado por fricção entre grãos e/ou partículas. Por esta teoria, a causa principal da
inelasticidade seria o movimento relativo nas fronteiras dos grãos, com a atenuação
sendo função das condições das superfícies dos grãos, como saturação e conteúdo de
argila. Por estar vinculado a estas propriedades, este processo seria muito difícil de se
expressar matematicamente. O fato de rochas secas apresentarem baixa inelasticidade
favorece a tese de que o principal causador da absorção é o movimento entre grãos, pois
se considera que rochas secas tem alto coeficiente de fricção, dificultando bastante
movimentos de deslizamento.

White (1965, 1983) inclui como absorção toda “loss of amplitude in excess of that
due to geometrical spreading and reflection” (“perda de amplitude além daquela devido a
espalhamento geométrico e reflexão”).
A análise de absorção é muito mais complexa que análises elásticas (que já não
são triviais). O estudo é difícil porque muitos mecanismos contribuem para absorção e
pequenas mudanças em algumas condições podem afetar a atenuação e absorção
significativamente.
Existem diversos desacordos entre os especialistas, como por ex. se o fator Q
(definido a seguir) é ou não função da freqüência, quais os mecanismos causam absorção
e entre eles qual(is) o(s) mais importante(s) e se a absorção é linear, entre outras
duvidas. O estudo de absorção tem sido há bastante tempo uma fronteira de – na prática
– poucos e reduzidos ganhos, devido principalmente à complexidade do assunto. Co-
autor de uma das ‘bíblias’ da sísmica (Aki e Richards, 1980), o Prof. da Univ. of Columbia

32
Paul Richards considera o fator Q “a mess” (comunicação pessoal ao Dr. Gustavo Ponce
Correia).
A teoria de Biot considera Q variável com freqüência. Considera um sólido poroso
com esqueleto elástico e somente um fluido. Utiliza três parâmetros, a viscosidade
complexa (em que altas freqüências acelerariam o fluido), a tortuosidade do espaço
poroso e um fator de acoplamento de massa. Esta teoria prevê a existência de duas
ondas de dilatação, ou compressional: a onda-P mais comum, que tem velocidade
praticamente constante, com um pequeno termo variando com o quadrado da freqüência,
e uma onda denominada tipo II, associada a fluxo de calor ou difusão, com velocidade de
fase proporcional à raiz quadrada da freqüência e sofrendo extrema atenuação. A onda
tipo II, já verificada experimentalmente, pode ser importante em contatos gás-líquidos
devido à vibração dos fluidos. Para as ondas-S, a velocidade é considerada virtualmente
constante, com atenuação proporcional a f2. Se o fluxo de fluido é o aspecto mais
importante, deve combinar parâmetros sedimentológicos com velocidade e atenuação.
Dados experimentais mostram que a teoria de Biot não funciona bem para arenitos
argilosos.
Os efeitos de saturação são de difícil medida em laboratórios, porque 1) considera
um distribuição homogênea do fluido, 2) o aquecimento para secar a amostra causa
alterações na estrutura da matriz e 3) a remoção completa dos fluidos é impossível.
Observa-se que a saturação de água (SW) e a viscosidade são muito importantes, com
uma medida de VSP mostrando um fator Q caindo de 30 para 10 em sedimentos
marinhos rasos com pequena quantidade de gás.

Observa-se empiricamente que 1) as velocidades sísmicas quase sempre


aumentam com a freqüência, 2) as ondas sísmicas são sempre atenuadas quando viajam
pelas rochas e 3) a velocidade e atenuação aumentam em rochas saturadas com fluido
(comparando-se com rochas secas) e diminuem com maior pressão efetiva.
Medidas de laboratório e estudos teóricos mostram que, geralmente, a perda por
absorção é aproximadamente constante quando medida em dB/λ, com λ sendo
proporcional à freqüência. Como conseqüência, as freqüências mais altas são atenuadas
mais rapidamente que as baixas, o que causa uma diminuição progressiva da resolução
sísmica à medida que a onda se propaga. Assim, a absorção tem como efeito colateral
gravíssimo a perda de altas freqüências durante a propagação; a recuperação desta
freqüências é muito difícil, e muitas vezes impossível.

Uma medida do efeito da perda do conteúdo de freqüências em função do tempo


de propagação é indicado na fig. 2.7.2.

33
Fig. 2.7.2 – Perda de altas
freqüências como função do
tempo de propagação
(curvas de 1 a 5 s) para uma
absorção de 0,2 dB/λ
(extraído de Anstey, 1977).

Para medida deste efeito, usa-se um coeficiente de atenuação α (cujos valores


costumam variar entre 0,2 e 0,5) de decaimento exponencial pela distância, de acordo
com a fórmula
AFINAL=AINICIAL.exp(-α.x), 2.7.2
x distância percorrida pela onda.

A medida da mudança de amplitude por um ciclo, ou decréscimo logarítmico, é


δ = ln (AFINAL/ AINICIAL) 2.7.3
Mais comumente usado na correção dos efeitos de absorção/dispersão do que α,
o fator Q (fator de qualidade) é definido por
Q = (π.f)/(α.V) = π/δ, 2.7.4
f freqüência e V velocidade.

O fator Q indica aproximadamente quantas vezes uma onda se propaga, em ciclos


ou períodos. Pode ser visto como a razão entre a energia armazenada e a dissipada.
Kjartansson (1979) sugere a expressão
1/Q = 1/tg(ϕ) 2.7.5
ϕ atraso de fase da relação esforço-deformação.

Q costuma variar nos sedimentos entre 50 e 300 (tab. 2.7.1), sendo


aproximadamente constante na faixa de freqüências da sísmica de superfície. A figura
2.7.3 mostra o efeito da absorção quando um spike se propaga em um meio com Q=100
durante 1,0 s.

Fig. 2.7.3 – Efeito da absorção em um pulso


unitário (spike) após 1,0 s de propagação
(extraído de Rosa e Tassini, 1990).

Algumas vezes usa-se o fator de dissipação, que é o inverso de Q (i.e., Q-1).

Existem alguns algoritmos de obtenção do fator Q, com um muito bom tendo sido
desenvolvido e apresentado por nosso Varela et al (1993). Muitas vezes a medida é

34
realizada no próprio dado sísmico, porém a forma mais confiável de obter-se o fator Q é
através de VSP (cap. 8) (Robert Stewart, comunicação pessoal).

Tab. 2.7.1 – Valores do fator Q intrínseco para algumas rochas (Nur, 1993).

Durante o processamento, correções do fator Q são usadas geralmente tanto para


fase quanto para amplitude, sendo mais comuns no primeiro, pois, em caso de
parâmetros imprecisos, o dano não costuma ser significativo. De qualquer modo, prefere-
se sempre usar maiores valores de Q, diminuindo-se desta forma o efeito da correção de
absorção. Especialmente danosa é a correção do fator Q em múltiplas não atenuadas,
pois as mesmas se propagaram somente na água, meio que tem Q praticamente infinito
(ou seja, as perdas por absorção no mar são desprezíveis).
Na prática, é de separação muito difícil os efeitos de absorção efetiva (algumas
vezes chamada de Q intrínseco) da redução no conteúdo de altas freqüências causada pelas
múltiplas de (muito) curto período (fig. 2.7.4), que serão analisadas em breve.
Regiões de absorção muito elevada (baixo fator Q) – que causam um decréscimo
forte e abrupto no conteúdo de altas freqüências – têm sido associadas à ocorrência de
gás, mas quase sempre essas acumulações são mais nítidas de outra forma (fortes
anomalias, por ex.). Existem estudos teóricos que tentam relacionar o fator Q à
permeabilidade, mas de muito pouca aplicação prática, até o momento. Mais
recentemente, começou-se a analisar evidencias (e implicações) de anisotropia na
distribuição do fator Q.
As principais aplicações práticas do fator Q talvez sejam de tentar no
processamento a recuperação de altas freqüências (Oliveira et al., 2005) e estimar-se a
freqüência máxima esperada de um levantamento sísmico. Não foi encontrada uma
relação única entre Q e litologia, nem na teoria nem na prática, mas correlações locais
têm sido encontradas empiricamente. Secundariamente, são reportados a separação de
permeabilidades altas de baixas (em VSPs) e medidas de saturação e conteúdo de argila
(medidas em laboratórios).
A mensuração do fator Q pode ser feita em laboratórios (com diferentes técnicas),
via VSP (usando-se a onda direta, em rochas teoricamente não perturbadas e sob
condições controladas) ou da própria sísmica de superfície. No VSP ou sísmica, é difícil

35
obter medidas especificas em reservatórios, por ser um intervalo relativamente curto.
Existe desacordo mesmo usando-se o mesmo conjunto de rocha, como por ex. o folhelho
Pierre, em que se encontrou α variando com f e f2. Em VSPs, a pequena separação dos
receptores pode fazer com que variações locais sejam mais influentes que a profundidade
do receptor.
A razão espectral (reta que melhor ajuste o decréscimo de amplitudes em direção
às altas freqüências) é o método mais comum, com a onda tendo que ter viajado ao
menos um comprimento de onda na camada analisada. Outros métodos são o
decaimento de amplitude (pouco confiável, pois requer amplitude verdadeira), modelagem
ajustando pulsos em tempos distintos através de diferentes valores de Q e ajuste de
sísmica de superfície para perfis de poços.
Os resultados permitem concluir que Q é independente da freqüência,
especialmente para rochas secas – este fato é extremamente importante, pois permite
analisar rochas em laboratórios (a freqüência de MHz) e extrapolar os resultados para a
freqüência de perfis (KHz) ou sísmica de superfície (dezenas de Hz). O problema é incluir
o fator de fluido a estas freqüências menores – para isso, usa-se geralmente a equação
de Gassmann-Geerstma (eq. 2.3.13). Algumas medidas mostram Q inversamente
proporcional à freqüência em líquidos, mas de uma forma negligenciável em freqüências
sísmicas, mesmo para sedimentos marinhos inconsolidados. Arenitos com baixa
porosidade costumam apresentar Q elevados, provavelmente devido a poucos fluidos
para interagir com sólidos.
A interface gás-liquido costuma ter um gradiente de pressão muito alto, causando
um movimento de liquido anormalmente elevado, gerando uma alta atenuação (baixos
valores de Q) sobre campos de gás, com algumas vezes reflexões sísmicas não sendo
obtidas devido à alta atenuação em sedimentos marinhos rasos com gas bubbles
(Rodriguez et al., 1998).
Algumas análises encontram relação entre a razão QS/QP e a saturação, mas isso
não pode ser considerado como regra geral. Em arenitos com saturação parcial, é comum
que QS>QP, o que não costuma ocorrer geralmente – atribui-se o fato de que, quase
sempre, QP>QS ao maior atrito que a partícula encontra ao realizar um movimento
cisalhante em comparação ao compressional.
Pode-se concluir que Q é constante, tanto para ondas-P quanto –S, e que
pequenas quantidades de água faz com que o valor de Q decresça drasticamente.

Empiricamente observa-se também que α diminui com o aumento da pressão de


confinamento, talvez devido a fechamento de fraturas. Conclui-se também que α é maior
para rochas saturadas com fluido, e que depende de SW , tipo de fluido e freqüência em
uma relação complexa. No caso de tensões não-hidrostáticas, ocorre anisotropia em α,
corroborando sua relação com o comportamento de tensões. Tem sido observado que a
razão αP/αS possui algumas vezes relação com a razão de Poisson.

A correção de efeitos de absorção é muito difícil, entre outras coisas pelo efeito
combinado de outras causas de atenuação.

A inelasticidade (algumas vezes chamada anelasticidade) é geralmente modelada


matematicamente pela teoria da viscoelasticidade, onde a relação tensão-deformação é
função do tempo t, com a resposta sísmica do meio dependendo da ‘história passada’ da
rocha, dizendo-se que o meio tem ‘memória’ (Krebes, 1989).
Segundo Toverud e Ursin (2005), nas freqüências sísmicas é comum o uso de
equações empíricas para modelar a atenuação, com um método comum sendo o de uma
relação linear entre a atenuação e a freqüência, que foi estabelecido por Futterman (1962)

36
e é bastante usado até hoje, com algumas pequenas variações. Os autores analisaram
oito métodos distintos em um VSP, concluindo que todos fornecem resultados parecidos,
com o modelo de Futterman sendo ligeiramente melhor, o que justifica sua utilização
bastante disseminada.

A absorção não deve ser confundida (apesar de estar associada à) com a


dispersão. Sismicamente, este termo é usado quando diferentes freqüências viajam a
diferentes velocidades, alterando a forma do pulso. É geralmente causada por anisotropia
e/ou absorção (neste caso, não costuma ser significativa), estando também presente em
ondas aprisionadas (channel waves) e superficiais (por ex., o ground roll). A dispersão
leva ao conceito de velocidade de fase (da frente de onda) e de grupo (da energia) (ver
item 2.1). Finalmente, existe também a chamada ‘equação de dispersão’, que relaciona o
número de onda, a freqüência e a velocidade, e cuja discussão está além dos objetivos
deste curso.
De nosso interesse é que a dispersão (causada pela absorção) é facilmente
constatada ao se comparar as velocidades do mesmo material (rocha) em amostras
(plugs) em laboratório (freqüências em MHz), perfil sônico (1 a 10 KHz) e dados sísmicos
de superfície (dezenas de Hz) – observa-se que as velocidades são sempre maiores ao
serem obtidas em maiores freqüências, pois a velocidade de fase (associadas às
velocidades de grupo, ou da energia) é superior nas maiores freqüências. Como este
fenômeno é observado somente em rochas saturadas com líquidos, considera-se que em
rochas com poros preenchidos por líquidos a tensão induzida pela passagem da onda
gere um incremento na pressão de poros, com as baixas freqüências tendo tempo
suficiente para equilibrar-se, mas com as altas freqüências gerando um fluxo de fluidos.
Esta teoria, denominada squirting flow, explicaria a presença da dispersão, e é usada
para se modelar respostas esperadas em sísmica de superfície ou perfis a partir de dados
de laboratório.
A teoria de Biot descreve a contribuição da absorção e dispersão do fluxo
macroscópico para rochas totalmente saturadas. Pode-se considerar que a extrapolação
de propriedades de freqüências ultra-sônicas para de perfis sônicos e sísmica de
superfície envolvem premissas que devem ser verificadas por dados que quase sempre
não estão disponíveis.
Ganley (1979) apresentam resultados no Mar de Beaufort, baseado no método da
razão espectral e com correção de reverberação em dados de VSP, de Q=42 entre 550 e
1.200 m e Q=67 entre 950 e 1.310 m, com valores de dispersão consistentes com modelo
de Futterman.
Klimentos e McCann (1990), procurando encontrar uma forma de correlacionar
conteúdo de argila e permeabilidade, observaram que esta relação é dependente da
geometria do poro e forma da argila, parâmetros de difícil quantificação. Os autores
descobriram que – quando a porosidade é mantida constante – o aumento do conteúdo
de argila em arenitos causa maior absorção de energia.

espalhamento difuso (scattering) – espalhamento irregular e difuso de energia


causada por heterogeneidades do meio através do qual a onda viaja.
São ruídos gerados por pequenas feições geológicas, como falhas, recifes, diques
e sills de dimensões reduzidas (inferiores a 10 m). Em algumas situações podem causar
efeito parecido com reverberações (explicadas a seguir), por isso alguns autores (por ex.,
Rosa, 2002) consideram que processos para atenuação do scattering devem ser
concomitantes ao de atenuação das reverberações.

37
transmissão e conversão – uma reflexão de um sinal sísmico ocorre quando uma
onda encontra um contraste de impedância, com a razão (coeficiente) entre as amplitudes
(deslocamento de partícula devido a passagem da onda) refletida e incidente definida por
um coeficiente de reflexão, ou refletividade. Assim, vemos que um ‘mapa de amplitude’ de
um determinado evento pode se referir tanto à distribuição areal dos coeficientes de
reflexão quanto aos valores do ‘tamanho’ (amplitude) do deslocamento da onda – o
segundo caso seria o mais correto, mas o termo ‘amplitude’ costuma ser usado para o
primeiro (coeficientes de reflexão).
Esses coeficientes são obtidos por aplicação de condições de contorno (que
expressam a continuidade de tensões e deformações em uma interface) na equação da
onda. Dessa forma, obtêm-se valores de refletividade como função de parâmetros
petrofísicos e ângulos de incidência, podendo-se inferir então características do
reservatório (e seus fluidos) analisando-se dados sísmicos.
As equações de Zoeppritz são as expressões mais usadas e conhecidas para
obtenção de refletividade (as eq. de Knott, obtidas por análises de potencial, são
equivalentes à Zoeppritz, mas menos usadas), relacionando velocidades de ondas-P e –S
e densidade das camadas acima e abaixo da interface e ângulo de incidência com
coeficientes de reflexão. Essas equações são válidas para ondas planas em meios
homogêneos e isotrópicos – ou seja, já com algumas aproximações e premissas. Ainda
assim, as equações de Zoeppritz são bastante complicadas, extensas e com vários
parâmetros, não permitindo uma inferência de relação entre coeficientes de reflexão
(amplitudes) e propriedades petrofísicas de uma forma simples e direta. Por isso, quase
sempre são usadas aproximações dessas equações, algumas delas apresentadas a
seguir.
No caso mais simples de incidência normal (i.e., trajetória perpendicular à
interface) de uma onda-P do meio 1 para o meio 2 tem-se:

r = (Z2-Z1)/(Z2+Z1), T=2.Z1/(Z2+Z1) 2.7.4


Zi impedância acústica (VP.ρ) do meio i.

Os coeficientes de reflexão r e transmissão T são coeficientes de deslocamento de


partículas, por isso podem ser maiores que um sem problema algum. Geralmente, r
possui valor inferior a 0,1, raramente atingindo 0,3. Como a fração da energia refletida é
proporcional ao quadrado da refletividade, no caso teórico de apenas uma interface com
r=0,1, somente 1% da energia gerada pela fonte sísmica retornaria à superfície. Em um
caso real, em que existem várias camadas e outros tipos de perdas, uma percentagem
muito menor da energia emitida pela fonte será captada pelos receptores
(desconsiderando-se demais efeitos de propagação).
A tab. 2.7.2 fornece alguns coeficientes de reflexão. Vemos que os maiores
contrastes são no fundo do mar e na base da camada de intemperismo. Estas interfaces
são as principais geradoras de múltiplas, com a maior parte das outras interfaces gerando
uma pequena partição de energia.
Rosa e Tassini (1995) citam o exemplo do poço 3-RJS-316, em que as perdas por
transmissão (obtidas através de perfis) foram calculadas em 8,9 dB entre 1.186 e 3.504
m. Os autores consideram que as perdas por transmissão podem ser, geralmente,
desconsideradas, principalmente quando as variações entre as camadas não são muito
grandes. Esta opinião (apesar de questionável e não compartilhada por este autor) é
comum entre vários geofísicos, e na maior parte das vezes o processamento não procura
corrigir este efeito.

38
Tab. 2.7.2 – Coeficientes
de reflexão para
incidência normal em
algumas interfaces
típicas (extraído de
Sheriff, 1978).

Durante a obtenção das equações de Zoeppritz observa-se que, no caso de


incidência não-normal de uma onda-P em uma interface sólido-sólido, são geradas (além
de uma onda-P refletida e outra transmitida) duas ondas (uma refletida, outra transmitida)
cisalhantes com polarização vertical (SV, fig. 2.1.6). Tal fato deve ser esperado
intuitivamente, pois o componente de deslocamento tangencial à interface tem que ter
continuidade na camada seguinte – isto é obtido com a geração da onda-SV.
Este fenômeno, denominado de conversão de modo, permite a geração de ondas-
S usando-se fontes convencionais (de ondas-P), e é a base do desenvolvimento da
sísmica multicomponente nos últimos dez anos. Deve ser registrado que, apesar de
simplificar (e baratear) a aquisição, o uso de ondas convertidas é um complicador para o
processamento.
Alguns autores, como McQuillin et al. (1984), consideram que a conversão de
ondas-P para –SV não é muito efetiva na sísmica convencional, porque a maior parte da
incidência ocorre próxima à normal. Outros autores, como Rosa e Tassini (1990),
discordam, acreditando ser necessário considerar-se a conversão mesmo para refletores
profundos (onde, naturalmente, os ângulos de incidência são mais próximos à normal).
Por isso, Rosa (2002) considera que o uso exclusivo da refletividade P-P para obtençao
da (pseudo, segundo o autor) impedância elástica é naturalmente restrito.Segundo Sheriff
(1992), a eq. 2.7.4 funciona como boa aproximação para ângulos de até 200.

Expressões simplificadas das equações de Zoeppritz foram obtidas e/ou são


mostradas – entre outros – por Bortfeld (1961), Cerveny e Ravindra (1971), Aki e Richards
(1980) e Shuey (1985). Estas simplificações (mesmo com algumas sendo confiáveis para
ângulos somente ate 300) mostram que quando a razão de Poisson (σ) da camada inferior
(considerando o caso de mais comum e que tem interesse, do campo de onda
descendente) é muito menor que da superior, o coeficiente de reflexão r aumenta com o
ângulo de incidência, gerando um aumento de amplitude com offset (distância fonte-
receptor). Deve-se avaliar se as premissas mais importantes dessas aproximações são
respeitadas em cada caso, devendo ser registrado principalmente o fato que algumas
equações que consideram uma variação pequena de VP, VS e ρ são usadas em
modelagens, inversões, etc que obtêm/impõe elevadas alterações nesses parâmetros –
ou seja, uma premissa básica da expressão utilizada é violada, e, no entanto tal
expressão é usada da mesma maneira.
O fenômeno da forte redução de Poisson, denominado de AVO, é usado com
grande freqüência na exploração (para indicação de locais mais favoráveis a existência de
HC) e explotação, para definição de limites de ocorrência de rochas-reservatório e fluidos.
É importante registrar que o forte decréscimo da razão de Poisson é mais comum
em reservatórios com gás, com o efeito de AVO sendo geralmente mais sutil em rochas
com óleo.

As ondas cisalhantes com polarização horizontal (SH) comumente não são obtidas
a partir de ondas-P ou –SV (já que geralmente componentes horizontais de tensão não

39
são gerados), tornando necessário o uso de fontes sísmicas próprias, que são caras,
pouco efetivas e de difícil operacionalidade.

A Lei de Snell-Descartes também é válida para ondas convertidas. A eq. 2.1.1


pode ser reescrita como (fig. 2.1.6)

sen(θP1)/VP1 = sen(θP2)/VP2 = sen(θS1)/VS1 = sen(θS2)/VS2 2.7.5

Quando sen(θP2) se torna complexo (maior que 1), diz-se que a onda atingiu o
ângulo crítico, a partir do qual são originadas ondas frontais (head waves), também
chamadas de cônicas ou de refratadas (fig. 2.7.3). Alguns autores usam o termo refratada
para as ondas transmitidas – já que na ótica geométrica o fenômeno da mudança de
direção de propagação de uma onda é denominado refração – mas na literatura da
sísmica de exploração isto raramente acontece.
Estas ondas, geradas quando ocorre incidência acima do ângulo crítico, se
propagam na própria interface com a velocidade VP2, sendo transmitidas continuamente
para o meio de menor impedância. Seu estudo teórico não é trivial, estando além dos
objetivos deste curso. Demonstra-se que são criadas por reflexão e transmissão de
frentes de ondas curvas, já que a teoria do raio não explica a existência dessas ondas a
partir de ondas planas, sendo necessária o uso de uma teoria mais acurada, baseada em
frentes de ondas curvas (Krebes, 1989).
A Lei de Snell-Descartes mostra que a geração de ondas S refratadas só ocorre,
na sísmica convencional, quando VS do meio inferior é maior que VP do meio superior, o
que costuma ocorrer em áreas com camadas de altas velocidades (geralmente
carbonatos e vulcânicas) próximas a superfície (mas não aflorantes). Modos P-S-S-P
algumas vezes são usados para análises abaixo de vulcânicas ou sal.

Fig. 2.7.3 – Ondas refratadas (head waves) se propagam na camada superior com velocidade da
camada inferior, atingido a superfície antes das ondas refletidas a partir do afastamento crítico
(crossover point) (extraído de Sheriff, 1991).

A partir de um determinado offset (ou ponto), denominada distância (ou


afastamento) crítica, as ondas refratadas atingem a superfície antes da onda refletida,
pois serem mais rápidas que esta (fig. 2.7.3). Na prática, isto só ocorre para interfaces
muito rasas.

40
Esta propriedade é usada algumas vezes nos serviços de refração rasa em
aquisição terrestre (cap. 3) para determinação de valores de correção estática (ver cap. 4)
e em refrações profundas, com receptores a vários quilômetros da fonte, para análise de
descontinuidades muito profundas da Terra (por ex., Mohovicic).
O método de refração foi o primeiro método sísmico usado na indústria do
petróleo, para se mapearem topos de domos de sal (que é um grande gerador de ondas
refratadas, devido a grande ∆V entre o sal e os sedimentos sobrepostos).

Múltiplas podem ser definidas como energias sísmicas refletidas mais de uma vez.
Alguns geofísicos (por ex., Milus Backus, com. pessoal a José Tassini) consideram que o
efeito das múltiplas é o fenômeno mais pernicioso no método sísmico. Existem dois tipos
principais (fig. 2.7.4), as de longo e curto período. Outra forma de classificação é entre as
geradas em uma superfície livre (interface água-ar ou solo-ar) ou criadas nas interfaces
entre duas camadas. As de longo período são, geralmente, geradas em uma superfície
livre.
As de longo período geralmente atingem os receptores como eventos distintos e
se propagam nas camadas superiores (com velocidades menores). Seu maior problema é
estarem quase sempre associadas a interfaces com alto contraste de impedância, tendo
conseqüentemente altas amplitudes – o caso clássico e mais danoso é a múltipla do
fundo do mar, geralmente de fácil identificação e difícil atenuação.

Fig. 2.7.4 – Alguns tipos de múltiplas (da esquerda para dir.): fantasma (ghost, ver item 2.6) e near-
surface e peg leg (ambas de curto período). A mais prejudicial costuma ser a double (associada a
fundo/nível do mar) (extraído de Sheriff, 1991).

Teoricamente, a técnica CDP (cap. 3) atenua as múltiplas, porém na prática o


problema é que as múltiplas nos offsets menores costuma estar próxima ou em
interferência com o sinal primário que se deseja analisar. Os algoritmos no
processamento que procuram atenuar as múltiplas são baseados principalmente em (cap.
4) 1) diferenciação entre eventos primários e múltiplos no domínio τ-p (transformada
Radon) ou 2) via equação da onda.
O primeiro grupo tem como vantagem ser relativamente rápido e barato, porém as
transformadas disponíveis geralmente não são sistemas lineares (fazendo com que um
sinal ‘levado’ para o domínio da aplicação do algoritmo – por ex., τ-p – tenha suas
características alteradas no ‘retorno’, mesmo que nenhuma operação seja aplicada nele).

41
O segundo grupo (SRME sendo o mais comum), bem mais robusto e efetivo, tem como
grande desvantagem o custo elevado, pois usa algoritmos que requerem bastante uso de
máquina e necessita uma densa amostragem espacial. Apesar disso, os métodos SRME
tendem a serem usados atualmente, devido aos resultados geralmente bem superiores.
As múltiplas de curto período podem ser consideradas ainda mais danosas, pois
diminuem a resolução sísmica e são bem mais dificilmente atenuadas durante o
processamento. São geradas quando parte da energia refletida na base de uma camada
pouco espessa é refletida no topo, e refletida novamente na base – criando a chamada
reverberação ou peg-leg. Caso esta trajetória seja muito rápida, esta reverberação é
adicionada à onda principal, causando um ‘alongamento’ no pulso. Como isto gera perda
de altas freqüências, na prática é muito difícil separar os efeitos dessas múltiplas de
efeitos de absorção.
Schoengerger and Levin (1974) observaram que é muito difícil distinguir o efeito de
reverberação e scattering da absorção, já que o efeito é similar. No exemplo dos autores,
de 1/3 a ½ da atenuação em função da freqüência foi causada por acamamento. Rosa
(2002) considera que esta fração deve ser ainda maior, devido a medidas de perfis
sônicos já serem uma média das propriedades do meio; no entanto, esta média (ou
suavização) é feita em espessuras muito abaixo do comprimento de onda da sísmica de
superfície, não estando claro se – e quanto – esta suavização aumentaria o efeito do filtro
estratigráfico. Já White (1983) considera que os efeitos das múltiplas intracamadas são
pequenos se comparados à atenuação intrínseca na freqüência sísmica em sedimentos
típicos.
Além desse desacordo, nenhum dos trabalhos citados considerou o efeito do
scattering em camadas com mergulho. De uma forma geral, alguns autores consideram
que a reverberação deve ser responsável por 10 a 40% da inelasticidade total encontrada
na propagação, com o restante sendo devido à absorção intrínseca das rochas.
Este efeito, às vezes chamado de filtro estratigráfico, foi analisado também por
O’Doherty e Anstey (1971) e Richards e Menke (1983). Pode-se mostrar que é de fase
mínima, o que tem importância ao se tentar atenuá-lo no processamento.
O efeito combinado da absorção inelástica e da reverberação – dois fenômenos
sem relação entre si – é que se costuma procurar atenuar no processamento, podendo-se
usar a expressão proposta por Richards e Menke (1983)
1/Qefetivo = 1/Qintrínseco + 1/Qreverberação 2.7.6
Segundo os autores, esta expressão só não deve ser usada quando Qintrínseco for
elevado.
Valores de Q intrínseco – que algumas vezes procura-se se associar a propriedades
petrofísicas – provavelmente só podem ser obtidos de uma forma razoavelmente confiável
através de VSP.

Os fatores que alteram a amplitude, freqüência e fase do pulso sísmico durante


sua propagação são mostrados, resumidamente, na fig. 2.7.5.

42
Fig. 2.7.5 – Alguns dos fatores mais importantes que alteram amplitude, conteúdo de freqüências e
fase do sinal sísmico (extraído de Sheriff, 1978).

Anisotropia é definida como a variação de uma propriedade física (resistividade,


permeabilidade, velocidade, etc) em função da direção de medição. Não deve ser
confundida com heterogeneidade, que é a variação espacial de uma propriedade.

O tipo de anisotropia mais comum em dados sísmicos e a menos complicada de


se analisar e corrigir (por ser a mais simples) é denominada TI (de Tranverse Isotropy,
significando que o material é isotrópico transversalmente a um eixo). O caso mais comum
é o VTI, em que o eixo é vertical – o nome mais correto é anisotropia polar porém este
termo não é muito usado. No caso do eixo ser horizontal – o exemplo mais importante
sendo fraturas com uma direção preferencial de orientação –, o sistema é chamado HTI.
Entre os dois, e também útil para a sísmica de superfície, ocorre o TTI (de tilted).

A anisotropia VTI está geralmente associada a folhelhos, e significa na prática que


uma onda tem velocidade de propagação maior na horizontal que na vertical. Isso pode
ser compreendido intuitivamente pensando que uma onda que se propaga na horizontal
neste tipo de rocha irá ‘viajar’ dentro da rocha. Já uma onda que se propague
verticalmente irá, necessariamente, atravessar trechos de rochas e trechos de um
material com menor velocidade, com o resultado final sendo uma velocidade inferior a da
rocha.
No caso da sísmica de superfície, a velocidade tem um componente associado ao
afastamento fonte-receptor. Quanto maior o afastamento, maior deverá ser a velocidade
em um meio com anisotropia polar, pois tem maior peso o componente horizontal – que,
como vimos, é mais veloz que o componente vertical. Assim, uma velocidade de
processamento no caso de ambiente VTI será maior que a velocidade caso somente os
afastamentos curtos fosse usados. Como o dado sísmico tem, após o empilhamento (ver
cap. 4), afastamento nulo, conclui-se que se usarmos a velocidade de processamento
para conversão tempo-profundidade para eventos em uma seção empilhada, os
resultados estarão mais profundos que o correto, já que a velocidade é maior que a
verdadeira. Tal fato é largamente conhecido, e freqüentemente observado na prática há
mais de 20 anos (Banik, 1984).

43
Da mesma forma que a absorção, o efeito da anisotropia pode ser similar ao
causado por outros fatores sendo geralmente de difícil separação as alterações geradas
durante a propagação das ondas devido à anisotropia intrínseca das causadas por outras
razões. O tipo de anisotropia mais comum (VTI) pode ser gerado quando a onda se
propaga por diversas camadas horizontais isotrópicas com espessura muito menor que o
comprimento de onda dominante, fenômeno mostrado por Backus (1962). Este fenômeno
é observável em folhelhos geradores – geralmente constituídos de intercalações de
matérias orgânicas e minerais de argila –, que costumam apresentar forte anisotropia.
Alguns autores associam a quantidade de anisotropia ao potencial gerador, mas tal
associação, observada em laboratório, ainda não está completamente provada, e muito
menos existem relações numéricas entre parâmetros anisotrópicos e potencial gerador.

Alguns autores (Shapiro et al. 1994, Rosa, 2002) consideram que uma anisotropia
aparente pode ser causada pelo filtro estratigráfico, principalmente em folhelhos pouco
espessos. Na prática, é extremamente complicado separar os dois efeitos, devido a
dificuldade de obtenção de medidas confiáveis e possibilidade de grandes erros
ocorrerem quando métodos de up-scaling são usados para se extrapolar informações de
laboratórios (freqüência de MHz) para sísmica de superfície (dezenas de Hz).

2.8 Resolução vertical

Resolução pode ser definida como a capacidade de se separar duas feições muito
próximas. Pode ser considerada também a separação mínima necessária entre duas
interfaces ou eventos para que suas características individuais não sejam perdidas
durante uma observação.
A pouca resolução vertical é provavelmente a maior limitação dos dados sísmicos
de superfície, especialmente para o estudo de reservatórios. Isto ocorre porque a
espessura das camadas em subsuperfície geralmente é inferior ao resolvível pelo pulso
sísmico, causando uma superposição de sucessivas reflexões, normalmente de difícil –
senão impossível – individualização. Tal fato é mostrado na fig. 2.8.1, onde se pode
observar que interfaces muito próximas (associadas, naturalmente, à camadas pouco
espessas) não são resolvíveis sismicamente. A fig. 2.8.2 exemplifica como pulsos com
diferentes conteúdos de freqüência podem ou não resolver camadas de diferentes
espessuras.
A expressão
λ=V/f 2.8.1
fornece a relação entre o comprimento de onda λ, a velocidade V e a freqüência
(dominante, ver item 2.1) f. Veremos a seguir que menores λ proporcionam mais
resolução vertical, logo desejamos ter menor velocidade e mais conteúdo de altas
freqüências (de forma a aumentar a freqüência dominante), mas o que ocorre em
subsuperficie é exatamente o contrário do que desejamos ou precisamos. Não podemos
controlar o valor de velocidade, que é uma propriedade intrínseca do meio, e infelizmente
V tende a aumentar com a profundidade, devido à compactação e idade das rochas.
Em relação à freqüência, vimos no item 2.7 que, devido à absorção e múltiplas de
curto período, o pulso tende a perder as altas freqüências à medida que se propaga.
Então, o que fazer para se atenuar este problema? Pode-se realizar uma aquisição com
esse objetivo e/ou aplicar no processamento algoritmos que aumentem a amplitude das
maiores freqüências.
Do lado da aquisição, tal objetivo requer quase sempre um custo muito superior a
levantamentos convencionais, sendo necessários alguns estudos técnicos – modelagens

44
numéricas, principalmente – para se saber até onde vale a pena gastar mais e também
análises econômicas, para verificar se tal gasto vale o retorno esperado. O principal
problema da aquisição é relacionado ao fato do fator Q ser menor (ou seja, as rochas têm
maior absorção) nas camadas mais rasas (por elas serem menos consolidadas), tanto em
terra como no mar. Evitando-se o trajeto na parte rasa, aumenta-se o conteúdo de
freqüência. Obviamente, o problema é colocar fontes e receptores abaixo destas zonas
superficiais. Uma técnica relativamente comum é o VSP, em que os receptores estão em
um poço e a fonte em superfície – vantagens e desvantagens desta e de outras técnicas
de sísmica de poço serão discutidas no cap. 8.
Pelo processamento, tem-se procurado intensamente técnicas e algoritmos que
recuperem as altas freqüências, com algumas tendo resultado razoável a muito bom, e
outras não sendo efetivas. Uma solução ‘caseira’ – o decon iterativo – tem fornecido
excelentes resultados, e será discutido no cap. 5, juntamente com outras técnicas.

Fig. 2.8.1 – Função refletividade hipotética (à


esquerda) e traço sísmico correspondente, Fig. 2.8.2 – Limites de resolução de acordo
indicando impossibilidade de resolver (definir) com a espessura das camadas e conteúdo
camadas pouco espessas (extraído de de freqüências do pulso, mostrando que
Lindseth, 1982). limite é diretamente proporcional à espessura
e conteúdo de altas freqüências (extraído de
Lindseth, 1982).

Quando se deseja determinar o limite de resolução, não existe uma relação única
e precisa para isto. Este limite depende da qualidade dos dados, intensidade das
reflexões e experiência e conhecimento do intérprete. Lord Rayleigh estudou o assunto –
na luz visível –, encontrando um limite de resolução de λ/8. Widess (1973), em artigo
clássico, interessado no comportamento da refletividade em camadas pouco espessas e
qual a espessura mínima a partir da qual a amplitude de uma camada seria
negligenciável, observou que, teoricamente, para uma camada ser detectável pela
sísmica, sua espessura deveria se de pelo menos λ/8 – concordando assim com estudos
de quase 100 anos anteriores da ótica. Em situações reais, no entanto, o autor considerou

45
que esta espessura deveria ser o dobro, com o limite de resolução vertical da sísmica
igual a λ/4. Esta grande diferença foi atribuída por Widdes à, principalmente, presença de
ruídos. Até hoje, o valor comumente usado é de λ/4. Geralmente, o limite de todos os
autores se encontra neste intervalo (λ/8 a λ/4) (Sheriff, 1985).
Então, para se ter uma idéia razoável do limite de resolução do dado que estamos
usando, necessitamos uma estimativa da velocidade intervalar do meio (obtida a partir de
perfis ou análise de velocidade do processamento (cap. 4)) e da freqüência dominante
(disponível no espectro de amplitude gerado via transformada de Fourier). Como
exemplo, vamos considerar um arenito com V=3.000 m/s; caso a freqüência dominante f
seja de 30 Hz (um valor razoável a bom), camadas com espessura inferior a 25 m não
são resolvíveis – naturalmente, neste caso estamos deixando muito óleo para trás... caso
seja possível dobrar f (por aquisição e/ou processamento), a espessura mínima cai a
metade (12,5 m). Claro que chegar a dobrar a freqüência dominante geralmente não é
possível – e quando possível, pode ser extremamente trabalhoso –, mas este exercício
simples mostra que o prêmio pode ser altamente compensador.

Vamos analisar agora o limite de resolução em três casos geológicos distintos:


a. uma camada – a fig. 2.8.3a mostra duas ondas, R1 e R2, reflexões do topo e base
de uma camada, respectivamente (modelo na fig. 2.8.3c). A soma destas duas
ondas – ou seja, o resultado da interferência entre R1 e R2 – é Rd (fig. 2.8.3b).
Observa-se que Rd, apesar de preservar algumas características de R1 e R2,
possui deslocamento de fase em relação a ambos, acarretando um erro no
posicionamento do horizonte a ser interpretado.

Fig. 2.8.3 – Efeitos de interferências entre reflexões do topo (R1) e base (R2) de uma camada
(a) e traço sísmico resultante (b). Modelo simples de uma camada mostrado em (c) (extraído
de Widess, 1973).

b. rejeito vertical de falhas – vemos na fig. 2.8.4 diferentes valores de rejeitos vertical
de falhas normais, em função de λ. Observa-se que é possível definir o rejeito
quando o mesmo está entre λ/8 e λ/4. Rejeitos maiores são facilmente visíveis,

46
mas os menores não serão observados pela sísmica. Atentando-se para que o
exemplo é de dado sem ruído, é interessante notar que esses limites
correspondem ao sugerido por Widdes.

Fig. 2.8.4 – Limite de detecção de rejeitos verticais de falhas normais em dados não-migrados em
função do comprimento de onda λ (extraído de Yilmaz, 1987).

c. detecção de feições tipo pinch-out – na fig. 2.8.5 vemos uma cunha com valor de
impedância maior que os das camadas adjacentes e a resposta sísmica deste
modelo. Na fig. 2.8.6 a cunha tem impedância maior que a camada superior e
menor que a inferior. De grande interesse em casos de acunhamento – feições
comuns em vários reservatórios – é analisar o comportamento da amplitude,
especialmente sua variação em função do afinamento. Os casos de base do
reservatório com refletividade positiva e negativa são mostrados nas fig. 2.8.5 e
2.8.6, respectivamente. Vemos que variações de amplitude ao longo de um
determinado evento não estão associadas a mudanças petrofísicas (litológicas
e/ou de fluidos), mas sim a interferência entre reflexões do topo e da base do
reservatório. Este fenômeno, denominado de tunning, é amplamente conhecido e
observado. Alguns estudos mais detalhados procuram retirar este efeito,
geralmente através de modelagens para obtenção do comportamento esperado de
amplitude no caso de afinamento.

Fig. 2.8.5 – Modelo de


pinch com refletividade
positiva no topo e negativa
na base (acima), com dado
sintético correspondente
(acima, à direita) e
variação da amplitude
causada por afinamento da
camada (efeito tunning) (à
direita) (extraído de
Kallweit e Wood, 1982).

47
Fig. 2.8.5 – Modelo de
pinch com refletividade
positiva no topo e na base
(acima), com dado sintético
correspondente (acima, à
direita) e variação da
amplitude causada por
afinamento da camada
(efeito tunning) (à direita)
(extraído de Kallweit e
Wood, 1982).

Robertson e Nogami (1984) apresentam uma proposta interessante: o uso de


atributos complexos (cap. 6) pode fornecer, em algumas situações, uma definição de
camadas finas (o que não deve ser confundido com um aumento artificial de resolução). A
partir da constatação que a partir de λ/4 o afinamento pode ser revelado por um aumento
anômalo na freqüência instantânea (já que, de forma parecida à amplitude, também existe
uma freqüência de tunning), os autores estudam dados sintéticos e reais, mostrando que
este atributo pode ajudar, devendo ser testado em algumas situações. O caso
apresentado é em objetivos rasos, desconhecendo-se se a metodologia teria resposta
positiva também em reservatórios mais profundos.

O limite de resolução não deve ser visto como um número absoluto, abaixo do
qual não podemos extrair informação alguma do dado sísmico. Ele talvez possa ser
considerado mais como uma divisão no tipo de evidencias disponíveis (Sheriff, 1985).
Em outro artigo clássico, em que existe uma discussão interessante (analisando
picos, extremos, faixas e razões de freqüências e oitavas, considerando um pulso como
uma mistura não linear de freqüências dominantes e funções sinc2) sobre limites (para
dados sem ruídos) de resolução e critérios para determiná-los (também concluindo que o
melhor critério é λ/4 para limite máximo), Kallweit e Wood (1982) se referem à distinção
entre resolução e detecção, que significa simplesmente o registro de um pulso com razão
sinal/ruído suficiente, independente de ser possível uma separação entre os eventos
individuais que se interferem para produzir o pulso final. Dessa forma, alguns aspectos do
reservatório podem ser distinguidos mesmo quando estão abaixo do limite de resolução.

2
A função sinc(x), definida por sin(x)/x, é muitas vezes aplicada em estudos de sísmica, por ter
uma forma similar a de um pulso sísmico.

48
Um exemplo desta situação é o exemplo de pinchs apresentado acima, em que a reflexão
da base afeta e altera a reflexão do topo – tornando-se assim detectável – mas as
reflexões do topo e base da camada não são mais individualizáveis. Análises de
espessuras de reservatório abaixo do limite de resolução a partir de variações de
amplitudes são realizadas, pelo menos, há quase 30 anos (Neidell e Poggiagliolmi, 1977).

Um tema bastante interessante e importante, e recentemente novamente trazido à


discussão, é qual fase em um pulso permite maior resolução: fase mínima ou fase zero?
A fase de um pulso (ou sinal) pode ser alterada, sem alteração do espectro de amplitude.
Berkhout (1973) provou que os pulsos de fase mínima são os que possuem o menor
comprimento – a partir disso, pode-se supor que um dado processado de forma a se obter
reflexões de fase mínima será o de maior resolução. No entanto, tal prova foi realizada
para funções ‘de um ramo’ (one-sided) – i.e., definidas somente para t ≥ 0 ou t ≤ 0.
Schoenberger (1974) mostrou (usando sismogramas sintéticos com os dois tipos
de fase) que um pulso com fase ‘zerada’ é mais curto e tem menores lobos laterais
(causando menos duvidas na posição do evento) que o mesmo pulso (ou seja, com o
mesmo espectro de amplitude) com fase mínima – fornecendo, assim, melhor resolução
vertical. Além da resolução, o autor demonstrou que a definição do tempo correto de uma
interface (reflexão) também é melhor no caso de fase zero. Entre as premissas usadas,
está a que a razão entre as amplitudes do pico (lobo) principal e do maior lobo lateral é
uma medida da resolução, que é uma premissa usada também por outros autores (pois
gera menos ambigüidades e interferência e maior acurácia na interpretação). Yilmaz
(2001) (entre outros autores) demonstra que o tamanho dos lobos laterais é função da
‘largura’ do espectro de amplitudes no domínio da freqüência, que é uma outra forma de
se constatar que um maior conteúdo de altas freqüências gera maior resolução vertical.
Em relação à prova de Berkhout (1973), o autor mostrou que a mesma não é correta para
funções de ‘dois ramos’ (i.e., definidas para t ≤ 0 e t ≥ 0, ou que tem uma parte causal e
outra anti-causal).
Wood (1982) é uma boa referência para se conhecer as propriedades de um pulso
de fase zero. O mesmo ocorre com o livro de Brown (1991, ou edições mais novas), em
que o autor enumera muitas vantagens do uso de fase zero, como simetria do pulso,
ambigüidade mínima em correlações (visuais ou matemáticas), coincidência da interface
(topo ou base) com o centro do pulso e em sua máxima amplitude, além de também
considerar ser a fase que fornece a melhor resolução.
No entanto, Zeng e Backus (2005) publicaram dois artigos conjuntos recentemente
questionando esta idéia (concordando, porém, que dados com fase mínima tem pior
resolução vertical), com alguns pontos interessantes – apesar de se poder discordar de
algumas conclusões, deve-se admitir que algumas questões são razoáveis, e, mais
importante, a sugestão de se usar pulsos com fase de 900 (em vez com faze zero) deve
ser quase sempre testada, tanto para análises visuais quanto de atributos.
Inicialmente, os autores consideram que a premissa de que pulsos de fase zero
são superiores é que a reflexão deve ser de somente uma interface, o que para eles só
ocorre efetivamente quando a espessura da camada é superior a λ. Entre λ e λ /4, eles
não consideram que a fase zero seja superior, mas sim a fase de 900. O maior problema
dos artigos é que as conclusões a partir de comparações entre dados com os dois tipos
de fase são questionáveis, principalmente quando os autores afirmam que a simetria do
pulso de 900 é mais efetiva para atenuar efeitos de tunning que a de fase zero, pois o
comportamento da amplitude é alterado de forma parecida (às vezes, sendo até pior)
quando comparado com o de fase zero.
Pode-se concordar com os autores (e tal fato é bem sabido) que dados com fase
de 900 são mais comparáveis a perfis. Porém, nos artigos não é mencionado que, por ex.,

49
um mapa de amplitudes de um topo não tem praticamente utilidade em dados com este
tipo de fase. Os próprios autores consideram que, nas situações hipotéticas e reais
estudadas, não existe um tipo de fase que seja sempre a melhor.

2.9 Resolução horizontal

Resolução horizontal pode ser definida como a capacidade de se individualizar


dois pontos próximos lateralmente. Sua análise é realizada a partir do conceito de zona
de Fresnel. A zona de Fresnel foi definida no item 2.1 (fig 2.1.4) como a região em
subsuperfície que limita todos os pontos de duas frentes de onda cuja distância (atraso)
seja menor que meio período. Ou seja, as duas frentes de onda estão em interferência
construtiva. Assim, a zona de Fresnel pode ser vista como a região de uma interface que
contribui para a reflexão (fig. 2.9.1).
A primeira zona de Fresnel é indicada na fig. 2.9.2. É a região do espaço que mais
contribui para as reflexões, por isso o termo ‘zona de Fresnel’ é usado, geralmente,
referindo-se somente à primeira zona – o que, se formos rigorosos, não é correto, mas é
aceitável na maior parte das situações, pois a contribuição das demais zonas quase
sempre é desprezível.
No caso simples da distância fonte-receptor (offset) ser zero, ela é representada
por uma circunferência cujo raio R é definido aproximadamente por
R ≈ (V/2) . (t/fD)1/2 2.9.1
V velocidade média, t tempo sísmico (duplo) e fD freqüência dominante.

Deve ser registrado que esta expressão usa o critério de Sheriff (1980). Berkhout
(1984) sugere o uso de λ/8 em vez de λ/4 para o limite de interferência construtiva, mas a
diferença prática pode ser considerada de pouca importância, já que a (primeira) zona de
Fresnel pode ser vista, como explicado em vários autores (por ex., Lindsey (1989)), uma
aproximação numérica de uma função ponderada espacial, determinada pela distância ao
‘ponto’ de reflexão.

Fig. 2.9.2 – Primeira zona de Fresnel,


definida por λ/4.

Fig. 2.9.1 – Significado físico e geométrico da


zona de Fresnel.

A fig. 2.9.3 apresenta registros sintéticos de interfaces com larguras medidas em


dimensões da (primeira) zona de Fresnel. Essas interfaces podem ser consideradas como
feições lenticulares. Observa-se que as reflexões tomam a forma de difrações à medida

50
que os corpos se tornam menores, até o limite de resolução, quando uma feição lenticular
aparecerá como uma descontinuidade.

Fig. 2.9.3 – Limite de


resolução horizontal antes da
migração para corpos
lenticulares, com zona de
Fresnel constante (mesma
profundidade) (extraído de
Sheriff, 1978).

A fig. 2.9.4 mostra como uma descontinuidade em uma camada, como por ex. uma
erosão, apresenta uma resposta diferenciada de acordo com sua largura e a profundidade
em que ocorre. A primeira linha horizontal corresponde à resposta sísmica em superfície,
e as linhas horizontais subseqüentes representam maiores profundidades.

Fig. 2.9.4 – Limite de


resolução horizontal antes da
migração para
descontinuidades, a
diferentes profundidades
(extraído de Yilmaz, 2001).

O nomograma da fig. 2.9.5 permite a obtenção aproximada da (primeira) zona de


Fresnel. Por exemplo, um sinal com freqüência dominante de 20 Hz e tempo sísmico de
2,0 s, que se propagou em um meio com velocidade média de 3.000 m/s, está
amostrando uma região em sub-superfície definida aproximadamente por um círculo com
raio em torno de 470 m. Este valor pode causar preocupação, por ser muito elevado,
aparentemente significando que um traço sísmico tem contribuição das reflexões de uma
área de quase 1 km2. No entanto, deve ser observado que 1) a distribuição do peso
(importância) dos pontos da zona de Fresnel é gaussiana e inversamente proporcional à
distância do traço (fig. 2.9.1), ou seja, os 470 m se referem ao raio total, mas uma porção
bem menor efetivamente determina o valor do coeficiente de reflexão (amplitude) e 2) o
processo de migração diminui significativamente a Zona de Fresnel, reduzindo bastante
os 470 m deste exemplo.

51
Fig. 2.9.5 – Nomograma para
determinação aproximada da
(primeira) zona de Fresnel
em dados não migrados
(extraído de Sheriff, 2002).

O processo de migração já foi definido como um filtro de Fresnel inverso (Lindsey,


1989) e deconvolução espacial (Berkhout, 1984). Após a migração, o diâmetro da
(primeira) zona de Fresnel é definido teoricamente por λ/4, mas na prática o valor λ/2
deve ser usado, devido a algoritmos de migração e/ou velocidades incorretos e até
espaçamento entre traços (ver cap.3) insuficiente. O último item tem impacto direto no
custo da aquisição, pois se querendo ou necessitando-se da melhor resolução horizontal
possível, o limite será definido pela distância entre receptores, porém lembrando-se da
máxima freqüência que se espera recuperar do dado (que, como vimos, é função da
freqüência dominante – relacionada à absorção intrínseca das rochas e reverberações –,
da velocidade do meio e dos mergulhos das camadas).
Finalmente, pode-se concluir que – além de mostrar limites de resolução horizontal
– o conceito de zona de Fresnel mostra que variações em subsuperfície geram efeitos
amostrados por vários traços sísmicos, porque os traços têm distâncias muito menores do
que a (primeira) zona de Fresnel, apesar desses efeitos serem mais significativos ou
importantes somente para os traços mais próximos. O ‘peso’ de acordo com a distância é
considerado no processo de migração (cap. 4), que colapsa (converge) as informações,
individualizando eventos e aumentando bastante a resolução (fig. 2.9.6). Na prática, a
resolução horizontal não costuma ser um problema muito grande, principalmente porque
praticamente todos os dados sísmicos atualmente são migrados antes do empilhamento –
observe o ganho de resolução significativo entre o raio da eq. 2.9.1 e λ/4 (metade do
diâmetro de Fresnel após a migração). Alguns cuidados, no entanto, devem ser
observador. Denham e Sheriff (1980), por exemplo, consideram que a resolução
horizontal é prejudicada devido à presença de ruídos antes da migração, alias espacial,
abertura de migração e erros de velocidades. Noções dos três últimos tópicos serão
apresentados no cap. 4.

52
Fig. 2.9.6 – Relação entre limites de resolução horizontal para
dados sísmicos antes (d) e após (dMIG) migração. Observar
como a migração aumenta significativamente a resolução
horizontal (extraído de Rosa e Tassini, 1990).

53
3 – NOÇÕES DE AQUISIÇÃO SÍSMICA

A aquisição sísmica possui vários componentes, dos quais analisaremos aqui:


fonte, receptores, instrumento de registro, posicionamento e geometria. O desejável em
um planejamento e na aquisição de um levantamento sísmico é que ocorram as menores
quantidades possíveis de interferências, para que as variações nos dados sejam
causadas somente por fatores geológicos. O livro de Evans (1997) fornece uma boa visão
– e algumas vezes bem detalhada – dos principais aspectos da aquisição, com exceção
de aspectos mais recentes, como acelerômetros.

As principais fontes sísmicas são explosivos e vibradores (Vibroseis) em terra e


canhões de ar comprimido (air-gun) no mar. O tipo de fonte a ser usado é determinado
principalmente por fatores econômicos, restrições ao uso de explosivos ou pela
necessidade de um tipo de pulso especifico (quase sempre, que seja de fase mínima).
De qualquer forma, a fonte deve ter potência suficiente para gerar um sinal que,
após percorrer alguns quilômetros em subsuperfície e ter sofrido vários tipos de perdas de
energia, seja registrado com amplitude superior aos ruídos – especialmente nos objetivos
mais profundos. Ao mesmo tempo, a energia não pode ser muito alta, pois além de
requerer um custo maior, saturaria a faixa dinâmica do instrumento.

Os explosivos do tipo dinamite são a fonte mais comum em levantamentos


terrestres, por liberarem uma grande quantidade de energia em um tempo muito curto.
São colocados juntamente com uma espoleta detonadora, em furos de pequeno diâmetro
(5 a 10 cm) e profundidade entre 1 e 10 m. Estes furos são realizados por uma pequena
sonda acoplada a um caminhão, ou quando não é possível o acesso, por trado mecânico.
Normalmente os explosivos são agrupados em um conjunto de 2 a 6 unidades.
A profundidade de detonação deve ser suficiente para evitar a zona de
intemperismo, que absorve grande parte da energia, e permitir a menor perda de energia
possível para superfície, mas não deve ser muito grande, pois seria demorada a
perfuração.
Um problema potencial da utilização de dinamite, talvez ainda não discutido o
suficiente, são os efeitos ambientais. Além da onda de choque gerada em algumas
situações, os efeitos dos diversos sais, provavelmente tóxicos, que compõem os
explosivos e podem ser dissolvidos no lençol freático, não são comumente analisados
(Antonio Buginga, com. pessoal).

A técnica Vibroseis usa de 4 a 10 caminhões com uma fonte vibradora, que, em


contato com o solo, emite um pulso de longa duração (7 a 35 s) e não muito potente. É
mito pouco usado no Brasil, sendo mais aplicado em regiões abertas e com topografia
suave (desertos, Ártico, planícies e planaltos).

Uma grande vantagem do air-gun (fig. 3.1) é sua alta repetibilidade e


confiabilidade, além de relativa simplicidade. A liberação de energia ocorre sob a forma de
uma bolha de ar comprimido, que exerce forte ação no ambiente aquoso. A força reativa
da água causa uma contração desta bolha, que gera, por sua vez, uma reação do ar
comprimido do interior da bolha, criando novamente componentes de tensão na água.
Estes esforços ação/reação geram um trem indesejável de pulsos secundários, causando
o denominado efeito bolha. Usando-se a propriedade de que o tempo de ocorrência da
bolha é proporcional ao volume do canhão, este efeito é atenuado pela criação de sub-
arranjos de canhões, em que as bolhas geradas pelos diversos elementos do conjunto

54
tendem a se anular (fig.3.2). Uma das medidas da eficiência de uma fonte é a razão entre
as amplitudes do evento primário e da primeira bolha.
Atualmente um tipo específico, o sleeve-gun (fig. 3.1), é geralmente usado – as
vantagens são menos componentes (causando menor manutenção) e mais energia
liberada (a energia é proporcional à raiz quadrada da área que libera o ar).

Fig. 3.1 – Desenho esquemático (esquerda) e foto (dir.) de sleeve-gun. O ar comprimido do interior
do air-gun é liberado na água quando a sleeve (‘manga’) se desloca (fig. inferior), gerando uma
bolha de ar com alta pressão. (extraído de Sheriff, 2002).

Os sub-arranjos, por sua vez, são agrupados em um arranjo, desenhado de forma


a se obter uma diretividade (reforço ou atenuação de determinadas faixas de freqüência
de acordo com ângulos, distâncias e direções) especifica.
São necessários grandes compressores a bordo do navio, para gerar energia na
quantidade e rapidez (algumas vezes o intervalo de tiros é inferior a 10 s) suficientes para
a operação, que, em condições favoráveis, ocorre ininterruptamente, ao contrário de
levantamentos terrestres, que quase nunca são realizados à noite.

Fig. 3.2 – Abaixo: efeito bolha (B1, B2) de


um air-gun isolado (a), que é atenuado com o
uso de sub-arranjos (b) (extraído de Sheriff,
2002); à direita: pulsos primários de cada
canhão em um sub-arranjo são reforçados
enquanto as bolhas são atenuadas (extraído
de Evans, 1997).

55
Em relação à profundidade da fonte, já discutida no item 2.6, é mostrado na fig. 3.3
o efeito do fantasma (da fonte, neste caso) no pulso do air-gun, nos domínios do tempo –
em que ocorre um ‘alongamento’ do pulso principal e a geração de pequenos pulsos
secundários – e na freqüência, em que é claro a presença de notches. No entanto, deve
ser observado que, em uma porção do espectro de freqüências mais baixas, uma maior
profundidade (6 m, no exemplo) pode ser vantajosa, pois realça (comparativamente com
uma profundidade de 2 m) as freqüências de interesse – a questão a ser respondida por
modelagens é qual a melhor profundidade, de acordo com os objetivos do levantamento.

Fig. 3.3 – Efeito de diferentes profundidades


(2 e 6 m) da fonte no pulso, nos domínios do
tempo (acima) e freqüência (dir.) (extraído de
Dragoset, 1990).

De importância bastante secundária são as fontes implosivas, como por ex. o


Vaporchoc, do inicio dos anos 70 e o water gun. Essas fontes, da fase misturada, tinham
a forma de onda registrada durante a aquisição para posterior uso no processamento.
Foram praticamente abandonadas devido ao melhor rendimento e qualidade do air-gun.

Tenghamn e Long (2006) apresentam resultados 2D do protótipo de um vibrador


marinho eletro-mecânico, em desenvolvimento pela PGS, com potência de um pequeno
air-gun ou carga de dinamite. Na verdade, são dois vibradores sincronizados, um com
sinal entre 6 e 20 Hz, o outro gerando um pulso entre 20 e 100 Hz. Seu uso é previsto em
áreas marítimas muito especificas, como regiões em que o uso de air-gun pode impactar
cetáceos ou como fonte para sistemas permanentes (sísmica 4D). O desenvolvimento
começou em meados dos anos 90, existindo (segundo a PGS) testes de campo em 1999
e um teste por uma companhia de petróleo (não revelada) em 2002. Os resultados,
mesmo razoavelmente promissores, devem ser considerados como muito preliminares,
existindo ainda muito a ser desenvolvido.

Em uma seção sísmica, a distância horizontal entre dois pulsos sucessivos em


fase, medida no mesmo tempo, corresponde ao comprimento de onda aparente do sinal
(λAP, fig. 3.4). Um registro com amostragem horizontal insuficiente de λ causa criação de
mergulho estrutural menor que o verdadeiro, prejuízo na aplicação de filtros espaciais no
processamento e problemas na migração dos dados. Da mesma forma, ruídos coerentes
devem ter amostragem suficiente, para que possam ser atenuados adequadamente
durante o processamento ou na própria aquisição.
Os parâmetros de aquisição mais importantes estão relacionados principalmente a
quanto se pretende gastar (a aquisição costuma responder por 80 a 95% do custo do
método sísmico), os objetivos (levantamento regional, de detalhe, de caracterização de

56
reservatório, 4D, etc), o que se acredita possa ser conseguido e restrições no local de
aquisição (impactos ambientas, obstruções como plataformas e/ou navios (no mar), obras
civis (em terra), etc).

Fig. 3.4 – Comprimento de onda aparente


(λAP) registrado pelos receptores (extraído de
Sheriff, 2002).

O intervalo de pontos de tiro (IPT) é função do número de canais e grau de


cobertura desejado.

O instrumento de registro realiza algumas filtragens básicas (anti-alias, ruídos com


muito baixa freqüência – abaixo de 3 Hz – e elevada amplitude) e, principalmente,
amplificação do sinal. O fato da razão entre as maiores (ondas diretas, reflexão do fundo
do mar, etc) e as menores amplitudes registradas serem da ordem de 1.000.000 gera um
problema na construção desses instrumentos, que precisam ter a maior faixa dinâmica
(dynamic range) possível.
A faixa dinâmica esta diretamente ligada ao número de bits que cada amostra é
registrada, ou, de outra forma, quantos bits o conversor do sinal analógico para um dado
digital tem disponível. Instrumentos mais antigos, de 16 bits, permitiam uma menor faixa,
diminuindo a capacidade de registro de sinais. Os instrumentos de 24 bits, que permitem
uma melhor separação do sinal e ruído, causaram uma melhora – às vezes bastante
significativa, especialmente em terra – na qualidade da sísmica. Além das dificuldades
operacionais da construção de instrumentos de 32 bits, alguns fabricantes (Sercel, por
ex.) não acreditam que nesta faixa dinâmica exista algum sinal significativo. Esta opinião
é questionável, e talvez seja testada no futuro, mas sem duvida existe um limite, a partir
do qual os próprios ruídos do instrumento de aquisição são superiores a possíveis sinais
que se desejam registrar.
O número de bits é importante porque determina a extensão (tamanho) das
menores amplitudes que podem ser registradas (geralmente, os ruídos), já que as
maiores são inerentes ao processo de aquisição (fonte, ruídos ambientais, sensibilidade
dos receptores, etc). Como exemplo, vemos na fig. 3.5 a limitação da faixa dinâmica para
um sistema de registro com 16 bits. Na figura, a área cinzenta corresponde a região em
que não ocorrerá gravação, gerando uma faixa dinâmica em torno de 84 dB. Rosa e
Tassini (1990) consideram esta faixa entre 80 e 90 dB, também para instrumentos de 16
bits.
Na prática, a faixa dinâmica do sinal é superior a dos aparelhos, gerando
problemas de distorção para amplitudes muito grandes (que são ‘clipadas’) e, o que é
mais grave, obscurecimento de um sinal muito fraco (i.e., com amplitude muito baixa) pelo
nível de ruídos. Algumas áreas, consideradas como de qualidade sísmica deficiente,
podem fornecer melhores dados quando se utilizam instrumentos com a maior faixa
dinâmica possível. No caso da sísmica de superfície disponível ter sido adquirida com 16
bits, é altamente recomendável a realização de nova aquisição – naturalmente, alterando-
se também outros parâmetros e não somente o instrumento de registro – ainda que a
qualidade seja considerada satisfatória.

57
Fig. 3.5 – Faixa de amplitudes
recuperáveis (área branca) e não-
recuperáveis (área cinza) para um
instrumento de registro de 16 bits. Na
prática, geralmente ruídos dominam
sobre o sinal abaixo de 60 dB (e, às
vezes, 40 dB) (extraído de Sheriff, 2002).

A questão de uma nova aquisição é, quase sempre, decidida por questões


econômicas, já que do ponto de vista técnico qualquer dado adquirido com mais de cinco
anos dificilmente não pode ser melhorado – obviamente, estamos considerando que as
melhores técnicas de processamento estão sendo aplicadas. No mar, o custo da
aquisição costuma ser pequeno a bem pequeno, comparando-se com a perfuração de
poços, seja para exploração ou explotação – esta regra costuma torna-se ainda mais
válida à medida que vamos para águas mais profundas. Em terra, ao contrário, os poços
tem custo algumas vezes inferior ao da sísmica (especialmente 3D), que tem um custo
elevado por km2.

A gravação dos dados em meios magnéticos ou digitais costuma obedecer ao


padrão estabelecido pela SEG (Society of Exploration Geophysicists), sendo SEG-D o
padrão mais comum para a aquisição, e SEG-Y para o processamento e interpretação.

O intervalo de amostragem é função da resolução vertical que se espera encontrar


(relacionada à máxima freqüência recuperável). Atualmente, o padrão é de 1, 2 ou
(menos comum) 4 ms. Já que muito raramente esperam-se recuperar freqüências acima
de 125 Hz (freqüência Nyquist para 4 ms, item 2.2), pode-se questionar a necessidade de
intervalos inferiores a 4 ms. Existem duas razões principais para isso.
A primeira é que o filtro anti-alias aplicado na aquisição (como praticamente todos
os filtros de freqüência usados no processamento e algumas vezes na interpretação) não
atua como uma ‘caixa’ no domínio da freqüência, mas tem uma forma parecida com um
trapézio (isto porque um filtro na forma de caixa tem problemas matemáticos de
instabilidade, gerando o chamado fenômeno de Gibbs, associado a problemas na
transformada de Fourier de uma função com descontinuidades). Assim, necessitando-se
cortar freqüências acima de 125 Hz, o filtro anti-alias na prática precisa iniciar a
atenuação da energia em torno de 90 Hz, freqüência em que as vezes pode ocorrer sinal
de interesse.
Seria desejável que os filtros de instrumentos e filtros matemáticos (estes,
aplicados no processamento) fossem capazes de cancelar totalmente amplitudes a partir
de uma freqüência desejada – ou seja, que agissem como um retângulo no espectro de

58
amplitude. Na prática, entretanto, isto não é possível, por problemas de construção dos
aparelhos (filtros de instrumentos) e instabilidade dos operadores matemáticos, existindo
uma rampa (slope), com inclinação medida em dB/oitava (oitava é o intervalo entre duas
freqüências com razão de 2 ou 0,5, item 2.7). Os filtros, devido à esta rampa, funcionam
aproximadamente como trapézios em um espectro de amplitude.
A segunda razão é que algumas etapas do processamento (por ex., alguns
algoritmos de migração e deconvolução) trabalham melhor com um intervalo de
amostragem menor.
Uma terceira razão, secundária, é que o custo adicional do uso de intervalos
menores costuma ser muito pequeno a desprezível, em comparação aos demais fatores
envolvidos (custo do navio, pessoal, fonte sísmica, etc). Esta terceira razão não ocorre no
processamento nem na interpretação, em que algumas vezes se acaba sub-amostrando o
dado (de 2 para 4 ms, geralmente) devido à limitações de espaço em disco e/ou
velocidade de processadores computacionais.
Intervalos de 0,5 ms (ou menores) são usados em levantamentos de muito alta
resolução, para objetivos muito rasos, como reservatórios (geralmente terrestres) até 500
m de profundidade, ou geotecnia.
Finalizando, apesar de pouco comum, uma aquisição com um intervalo de 3 ms
pode ser realizada sem contra-indicações, ao menos teóricas.

O filtro notch, usados para atenuar uma faixa muito estreita de freqüências,
principalmente as freqüências de 50 ou 60 Hz produzidas por linhas de transmissão de
energia elétrica, é evitado ao máximo, por atenuar o espectro em uma faixa de
freqüências onde costuma ocorrer sinal.

O tempo (máximo) de registro é determinado principalmente pelo objetivo (mesmo


que potencial) exploratório mais profundo, acrescido de um tempo suficiente para a etapa
de migração (de 0,5 a 1,0 s). Em algumas aquisições com foco principal para reservatório,
em que o intervalo de tiro seja reduzido (10 a 15 m) o tempo de registro pode ser
insuficiente para se registrar o objetivo mais profundo, especialmente em regiões de
águas muito profundas (devido à grande tempo que a onda viaja na água, que tem baixa
velocidade). Por ex., um navio viajando a 4 nós (≈ 2 m/s) e atirando a cada 12,5 m, não
pode registrar 7,0 s de dado, ainda que isso fosse necessário. Este problema é
contornável, ao menos em tese, atrasando-se o inicio do registro (por ex., começando em
0,5, 1,0 ou até 2,0 s), mas na prática isso costuma gerar alguns problemas, além do
tempo inicial poder ter que variar ao longo de uma linha de tiro, devido a mudança da
lamina d’água, o que é um possível complicador.

A cobertura é o número de vezes que um ponto (ou cela) em sub-superfície é


amostrado ou imageado (ao menos, teoricamente) usando-se a técnica CDP. O conceito
de CDP (ou CDF, ou CMP, do inglês Common Depth Point ou Family ou Common Mid
Point), é dos mais importantes na aquisição e do processamento, sendo a principal
evolução realizada na historia do método sísmico. Acredita-se que nenhuma outra técnica
ou algoritmo tenha contribuído para a descoberta e produção de hidrocarbonetos como a
técnica CDP. É usada em escala de produção desde os anos 60, tendo sido idealizada
por Mayne no inicio da década de 50. Rosa (2002), no entanto, cita que conceito similar
foi aplicado por Cecil Green nos anos 30 (Dobrin e Savit, 1988).
Foi proposta inicialmente por W.H. Mayne via registro de patente em 1950 (Mayne,
1962), considerando que uma informação associada a um ponto de reflexão amostrado
com diferentes offsets, seja combinada algebricamente, após as correções de tempo
apropriadas. O autor já considerava que o aumento teórico na razão sinal/ruído seria

59
proporcional à raiz quadrada da cobertura, o que está correto caso o ruído (aleatório) seja
gaussiano (Osvaldo Duarte, com. pessoal) – o que, apesar de possível (e até provável)
intuitivamente, talvez nunca tenha sido comprovado. Interessante observar que tal
comprovação não deve ser muito complicada – por ex., uma análise das amplitudes em
tempos superiores ao fundo do mar em águas profundas –, mas nunca foi realizada, ao
que eu saiba.

Fig. 3.6 – Significado geométrico do


conceito CDP. Um ponto em
subsuperfície é amostrado várias vezes,
para diferentes afastamentos entre fontes
(letras no desenho) e receptores
(números) (extraído de Sheriff, 2002).

Neste conceito, exposto por Mayne (1962) em uma forma similar à usada até hoje,
considera-se que a distância entre fonte e receptor (denominada offset) varie de forma
simétrica (geralmente com incremento constante) em relação ao ponto médio, com este
ponto (ou cela) sendo amostrado várias vezes, gerando a cobertura (ou multiplicidade, fig
3.6). Assim, o offset aumenta gradualmente para traços sucessivos, aumentando também
o tempo de chegada dos traços mais distantes. A diferença de tempo entre as sucessivas
reflexões do mesmo ponto é chamado de sobretempo normal, ou normal move-out
(NMO).
As principais contribuições desta técnica são duas. Uma é o aumento da razão
sinal/ruído, através do cancelamento de ruídos aleatórios, pelo empilhamento (soma) dos
traços (após a correção de NMO), em que eventos fora de fase se anulam
estatisticamente por interferência destrutiva.
A segunda, tão ou mais importante que a anterior, é a informação de velocidades,
devido à existência de dados a diferentes tempos e offsets. Estas velocidades, obtidas
durante o processamento (cap. 4), provavelmente são o parâmetro mais importante do
processamento. São também fundamentais durante a interpretação, principalmente (mas
não só) para conversão tempo-profundidade, e fornecem ainda informações –
preliminares ou não – sobre características petrofísicas das rochas, sendo indícios de
possíveis problemas a serem enfrentados na perfuração de poços (zonas de pressão
anormalmente elevadas, antecipadas pelo perfil de Peenbaker (1968), item 2.4).
O resultado da soma (empilhamento) dos traços de uma família CDP geralmente
não representa um traço hipotético com afastamento nulo, pois a refletividade de cada
evento é uma média das refletividades dos diversos ângulos (com amplitudes e fase
variando, algumas vezes significativamente), os eventos raramente são perfeitamente
horizontalizados após o NMO e mergulhos das camadas violam a premissa básica da
técnica CDP. Ainda assim, a técnica tem se mostrado, na prática, bastante robusta – o
que talvez seja até mesmo um mistério. Um dos maiores geofísicos de todos os tempos,
Franklin Levin, escreveu um artigo clássico (Levin, 1984), declarando-se surpreso da
sísmica de reflexão funcionar, devido a premissas poucos razoáveis, aproximações quase
grosseiras e outros problemas.

Os receptores são agrupados em arranjos através da união de elementos,


obtendo-se assim a resposta de um conjunto atuando como um receptor único,

60
denominado grupo ou estação. Os objetivos dos arranjos são cancelar ruídos (via
interferência destrutiva) e reduzir a quantidade de dados registrados. O exemplo mais
comum é a disposição de geofones (e, menos comumente, hidrofones) em um intervalo
que cancele o (componente vertical do) ruído que viaja horizontalmente ao mesmo tempo
em que reforça o componente vertical das reflexões. Na fig. 3.7, a horizontal wave
(correspondente ao ruído) é atenuada (desde que o espaçamento entre receptores seja
λ/2), enquanto que a vertical wave (o sinal refletido) será reforçado. Na prática, esta ‘onda
horizontal’ (o ground-roll, comentado abaixo) tem λ variável, dificultando muitas vezes a
atenuação pretendida. Outras razões listadas por Evans (1997) para uma pobre resposta
dos arranjos são espaçamento entre elementos errático devido à terreno ou acoplamento
ruim, variações na topografia (terra) ou profundidade do cabo (mar) e camada de
intemperismo com espessura variável, gerando alterações no tempo de chegada das
ondas.

Fig. 3.7 – A horizontal wave,


correspondente ao ruído,
pode ser atenuada se
usando um arranjo que some
amplitudes máximas e
mínimas deste evento e que
reforce o sinal (vertical wave)
(extraído de Evans,1997).

Um problema do uso de arranjos é a perda de resolução, e ‘mistura’ de


informações, pois o registro se torna uma média dos registros de todos os elementos do
arranjo. Atualmente, algumas aquisições são realizadas sem o uso de arranjo nos
receptores, ‘vendendo’ isso como uma grande vantagem – particularmente, o chamado Q-
system da Schlumberger. No entanto, alguns autores (por ex., Evans, 1997) consideram
que é preferível atenuar ruídos durante a aquisição porque as altas amplitudes de ruídos
coerentes podem não permitir que reflexões de baixa amplitude sejam registrados –
obviamente, tal consideração é função da faixa dinâmica do instrumento.
Uma discussão mais detalhada do desenho de arranjos de fontes e receptores –
muitas vezes baseada na resposta da transformada de Fourier de uma função caixa
(gerada pelos componentes do arranjo) está além dos objetivos deste curso, e pode ser
encontrada em (bem mais completa) Evans (1997) e (secundariamente) Sheriff e Geldart
(1995) e Sheriff (2002).
A energia de algumas ondas superficiais, conhecidas como ground roll, podem
mascarar as reflexões nos levantamentos terrestres. Estas ondas, que são do tipo
Rayleigh (movimento da partícula elíptico e retrógrado), geralmente tem baixas velocidade
e freqüência, e grandes amplitudes. São atenuadas na aquisição com o uso de arranjos
de geofones e, secundariamente, da fonte. No processamento, filtros de freqüência e o
empilhamento também procuram retirar as ondas superficiais.

O intervalo de grupos (IG), ou de estações (IE), é determinado pela resolução


esperada, para se evitar alias espacial e, principalmente, por razoes econômicas, pois
tem um forte impacto no custo total da aquisição, especialmente em levantamentos
terrestres. Normalmente é de 12,5 ou 25 m (40 ou 80 pés), com alguns levantamentos
para reservatório usando 6,25 m, ou ainda menos.

61
O lanço é o comprimento da rede de geofones, correspondendo ao comprimento
do cabo no mar. Deve ser de pelo menos a profundidade do objetivo mais profundo, e
permitir um imageamento completo no(s) nível(is) de interesse. Além desta razão, não
deve ser muito curto para que se possa ter uma melhor definição da velocidade no
processamento. Por outro lado, não deve ser longo demais, devido à custos e também
porque não se deve registrar reflexões a partir do ângulo critico (40-500).
O afastamento mínimo, em terra ou no mar, raramente é superior a 200 m, pois as
reflexões de baixo ângulo costumam ser fundamentais na técnica CDP; além disso, esses
offsets também são necessários na obtenção da velocidade. Em casos de objetivos muito
rasos, pode ser bastante reduzido para aumentar a cobertura, antes da chegada das
ondas refratadas.
Existem basicamente dois tipos de lanço (fig. 3.8). O split-spread é um arranjo com
receptores simétricos, com a fonte localizada no centro. É o mais comum em terra, por ser
mais operacional. No end-on a fonte é localizada após o último grupo de receptores. É
usado em áreas com mergulho (mergulho acima), para objetivos muito profundos e
visando atenuação de múltiplas e ground-roll. É praticamente o único possível no mar em
aquisições convencionais (usando streamer, ver a seguir).

Fig. 3.8 – Tipos de lanços mais comuns: split-spread (esquerda), em que receptores são simétricos
em relação à fonte e é comum em levantamentos terrestres, e end-on (direita), em que a fonte está
sempre no extremo do lanço, usado geralmente no mar (extraído de Sheriff, 1991).

Os receptores terrestres mais comuns são os geofones, constituídos de uma


bobina envolvendo um magneto, suspensa por uma mola, acoplados a um pino (fig. 3.9),
que é cravado no terreno o mais próximo da vertical possível. Ao ser atingido por uma
onda sísmica, é gerada uma voltagem elétrica, proporcional à energia da onda,
amplificada por instrumentos e registradas em meios magnéticos ou digitais. A resposta
de geofones podem ser distorcidas, na forma de favorecimento de algumas freqüências e
atenuação de outras – na prática, isto é contornado usando-se um fator de amortecimento
no equipamento.
No caso marítimo, são usados hidrofones como receptores, em que um cristal
piezelétrico submetido à pressão também gera uma corrente proporcional à amplitude da
onda sísmica. Hidrofones têm comportamento idêntico ao de microfones, registrando o
som na água. A resposta espectral é bastante plana nas freqüências sísmicas.
Uma diferença fundamental entre o geofone e o hidrofone é que o primeiro, por
registrar uma velocidade (que é uma grandeza vetorial), é sensível à direção e sentido da
onda, enquanto que, por a pressão ser uma grandeza escalar, o hidrofone não possuir
esta sensibilidade.

62
Fig. 3.9 – Seção esquemática de um
geofone, em que um pino (spike) cravado no
terreno capta a energia refletida, gerando
uma corrente por movimento de bobina
(extraído de Sheriff,1991).

Esta propriedade é interessante ao se analisar o comportamento desses


receptores em relação ao fantasma do receptor: um geofone e um hidrofone apoiados no
fundo do mar (como é o caso da aquisição do tipo cabo de fundo oceânico, ou OBC, do
inglês ocean bottom cable) registram uma onda vertical ascendente com a mesma
polaridade (ou sinal), positiva, ou negativa – e com amplitude, digamos A. Ao ser refletida
no nível do mar, a amplitude da onda é praticamente mantida, porém a polaridade é
invertida (devido ao coeficiente de reflexão da interface água-ar ser praticamente igual a -
1). Assim, esta onda descendente será registrada pelo hidrofone com polaridade oposta à
da ascendente (- A), porém o geofone, por ser sensível ao sentido de propagação, irá
registrar a onda descendente com polaridade inversa. Como esta onda descendente já foi
‘multiplicada’ por -1 ao ser refletida na superfície da água, o resultado final é que o
geofone registra a reflexão e o fantasma dela com a mesma polaridade (A . -1 . -1 = A,
com o primeiro -1 referente à inversão de polaridade do nível do mar e o segundo -1
devido à sensibilidade do geofone ao sentido de propagação), enquanto que o hidrofone
registra os dois eventos com polaridade contraria. Esta propriedade, inicialmente
observada por Barr e Sanders (1989) a partir de idéias de Cagniard (1953) e Lowenthall et
al. (1985), é sempre usada em dados de OBC. A principal questão a ser resolvida é a
obtenção de um fator de escala entre as diferentes respostas do hidrofone e geofone –
diversos artigos tratam do assunto (Dragoset e Barr (1994), Paffenholz e Barr (1995),
Canales e Bell (1996), Ball e Corrigan (1996)) e o assunto, senão completamente
resolvido, pode pelo menos ser considerado como não muito problemático.

Existem geofones de três componentes (3C) que, além dos movimentos das
partículas na direção vertical, são sensíveis também a deslocamentos horizontais –
geralmente associados a ondas S.

Recentemente, um novo tipo de receptor, o acelerômetro, está disponível no


mercado. É um equipamento totalmente digital, que responde à aceleração – por isso, o
efeito da gravidade tem que ser compensado. Geralmente, são receptores 3C. Parecem
ter excelente resposta espectral, grande fidelidade e repetibilidade e baixo consumo de
energia.
Gibson et al (2005) – funcionários da companhia de aquisição Veritas – reportam
um teste (realizado em 2002 em campo de óleo pesado no Canadá) muito interessante
(apesar de, segundo os próprios autores, a comparação ser limitada) entre dois
fabricantes de acelerômetros (I/O e Sercel), concluindo que a diferença na qualidade dos
dados foi pequena. Talvez mais importante, eles dizem que o uso de acelerômetros
resultou em melhor qualidade, operações mais eficientes e menor custos na sísmica
multicomponente (MC). Os autores consideram que as vantagens mais importantes dos
acelerômetros sobre os geofones são:

63
1) registro sem arranjo (single sensor), que gera uma correção da inclinação e
orientação do sensor mais confiável, um registro isotrópico (importante em
análises azimutais) e maior resolução devido à eliminação de efeitos intra-
arranjos (especialmente estáticas de ondas-S); por outro lado, o não uso de
arranjos impossibilita a rejeição direta de ruídos ambientais e coerentes,
requerendo amostragem apropriada tanto para ondas-P quanto –S, o que é
complicado na prática,
2) saída digital direta (sem conversão; vantagem é que geofone multicomponente
às vezes tem crosstalk e leakage)),
3) melhor fidelidade vetorial (MC),
4) resposta mais linear de fase e amplitude,
5) pequena distorção harmônica (geração de freqüências múltiplas inteiras das
freqüências de entrada, MC),
6) medida da inclinação do receptor, e
7) reduzido uso de energia.
Apesar destas vantagens, os autores recomendam teste da integridade dos
acelerômetros após uma extensa utilização.

O navio sísmico arrasta de 1 a 16 cabos, cada cabo contendo centenas de


hidrofones (fig. 3.10). Os cabos, denominados streamer, são preenchidos com um óleo
(até recentemente, neroma, um tipo especial de querosene, que tem sido menos utilizado
devido a preocupações ambientais) mais leve que a água.
Normalmente cada cabo possui entre 4 e 6 km de comprimento, mas as vezes são
usados 8 ou até mais quilômetros em situações especiais (dados de refração, reflexões
muito profundas, análises da crosta, etc) – no entanto, quando offsets muito grandes são
necessários, costuma-se separar o navio com a fonte do navio com os receptores, devido
à dificuldade operacional de cabos extremamente longos.

Fig. 3.10 – Seção esquemática de um navio arrastando um cabo (streamer) com hidrofones
(agrupados em live sections na figura) (extraído de Sheriff, 2002).

Correntes submarinas causam movimento nos cabos, fazendo com que eles se
desviem da posição desejada, principalmente na horizontal. Este fenômeno, denominado
deriva (feathering) gera erro de posicionamento em dados 2D e a necessidade de
recobrimento (re-detonação) para se obter a cobertura desejada – inclusive para
diferentes grupos de offsets. Este recobrimento (em inglês, in-fill) aumenta (muitas vezes,
significativamente) o custo da aquisição. Para diminuí-lo, procura-se realizar o
levantamento em épocas do ano em que as correntes sejam mais fracas e usar-se o
maior número possível de cabos.

64
Os cabos têm profundidade controlada a bordo, através de aparelhos
denominados pássaros (birds). Alguns birds também controlam a posição lateral, mas são
menos efetivos que na correção vertical, pois as correntes horizontais são muito mais
fortes. O controle da profundidade é desejável para que ao longo do cabo (e de um cabo
para outro) exista a menor variação possível no fantasma do receptor e que o cabo nem
se aprofunde demais (gerando um fantasma mais próximo das freqüências de interesse)
nem fique muito raso (quanto mais próximo à superfície, maior o nível de ruído e mais
prejudicadas as freqüências muito baixas). É relativamente simples mostrar que o
fantasma cria uma forte depressão no espectro de amplitude (o notch) nas freqüências
definidas pela equação
fNOTCH = 750 / z 3.1
z profundidade da fonte ou receptor.
Nesta equação, 750 representa aproximadamente a metade da velocidade do som
na água, que costuma variar entre 1.500 ± 10 m/s. A profundidade da fonte costuma ser
aproximadamente constante, em 5 ou 6 m, criando um notch em 150 ou 125 Hz. A
profundidade do receptor é muito mais variada, até pelo próprio comprimento dos cabos.
Ao se aplicar um operador para atenuar o efeito do fantasma do receptor, deve ser usado
uma média (incluindo algum tipo de desvio) das profundidades, para que o notch seja
menos severo, e não atue somente em uma freqüência. Este procedimento também é
mais realista que considerar a profundidade dos cabos invariante (fig. 3.11). Rosa (2002)
acredita que variações pequenas em z afetam significativamente a forma do pulso.
Pode-se concluir que cabos à profundidade de 10 m é altamente desaconselhável,
pois o notch ocorreria a 75 Hz, muito próximo (e, em algumas situações, dentro) da
freqüência de interesse. O ideal é que tanto a fonte quanto os receptores ficassem em
superfície, mas isso não é possível, pois a maior parte da energia da fonte seria enviada
para o ar e os hidrofones registrariam um nível muito elevado de ruído.
A fig. 3.11 mostra o efeito do fantasma no espectro de amplitude para algumas
profundidades do cabo. Deve ser registrado que os fantasmas alteram também o espectro
de fase do sinal.

Fig. 3.11 – Esquerda: espectros de amplitude para algumas profundidades de cabo (extraído de
Rosa, 2002). Direita: espectros de amplitude considerando-se profundidade do cabo constante
(azul) – que gera um forte notch – e considerando-se várias profundidades (verde) – que gera um
operador de deconvolução mais suave e realista (extraído de PGS, 2006).

O posicionamento é feito, em terra, por equipes de topografia, que determinam os


locais a serem colocadas as fontes e receptores, de acordo com o planejamento do
programa sísmico.

65
Os navios sísmicos usavam, até o inicio da década de 90, sistema de rádio-
posicionamento ou satélites do tipo Transit, o que às vezes causava incorreções na
posição do navio quando muito distante (acima de 150 km) da costa. Com o advento do
GPS e DPGS, uma localização altamente precisa e confiável é a regra. Navegação é o
termo usado para o controle do posicionamento, com este sistema sendo integrado ao
controle das operações, que controla o registro (definindo o instante exato da detonação),
controla o sincronismo entre canhões, inicia a gravação dos dados, etc.

Dados marítimos geralmente têm qualidade melhor a muito melhor que dados
terrestres, principalmente por dois fatores. Um, a cobertura costuma ser muito maior, pois
como o maior custo da aquisição (o navio em si) é inevitável, o custo adicional para se ter
mais informações costuma ser compensador. Em terra, o custo do explosivo (dinamite) é
elevado, e o uso de muitos receptores encarece geralmente bastante a aquisição, devido
ao tempo necessário para ‘plantar’ e retirar os geofones.
O segundo é que tanto a fonte quanto os receptores estão em um meio quase
homogêneo, isotrópico e sem absorção, gerando uma interferência mínima do meio na
geração do pulso e registro das ondas – especialmente em águas mais profundas e/ou
fundo do mar ‘macio’ (material inconsolidado, e não carbonatos – recifes – ou rochas
vulcânicas), em que não ocorrem reverberações de energia aprisionada no mar. Em terra,
ao contrario, podem existir grandes variações na topografia, lençol freático, características
do material da zona de intemperismo, acoplamento variado (devido à mudanças no tipo
de solo) do geofone, etc, causando alta interferência do meio tanto na geração do pulso
quanto no registro das ondas.

Um imageamento em três dimensões (3D) de sub-superfície fornece um dado


mais próximo da posição lateral das reflexões. Isto pode ser facilmente constatado ao se
observar a fig. 3.12, que mostra o chamado modelo de French (French, 1974). Este
modelo, usado também para testar algoritmos de migração, mostra como as reflexões
laterais podem afetar um dado adquirido em duas dimensões.

Fig. 3.12 – Modelo de French


(esquerda) e (abaixo, da
esquerda para direita)
seções empilhada, migrada
em duas dimensões e
migrada em três dimensões.
Observar falsas estruturas
causadas por reflexões
laterais na migração 2D
(extraído de French, 1974).

66
Um levantamento 3D marítimo convencional consiste na aquisição de várias linhas
de tiro paralelas (2D), geralmente com vários cabos (4 a 16) espaçados entre 50 e 200 m
entre si – naturalmente, quanto mais cabos o navio arrastar, mais rápido e com menor
custo é feita o levantamento. No entanto, existe um limite operacional, pois o arrasto de
vários cabos com mais de 4 km de comprimento não é operação trivial.
Esta geometria de aquisição gera uma grande limitação para observação de
trajetórias com diferentes azimutes, permitindo uma boa amostragem de sub-superfície
somente para diferentes afastamentos. Tal geometria só pode ser considerada 3D em
áreas que não apresentem muita complexidade estrutural nem anisotropia azimutal.
A direção de detonação é denominada inline e a direção perpendicular crossline.
Estes nomes acompanham estas direções durante o processamento e interpretação.
Geralmente a direção das inlines é perpendicular ao mergulho das camadas, o que
diminui reflexões laterais. Em algumas situações, com fortes variações laterais de
velocidade nas camadas superiores (como por ex., próximo à quebra da plataforma), um
levantamento na direção strike pode ser vantajoso. Neste caso, o campo de velocidades
de processamento terá menos variação lateral e deve ocorrer melhor cobertura. Outro uso
da aquisição strike é quando inlines na direção dip fiquem muito curtas.
Nos levantamentos 3D em terra, pode-se usar uma direção perpendicular (mais
comum) ou paralela entre as linhas de tiro e receptor. No caso perpendicular, tem-se uma
riqueza azimutal, mas muitas vezes na prática ocorre um empobrecimento na quantidade
de offsets, pois é muito caro realizar uma amostragem rica tanto em azimutes quanto em
afastamentos, devido ao grande número de receptores necessários.
Como as duas direções de aquisição têm prós e contras, sendo geralmente muito
difícil se definir qual melhor direção, a PGS apresentou em 2005 a proposta, para dados
marítimos, de duas aquisições, em dois azimutes geralmente (mas não obrigatoriamente)
ortogonais. É claro que, apesar das vantagens potenciais e prováveis, a decisão de usar
esta técnica é principalmente econômica.

No mar, é comum a utilização de dois conjuntos de fontes, o mais idêntico


possível, com uso alternado entre eles. Este tipo de configuração, denominada flip-flop, é
comumente usado pois reduz o tempo de aquisição porque torna possível a aquisição de
celas com metade do tamanho na direção cross-line. Um pequeno problema do flip-flop é
tornar necessária a interpolação de tiros durante o processamento para atenuação de
múltiplas (Marcos Gallotti, com. pessoal).

3.1 Sísmica de alta resolução

Para algumas situações especiais de reservatórios muito rasos (poucas centenas


de metros abaixo da superfície), é possível a recuperação de altas freqüências muito
acima do geralmente registrado, permitindo uma resolução vertical e horizontal
significativamente superior.
Como exemplo, Carvalho e Amorim (1991) mostram o detalhamento de feições
estruturais e estratigráficas em reservatórios rasos através de uma sísmica com
parâmetros de aquisição adequados. Os autores apresentam um caso histórico de
levantamento na Bacia Potiguar imersa, cujo objetivo era definir (distinguir) um arenito
com 6 m de espessura a 270 m de profundidade. Os resultados, quando comparados com
uma seção convencional, mostram as seguintes melhorias (fig. 3.1.1):
1. identificação clara de uma falha normal com rejeito vertical de 6 m,
2. melhor definição do topo das Fm Açu e Alagamar, e
3. mapeamento de dois refletores intra-Açu, imperceptíveis no dado convencional.

67
Fig. 3.1.1 – Comparação
entre dado convencional
(seção superior) e de alta
resolução, indicando
detalhamento estrutural e
estratigráfico na seção de
maior resolução (extraído de
Carvalho e Amorim, 1991).

Vasquez e Carvalho (1993) relatam como aplicação de sísmica de alta resolução a


sísmica de afloramento, que pode ser definida como a obtenção de dados de camadas
rasas ou de afloramentos que, por alguma metodologia – geoestatística sendo a mais
comum – pode extrapolar as conclusões para camadas mais profundas, além de um
melhor conhecimento da zona de baixa velocidade. Os autores descrevem um
levantamento de muito alta resolução realizado em maio de 1991 em um afloramento da
Fm. Açu. O intervalo de amostragem foi de 0,25 ms e a distância entre PTs e estações de
1 m. A etapa mais criteriosa do processamento foi a análise de velocidades. Os
resultados obtidos mostraram uma resolução de 1 m a até 30 m de profundidade, com os
dados sísmicos mostrando boa correlação como o modelo fluvial considerado para a área.
Talvez com algum potencial de aplicação prática é o trabalho de Grochau e Freitas
(1993), que reportam a existência, sob certas condições de levantamento, da presença de
componentes de alta freqüência em dados de controle de qualidade de aquisição na
região amazônica. Estes componentes foram considerados historicamente como ruídos,
mas os autores reconheceram características de sinal. Foi realizada uma linha
experimental, coincidente com uma convencional, com intervalo de amostragem de 2 ms
e filtro corta-alta mais aberto. Durante o processamento, foram usadas etapas não
rotineiras, e as fases de rotina foram realizadas com maior acurácia. Os resultados (fig.
3.1.2) mostram uma recuperação muito boa de altas freqüências, com os autores
acreditando que os dados poderiam ser ainda melhores com parâmetros de aquisição
mais apropriados e alterações em rotinas do processamento.

Fig. 3.1.2 – Comparação


entre linha 2D convencional
(à esquerda) e adquirida e
processada com parâmetros
de alta resolução (extraído
de Grochau e Freitas, 1993).

68
3.2 Aquisições especiais: cabos de fundo e vertical, sensores permanentes

As aquisições especiais aqui discutidas serão o cabo de fundo oceânico (OBC) e


cabos verticais. Uma apresentação mais detalhada do assunto pode ser encontrada em
Rodriguez (2000).

A idéia de colocar os receptores no fundo do mar (os OBS, Ocean Bottom


Seismometers) é usada desde a década de 30 (quando a geologia dos oceanos era
praticamente desconhecida), tendo tido um enorme progresso após a 2ª guerra. Seu uso
principal tem sido para estudos acadêmicos de camadas do interior da Terra e terremotos
e monitoramento de explosões nucleares, estudos regionais de bacias sedimentares e,
mais raramente, para exploração de HC, em áreas com espessas camadas vulcânicas.
Nestes levantamentos, usam-se unidades isoladas com autonomia por bateria, que
registram, geralmente continuamente, em um intervalo de amostragem pré-estabelecido.
Cada unidade tem, geralmente, um geofone com três componentes e um hidrofone, e fica
espaçada entre 200 m a 30 km. Alguns trabalhos explicando e mostrando resultados
(inclusive de interesse comercial) desta técnica são Bowden e Prior (1983), Makris e
Thiessen (1983), Zachariadis et al. (1983), Hughes et al. (1995) e Mjelde et al. (1995).
Os primeiros cabos de fundo usados na industria do petróleo eram streamers
convencionais adaptados para trabalhar sobre o fundo do mar, com uma tensão aplicada
ao cabo para mantê-lo esticado e na posição desejada (Zachariadis and Bowden, 1983).
Em meados da técnica de 90 houve o trabalho pioneiro de Berg et al. (1994) da
Statoil (experimental iniciado em 1988) usando ROVs (robôs operados remotamente) para
acoplamento dos receptores, que mostrou excelentes resultados, com informações de
ondas convertidas (P-S) em Ekofisk (Mar do Norte), área virtualmente cega para ondas P.
Tal resultado gerou um boom no uso da técnica, especialmente em regiões em que gás
disseminado nas camadas acima de reservatórios obscurecem a onda P-P convencional,
devido à grande absorção da onda-P pelas rochas com gás como também pelo
significativo espalhamento da energia presente, devido à fortes contrastes de impedância
em diversos geometrias espaciais. Como exemplo, Rodriguez et al. (1998) apresentaram
imageamento usando ondas S de dados OBC na área do campo de Valhall (Mar do
Norte), com reserva potencial de 1. 109 BOE, em que a onda P praticamente não
imageava o reservatório (fig 3.2.1).
Algumas conclusões de Berg et al.(1994) continuam válidas, como a boa
qualidade em diferentes tipos de fundo marinho, geologia e laminas de água, uma clara
separação entre ondas P e S, e fracas ondas Scholte (o corresponde ao ground roll no
caso marinho).
Atualmente, a totalidade das aquisições é realizada ou com dual-sensor (hidrofone
e geofone com componente vertical) ou 4C (hidrofone e geofone com três componentes).
Costuma-se usa geofones do tipo gimbaled, que procura manter a posição vertical,
apesar de acelerômetros serem mais indicados.
Uma grande discussão, desde o inicio do uso a técnica, é o quão efetivo e
confiável é o acoplamento dos geofones ao fundo do mar. Uma estratégia relativamente
comum era colocar pesos junto aos receptores, de forma que eles se acomodassem e
ficassem o mais fixo possível. Outro problema é a fidelidade vetorial, que significa que
todos os componentes do geofone tenham uma resposta fiel ao campo de onda.
Os cabos podem ser tensionados, para ficarem retos, na posição desejada e fixos.
As principais vantagens do OBC sobre o streamer são
1)em áreas com obstáculos de navegação, não é necessário a realização de
under-shooting – técnica em que dois navios viajam em paralelo, um com a fonte e
outro com receptor, para contornar obstáculos à passagem de um navio

69
rebocando vários cabos); a qualidade do under-shooting é prejudicada, e objetivos
rasos muitas vezes são mal imageados;
2) é possível o registro de ondas S, o que pode aumentar a confiança em
predições litológicas (exploração) e caracterização de reservatórios e imagear
áreas em que ondas P não funcionam devido à forte absorção (geralmente
associadas à chaminé de gás em sedimentos acima de reservatórios, Rodriguez et
al., 1998);
3) o dado é multi-azimutal;
4) como o nível de ruído ambiental é muito menor, é possível a aquisição em maior
período durante o ano;
5) é mais confiável para sísmica 4D, devido ao uso do mesmo receptor
praticamente na mesma posição.
Outras vantagens são a ausência de ruído de arrasto no cabo, melhor informação
de posição, ausência de fortes correntes e padrão mais uniforme na aquisição
(Zachariadis e Bowden, 1983). Alguns autores citam uma possível maior resolução devido
à melhor posicionamento, mas isso não tem sido reportado de forma consistente na
prática.

Fig. 3.2.1 – Comparação entre seção PP (esquerda) e PS, adquiridas com OBC no campo de
Valhall (Mar do Norte) (extraído de Rodriguez et al., 1998). O reservatório (com reservas em torno
9
de 1.10 BOE) está entre 5,0 e 5,5 s na seção OS (elipse verde), tendo imagem muito ruim e forte
pull-down na seção PP (elipse vermelha) devido à chaminé de gás sobre o reservatório.

A posição dos receptores é obtida inicialmente por sinais de muito alta freqüência
(75 KHz), com a premissa de meio homogêneo – o que provavelmente não é verdade
para a água do mar a esta freqüência, especialmente em águas profundas. Por isso, o
posicionamento é sempre verificado pelo próprio dado sísmico, geralmente através da
onda direta, usando-se a grande redundância desta informação, a vários azimutes e
afastamentos. Na prática, no entanto, os erros costumam ser pequenos – Cafarelli et al.
(2006) reportam erros médios inferiores a 1% no 3D-4C mais profundo realizado no
mundo, adquirido em Roncador (lamina d’água superior a 1.800 m).

O uso de sensores isolados (nodes) – testado e abandonado pela CGG no final da


década de 90 – foi ‘ressuscitado’ por companhias de serviço há cerca de dois anos. O

70
grande problema é que a não utilização de cabos obriga o uso de ROVs (com DGPS),o
que garante um acoplamento, orientação e posicionamento mais acurados, mas é
extremamente mais demorado, tornando ainda mais cara a aquisição multicomponente,
que já é bastante cara no mar – um levantamento OBC custa de 5 a 20 vezes mais que
um streamer. Para comparação, em 2005 a PGS adquiriu um 3D-OBC em Roncador com
área de cobertura total de 23 km2, a um custo de US$ 8,5.106. A mesma companhia, no
mesmo ano, realizou um levantamento de alta resolução (HD3D) com custo total de US$
11,5.106 cobrindo uma área em torno de 400 km2. Durante a aquisição, usam-se
geralmente três a quatro navios (um para registro, outro para fonte e os adicionais para
movimentação do cabo e apoio operacional).

A conversão de ondas P (descendentes, geradas pela fonte) para S (ascendentes,


registradas pelos componentes horizontais dos geofones) ocorre geralmente nas
interfaces das rochas, não no fundo do mar (Rodriguez et al., 2000). A principal exceção é
em fundos marinhos muito duros (carbonatos e basaltos sendo os casos mais comuns),
em que ocorre forte conversão de ondas P-S, com ambas descendentes (Tatham e
Stoffa, 1976). O fato da conversão não ocorrer no fundo do mar impede o processamento
pela técnica CDP, pois o ponto de conversão varia lateralmente em profundidade
(aproximando-se da fonte para pontos de conversão mais profundos). Este fenômeno, já
bem conhecido (Tessmer e Behle, 1988) complica sobremaneira o processamento de
ondas PPS. Outro grande problema é a estática da onda convertida.

Existem dezenas de exemplos reportando melhores resultados com cabos de


fundo do que com streamers. Um dos primeiros foi Ross et al. (1996), da PGS, que
apresentou melhor AVO (cap. 7) no Golfo do México, em que o dado convencional
(streamer) não mostrava DHI (Direct Hidrocarbon Indicator), mas OBC – devido
principalmente à presença de maiores afastamentos – indicou mostrou efeitos de AVO.
Da mesma época, e também mostrando resultados de AVO, existe o trabalho de
Sonneland et al. (1995).

Muito menos usado, e indisponível comercialmente no momento, é a técnica de


cabo vertical, descrita por Krail (1991, 1994, 1997). Foi desenvolvida pela Texaco (que
posteriormente vendeu a patente para a PGS), baseada no walkaway VSP (ver cap. 7) e
estudos da Marinha dos EUA na guerra anti-submarinos. O processamento é feito
diretamente com migração antes do empilhamento em profundidade (PSDM), com nosso
colega Marcos Gallotti tendo desenvolvido e aplicado em dados sintéticos (modelagem
física) um algoritmo para este tipo de dado (Guimarães et al, 1998).
O cabo é mantido próximo à vertical através de uma alta tensão aplicada, com o
uso de ancoras e bóias. O ruído é menor que em dados streamer, é possível uma
geometria realmente 3D e, segundo o autor, a aquisição é mais barata – por ser mais
rápida. Uma desvantagem em relação ao cabo de fundo é o não registro de ondas S, mas
esta técnica funciona melhor que OBC em regiões com muitos dutos e/ou em fundos
marinhos muito duros (carbonatos ou basaltos).
Provavelmente existiram grandes problemas de ordem prática, talvez associados à
variação na posição horizontal dos receptores, bem como a obtenção da posição
verdadeira, e esta técnica nunca se tornou realmente comercial, apesar de ter um
potencial bem interessante. 3Ds relativamente pequenos (menores que 50 km2)
apresentaram custo de cabo vertical inferior a streamer (Krail, 1994).
Rodriguez e Stewart (1999) analisaram (usando traçado de raio 3D) a geometria
de aquisição de cabos verticais (quantidade de cabos, número e distribuição de
hidrofones por cabo, quantidade de PTs e diferentes lamina de águas foram testados)

71
para um modelo 2,5D simples, porém realista. Os autores obtiveram equações empíricas
que relacionam estes parâmetros – alem de mergulho e profundidade de camadas-
objetivo – com cobertura azimutal e de afastamentos. Concluíram que apenas um cabo já
fornece boa cobertura e que o método deve funcionar melhor para águas mais profundas.

Uma comparação interessante – apesar de limitada e talvez não extrapolável – é


apresentada por Moldoveanu et al. (1996). Na zona de transição da Louisiana (6 m)
hidrofones enterrados sem arranjos na lama do fundo do mar mostraram melhores
resultados que geofones de pântano, com os autores creditando tal fato ao menor ruído.

A principal justificativa para o uso de sensores permanentes é uma maior


repetibilidade para sísmica 4D, já que os receptores são os mesmos e permanecem
praticamente na mesma posição, e, no caso marítimo, a facilidade operacional, pois se
torna necessário o uso de apenas um navio que – por não estar arrastando nenhum cabo
– pode chegar bem próximo de obstáculos (plataformas de produção, quase sempre).
Algumas dúvidas são se ocorrem alterações na resposta dos receptores ao longo dos
vários anos que os sensores devem permanecer no local e a vida útil dos equipamentos.
Existe um projeto na Petrobrás, coordenado pelo Pravap-19, analisando a
possibilidade do uso de sensores permanentes no fundo do mar em Jubarte e/ou
Roncador. Atualmente (jul/06), tal projeto está na fase de estudos do valor da informação.
Uma estimativa de preços em janeiro/2006 para colocar os sensores cobrindo uma área
de aproximadamente 9 km2 em Roncador foi superior a US$ 35.106.

72
4 – NOÇÕES DE PROCESSAMENTO SÍSMICO

Antes de iniciar a apresentação das possíveis etapas de um processamento, deve-


se salientar que não existe uma seqüência única, a ser aplicada em todas as situações.
Como geralmente existe uma zona de maior interesse na seção sísmica (especialmente
em trabalhos de reservatório), às vezes pode se tornar necessário sacrificar a qualidade
no restante do dado.
Um exemplo de como diferentes enfoques de processamento fornecem diferentes
respostas é indicado na fig. 4.1 (contra-capa de Yilmaz (1987), a bíblia do processamento
sísmico durante muitos anos), em que uma linha 2D foi processada por companhias
diferentes.

Fig. 4.1 – Resultados do processamento de seis companhias diferentes para o mesmo dado
(extraído de Yilmaz, 1987).

73
O que se procura no processamento é, resumidamente, restaurar as diversas
perdas da amplitude da propagação, retirar efeito das camadas superficiais, corrigir
diferentes trajetórias e obter a verdadeira posição espacial dos eventos e empilhar os
traços de uma família CDP.

A atenuação de ruídos aleatórios realizada durante o empilhamento (stack) é,


geralmente, bem eficiente. Já a eliminação de ruídos coerentes costuma ser bem mais
difícil, com algumas etapas sendo discutidas neste capítulo. Os ruídos coerentes mais
comuns são múltiplas de longo ou curto período, ondas diretas ou superficiais, difrações e
ondas S convertidas.

Yilmaz (1987) considera deconvolução, empilhamento de CDPs e migração como


sendo as três etapas principais do processamento. Cary (2001) considera esta afirmação
atual, com esses três processos dominando o fluxo de processamento. Neste artigo, em
que Cary faz um resumo do desenvolvimento do processamento ao longo dos últimos 20
anos, o autor lembra que o método de minimização por mínimos quadrados de Gauss é
usado em todas as etapas de processamento. Lembra também que quase todos os
processadores jamais estão satisfeitos com o resultado de um trabalho e que,
imediatamente após a conclusão, se observam imperfeições. A maior evolução é
creditada pelo autor – e pela imensa maioria da comunidade geofísica – ao aumento da
capacidade dos computadores disponíveis do que propriamente por progressos na teoria.
Este aumento tornou possível a disponibilização de um volume de dados muito maior, em
muito menos tempo e com uma qualidade muito superior. Ainda assim, é observado por
Cary que novas técnicas de processamento – mesmo fornecendo resultados muito bons
ou excelentes – não sobrevivem se não forem razoavelmente rápidas e simples de serem
usadas.

O correto posicionamento espacial dos traços (ou seja, navegação e geometria


corretas) é uma etapa fundamental de todo o processamento.

A primeira etapa é a preparação dos dados, ou pré-processamento. Algumas


vezes, ocorre uma sub-amostragem do dado – ou seja, dado adquirido com 1 ms é
processado em 2 ms, ou adquirido em 2 é processado em 4 ms – para agilizar o
processamento. A decisão de reamostrar ou não é tomada considerando-se o beneficio
(disponibilidade do dado mais cedo) e possíveis perdas (principalmente, diminuição de
resolução, quando se considera ser possível a existência de freqüências ao nível do(s)
objetivo(s) em torno de 90 Hz).
O mesmo é verdade para a amostragem espacial, mas geralmente a sub-
amostragem não é realizada porque o processo de migração costuma funcionar bem
melhor com uma amostragem mais densa – na verdade, é comum a realização de
interpolação de traços antes da migração.

Neste capitulo será usada como guia a seqüência de processamento aplicada em


um dado HD3D em 2005/2006 para Roncador (PGS, 2006; Rodriguez et al, 2006a), com
algumas etapas sendo detalhadas. Serão apresentadas também algumas etapas não
usadas naquele processamento.

74
4.1 Edição de traços ruidosos e atenuação do ruído de swell

Como o nome sugere, é um trabalho que procura atenuar alguns ruídos presentes,
e até retirar os dados (traços) muito ruidosos, através de várias técnicas, geralmente
estatísticas.

4.2 Deconvolução determinística da assinatura da fonte

Geralmente, é aplicada conjuntamente ao defanist (item 2.6), para atenuação dos


efeitos dos fantasmas da fonte e receptor.
O objetivo principal do processamento é retirar os efeitos de propagação, para se
obter informações de sub-superfície. Usando-se o modelo convolucional (item 2.5) – em
que o traço pode ser visto como o resultado da convolução de um pulso (considerado
constante) com a função refletividade da Terra – conclui-se que, deconvolvendo o pulso
do traço real, obtém-se a função refletividade. Como a convolução no domínio do tempo
corresponde à multiplicação dos espectros de amplitude e soma dos espectros de fase, e
a deconvolução corresponde, respectivamente, à divisão e subtração dos mesmos
espectros, é natural se pensar em realizar operações de deconvolução no domínio da
freqüência. Isto – apesar das aproximações, algumas discutidas a seguir – é muitas vezes
realizado no processamento. Uma figura esquemática deste processo é mostrado na fig.
4.2.1, extraído de Rosa (2002).

Fig. 4.2.1 – Representação da


operação de deconvolução no
domínio da freqüência, em que
os espectros de amplitude (A)
são divididos e os de fase (φ)
subtraidos (extraído de Rosa,
2002).

Neste processo, obviamente é necessário conhecer o pulso a ser deconvolvido,


que pode ser estimado ou medido. A medição (gravação) durante a aquisição (ou
extração do próprio dado, através da onda direta), apesar de fornecer uma excelente
indicação do pulso, tem o grave inconveniente de não informar nem considerar as
inevitáveis alterações na forma do pulso – que, é considerado constante durante a
deconvolução. A maneira de contornar a variação do pulso é o uso de janelas de tempo
pequenas (de 500 a 2.000 ms), em que a alteração do pulso ainda seja uma premissa
razoável.
As estimativas podem ser estatísticas (por auto-correlação, baseada em que –
como a auto-correlação de uma função aleatória (como a refletividade é considerada) é
um spike – a auto-correlação do traço é idêntica à auto-correlação do pulso) ou
determinísticas (por exemplo, ajuste entre perfis de poços e dados reais – usado
geralmente em processos de inversão elástica – mais recomendável, mas nem sempre
com resultados satisfatórios).
Nas estimativas estatísticas, geralmente o pulso deve ter fase mínima, para que a
operação de divisão no domínio da freqüência seja convergente e que o espectro de fase

75
do pulso possa ser obtido a partir do espectro de amplitude através da transformada de
Hilbert. Este processo – também usado na obtenção de atributos complexos, ou do traço
complexo, a serem discutidos no cap. 6 – convolve um operador de quadratura (que
rotaciona a fase em 900) com o logaritmo do espectro de amplitude. Para que não ocorra
divisão por zero, é usual acrescentar-se um pequeno ruído aleatório (ruído branco) – em
torno de 0,01% – antes da deconvolução, se garantido que todos os componentes de
freqüência tenham um valor não nulo de amplitude. Estimativas estatísticas costumam
apresentar problemas nas faixas do espectro de amplitude em que ocorre declividade
acentuada, como nos limites do espectro ou próximos a notches.
Um dos problemas intrínsecos da estimativa determinística através de perfis é que
a amostragem geológica é distinta entre a perfilagem e a sísmica de superfície. Este
problema é comum à geração de sismogramas sintéticos, a ser discutido no próximo
capitulo.
Muitas vezes, o processo de deconvolução usado é misto, ou seja, estatístico-
determinístico. Cary (2001) considera que a deconvolução estatística predomina,
lembrando que com isso a fase do sinal continua sendo uma incógnita.
Uma etapa adicional de deconvolução, comumente aplicada, altera somente a fase
do sinal, deixando a amplitude inalterada. Esta etapa, denominada deconvolução de fase
zero, causa um aumento da resolução aparente (porém efetivo) da seção (aparente por
não alterar o espectro de amplitude). Outra grande vantagem é que os máximos absolutos
do pulso passam a corresponder à posição da reflexão, facilitando bastante a
interpretação. Na prática, muitas vezes não é trivial a obtenção da fase zero, com os
métodos mais comuns usando o fundo do mar e/ou perfis de poços e/ou VSP
(provavelmente, o mais confiável). Freqüentemente, no entanto, ainda é necessária
alguma correção durante a interpretação.
Etapas adicionais podem ser aplicadas, como por exemplo a correção da cor da
função refletividade (que, na prática, não é exatamente branca, ou seja, não tem valores
iguais de amplitude para todas as freqüências). Ainda que algumas vezes tais etapas
gerem melhoras pequenas, muitas vezes são úteis, como o exemplo da fig. 4.2.2, extraído
de Rosa (2002), mostrando o ganho da deconvolução de fase zero (seção do meio) e
melhora após ajuste da função refletividade.

Fig. 4.2.2 – Dado real (com


traços sintéticos inseridos para
comparação) com deconvolução
estatística-determinística
(esquerda), deconvolução
estatística-determinístico +
deconvolução de fase zero
(centro) e deconvolução
estatística-determinístico +
deconvolução de fase zero +
correção da cor da função
refletividade (extraído de Rosa,
2002). Observar boa melhora
com aplicação de fase zero e
pequenos ganhos com correção
da cor da refletividade
(geralmente não aplicada).

76
4.3 Correção de espalhamento geométrico

A recuperação de amplitudes, ou amplitude verdadeira, é um dos maiores


objetivos do processamento, sendo também um dos mais difíceis (ou o mais difícil, para
alguns autores, como por ex. Russel, 1990). Os principais fatores que alteram a amplitude
do sinal foram discutidos no item 2.7. O de maior impacto é o espalhamento geométrico
(divergência esférica), que atualmente costuma ser considerado durante a própria etapa
de migração. Também na migração devem ser levados em conta possíveis efeitos de
anisotropia.
Perdas por transmissão (que podem ser aplicadas juntamente com as correções
do filtro estratigráfico), absorção, reverberação (filtro estratigráfico) e múltiplas não devem
ser considerados na migração, segundo Rosa (2002). O autor apresenta três razões para
isso: 1) não estão relacionadas diretamente ao processo de migração, 2) um possível erro
na parametrização tornaria necessária a repetição da migração, que é um processo caro
e demorado, e 3) a não existência de técnicas confiáveis para tal.

Fig. 4.3.1 – Comparação de seção antes (superior) e após correção de espalhamento geométrico
(divergência esférica) (extraído de PGS, 2006).

77
A correção de absorção (fator Q) apresenta um problema muito grave, e bastante
comum, que é a super-correção das amplitudes nas altas freqüências, pois geralmente
nesta parte do espectro ocorre um domínio do ruído sobre o sinal (algumas vezes, até por
limitação da faixa dinâmica do equipamento de registro na aquisição). Este problema é
contornado aplicando-se um fator Q menor que o necessário – naturalmente, todas as
amplitudes são sub-corrigidas, mas este efeito é menos prejudicial que a super-correção
dos ruídos de alta freqüência. Outra solução é aplicar um fator Q inversamente
proporcional ao tempo de trânsito, ou seja, as ondas que viajam por mais tempo –
estando conseqüentemente mais afetadas pela absorção – são progressivamente menos
corrigidas.
Além das amplitudes, a absorção também está associada à dispersão, tornando
necessária uma correção de fase. Efeitos de supercorreção devido a fatores Q
superdimensionados são bem menos nocivos na fase que nas amplitudes, no entanto.
Até aqui, tem-se considerado o fator Q intrínseco, mas na realidade devemos
procurar corrigir o fator efetivo, que inclui também a atenuação de altas freqüências
devido à múltiplas de curto período (reverberações, ou filtro estratigráfico), como
explicado no item 2.7. Geralmente esta correção é aplicada usando-se o método de
O’Doherty e Anstey (1971) (ou variações a partir dele, um dos quais apresentado por
Rosa, 2002), que é estatístico.
Aumentos de amplitude – nem sempre associados à recuperação de efeitos de
propagação – podem ser usados localmente para uma melhor definição estrutural, mas
geralmente causam um pior caráter na seção. Entre os mais comuns está o AGC
(Automatic Gain Control), em que em uma janela em tempo (100 a 2.000 ms, geralmente)
é feita uma normalização pela maior amplitude. Assim, as amplitudes máximas de cada
janela são ‘igualadas’, mascarando anomalias mas realçando eventos muito fracos.
Um exemplo do efeito da aplicação da correção do espalhamento geométrico é
mostrado na fig. 4.3.1.

4.4 Correções residuais (variações da fonte e VÁGUA)

As correções estáticas correspondem a deslocamentos de tempo constante,


independente da posição da amostra no traço. São diferentes das correções dinâmicas
(em que cada traço do CDP sofre um deslocamento distinto, como por exemplo na
correção de NMO).
São aplicadas principalmente em dados terrestres, sendo determinadas
geralmente por refração rasa ou algoritmos computacionais. Procura corrigir atrasos
causados por variações topográficas nas posições de fontes e receptores e/ou mudanças
de velocidade nas camadas superiores (a zona de intemperismo), muitas vezes
associadas a variações no lençol freático (que tem grande importância na definição de
VP).
Em dados marítimos, só mais recentemente se tem observado que a não
consideração de variações nas profundidades das fontes e – principalmente – dos cabos
pode causar uma perda nos componentes de alta freqüência. Outro problema é que os
CDPs de um 3D têm traços muitas vezes adquiridos em dias diferentes, com condições
de mar (por exemplo, temperaturas) distintas, o que algumas vezes causa diferenças de
tempo de trânsito não associadas à propagação em sub-superfície, mas sim à lamina de
água. Nem sempre essas correções são aplicadas, não sendo ainda rotina sua
consideração de uma forma determinística, com somente alguns processamentos mais
cuidados procurando atenuar este problema de uma forma geralmente estatística.
Naturalmente, isto é ainda mais crítico em processamentos para 4D (cap. 9). Um exemplo
em mapa da aplicação deste tipo de correção em dado marítimo é mostrado na fig. 4.4.1.

78
Se mal aplicadas ou não consideradas estas correções podem conduzir
(especialmente em dados terrestres) a pouca continuidade de eventos, alinhamento pobre
de sinais após correção de NMO, má determinação de velocidades e instabilidade na
forma da onda e variações indesejáveis de amplitude e freqüência.

Fig. 4.4.1 – Mapas em tempo do fundo do mar antes (esquerda) e após correção estática da
lamina d’água (extraído de PGS, 2006).

4.5 Regularização de cobertura (com ou sem flex-binning)

4.6 Atenuação de múltiplas (Radon, etc.)

As múltiplas, apresentadas no item 2.7, são danosas não só na interpretação (não


sendo rara sua ocorrência no mesmo tempo sísmico do reservatório), mas também
durante a migração, pois ao serem migradas com a velocidade de eventos primários, é
criado um efeito denominado ‘sorriso’, associado ao espalhamento exagerado da energia
– neste caso, diz-se que o evento foi supermigrado. Este fenômeno também ocorre no
caso de migração de um spike e também nos limites do levantamento (efeitos de borda).
Teoricamente, a técnica CDP (cap. 3) atenua as múltiplas, porém na prática o
problema é que as múltiplas nos offsets menores costumam estar próximas ou em
interferência com o sinal primário que se deseja analisar. Os algoritmos no
processamento que procuram atenuar as múltiplas são baseados principalmente em 1)
diferenciação entre eventos primários e múltiplos no domínio τ-p (transformada de Radon)
ou 2) via equação da onda.
O primeiro grupo tem como vantagem ser relativamente rápido e barato (o
princípio é separar eventos primários corrigidos de NMO das múltiplas), porém as
transformadas disponíveis geralmente não são sistemas lineares (fazendo com que um
sinal ‘levado’ para o domínio da aplicação do algoritmo – por exemplo, τ-p – tenha suas
características alteradas no ‘retorno’, mesmo que nenhuma operação seja aplicada nele).
Um pouco melhores (mas nem sempre suficientes) são a transformada de Radon
Parabólica (ou, menos comum, hiperbólica) e o Radon de alta resolução (que nada mais é
que se ampliar a amostragem no domínio t-x para atenuar-se alterações do sinal durante
a aplicação da transformada direta e inversa – naturalmente, tal aumento de amostragem
significa mais tempo de computação). Na fig. 4.6.1 é apresentado o resultado da
atenuação de múltiplas em gathers no domínio CDP.
Algumas vezes se usa um truque após a transformada de Radon, que é, no
domínio CDP corrigido para NMO, agrupar-se aleatoriamente os traços, atenuando os

79
efeitos sem coerência – no entanto, como quase todos os métodos que não usam
equação da onda, nem sempre este artifício produz resultados satisfatórios.
O segundo grupo (Surface-Related Multiple Elimination, ou SRME, sendo o mais
comum), bem mais robusto e efetivo, tem como desvantagens o custo elevado, (pois usa
algoritmos que requerem bastante uso de máquina), não ser extensível facilmente para
3D, ignorar efeitos como deriva de cabo e mergulho cruzado (mergulho aparente,
perpendicular à direção de aquisição) e necessitar uma densa amostragem espacial.
Apesar disso, os métodos SRME tendem a serem usados atualmente, devido aos
resultados geralmente bem superiores aos do Radon.

Até meados dos anos 90 usava-se o MAFK, que procurava atenuar as múltiplas no
domínio f-k (freqüência – numero de onda). No entanto, costumava ser pouco efetivo, ou
cancelava também o sinal de interesse.

Deve ser observado que a atenuação de múltiplas é um problema que não está
resolvido (apesar de uma melhora significativa recente pelo SRME), sendo ainda
necessário algumas vezes a aplicação do silenciamento (mute) interno – o que cancela
também o sinal nos menores afastamentos, ver item 4.12 – para se obter uma melhor (ou
menos pior) imagem de níveis de interesse.

De uso mais restrito para múltiplas de longo período, mas algumas vezes útil nas
de curto período, é a deconvolução preditiva. A premissa básica é que, por ser aleatória, a
função refletividade é imprevisível. No entanto, uma múltipla viola esta premissa, por ter
uma periodicidade, já que é repetida a intervalos de tempo constante. Assim, eventos
periódicos podem ser considerados múltiplas, e atenuados.

Fig. 4.6.1 – Comparação de gather CDP antes (esquerda) e após aplicação de atenuação de
múltiplas por transformada de Radon (extraído de PGS, 2006). Apesar da forte atenuação, a
energia das múltiplas remanescentes nos afastamentos próximos pode ser problemática para a
migração e empilhamento.

4.7 Correção de fator Q (somente fase)

80
4.8 Análise de velocidade de migração 500 x 500 m (com anisotropia, se necessário)

Uma discussão sobre velocidades já foi realizada no item 2.4, com alguns
aspectos sendo (re)apresentados aqui.

O tempo de trânsito (tempo sísmico ou tempo duplo) t é relacionado ao


afastamento fonte-receptor x pela equação (que pode ser facilmente obtida por Pitágoras)
t2 = t02 + (x/V)2 4.8.1
t0 tempo vertical (correspondente ao afastamento nulo) e V velocidade.
Esta expressão também representa o truncamento no segundo termo da expansão
de Taylor de uma formulação bem mais precisa do tempo de trânsito (Taner e Koehler,
1969). Aproximações mais acuradas serão discutidas neste item.
A velocidade é a que melhor horizontaliza uma reflexão ou evento, sendo
chamada também de velocidade de empilhamento (ver item 4.12). Apesar de só
corresponder à velocidade RMS em pouquíssimas situações, é largamente usada como
tal – um exemplo de uso extremamente disseminado é a obtenção da velocidade
intervalar através da formula de Dix (1955), que é usada em muitas etapas do
processamento (por exemplo, conversão de afastamento para ângulo de reflexão), e
interpretação (velocidades intervalares para criação de modelos geológicos, etc).
É obtida na fase de análise de velocidades, etapa absolutamente fundamental do
processamento. A velocidade é, provavelmente, o parâmetro isolado mais importante de
todo o processamento – isto pode ser avaliado, por exemplo, na resposta de Sam Gray
sobre qual as três coisas mais importantes no processamento: “Velocity, velocity and
velocity” (comunicação pessoal). O estudo de velocidades sísmicas requer um curso à
parte, com mais informações disponíveis em Thomas (2003, com o autor ministrando um
curso sobre o tema regularmente na Petrobras).

Em um meio homogêneo, a trajetória do raio é uma linha reta e V corresponde a


velocidade média (VM). Já para um meio realista, com várias camadas com diferentes
velocidades, a trajetória do raio é definida pela lei de Snell e V não representa mais VM,
aproximando-se da velocidade média quadrática (VRMS), que é definida pela expressão
VRMS2 = (Σ Vi2 ∆ti) / (Σ ti) 4.8.2
Vi e ti velocidade e tempo de trânsito da i-ésima camada.

Uma boa estimativa das velocidades é função de vários fatores, como ruído
presente, complexidade geológica, algoritmos e tempo disponíveis para o processamento.
Alguns desses fatores devem ser observados durante a definição de um programa
sísmico. Como exemplo, pode-se ver na fig. 4.8.1 (extraída de Rosa, 2002) como uma
definição deficiente da velocidade é obtida caso um afastamento fonte-receptor suficiente
não seja usado durante a aquisição. Deve-se observar também neste exemplo que, caso
fosse usado um lanço demasiadamente curto, poder-se-ia concluir – erroneamente – que
o meio seja anisotrópico, devido à sub-correção aparente do evento. De uma forma geral,
pode-se afirmar que as ambigüidades entre velocidades e posições do evento se tornam
piores quando a abertura (definida no item 4.10) diminui e que no método de tomografia
(muito usado para PSDM) esta ambigüidade pode ocorrer quando o imageamento é
deficiente (Bube et al, 2005).

81
Fig. 4.8.1 – Dado sintético de um
evento (base de camada com
aumento de velocidade linear
com profundidade) corrigido para
NMO com velocidade usando-se
todos os offsets (acima) e
somente os menores offsets
(extraído de Rosa, 2002).
Observar pior horizontalização
com lanço curto, que pode
sugerir (incorretamente)
presença de anisotropia no meio.

Camadas com mergulho fazem com que o ‘ponto comum’ de reflexão de um CDP
seja transformado na verdade em uma região, e que a velocidade aumente (já que o
tempo da reflexão será menor que no caso de camada horizontal). Algo relativamente
comum e problemático durante a correção de NMO é a ocorrência de dois eventos
distintos (geralmente, um (quase) horizontal e outro com mergulho razoável) ao mesmo
tempo – este fenômeno era corrigido pelo DMO, mas hoje em dia a migração antes do
empilhamento geralmente cuida desse problema.
Na prática, a técnica CDP funciona razoavelmente bem em regiões com
mergulhos de camadas inferiores a 300. Muito mais perniciosas são as mudanças laterais
de velocidade, que podem variar de aceitáveis até problemáticas – caso, por exemplo, de
mudanças superiores a (segundo Brzostowski e Ratcliff, 1995) 5% em distancias menores
que 1 km.
Um caso relativamente comum, e que introduz algumas pequenas complicações e
comportamentos interessantes à técnica CDP, é o aumento linear da velocidade com a
profundidade – na verdade, o caso mais realista é a mudança do fator linear em diferentes
pacotes. Por exemplo, no caso da Bacia de Campos, entre o fundo do mar e o Marco Azul
ou Cretáceo Sísmico.

A eq. 4.8.1 foi obtida baseada em uma grande simplificação, que são camadas
homogêneas, isotrópicas e horizontais. Na prática, o tempo de trânsito t é uma função
mais complexa do afastamento x e da velocidade, existindo algumas equações (com
diferentes níveis de premissas e aproximações) para obtenção da velocidade (algumas
delas com parâmetros adicionais, relacionados à curvatura do raio e/ou anisotropia). A
maior parte é obtida a partir de análises inicialmente desenvolvida por Taner e Koehler
(1969), que usaram expansão de Taylor para encontrar uma primeira aproximação para a
velocidade. O método apresentado por eles tem sido usado, com algumas evoluções, há
vários anos. Entre as evoluções mais famosas, está a de Alkhalifah e Tsvankin (1995),

t2 = t02 + x2/V2 +2ηx4 / { V2 [t02V2 + (1+2η) x2] } 4.8.3


que é uma equação de pseudo-4a ordem (o termo x4 é dividido por x2), que introduz o
parâmetro η, que merece ser comentado, assim como esta equação. η foi deduzido
inicialmente a partir dos parâmetros anisotrópicos (válidos para meios com VTI, ou
anisotropia polar) de Thomsen (1986), ε e δ,
η = (ε - δ) / (1 + 2δ) 4.8.4
ε função das velocidades horizontal e vertical e δ função das velocidades vertical e de
NMO. Assim, naturalmente η deve ser visto como relacionado à intensidade da
anisotropia de um meio. O curioso, no entanto, é que η também é função da curvatura do

82
raio (causado pelo aumento linear de velocidade) – algo que, a princípio, sé deve ter
relação com anisotropia polar devido ao fato de que a velocidade de uma onda ao longo
de um raio curvo deve apresentar, intuitivamente, uma relação (provavelmente nada
trivial) com a anisotropia. Tal relação não tem sido objeto de estudo, com η sendo usado
com certa freqüência relacionado somente a fatores anisotrópicos para correlações com
variações litológicas, o que, além de provavelmente geralmente estar errado, pode ser
perigoso, pois indica falsos valores de anisotropia no meio.
De qualquer forma, na prática η é obtido realizando-se primeiramente uma análise
de velocidade somente com afastamentos curtos (1/4 a 1/2 do total) – para minimizar
possíveis efeitos de anisotropia. Uma segunda análise é então realizada, agora com todos
os afastamentos, mantendo-se a velocidade e procurando-se a melhor horizontalização
de eventos variando-se o valor de η.
Uma alternativa muito interessante ao uso de η é apresentada por Rosa (2002)
que, através de um desenvolvimento algébrico, chega a
t2 = t02 + x2 / (V2 + αx) 4.8.5
em que α é um fator com significado físico não muito claro, mas que estabiliza e aumenta
a precisão da eq. 4.8.1, sendo mostrados naquele trabalho melhores resultados (em
dados sintéticos) com eq. 4.8.5 que 4.8.3 (Alkhalifah), em meios com aumento linear de
velocidade com profundidade, porém a eq. 4.8.5 tem resultados piores em meios
anisotrópicos. As duas equações funcionam melhor que a eq. 4.8.1, que é conhecida
também por equação de segunda ordem por corresponder a um truncamento da série de
Taylor no segundo termo. α é obtido, na prática, de forma similar a η, sendo também
necessárias duas análises de velocidade.
Assim, ao se desejar uma melhor definição do campo de velocidades – com
conseqüente melhor imageamento – torna-se necessário a realização de uma etapa
adicional de análise, o que obviamente demanda maior tempo. O intervalo de análise de η
ou α não é o mesmo das velocidades (geralmente, estas são realizadas em uma malha
de 500 x 500 m em um 3D, enquanto η ou α costumam ser obtidos em uma malha de 1 x
1 ou 2 x 2 km, já que a variação desses parâmetros é, geralmente, mais suave e menor
que a da velocidade).
Outra alternativa é o uso de outras equações, geralmente disponíveis nas
companhias de processamento. A PGS, por exemplo, usa uma equação de pseudo-6a
ordem (Sun et al., 2002) que mostrou resultados bem interessantes no campo de
Roncador (Rodriguez et al, 2006a), conseguindo horizontalização de eventos com
grandes afastamentos sem uso do fator η, o que, além de tornar possível de uma forma
menos demorada a obtenção de um campo de velocidades mais correto e confiável,
sugere que a presença de anisotropia polar – sugerida, principalmente, pela super-
correção (hockey-stick) – deve ser, muitas vezes, associada a problemas nas
aproximações implícitas de equações mais simples, principalmente a de 2a ordem (mais
comumente usada). Uma comparação da horizontalização de eventos desta equação com
a eq. de 2ª ordem (eq. 4.6.1) é mostrada na fig. 4.8.2.

83
Fig. 4.8.2 – Comparação do alinhamento de eventos com eq. de 2ª ordem (esquerda) e de pseudo-
6ª ordem (extraído de Sun et al., 2002).

4.9 Remoção da correção de divergência esférica e de marcas de aquisição residuais

4.10 PSTM Kirchhoff com raio curvo e anisotropia TI

Uma reflexão registrada em superfície pode ser correspondente a qualquer ponto


de um semicírculo, como indicado na fig. 4.10.1, extraída de Lindseth (1982). Assim,
deve-se obter o correto posicionamento de um evento, que é o objetivo principal da
migração. Neste processo, são removidos efeitos de curvatura das interfaces, difrações
são colapsadas, alterações causadas por mudanças laterais de velocidades são
corrigidas ou atenuadas e a zona de Fresnel é bastante diminuída, aumentando-se
significativamente a resolução horizontal.

Fig. 4.10.1 – Uma reflexão


registrada em superfície
pode ser referente a
qualquer ponto de um
semicírculo (ou semi-esfera,
no caso 3-D) (extraído de
Lindseth, 1982).

O processo de migração pode ser realizado de várias maneiras, algumas sendo


discutidas neste item. Discussões mais detalhadas são objeto de curso específico sobre o
assunto.
Pode-se considerar um processo inverso ao princípio de Huygens, em que a fonte
se situe na interface causadora da reflexão e os receptores em superfícies – esta idéia é
chamada refletor explosivo.
A partir das posições dos traços em superfície, são geradas frentes de ondas
circulares, com os raios definidos pela profundidade (em tempo) aparente dos refletores
(fig. 4.10.2). A profundidade (em tempo) correta é definida pelo envelope dessas diversas

84
frentes de onda, corrigindo-se assim os mergulhos das reflexões. O ângulo de migração é
o maior ângulo em que se realiza a geração das frentes de onda.

Fig. 4.10.2 – Exemplo do


significado geométrico da
migração, em que as
reflexões são colocadas na
posição correta (extraído de
Sheriff, 1991).

Outro processo de migração é baseado na geometria das difrações. Na fig. 4.10.3,


(de Rosa e Tassini, 1990) vemos uma difração, uma frente de onda e o resultado da
migração, para um meio homogêneo. Observa-se que é possível obter um ponto da
reflexão migrada a partir de reflexão não migrada e da geometria das difrações.

Fig. 4.10.3 – Exemplo do


significado geométrico da
migração, em que as
reflexões são colocadas na
posição correta (extraído de
Rosa e Tassini, 1990).

Considerando-se os princípios de Huygens e da interferência de ondas, a onda


principal pode ser vista como o envelope tangente às ondas secundárias que estejam em
interferência construtiva. Desta forma, a migração pode ser aplicada sem conhecimento a
priori da posição dos refletores, sendo necessário apenas uma aproximação da
velocidade de propagação. Por este processo – uma versão simplista da migração de
Kirchhoff – as amplitudes de uma difração são colapsadas para o ápice da hipérbole.

O raio imagem, bastante usado em modelagens, é um raio teórico, normal à


superfície (nível do mar ou solo), que indica a trajetória teórica de um raio até o ápice de
uma hipérbole. Para uma camada com mergulho, é diferente do raio vertical – nestes
casos, é necessária a migração em profundidade, que considera a propagação do ponto
difrator de acordo com a Lei de Snell e utiliza modelo de velocidades intervalares.

Em algumas situações de geologia complexa, a dispersão do ponto comum pode


ser considerada pequena. No caso de camadas com mergulho, entretanto, geralmente os
pontos amostrados em sub-superfície não são coincidentes, ocorrendo duas distorções

85
fortes no conceito CDP: o ‘ponto’ se transforma em uma área e o valor da velocidade é
alterado para
Vα = V / cosα 4.10.1
α mergulho da camada.
O processo de DMO (Dip Move Out), de uso bastante comum até meados dos
anos 90, corrige a trajetória do sinal nesses casos. O DMO era também chamado de
migração parcial pré-empilhamento, e seu efeito é mostrado na fig. 4.10.4, extraída de
Sheriff (1991).

A equação de migração
tg φAP = sen φMIG = V.p 4.10.2
φAP ângulo aparente (antes da migração), φMIG ângulo verdadeiro (após migração), V velocidade do
meio e p parâmetro do raio.
mostra que mergulhos antes da migração não podem ser superiores a 450.

Fig. 4.10.4 – Diagrama simplificado da


correção realizada pelo DMO para
eventos mergulhantes, em que uma
amostra é colocada na posição correta
de offset zero (extraído de Sheriff,
1991).

A realização de migração é necessária para colapsar difrações (geradas em


terminações bruscas de camadas, como falhas) e corrigir falsos mergulhos (gerados por
‘movimentos’ laterais da energia entre os pontos de reflexão e a superfície em camadas
com mergulho). Existem diversas formas de realizar a migração, cada uma com seus
pontos fracos e fortes. Uma discussão detalhada está bem além dos objetivos deste
material, sendo possível estudar-se o assunto durante um ou dois semestres em cursos
de pós-graduação. Algumas noções, no entanto, serão aqui apresentadas. Como
aspectos importantes na migração podem ser citados a presença de ruídos nos dados
não-migrados, falseamento (alias) espacial, abertura de migração e incertezas devido à
velocidades.
Sabendo-se que um ponto em sub-superfície (por ex., uma descontinuidade
devido à erosão e/ou plano de falha) gera uma difração em uma seção sísmica (sendo por
isso chamado de ponto difrator), o processo de migração deve ‘colapsar’ a difração para
um ponto. Uma representação geométrica deste processo é mostrada na fig. 4.10.5. Na
figura, cada ponto em superfície em que existe um receptor é o centro de um círculo
hipotético com raio igual ao produto da velocidade pelo tempo de trânsito, e a posição do
ponto difrator é definido após a migração pela interseção de todos os círculos hipotéticos.
Esta idéia começa com o conceito que uma reflexão pode ter sido gerada em qualquer
ponto de um semicirculo (fig. 4.10.1).

86
Fig. 4.10.5 – Significado geométrico
da migração por colapso de
difrações, em que a posição de um
ponto difrator é obtida pela
interseção de várias trajetórias
possíveis (extraído de Rosa, 2002).

Considerando-se agora que um evento contínuo pode ser visto como vários pontos
difratores juntos podem-se concluir que este método permite a migração de qualquer
reflexão presente em uma seção sísmica.
Outra maneira de se entender geometricamente a migração de um evento
contínuo é mostrado na fig. 4.10.2. Como no caso anterior, são traçados semicírculos,
com o evento migrado sendo definido agora pela tangente aos semicírculos. Este
processo é a forma geométrica da migração denominada por frentes de onda. Na figura
vê-se também o ângulo de migração, que é o ângulo máximo até o qual se estende o
processo de migração – naturalmente, quanto maior o ângulo, mais preciso e demorado
(logo, caro) o processo. Este ângulo está associado à abertura do operador de migração
(fig. 4.10.6). Apesar de aqui sendo mostrado para camada mergulhante, a abertura ou
ângulo de migração define também a declividade máxima que uma difração será
colapsada.
O conceito de abertura – que não deve ser confundido com o máximo afastamento
fonte-receptor, não tendo relação alguma com este – determina também o ângulo máximo
a ser migrado para uma determinada profundidade. Caso a abertura da migração seja
constante, o ângulo máximo de migração decresce com a profundidade e, da mesma
forma, usando-se um ângulo de migração constante, a abertura aumenta com a
profundidade. Na prática, pode-se variar a abertura (mantendo-se constante o ângulo
para o imageamento correto de planos de falhas) com a profundidade, para a migração
ser um pouco mais rápida.
A abertura é definida pela expressão
A ≥ 2.z.tanθ 4.10.3
z profundidade (correta) e θ maior ângulo real a serem migrados.
Esta expressão define também o que é chamado de franja de migração, que
corresponde a uma extensão lateral além de onde se deseja migrar, para evitar artefatos
de borda (os ‘sorrisos’). Na verdade, a franja é metade da abertura.
Observa-se que a abertura pode ser maior que o afastamento fonte-receptor
máximo usado na aquisição.

87
Fig. 4.10.6 – Esquema geométrico da abertura e do ângulo de migração θ (extraído de Margrave,
1996).

Outro parâmetro fundamental para a migração (independente do algoritmo usado)


é o espaçamento entre traços (a amostragem espacial). É fornecido por
∆x ≤ V / (2.fmax.senθ) 4.10.4
V velocidade de migração, fmax máxima freqüência que se espera (ou pretende) migrar.
É interessante observar nas eq. 4.10.3 e 4.10.4 que o ângulo θ refere-se não
somente ao mergulho da reflexão de horizontes geológicos, mas também de planos de
falhas e dos ramos das hipérboles (‘pernas’) de difração. Assim, θ não deve ser definido,
geralmente, pelo mergulho das camadas, mas sim pelos planos de falha e/ou hipérboles
de difração. Na prática, Rosa (2002) sugere o uso de pelo menos 600, considerando ser
este um valor representativo para planos de falhas mais comuns e colapsar uma parte
significativa das difrações.

Do ponto de vista teórico, existem duas maneiras principais de realizar a migração:


soma de difrações, em que as amplitudes são somadas ao longo da difração e o resultado
é colocado no ápice da difração (fig. 4.10.5), ou por frentes de onda, em que cada sinal
registrado origina uma nova frente de onda, com o resultado migrado definido pelos
envelopes (fig. 4.10.2). De qualquer forma, pode-se considerar a migração requer o
caminho inverso da propagação, iniciando-se em superfície e terminando nos refletores.

A integral (ou equação) de Kirchhoff é bastante usada no processamento sísmico,


principalmente em migrações, pois permite considerar que uma integral operada em uma
superfície (no caso do método sísmico, esta superfície é a interface água-ar (caso
marítimo) ou solo-ar, em que estão localizadas a fonte e os receptores) pode representar
o campo de onda de todo o volume – no caso, as camadas geológicas. Matematicamente,
é obtida a partir do teorema de Green (que, por sua vez, é desenvolvido a partir do
teorema de Gauss/Stokes, ou da divergência). Segundo Rosa (2002), é bastante versátil
em problemas específicos e eficiente computacionalmente em aplicações simples – o
melhor exemplo sendo, provavelmente, a migração em tempo. Um grande atrativo prático
para o uso de Kirchhoff é que registro não-migrados podem ser migrados em qualquer
conjunto de amostras – como isso é fundamental em dados 3D, e como Kirchhoff é o
único método que possui esta característica (segundo Gray, 2001), esta técnica é a mais
usada para grande volume de dados. Uma desvantagem prática de Kirchhoff é quando se
necessita imagear altos mergulhos, pois a abertura de migração em três dimensões pode
tornar o processo proibitivo.

88
Outra forma de migrar os dados sísmicos sem o uso de Kirchhoff é através das
chamadas técnicas espectrais, por serem aplicadas no domínio ω-kx-ky ou ω-kx (ω
freqüência e ki componente do número de onda). Na forma desenvolvida inicialmente, não
contemplava variações laterais de velocidade, mas alternativas foram sendo
desenvolvidas, pois são os métodos mais rápidos. O campo de ondas é decomposto em
componentes de ondas planas, com cada componente sendo migrado separadamente.
Uma técnica comum é a migração por deslocamento de fase (Gazdag, 1978), por usar
esta metodologia para ‘depropagar’ o campo de ondas. São acuradas para grandes
mergulhos.
Este método é interessante para ilustrar dois aspectos da migração, presentes
independentemente do método usado: a remoção de ondas evanescentes durante a
migração e o decréscimo de resolução vertical após a migração.
As ondas evanescentes são geradas quando kz se torna complexo (isto acontece
quando ω/v > kx). Demonstra-se que essas ondas são reforçadas durante a migração –
por isso, elas são removidas, pela atenuação de eventos com velocidades aparentes
inferiores à velocidade mais baixa usada na migração.
O outro aspecto importante da migração – que pode ser provado por análises de
eventos em domínios ω-k (freqüência-número de onda) – é que ocorre, para um k
constante, uma diminuição de ω após a migração (fig 4.10.7). Ou seja, a migração
decresce a resolução vertical – apesar desta inconveniência, é absolutamente necessário
migrar os dados sísmicos.

Fig. 4.10.7 – Diagrama mostrando


migração no domínio ω-k, em que
o evento C (com mergulho original
φt) é migrado para o evento C’ (com
mergulho φt ). Observar que a

freqüência pós-migração ω é

menor que ω (freqüência pré-


migração), mostrando que a
migração diminui a resolução
vertical (extraído de Krebes, 1989).

A fig. 4.10.7 também mostra a chamada migração Stolt (1978), em que uma
amostra situada em ω0/V é deslocada (mantendo-se kx constante) para (ω0/V). cosθ – este
deslocamento corresponde à migração.

Outro método razoavelmente comum é a migração por diferenças finitas, que


procura resolver a equação de onda de forma aproximada, através de algum método de
diferenças finitas. Foi o primeiro método digital, sendo popular ainda hoje para migrações
pós-empilhamento. Uma característica fundamental é que ela considera a propagação de
todo o campo de onda, enquanto que Kirchhoff trabalha com um conjunto de traços
selecionados. É bem preciso para pequenos mergulhos, perdendo acurácia em mergulhos
muito grandes.

Deve-se comentar que a distribuição dos traços só não precisa ser regular no caso
da migração Kirchhoff, mas caso seja usada deslocamento de fase ou diferenças finitas, é

89
necessário uma homogeneização (por ex., via interpolação) na distancia entre PTs e
linhas. Por outro lado, o processo Kirchhoff pode – devido à distribuição irregular – migrar
componentes de freqüência maiores que os da eq. 4.10.4, gerando um falseamento
(alias) espacial. Isto é contornado usando-se um filtro corta-altas em função do mergulho.

Os métodos de diferenças finitas e do domínio f-k consideram somente um sentido


de propagação. A técnica que considera a propagação total é a chamada reverse time
migration (RTM), sendo o processo que faz menos aproximações (por isso, sendo
também o mais acurado) – no entanto, é também o mais lento, sendo, mesmo com os
computadores atuais, praticamente impossível de ser usada em um 3D marítimo.

A migração em tempo, apesar de suficiente em várias situações, não respeita a lei


de Snell, ou seja, durante a migração não são consideradas variações laterais de
velocidade. Caso existam variações significativas – significativa sendo aparentemente de
difícil quantificação, com uma referencia (Brzostowski e Ratcliff, 1995) considerando 5%
em uma distancia de 1.000 m, enquanto que Rosa (2002) acredita que mudanças com
comprimentos de ondas superiores ao máximo offset –, é recomendável (e muitas vezes
necessária) a aplicação da migração antes do empilhamento em profundidade, a PSDM
(do inglês Pré-Stack Depth Migration) (fig. 4.10.8).

Fig. 4.10.8 – Diferença fundamental entre migração em profundidade (esquerda) – que respeita a
lei de Snell – e em tempo (extraído de Margrave, 1996).

Existem vários exemplos práticos sobre a necessidade de PSDM, sendo aqui


intencionalmente mostrado um não muito comum, com o objetivo de mostrar ao leitor o
quão vasto podem ser os casos geológicos em que o uso de PSDM se faz necessária.
Whitcombe et al. (1994) mostram que, após a perfuração de um poço no campo de
Endicott (Alaska), foi observado que a sísmica indicou uma falha na posição incorreta (fig.
4.10.9). Este tipo de erro de posicionamento é comumente causado por pequenas
incorreções nas velocidades de migração (com o erro geralmente aumentando com o
mergulho da camada) e/ou – de novo ! – por fortes variações laterais de velocidade. No
caso apresentado pelos autores, estas variações foram causadas pela camada de solo
permanentemente congelada (permafrost), que tem uma velocidade muito superior à
camada de solo em que a água não é congelada.

90
Fig. 4.10.9 – Acima: resultado de PSTM
(esquerda) sugerindo que poço estaria no bloco
alto, e reposicionamento da falha (constatada pelo
poço) em dado com PSDM. À direita: indicação de
que PSDM (ou raio imagem) é necessário para
colocar o ápice da hipérbole na posição correta
(extraído de Whitcombe et al, 1994).

Historicamente, a situação mais comum em que a PSDM é aplicada – e onde seu


uso foi iniciado – é no imageamento de regiões com domos de sal. Outras situações
geológicas são canyons no fundo do mar, carbonatos próximos à quebras de plataformas
e regiões com falhas reversas.
Em várias situações, uma migração antes do empilhamento em tempo (PSTM, do
inglês Pré-Stack Time Migration) bem aplicada, que coloque todos os eventos nas
posições corretas (incluindo um foco das difrações nos ápices correspondentes), seguida
de uma conversão tempo-profundidade via raio-imagem (também bem realizada),
corresponde ao uso de PSDM, com as vantagens de ser mais simples e rápida. Rosa
(2002) compara este raciocínio de um índio pescando um peixe com uma lança – na
verdade, o índio não precisa saber a posição correta do peixe, mas sim o ‘desvio’
(deslocamento) na trajetória da lança; este ‘desvio’ corresponde à correção a ser
realizada pelo raio-imagem.
O processo de PSDM é extremamente sensível ao campo de velocidades. Por
exemplo, um erro de 5% nas velocidades no caso de PSTM não deve causar problemas
significativos, mas pode ser um desastre para PSDM.
Uma forma de entender essas diferentes suscetibilidades pode ser quando se
considera que a migração em tempo usa uma espécie de velocidade média entre a
superfície e o refletor, enquanto que migrações em profundidade usam velocidades
intervalares. Outra maneira intuitiva é considerar que durante PSDM estamos procurando
um ajuste muito fino – geralmente espacial ou lateral – de eventos.

91
Fig. 4.10.10 – Efeito de erros de
velocidade em PSDM: acima,
V=1.900 m/s, no meio V=2.000 m/s
(correta) e abaixo V=2.100 m/s. S
corresponde ao traço empilhado.
Observar forte suscetibilidade de
PSDM a erros não muito elevados
(5%) de velocidade, mesmo em
dados sintéticos. Observar também
efeito de estiramento (item 4.13)
nos maiores offsets, mesmo para
velocidade correta(extraído de
Rosa, 2002).

Diz-se que PSTM é muito mais robusta à imperfeições na velocidade que PSDM.
Como esperado, a obtenção de velocidades é muito mais difícil e complexa no caso de
PSDM que para PSTM. O erro máximo admissível para PSDM é 2%, sendo 1% desejável
– existem algumas técnicas que procuram conseguir este nível de acerto, com a
tomografia (uma minimização algébrica que diminui erros de velocidades para cada
conjunto de traços migrado) estando entre as mais comuns. Independente do método,
geralmente a observação de eventos horizontalizados (de maneira similar à análise de
velocidades para empilhamento) costuma ser usada como controle de qualidade. Como
exemplo, a fig. 4.10.10 mostra como se identificar a velocidade correta (mesmo este
sendo um caso simples, de dado sintético com velocidade constante e refletor horizontal),
e também o quão suscetível o processo de PSDM é a erros de velocidade, mostrando o
imageamento muito pobre com um erro de 5%. Um grande problema prático é que
geralmente nenhum método de definição de velocidades para PSDM funciona bem em
áreas com qualidade pobre e forte variações de velocidades – infelizmente, é exatamente
neste tipo de situação que se precisa que a PSDM funcione melhor.
Pon e Lines (2005) consideram que essa susceptibilidade está associada a
incertezas (ou erros), que deveriam sempre ser estimadas. Os autores apresentam uma
análise matemática de incertezas (erros sistemáticos e aleatórios) em um caso simples
para avaliar erros de posição na seção migrada em profundidade.

Processos de PSDM são geralmente classificados em dois grupos principais:


Kirchhoff e equação da onda. O segundo, como o nome sugere, usa a equação de onda
para ‘depropagar’ o dado, através de algoritmos de diferenças finitas (em tempo ou em
freqüência), deslocamento de fase no domínio da freqüência, etc. Costuma fornecer
melhores resultados, tendo os problemas de obtenção do campo de velocidade e custo
computacional. Kirchhoff (que também usa a equação da onda, pois é uma forma de
representar a função de Green do campo de ondas), apesar de geralmente inferior, é
mais fácil para obtenção de funções velocidades e menos demorada. Gochioco e
Brzostowski (2005) consideram que Kirchhoff é uma tecnologia madura, não sendo
esperadas melhoras significativas, enquanto que equação da onda ainda tem muito a

92
evoluir. Comparações entre os dois métodos são fornecidas por vários autores. Pharez et
al. (2005), por exemplo, comparam Kirchhoff e equação da onda em cinco regiões
produtoras em mar e terra, com a equação de onda sendo superior e justificando os
custos adicionais.
Independente do método (que deve ser escolhido de acordo com a complexidade
da área, tempo e recursos financeiros disponíveis para o processamento), é importante se
lembrar que etapas anteriores são cruciais para a obtenção de um dado migrado com boa
qualidade. Bevc e Bondi (2005) citam regularização no pré-processamento apropriada,
preservação de amplitudes, extrapolações de altas ordens, a capacidade de trabalhar
com velocidades laterais de velocidade com precisão, o uso de todo o dado disponível (ou
seja, não fazer decimações) e manter abertura elevada para capturar fortes mergulhos.
Os autores consideram também que Kirchhoff é de mais fácil entendimento, é baseada
em cálculos simples, é flexível no trato de variações extremas de velocidades, fortes
mergulhos e, principalmente, dados 3D. No entanto, no mesmo trabalho é apresentado
um exemplo sintético que demonstra a inferioridade de Kirchhoff na definição da frente de
onda a ser migrada (fig. 4.10.11).

Fig. 4.10.11 – Incorreção de


tempos de transito obtidos por
Kirchoff (linha amarela tracejada)
em imagear um campo de onda,
mostrando necessidade de
equação de onda para PSDM em
meios muito complexos (extraído
de Bevc e Biondi, 2005).

Atualmente, pode-se considerar como rotineiro a estimativa de velocidades que


considerem anisotropia durante a análise de velocidades e migração – esta evolução é
devida principalmente ao (como muitas outras evoluções no processamento) significado
melhoramento dos computadores. Talvez a preocupação principal hoje em dia seja uma
migração com preservação (ou recuperação) ‘verdadeira’ (aspas porque tal coisa talvez
seja impossível na prática) de amplitudes.

Finalmente, um campo de velocidade definido da forma que gere a melhor


migração e/ou empilhamento – ou seja, o melhor imageamento possível – não é em
absoluto uma garantia que uma conversão tempo-profundidade usando este campo será
correta, ainda que melhore a conversão, em comparação a um campo menos rebuscado.
Da mesma maneira, não se pode considerar que a aplicação de PSDM forneça a
profundidade correta dos refletores (ainda que, geralmente, seja uma aproximação
superior a uma conversão tempo-profundidade após PSTM e com velocidades de
processamento PSTM).

4.11 Análise de velocidade residual

É realizada após a migração, em que os eventos estão – ao menos teoricamente –


em sua posição verdadeira. Como na análise anterior (item 4.8) procura-se horizontalizar

93
os eventos e, também como o anterior, é uma correção dinâmica (cada amostra de um
traço tem deslocamento diferente das demais).
Esta horizontalização (ou alinhamento) das amostras é obtido corrigindo-se as
diferentes trajetórias – referentes aos diferentes caminhos percorridos pelo campo de
onda entre cada par fonte x receptor pela equação hiperbólica 4.8.11, aqui repetida
t2 = t02 + (x/VE)2 4.11.1
t0 tempo vertical (correspondente ao afastamento nulo) e VE velocidade de empilhamento.
A velocidade de empilhamento – assim como a de migração – é usada para
conversão tempo-profundidade, estimativa de zonas de pressões anormais em
subsuperficie (perfis de Pennebaker, item 2.4) e inferência de propriedades físicas das
rochas. Ainda mais que a velocidade de migração, esta é obtida de forma estatística,
sendo influenciada pela geometria de aquisição.

Para um meio homogêneo, a trajetória do raio é uma linha reta e VE é igual à


velocidade média (VM). Já em um meio com várias camadas de velocidade variável, a
trajetória do raio é definida pela Lei de Snell e VE não representa mais VM, aproximando-
se da velocidade média quadrática (VRMS), definida pela expressão
VRMS = [ (Σ Vi2∆ti) / Σ ∆ti) ]1/2 4.11.2
Vi e ∆ti velocidade intervalar e tempo de trânsito da camada i.
A fórmula de Dix (1955) fornece a velocidade intervalar entre duas reflexões i e
i+1, a partir de VNMO (considerada idêntica à VE e VRMS) e tempo sísmico ti
VDIX = [ (Vi+12ti+1 – Vi2ti ) / ( ti+1 – ti) ] ½ 4.11.3

A fig. 4.11.1, extraída de Rosa e Tassini (1990) e obtida pelos autores para situação
que se pode considerar representativa, nos permite concluir que:
1. VE (VS na figura) é maior que VM e VRMS, aproximando-se de VRMS quando x → 0.
Isto ocorre por diversas razões, como por exemplo, anisotropia, geometria de
aquisição e aumento de velocidade com profundidade. Na prática, quando VE é
usada diretamente para conversão tempo-profundidade, pode-se esperar
profundidades maiores que as verdadeiras, já que a velocidade correta é VM. VM
só é disponível por perfuração de poços, por isso geralmente processos de
conversão calibram ou ajustam velocidades de processamento a partir de
informações de poços, e
2. o tempo de reflexão em offsets nulos (geralmente extrapolados, pois não são
adquiridos) obtido por VE (T0S2 na figura) é maior que o real – ou seja, mesmo que
o item anterior não ocorra (i.e., se fosse possível a obtenção de velocidades
corretas), ainda assim processos de conversão tempo-profundidade podem ser
imperfeitos, pois t0 obtida pelo empilhamento pode estar errado.

2 2
Fig. 4.11.1 – Gráfico x -t ,
mostrando que para offsets nulos
a velocidade de empilhamento (VS)
é maior que as velocidades média
(VM) e RMS (seção empilhada) e
que t0 é maior que o correto
(extraído de Rosa e Tassini, 1990).

94
Como dito no item 2.4, o estudo de velocidades sísmicas requer um curso próprio.
No entanto, um resumo é apresentado abaixo, na forma de texto e figuras (extraídas de
Anstey (1977) e Brown (1992).

Velocidades de empilhamento podem, de acordo com a direção e parâmetros de


aquisição, complexidade geológica e fortes variações laterais de velocidade, representar
características de propagação das ondas com menor relação direta à variações de
velocidades intervalares de camada. Por exemplo, no caso de aquisição marítima na
direção do mergulho em área próxima ao talude e com uma camada de carbonatos
abaixo do fundo do mar (caso da Bacia Potiguar imersa), pode ocorrer uma ‘mistura’ de
sinais de diferentes interfaces chegando em tempo muito próximos em um mesmo
receptor. A correção da trajetória do sinal neste caso será realizada por valores de
velocidades que possuirão relações muito complexas com as velocidades intervalares das
camadas – assim, conclui-se sobre mais um beneficio da migração antes do
empilhamento, especialmente quando é realizada em profundidade, como já discutido.

Fig. 4.11.2 – À esquerda: significado


geométrico e cinemático de algumas
velocidades do método sísmico (extraído
de Anstey, 1977). Acima: algumas
aplicações de algumas velocidades
sísmicas (extraído de Brown, 1992).

Caso não seja realizada migração antes do empilhamento, é interessante observar


as conclusões do trabalho de Souza (1985), que criou um modelo geológico simplificado
(quatro camadas horizontais) para demonstrar que – mesmo nessa situação ideal – VE é
em torno de 5% superior à VM verdadeira do pacote sedimentar, sendo próxima a VRMS.
Por isso, em algumas conversões tempo-profundidade (principalmente quando existem
poucos poços para realização de ajustes), VE é reduzida em 90 a 95%. Esta redução é
também aplicada muitas vezes quando o dado é migrado após o empilhamento.

Camadas ou lentes com velocidades anormalmente baixas causam um maior


tempo de trânsito da onda sísmica, levando ao fenômeno denominado pull (ou push)

95
down, gerando falsos sinclinais no dado. O efeito inverso – para camadas com
velocidades elevadas – é denominado pull (ou push) up.

Na fase de análise de velocidades (denominada informalmente por velan, do


inglês velocity analysis), que preferencialmente deve ser realizada juntamente pelo
intérprete e geofísico ou técnico do processamento, são obtidas as denominadas funções
de velocidade, em um intervalo normalmente de 500 m (às vezes, 1 ou 2 km, em análises
preliminares e/ou dados 2D). Esta etapa é muitas vezes a mais demorada do
processamento – mas já se falou sobre a importância da mesma; a demora e importância
costumam ser ainda maior em áreas com qualidade deficiente.
A forma mais comum e rápida de se realizar velan é a utilização de estações de
trabalho com algoritmos específicos, a maior parte deles realizando um empilhamento
com várias velocidades (com incremento constante e variável entre 10 e 50 m/s,
geralmente) em intervalos de tempo variando entre 10 e 50 ms, sendo mostrado a
coerência para cada par velocidade x intervalo de tempo, sendo geralmente escolhido o
par tempo x velocidade com maior coerência (a exceção mais importante sendo as
múltiplas), com os vários pares assim obtidos definindo a função velocidade para um
determinado CDP.
É comum o uso de limites de velocidades intervalares (obtidas via Dix), de forma
que velocidades muito elevadas (por ex., superiores a 7.000 m/s) ou baixas (inferiores a
1.300 m/s) não sejam obtidas. Porém, deve-se lembrar que algumas vezes não existem
relações entre a velocidade intervalar fornecida por Dix e a velocidade intervalar efetiva
do meio – ou seja, o uso de limites deve ser usado com certa cautela, especialmente nas
velocidades de empilhamento, em que esta relação pode ser ainda menor. Na etapa de
velan para migração, a atenção com variações bruscas de velocidades é feita tanto em
um mesmo CDP como lateralmente, sendo geralmente aplicada uma suavização de
velocidades.

O efeito de ruídos aleatórios no processo de definição de velocidades é mostrado


na fig. 4.11.3. A figura mostra como a presença de ruídos em um conjunto de traços
(gather) CDP (à esquerda na figura, seção sem ruído e com razão sinal/ruído de 6, 3 e 1)
afeta a análise de velocidades – velans à direita para gather CDP com diferentes razões
sinal/ruído.

Costuma-se observar funções velocidades de locais adjacentes, para não gerar


variações extremas e definir-se, entre mais de uma opção, qual evento tem mais
consistência geológica.

As velocidades são usadas em tempo real para horizontalização dos refletores e


para empilhamento de um pequeno trecho da seção (procurando-se reforçar eventos com
significado geológico, e não eventos espúrios, como ruídos coerentes).
Velocidades maiores que as corretas levam a uma sub-correção – ou seja, o
evento fica sub-corrigido nos maiores afastamentos. O oposto ocorre quando velocidades
menores que as necessárias são usadas: os eventos são super-corrigidos, gerando o
efeito de bastão de hóquei (hockey stick), também associado a anisotropia e/ou aumento
linear da velocidade com a profundidade, que aumentam a velocidade necessária para
horizontalização do evento.
Como as múltiplas são sub-corrigidas (pois terem velocidades menores que
eventos primários), após o empilhamento elas são parcialmente atenuadas. Na prática, no
entanto, esta atenuação quase nunca é muito efetiva, pois nos menores offsets a
diferença de tempo de trânsito entre eventos múltiplos e primários é freqüentemente

96
desprezível, tornando necessária a utilização de técnicas mais sofisticadas de atenuação
de múltiplas, como já discutido.

Fig. 4.11.3 – Efeito de ruído na definição da velocidade: CDP gathers (variando de sem ruído até
razão sinal/ruído de 1) com velans correspondentes à direita (extraído de Yilmaz, 2001).

4.12 Definição de mutes internos e externos para empilhamentos total e parcial

Silenciamento – tradução rigorosa, mas muito pouco usada do inglês mute – é o


cancelamento de faixas (geralmente variáveis em tempo e offsets) de intervalos de traços,
através do desenho de janelas (linhas), aplicados geralmente para cancelamento de
ruídos ou definição de faixas de ângulos para empilhamento de angle-stacks.
Os mutes mais comuns são o interno – em que trechos dos traços mais próximos
(menor afastamento fonte-receptor) são eliminados, geralmente com o objetivo de
atenuação de múltiplas ou ground-roll (em terra) – e o externo, usado geralmente para
cancelar efeitos de estiramento (stretching, ver próximo item), ondas diretas e superficiais
e refrações rasas (em terra). O mute externo também é usado para se aumentar a
resolução vertical, retirando o sinal dos maiores offsets, associados a menores
freqüências.
A fig. 4.12.1 mostra um exemplo do desenho e objetivos da aplicação de mutes
interno e externo.

4.13 Empilhamento (stack) total e parcial

Empilhamento (ou stack) é a soma (ou superposição) de todos os traços de uma


família CDP (no caso de stack total). Também comum (principalmente para estudos de
AVO) é o empilhamento por grupo de afastamento (próximos, médios e afastados, ou
near, mid e far). Obtendo-se estimativas do ângulo de reflexão (a partir de velocidades
médias e offsets), define-se a linha – variável em tempo e afastamento – ao longo de um
CDP correspondente aproximadamente a ângulos determinados (por ex., 20, 120, 200,
etc). Empilhando-se as amostras entre duas dessas linhas, obtém-se o angle-stack, que é

97
usado em inversões elásticas. Deve-se registrar que durante a inversão, a amplitude (ou
coeficiente de reflexão) considerada como de um ângulo determinado (por ex., 50 ou 150)
corresponde, na realidade à soma de todas as amplitudes entre os ângulos mínimo e
máximo de cada faixa (por ex., 0 a 100 ou 10 a 200) – ou seja, processos de inversão
elástica apresentam também esta premissa.
A fig. 4.12.1 mostra um exemplo do desenho das faixas de ângulo, que definem as
janelas de cada angle stack.

Fig. 4.12.1 – Esquerda: gather CDP com linhas de mutes interno (azul, para retirada de múltiplas
residuais nos offsets próximos) e externo (vermelho, para retirar efeitos de estiramento e eventos
espúrios – por ex., reflexões entre 4,1 e 4,2 s – e aumentar resolução da parte rasa na seção
0 0 0 0 0 0
empilhada). Direita: linhas de ângulos (2 ,11 , 20 , 30 , 40 e 50 ) que definem as faixas de
empilhamento parcial por ângulo (angle stacks) (extraído de PGS, 2006).

Antes do empilhamento, as amostras relativas ao mesmo ponto em subsuperfície


são alinhadas horizontalmente pela correção do NMO (normal move-out), ou sobretempo
normal. Após o empilhamento, o traço resultante é localizado no ponto médio do
segmento definido pelas posições da fonte e do receptor.

O principal objetivo desta etapa é realçar o sinal em relação ao ruído aleatório,


com aumento da razão sinal/ruído sendo dado por n1/2, onde n é o numero de traços do
CDP.

Relacionado à correção do sobretempo normal é o fenômeno prejudicial do


estiramento (stretching), associado ao aumento real do período (tempo) de um evento,
quando comparado ao período do evento antes da correção de NMO. Isto é, a primeira
amostra de um pulso será deslocada, pelo estiramento, em um tempo ∆t qualquer. A
ultima amostra deste mesmo pulso, no entanto, sofrerá um deslocamento maior (as
vezes, significativamente maior, de acordo com o período e velocidade de correção).

98
Assim, ocorre mudança na forma original do pulso, pelas diferenças no deslocamento
entre amostras consecutivas em um traço durante a correção de NMO (fig 4.10.10).
Um efeito prejudicial do estiramento é uma perda – indireta, por não ser causada
pela propagação, mas existente – de altas freqüências. Por isso, algumas vezes é
realizado um silenciamento (mute) externo nos maiores afastamentos (por um percentual
máximo de estiramento ou desenho de um mute, como usado no item 4.12), procurando-
se preservar uma melhor resolução vertical, especialmente na parte rasa.

Um problema da técnica CDP é como a variação da amplitude com offset é


considerada, pois a amostra resultante tem amplitude corresponde a uma soma (que
pode ser vista como uma espécie de média) de diferentes amplitudes, cada um
correspondendo a um determinado afastamento. Esta ‘média’ é, naturalmente, diferente
da amplitude correta para uma propagação com afastamento nulo. Este fato, que se torna
especialmente danoso no caso de ângulos críticos (que devem ser observados e
cancelados antes do empilhamento), muitas vezes na prática não é tão grave, porque a
refletividade costuma ter uma variação suave com o ângulo de incidência, principalmente
nos ângulos mais comuns da sísmica de superfície (até 400).
Em relação a este fato, Rosa e Tassini (1990) citam os seguintes problemas
potenciais:
1. interfaces com alto contraste de impedância gerando ângulos críticos para
offsets relativamente curtos, causando deformação de fase e amplitude,
2. areias saturadas com gás gerando aumento de amplitude com afastamento,
alterando o traço empilhado, e
3. como o coeficiente de reflexão geralmente decresce com o ângulo de incidência,
a média dos menores coeficientes poderia ser muito pequena; felizmente, esta
variação é lenta para os menores offsets, sendo este fato problemático para
camadas rasas e/ou afastamentos maiores.
Segundo os autores, estas deficiências devem ser consideradas quando se deseja
realizar extração de parâmetros elásticos dos dados sísmicos.

4.14 Correção de fator Q (somente amplitude)

4.15 Se necessário, Tratamentos residuais (compensação de fase, tratamentos espectrais


e filtro finais)

Os filtros mais comuns são os de freqüência, usados para realçar eventos de


interesse e/ou atenuar ruídos. São aplicados geralmente de forma variante no tempo. Por
exemplo, em tempos menores (ate 1,5 s abaixo da superfície ou fundo do mar), costuma-
se usar um filtro com as altas freqüências mais ‘abertas’ (entre 60 e 90 Hz). Para maiores
tempos de propagação, ‘fecha-se’ progressivamente o corta-altas e, às vezes, ‘abre-se’
mais o corta-baixas (por ex, de 2,0 a 4,0 s um filtro 8-40 Hz e de 4,0 a 6,0 s um filtro 6-30
Hz).
Com objetivo informativo, alguns filtros (e aplicações) usados no processamento
sísmico são mostrados na tab. 4.15.1, extraída de Sheriff (2002)

Um processo com base teórica distinta da deconvolução, mas com o mesmo efeito
prático, é o chamado branqueamento espectral (spectral whitening). Como o nome
sugere, procura-se tornar o espectro de freqüência aproximadamente plano, aumentando-
se as menores amplitudes. O maior problema desta técnica é que geralmente os ruídos
de alta freqüência são realçados, com pouco (ou muito pouco) sinal de interesse sendo
beneficiado – este problema é comum à deconvolução spike, sendo geralmente

99
necessário nos dois casos a aplicação de um filtro corta-altas, o que quase sempre
retorna o dado ao conteúdo de freqüência (especialmente as altas) existentes antes da
aplicação do branqueamento ou deconvolução. Para atenuar o aumento da amplitude dos
ruídos de alta freqüência, costuma-se realizar o balanceamento espectral por janelas de
tempo, de foram que nos tempos maiores seja realizada uma menor amplificação das
altas freqüências.

Tab. 4.15.1 – Alguns tipos de filtros usados na geofísica e suas aplicações (extraído de Sheriff,
2002).

Existem alguns métodos para atenuação de ruídos aleatórios, o mais importante


sendo (após o empilhamento) o chamado decon f-x (que nada tem a ver com
deconvolução). Esta técnica também é a base para a interpolação f-x.

Extremamente útil e poderoso, e bastante robusto (desde que o dado seja de fase
zero), é um processo desenvolvido em 1975 na Petrobras por José Tassini e Francisco
Evangelista (segundo Duarte, 2003), chamado deconvolução iterativa (iterdec). O método,
explicado em detalhe em Rosa (2002) e Duarte (2003, que o chama ‘deconvolução
recursiva’) parte da premissa que o sinal possui fase zero e a função refletividade é
branca (ou seja, é totalmente aleatória).
Como o sinal é considerado de fase zero, os máximos e mínimos do traço sísmico
podem ser considerados como uma primeira aproximação da função refletividade. Estes
máximos e mínimos são convolvidos com uma assinatura estimada, gerando um traço
sintético que é subtraído do traço original, gerando um resíduo. Este resíduo é
incorporado à primeira função refletividade, gerando uma nova função, que será
convolvida e novamente comparada com o traço real, até obter-se um erro mínimo.

100
Recentemente, este método foi revisto e bastante melhorado, aumentando-se o
numero de iterações usadas, entre outros procedimentos (Rosa et al., 2004),
conseguindo–se uma extrapolação para as altas freqüências tão boa que se tornou
necessária uma interpolação espacial (entre traços e linhas) para se evitar o alias
espacial. Esta nova versão do iterdec tem sido chamada de ‘iterdec turbinado’, ‘iterdec
C++’ e ‘segunda geração do iterdec’. A premissa fundamental do método (de que o dado
seja de fase zero) continua necessária.

101
5 – NOÇÕES DE INTERPRETAÇÃO SÍSMICA

Antes de se interpretar um dado, é importante observar parâmetros de


processamento e a seqüência de aquisição, para avaliar a necessidade e/ou possíveis
ganhos de um novo programa sísmico e/ou reprocessamento. Como regra geral, no caso
de dados adquiridos há mais de cinco anos e/ou processados há mais de dois anos,
deve-se sempre considerar a necessidade de nova aquisição e/ou processamento.

O uso de sísmica 3D talvez seja, na prática, a técnica mais eficiente e útil, depois
do conceito CDP.

Após o processamento, as amostras geralmente são equalizadas para


apresentação (interpretação), devido a grande diferença de amplitude entre elas. Esta
equalização corresponde a um ajuste pela média de uma determinada janela de tempo –
naturalmente, uma equalização exagerada pode esconder variações de amplitude
importantes, tendo assim que ser realizada com atenção.

Os tipos de apresentação mais comuns são wiggle, área variável e densidade


variável (fig. 5.1). O primeiro é mais usado no processamento, em que as amplitudes são
mostradas de forma continua por uma curva (proporcional aos valores de amplitude).
Quase sempre é usada conjuntamente com área variável, em que eventos com mesma
amplitude são ‘preenchidos’ com cores – geralmente, é usado um preenchimento das
amplitudes positivas com a cor preta, e as amplitudes negativas sem preenchimento.
Densidade variável é o mais corriqueiro na interpretação, e usa uma gradação de cores
para indicar variações de amplitude – na Petrobras, a escala mais comum é a gradação
entre o branco para as amplitudes máximas negativas e preto para as máximas positivas,
com os diversos tons de cinza entre estes extremos. Também comum é a gradação
vermelha (negativo) / azul (positivo), com as gradações muito coloridas sendo geralmente
benéficas para interpretação estrutural, com a desvantagem de cansaço visual se usadas
continuamente.

Fig. 5.1 – Tipos de apresentação do dado sísmico: wiggle com área variável (esquerda) e
densidade variável com a escala de cinza (mais comum) e azul-branco-vermelho (direita).

102
5.1 Sismograma Sintético

Representa o modelo convolucional de um pulso sísmico aplicado em uma função


refletividade obtida a partir dos perfis sônico e (quando presente) densidade, como
mostrado na fig. 5.1.1. Algumas vezes, o perfil de densidade não é considerado (por não
ser confiável ou não estar disponível), mas o efeito desta simplificação é geralmente
considerado pequeno por alguns autores (Sheriff, 1992; Rosa, com. verbal).

Fig. 5.1.1 – Geração de sismograma


sintético (st) a partir do perfil de
impedância (It, que fornece a
refletividade rt), usando o modelo
convolucional (eq. 2.5.1) e pulso
(sintético ou obtido do próprio dado)
(extraído de Rosa, 2002).

A assinatura usada pode ter características similares ao pulso observado nos


dados reais ou ser idealizada. Um pulso idealizado geralmente é de fase zero, sendo os
mais comuns o tipo Ricker (definido por uma freqüência central dominante), filtro passa-
banda e Butterworth. A obtenção de um pulso a partir de dados reais, apesar de mais
complicada, geralmente fornece melhor correlação entre o sismograma sintético e o dado
real. Estes pulsos podem ser obtidos de forma estatística (uma ‘média’ dos pulsos de uma
determinada janela temporal e espacial) ou determinísticos (o pulso que fornecer melhor
correlação entre o dado real e o sintético).
Quando não ocorre uma boa correlação entre o sismograma sintético e os dados
reais, além das limitações de qualidade do dado (ruídos, etc), uso de parâmetros
incorretos para fatores de propagação no processamento e resolução vertical, deve-se
sempre lembrar que a sísmica de superfície amostra uma região espacial definida pela
zona de Fresnel – de dezenas de metros – que é muito superior à região em volta do
poço imageada pelos perfis. Algumas vezes tem que ser levado em consideração também
a dispersão (com velocidades sônica sendo maiores por possuírem maior conteúdo de
altas freqüências) e/ou anisotropia (principalmente para poços direcionais).
Praticamente todos os pacotes de interpretação possuem um aplicativo para
geração de sismograma sintético, que é a primeira etapa na interpretação, pois permite
identificar nos dados sísmicos eventos de interesse geológico observados em perfis,
testemunhos e amostras laterais.

103
Em poços que não têm perfil sônico – situação relativamente comum em campos
terrestres – é possível, sob algumas circunstâncias, gerar-se uma curva sintética.
Um aplicativo foi desenvolvido por Freire et al. (1993), relacionando de forma não
linear o tempo de trânsito de uma onda compressional com a resistividade, através de
cinco constantes que possuem informações sobre propriedades físicas (inclusive
elétricas) e seus constituintes sólidos e fluidos. Inicialmente, são usados poços que
possuam curvas de resistividade e sônico, para obtenção dos parâmetros das equações,
em trechos com lito-resistividade similar. Além dos parâmetros, é obtida uma medida do
erro da curva sintética com a real. O método foi usado com sucesso em campos do
Recôncavo, mas não funciona em reservatórios com hidrocarbonetos.
Outra técnica, apresentada por Souza Jr e Sousa (1993), usa o perfil neutrônico e
análises de regressão (Teoria Geral dos Modelos Lineares) no pacote SAS. Os autores
citam que a porosidade neutrônica é a variável com melhor correlação com o sônico,
vindo a seguir densidade e raios gama. Este método foi comparado com as fórmulas de
Gardner e Faust em poços da porção emersa da Bacia Potiguar. Da mesma forma que a
técnica de Freire et al., são individualizadas formações com características similares de
perfis, para obtenção de equações e parâmetros de correlação. Os resultados
apresentados mostram que tal ferramenta tem grande utilidade, sendo, no entanto
necessário, quando ocorre gás, uma análise separada e mais cuidadosa.

5.2 Introdução à interpretação

5.2.1 Introdução
As estações de trabalho e programas de interpretação (Landmark, Geoquest,
Gocad, Petrel, etc) permitem um mapeamento relativamente rápido de vários eventos,
principalmente os associados a fortes contrastes de amplitude (fundo do mar, marco azul,
topos e bases de reservatórios turbidíticos, etc). No entanto, o trabalho de interpretação
não pode ser somente esta ‘topografia de sub-superfície’, como já foi considerado (às
vezes, com razão), a atividade do intérprete. Durante o mapeamento, o geólogo ou
geofísico deve ir criando mentalmente a evolução estrutural, sistemas e eixos
deposicionais, etc, de forma a entender a evolução geológica, variações de espessura,
possíveis rochas geradoras e caminhos de migração do óleo, etc.
Mais uma vez, as ferramentas atuais melhoram e tornam mais rápido este
trabalho, com recursos de visualização – principalmente tri-dimensionais – que auxiliam
bastante o entendimento da geologia atual e dos processos evolutivos de uma área.
Naturalmente, o uso dessas ferramentas será tanto melhor quanto maior for a
atenção durante o trabalho e conhecimento de geologia do intérprete. No caso de
reservatório, a disponibilidade de mais informações de poços é muito positiva – por outro
lado, a necessidade de definição detalhada de características das rochas (geralmente,
impossível de ser totalmente conseguida, pelas características do método sísmico
apresentadas nos capítulos anteriores) faz com que sempre reste muito que fazer.

É relativamente comum, ao se interpretarem gerações distintas de levantamentos


– principalmente caso 2D – a existência de erros de amarração (mis-ties) entre eventos
observados em diferentes direções (por ex., em linhas paralelas e perpendiculares ao
mergulho de uma camada). Estas diferenças podem ser causadas por diferenças em
velocidades de processamento, em parâmetros de deconvolução e filtragem, em ajustes
de fase, etc. Erros muito severos e constantes podem ser causados por problemas de
posicionamento (navegação), especialmente em dados antigos. Outra verificação
necessária é em relação à polaridade do dado, nem sempre de fácil constatação;

104
geralmente, usa-se o fundo do mar, mas lobos laterais pronunciados no pulso podem
dificultar esta análise.

Talvez os maiores problemas da atividade de interpretação sejam o pouco tempo


disponível e a experiência necessária, ambos quase sempre insuficientes para o
problema que se necessita atacar. Com mais tempo disponível, o geofísico tem mais
chance de melhorar o trabalho, vendo com mais detalhe os dados. A experiência auxilia a
que isso seja feito usando-se um tempo (muito) menor – no entanto, isto pode ser
perigoso. Pode-se afirmar que quanto maior o prazo, melhor o resultado. Como exemplo,
vejamos a interpretação por picagem automática – tal procedimento pode ser, a principio,
interessante, mas o que não pode ser feito é uma não verificação pelo geofísico dos
resultados, através de controle de qualidade, considerações geológicas, análise da
qualidade dos dados e dos ruídos, etc.

5.2.2 Sísmica 3D
Um levantamento 3D fornece um volume de dados, a partir do qual se podem
extrair seções verticais nas direções paralela (in-line), ortogonal (cross-line, ou x-line) e
aleatória à direção de aquisição e seções horizontais (time-slices) – existem também os
horizon-slices, naturalmente somente após alguma interpretação ter sido realizada. Além
de serem mais próximos da realidade que dados 2D, dados 3D permitem uma melhor
interpretação, com rastreamento e correlação de falhas e horizontes mais precisa e
confiável, além de mais rápida. Os diversos benefícios da técnica 3D – inclusive na
relação custo/beneficio – em comparação com 2D para caracterização de reservatórios e
interpretação exploratória são extensivamente citados na literatura há pelo menos duas
décadas.
Time-slices são extremamente úteis na definição de feições estruturais e
estratigráficas, indicando fechamentos, domos de sal, etc. São usados também para
controle de qualidade da aquisição e do processamento, sendo comum a observação dos
traços próximos (near-traces) para verificação de problemas de navegação e
desbalanceamento de amplitudes (causados por problemas de aquisição e/ou
processamento) em 3Ds. Exemplo de seção inline¸ crossline e time-slice são mostradas
na fig. 5.2.2.1.

Fig. 5.2.2.1 – Seções verticais de um 3D marítimo nas direções paralela (inline, esquerda) e
ortogonal (crossline) à aquisição e fatia em tempo constante (time-slice, à direita).

105
A interpretação volumétrica permite – principalmente quando se trabalha com
eventos associados a fortes anomalias de amplitude – uma análise relativamente rápida,
verdadeiramente tri-dimensional e de relações entre amplitudes e altos estruturais em
tempo real. Existem diversas formas e pacotes de interpretação, com uma discussão
detalhada estando acima dos objetivos desse curso. O que deve ser registrado é que é
necessário um cuidado para que a forma de apresentação não se sobreponha ao
conteúdo da interpretação feita, já que é possível – e algumas vezes efetivamente ocorre
– que volumes multicoloridos, que atraem a atenção, sejam usados como um fim em si
próprio, esquecendo-se o que exatamente estamos tentando realçar, o significado físico
das manipulações visuais e as limitações, premissas e incertezas do dado que usamos
para chegar àquelas figuras tão bonitas e coloridas.
Não existe uma ‘receita de bolo’ rígida que seja a melhor metodologia para
interpretação, mas geralmente – após a confecção de sismogramas sintéticos e
identificação de níveis (horizontes, marcos, etc) de interesse na sísmica, ocorre uma
interpretação em uma malha ‘aberta’, ou seja, não são usadas todas as linhas, para se ter
inicialmente uma idéia do ‘geral’ da geologia de uma forma mais rápida. A partir desta
análise preliminar, pode-se usar um mapeamento (picking) automático para agilizar o
processo. Geralmente, algumas repetições são necessárias para se conseguir um bom
resultado – que, naturalmente, é função da qualidade do dado sísmico e da reflexão
sendo mapeada (i.e., eventos associados a altos contrastes de impedância, como fundo
do mar, marco azul, topo e base de reservatórios turbidíticos, etc, são melhores
candidatos para processos automáticos).
Processo similar pode ser usado no mapeamento de falhas, porém o mapeamento
automático costuma ser menos eficiente.
Atributos geométricos, também discutidos no cap. 6, são os associados – como o
nome sugere – a características de forma de um evento (geralmente, horizonte, camada
ou plano de falha). Os mais comuns são mergulho e azimute, que são freqüentemente
usados para definição de feições estratigráficas e estruturais sutis. Existem vários
trabalhos sobre o assunto, a maioria mostrando a necessidade de se procurar extrair, em
estações de trabalho, todas as informações possíveis de uma visualização volumétrica de
horizontes e atributos, com uso de sombreamento e diferentes ângulos de iluminação e
rotação. Como exemplo, Rijks e Jauffred (1991) mostram resultados com a utilização de
displays de atributos de horizontes (ou geométricos, como mergulhos e azimutes) para
definição de feições estruturais e estratigráficas sutis, com análise separadas de cada
atributo, pois o imageamento por um atributo depende da relação geométrica entre o
plano de falha e horizonte. Os autores apresentam um exemplo do Mar do Norte
mostrando a utilidade e complementação ao se observar dip e azimute (fig. 5.2.2.1). No
mesmo artigo, é também exemplificado como a simples mudança na direção de
iluminação pode alterar a interpretação realizada (fig. 5.2.2.2), mostrando a importância
de se ‘varrer’ todo o dado com diferentes parâmetros de visualização.
A iluminação artificial de um evento é usada para evidenciar feições,
principalmente as mais sutis. Diferentes sombreamentos, ângulos de iluminação e rotação
são testados, observando-se continuamente as superfícies e volumes com o objetivo de
melhor entendimento de processos deposicionais e/ou erosionais, possíveis mudanças de
fluidos, padrões estruturais, etc.

106
Fig. 5.2.2.1 – Atributos de horizontes (geométricos) dip (esquerda) e azimute, mostrando presença
de falhas sutis, não observadas durante a interpretação (extraído de Rijks e Jauffred, 1991).

Fig. 5.2.2.2 – Diferentes ângulos de


iluminação (A e B) fornecem diferentes (e
complementares) imagens de um plano de
falha (extraído de Rijks e Jauffred, 1991).

Já pelo final dos anos 60 alguns geofísicos perceberam reflexões isoladas e


mudanças no caráter das seções, que em 1975 foram o inicio do conceito de estratigrafia
de seqüências baseada em onlap, offlap e outros padrões morfológicos (Forrest, 2000).
Inicialmente, não houve muito crédito nessas idéias, mas à medida que começaram a
ocorrer sucessos em poços, elas foram levadas a sério. Algumas reflexões isoladas de
altas amplitudes foram chamadas de bright spots, originando a tecnologia usada até hoje
(Chopra e Marfurt, 2005). É sabido que alguns artigos de pesquisa (por ex., Churlin e
Sergeyev, 1963) já citavam detecção direta de HC através do dado sísmico, mostrando
correlação com dados de poços. No inicio, bright spots eram usados com interesse no
óleo algumas vezes associado ao gás, com somente mais tarde se percebendo que
muitas vezes o óleo não ocorre. Mesmo com essa concepção errada no começo, bright
spots impulsionaram bastante o uso da sísmica na exploração de petróleo.

O ‘cubo de coerência’ pode ser considerado como estabelecido por Bahorich e


Farmer (1995) – apesar de controvérsias judiciais sobre a patente do mesmo, é mais
provável que a idéia tenha sido aplicada, da forma como é conhecida hoje em dia, na
Amoco. É interessante registrar que o problema que se procurava resolver era o de
diferenças entre levantamentos 2D distintos e sobrepostos (Chopra e Marfurt, 2005) –
com esse objetivo, pensou-se em atributos o mais independente possíveis do pulso, com
o conseqüente uso de uma cross-correlação normalizada.
É uma ferramenta muitas vezes útil, especialmente para definição de geometrias
estruturais e/ou deposicionais mais sutis, nem sempre claras na sísmica convencional. É
baseada em medidas de similaridade e diferenças entre traços (ou grupos de traços)
adjacentes, através de time-slices ou superfícies paralelas ou coincidentes com

107
horizontes interpretados. Uma característica interessante é que as feições
estruturais/deposicionais são observáveis sem nenhuma interpretação, o que, além de
permitir uma avaliação mais rápida em algumas situações, significa que não existe
nenhuma tendência introduzida pelo interprete.
Se possível, recomenda-se a observação simultânea (ou seja, com sobreposição)
de time-slices de dados sísmicos e cubos de coerência, pois tal procedimento costuma
realçar ainda mais o padrão estrutural.
Deve ser registrado que, muitas vezes, a contribuição do dado (cubo) de coerência
é marginal, principalmente porque quase tudo que esse tipo de dado mostra pode ser
observado no dado convencional. No entanto, isso não invalida a necessidade de sempre
se gerar um cubo de coerência, mesmo porque tal procedimento é relativamente rápido e
simples.

Lu et al. (2005) apresentam uma metodologia para obtenção de cubos de


coerência que usa estatísticas de ordem superior (momento de 4ª ordem normalizado),
diferente da convencional, que estima correlações nas direções inline e crosslines e usa a
média geométrica como medida de coerência. Os autores apresentam resultados, em
dados reais, com melhorias não muito significativas, mas presentes. É garantido que o
aplicativo não é muito demorado.

5.2.3 Horizontalização de eventos e seções


Partindo-se da premissa – muitas vezes razoável geologicamente – que o topo de
uma camada tenha sido horizontal ao final da deposição, é natural se considerar que se
horizontalizando um evento interpretado como correspondente a um topo, pode-se
observar a paleogeografia da camada – geralmente, estamos interessados principalmente
na base e variações de espessura, associadas a causas deposicionais e/ou estruturais.
Este procedimento é simples e rápido, estando disponível na maioria dos pacotes
de interpretação. Mais uma vez, devem ser lembradas as premissas, como por ex.
possíveis erosões ou quaisquer outros processos pós-deposicionais que tenham afetado
a espessura da camada são desconsiderados.
Exemplos da utilidade desta técnica são relativamente comuns, sendo dois aqui
citados. Rodriguez et al. (1995) realizaram uma interpretação de detalhe em um 3D sobre
o campo de Arabaiana (RN) para delimitar a ocorrência de reservatórios de gás profundos
(3.700 m). Os autores identificaram na sísmica dois tipos de reservatórios observados em
perfis: leques aluviais (de má qualidade) e sistemas fluviais (de qualidade muito melhor),
com as feições associadas a sistemas fluviais sendo mais claras em seções
horizontalizadas ao nível do topo do reservatório (fig. 5.2.3.1). Rodriguez (2002) mostra
um caso com dificuldades na definição do topo, base e níveis internos em um reservatório
muito espesso, e o grande auxilio da horizontalização de seções – apesar de ainda
permanecer, as incertezas foram razoavelmente reduzidas.

Fig. 5.2.3.1 – Seção sísmica


horizontalizada ao nível do topo
do reservatório indicando, à
direita da falha de Arabaiana,
feições de leques aluviais
(extraído de Rodriguez et al.,
1995).

108
5.3 Conversão tempo-profundidade

A conversão de dados de tempo para profundidade é, geralmente, a etapa mais


crítica e sujeita a erros da interpretação, infelizmente geralmente impactando a estimativa
de reservas.
Os dados corretos – e que são usados para amarração e calibração – são,
naturalmente, informações de poços, pois fornecem a profundidade verdadeira. Também
necessária para verificação de qual evento sísmico (aumento ou decréscimo de
impedância acústica, e sua quantificação) é o perfil sônico. Check-shots e/ou VSPs são
dados úteis e complementares, pois mostram valores de velocidade para tempos e
profundidades de interesse e permitem correção do drift, fenômeno associado à dispersão
(diferentes freqüências viajam a diferentes velocidades) que causa uma velocidade
superior – para o mesmo pacote sedimentar – nos perfis sônicos que em dados sísmicos.
Existem diversas maneiras de se realizar a conversão, com quase todas sendo
baseadas em uma espécie de interpolação das informações de poços. Costuma-se usar
nesta interpolação velocidades de processamento – apesar dos erros do uso deste tipo de
informação, como citado no item 4.8.
Na Petrobras, um aplicativo desenvolvido pelo geólogo Fouad Gosh e geofísicos
Carlos Eduardo Pontes e Paulo Camargo, obtém velocidades médias (VM) entre a
superfície e o nível de interesse, a partir de velocidades intervalares calculadas aplicando-
se Dix em velocidades de processamento (empilhamento, ou, mais comumente, de
migração). As VM são ajustadas nos poços por operações de gridagem.
Praticamente todos os métodos que usam raio-vertical trabalham de forma similar,
com as maiores diferenças sendo em como o ajuste entre VM de processamento e correta
(a partir de poços) é realizado e como a distribuição das diferenças (ajustes, ou erros)
entre velocidades de processamento e de poços é realizada (com o uso de geoestatística
sendo bastante comum e recomendado, geralmente usando informações de poços como
variável hard).
Um exemplo é o trabalho de Journel et al. (1992), que apresentam a geoestatística
como ferramenta útil para integração de diversos tios de dados, como por ex., sísmica 3D
com poços. Os autores classificam as informações como primárias (hard, de poços) e
secundárias (softs, da sísmica), com dois algoritmos para tratamento dos dados:
interpolação, que gera somente uma resposta, e estocásticos (ou simulação), que
permitem múltiplas realizações. Os autores, analisando um reservatório situado sobre um
domo de sal no Golfo do México, testaram diferente métodos para conversão, a partir da
leitura do tempo sísmico da camada e dos valores de profundidade dos horizontes
geológicos correspondentes. Os métodos usados foram krigagem ordinária, krigagem
com deriva externa, collocated cokriging e simulação condicional com collocated
cokriging, sendo que o terceiro apresentou melhores resultados. Moinard (1987) também
apresenta um caso de utilização de krigagem para conversão no mapeamento de um
recife no norte do Texas. Hwang e McCorkindale (1994) reportam o uso de geoestatística
para conversão, como krigagem, krigagem com deriva externa e simulação condicional
sendo avaliados, no campo de Troll (Noruega).
Outra forma – que na verdade pode ser considerada uma pequena variação da
idéia acima, e que algumas vezes é usada na exploração – é o método de isópacas.
Nesta técnica, isópacas em tempo sísmico são convertidas para espessura através de
velocidades intervalares, geralmente obtidas por perfis (e, mais raramente, por Dix).
Figueiredo e Rambo (1994) compararam este método com o de Gosh-Pontes-Camargo,
reportando que o segundo se mostrou relativamente acurado, com erros nas estimativas
de profundidade de 44 m em um poço e 100 m em outro.

109
Devido à incerteza – maior ou menor, mas sempre presente – de qualquer método
de conversão, a realização de análises de incerteza é sempre recomendável. Na prática,
muitas vezes a falta de tempo não permite tal exercício. Quando realizada, uma forma
popular é Monte Carlo. Como exemplo – nada recente, mostrando a importância do
assunto – da Petrobras, Freitas e Souza (1992) usaram esta técnica para analisar a
sensibilidade que mudanças nas velocidades intervalares causam na conversão em uma
acumulação do Mar do Norte. O produto são diversos mapas de profundidade e a
correspondente probabilidade (grau de ocorrência possível) associada.
Atualmente, em estudos de reservatório procuram-se avaliar três cenários (P10,
P50 e P90), principalmente para robustez de um determinado projeto.
Um exemplo de como valores de velocidades podem determinar a forma de um
mapa em profundidade, na fig. 5.3.1 é apresentado um mapa do topo do arenito
Namorado no campo de Albacora. Em tempo (esquerda), ocorre um fechamento
estrutural secundário na parte oeste do reservatório, mas em profundidade (direita) este
fechamento desaparece. A causa deste pull-up – o aumento da lamina d’água (meio que
tem baixa velocidade, ‘aumentando’ o tempo de reflexão) para leste – é relativamente
comum, devendo ser observada com atenção em dados marítimos.

Fig. 5.3.1 – Mapas em tempo (esq.) – com falso fechamento estrutural secundário a oeste – e em
profundidade (dir.) do topo do arenito Namorado do campo de Albacora.

5.4 Inversão

Este item poderia ter sido incluído no cap. 4 (processamento), mas como
processos de inversão – apesar de realizados pelos grupos de processamento – requer
um envolvimento continuo e o mais detalhado possível do intérprete.

A inversão pode ser definida como a operação inversa da aquisição, procurando-


se basicamente a obtenção da função refletividade, que indica variações de impedância.
Procuram-se corrigir fatores de propagação e aquisição, extrair velocidades intervalares e
converter a função refletividade em uma estimativa válida de parâmetros elásticos. A
partir dos valores de impedância de uma camada e da série de refletividade, obtêm-se,

110
recursivamente estimativas de impedâncias para camadas subseqüentes (geralmente,
abaixo da primeira). A fig. 5.4.1 mostra de forma simplificada como funciona a modelagem
(processo ‘direto’) e o que se obtém com processos de inversão.

Processos de inversão sísmica pretendem, basicamente, extrair informações de


refletividade a partir do dado, já que a refletividade pode indicar características dos fluidos
e/ou rochas de sub-superfície. Existem alguns livros (e.g., Lindseth (1982)) e centenas de
artigos (por ex., Lavergne (1975), Lindseth (1979), Oldenbur et al. (1983), Cooke e
Schneider (1983)) sobre o tema, com alguns sendo apresentados e comentados aqui,
após uma breve explicação sobre o assunto e noções sobre alguns métodos. Um dos
pioneiros foi o de Kunetz (1963).

Para uma boa inversão, é desejável que o dado sísmico tenha uma alta razão
sinal/ruído e o maior espectro de freqüências possível. Durante o processamento, deve-se
sempre que possível preferir procedimentos determinísticos em vez de estatísticos, e
algumas etapas como mutes, estáticas e velocidades devem ser tratadas com grande
cuidado. Também se devem procurar amplitudes verdadeiras, o que sugere o uso de
migração Kirchhoff. Em resumo, deve-se procurar fazer o que Hall (1990) chamou de
“properly processing”.

Entre as vantagens teóricas, está a possibilidade de se obter estimativas


quantitativas da distribuição de alguns parâmetros petrofísicos – na prática, análises
quantitativas geralmente não são confiáveis, por diversas razoes, com alguns autores (por
ex., Rosa, 2002) considerando que esta vantagem não ocorre na prática. Outra vantagem
é o uso de informações não sísmicas (poços, geologia) para obtenção do resultado.

Em tese, a inversão é um processo simples, com a premissa principal de que o


traço pode ser representado por um processo de convolução (eq. 2.5.1). Na prática,
sempre permanece um ruído no dado e o pulso (wavelet) estimado nunca é o
efetivamente propagado. Pode-se usar um pulso constante em uma janela (temporal e
lateral) limitada para minimizar efeitos da não-estacionaridade. Geralmente, a escolha do
melhor modelo envolve uma minimização de erros (ou diferenças) entre o dado real
(registrado) e um dado sintético gerado a partir de um modelo geológico. Uma maneira
popular de fazer esta minimização é por mínimos quadrados.

No geral, pode-se considerar que processos de inversão são instáveis, por isso
sempre se procura na prática usar métodos e dados que diminua o máximo possível esta
instabilidade. Talvez o maior problema seja a não-unicidade, ou seja, um dado pode ser
ajustado a diferentes modelos – assim, a escolha do modelo mais apropriado envolve o
conhecimento da teoria dos processos de propagação de ondas, tratamento de sinal,
petrofísica, inversão propriamente dita e de interpretação geológicas.

Uma inversão correta necessitaria de um espectro de freqüências completo. Já foi


dito que a sísmica não possui os componentes de altas freqüências (acima de 80 a 100
Hz) devido à inelasticidade e/ou reverberações e de baixas (ou muito baixa, inferiores a 3
ou 5 Hz) freqüências por filtragens durante a aquisição e/ou processamento necessárias
para atenuação de ruídos de altas amplitudes. A partir disso, existem duas formas
principais de se realizar inversão: restringindo-se ao espectro disponível na sísmica ou
procurando-se obter as freqüências ausentes de alguma maneira. O primeiro processo
honra mais o dado real, mas sofre de pequena resolução vertical e a segunda opção –

111
apesar de mais usada – tem sempre o problema de como se ‘injetar’ freqüências fora da
sísmica, com alguns aspectos desse problema sendo discutidos a seguir.

Fig. 5.4.1 – Esquema simplificado (extraído de folder da Jason) de processos de modelagem


(acima, em que um modelo geológico é convolvido com um pulso) e de inversão (abaixo), em que
informações geológicas são obtidas a partir de dados sísmicos pela deconvolução do pulso.

Uma inversão correta necessitaria de um espectro de freqüências completo. Já foi


dito que a sísmica não possui os componentes de altas freqüências (acima de 80 a 100
Hz) devido a inelasticidade e/ou reverberações e de baixas (ou muito baixa, inferiores a 3
ou 5 Hz) freqüências por filtragens durante a aquisição e/ou processamento necessárias
para atenuação de ruídos de altas amplitudes. A partir disso, existem duas formas
principais de se realizar inversão: restringindo-se ao espectro disponível na sísmica ou
procurando-se obter as freqüências ausentes de alguma maneira. O primeiro processo
honra mais o dado real, mas sofre de pequena resolução vertical e a segunda opção –
apesar de mais usada – tem sempre o problema de como se ‘injetar’ freqüências fora da
sísmica, com alguns aspectos desse problema sendo discutidos a seguir.

A inversão que usa o próprio dado sísmico de entrada é às vezes chamada de


banda limitada, pois o espectro de amplitude (‘banda’) é limitado nas baixas (não foram
registradas na aquisição e/ou foram retiradas no processamento) e altas (perdidas por
inelasticidade e reverberações) freqüências.

As baixas freqüências geralmente são recuperadas de perfis ou de análises de


velocidade do processamento. Para as altas, também se podem usar os perfis, porém
com mais cuidado, pois os perfis são muito mais ricos em sinal nas altas freqüências,
enquanto que no dado sísmico nesta faixa o ruído predomina. Um exemplo de como a
ausência de uma faixa de freqüências pode prejudicar um processo de inversão é

112
mostrado na fig. 5.4.2 – no caso, a faixa de 6 a 11 Hz é retirada de um perfil, mostrando
como se alternam erros positivos e negativos de velocidade em relação ao correto.

Fig. 5.4.2 – Indicação de como a


ausência de baixas freqüências (6 a 11
Hz, no caso) pode afetar a inversão
(extraído de Lindseth, 1979).

A inversão sparse-spike procura estimar um conjunto de refletividades esparsas,


tendo um forte componente estatístico e requerendo um atento acompanhamento e
parametrização (por ex., valores máximos e mínimos de refletividade e amplitudes) dos
geofísicos de processamento e do intérprete.
A inversão baseada em modelo – como o nome sugere – usa um modelo inicial
(geralmente obtido a partir de perfis), que é convolvido com alguns pulsos, até se obter
um dado mais próximo do real. Não raramente, o resultado pode ter um aspecto ‘blocado’,
ou ‘bolo de noiva’, com a estratigrafia de perfis sendo superestimada entre os poços.
Na inversão aplicada após o empilhamento (post-stack) pretende-se extrair a
impedância acústica. Este processo pode ser visto como o inverso da geração de
sismogramas sintéticos – na verdade, uma comparação entre os dois métodos pode
auxiliar o entendimento do que (e como) se pretende fazer.

Um processo de inversão desenvolvido técnicos da Petrobras – principalmente por


José Tassini e André Romanelli –, não tem seu uso disseminado como deveria, pois é um
processo simples, rápido, barato, robusto, de fácil aplicação e que pode gerar
informações muito boas a excelentes. É denominado Sevel (de seção velocidade),
gerando dados de pseudo-impedância acústica e sendo realizado em duas fases: a
primeira, a deconvolução iterativa, é descrita no cap. 4. A segunda, em que se deseja
restabelecer as baixas freqüências inexistentes nos dados sísmicos, usa informações das
análises de velocidade do processamento e/ou perfis de poços.
Apesar de disponível há duas décadas, e recomendado – inclusive com exemplos
reais, alguns com significativo impacto econômico (por ex., Freitas et al, 1996) – na
caracterização de reservatórios por alguns autores há mais de 10 anos, especialmente
em áreas de boa qualidade, ainda é necessário a recomendação que geofísicos, geólogos

113
e gerentes de reservatórios solicitem aos grupos de processamento sísmico a realização
deste processo, que deveria ser parte do fluxo padrão de processamento para
reservatórios (senão também para a interpretação).

Russel e Hampson (1991) comparam três métodos (banda limitada, sparse-spike e


baseada em modelo) de inversão pós-empilhamento em dois dados reais e sintéticos.
Nos dados sintéticos (sismograma e cunha), sparse-spike funcionou melhor. Nos dados
reais (areia com gás e recife), o método de banda limitada teve a variação lateral mais
próximo da geologia, porém com pior resolução vertical. Os autores concluem que o
banda limitada é mais robusto, apesar de menos preciso.

Em maio de 1989 ocorreu um seminário sobre os aspectos práticos de inversão


em Berlim, patrocinado pela EAEG (atual EAGE). Dados sísmicos (após empilhamento) e
perfis foram fornecidos antecipadamente a algumas companhias (IFP, Western, Statoil,
Simon-Geolithic e CGG) interessadas, e os resultados das inversões (acústicas) foram
comparados com perfis de poços não fornecidos (testes-cego, ou blind-tests). Os
resultados foram publicados na Revue de l’IFP em 1990, com alguns autores reclamando
da qualidade do dado, a não informação de velocidades do processamento e o
fornecimento de somente o perfil de impedância (em vez do sônico e densidade
separadamente). Na introdução, Grau (1990) define inversão como se encontrar um
modelo razoável de subsuperfície que seja compatível com o dado sísmico observado –
em outras palavras, estimar parâmetros elásticos em uma solução que se ajuste tanto à
sísmica quanto a informações a priori (perfis, estratigrafia, estrutural, etc).
Neste conjunto de dados, Hall (1990) limitou-se a usar as altas freqüências
recuperáveis durante o processamento, não incorporando informações ‘extras’
(geralmente extraídas de perfis), pois ele considera que ocorrem grandes diferenças entre
o modelo e a realidade distante dos poços. As baixas freqüências foram obtidas através
de filtragem nos perfis de impedância (com densidades geradas via Gardner), pois
velocidades de processamento não foram fornecidas – este método requer o que o autor
classifica de necessidade preliminar do uso de interpretação para avaliar Gardner. A
inversão em si foi relativamente simples, sendo uma simples translação de coeficientes de
reflexão para impedâncias acústicas, normalizadas por dados de perfil.
Na mesma publicação, Dequirez e Richard (1990), do IFP, consideram que a
ausência de baixas freqüências é bastante prejudicial para fazer uma interpretação
geológica. Os autores consideram que os métodos de inversão broadband constrained
têm melhor resultado (menor não-unicidade e restauração de interfaces abruptas)
usando-se a premissa sparse-spike ou parametrização geológica das camadas. O sparse-
spike pode ser visto como se obter a menor soma dos valores absolutos de coeficientes
de reflexão em função do tempo. Uma premissa básica é que a refletividade é composta
de uma série de eventos maiores sobrepostos em um background de eventos com menor
amplitude. A parametrização geológica, como o nome sugere, significa usar inicialmente
um modelo a partir de perfis de poços e horizontes interpretados sismicamente.

Wagner et al. (2006) mostram como a ausência de baixas freqüências em dados


streamer produz artefatos no resultado de inversão acústica, em comparação com dados
OBC (que são mais ricos em amplitudes na faixa 2,5 a 8 Hz), no campo de Foinaven (Mar
do Norte). Analisando os dois tipos de levantamentos de 1995 e 1998, eles também
observam como a ausência das baixas freqüências afeta o possível monitoramento. Para
a análise 4D foi usado um modelo que considera saturações uniformes quando estas são
altas ou elevadas e não uniformes em saturações intermediarias, que mostrou que a
previsão de SGÁS é mais confiável e realista usando OBC.

114
Contreras et al (2005) apresentam o resultado da aplicação de um método de
inversão estatística (Markov-Chain Monte Carlo) em campo de águas profundas no GOM
(porosidade superior a 30%, permeabilidade variando entre 100 a 4000 mD) em que IP e
IS diferenciam folhelho e areia e fluido. A técnica de inversão usa uma ‘restrição de
variograma geoestatisticamente correto’ para contornar alguns problemas com métodos
estatísticos tradicionais. Esta técnica é desenhada para fazer os residuais variarem dentro
da faixa estatística definida pela estimativa do usuário da quantidade relativa de ruído no
dado. O método honra perfis e angle-stacks, usa critério consistente estatisticamente para
ajuste sem variações espaciais não-realistas e permite a obediência explicita de
correlações estatísticas entre propriedades petrofísicas e elásticas. Duas premissas: a
sísmica tem que detectar espessura de litologias e unidades de fluxo e tem que existir
uma correlação entre propriedades petrofísicas e elásticas que permitam diferenciação de
φ, SW e litologia.

Saltzer et al. (2005) apresentam resultados (em um turbidito 1 km abaixo do fundo


do mar em águas profundas na costa oeste da África) de inversão em duas etapas: a
primeira uma inversão ‘convencional’ para obtenção de IP e IS e a segunda uma ‘inversão
litológica’, baseada, segundo os autores, na física de propagação de ondas em meio
poroso – na verdade, o modelo de Xu e White (1995). Na segunda etapa, é necessário a
compliances e densidades da areia e minerais de argila, com a rocha teórica sendo obtida
por VSH. A seguir, uma teoria de meios efetivos é usada para calcular o efeito de poros de
areia e argila nos módulos bulk e de cisalhamento. Finalmente, Gassmann fornece o
módulo bulk da rocha saturada com fluido. No entanto, é necessária uma calibração dos
parâmetros petrofísicas (propriedades dos grãos e aspect ratio) antes da inversão,
através de ajustes entre valores teóricos obtidos via modelagem (usando valores de
parâmetros que se consideram próximos aos corretos) com perfis sônico e densidade.

5.4 Tópicos Adicionais

Devido à dificuldade e importância de se conhecer o comportamento da


geopressão abaixo do sal, existe um consórcio de indústrias – sob coordenação e
execução da Knowledge Systems, de Houston – para desenvolver melhores metodologias
na predição de pressão e examinar métodos de melhorar imageamento. Usando dados
com streamer de até 10 km e informações de 50 poços, o projeto pretende auxiliar
também na perfuração.

Martini et al. (2005) apresentam um estudo – via modelagem de dados sintéticos -


para imageamento de reservatório dentro e abaixo de rochas vulcânicas, usando
integração de sísmica, perfis, gravimetria e observações geológicas. Particularmente
interessante é que os autores consideram que interfaces do basalto têm comportamento
fractal, e a partir disso ‘recuperam’ (ou criam) altas freqüências espaciais na sísmica por
repetição do padrão existente nas baixas freqüências.

De acordo com Chopra e Marfurt (2005), a origem da decomposição espectral


também ocorreu na Amoco – o que mostra que, aparentemente, uma cia de óleo brilhante
no desenvolvimento de ferramentas sísmicas pode não ter muito sucesso no seu core
bussiness... Segundo esses autores, o uso de transformadas de Fourier em janelas curtas
por um geofísico gerou imagens “atraentes” de recifes pobremente resolvidos.
Desenvolvimentos posteriores levaram a criação de um fluxo de processamento
relativamente simples, mas algumas vezes com auxilio significativo na interpretação de
feições, principalmente as deposicionais. O trabalho pioneiro em decomposição espectral

115
pode ser considerado o de Partyka et al. (1999). Uma forma alternativa (mas tanto teórica
quanto praticamente parecida) ao uso de Fourier é a transformada de pulso, apresentada
por alguns autores, como por ex. Castagna et al. (2003).

O conceito de ‘impedância elástica’ foi estabelecido por Connolly (1999),


considerando que a maneira usada para se obter impedâncias acústicas pode ser usado
para ângulos de incidência não-normais. Alguns autores (por ex., Rosa, 2002) não
apreciam o conceito, mas este termo – bem como a ‘inversão elástica’ – fazem parte do
cotidiano do intérprete atualmente, ainda que usados, rigorosamente, de forma incorreta,
ou nem sejam apropriados.

O reconhecimento de padrões por técnicas matemáticas (por ex., redes neurais)


e/ou por multi-atributos combinados também tem seu valor, devendo ser testado, se
possível, existindo diversos exemplos na literatura. Outra forma é pela forma do traço, em
que formas determinadas do traço são associadas – geralmente de uma maneira
estatística – à litologias e/ou fácies e/ou fluidos.

116
6 – INTRODUÇÃO À CARACTERIZAÇÃO DE RESERVATÓRIOS

Neste capítulo, será discutido como a sísmica pode auxiliar na confecção de


modelos geológicos mais realistas. A idéia básica é que a sísmica amostra de uma forma
regular todo o reservatório, e que esta amostragem continua e completa – apesar da
baixa amostragem vertical, quando comparada com os perfis – deve ser usada na
definição de variações de propriedades petrofísicas (φ, SW, NTG, κ) entre os poços.
Quase sempre, atributos sísmicos são usados para este objetivo. Devido a sua
importância, é realizada a seguir uma discussão sobre o tema, já que na prática talvez
todos os produtos da sísmica possam ser classificados como atributos.

Chopra e Marfurt (2005) apresentam um interessante histórico do desenvolvimento


e uso de atributos sísmicos. Definem atributos como “uma medida quantitativa de uma
característica sísmica de interesse”, afirmam que são usados desde os anos 30 (pois
consideram o tempo de trânsito como atributo) e creditam a existência de mais de 50
atributos hoje em dia. Associam a evolução dos atributos aos avanços da tecnologia de
computadores, citando como exemplos o aparecimento do registro digital na década de
60 (o que permitiu melhores medidas de amplitudes e conseqüente correlação entre bright
spots e ocorrências de HC), a disponibilidade de plots coloridos no inicio dos 70
(facilitando o uso de atributos complexos) e, finalmente, as estações de interpretação nos
anos 80.
Lembrando que o objetivo da sísmica de reservatório é a caracterização estática e
dinâmica de reservatórios, os autores consideram que um bom atributo é direta ou
indiretamente sensível à feição geológica ou propriedade do reservatório de interesse.
Consideram também que a identificação de feições é feita na maior parte das vezes por
comparação do que se vê com exemplos na base de dados mentais – também por isso,
pode-se considerar a interpretação parte ciência, parte arte (o mesmo tem sido dito para o
processamento).
Em relação ao uso prático, os autores recomendam que cada atributo seja usado
para somente um tipo de propriedade petrofísica ou característica geológica, para
combinação posterior (através de geoestatística ou outra ferramenta). Em relação à
definição, eles consideram que qualquer quantidade derivada do dado sísmico é atributo,
logo incluem velocidade intervalar, inversões, predição de pressão de poros, terminações
de reflexões, atributos complexos e AVO, entre outros – como se vê, praticamente tudo
que se pode extrair da sísmica.
Entre as classificações existentes, cita-se uma que separa os geométricos
(mergulho, azimute, continuidade, etc) e físicos (amplitude, fase e freqüência). Os
atributos mais usados são o tempo de trânsito, velocidade e amplitude.
Tal como vistos hoje, pode-se considerar que os atributos nasceram no final da
década de 60, a partir de trabalhos de Nigel Anstey (inicialmente interessado no uso de
cores para distinguir feições em dados sísmicos), procurando mostrar qualquer
informação que auxiliasse na interpretação, como velocidade intervalar ou conteúdo de
freqüência, por exemplo. O trabalho dele foi mostrado no congresso da SEG em 73
(Anstey, 1973), mas o alto custo de plots coloridos retirou muito do interesse dos
resultados, que foram muito bons. Como exemplo, o uso (hoje rotineiro) de densidade
variável (também chamada de intensidade variável) teve Anstey e seu grupo como
pioneiros.
Chopra e Marfurt (2005) reportam que, a partir das idéias de Anstey, Taner e
Koehler consideraram que a forma da onda registrada em geofones (que são sensíveis à
velocidade de partículas) seria proporcional à energia cinética. A extensão natural foi a
associação com a energia potencial, com a resultante sendo a energia do traço – o que

117
chamamos hoje em dia de envelope. Norman Neidell, que trabalhava com eles, sugeriu o
uso da transformada de Hilbert para se conseguir o mesmo resultado – neste momento,
nasceram os atributos complexos, e com eles uma polêmica que deve estar longe de
acabar.
Já em 1975 (segundo Chopra e Marfurt, 2005), três dos principais atributos
complexos – usados até hoje, seja na forma como definidos originalmente ou com
pequenas variações – estavam definidos: o envelope instantâneo (reflection strength), a
fase instantânea e a freqüência instantânea. O envelope realça as anomalias de
amplitude (por envolver soma de quadrados), sendo muitas vezes o atributo instantâneo
mais estável. A fase algumas (ou muitas) vezes mostra continuidade de eventos de uma
forma melhor que a amplitude – por isso, é muitas vezes considerado o atributo complexo
mais útil e importante, por ser o mais independente da amplitude, fornecendo assim uma
informação adicional. A freqüência talvez seja o menos útil, indicando (em tese, mas com
pouca utilidade prática, geralmente), atenuações (absorção) muito fortes – associadas,
por ex., a gás – e afinamento de camadas.
Em 1976 Taner mostrou os atributos complexos no congresso da SEG – vemos
assim que os atributos complexos são contemporâneos da sismoestratigrafia (que, aliás,
usava com certa freqüência atributos complexos em interpretações). Segundo Taner (in
Chopra e Marfurt, 2005), o próprio Peter Vail disse, ao ver uma seção de fase
instantânea, que “aquele tipo de seção era o que ele gostaria de ter para interpretação
estratigráfica”.
A disseminação de atributos complexos começou com o trabalho de Taner et al
(1979), que sugeriram que o traço sísmico convencional pode ser visto como o
componente real de um traço complexo, com o traço complexo podendo ser considerado
um vetor. Geralmente, o componente imaginário do traço complexo é obtido a partir da
parte real do próprio traço complexo (isto é, o traço sísmico) através de uma rotação de
fase de 900 – por isto, o traço imaginário algumas vezes é chamado de quadratura. No
entanto, o traço imaginário só corresponde exatamente à rotação de 900 do traço real
caso este seja de fase zero. Sendo rigorosos, é necessário usar a transformada de Hilbert
para obter o traço imaginário – entretanto, na prática isto quase nunca é realizado,
mesmo porque a maior parte dos dados sísmicos estão (ou, melhor dizendo, são
considerados como) próximos de fase zero após o processamento.
A idéia da existência de um traço real e outro imaginário (fig. 6.1) permite a
separação de algumas informações envolvendo amplitude e fase de um número complexo
– com o termo fase aqui não devendo ser confundido com a fase de um sinal como
descrito no item 2.1. Uma grande discussão – ainda não concluída – sobre o significado
físico do traço não impede (geralmente!) o uso de atributos complexos.
Os atributos complexos mais comuns e importantes são:
1. Intensidade de reflexão (reflection strength) – também chamada de envelope, é a raiz
quadrada da soma dos quadrados das amplitudes dos traços real e imaginário,
representando a quantidade total de energia em um instante qualquer, ou o módulo
instantâneo do traço complexo. Pode indicar limites de seqüências sísmicas e mudanças
deposicionais abruptas, geralmente realçando anomalias de amplitude.
2. Fase instantânea – é o ângulo, para cada amostra, entre os componentes real e
imaginário, representando a quantidade de energia cinética. Enfatiza a coerência de uma
reflexão, sendo muito útil em várias situações para definição de afinamentos,
progradações, etc, por ser menos relacionado com a amplitude. Na prática, é usado o co-
seno da fase, por não apresentar ‘pulos’. É altamente recomendado que seja observado –
principalmente na fase inicial da interpretação – algumas seções de (co-seno) da fase,
pois ou corrobora a interpretação realizada em amplitude, ou fornece – por menos que
seja – informações adicionais. Também é útil em algumas situações para extração de

118
atributos a serem correlacionados com propriedades petrofísicas.
3. Freqüência instantânea – derivada em relação ao tempo da fase instantânea. Tem
importância secundária, pois não costuma ser uma indicadora muito efetiva de interfaces
e possível diminuição do conteúdo de freqüência – reportada com certa regularidade na
literatura diminuição do conteúdo de freqüência – reportada com certa regularidade na
literatura como indicadores indiretos de hidrocarbonetos. Na prática tem, geralmente,
pouca importância.
4. Polaridade aparente – é o sinal (positivo ou negativo) de uma amostra no máximo de
intensidade de reflexão.
Como estes cálculos eram realizados amostra por amostra, foram chamados
atributos instantâneos. Não é difícil imaginar a confusão que estas definições geraram,
principalmente o conceito de fase e freqüência dos atributos complexos, que não tem
relação com os mesmos conceitos ‘clássicos’, vistos até aqui, relacionados com a
propagação de um pulso sísmico.

Fig. 6.1 – Visualização do traço complexo e seus componentes, que são o traço real (ou seja, o
registrado pelo método sísmico) e o imaginário (obtido pela transformada de Hilbert ou quadratura)
(extraído de Sheriff, 2002).

Uma tentativa teórica (frustrada na prática em dados reais, segundo White (1991)
devido a ruído e interferências) de estabelecer um significado físico a alguns atributos
complexos foi realizada por Robertson e Nogami (1984), quando eles observaram que a
freqüência instantânea no máximo (pico) de um pulso de fase zero corresponde à
freqüência média do espectro de amplitude do pulso. Pela mesma razão, os autores
demonstraram que a fase instantânea corresponde à fase verdadeira do pulso (um
parâmetro muito difícil de ser obtido no mundo real a partir somente do dado sísmico)
nessa posição.

Nos anos 80 ocorreu uma proliferação de atributos, estando o co-seno da fase


instantânea entre os mais importantes, pois, ao contrário da fase, não apresenta
descontinuidade a 1800, o que permite operações como interpolação, suavização e
(segundo Chopra e Marfurt, 2005) até migração! Uma introdução interessante foi o
conceito de atributos intervalares (ou volumétricos, em comparação com superficiais),
definidos geralmente como uma média (ponderada pelo número de amostras ou não) dos
valores dos atributos entre topo e base de camadas (reservatórios, geralmente) espessas.

119
Bodine (1984, 1986) introduziu o conceito de atributos respostas (response
attributes). A partir da consideração de que a maior parte da energia do sinal em um traço
está concentrada na vizinhança de picos do envelope instantâneo, a fase e freqüência
instantânea de um evento seriam descritas de forma mais acurada considerando para
eles os valores nesses máximos. Esses atributos – também chamados de atributos do
pulso – têm um valor computado em cada máximo do envelope e então assinalado a todo
o pulso. Esta idéia, apesar de talvez pouco clara à primeira vista, tem grande potencial,
tendo sido usada, entre outros, por Taner (2001) para desenvolver um indicador de
camadas pouco espessas e, mais recentemente, um algoritmo de Liner et al. (2004) – o
SPICE –, que é aplicado comercialmente. Informações adicionais sobre response
attributes estão disponíveis em Robertson e Fisher (1988).

Procurando desmistificar – e simplificar – um pouco os atributos complexos, e ao


mesmo tempo justificar seu uso, Barnes (1998) faz uma comparação interessante do
significado físico (ou falta de) de atributos complexos com a existência de freqüências
negativas na transformada de Fourier. Obviamente, as freqüências negativas não têm
significado físico nenhum, aparecendo no desenvolvimento matemático da teoria da
transformada. No entanto, esta ausência de sentido não impede que Fourier seja usada
incontáveis vezes todos os dias no processamento e interpretação de dados sísmicos.
Então, para o autor o traço complexo pode ser considerado quase que um truque
matemático (que funciona, naturalmente). Ele também considera que o importante do
traço complexo é a forma polar, com os traços real e imaginário sendo introduzidos para
computação prática de fase e amplitude instantânea.

O uso disseminado de estações de trabalho (workstations) e softs de interpretação


sísmica causaram uma rapidez gigantesca no trabalho do intérprete, com um salto de
qualidade também significativo, com diferentes escalas de observação (zoom), uso de
cores e possibilidade de cálculos praticamente imediatos de uma grande gama de
atributos. Ao mesmo tempo, infelizmente também permitiu algumas vezes uma
valorização da forma (apresentações coloridas, especialmente de volumes) sobre o
conteúdo.

O crossplot (ou plote cruzado, tradução que nunca ‘pegou’), de atributos foi
introduzido para mostrar visualmente a relação entre duas a quatro variáveis. É usado
principalmente para separar (agrupar) tipos distintos de rochas e/ou fluidos –
agrupamento este que usa o fato de que, quase sempre, o que estamos interessados
(reservatórios com hidrocarbonetos) são anomalias (inclusive estatísticas). Este tipo de
análise é interessante para identificação de quais atributos respondem a determinadas
características de rocha e fluido, essenciais à caracterização de reservatórios.

Os atributos são bastante enriquecidos quando extraídos também de dados pré-


empilhamento, pois as litologias costumam fornecer refletividades distintas para diferentes
ângulos de incidência. Os casos mais comuns e de interesse são distinção entre folhelhos
(especialmente os de baixa velocidade) e areias e entre areais com água ou com
hidrocarbonetos.

Os atributos complexos provavelmente têm potencial a ser desenvolvido, com


algumas aplicações talvez ainda a serem descobertas. O significado físico às vezes
aparece após aplicações e análises de resultados, e não de uma forma direta – diferente,
de, por ex., a amplitude, relacionada diretamente a variações de impedância geralmente
associadas a variações de porosidade e/ou fluidos. Para exemplificar o poder da

120
criatividade e experiência, é interessante citar o fato citado por Lindseth (2005), que o
geofísico Bem Rummerfeld em 1954, quando os dados eram classificados em termos de
caráter e consistência (de uma forma qualitativa, não existindo interpretação como
consideramos hoje) à tinta, percebeu – corretamente – que áreas com dados ruins
poderiam estar associados a zonas de falhas.

Devem existir algumas centenas de trabalhos publicados sobre o uso de atributos


complexos, com vários citando a vantagem da fase instantânea. Duff e Mason (1989)
sugerem o uso deste atributo para mapeamento, apresentando um caso na Bacia de
Gippsland (Austrália?), em que time-slices de fase são comparados com de amplitude.
Nelson et al (1991) reportam o uso da fase instantânea para delimitação de contatos de
gás, interpretação estrutural e estratigráfica.

O uso de poderosas estações de trabalho e programas muito eficientes de


visualização algumas vezes não permite perceber a não extração completa de todas as
informações presentes na sísmica. Isto porque pode ocorrer a valorização da forma em
relação ao conteúdo, pois as estações permitem a obtenção de um sem número de
atributos, que podem ser observados em ambientes 3D multicoloridos. Algumas falhas
(pit-falls) de interpretação são causadas quando o geofísico não percebe que atualmente
a interpretação tem que ser feita – segundo Brown (2005) – com um balanceamento
delicado entre geofísica, geologia e computadores.
Uma linha parecida de raciocínio – se bem que mais antiga – teve como reação o
adágio ‘quem ve mapa não ve seção’, significando que observar somente um tipo de dado
não só não é recomendável como pode ser perigoso. Pode parecer (e deveria ser) óbvio,
mas não se pode esquecer em sempre analisar seções verticais ao se observar mapas de
amplitudes. Brown (2005) chega a considerar que o ‘caráter’ de uma seção é mais
importante que a amplitude para identificar HC em dados sísmicos, o que talvez já seja
um exagero, mas de qualquer forma mostra a importância de se ‘varrer’ o dado
visualmente, em vez de somente realizar uma interpretação automática, algumas vezes
com posterior controle de qualidade (nem sempre eficiente).
Ao mesmo tempo, deve-se reconhecer a grande utilidade de operações simples,
como a amplitude RMS. Obtida por elevar-se ao quadrado os valores de amplitude,
permite que amplitudes superiores à média – mas não muito superiores – sejam
realçadas, e tem grande aplicação, tanto teórica quanto prática. Da mesma forma, fatias
de horizontes (horizon-slices) devem sempre ser analisados, como também se deve
sempre que possível trabalhar independentemente com amplitudes do topo e da base.

Além dos atributos complexos, existem alguns atributos menos ortodoxos. Um


exemplo são os chamados polinomiais, disponíveis no pacote Geoquest (Schlumberger).
A idéia é que um traço pode ser considerado como um polinômio, com os termos de cada
grau do polinômio sendo vistos como atributos. Pode ser traçado um paralelo entre este
processo e a transformada de Fourier, em que, em vez de existirem amplitudes
associadas a freqüências, as amplitudes estão associadas aos graus do polinômio. Da
mesma forma que os atributos complexos, o significado físico dos termos do polinômio
pode não ser claro, nem existir relação direta entre, digamos, o termo de 3ª ordem e a
porosidade. Por outro lado, pode ser intuitivo esperar que exista alguma correlação entre
variações dos traços (que, considera-se, estejam associadas a variações petrofísicas) e
mudanças nos termos dos polinômios.
Idéia parecida (sem o uso direto de polinômios, no entanto) é associar a ‘forma’ do
traço (‘desenhado’ pelo padrão wiggle, fig. 5.1) a variações litológicas e/ou de fluidos –
método disponível em alguns softs de interpretação sísmica.

121
Um exemplo quantitativo de extração de porosidade a partir de dados sísmicos
invertidos é apresentado por Angeleri e Carpi (1982), usando a eq. de Wyllie rearranjada
para
φ = (∆t - ∆tma) / (∆tf - ∆tma) – VSH .[ (∆tSH - ∆tma) / (∆tf - ∆tma) ] 6.1
∆t, ∆tf, ∆tma e ∆tSH tempo de trânsito para rocha saturada, fluido, matriz e argila, respectivamente.
A comparação entre as medidas de porosidades de perfis e as obtidas pela
sísmica são mostradas na fig. 6.2, e foram boas para arenitos limpos e muito ruins para
arenitos com folhelhos, o que não é totalmente surpreendente, pois Wyllie funciona
melhor para arenitos limpos.

Na Petrobras, Blauth et al. (1994) analisaram o reservatório carbonático do campo


de Bonito, verificando por modelagens sísmicas se variações de amplitudes estariam
relacionadas a mudanças de porosidade, espessura porosa ou velocidade da camada
superior. O objetivo dos autores era obter a capacidade de estocagem de fluído do
reservatório. Foi encontrada boa correlação entre amplitudes sísmicas e H.φ (produto
entre porosidade e espessura porosa) quando se individualizaram três regiões
geográficas distintas. Este é um caso não muito comum, pois mostra resultados com
reservatórios carbonáticos, que geralmente têm relações entre atributos sísmicos e
parâmetros petrofísicos ainda mais complicadas do que as rochas siliciclásticas.
Segundo Chopra et al (2005), carbonatos são 20% das rochas sedimentares, mas
tem 60% das reservas. Por outro lado, respondem por 40% da produção, mostrando que
são rochas que ainda necessitam um maior aprendizado. Por exemplo, estudos do efeito
da saturação na velocidade de carbonatos mostram resultados ambíguos em relação ao
uso de Gassmann. Baechle et al. (2005) analisaram 30 amostras de calcário do Mioceno
e Cretáceo com porosidades entre 5 e 30% e textura e tipo de poros variados,
encontrando tanto aumento quanto diminuição do módulo de cisalhamento, e diferença
entre valores medidos e os esperados por Gassman. Ng et al (2005) também observaram
que o uso de Gassman fornece variações menores que as observadas, analisando
sísmica time-lapse em área com aplicação de solvente e injeção de gás.

Fig. 6.2 – Comparação entre


porosidades obtidas por
aplicação de Wyllie
modificada em dados de
inversão (linha cheia) e
obtidas por e de perfis (linha
tracejada) (extraído de
Angeleri e Carpi, 1982).

122
DeLaughter et al. (2005) apresentam um método para comparação de atributos
(por ex., amplitudes) de horizontes interpretados em diferentes 3Ds. Segundo os autores,
as amplitudes são reescaladas por um método simples, com sentido geofísico e
estatisticamente robusto. O método (denominado ‘z-score’) usa funções características
(autovetores para um operador linear em um espaço vetorial cujos vetores são funções,
as eingenfunctions) para transformar os sistemas de coordenadas que assinalam
posições e tempo a eventos, medindo quantos desvios-padrão um determinado ponto
esta da média. O dado a ser usado tem que ter distribuição unimodal. O artigo compara
resultados com os métodos Hi-Lo e RMS (fig. 6.3).

Fig. 6.3 – Comparação de atributos (amplitude, no caso) extraídos de diferentes 3Ds (triângulo
branco mostrando área de sobreposição aproximada) re-escalados por três métodos distintos: Hi-
Lo (esquerda, marca visível), RMS (no centro, que mostra fortemente o efeito de médias não-
nulas) e ‘z-score’ (direita) (extraído de DeLaughter et al., 2005).

Uma aplicação do uso de atributos e redes neurais na Petrobrás é encontrada em


RSI (2002). Como a seqüência aplicada pode servir de guia preliminar para analises
semelhantes, aquele relatório será discutido com algum detalhe. Sua leitura é
recomendada, com atenção a algumas observações aqui apresentadas. O projeto – 100
km2 de dados sísmicos e perfis de sete poços (um direcional) na vizinhança de
Barracuda-Caratinga – teve como objetivo aplicar redes neurais em uma combinação de
atributos sísmicos derivados de dados empilhados por faixa de ângulo (angle-stack) e de
dados de impedância acústica e cisalhante (volume de inversão do IFP). Foram gerados
sismogramas sintéticos nas condições originais, SOLEO 80% e SW 100%. Os objetivos
principais eram: 1) verificar a sensibilidade de atributos sísmicos (e posterior escolha) a
mudanças de rochas e fluidos (em rochas reservatórios e não-reservatórios), 2) uso de
redes neurais em uma região que inclua diferentes reservatórios e saturações, 3)
classificação do dado sísmico em classes litológicas, e 4) calibração dessas classes em
um volume de distribuição de fácies. Os atributos selecionados (além das impedâncias)
foram envelopes do traço, 2ª derivada da fase, fase da amplitude modulada e impedância
acústica relativa, todos extraídos nos angle-stack de 150 e 300.
A aplicação não-supervisionada de Kohonen gerou um produto que, segundo os
autores, diferenciou claramente classes de tipos de rochas e saturação. A metodologia de
classificação da RSI deve ser testada, sendo totalmente diferente da usada em alguns
estudos (por ex., Rodriguez (2002)), que procura individualizar no inicio do processo
quantas classes (geralmente quatro ou cinco) são necessárias para agrupar os diferentes
conjuntos. A RSI, no entanto, inicia o processo usando um grande número de classes
(144) e, por inspeção visual, gera posteriormente um número bem menor de conjuntos por
junção de várias das classes iniciais. Procedimento similar (também usando Kohonen

123
não-supervisionada) é realizado com perfis (no entanto, o relatório não explicita se foram
usadas mais de 100 classes inicialmente também para os perfis).
Após as duas classificações, ocorreu uma calibração entre os dois grupos de
conjuntos, que gerou 15 classes de fácies (litológicas e/ou fluidos). Os autores
consideram que todas as fácies podem ser discriminadas no produto final, mas isto só foi
verdadeiro no caso apresentado dentro do reservatório, com os resultados sendo
bastante inconclusivos fora desta região.
Foram realizadas análises de perfis, com ajustes sendo realizados porque a RSI
considerou que os perfis têm baixa penetração (são rasos), sendo suscetíveis a
rugosidades do poço. Por isso, usaram a equação de Faust (1951) modificada – a original
obtém empiricamente VP como função da profundidade e idade geológica (eq. 2.3.11) –,
para correção de VP a partir da resistividade (calibrada nos trechos em que o sônico é
confiável) e Gardner (eq. 2.3.10) – também ajustada nos trechos considerados bons –
para correção de densidade. As propriedades elásticas dos fluidos (a serem usadas nas
modelagens de substituição de fluidos) foram obtidas pelas relações (empíricas e com
valores para parâmetros de fluidos válidos para pressão constante, uma premissa que
deve ser verificada caso a caso) de Batzle e Wang (1992) (o mais recomendável é que os
parâmetros – temperatura, gradiente de pressão de poros, etc. – sejam obtidos por
medidas diretas, geralmente existentes). A modelagem da substituição – usando Biot
(1956)-Gassman (1951) – mostrou que o fluido do poro tem efeito negligenciável na
impedância P nas areias cimentadas, concluindo-se não ser possível à determinação do
fluido saturante usando apenas ondas P.
A experiência dos técnicos da RSI é que – com poucas exceções – os atributos da
transformada de Hilbert, impedância e AVO são os mais úteis para uso em redes neurais.
Existem duas maneiras principais para seleção de atributos: 1) extração dos mesmos a
partir dos dados sísmicos reais com escolha posterior (visualmente em mapas ou volumes
ou por cross-plots com médias de propriedades petrofísicas) dos que mostram correlação
com os parâmetros petrofísicos de interesse, ou 2) extração de dados sintéticos
modelados variando-se as propriedades petrofísicas que se deseja analisar. A RSI usou a
segunda opção, mas com um procedimento muito questionável, pois as modelagens
foram realizadas nos ângulos de empilhamento de 50 e 350, mas os atributos foram
selecionados nos ângulos de 150 e 300 – com a justificativa que o dado de 50 era ruidoso
e 350 tinha baixa cobertura, então se usaram os ângulos mais próximos. A questão óbvia
que se faz é porque, então, as modelagens não foram feitas com 150 e 300, sendo mais
perigosa a premissa de que o comportamento a 50 é similar ao de 150. Foi usado um
pulso Ricker 25 Hz, pois análises de AVO mostraram que nem um pulso extraído da
sísmica nem um Ormsby (4/8-20/30) forneceu bons resultados. Na etapa de seleção, é
importante verificar se não existe dependência (correlação) entre os atributos – a RSI
denomina este fase como ‘teste de redundância’.
Inicialmente foram usados oito atributos (envelopes do traço, 2ª derivada da fase,
fase da amplitude modulada e impedância acústica relativa), obtidos nos cubos de 150 e
300, em uma topologia 8x8 (64 classes) que foi considerada satisfatória. Posteriormente,
no entanto, um teste incorporando-se atributos da inversão elástica (sem ter sido
verificado se eles tinham correlação com parâmetros petrofísicos) em uma tipologia 12x12
(144 classes) mostrou melhor discriminação de fácies, sendo então utilizada. A RSI
considerou os resultados muito bons, mas tal informação, naturalmente, tem que ser
corroborada pelos técnicos do ativo.

Então, após um longo e complicado (e algumas vezes questionável) trabalho para


obtenção de atributos, existem algumas questões: o que fazer com eles? como usá-los na

124
modelagem geológica? serão usados de uma forma quantitativa ou somente qualitativa?
como escolhê-los?
Obviamente (e infelizmente) não existe uma resposta única para nenhuma dessas
questões. O roteiro aqui apresentado é baseado no trabalho de Rodriguez et al (2006b),
que apresenta o uso de atributos sísmicos na caracterização geológica no campo de
Roncador.
Inicialmente, deve ser considerado que naturalmente sempre que possível se
prefere o uso de atributos com justificativa teórica clara, coerente, intuitiva e com
corroboração empírica. Um exemplo clássico é a amplitude, que foi (e continua sendo)
usada no descobrimento e desenvolvimento de diversos campos na empresa, incluindo
provavelmente os mais importantes. É um atributo sabidamente associado à variação do
tipo fluido e/ou a porosidade, com a exceção mais importante sendo os folhelhos de baixa
velocidade presentes no Terciário e Cretáceo das bacias marítimas.
Indo agora às referencias, eis o que Sheriff (2002) diz sobre atributos (grifos
meus): “A measurement derived from seismic data... because they are based on so few
types of measurement, attributes are generally not independent… they sometimes help
one to see features, relationships, and patterns that otherwise might not be noticed .
Seismic measurements usually involve appreciable uncertainty and do not relate directly to
any single geologic property… we still do not understand how to relate most seismic
atributes to geologic causes and situations.”. A partir desta definição, pode-se concluir
que, já que obviamente o dado (sinal) sísmico é um só, qualquer atributo (por mais
esotérico que possa parecer) está sempre associado a uma propriedade oriunda de
traços sísmicos e que tudo que estamos tentando correlacionar com φ, NTG, etc. são
diferentes maneiras de observarmos o mesmo dado – naturalmente, tal conclusão não é
inquestionável, mas eu concordo e tenho trabalhado com ela.
Outro tema que geralmente causa discussão é a utilização de atributos oriundos
da já mencionada decomposição polinomial. A partir da definição de Sheriff, me parece
bastante razoável considerar que os termos do polinômio que representa um traço podem
ser considerados como atributos, pois sem dúvida os mesmo são “medidas derivadas de
dados sísmicos”. Então, a questão passa a ser se o geofísico concorda ou não com o
Sheriff. No caso de discordância, recomenda-se uma discussão com o próprio, de
preferência o mais rápido possível, pois não se pode saber até quando ele estará vivo e
lúcido.

Na extração, os atributos para reservatórios muito espessos (acima de 10


amostras) devem ser volumétricos, i.é., representar uma média dos valores entre o topo e
a base, e não somente os valores de uma superfície (o topo, geralmente). É recomendado
também nestes casos o uso de valores normalizados pela espessura (número de
amostras), pois vários atributos podem variar somente pela quantidade de amostras
usada – por ex., o número de zero-crossing (quando amplitudes passam de positivas para
negativas e vice-versa) é um bom indicativo da heterogeneidade de uma camada, mas
naturalmente quanto mais espessa uma camada for, maior a probabilidade de que
ocorram zero-crossing.
Os atributos devem ser extraídos na maior quantidade de dados sísmicos
disponíveis (original, iterdec, resultados de inversões acústicas e elásticas, coerência,
decomposição espectral, angle-stacks, etc), e geralmente preferencialmente no domínio
do tempo (não em profundidade). Após a extração, atributos podem ser combinados –
geralmente, os mais independentes – para a geração de novos atributos, de forma a
aumentar a possibilidade da existência de ao menos um atributo que possua correlação
com propriedades petrofísicas.

125
Cabe aqui uma observação: as superfícies obtidas da interpretação sísmica devem
sempre ser suavizadas antes da conversão tempo-profundidade, com os atributos sendo
extraídos após esta suavização.

A próxima decisão costuma ser a escolha dos atributos. Após a extração e


controle de qualidade, a seleção é realizada analisando os atributos que indicam
aproximadamente variações gerais esperadas para alguns parâmetros petrofísicos, a
partir do conhecimento dos geocientistas (e algumas vezes também engenheiros) de
variações de propriedades petrofísicas do reservatório – por ex., direção de deposição
afetando NTG. Deve ser observada uma variação suave do atributo em mapa, ou seja,
atributos com comportamento ‘nervoso’ (muita variação em pontos adjacentes) não
devem ser usados, pois não tem sentido geológico.

A etapa seguinte é a verificação da correlação entre atributos e média de


propriedades petrofísicas (aplicativo Rave na Landmark e LPM na Geoquest), a
confiabilidade da correlação e do próprio atributo. Esta etapa costuma ser a mais critica,
estando sujeita a diferentes problemas, alguns dos quais serão discutidos agora.
Inicialmente, a correlação geralmente avaliada é a linear, não sendo consideradas
de graus maiores e/ou exponenciais. Uma justificativa intuitiva razoável para este
procedimento é pensar que mesmo uma correlação linear já é complicada (e incerta) o
suficiente – de qualquer forma, existem provas teóricas desta opção, cuja discussão está
além dos objetivos deste curso.
Então, a reta que ajusta os pontos definidos pelos valores de atributos e petrofísica
muitas vezes tem como primeiro grande problema à pequena quantidade de amostras –
isto é, a limitação de informações, causada pelo número geralmente reduzido de poços
disponíveis. Este pequeno número pode gerar, além do fato óbvio da pequena
amostragem (‘pequena’ podendo ser considerada qualquer valor inferior, Olinto de Souza,
com. pessoal, 1995), um questionamento da representatividade que temos da variação,
dos limites e da distribuição da propriedade que analisamos. Em outras palavras, o
quanto realmente sabemos como e o quanto à (por ex.) porosidade varia no reservatório?
Outro problema potencial, este intrínseco à metodologia da prospecção geológica, é uma
inevitável tendenciosidade (viés, bias), pois naturalmente a amostragem dos poços tende
a ocorrer (salvo pitfalls não intencionais) sempre nas melhores porções do reservatório.
Uma análise deste problema (ele realmente ocorre? violamos premissas estatísticas?)
provavelmente envolve discussões estatísticas além do nível neste material, mas é
importante que os técnicos envolvidos considerem esta questão, que pode ser importante,
mesmo que sendo provavelmente de quantificação extremamente difícil.
Analisando-se os valores do coeficiente de correlação, observam-se os atributos
que possuem os maiores valores. Verifica-se então novamente em mapa a distribuição
desses atributos e se realiza uma análise bastante subjetiva da distribuição dos valores
de atributos – por ex., se um elevado coeficiente de correlação não é obtido devido a um
ponto que ‘força’ uma distribuição talvez aleatória a ter uma boa correlação, se os
atributos e/ou parâmetros petrofísicos não tem uma faixa de variação muito estreita, etc.
Talvez o maior problema no uso de atributos na modelagem geológica seja a
ocorrência de correlação por puro acaso. Kalkomey (1997), à época na Chevron,
escreveu um excelente artigo sobre este assunto, realizando uma análise quantitativa da
incerteza associada à escolha do atributo em algumas situações analisando
principalmente o coeficiente de correlação. Segundo a autora, além do fato de poucas
amostras (o que é intuitivo), também o uso de atributos independentes gera uma maior
chance de correlação por acaso. A fig. 6.4 exemplifica este problema para o caso de um
coeficiente de correlação de 0,6. Resumindo, é demonstrado que a ocorrência de

126
probabilidade espúria aumenta quando, além de uma baixa correlação, menos poços e/ou
mais atributos independentes são usados. O que exatamente significa ‘independente’ no
contexto é de difícil avaliação, tanto para os dados de poços quanto para alguns atributos.
Em relação aos perfis e testemunhos, os quão independentes costumam ser as fácies
observadas? Já para os atributos, como saber, por ex., se o co-seno da fase instantânea
é independente do termo de 3ª ordem da decomposição polinomial? No caso pouco
provável de se conseguir uma resposta para essas perguntas, restará ainda como
mensurar esta dependência. A autora considera que usar um atributo errado (ou seja,
com correlação casual) é pior que não usar nenhum – esta conclusão pode levar a uma
outra longa (e potencialmente inconclusiva...) discussão. No artigo recomenda-se
fortemente que somente atributos com um significado físico sejam considerados –
especialmente quando o número de poços é reduzido.
Tendo sido apresentados alguns alertas que podem induzir alguém a não usar
atributos, devem ser pensadas agora quais as alternativas. Uma primeira opção pode ser
a confecção de mapas com ‘contorno manual’, como era feito há 15 ou 20 anos atrás,
baseados somente em valores de poços e na interpretação de deposição, diagênese, etc
feita pelo geólogo – atualmente, tal opção pode ser um pouco complicada, pois, como
mostra a fig. 6.5, este tipo de interpretação é extremamente simples quando comparada
ao resultado do uso de atributos, e os resultados obtidos (estimado x constatado) são
sempre melhores quando atributos são usados. O uso de geoestatística não deve auxiliar
muito, devido a poucas amostras geralmente disponíveis.

Fig. 6.4 – Probabilidade de


ocorrência de correlação por
acaso (eixo vertical, de 0 a 1) de
acordo com número de atributos
independentes e quantidade de
amostras para um coeficiente de
correlação de 60% (extraído de
Kalkomey, 1997).

Outra opção – talvez mais interessante – seja tentar se diminuir as incertezas.


Neste caso, a questão natural é: como fazer isso? Mais uma vez, não existe respostas
prontas, mas entre algumas sugestões potencialmente interessantes está uma discussão
efetiva, durante a escolha e conseqüente analise dos atributos e suas variações
espaciais, que envolva efetivamente geofísicos, geólogos e engenheiros. Tal discussão
passa, por ex., na procura de sentido geológico (ambiente deposicional, variações
razoáveis de porosidade, VSH, etc) em mapas ou volumes de atributos com alto
coeficiente de correlação, no possível significado físico dos mesmos e – sem dúvida mais
difícil e demorada, mas com certeza mais efetiva – uma análise de incertezas e
sensibilidade.

127
Fig. 6.5 – Comparação entre mapas de porosidade gerados a partir de contorno manual (esquerda)
e usando atributos. Observar variação aparentemente mais geológica e melhor estimativa (tabela)
de porosidade com o uso de atributos.

Já que um número maior de amostras gera maior confiabilidade, uma procura


natural é aumentar a quantidade de pontos de regressão (sample size) na fig. 6.4. Como
os poços disponíveis são geralmente em número limitado, uma opção – demorada e
infelizmente muitas vezes impraticável –, é um fatiamento do reservatório. Neste caso,
uma subdivisão das camadas usando perfis é feita pelo geólogo – esta etapa é a menos
complicada e trabalhosa. Os problemas começam quando se procura aplicar esta
subdivisão na sísmica, já que geralmente nem todas as interfaces geológicas são visíveis
na sísmica convencional como também este processo requer uma conversão tempo x
profundidade extremamente precisa (o que raramente existe). Uma proposta ainda mais
radical desta opção é a extração de atributos para todas as amostras entre topo e base de
reservatório. Na empresa, esta alternativa de aumentar a quantidade de amostras foi
realizada pelo geol. Paulo Paraizo do Cenpes, que deve ser contatado pelos
interessados. Em tese, o pacote Petrel também tem esta facilidade, mas na prática não foi
possível realizar uma tentativa no grupo de Roncador em 2004.

Um artifício que pode reduzir as chances de correlação por acaso é o uso de redes
neurais, em que atributos independentes deixam de sê-lo, quanto um ou mais atributos
originalmente sem dependência linear se ‘fundem’ em um novo atributo. Na prática, o uso
de redes neurais em atributos para caracterização ainda carece de mais exemplos,
principalmente numa avaliação quantitativa. Por outro lado, é demonstrável (ao menos
pela teoria matemática, Fernando Rodrigues, com. pessoal, 2003) que processos de
redes neurais são equivalentes a processos estatísticos. Partindo-se deste raciocínio,
pode-se talvez considerar que os vários trabalhos já realizados se usando propriedades
estatísticas podem ser, de alguma forma, guias de resultados esperados de processos de
redes neurais.

O uso de atributos elástico e/ou de AVO é sempre útil e recomendável, pois amplia
o universo de informações possíveis. Uma questão complicada é a independência dessa
classe de informações dos atributos da sísmica convencional (total, ou zero-offset) e

128
também dos atributos obtidos por inversão elástica dos perfis, já que praticamente todos
os métodos de inversão usam informações de perfis, que podem assim de alguma forma
interferir nos resultados das inversões elásticas.

Uma alternativa para ajuda a escolha de atributos é a realização de modelagem


numérica, gerando-se os diversos atributos a partir do dado sintético e verificando-se
assim quais atributos tem melhor correlação com petrofísica. Como nada é perfeito, neste
caso um grande problema é a realização da modelagem e extração dos atributos
(geralmente, demorada e tediosa), além do problema sempre presente em modelagens,
que é a confiabilidade que o dado sintético obtido seja próximo do verdadeiro (conteúdo
de ruídos, etc). De qualquer forma, essas modelagens devem ser realizadas, se possível.

Ainda outra discussão, de aspectos teóricos e práticos importantes, é a existência


ou não de relação entre atributos sísmicos e permeabilidade. Este debate, já presente há
alguns anos em comunidades dentro e fora da empresa, tem de um lado aqueles que
consideram que a passagem da onda no método convencional é insuficiente para detectar
respostas e/ou variações de permeabilidade das rochas. Apesar desta idéia ser bastante
razoável, os do ‘outro lado’ (nos quais me incluo) argumentam que os fatores que afetam
a propagação de onda (heterogeneidades, etc) também afetam indiretamente, de maneira
quantitativa e qualitativa, valores e distribuição de permeabilidade.
Alguns estudos procuram obter estimativas de permeabilidade a partir de medidas
de absorção (inelasticidade) das rochas. McCann (1994), por ex., observou que a relação
entre o fator Q e VP varia de acordo com a permeabilidade da rocha (fig. 6.6). Segundo o
autor, valores de Q elevados estão associados à menor quantidade de poros preenchidos
com fluidos, o que causa uma menor absorção. Uma possível restrição a este trabalho é
que – como vários outros que procuram correlacionar amplitude com absorção – são
usados indistintamente dados de laboratório (freqüência de MHz) e de VSP (dezenas a
100 Hz), desprezando-se possíveis efeitos de dispersão (variação da velocidade com a
freqüência, item 2.7).

Fig. 6.6 – Variação de permeabilidade (área cinzenta com maior permeabilidade) em função da
relação entre VP e fator Q (extraído de McCann, 1994).

129
Best (1993), realizando medidas ultra-sônicas (0,8 MHz) em arenitos saturados
com água observou uma forte dependência linear entre QP e QS (com QP = 1,63.QS), que
QP e QS são inversamente proporcionais à percentagem de minerais intraporos, e que
arenitos argilosos e folhelhos arenosos são as rochas com maior absorção.
Para este autor, existem pelo menos dois mecanismos de absorção atuando nos
reservatórios, com arenitos limpos e folhelhos puros sendo bons transmissores de energia
porque a estrutura regular da rocha original estaria mais bem preservada. Arenitos
argilosos e folhelhos arenosos, ao contrário, têm maior absorção por esta estrutura estar
corrompida. O artigo mostra ainda dados que indicam que a teoria de Biot funciona bem
para prever a absorção em arenitos muito permeáveis em uma grande faixa de
freqüências, sugerindo que ela pode ser usada diretamente para prever absorção e
valores de velocidade nas freqüências sísmicas.

Uma análise mais profunda do uso de atributos foi proposta na Petrobras por
Rodriguez (2004) na forma de CTO, mas não foi aprovada. O objetivo principal era
analisar o uso de atributos sísmicos (ligados à amplitude, traço complexo, inversões
elástica e acústica, decomposição espectral e polinomial) para caracterização de
reservatórios a partir de correlação dos mesmos com propriedades petrofísicas (incluindo
permeabilidade) e aplicação de redes neurais (usando atributos sísmicos) na
caracterização de reservatórios. Os produtos esperados eram a obtenção de um modelo
geológico mais realista (por se obter correlações entre atributos sísmicos e parâmetros
petrofísicos mais confiáveis e melhores – este ganho poderá ocorrer para vários campos
de hidrocarbonetos da companhia), uma maior confiabilidade no uso de atributos sísmicos
e uma análise detalhada da relação entre permeabilidade e atributos.
Na proposta do CTO, colocou-se como histórico que a utilização de atributos
sísmicos é pratica corriqueira na industria de petróleo, especialmente na caracterização
de reservatórios, onde existe maior número de observações diretas (poços, perfis,
testemunhos, etc) para correlação. Os atributos são usados para definir a variação
espacial entre poços de parâmetros importantes para o modelo geológico e simulador de
fluxo, como porosidade, saturação de água, permeabilidade, NTG, etc. Algumas vezes,
ocorrem questionamentos sobre o uso de alguns atributos sem correlação – ao menos
aparente – com características das rochas, como atributos de traço complexo (Taner et
al., 1979) e/ou termos de um polinômio que reconstitui o traço sísmico (Rodriguez et al.,
2004). Adicionalmente, é questionada também a validade das correlações obtidas, do
ponto de vista da representatividade estatística das mesmas, se valores altos de
correlação não são casuais, etc. Outra questão que se propõe seja avaliada é a premissa
de usar atributos para caracterização de permeabilidade, devido a questionamentos
presentes na literatura de que o principal componente da permeabilidade seria a garganta
dos poros, que afetariam muito pouco a propagação de ondas sísmicas. Finalmente, o
uso de redes neurais para caracterização, a partir da escolha de atributos, seria testada e
analisada.

Em resumo e exemplificando, é apresentada a seguir uma síntese do trabalho


desenvolvido no ativo de Roncador a partir de 2001, disponível em Rodriguez et al.
(2006b). A metodologia pode ser resumidamente descrita como:
1) Interpretação, controle de qualidade, suavização dos horizontes;
2) Extração de atributos (amplitudes, complexos, polinômio) médios/normalizados
(no caso de Roncador, correspondem a mais de 20 dados sísmicos (original, iterdec,
inversões, testes));

130
3) verificação de correlação linear entre atributos médios e média de propriedades
petrofísicas (porosidade, NTG, VSH, permeabilidade) (fig. 6.7);
4) Escolha de atributos via análises tanto dos gráficos de correlação (fig. 6.8)
quanto de mapas de atributos (ruídos, coerência geológica) (fig. 6.9), com preferência
para atributos ´convencionais´ (por ex., amplitude);
5) Uso dos atributos selecionados, honrando os valores encontrados pelos poços e
limitando-se os valores dos atributos aos valores máximos/mínimos constatados em perfis
e/ou a quantidades razoáveis (por ex., porosidades inferiores a 40%).

Uma análise da tabela da fig. 6.7 mostra que uma propriedade petrofísica (Gross
thickness) praticamente não tem correlação com nenhum atributo, tornando praticamente
inviável o uso dos atributos escolhidos para modelagem geológica. Uma possível tentativa
seria a criação de ‘novos’ atributos via, por ex., redes neurais. Observa-se também que
NTG (2ª coluna) tem elevado coeficiente de correlação com atributos pouco relacionados
entre si (response frequency, reflection strength e second derivative). Neste caso, a
escolha será por avaliação das retas de correlação (fig. 6.8) e/ou mapas dos atributos (fig.
6.9).

131
Fig. 6.7 – Exemplo de tabela de
coeficiente de correlação linear
entre atributos sísmicos (linhas) e
propriedades petrofísicas
(colunas) do aplicativo LPM
(Geoquest). Cores quentes
indicam maior correlação.

Um estudo das retas de correlação é necessariamente subjetivo, envolvendo


principalmente bom-senso e experiência. Na fig. 6.8, temos duas excelentes correlações
(em torno de 90%), mas ainda assim os atributos não são necessariamente ótimos.
Second derivative (acima à esquerda) apresenta uma concentração de pontos com
valores praticamente constantes do atributo (em torno de 0,0025) enquanto NTG tem uma
variação pelo menos razoável – ou seja, o atributo não conseguiu separar bem valores de
NTG em torno de 0,5. O atributo reflection strength (acima à direita) tem o mesmo
problema (em menor grau, no entanto) do anterior, e um ponto extremo (RO-55D) que
provavelmente aumenta o coeficiente de correlação. Na parte inferior da fig. 6.8 vemos
correlação de amplitude (para dois cubos sísmicos distintos) com porosidade, com
coeficientes que podem ser considerados bons (superiores a 65%). O exemplo da
esquerda tem como desvantagem o agrupamento de pontos entre as amplitudes 50 e
100, o que causaria – caso o atributo fosse usado – uma diferenciação pobre de
porosidade nesta faixa de amplitudes. O gráfico inferior à direita talvez seja o melhor caso
entre os quatro mostrados na figura, apesar de não ser o maior coeficiente de correlação.

132
Isto porque existe uma distribuição e agrupamento que podem ser considerados bons a
muito bons dos valores de atributos com os parâmetros petrofísicos de interesse.

Fig. 6.8 – Alguns exemplos de correlação linear entre atributos sísmicos (abscissa) e propriedades
petrofísicas (ordenada) do aplicativo LPM (Geoquest). O gráfico abaixo à direita pode ser
considerado como o melhor (poços são círculos vermelhos), pois apesar de não possuir o maior
valor de correlação, apresenta distribuição e agrupamento muito bons tanto do atributo amplitude
quanto da porosidade. Os círculos vazios são poços não usados na correlação por decisão do
geólogo (geralmente, valores de parâmetros petrofísicos não confiáveis).

Uma análise dos mapas dos atributos selecionados costuma ser feita como a
última etapa na escolha. A fig. 6.9 mostra dois mapas, sendo nítida a principal diferença
entre eles, com o atributo à esquerda mostrando um caráter de forte variação entre celas
adjacentes, o que gera um caráter ‘nervoso’ ao atributo, contra-indicando seu uso para
modelagens geológicas. O mapa da direita, ao contrário, mostra um comportamento bem
mais ‘suave’, com variações mais próximas do que se espera para mudanças de
características petrofísicas em reservatórios, geralmente.

133
Fig. 6.9 – Exemplos de mapas a serem avaliados para escolha de atributos. O mapa da
esquerda é muito ‘nervoso’, apresentando forte variação em celas adjacentes. À direita, um mapa
com variações mais suaves.

Uma opção bastante distinta, e muitas vezes usada, é o uso qualitativo dos
atributos, associando – às vezes de uma maneira somente intuitiva – determinado(s)
atributo(s) com variações litológicas e/ou de fluidos. Esta opção é especialmente
interessante no caso de modelos ‘binários’ (geralmente preliminares), ou seja, quando se
esta mais interessado na definição da existência ou não de reservatório, e não em
heterogeneidades do mesmo, ou para trabalhos de exploração.

Varela e Esteves (1990) observaram que existe correlação entre anomalias de


mapas de amplitude do reservatório Eoceno nos campos de Malhado e Corvina e regiões
com óleo acumulado, sugerindo que a presença de óleo altera o comportamento acústico
do reservatório. Os autores realizaram modelagens petrofísicas com a equação de Biot-
Geerstma, e os resultados indicaram que a relação é causada pelas propriedades
distintas entre óleo e água, não existindo associação entre variações de amplitude e
porosidade.
Em Corvina, a presença de um pebbly acima do reservatório causava fortes
variações nos mapas de amplitude do topo do reservatório, não relacionadas à presença
de fluidos. Para a obtenção do mapa de amplitude do topo do reservatório, foi necessária
a realização de uma soma entre o mapa de amplitude do pebbly e o do topo do
reservatório, retirando-se as influências da camada imediatamente superior, gerando o
que foi denominado pelos autores mapa de amplitude compensada. Este procedimento é
simples, rápido e seguro, podendo e devendo ser aplicado sempre que se julgue
necessário. Informalmente, é denominado ‘inversão de pobre’, pois realiza de uma forma
preliminar algo que é objetivo de processos de inversão, que é retirar efeitos de camadas
adjacentes.
A modelagem geológica em si não será discutida em detalhe neste curso, sendo
apresentados somente alguns exemplos e comentários gerais, usando-se principalmente
geoestatística.

Araktingi et al (1990) apresentam um estudo de extrapolação de propriedades de


perfis para dados sísmicos via geoestatística, usando duas linhas 2D e um conjunto de
perfis sintéticos e dois métodos para correlação: kriging com deriva externa e cokriging
com a hipótese de Markov-Bayes. A comparação entre os métodos indicou que o

134
procedimento de Markov-Bayes fornece uma avaliação mais quantitativa da influência do
dado sísmico na distribuição de probabilidade local do que o método da deriva externa,
que não é calibrado.

Sherwood (1993) cita como uma vantagem da sísmica 3D para uso em


geoestatística o tamanho regular da cela. O autor, analisando um reservatório do Terciário
do Golfo do México em 15 poços, obteve diversos atributos da sísmica para integração
com valores médios de parâmetros petrofísicos, ocorrendo a melhor correlação entre
amplitude e porosidade. A integração foi feita por co-krigagem e simulação condicional,
gerando um modelo muito detalhado, a partir do qual foi criado um modelo para simulação
de reservatórios com menos detalhe.

Quando ocorre rápida variação litológica entre areia e folhelho e a faixa de valores
de velocidade é comum as duas litologias, Doyen et al (1989) sugerem o método de
Monte Carlo (que fornece uma família de alternativas, todas consistentes com os dados)
para realizar inferência do tipo de rochas, a partir de poços e sísmica. A quantidade de
modelos gerados é função da incerteza da classificação. Os autores analisaram um
reservatório composto de areias de canal, atingido por três poços. Os valores de
velocidade para o modelo, obtidas a partir das amplitudes sísmicas, estão calibrados com
informações de perfis, reproduzindo as seqüências verticais interpretadas nos poços.

Doyen (1988) mostra a utilização de co-krigagem para estimar a distribuição areal


de porosidade em meio teórico e com dados reais (areias de canais no campo de Taber-
Turin, Alberta, Canadá). Segundo o autor, a co-krigagem integrou consistentemente
dados sísmicos com medidas de porosidade de perfis, fornecendo também estimativas de
erro do processo. A vantagem da geoestatística é considerar as funções de
autocorrelação e correlação cruzada espacial para modelagem lateral, fornecendo um
erro 50% (dados sintéticos) e 20% (dados reais) inferior que o erro de uma regressão de
mínimos quadrados. Os resultados obtidos pelos métodos de krigagem, regressão linear e
co-krigagem são mostrados na fig. 6.10.

de Buyl (1989) considerando que “... o volume de rocha investigado fisicamente


por análises de testemunhos e perfis é da ordem de 1 ppb”, e que a sísmica fornece
informações imprecisas e interpretações ambíguas mas tem excelente densidade espacial
de informações, sugere e utiliza métodos estatísticos e determinísticos para
caracterização do reservatório de Taber.

Schultz et al (1994) sugerem avaliar a possibilidade de usar atributos sísmicos que


não possuam relação obvia com propriedades petrofísicas (por ex., freqüência
instantânea) para se obter estimativas de valores de perfis usando ferramentas
estatísticas para verificar se existe algum tipo de correlação; existindo correlação, são
geradas funções de calibração e correções residuais. No caso desenvolvido pelos
autores, as funções de calibração são não lineares e geradas por redes neurais.

135
Fig. 6.10 – Comparação entre
métodos de krigagem (acima à esquerda),
regressão linear (esquerda) e co-krigagem
(acima) para se obter distribuição areal de
porosidade a partir de perfis e dados
sísmicos. Co-krigagem obteve os melhores
resultados em um modelo sintético (extraído
de Doyen, 1988).

Neff (1993) apresenta um estudo interessante sobre correlação entre mapas de


amplitude sísmica e características de reservatório mais comuns. Analisando dados de
várias bacias em todo o mundo, o autor identificou cinco tipos principais de reservatórios
(diferentes contrastes de impedância entre areias e folhelhos encaixantes, clásticos sobre
carbonatos porosos e anidrita sobre carbonato poroso), obtendo vários tipos de relações
entre diferentes propriedades. O autor concluiu que existem feições de correlação entre
amplitude e espessura produtora para uma faixa limitada de espessura do reservatório.
Na realidade, amplitudes estão relacionadas à espessura porosa com HC, e não
unicamente à porosidade ou espessura. A contribuição da porosidade nesta relação varia
para cada modelo. O autor reforça a necessidade de realização de modelagens,
principalmente quando se realizam análises de AVO.

Aquino (1993) reportou a utilização de dados sísmicos, juntamente com


geoestatística, no campo de Corvina (zona Carapebus Eocenico), para estimativa de
volume de hidrocarbonetos, como uma ferramenta eficaz.

Schmidt e Santos (1995) verificaram a utilização de redes neurais em dados


sísmicos sintéticos para caracterização de reservatórios. Estas redes não são
programadas, mas treinadas com a apresentação repetida de dados de entrada (atributos
sísmicos dos traços coincidentes com poços) e respostas desejadas (informações de
perfis). Segundo os autores, uma vantagem deste método é que informações não
resolvíveis, mas detectáveis (item 2.8) podem ser avaliados.

Shwedersky et al (1995) geraram, para o reservatório Namorado do campo de


Albacora, modelos de porosidade por correlação entre propriedades de perfis e seções de
pseudo-impedância acústica (SEVEL). Foram usados dois métodos geoestatísticos no
pacote Sigmaview (baseado na GSLIB), a krigagem com deriva externa (com informações
do SEVEL funcionando como variável regional) e simulação condicional (série de imagens
equiprováveis). Este trabalho provavelmente foi pioneiro na Petrobras na utilização de
geoestatística com dados sísmicos para obtenção de propriedades petrofísicas e
caracterização de reservatórios.

136
137
7 – NOÇÕES DE AVO

As amplitudes registradas pelo método sísmico são grandezas relacionadas à


quantidade de energia que é refletida nas diversas interfaces ou descontinuidades (que
por sua vez estão associadas a topos, bases, contatos de fluidos, falhas, etc) de sub-
superfície. Nosso interesse em quantificar a reflexão é porque a partir desta medida se
podem inferir propriedades das rochas e de seus fluidos, que é nosso objetivo final. As
equações de Zoeppritz, apresentadas no cap. 2, fornecem esses coeficientes de reflexão
de interfaces para ondas planas se propagando em meios isotrópicos e homogêneos –
mais uma vez, uma aproximação, mas neste caso geralmente não muito problemática.
Problema muito maior é que as expressões de Zoeppritz são muito complicadas,
tornando quase impossível seu uso para obtenção dos parâmetros petrofísicos de
interesse (VP, VS e ρ). Por isso, há pelo menos 40 anos são usadas aproximações para
Zoeppritz, estando entre as mais conhecidas as de Bortfeld (1961), Cerveny e Ravindra
(1971), Aki e Richards (1980) e Shuey (1985).
Estas simplificações (mesmo com algumas sendo confiáveis para ângulos
somente ate 300) mostram que quando a razão de Poisson (σ) da camada inferior
(considerando o caso mais comum e de maior interesse, que é o campo de onda
descendente) é muito menor que da superior, o coeficiente de reflexão r aumenta com o
ângulo de incidência θ, gerando um aumento significativo de amplitude com offset
(distância fonte-receptor). Deve-se sempre avaliar se as premissas mais importantes
dessas aproximações são respeitadas em cada caso, devendo ser registrado
principalmente o fato que algumas equações que consideram uma variação pequena de
VP, VS e ρ são usadas em modelagens, inversões, etc, que obtêm/impõe elevadas
alterações nesses parâmetros – ou seja, às vezes algumas aproximações são usadas
mesmo com as premissas dessas aproximações sendo sabidamente violadas.
Este fenômeno de forte aumento de amplitude, denominado de AVO (Amplitude
Versus Offset), é usado com grande freqüência na exploração (para indicação de locais
mais favoráveis a existência de HC) e explotação, para definição de limites de ocorrência
de rochas-reservatório e fluido.
É importante registrar que o forte decréscimo da razão de Poisson é mais comum
em reservatórios com gás, com o efeito de AVO sendo geralmente mais sutil em rochas
com óleo.

A equação mais comumente usada, por sua relativa simplicidade e robustez, é a


de Shuey (1985):
r(θ) ≈ A + B.sen2θ + C. (tan2θ - sen2θ) 7.1
que apresenta os conceitos de intercept A e gradiente B, definidos por
A = (∆α/αM + ∆ρ/ρM) / 2 ≈ r(00)
B = -k.A + (1-k).C + ∆σ(1-σM2) 7.2
C = (∆α/αM) / 2
com α, ρ e σ sendo VP, densidade e Poisson, os índices M indicando média e ∆ diferenças,
2
respectivamente, e k=(2VS/VP) .

C costuma ter importância somente para os maiores ângulos (em que senθ seja
razoavelmente diferente de tanθ). A e B são denominados atributos de AVO, e bastante
usados na forma de gráficos, com a inclinação da reta que melhor ajusta as amplitudes
sendo definida por sen2θ - esta reta é chamada de background (‘reta de fundo’), indicando

138
as rochas que possuem variação de amplitude com offset ‘normais’, com os valores que
se afastam dela sendo geralmente as anomalias de interesse. (fig. 7.1)
Gráficos de A e B também são usados para a criação de ‘classes’ (ou ‘tipos’) de
AVO em função da posição dos valores de amplitudes nesses gráficos. Resumidamente e
de uma forma bastante genérica, AVOs do tipo 1 estão associados à folhelhos de baixa
velocidade, tipo 2 a reservatórios com água, tipo 3 caso clássico de AVO (rocha com
hidrocarboneto com aumento de amplitude com offset) e tipo 4 caso clássico de pit-fall,
associado a aumento de AVO em reservatório com água. A fig. 7.1 mostra
aproximadamente a divisão entre esses tipos (ou classes), com explicações mais
detalhadas desta classificação (incluindo a classe 3,5) disponíveis em Rosa (2002).

Fig. 7.1 – Exemplo de gráfico A vs


B mostrando tipos de AVO
(extraído de Rosa, 2002).

Entre outras observações das eq. 7.1 e 7.2, constata-se que quando a razão de
Poisson do meio inferior for muito menor que a do meio superior, r é inversamente
proporcional a θ .

Ostrander (1984), em artigo clássico, apresenta teoria, medidas de laboratórios e


dados sísmicos reais para concluir que a razão de Poisson tem forte influência nas
mudanças do coeficiente de reflexão em função dos ângulos de incidência, e que análises
de dados de reflexão no domínio do ponto de tiro ou CDP podem indicar anomalias
relacionadas à presença de gás. O autor cita um problema conhecido, da presença de
bright spots relacionados a quantidades sub-comerciais de gás, como de difícil solução.
As principais conclusões do artigo (com alguns comentários) são:
. sedimentos rasos inconsolidados saturados com água salgada tem elevadas razoes de
Poisson (deve estar relacionada à baixíssima VS desse material, que é próxima de zero,
pois muitas vezes não é realmente um sedimento, mas sim grãos em suspensão (logo,
com pouco contato) na água, o que dificulta a propagação de ondas S),
. σ é diretamente proporcional à porosidade e inversamente à consolidação,
. arenitos muito porosos saturados com água salgada têm altas (0,3 a 0,4) razões de
Poisson, e
. arenitos muito porosos saturados com gás tem razões de Poisson extremamente baixas
(em torno de 0,1).
Estas variações ocorrem porque a mudança do fluido altera bastante o módulo
volumétrico κ, sem mudar muito o módulo de cisalhamento µ. Assim, VS tem pouca

139
variação, enquanto que VP muda significativamente, de acordo com a eq. 2.3.9, aqui
repetida:
VS = (µ/ρ)1/2, VP = [(κ+4µ/3)/ρ]1/2 7.3
O autor usou o modelo simples de uma areia com gás que apresenta VP, ρ e σ
bem menores que o folhelho encaixante para analisar a variação de r(θ), com o resultado
mostrado na fig. 7.2. Observa-se que o coeficiente de reflexão aumenta com o ângulo (e,
conseqüentemente, com o afastamento fonte-receptor), gerando maiores amplitudes para
maiores offsets, que é o efeito clássico de AVO. É mostrado também na figura que no
caso de areia sem gás a refletividade permanece praticamente constante ao longo dos
offsets.
Fig. 7.2 – Modelo
simplificado de areia com
gás dentro de camadas de
folhelhos (esquerda) e
correspondente variação do
coeficiente de reflexão em
função do ângulo de
incidência. Observar
diferença na refletividade
para o caso de areia sem
gás (linha pontilhada)
(extraído de Ostrander,
1984).

Um exemplo real do mesmo artigo – e verificado com velocidade e densidade


por poço – é um reservatório de arenito (leque de mar bem maiores que do arenito
profundo) com net pay de 30 m, 2.000 m de profundidade com gás, gerando a reflexão a
e trapa mista (estrutural-estratigráfica), dentro de folhelho 1,75 s da fig. 7.3.

Fig. 7.3 – Anomalia a 1,75 s,


causada por arenito com gás
dentro de folhelhos. Análise de
AVO indicou aumento de
amplitude com a distância
(extraído de Ostrander, 1984).

Finalmente, o autor cita os principais fatores que afetam a variação de amplitude


com a distância, sendo que todos, com exceção óbvia do coeficiente de reflexão, devem
ser corrigidos ou cancelados durante o processamento. O mais importante é a correção
do espalhamento geométrico.

140
Lembrando que a razão de Poisson (σ) varia geralmente entre 0,5 (materiais
incompressíveis, como os líquidos) e 0,0, Muskat e Meres (1940, in Ostrander, 1984),
usaram um valor de σ constante para todas as camadas e obtiveram a fig. 7.4, que
mostra pouca variação da refletividade para a faixa de ângulos presentes na aquisição de
dados sísmicos, o que pode ser visto como um fato teórico que corrobora o uso da técnica
CDP.

Fig. 7.4 – Variação da refletividade com ângulo de incidência quando a razão de Poisson (σ)
permanece constante (esquerda), diminui (centro) e aumenta. Linhas contínuas se referem a
maiores diferenças em σ (extraído de Ostrander, 1984).

Koefod (1955, in Ostrander, 1984) considerou diferentes valores de σ, obtendo a


fig. 7.4, onde se pode ver que análises de bright spots podem ser realizadas se
considerando mudanças em σ, especialmente para afastamentos longos. Esta idéia (uso
de Poisson) é largamente difundida, apesar de Thomsen (1990) considerar que Poisson é
totalmente desnecessário para o método sísmico.

Entre os efeitos que afetam a amplitudes das reflexões, em algumas situações a


curvatura dos refletores também tem que ser considerada, como mostrado na fig 7.5,
extraída de Rosa (2002).

Fig. 7.5 – Aumento de


amplitude com distância causado
por curvatura do refletor (extraído
de Rosa, 2002).

Allen e Peddy (1992) apresentam cinco casos de falhas (pit-falls) de AVO em


bright spots no Golfo do México.

1. Efeito da zona de Fresnel – na fig. 7.6 vemos, em 1,5 s, uma forte reflexão que
corresponde, no poço da direita, a reservatório com gás. A presença do mesmo
evento no poço seco à esquerda é atribuída ao efeito da zona de Fresnel, que
afeta, de uma forma ponderada, os sinais registrados dentro dessa zona (item 2.9)
– no caso analisado, calculou-se uma contribuição de 30%. Este exemplo mostra

141
cabalmente a necessidade da realização da migração antes do empilhamento,
para que as analises do AVO em gathers seja realizada após o colapso da zona
de Fresnel – felizmente, hoje em dia a migração antes do empilhamento é
efetuada praticamente sempre.

Fig. 7.6 – Análises de AVO sugeriram presença de areia com gás para os dois poços que
atravessaram a anomalia Yegua, mas o poço da esquerda é seco. Observa-se claramente efeito
de AVO no gather, que está associado ao efeito da zona de Fresnel da areia com gás encontrado
pelo poço da direita (extraído de Allen e Peddy, 1992).

2. Areia com água – uma areia espessa com 33% de porosidade, saturada com
água, causou um aumento de amplitude com afastamento. Após a perfuração do
poço, foram realizadas modelagens com dados de perfis, que mostraram ser
verdadeiro o aumento encontrado no dado real. Este tipo de pitfall é extremamente
difícil de ser contornado.
3. Linhito – modelagens realizadas antes da perfuração indicaram que uma anomalia
em torno de 1,6 s na fig. 7.7 deveria estar associada a areias com gás, mas o
poço perfurado indicou que a anomalia era devido à presença de linhito.

Fig. 7.7 – Forte anomalia


(também presente em análises de
AVO) causada por linhito (extraído de
Allen e Peddy, 1992).

4. Areia com gás sem AVO – um poço mostrou a ocorrência de 10 m de areia com
gás, sem indicações no dado sísmico (fig. 7.8). Modelagens numéricas a partir de
perfis indicavam a existência de anomalia – após alguns testes, foi constatado que
o arranjo de receptores usado na aquisição foi o responsável pela forte atenuação
do aumento de amplitude (fig. 7.8). Este exemplo real mostra a importância na

142
definição de parâmetros apropriados de aquisição e possíveis efeitos danosos
quando isso não ocorre.

Fig. 7.8 – Os dois conjuntos de traços de um CDP à esquerda são de dados reais, não
mostrando efeito de AVO em poço que constatou gás. O terceiro CDP mostra dados sintéticos com
anomalia de AVO, que desaparece (quarto CDP) ao se considerar efeito do receptor (extraído de
Allen e Peddy, 1992).

Na Petrobras, o uso de AVO pode ser considerado amplamente disseminado já há


bastante tempo, fazendo parte da cultura dos geofísicos da empresa, usando pacotes tipo
Sigeo, Hampson-Russel, etc.
Rodriguez (1993) reportou um debate de um dia coordenado por Rogério Santos,
no âmbito do antigo Depex (Sede e Distritos) e Cenpes, com alguma teoria e casos
práticos sobre o assunto. No evento concluiu-se que existiam vários problemas na
utilização do método, com duvidas da confiabilidade na aquisição e processamento do
dado e, principalmente, na não-unicidade dos resultados. Tais conclusões são validas até
hoje, apesar de naturalmente os progressos na aquisição e processamento terem
reduzido as incertezas e aumentado a confiabilidade. Os principais casos históricos
apresentados no evento foram:
1) 1-SES-100 – resultado positivo de AVO, pois não houve indicação de aumento de
amplitude em uma anomalia gerada por folhelho sobre marga;
2) 1-BAS-82 – resultado negativo, com a mesma geologia do caso acima (folhelho sobre
marga) agora criando efeito de AVO;
3) Poço 54 da Foz do Amazonas – uma saturação de gás de apenas 10% causou forte
anomalia de AVO. Esta situação – presença mínima e sub-comercial de gás gerando
aumento de amplitude com offset – não é incomum, sendo um grande problema
prático. Informalmente, é às vezes chamada ‘eno’ ou ‘alka-seltzer’. Mais
recentemente, alguns trabalhos mostram uma ligeira melhora na previsão dessas
acumulações se usando inversões elásticas – em algumas situações, dados de
excelente qualidade tem se mostrado úteis, mas não se pode considerar que este
problema já está resolvido. A principal razão deste problema (já observado em 1984
por Ostrander) é que quantidades mínimas de gás causam um decréscimo muito
acentuado em VP (fig. 2.3.8). O resultado negativo do poço 54 fez com que uma
locação próxima a ele fosse cancelada, devido ao alto risco econômico envolvido.

143
8 – INTRODUÇÃO À SÍSMICA DE POÇO

Como dito na introdução, neste curso no tema sísmica de poço não serão
considerados perfis convencionais, por este ser assunto de cursos próprios (como por ex.,
o oferecido na Petrobras pelo geólogo Carlos Beneduzi). Serão apresentadas noções de
perfis sísmicos verticais (VSP), tomografia entre poços (tomografia), de uma ferramenta
sônica que procura registrar reflexões (em vez das ondas diretas do sônico/dipolar
convencional) se afastando bastante a fonte e os receptores (usada principalmente em
poços horizontais, é denominada BARS pela Schlumberger) e de seismic while drilling,
em que receptores são colocados próximos à broca, com alguns tiros sendo detonados
quando ocorre uma breve interrupção na perfuração para colocação de colunas.
A denominação ‘sísmica de poço’ significa a aquisição de informações usando-se
um (ou mais) poço(s) para colocação de receptores (situação mais comum, sendo
também possível o uso de fontes nos poços). A principal vantagem em relação à sísmica
de superfície é a presença de um maior conteúdo de altas freqüências, fornecendo
geralmente uma resolução vertical bastante superior à sísmica convencional (de
superfície). A principal desvantagem (alem da óbvia, que é a necessidade da existência
de um poço) é que as informações obtidas são, apesar de bem detalhadas, restritas a
uma região significativamente menor que a amostrada pela sísmica de superfície.

8.1 Check-shots

Tiros de controle (check-shots) fornecem o tempo de trânsito para níveis


geológicos e são usados em confecção de sismogramas sintéticos e identificação no dado
sísmico de interfaces entre camadas.
São adquiridos colocando-se receptores em poços a profundidades definidas de
acordo com os níveis (geralmente, de 10 a 20) de interesse e o uso de uma fonte ao nível
do mar. O tempo de chegada da onda direta é medido, sendo considerado bem próximo à
metade do tempo sísmico – as sempre presentes diferenças (geralmente inferiores a 10
ms) estão associadas a diversos fatores, como fase diferente de zero da sísmica,
migração imperfeita, etc.
Um esquema deste tipo de aquisição é mostrado na fig. 8.2.1.

8.2 VSP

A aquisição de perfis sísmicos verticais (VSP, do inglês Vertical Seismic Profiles),


envolve uma fonte em superfície, geralmente próxima ao poço (o VSP zero-offset, o mais
comum, principalmente por ser o mais rápido, exigindo menos tempo disponível da sonda
de perfuração – provavelmente, o maior empecilho à aquisição e conseqüente uso de
VSP, principalmente offshore), mas algumas vezes afastada (offset VSP, usado
geralmente para se obter um imageamento lateral de nível de interesse e/ou para
estimativa de parâmetros anisotrópicos em regiões com anisotropia polar (VTI)).
Quando a fonte é colocada no poço e os receptores em superfície, tem-se o
denominado VSP reverso (reverse VSP), de uso restrito. Apesar de várias tentativas de
se usar as vibrações das brocas de perfuração como fonte sísmica, até o momento não
foram conseguidos resultados realmente satisfatórios. O principal problema é a grande
flutuação no comportamento da ‘fonte’, o que torna muito difícil o processamento e análise
dos dados.
Outras formas menos comuns de aquisição são o walk-away VSP, em que a fonte
se move durante a aquisição, criando diversos offsets, e o 3D-VSP, em que os tiros são
distribuídos em superfície ao longo de um circulo (poços verticais ou direcionais de baixo

144
ângulo) ou retângulo (poços horizontais), criando um volume tri-dimensional –
naturalmente, tal opção é bem mais demorada, sendo na prática de uso bastante restrito,
apesar de potencialmente útil em situações particulares (por ex., problemas críticos de
imageamento na vizinhança de poços).

As fontes mais comumente usadas são os air-guns (mesmo em terra, sendo


geralmente construída uma ‘piscina’ para colocação do canhão) devido à boa
repetibilidade desse tipo de fonte, com o uso de vibradores ou dinamites sendo muito
restrito. Os receptores mais comuns são os geofones, geralmente de três componentes
(3-C), pois costumam ter melhor acoplamento e menor sensibilidade a ruídos que
hidrofones. Mais recentemente, os acelerômetros (cap. 3) passaram a ganhar espaço,
sendo possível que em um futuro não muito distante (cinco anos, talvez), sejam usados
na grande maioria dos levantamentos de VSP. Alguns esquemas de aquisição são
mostrados na fig. 8.2.1.

Fig. 8.2.1 – Geometria de aquisição de (da direita para esquerda) check-shot, VSP com
afastamento nulo, offset VSP e walk-away VSP (extraído de Campbell et al, 2005).

O espaçamento entre receptores é função da máxima freqüência que se deseja


amostrar sem alias, como na sísmica de superfície. A ferramenta de VSP pode possuir de
três a mais de 90 receptores, mas o uso de mais de 12 receptores geralmente só ocorre
em 3D-VSP. Para cada posição fixa do receptor, geralmente são detonados cinco a 15
tiros, com vários traços sendo registrados à mesma profundidade, com posterior edição e
soma, para se aumentar a razão sinal/ruído.

São registrados os campos de onda descendente (a onda direta sendo a principal)


e ascendentes (que correspondem a reflexões). Para ambos os campos, é comum a
presença de ondas convertidas quando existe algum offset e/ou o poço tem grande desvio
da vertical. Um esquema mostrando as ondas de maior interesse é apresentado na fig.
8.2.2.

145
Fig. 8.2.2 – Os principais tipos
de ondas presentes em dados
de VSP. Para VSPs com offset
e/ou poços direcionais, é
comum a presença de ondas
convertidas PS ( principalmente
ascendentes) (extraído de
Schlumberger, 1985).

O processamento é realizado para recuperar a amplitude dos eventos


ascendentes, retirar ruídos aleatórios e coerentes (por ex., as tube waves), restaurar a
forma do pulso sísmico e atenuar múltiplas. Tube waves, denominadas em português
ondas tubo ou entubadas, são ondas superficiais que ocorrem na parede de um poço,
propagando-se na interface fluido/sólido.
A seqüência de processamento inclui edição e controle de qualidade,
empilhamento, normalização, recuperação de amplitudes, filtragens de freqüência e de
velocidades (quando ocorre a separação das ondas ascendentes e descendentes) e
deconvolução. Um problema na técnica VSP é a ausência de migração, ou realização de
migração (em walk-away ou 3D) com abertura geralmente insuficiente. Um exemplo de
uma seção VSP, antes e após o alinhamento das ondas ascendentes, é mostrada na fig.
8.2.3.

Fig. 8.2.3 – Dados de VSP antes


(esquerda) e após alinhamento de
eventos ascendentes (extraído de
Schlumberger, 1985).

As aplicações mais comuns e vantagens da técnica VSP são:


1) excelente controle da conversão tempo x profundidade, com obtenção acurada das
velocidades intervalares entre níveis sendo possível por existir uma grande precisão e
confiança tanto na profundidade quanto no tempo registrado;
2) melhor resolução vertical, em comparação à sísmica convencional, pois as ondas
atravessam somente uma vez os sedimentos mais rasos, que tanto em terra quanto no

146
mar são os principais responsáveis pela absorção, que ‘rouba’ as altas freqüências do
dado sísmico;
3) um melhor conhecimento quantitativo dos fatores que alteram o pulso, pois geralmente
é feito um registro do pulso bem próximo à fonte (near-field measurement), que é
comparado com os diversos pulsos registrados a diferentes profundidades, permitindo
análises precisas das mudanças do pulso, tornando possível, por ex, obtenção do fator Q
(item 2.7); estas análises podem ser úteis no processamento e/ou processos de inversão;
4) em poços exploratórios, ver ‘a frente’ da broca, ou seja, o campo de ondas ascendente
(as reflexões) podem fornecer informações sobre camadas ainda a serem perfuradas; isto
pode ser importante para correções em estimativas de profundidade ou previsão da
proximidade de zonas com sobrepressão;
5) dados com melhor correlação com a sísmica de superfície que perfis de poços por três
razões: a) a faixa de freqüência da sísmica é mais próxima a do VSP que a de perfis, b) a
região em volta do poço amostrada pelo campo de ondas é significativamente maior (e
menos distante da sísmica de superfície) no VSP que em perfis, e c) VSPs são menos
sensíveis às condições dos poços.

Puckett (1991) apresenta três casos de utilização de VSP com offset em regiões
com estágio maduro de exploração para caracterização de reservatórios e definição de
locações de desenvolvimento.
A primeira, em uma região NW de Oklahoma em que os poços têm profundidade
de 2.100 a 3.000 m e o principal problema é encontrar boas porosidades (8% é
considerado um bom valor). Um poço encontrou uma camada com φ de 16% sobreposta à
camada com φ de 10%, o que constitui um excelente reservatório. Para verificar a
continuidade lateral foram adquiridos três VSPs em diferentes direções, com offset de
1.300 m, com os resultados indicando (fig. 8.2.4) que a extensão da zona de boa
porosidade é muito restrita.

Fig. 8.2.3 – VSPs com afastamento em diferentes direções indicando baixa continuidade do
reservatório Hunton (extraído de Puckett, 1991).

O segundo caso foi na Bacia de Anadarko em que dois VSPs foram adquiridos
com offsets de 2.500 m com o propósito de identificação e posicionamento de falhas, mas
com os resultados sugerindo a presença de uma camada com boa porosidade.
O terceiro e ultimo caso foi na Bacia de Ardmore (S Oklahoma), onde em uma
área com falhas reversas foi perfurado um poço no flanco de um horst; neste poço foi
adquirido um VSP com offset para imagear o reservatório carbonático mergulho acima e
um arenito sotoposto não atingido pelo poço. Devido à complexidade estrutural, foi

147
realizada modelagem numérica (traçado de raio) para selecionar o melhor posicionamento
de fonte e receptores (este procedimento – realização de modelagens para determinar
parâmetros de aquisição – é padrão atualmente), que indicou que para imagear o arenito
sotoposto a fonte deveria estar para SW, mas com esta opção se obteriam reflexões
horizontais (que geralmente possuem baixa razão sinal/ruído) para o carbonato. Com a
fonte a NE, a modelagem indicou o registro de reflexões verticais para o carbonato, mas
um pior imageamento para os horizontes profundos. Optou-se então por adquirir nas duas
posições, e os resultados mostraram o padrão de falhamentos da área (fig. 8.2.4), que é
fundamental na localização dos poços porque as falhas colocam lado a lado camadas
permeáveis e impermeáveis.

Fig. 8.2.4 – Exemplo da Bacia de Ardmore (Oklahoma). Modelagens (esq.) indicaram a


necessidade de duas direções de levantamento. Resultados (dir.) mostraram o padrão de
falhamentos, fundamental na caracterização de reservatórios na área (extraído de Puckett, 1991).

Hardage et al. (1994) apresentam um estudo de integração de informações


geológicas, geofísicas e de engenharia no campo de Stratton (sul do Texas), em que foi
possível a detecção de camadas de até 3 m de espessura e 60 m de largura (canais
fluviais meandrantes) a 1.800 m de profundidade em dados sísmicos calibrados
cuidadosamente com VSP. Apesar de realmente impressionantes, a possibilidade de
detecção de camadas tão finas infelizmente não é muito comum, sendo restrita a algumas
situações especiais.

Campbell et al (2005) consideram que VSPs são usados geralmente como check-
shots densos para calibração de perfis sônicos, obtenção de informação de velocidades e
geração de um traço para correlação sísmica-perfil. Segundo os autores, isto subestima a
técnica e também desperdiça algumas oportunidades para extrair informações que podem
ajudar tanto o processamento quanto a interpretação, como por ex. medidas diretas do
fator Q e espalhamento geométrico e efeitos de múltiplas intracamadas.

Na Petrobras, o uso de VSP talvez ainda seja tímido, provavelmente devido ao alto
custo das sondas de perfuração e do imageamento de uma porção muito limitada do
reservatório.
Foi adquirido pela Schlumberger um 3D-VSP no Campo de Marlim (Ribeiro et al,
2006) com padrão de tiros circular e processamento por duas companhias (Read e
Schlumberger). Os resultados dos dois processamentos podem ser considerados
complementares. O custo total foi superior US$ 1,5.106 (incluindo o tempo de sonda da
operação). A qualidade, apesar de boa, ficou aquém do esperado, e a resolução vertical
foi pouco superior a da sísmica de superfície. Importante registrar que o numero de

148
receptores (doze) não foi muito elevado, mas a aquisição ocorreu ‘aproveitando’ a
presença de um navio-fonte que estava realizando operações de under-shooting para
aquisição sísmica de superfície no complexo de Marlim. Atualmente existe um projeto
coordenado pelo geof. Schinelli (UN-BA) procurando realizar uma carteira de possíveis
aquisições 3D-VSP, de forma a conseguir a presença por um longo tempo de uma
embarcação com fonte sísmica. Na prática, porem, o elevadíssimo dinamismo dos
cronogramas de perfuração deve tornar a aplicação desta carteira inviável. Uma opção
talvez seja usar a idéia da CGG que, pretendendo instalar sensores permanentes no
fundo do mar (OBC) no Campo de Roncador, sugeriu o uso de um container com todos os
equipamentos (fonte, compressores, instrumentos de registro, etc) necessários para a
aquisição, que seriam carregados rapidamente em algum rebocador de médio a grande
porte.

8.3 Tomografia sísmica entre poços

A tomografia, bastante usada na medicina, é usada na sísmica para estimativa de


parâmetros litológicos e imageamento de camadas (Stewart, 1992). O conceito físico
fundamental é a reconstrução de imagens a partir da soma de diversas projeções.
Na medicina, funciona muito bem devido à excelente cobertura angular (diversas
trajetórias), sendo medida a atenuação de raios-x, relacionada diretamente à densidade
do material atravessado. Na petrofísica, a tomografia fornece, também por análises de
atenuação, informações de densidade, que são usadas na determinação de composição
mineralógica, textura, estrutura sedimentar e distribuição de fraturas. Fornece também
estimativas de melhores parâmetros de pressão e injeção para vários agentes EOR.
Na sísmica, é difundida a partir do congresso da SEG de 1984 em Atlanta, quando
foi citado seu uso para determinação de velocidades mais acuradas. Teoricamente, a
tomografia trabalha com as mesmas variáveis da sísmica de superfície – velocidades,
atenuação, impedância, absorção, polarização, etc. Atualmente, é bastante usada na
determinação de velocidades para realização de PSDM (cap. 4). Uma discussão teórica
sobre a matemática envolvida em processos de tomografia esta além dos objetivos deste
curso, e neste capítulo o termo ‘tomografia’ se refere a ‘tomografia entre poços’ (fig.
8.3.1).

A principal vantagem da tomografia em relação à sísmica de superfície é a mesma


do VSP, que é a colocação de receptores próximos ao reservatório, evitando a forte
atenuação e absorção (inelasticidade) que ocorre nas camadas superficiais. A grande
vantagem em relação ao VSP é que na tomografia tanto a fonte quanto o receptor estão
próximos ao reservatório, permitindo um registro de freqüências muito altas –
teoricamente, é possível (segundo Stewart, 1992 e Harris, 1994) o registro da ordem de 5-
20 a até 2.000 Hz, mas em casos reais a freqüência máxima utilizável é em torno de
1.000 Hz, o que de qualquer forma representa um aumento significativo de resolução
vertical. Além da resolução vertical, a obtenção de velocidades por inversão do tempo de
trânsito (que podem ser usadas na estimativa de propriedades petrofísicas e em
heterogeneidades a partir da amplitude de reflexões) é muito superior nesta técnica.

O auge do uso da tomografia de poços foi na segunda metade da década de 90. À


época, a aplicação mais comum era em processos de EOR em áreas de óleo pesado
(Stewart, 1992, Paulsson et al., 1992), tendo sido usada principalmente para
monitoramento de fluxo de vapor porque, como as mudanças nas propriedades
petrofísicas (velocidades, principalmente), são muito grandes, não era necessário um
tratamento muito sofisticado na aquisição e processamento dos dados (Harris, 1994).

149
Apesar do sucesso do monitoramento da injeção de vapor (Justice et al., 1993, por ex.), já
naquela época se questionava os benefícios econômicos (Harris, 1994), quando o custo
de uma aquisição básica (dois poços) era em torno de US$ 50.000, sem considerar
processamento e custos indiretos associados à parada de operação de pelo menos dois
poços.

Fig. 8.3.1 – Seção esquemática de


levantamento tomográfico,
incluindo algumas trajetórias de
raio (extraído de Stewart, 1992).

As fontes mais comuns eram os transdutores piezelétricos, sendo usado também


cápsulas de dinamite, canhões de ar comprimido e perfurantes, cordel detonante,
vibradores hidráulicos e, secundariamente, a própria broca de perfuração (muito pouco
efetivo, como no caso do VSP reverso). Os receptores são os mesmos usados em VSP
(geofones tri-axiais, acelerômetros e hidrofones no interior de líquidos). A configuração de
aquisição típica é mostrada na fig. 8.3.1.

A análise dos dados registrados é complexa, com as dificuldades se iniciando no


padrão de radiação das ondas emitidas pela fonte (complicado devido ao confinamento
cilíndrico) e passando pela grande quantidade de ondas registradas (fig. 8.3.2). A
utilização somente de ondas diretas, apesar de bem mais simples, não permite a extração
de todo o potencial do método tomográfico – este fato é exemplificado na fig. 8.3.3, em
que se podem observar a geometria das camadas obtida em cada situação.
Na prática, usa-se uma ‘mistura’ de propriedades do processamento de VSP e da
sísmica de reflexão (de superfície), com vasta aplicação de processos de inversão que
descrevam campos de ondas em meios heterogêneos (nestes processos, o problema da
convergência de processos não-lineares costuma estar presente, segundo Harris, 1994).

150
Fig. 8.3.2 – Diversos tipos de
ondas presentes em dados de
tomografia sísmica entre poços
(extraído de Harris, 1994).

Uma grande desvantagem – talvez a maior, especialmente no mar – da tomografia


para caracterização de reservatórios é que os poços têm que estar muito próximos,
devido à energia limitada que se pode usar em uma fonte no interior de um poço, à
absorção que ‘rouba’ as altas freqüências quando o sinal se propaga por distâncias
longas e pela grande complicação que se torna o campo de ondas quando ondas
refratadas (item 2.7), que possuem fortes amplitudes e rápidas mudanças de fase
começam a aparecer (que é o que ocorre quando os receptores estão além da distância
critica, fig. 2.7.3). Sendo otimista, pode-se acreditar que o método funcione com distância
entre poços de até 1.000 m, mas na literatura normalmente a distância é inferior a 500 m.

Zhou et al. (1993) apresentam resultados de tomografia de poços distantes 600


pés, conseguindo, segundo os autores, “… o melhor retrato de velocidades 2D da terra já
obtido pela sísmica”, com resolução vertical de 3 m (fig. 8.3.3). Macrides et al. (1988)
também apresentam resultados de tomografia para controle de frente de injeção de vapor.

Entre as principais razões para a diminuição do interesse na tomografia entre


poços – apesar de vários resultados práticos muito bons – estão a reduzida área
imageada (associada à necessária proximidade dos poços), a necessidade da
disponibilidade de pelo menos dois poços, a relativa complexidade do processamento
causada pela grande quantidade de ondas registradas e a ausência de uma imagem 3D.
Assim, esta técnica tem grande potencial quando a necessidade de uma alta definição da
geometria e petrofísica justificam o custo envolvido – situação esta não muito comum.

151
Fig. 8.3.3 – Resultado final de tomografia sísmica realizando inversão da forma da onda (esq.) e
comparação em detalhe das resoluções vertical e horizontal quando esta inversão é usada (acima)
e quando somente tempos de trânsito (abaixo) são considerados (extraído de Zhou et al, 1993).

8.4 Perfil sônico de reflexão

A idéia básica é registrar, em vez das ondas diretas registradas e analisadas na


perfilagem sônica convencional, ondas refletidas em interfaces próximas ao poço.
Geralmente as interfaces são referentes a topo e/ou base de uma camada, e os poços
são direcionais de alto ângulo ou horizontais. Isto é conseguido se afastando bastante
fontes e receptores, de forma que exista uma distância suficiente para que as ondas
refletidas sejam registradas.

Na prática, um possível problema é a necessidade de operações a cabo, o que


pode acarretar um tempo talvez longo de sonda, e o pequeno diâmetro geralmente
presente nesta fase de perfuração, que sempre é um agravante potencial para a geração
de problemas operacionais.

Foi realizada uma aquisição no campo de Marlim Sul, com resultados mostrando a
geometria do reservatório turbidítico a uma distância de até 10 m do poço e resolução de
0,3 m (Maia et al, 2006).

8.4 Seismic while drilling (SWD)

Nesta técnica, um grupo de receptores é colocado relativamente próximo à broca


de perfuração. Nos breves intervalos de colocação dos tubos de perfuração, é possível se
acionar uma fonte de ar comprimido, que gera energia suficiente para que um sinal seja
captado em sub-superfície. A fonte de ar geralmente vem do próprio mecanismo de
sustentação do equilíbrio da plataforma.
Dessa forma, tem-se um registro da onda direta em tempo real, o que significa a
possibilidade de vários pontos de check-shot durante a perfuração, o que auxilia bastante
as quase sempre presentes correções necessárias entre a profundidade estimada

152
inicialmente (durante os estudos de locação de poços) de determinados objetivos e a
efetivamente constatada pelo poço, principalmente em situações exploratórias.
Também extremamente útil – apesar de atualmente ainda não ser possível em
tempo real – é o registro de ondas refletidas, pois auxiliam nas correções de
profundidade, fazendo com que o SWD funcione como um VSP.

153
9 – INTRODUÇÃO À SÍSMICA 4D

É fato provado na teoria e na prática que substituições e/ou mudanças na pressão


e/ou temperatura dos fluidos que preenchem os poros de uma rocha sedimentar alteram
os valores de velocidade de propagação de ondas e densidade desta rocha. Como
geralmente os processos de produção e injeção efetuados em vários campos de óleo
estão associados à pelo menos um (e quase sempre a mais de um) desses efeitos, é
natural supor que a resposta sísmica de uma rocha-reservatório possa variar ao longo da
vida de um campo, e também que essas variações possam ser relacionadas qualitativa e
quantitativamente às mudanças induzidas – mais especificamente, no caso dos campos
mais importantes no Brasil, estamos interessados em avanços de frentes de injeção de
água, mudanças de pressão e possível óleo ‘deixado para trás’.
Por outro lado, geralmente, o gerenciamento de reservatórios é baseado no
resultado de simuladores de fluxo, por sua vez baseados em modelos geológicos (e
estes, muitas vezes, baseados fortemente em dados sísmicos). As mudanças na
distribuição de fluidos e pressões causadas por produção e/ou injeção previstas pelos
simuladores são verificadas por poços e/ou histórico de produção e balanço de materiais.
O que a sísmica 4D procura conseguir é tal verificação em toda a área do campo.

Inicialmente, precisa-se estimar o mais corretamente possível as mudanças


esperadas nos parâmetros petrofísicos das rochas devidas à produção/injeção. Esta
análise, denominada de estudo de viabilidade (feasibility), é a etapa inicial de qualquer
projeto 4D, e é geralmente baseada nas equações de Biot-Gassmann-Geerstma (item
2.3.13), novamente discutidas a seguir.

Naturalmente, estamos interessados somente em mudanças causadas por


produção e/ou injeção. Essas mudanças geralmente não são muito grandes (10% para
impedância acústica é um valor ótimo, com 5% já sendo aceitável, apesar de um pouco
arriscado), o que significa dizer que os dados adquiridos ao longo do tempo devem ser o
mais próximo possível entre si, com diferenças mínimas de aquisição – isto leva ao
conceito de repetibilidade, que por sua vez leva ao questionamento de quão
diferentemente dois 3Ds podem ser adquiridos e ainda assim as diferenças nas respostas
sísmicas serem observáveis.
Discussões do quão necessário é a repetibilidade, qual nível de diferença é
aceitável, quais os parâmetros de aquisição são os mais importantes (a direção de
aquisição parece estar entre os mais importantes), o real benefício de se usar sensores
permanentes, o quanto de diferença acima do reservatório pode ser minimizado (e como)
durante o processamento, etc, são bastante atuais e importantes, e não devem ser
completamente resolvidas no curto prazo (próximos dois anos).
Sem entrar em maiores detalhes sobre a repetibilidade, podemos pensar no caso
terrestre em mudanças no lençol freático, alterações no acoplamento de geofones,
mudanças na resposta do solo nos pontos de tiro, etc. No mar, existe o problema do
posicionamento (horizontal e vertical) da fonte e dos receptores, diferentes trajetórias
associadas a variações na deriva dos cabos, etc. Nos dois ambientes, variações do ruído
ambiental em levantamentos distintos estão sempre presentes.

Em dados reais, sempre existem diferenças nos dados sísmicos acima do


reservatório (onde, a princípio, não deveriam ocorrer diferenças, salvo alterações de
subsidência do reservatório de difícil percepção com a qualidade atual dos dados – salvo
casos de importância isolada, como alguns campos no Mar do Norte). Estas diferenças
são minimizadas durante o processamento, preferencialmente em etapas antes do

154
empilhamento. Basicamente, o que se procurar é ‘igualar’ o mais possível os dois dados,
geralmente usando-se bastante processos estatísticos (por mais desejável que os
determinísticos predominassem) e verificação após a aplicação de cada etapa se as
diferenças acima do reservatório estão diminuindo – diferenças essas associadas à
amplitudes distintas e deslocamentos de fase e tempo.
Com tamanhos questionamentos, é natural supor que a sísmica de monitoramento
funcione melhor quanto maior forem as variações na impedância das rochas – na prática,
tais casos estão associados à injeção de vapor, que foram os primeiros exemplos reais da
sísmica 4D (Greaves e Fulp, 1987), inclusive na Petrobras (campo de Fazenda Alvorada,
no Recôncavo). Como exemplo, são mostradas na fig. 9.1 exemplo do monitoramento de
injeção de vapor e na fig. 9.2 outro exemplo de injeção de vapor (neste caso, dados de
tomografia em de areia inconsolidada com φ de 32% e κ de 1 Darcy) mostrando espectros
de amplitude antes e após injeção de vapor, acima e abaixo do reservatório.

Fig. 9.1 – Seção sísmica vertical de um 3D mostrando envelope das amplitudes de reservatório
(setas brancas) (a) antes, (b) durante e (c) após processo de injeção de vapor. Observar dimspot
nas amplitudes do nível Palo Pinto (abaixo do reservatório) (extraído de Greaves e Fulp, 1987).

155
Fig. 9.2 – Comparação entre
espectros de amplitude para uma
janela de tempo acima (a) e abaixo
(b) do reservatório, antes (linha cheia)
e após (linha pontilhada) processo de
injeção de vapor (extraída de
Eastwood et al., 1994).

Dillon e Vasquez (1993) analisaram, em laboratório, o comportamento de VP em


amostras do reservatório do campo de Fazenda Alvorada (BA), com variações de
temperatura entre 25 e 900C, observando mudanças de 12%. Os resultados obtidos
indicaram também que, ao se corrigir teoricamente os efeitos de dispersão, as variações
de velocidade são iguais ou maiores que as observadas em laboratório. Além disso, em
um caso real a presença da fase gasosa e o aumento da pressão dos poros causam um
decréscimo adicional em VP. No caso especifico daquele campo (reservatório a 350C),
variações de 15% na velocidade seriam obtidas a temperaturas de 1000C, mostrando ser
teoricamente possível o monitoramento sísmico de um processo de injeção de vapor.

As equações de Gassman fornecem uma relação teórica entre alterações nas


velocidades de propagação de ondas sísmicas ao se ocorrer substituição de fluidos,
sendo fundamentais em análises de sísmica 4D – por isso, têm recebido muita atenção. A
aplicação mais usada é a relação entre os módulos de compressibilidade para a rocha
seca e saturada com fluidos. Apesar de seu uso muito vasto, as premissas básicas de
como essas expressões foram obtidas são algumas vezes esquecidas segundo Berryman
(1999), que apresenta um tutorial sintético sobre o assunto e mostra que a idéia algumas
vezes considerada de que Gassman assume que o módulo de cisalhamento é constante
não é correta.
No tutorial, Berryman diz que as equações de Gassman relacionam os módulos de
compressibilidade e cisalhamento quando um meio mono-minerálico, isotrópico e poroso
está saturado e seco. As equações também mostram que µ tem que ser independente da
presença de fluido – mas não usam isto como premissa, ao contrário do que é algumas
vezes considerado. Uma premissa importante é que não ocorre interação química entre a
rocha e os fluidos. Outro fator fundamental é que as expressões de Gassman se aplicam
às baixas freqüências, pois realizam uma análise quase-estática dos módulos elásticos.
Stovas e Landro (2005) consideram que, ainda que seja usada com freqüência, a
equação de Gassmann ainda necessita de verificação por dados sísmicos. Os autores
dizem que estudos recentes de time-lapse indicam que Gassmann é aceitável, mas como

156
existem grandes incertezas associadas com os dados sísmicos, não é possível se ter uma
conclusão definitiva. Concluindo, é considerado que é muito importante trabalhar com
vários tipos de incertezas e tentar reduzi-las o máximo possível – os autores sugerem a
aquisição de perfis de saturação e medidas de pressão antes da produção e durante o
levantamento do 3D de monitoramento. No mesmo artigo, é citada a incerteza da validade
de medidas de testemunhos, não sendo completamente entendidos efeitos de dano à
rocha durante testemunhagem (por ex., Nes et al, 2000, encontraram diferenças
significativas entre uma amostra sintética manufaturada com tensões in-situ e a mesma
amostra após a aplicação de pressão seguida de alívio de pressão) nem a questão do
upscaling.

Análises e interpretação 4D são geralmente qualitativas. Um exemplo comum é a


identificação de óleo ‘deixado para trás’ (by-passed oil), que tem fornecido resultados
úteis para um melhor gerenciamento de reservatórios (por ex., Landro et al., 1999, e
Koster et al., 2000). Estes estudos qualitativos costumam serem mais bem sucedidos
quando um efeito (saturação ou pressão) relacionado à produção domina sobre o outro.
Se os dois efeitos forem da mesma importância, é necessária uma análise quantitativa, o
que nos leva a um problema atual da sísmica 4D, que é diferenciar as mudanças devidas
a variações de pressão daquelas causadas por variações de saturação. Alguns artigos
que discutem esse assunto são citados a seguir.
Lumley e Tura (1999) propõem um método de inversão baseado em time-lapse
AVO, com uma primeira etapa sendo uma inversão para mudanças relativas em AVO e
uma segunda etapa (opcional) é o uso de perfis para obter valores absolutos de IP e IS,
com a fase final sendo a relação entre as mudanças de impedância com variações de
propriedades do reservatório através de crossplots de impedâncias.
Landro (1999, 2001) derivou equações explícitas, relacionando diretamente
mudanças em SW e P a mudanças de amplitude em dados empilhados near e far, sendo
necessárias equações petrofísicas empíricas relacionando variações de VP, VS e
densidade com mudanças em pressão de poros e saturação. O autor sugere, para
saturação, o uso de Gassmann, e para pressão, medidas ultra-sônicas em plugs ou
modelos geomecânicos. Na Petrobras, o grupo de física de rochas do Cenpes – geof.
Guilherme Vasquez – fornece essas equações.
Segundo Landro et al. (1999), medidas de diferenças no tempo de reflexão podem
ser usadas como informação quantitativa para estimar mudanças em pay thickness ou
pressão de poros.

Bertrand e Bannister (2005) analisam alguns dos problemas presentes no


processamento ao se usar legacy data (dado ‘herdado’, termo usado para designar dados
antigos, geralmente adquiridos com objetivos distintos dos atuais, mas que ainda assim
são usados em comparação com dados novos, como por ex. em sísmica para
monitoramento de reservatório). Os autores descrevem metodologias para contornar
esses problemas e apresentam resultados no campo de Troll West (Mar do Norte),
concluindo que mesmo nesse tipo de dado – cujo objetivo inicial não era 4D – é possível
trabalhos quantitativos, monitorando-se a variação do contato gás-óleo (no entanto, os
resultados não são comparados com dados de poços).
A situação estudada é complicada, porque tanto o base survey (1ª aquisição, que
será usada para comparação com sísmicas futuras) quanto o primeiro levantamento para
monitoramento são 3Ds agrupados (merge data). Os autores desenvolveram um fluxo de
processamento ‘dependente’ da aquisição, de forma a diminuir os fatores de não-
repetibilidade: condições da água do mar (marés e temperaturas), cobertura irregular da
aquisição, dados de navegação (posicionamento de pontos de tiro) pobres e consistência

157
de tiros e receptores. Foi usado um algoritmo que separa as variações de tempo das
variações de amplitude para análise 4D, através de critérios de reconhecimento da forma
do pulso sísmico, e redes neurais.

Wagner et al. (2006) mostra como a ausência de baixas freqüências em dados


streamer produz artefatos no resultado de inversão acústica, em comparação com dados
OBC (que são mais ricos em amplitudes na faixa 2,5 a 8 Hz), no campo de Foinaven (Mar
do Norte). Analisando os dois tipos de levantamentos de 1995 e 1998, eles também
observam como a ausência das baixas freqüências afeta o possível monitoramento. Para
a analise 4D foi usado um modelo que considera saturações uniformes quando estas são
altas ou elevadas e não uniformes em saturações intermediárias, que mostrou que a
previsão de SGÁS é mais confiável e realista usando OBC.

MacBeth et al. (2006) fazem estudo de viabilidade do monitoramento da depleção


em arenito fechado com baixa porosidade (arenito Rotliegendes) com gás no sul do Mar
do Norte através de análise petro-elástica e modelagem sísmica. Concluem que um dado
sísmico adquirido e processado com maior cuidado pode mostrar diferenças de tempo na
base do reservatório associadas à sensibilidade às tensões da parte superior do
reservatório (fraturado), mas que as mudanças devido à produção não devem ser
detectadas no arenito não-fraturado.
A mesma área e reservatório são analisados por Hall et al. (2006), mas, em vez de
modelagens, usando-se dados reais (adquiridos em 1992 e 1999). Aplicaram-se
algoritmos para ajuste e procedimentos de warping (mudanças de parâmetros de
processamento e apresentação em diferentes partes da visualização para obter uma
melhor semelhança entre dados antigos e novos, segundo Sheriff, 2002) para compensar
diferentes aquisições e processamentos, analisando os atributos do warping e de
amplitude. Os autores concluem que, apesar de terem sido encontradas diferenças
atribuíveis a efeitos de produção, é necessário uma aquisição cuidadosa para
informações confiáveis neste tipo de reservatório, o que corrobora a principal conclusão
de MacBeth et al. (2006).

Hornby et al. (2005) apresentam testes do uso de sensores permanentes de fibra


ótica em poços. O objetivo é melhorar a repetibilidade, principalmente quando efeitos de
fluido e saturação não são facilmente separados. O uso de poços (através de VSPs) já
tem uma vantagem, pois a repetibilidade é geralmente melhor que em sísmica de
superfície. Outra vantagem é quando se deseja verificar variações de fluido e pressão nas
proximidades do poço – no entanto, quando isto não é prioritário, o uso de VSP para 4D
se torna bem menos atraente. Trabalhos anteriores mostram que dados adquiridos com
fibra ótica são similares aos de geofones. Os autores consideram, entre outras vantagens,
a maior sensibilidade e melhor resposta nas freqüências de VSP e o fato de diferentes
tipos de sensores (temperatura, pressão, sísmica) podem ser combinados em fibras
únicas. Os problemas do uso da fibra ótica são a pequena quantidade de dados
adquiridos, o custo dos instrumentos e que certas fibras não protegidas de hidrogênio
podem ‘escurecer’ (diminuindo a propagação da luz, que é a base do sistema).
Nos campos de Jubarte e Roncador existe atualmente um projeto conjunto
CGG/Petrobras para a utilização de sensores permanentes (na forma de cabos de fundo
oceânico, talvez enterrados em uma trincheira com profundidade entre 0,5 e 1,0 m). O
maior problema deste projeto é o custo extremamente elevado, pois para se imagear uma
área em torno de 25 km2 o custo total envolvido é superior a US$ 35.106.

158
Parr e Marsh (2000) apresentam um caso bem interessante e raro (único, talvez),
de visualização em time-slices de cubos de coerência de uma possível ruptura em uma
barreira de transmissibilidade (confirmada por balanço de materiais) entre um par de
poços produtores após processos de produção e injeção no campo marítimo de
Schiehallion (Shetlands) (fig. 9.3). Esta mudança do comportamento de falhas talvez não
seja tão rara assim, pois ocorre em outros campos do Mar do Norte e ocorreu no campo
de Roncador.

Fig. 9.3 – Time-slice em cubos de coerências


sugerindo forte redução de transmissibilidade
(confirmada por balanço de materiais) em parte
de uma falha entre poços horizontais
produtores C e D (extraída de Parr e Marsh,
2000).

Stovas e Landro (2005) investigaram – usando modelos de petrofísica e medidas


de testemunho – como anisotropia pode afetar análises de 4D, avaliando variações em
refletividades PP e PS. Foram estudados folhelhos isotrópicos e com anisotropia fraca e
forte e também a presença de anisotropia nos arenitos. Os autores concluíram que no
caso VTI uma anisotropia fraca nos folhelhos sobrepostos não é muito importante, mas
que alterações na anisotropia do próprio reservatório (causadas, por exemplo, por
fraturamento) podem ser detectadas por 4D.

159
10 – TÓPICOS ESPECIAIS

10.1 Introdução à sísmica multicomponente e anisotropia

O termo ‘multicomponente’ tem origem no uso de receptores (geofones) com três


componentes (geralmente, mas nem sempre, ortogonais entre si), em comparação com a
sísmica ‘convencional’, em que é usado um geofone de somente um componente. O
principal objetivo dos dois componentes adicionais é o registro de ondas cisalhantes
(ondas S).
O interesse no estudo das ondas-S é que elas muitas vezes auxiliam na definição
litológica e/ou de fluidos, pois rochas distintas costumam apresentar diferentes razões
VP/VS (ou Poisson) – como exemplo, esta razão geralmente varia com o conteúdo de
argila em um arenito, podendo assim ser usada como um indicador de VSH – e os fluidos
costumam afetar VS de forma negligenciável (ou seja, um arenito com água e um arenito
com gás geralmente tem VS próxima, já que como as ondas S não se propagam em
fluidos, o que define VS é a matriz, não o que preenche os poros).
Esta última propriedade permite concluir que, caso uma forte anomalia presente
em dados de ondas P (‘convencionais’) não ocorra em dados de ondas S, é provável que
esta anomalia esteja associada a fluidos. Por outro lado, caso a anomalia também ocorra
em dados de ondas S, então a causa principal deve ser litológica, e não o material que
preenche o poro – obviamente, neste caso a anomalia deixa de ser interessante. Na
verdade, esta propriedade das ondas S (serem insensíveis ao fluido) é usada
indiretamente em estudos de AVO e diretamente em trabalhos de inversão elástica.
A onda S pode ser vantajosa em alguns reservatórios em que o topo tenha um
baixo contraste de impedância acústica mas possui um elevado contraste de impedância
cisalhantes, com o caso mais famoso sendo o campo de Alba no Mar do Norte – em
menor escala, algo parecido ocorre em alguns reservatórios de Roncador, na Bacia de
Campos.
Outro grande interesse na análise de ondas S é nos estudos de anisotropia
(propriedade de um meio em que o valor de uma grandeza depende e varia da direção
em que a mesma é medida), pois em vários meios anisotrópicos as ondas S apresentam
a característica de birrefringência (splitting), em que uma onda S se propagando no meio
gera duas ondas S (quase sempre, ortogonais entre si), uma ‘rápida’ (S1) e outra ‘lenta’
(S2). Assim, esta polarização (que pode ser demonstrada teoricamente, mas em um nível
bem acima dos objetivos deste curso) gera duas ondas, com velocidades e (geralmente,
de forma secundária) amplitudes distintas. Este fenômeno é similar ao que ocorre com a
luz ao atravessar um cristal de calcita. Um exemplo famoso é mostrado na fig. 10.1.1, em
a onda mais devagar (S2) tem também menor amplitude.
O interesse prático da birrefringência é, principalmente, na análise de reservatórios
fraturados. Isto porque uma das principais causas do splitting na natureza são fraturas, e,
muito importante, a magnitude da diferença de velocidade entre S1 e S2 costuma ser
diretamente proporcional à quantidade (magnitude e densidade) de fraturas – ou seja,
quanto mais fraturada for uma rocha, maior tende a ser a diferença no tempo de trânsito
entre as duas ondas S que se propagam naquele meio.
A separação entre S1 e S2 ocorre porque as partículas afetadas pela onda que se
propaga paralelamente às fraturas têm deslocamento mais rápido (por serem partículas
constituídas somente da ‘rocha sã’), enquanto que a onda que se propaga
perpendicularmente às fraturas terá propagação mais lenta porque a vibração das
partículas é retardada pela presença das fraturas, que atuam como ‘freio’. Naturalmente,
a premissa nesta análise é o caso mais comum e de interesse na indústria de
hidrocarbonetos, de que as fraturas estejam preenchidas com fluido. Caso o material que

160
preencha as fraturas ‘ajude’ a propagação (por ex., fraturas em arenitos preenchidas por
carbonatos), S1 pode se propagar ortogonalmente às fraturas.

Fig. 10.1.1 – À esquerda, exemplo de seção vertical das ondas (a) S2 (mais lenta e com qualidade
ligeiramente pior) e (b) S1 (mais rápida) de reservatório fraturado e à direita dado sintético de
modelo com cinco camadas mostrando pior qualidade e maior tempo de trânsito na (c) polarização
perpendicular às fraturas que (d) na polarização paralela (extraído de Tatham e McCormack,1993).

Existem vários exemplos publicados sobre o uso da sísmica multicomponente,


sendo citado aqui um que pode ser considerado representativo. Arestad et al. (1995)
reportam seu uso para caracterização de reservatórios (dolomitos com espessura de 20 a
25 m) em que a onda P tem baixo contraste de impedância.
Outro tipo de estudo relativamente comum é analise de dados multicomponentes e
anisotropia por VSP. Winterstein e Meadows (1991) apresentam, analisando dados de
campo terrestres da Califórnia e Texas, um método para se obter a direção de máximo
stress horizontal (ou a orientação de fraturas alinhadas) e a variação desses parâmetros
com profundidade através de VSP adquirido com fontes de ondas S, analisando direções
de polarização e primeiras quebras de S1 e S2 com trajetórias próximas a verticais.
Outros exemplos estão disponíveis em Tatham e McCormack (1993), que também
apresentam princípios básicos, medidas de rochas, aquisição e processamento de dados
multicomponentes.

Então, em um levantamento verdadeiramente 3D (ou seja, em um que ocorra


registro de vários azimutes distintos, e não somente de vários offsets), é possível,
usando-se geofones (ou acelerômetros) de três componentes se ter uma medida

161
(algumas vezes, razoavelmente precisa) tanto da direção das fraturas quanto da
intensidade das mesmas.

Naturalmente, existem problemas (alguns, quase incontornáveis na prática) com a


sísmica multicomponente e o registro e uso das ondas S. Alguns são discutidos a seguir:
1) as ondas S quase sempre são mais ruidosas (às vezes, muito mais ruidosas) que as
ondas P; ruídos ambientais (vento, etc) e ondas superficiais afetam mais os
receptores horizontais que verticais; naturalmente, uma razão sinal/ruído mais baixa
significa pior qualidade; é possível uma melhora neste aspecto com o uso de
acelerômetros como receptores;
2) a absorção (item 2.7) costuma ser maior em ondas S; este fenômeno não é totalmente
compreendido, mas deve estar associado à própria vibração das partículas, que no
caso de esforços cisalhantes significa maior atrito – e, consequentemente, maior
perda da energia mecânica de propagação para calor – que ondas compressionais;
assim, o conteúdo de altas freqüências costuma ser menor que nas ondas P; em
termos de resolução, este problema é geralmente ‘compensado’ pelo fato da onda S
ter velocidade menor que a P, fazendo com que na prática o comprimento de onda λ
(definido por V/f, V velocidade intervalar e f freqüência dominante) seja próximo nos
dados de ondas P e S;
3) as fontes de ondas S (vibradores, geralmente) costumam ser muito problemáticas do
ponto de vista ambiental, além de serem pouco eficientes (grande parte da energia é
emitida como onda P, em vez de S) – naturalmente, isto se refere ao caso terrestre,
pois no mar (em que a fonte e receptor tem que ficar no fundo do mar, já que as ondas
S não se propagam em fluidos) a situação é muito mais complicada, não existindo –
apesar de algumas pesquisas recentes – na prática um vibrador marítimo;
4) devido ao problema da fonte, e também porque a imensa maioria das aquisições
objetiva prioritariamente a aquisição de ondas P, as ondas S registradas na sísmica
multicomponente são, na prática, geralmente geradas por conversão de modo (item
2.7) de ondas P incidentes em interfaces; estas ondas – as PS, algumas vezes
chamadas de ondas C (de ‘convertidas’, ou ‘converted’) – tem um grande
inconveniente no processamento, que é a não-validade da técnica CDP, já que não
existe mais simetria entre o ponto de reflexão (de conversão, neste caso) e o ponto
médio fonte-receptor (mesmo para camadas homogêneas e horizontais); este
fenômeno, mostrado na fig. 11.1.2, cria um complicador e vários problemas (alguns,
ainda não satisfatoriamente resolvidos) para o processamento de dados da sísmica
multicomponente;
5) na aquisição terrestre, é necessário não só um alinhamento com a vertical, mas
também com a horizontal, além de uma orientação mais precisa (para definição
correta da direção de propagação); este fato, que causam mais demora (ou seja,
maiores custos) na aquisição, tem sido atenuado recentemente com o uso de
acelerômetros (em vez de geofones);
6) na aquisição marítima, é necessária a colocação dos receptores no fundo do mar, o
que gera um custo muito superior à aquisição convencional (streamer); os receptores
são colocados em cabos (cabos de fundo oceânico, ou OBC de ocean bottom cable)
ou em unidades individuais (nodes); por outro lado, a presença de grandes obstáculos
(FPSO, plataformas fixas, etc), que prejudica bastante e pode até impedir a aquisição
por streamer, é bem menos problemática no caso de OBC ou nodes.

Na prática, o maior problema da sísmica multicomponente é o custo,


principalmente no mar. Este investimento elevado gera a discussão se o custo vale a
pena o beneficio esperado, principalmente considerando-se que informações indiretas de

162
ondas S podem ser (e são) obtidas por análises de dados de ondas P. Para ajudar esta
discussão, Guenther Schwedersky (Cenpes) está realizando inversão elástica em dados
de streamer e de cabo de fundo no campo de Roncador, para comparação dos
resultados, e avaliação do ganho real em se dispor de medidas diretas de ondas S (a
vantagem da informação direta de amplitudes de ondas S é existirem mais termos a
serem usados nas equações de Zoepprittz, que também são válidas para ondas S, da
mesma forma que para P).

Fig. 10.1.2 – Esquema mostrando


que ponto de conversão de onda P
(descendente) para onda S varia
lateralmente em profundidade,
impedindo o uso do conceito CDP
para ondas convertidas. A
aproximação assintótica é usada
em processamentos preliminares
(extraído de Rodriguez, 2000).

Uma discussão bastante sucinta sobre anisotropia (restrita somente a velocidades)


é realizada a seguir. As rochas são afetadas por cinco tipos de anisotropia de interesse.
O sistema mais simples é o hexagonal (que gera a anisotropia polar – também
chamada de VTI – em que não ocorre variação azimutal de velocidade), comum em
folhelhos e criado também por uma seqüência de camadas pouco espessas.
O próximo sistema mais complexo é o referente a fraturas verticais com um
azimute dominante. Este situação costuma ser a mais indicada para o uso de ondas S,
devido à birrefringência – no entanto, em algumas situações também ocorre variação da
velocidade da onda P de acordo com a direção de propagação. Assim, apesar da
‘vantagem’ teórica das ondas S (devido à criação de duas ondas distintas, existe maior
informação a ser usada), a vantagem prática principal da onda P é sua menor
complexidade. Em qualquer caso, é necessária a aquisição em vários azimutes
diferentes, o que significa que dados de streamer não são apropriados, geralmente, para
estas análises. Deve ser registrado que levantamentos com objetivo de definição de
direção de fraturas podem ser muito caros, pois é necessária uma boa cobertura também
em offsets para obtenção de velocidades e obtenção de boa razão sinal/ruído.
Sistemas mais complexos de anisotropia são causados geralmente quando
ocorrem mais de uma direção de fraturas verticais e/ou as fraturas não são verticais.

Traub e Li (2006), sabendo que elevados gradientes de velocidade na parte rasa


(causado geralmente por compactação) tem efeito similar à anisotropia, usam dados
sintéticos e reais (multicomponente, campo de Alba) para investigar a confiabilidade de
medidas de anisotropia nas camadas rasas a partir de move-out de ondas PP e PS. Os
autores concluem que a anisotropia da onda PP é mais bem estimada usando-se ambas
informações (PP e PS) do que PP isoladamente.
Bourbiaux et al (2005) fazem um resumo sobre os desafios na modelagem de
reservatórios fraturados, e como a sísmica pode auxiliar. Os autores sugerem o uso
integrado de informações geológicas (incluindo afloramentos análogos) e sísmicas, e
consideram que a sísmica 3D fornece informações mais confiáveis para definição de
falhas, incluindo métodos de coerência. Consideram também muito importante o uso de

163
anisotropia, que deve ser corroborada com informações de poços, pois pode indicar
direção e intensidade de fraturas.
O estudo de fraturas, apesar de até o momento ter pouco impacto econômico no
Brasil, pode ser muito importante – por ex., segundo Luo et al (2005) sete dos dez
maiores reservatórios do mundo são carbonatos freqüentemente com baixa
permeabilidade, que produzem por fraturas. Estes autores também citam que vários
trabalhos têm demonstrado a viabilidade de detecção de fraturas muito menores que o
comprimento de onda.

Esta breve análise de anisotropia será finalizada com alguns comentários sobre o
efeito da anisotropia em perfis de poços, aparentemente pouco considerado dentro e fora
da Petrobras, e que pode ser um efeito importante ao se trabalhar com muitos poços
direcionais (principalmente de alto ângulo) na geração de sismogramas sintéticos e em
processos de inversão elástica.
Rowbotham et al. (2003) mostram a importância deste efeito em processos de
inversão. O mesmo assunto é tratado por Tsuneyama e Mavko (2005) para modelagens
de AVO (fig. 10.1.3) (neste artigo os autores – para explorar relações heurísticas entre
parâmetros anisotrópicos e perfis – realizam uma compilação de dados de testemunhos,
dizendo ter encontrando correlação entre valores de anisotropia e porosidade; no entanto,
são usadas muitas equações obtidas por correlação, com vários parâmetros pouco
confiáveis).

Fig. 10.1.3 – Diferenças de


refletividades modeladas a partir
de perfis de poço desviado quando
se considera (vermelho) e não se
considera (azul) efeitos de
anisotropia devido ao desvio do
poço (extraído de Tsuneyama e
Mavko, 2005).

Hornby et al (2003) acreditam que diferenças de velocidades em perfis sônicos


entre poços desviados (maiores velocidades) e verticais no campo Niakuk (offshore
Alaska) seja causada por anisotropia de folhelhos. Os autores que, apresentam um
método de inversão iterativo (minimizando erro RMS) em uma equação que usa perfis de
poços em diferentes ângulos para quantificar anisotropia, obtiveram resultados de ε ≈
40% e δ ≈ 10%, o que afeta imageamento, AVO e conversão tempo/profundidade. Para
correção dos efeitos de anisotropia, foram usados desvios de poço, perfis, VSH (ou raios-
gama) e parâmetros anisotrópicos para rochas com 100% de argila. Após as correções,
as diferenças entre os sônicos diminuíram bastante, e ocorreu um ajuste bem melhor
entre sismogramas sintéticos dos poços desviados e a sísmica. Os autores concluíram
também que os perfis sônicos medem velocidades de grupo, não de fase.

10.2 Noções de sísmica passiva

Como o nome sugere, significa o registro de eventos sem a geração artificial de


energia. O objetivo principal tem sido o monitoramento de produção e/ou injeção –

164
incluindo comportamento de falhas (reativação, por ex.) – e, secundariamente, problemas
de subsidência.
Existem dois tipos principais: colocação de receptores em poços ou em superfície.
A primeira opção tem a vantagem do ambiente menos ruidoso e mais próximo à ‘fonte’
(i.e., o reservatório); a desvantagem é a reduzida amostragem espacial. A segunda opção
amostra uma área maior, torna mais fácil a substituição de receptores e equipamentos
com problemas, mas costuma ser mais (às vezes, muito mais) ruidosa que a primeira.
Esta metodologia deve ser considerada como ainda em fase de análises, com
resultados positivos e negativos sendo algumas vezes apresentado. Na prática, o maior
interesse por seu uso é no caso de sensores permanentes, em que se devem avaliar
possíveis vantagens do registro contínuo.

Como exemplo do potencial da técnica, a companhia Paulsson registrou, durante


duas semanas em maio/2005, mais de mil terremotos fracos e cem mais intensos,
associados à falha de San Andréas (P/GSI, 2005). Oitenta receptores 3C foram colocados
em um poço usando uma tecnologia desenvolvida para a indústria do petróleo. Os
terremotos fracos não foram captados por geofones na superfície, devido a sua baixa
amplitude, mostrando a vantagem da técnica para detectar pequenas variações de tensão
em sub-superfície, em relação à sísmica de superfície. Deve ser lembrado que esta é uma
área de intensa atividade tectônica.

10.3 Introdução ao sea-bed logging e outros métodos elétricos

O método sea-bed logging (SBL, ainda sem ‘tradução’ na comunidade geofísica) é


baseado na geração de um campo eletromagnético controlado (dipolo elétrico horizontal)
30 a 40 m acima do fundo do mar. Este campo, de freqüência ultrabaixa (≈ 0,1 a 5 Hz),
mas poderoso (fazendo com que a profundidade de penetração possa se estender a
vários quilômetros em sub-superfície), gera uma energia que se propaga na água do mar,
nível do mar (interface ar-água) – as ondas aéreas – e em sub-superfície, onde é
modificado principalmente pela presença de camadas resistivas (reservatórios com
hidrocarbonetos, domos de sal, rochas vulcânicas). Finalmente, os sinais são captados
por receptores (geralmente dois conjuntos de sensores elétricos e um magnético, todos
com componentes x e y ortogonais), também colocados no fundo marinho, e processados
(geralmente, com uso intensivo de modelagem). Eidesmo et al. (2002) e Kong et al.
(2002) descrevem em detalhe o método.
Os resultados – existentes desde 2000 (Ellingsrud et al., 2002) – têm indicado a
presença de HC, mas o método é pobre para definir geometrias e bastante deficiente em
prever a profundidade e espessura de reservatórios – o método ‘enxerga’ o reservatório
como um resistor muito fino comparado com sua extensão horizontal. Por isso, é sempre
usado junto com a sísmica de forma integrada, diminuindo incertezas.
O uso já pode ser considerado de eficácia comprovada em várias situações, mas
ainda não completamente rotineiro, e com vários melhoramentos por realizar – por ex., a
maior parte dos relatos são de levantamentos 2D. Ao incorporar o terceiro navio para
esse tipo de operação, a companhia emgs afirmou ter realizado, até o final de 2005, mais
de 100 levantamentos em três anos de operação (emgs, 2005). O método funciona
melhor em águas profundas a ultraprofundas, porque é gerada na interface água-ar uma
onda de amplitude muito elevada, que, se for captada pelos receptores, obscurece o sinal
de interesse. Estudos atuais procuram viabilizar o método para águas rasas e pouco
profundas e, mais importante, para geometrias 3D.

165
Fig. 10.3.1 – Esquema de como o método
sea-bed logging diferencia entre
reservatórios com água (acima) e com
hidrocarboneto (extraído de Hesthammer e
Boulaenko, 2005).

Tem sido usado em locais muito variados, como Malásia (McBarnet, 2005).
Bhuiyan et al. (2006) apresentam um dos poucos casos em que o SBL foi usado na
detecção de litologias (e não hidrocarbonetos) altamente resistivas. A aquisição (do tipo
especulativa), de 2003, usou 31 receptores distribuídos ao longo de duas linhas sísmicas
sobre o arco de Modgunn (Noruega). Segundo os autores, foi possível detectar sills
altamente resistivos profundamente enterrados.

Fig. 10.3.2 – Resultado (não


confirmado por poço) de SBL sobre
seção sísmica. A anomalia à direita
deve estar associada a gás, mas a da
esquerda é inconclusiva (extraído de
Hesthammer e Boulaenko, 2005).

Oldengurg et al. (2005) comentam que um dos grandes impedimentos ao uso de


levantamentos eletromagnéticos é a complexidade dos dados, que, diferentemente de
informações gravimétricas ou magnéticas, podem não estar relacionados à geologia de
uma maneira simples. De acordo com os autores, sedimentos marinhos preenchidos com
água são bem condutivos (1 a 5 Ω.m), enquanto que reservatórios com HC são pelo
menos uma ordem de grandeza mais resistivos.

166
A Petrobrás tem um projeto, sob coordenação do geof. Marco Polo, basicamente
em áreas exploratórias. Até o momento não tem sido reportados estudos importantes
sobre o uso de sea-bed logging em estudos de caracterização de reservatórios,
principalmente devido a pouca precisão do método.

Existe uma discussão judicial ainda não resolvida sobre a patente do método entre
a Statoil (que cedeu a tecnologia para a cia norueguesa emgs) e a University of
Southampton (a partir de onda foi criada a companhia inglesa OHM). A decisão deve ser
favorável à Statoil, pois Southampton aparentemente apenas auxiliou nas etapas finais de
desenvolvimento da técnica. Além destas duas, somente a Schlumberger (que comprou
uma empresa pequena que usa esta tecnologia) oferecem serviços com este método.

Para procurar determinar a extensão de reservatórios com óleo, He et al (2005)


apresentam um método eletromagnético transiente (TEM) – em que uma corrente
contínua é enviada intermitentemente e mede-se o transiente (que pode ser definido
como um pulso não repetitivo de curta duração) gerado – associado à polarização
espectral induzida (SIP, que é a medida do decaimento da voltagem induzida após a
corrente de excitação ser desligada). O método é baseado na geração de potencial
induzido e ‘espalhamento’ de freqüências em uma interface sólido-liquído. Uma corrente
alternada é emitida do poço (acima e abaixo do reservatório) e medida em superfície, com
variações de resistividade e fase para diferentes freqüências indicando precisamente
limite do reservatório e também litologia (fig. 10.3.3) O método foi testado e usado na
Rússia e China (terra). Segundo os autores, é mais barato que a sísmica, podendo
também dar resultados em algumas situações que o método sísmico não funciona.

Fig. 10.3.3 – Comparação entre seção


sísmica (acima, com presença de óleo em
azul escuro) e resultado de método
eletromagnético transiente (extraído de He
et al, 2005).

167
REFERÊNCIAS

Aki, K. and Richards, P.G., 1980, Quantitative Seismology, Theory and Methods.

Alkhalifah, T. e Tsvankin, I., 1995, Velocity analysis for transversely isotropic media,
Geophysics, 60(?):1550-1566.

Allen, J.L.. e Peddy, C.P., 1992, Some case histories of AVO failures in the Texas Gulf
Coast, 62nd SEG Mtg, p. 848-851.

Angeleri, G.P. e Carpi, R., 1982, Porosity prediction from seismic data, GP, 30(??):580-
607.

Anstey, N.A., 1973, The significance of color displays in the direct detection of
hydrocarbons, 430 Congresso da SEG.

Anstey, N.A., 1977, Seismic Interpretation – the physical aspects, IHRDC, Boston.

Aquino, C.G.S., 1993, Abordagem estocástica para estimativa de volume de


hidrocarbonetos usando dados sísmicos, V Seminário de GDR, Rio, p.151-168.

Araktingi, U.G., Bashores, W.M., Tran, T.T.B. e Hewett, T.AA., 1990, Integration of seismic
and well log data in reservoir modeling, 3rd Annual Conf. NIPER on Reserv. Charac.

Arestad, J.F., Mattocks, B.W., Davis, T.L. e Benson, R.D., 1995, How 3D, 3C seisimic
characterized a carbonate reservoir, World Oil, abril, p.99-104.

Backus, G.E., 1962, Long-wave elastic anisotropy produced by horizontal layering, Journal
of Geophysical Research, 67(?):4427-4439.

Baechle G.T., Weger, R.J., Eberli, G.P., Massaferro, J.L. e Sun, Y.F., 2005, Changes of
shear moduli in carbonate rocks implications for Gassman applicability, TLE, 24(5):507-
510.

Bahorich, M.S. e Farmer, S.L., 1995, 3-D seismic discontinuity for faults and stratigraphic
and stratigraphic features, TLE, 14(?):1053-1058.

Bailey et al., 2005, ???, SPE 95909.

Ball, V.L. e Corrigan, D., 1996, Dual sensor summation of noisy ocean-bottom data, 66th
Int. SEG Mtg., p.28-31.

Banik, N.C., 1984, Velocity anisotropy of shales and depth estimation in the North Sea
basin, Geophysics, 49(?):1411-1419.

Barnes, A.E., 1998, The complex seismic trace made simple, TLE, 17(?):473-476.

Barr, F.J. e Sanders, J.I., 1989, Attenuation of water-column reverberations using pressure
and velocity detectors in a water-bottom cable: 59th Annual Meeting SEG Expanded
Abstracts, paper SA 2.6, page 653.

168
Batzle, M. e Wang, Z., 1992, Seismic properties of pore fluids, Geophysics, 57:1396-1408.

Berg, E., Svenning, B. e Martin, J., 1994, SUMIC: multicomponent sea-bottom seismic
surveying in the North Sea – data interpretation and applications, 64th Annual Meeting
SEG Expanded Abstracts, paper IM 1.6, p. 477-480.

Berkhout, A.J., 1973, On the minimum length property of one-sided signals, Geophysics,
38(?):657-672.

Berkhout, R.A., 1984, Seismic Resolution, Geophysical Press

Berryman, J.G., 1999, Origin of Gassmann’s equations, Geophysics, 65(5):1627-1629.

Berryman, J.G., 2005, Fluid effects on shear waves in finely layered porous media,
Geophysics, 70(2):N1-N15.

Bertrand, A. e Bannister, D., 2005, Enhanced 4D processing and quantitative analysis on


Troll West using multiple vintages of legacy data, FB 23(9):49-55.

Best, A.I., 1993, Predicting reservoir properties of sedimentary rocks from seismic
measurements, The Petroleum Science and Technology Institute, Edinburgh, RF 93/03.

Bevk, D. e Biondi, B., 2005, Which depth imaging method should you use? A road map
through the maze of possibilities, TLE 24(6):602-606.

Bhuiyan, A., Wicklund, T e Johansen, S., 2006, High-resistivity anomalies at Modgunn


arch in the Norwegian Sea, FB, 24(1):39-44.

Biot, M.A., 1956, Theory of propagation of elastic waves in a fluid saturated porous solid. II
Higher-frequency range, Journal of Acoustic Socitety of America, 28(?):168-178.

Blauth, M., Oliveira, R.M. e Silva, J.M., 1994, Metodologia para mapeamento sísmico da
capacidade de estocagem de fluido de reservatórios de petróleo, Petrobras/Desud,
Informativo Geológico 05/94.

Bodine, J.H., 1984, Waveform analysis with seismic attributes, 540 Congresso da SEG,
seçao S9.1.

Bodine, J.H., 1986, Waveform analysis with seismic attributes, Oil and Gas Journal,
84(23):59-63.

Bortfeld, R., 1961, Approximation to the reflection and transmission coefficeintes of plane
longitudinal and transverse waves, GP, 9(?):485-503.

Bourbiaux, B., Basquet, R., Daniel, J.M., Hu, L.Y., Jenni, S., Lange, A. and Rasolofosaon,
P., 2005, Fractured reservoirs modelling: a review of the challenges and some recent
solutions, FB 23(9):33-40.

Bowden, E.A. e Prior, M.J., 1983, Ocean Bottom Seismometer: An Engineering


Perspective: 53rd Annual Internat. Mtg., SEG., Expanded Abstracts, Session:S15.5.

169
Brown, A.R., 1991, Interpretation of thee-dimensional seismic data, 3rd ed., AAPG Memoir
42.

_____, 1992, The technologies of reservoir geophysics, in Sheriff, R.E. (ed.), Reservoir
Geophysics, SEG Investigations in Geophysics, vol. 7.

Brown, A.R., 2005, Pitfalls in 3D seismic interpretation, TLE, ??(7):716-717.

Brzostowski, M. e Ratcliff, D., 1995, Seismic depth-imaging of complex geology, SBGf IV


Congress Courses.

Bube, K.P., Langan, R.T. e Nemeth, T., 2005, Analysis of the spectral hole in velocity
versus depth resolution for reflection traveltimes with limited aperture, Geophysics,
70(3):U37-U45.

Cafarelli, B., Randazoo, S., Campbell, S., Sobreira, J.F., Guimaraes, M.A.G., Rodriguez,
C., Johann, P. E Theodoro, C., 2006, Ultra-deepwater 4-C offshore Brazil, TLE, 25(?):474-
478.

Cagniard, L., 1953, Basic theory of the magnetic-telluric method of geophysical


prospecting, Geophysics, 18(?):605-635.

Campbell, A., Fryer, A. and Wakeman, S., 2005, Vertical seismic profiles—more than just
a corridor stack, TLE 24(7):694-697.

Canales, L. e Bell, M.L., 1996, Ghost attenuation using dual sensor cable data, 66th Int.
SEG Mtg., p.1591-1594.

Carcione, J.M., Helle, H.B., Santos, J.E. e Ravazzoli, C.L., 2005, A constitutive equation
and generalized Gassmann modulus for multimineral porous media, Geophysics,
70(2):N17-N26.

Carvalho, R.D. e Amorin, W.N., 1991, Sísmica de alta resolução, Boletim de Geociências
da Petrobras, 5(1-4):89-107.

Cary, P.W., 2001, Seismic signal processing – a new millenium perspective, Geophysics,
66(?):18-20.

Castagna, J.P., Sung, S. e Siegfried, R.W., 2003, Instantaneous spectral analysis:


Detection of low-frequency shadows associated with hydrocarbons, TLE, 22(?):120-127.

Cerveny, V. e Ravindra, R., 1971, Theory of seismic head waves, Univ. of Toronto Press.

Chopra, S., Chemingui, N. e Miller, R.D., 2005, An introduction to this special section –
carbonates, TLE, ??(5):488-489.

Chopra, S. e Marfurt, K.J., 2005, Seismic attributes – a historical perspective, Geophysics,


70(5):3SO-28SO.

Churlin, V.V. e Sergeyev, L.A., 1963, Application of seismic surveying to recognition of


productive part of gas-oil strata, Geologiya Nefti I Gaza, 7(11):363.

170
Connolly, P., 1999, Elastic impedance, TLE, 18(??):438-452.

Contreras, A, Torres-Verdín, C. and Fasnacht, T., 2005, More vertical resolution and
accuracy with less uncertainty in reservoir characterization, FB 23(10):75-78.

Cooley, J.W. e Tukey, J.W., 1965, An algorithm for the machine calculation of complex
Fourier series, Mathematical Computation, 19(?):297-313.

Cooke, D.A. e Schneider, W.A., 1983, Generalized linear inversion of reflection seismic
data, Geophysics, 48(??):665-676.

Cunha Filho, C., Rodriguez, C. e Cavalcanti, V.L.B. 200?, aumento de resolução – nova
seqüência

De Buyl, M., 1989, Optimum field development with seismic reflection data, TLE, 8(4):14-
20.

DeLaughter, J., Meltz, B., Smith, S., Yun, J. and Murat, M., 2005, Use of z-score to rescale
amplitudes, TLE 24(7):698-701.

Denham, L.R. e Sheriff, R.E., 1980, What is horizontal resolution, 50th SEG Meeting.

Dequirez, P.H. e Richard, V., 1990, Application of inversion to integrated stratigraphic


interpretation, Revue de l’IFP, 45(3):397-416.

Dillon, L.D. e Vasquez, G.F., 1993, Velocidade acústica em função da temperatura em


arenitos sob diferentes regimes de saturação parcial de óleo e água, V Sem. Geof.
Petrobras, p.52-57.

Dix, C.H., 1955, Seismic velocities from seismic measurements, Geophysics, 20(1):68-86.

Dobrin, M.B. e Savit, C.H., 1988, Introduction to Geophysical Prospecting, 4th ed.,
McGraw-Hill, 867 p.

Domenico, S.N., 1974, Effect of water saturation on seismic reflectivity on sand reservoirs
encased in shale, Geophysics, 39(??):759-769.

Doyen, P.M., 1988, Porosity from seismic data: a geostatistical approach, Geophysics,
53(10):25-37.

Doyen, P.M., Guidish, T.M. e de Buyl, M.H., 1989, Monte Carlo simulation of lithology from
seismic data in a channel-sand reservoir, SPE 64th Ann. Tech. Conf., #19588.

Dragoset, W.H., 1990, Air-guns array specs: A tutorial, TLE, 9(1):24-32.

Dragoset, B. e Barr, F.J., 1994, Ocean-bottom cable dual-sensor scaling, 64th SEG Int.
Mtg, p.857-860.

Duarte, O.O., 2003, Dicionário enciclopédico inglês-português de geofísica e geologia,


SBGf, 2ª ed.

171
Duff, B.A. e Mason, D.J., 1989, The instantaneous-phase time slice: a crucial display for
enhancing 3D intepretation, ASEG 7th Conference, 20:213-217.

Duncan, P.M., 2006, Micro-seismic monitoring: the other 4-D, Hart E&P, Março, p. 43-45.

Eastwood, J., Lebel, P., Dilay, A. e Blakeslee, S., 1994, Seismic monitoring of steam-
based recover of bitumen, TLE,13(4):242-251.

Eidesmo, T., Ellingsrud, S., MacGregor, L.M., Constable, S., Sinha, M.C., Johanses, S.E.,
Kong, F.N. e Westerdahl, H., 2002, Sea Bed Logging (SBL), a new method for remote and
direct identification of hydrocarbon filled layers in deepwater areas, FB, 20(3):144-152.

Ellingsrud, S., Sinha, M.C., Constable, S., MacGregor, L.M., Eidesmo, T. e Johanse, S.E.,
2002, Remote sensing of hydrocarbon layers by Sea Bed Logging (SBL): results from a
cruise offshore Angola, TLE, 21(?):972-982.

emgs, 2005, Extra vessel ordered for EM operations, FB 23(12):35.

Evans, B.J., 1997, A handbook for seismic data acquisition, SEG Geophysical Monograph
Series num. 7, 305 p.

Faust, L.T., 1951, Seismic velocity as a function of depth and geological time, Geophysics,
16(?):192-206.

Figueiredo, F.A. e Rambo, L., 1994, Conversão tempo x profundidade, Informe Geofísico
110, Petrobras/Depex.

Forrest, M., 2000, “Bright” investments paid off, AAPG Explorer, julho: 18-21.

Freire, S.L., Santos, W.L.B., Vieira, A.C. e Fernandes, S.M., 1993, Aplicações da relação
entre resistividade e tempo de transito na Bacia do Recôncavo, V Sem. Geofísica,
Petrobras/Depex, p. 369-377.

Freitas, L.C.S, Rodriguez, C., Iatchuck, S.P., Pinto, A C.C., 1996, Campo de Marlim:
mapeamento sísmico de heterogeneidades no reservatório, I Seminário de Reservas e
Reservatórios, Petrobrás, E&P/GERER, Rio de Janeiro, p. 253-259.

Freitas, M.G. e Souza, M.M., 1992, Uso de simulação Monte Carlo na conversão em
profundidade, Informe Geofísico 95, Petrobras/Depex.

French, W.S., 1974, Two-dimensional and three-dimensional migration of model-


experiment reflection profiles, Geophysics, 39(3):265-277.

Fuchs, K., 1968, The reflection of spherical waves from transition zones with arbitrary
depth-dependent elastic moduli and density, Journal of Physical Earth, 16(?):27-42.

Futterman, W.I., 1962, Dispersive body waves, Journal of Geophysical Research,


67(?):5279-5291.

Ganley, D.C., 1979, The measurements of Q from seismic data, PhD thesis, Univ. of
Alberta, Canada.

172
Gardner, G.H.F., Gardner, L.W. e Gregory, A.R., 1974, Formation velocity and density –
the diagnostic basis for stratigrapic traps, Geophysics, 39(?):770-780.

Gassmann, F., 1951, Elastic waves through a packing of spheres, Geophysics, 16(?):673-
685.

Gazdag, J., 1978, Wave equation migration with the phase shift method, Geophysics,
43(?):1342-1351.

Geerstma, J., 1961, Velocity-log interpretation the effect of rock compressibility. SPE
Journal, 1:235-248.

Gibson,J., Burnett, R., Ronen, S. and Watt, H2005, MEMS sensors: Some issues for
consideration, TLE, 24(8):786-790.

Gochioco, L.M. e Brzostowski, M., 2005, An introduction to this special section – migration,
TLE, 24(6):601.

Grant, F.S. e West, G.F., 1965, Interpretation theory in applied geophysics, McGraw Hill.

Grau, G., 1990, Foreword, Revue de l’IFP, 45(3):295-300.

Gray, S.H., 2001, Seismic imaging, Geophysics, 66(?):15-17.

Greaves, R.J. e Fulp, T.J., 1987, Three-dimensional seismic monitoring of an enhanced oil
recovery process, Geophysics, 52(9):1175-1187.

Grochau, M.H. e Freitas, J.T.R., 1993, Potencialidade da utilização de altas freqüências


na região amazônica, Informe Geofísico 109, Petrobras/Depex.

Guimaraes, M.A.G., Sekharam, K.K., Sukup, D. e Krail, P.M., 1998, 3D pre-stack depth
migration of vertical cable data over SEG/EAGE physical model, 68th SEG Mtg, p.1182-
1186.

Hall, A., MacBeth, C., Stammeijer , J. e Omerod, M., 2006, Time-lapse seismic analysis of
pressure depletion in the Southern Gas Basin, GP, 54(?):63-73.

Hall, M.A., 1990, A popperian evaluation of a stratigraphic inversion methodology, Revue


de l’IFP, 45(3):357-382.

Han, D.H., Nur, A. e Morgan, D., 1986, Effects of porosity and clay content on wave
velocities in sandstones, Geophysics, 51(??):2093-2107.

Hardage, B.A., Levey, R.A., Pendleton, V., Simmons, J. e Edson, R., 1994, A 3D seismic
case history evaluating fluvially deposited thin-bed reservoirs in a gas-producing property,
Geophysics, 59(11):1650-1665.

Harris, J.M., 1994, Crosswell seismic profiling: a new tool of reservoir geophysics, Apostila
de curso no PPPG/UFBA.

173
Hatton, L., Larner, K e Gibson, B.S., 1981, Migration of seismic data from inhomogeneous
media, Geophysics, 46(5):751-787.

He, Z., Liu,X., Qiu, W. and Zhou,H., 2005, Mapping reservoir boundary by borehole-
surface TFEM:Two case studies, TLE 24(9):896-900.

Heath, T., 1921, A history of Greek Mathematics, Oxford at the Clarendon Press.

Hesthammer, J. e Boulaenko, M., The offshore EM challenge, FB, 23(11):59-66.

Hornby, B. E., Howie, J. M. and Ince, D.W., 2003, Anisotropy correction for deviated-well
sonic logs: Application to seismic well tie, Geophysics, 68:464-471.

Hornby, B.E., Bostick, F.X., Williams, B.A., Lewis, K.A. e Garossino, P.G., 2005, Field test
of a permanent in-well fiber-optic seismic system, Geophysics, 70(4):E11-E19.

Hubral, P. e Krey, T., 1980, Interval velocities from seismic relfection time measurements,
SEG, 203 p.

Huck, A., Rooij, M., Groot, P., Henke, C. and Rauer, S., 2005, Populating a PSDM created
earth model with PSTM predicted seismic properties, FB 23(10):87-91.

Hughes, S., Barton, P., Harrsion, D. e Johnson, M., 1995, Exploration in the Faeroe-
Shetland Basin Using Densely Space Arrays of Ocean Bottom Seismometers: 57th Mtg.
EAEG., Abstracts,Session:C002.

Hwang, L. e McCorkindale, D., 1994, Troll field depth conversion using geostatically
derived average velocities, TLE, 13(4):262-269.

Justice, J.H., Mathisen, M.E., Vassilou, A.A., Shiao, I., Alameddine, B.R. e Guinzy, N.J.,
1993, Crosswell seismic tomography in improved oil recovery, FB, 11(6):229-239.

Kalkomey, C.T., 1997, Potential risks when using seismic attributes as predictors of
reservoir properties, TLE, 16(?):247-251.

Kallweit, R.S. e Wood, L.C., 1982, The limits of resolution of zero-phase wavelets,
Geophysics, 47(7):1035-1046.

Kjartansson, E., 1979, Constant Q-wave propagation and attenuation, Journal of


Geophysical Research, 84(?):4737-4748.

Klimentos, T. e McCann, 1990, Relationships between compressional wave attenuation,


porosity, clay content, and permeability of sandstones, Geophysics, 55(??):998-1014.

Kong, F.N., Westerdahl, H., Ellingsrud, S., Eidesmo, T. e Johansen, S.E., 2002, SeaBed
Logging: A possible direct hydrocarbon indicator for deep sea prospects using EM energy,
Oil & Gas Journal, May 13.

Koster, K., Gabriels, P., Hartung, M., Verbeek, J., Deinum, G. e Staples, R., 2000, Time-
lapse seismic surveys in the North Sea and their business impact, TLE, 19(?):286-293.

174
Krail, P.M., 1991, Case history: Vertical cable 3-D acquisition: 53rd Mtg. EAEG, Abstracts,
206.

Krail, P.M., 1994, Vertical cable as a subsalt imaging tool: TLE, 13(8): 885-887.

Krail, P.M., 1997, Vertical-cable marine seismic acquisition: Offshore Technology


Conference, OTC 8315, p. 347-355.

Krebes, E.S., 1989, Seismic theory and methods, Geophysics 551 Course Notes, Univ. of
Calgary.

Kunetz, G., 1963, Quelques exemples d’analyse d’enregistrements sismiques, GP,


11(4):409-422.

Journel, A.G., Xu, W. e Tran, T., 1992, Integrating seismic data in reservoir modeling : the
collocated cokriging alternative, SCRF, Stanford Univesity, Report 5, p. 1-34.

Landro, M., 1999, Repeatability issues of 3-D VSP, Geophysics, 64(?):1673-1679.

Landro, M., Solheim, O.A., Hilde, E., Ekren, B.O. e Stronen, L.K., 1999, The Gulfaks 4D
seismic study, Petroleum Geoscience, 5(?):213-226.

Landro, M., 2001, Discrimination between pressure and fluid saturation changes from
time-lapse seismic data, Geophysics, 66:836-844.

Lavergne, M., 1975, Pseudo-diagraphics de vitesse en offshore profonde, GP, 23(?):695-


711.

Levin, F.K., 1984, The unreasonable success of reflection seismology, TLE, 3(1):16-18.

Lindseth, R.O., 1979, Synthetic sonic logs – a process for stratigraphic interpretation,
Geophysics, 44(1):3-26.

Lindseth, R.O., 1982, Digital processing of geophysical data – a review. SEG.

Lindseth, R.O., 2005, Seismic attributes – some recollections, Canadian SEG Recorder,
30(3):16-17.

Lindsey, J.P., 1989, The Fresnel zone and its interpretative significance, TLE, 8(?):33-39.

Liner, C., Li, C.F., Gersztenkorn, A. e Smythe, J., 2004, SPICE: A new general seismic
attribute, 720 Congresso da SEG:433-436.

Loewnthal, D., Lee, S.S. and Gardner, G.H.F. 1985, Deterministic Estimation of a Wavelet
Using Impedance Type Technique, GP, 33(7):956-969.

Lu, W., Li, Y., Zhang, S., Xiao, H. e Li, Y., 2005, Higher-order-statistics and supertrace-
based coherence-estimation algorithm, Geophysics, 70(3):P13-P18.

Lumley, D.E. e Tura, A., 1999, Estimating pressure and saturation changes from time-
lapse AVO data, 69th SEG Meeting, p. 1655-1658.

175
Luo, M., Takahashi, I., Takanashi, M. e Tamura, Y., 2005, Study reservoir flow anomaly
through mapping a fracture network, FB, 23(7)35-38.

MacBeth, C., Stammeijer, J. e Omerod, M., 2006, Seismic monitoring of pressure


depletion evaluated for a United Kingdom continental-shelf gas reservoir, GP,54(?):??-??.

Macrides, C.B., Kanasewich, E.R. e Bharatha, S., 1988, Multiborehole seismic imaging in
steam injection heavy oil recovery projects, Geophysics, 53(?):227-237.

Maia, W., Rubio, R., Junior, F., Haldorsen, J., Guerra, R. e Dominguez, C., 2006, First
borehole acoustic reflection survey mapping a deepwater turbidite sand, 76th SEG Mtg.

Makris, J. e Thiessen, J., 1983, Offshore seismic investigations of sedimentary basins with
a newly developed ocean bottom seismograph: 53rd Annual Internat. Mtg., SEG, Expanded
Abstracts, Session:S15.7.

Margrave, G.F., 1996, Applied 2-D and 3-D seismic analysis, Course lecture notes,
Crewes, University of Calgary.

Martini, F., Hobbs, R.W., Bean, C.J. e Single, R., 2005, A complex 3D volume for sub-
basalt imaging, FB, 23(7):41-51.

Mayne, W.H., 1962, Common reflection point horizontal data stacking techniques,
Geophysics, 27(6):927-938.

McBarnet, A., 2005, OHM to work offshore Sarawak, FB, 23(8):26.

McCann, C., 1994, Estimating the permeability of reservoir rocks from P-wave velocity and
quality factor, 56th EAGE Mtg, session P172.

McQuillin, R., Bacon, M. And Barclay, W., 1984, An Introduction to Seismic Interpretation,
Reflection seismics inpetroleum exdploration. Graham&Trtam, 2nd ed., Oxford, 287 p.

Mjelde, R., Berg, E.W., Strom, A., Riise, O., Shimamura,H., Shiobara, H., Kodaira, S. e
Kanazawa, T., 1995, Three-component ocean bottom seismographs used in prospecting
in the Voring Basin, N. Norway: 65th Annual Internat. Mtg., SEG., Expanded Abstracts,
537-540.

Moinard, L., 1987, Application of kriging to the mapping of a reef from wireline logs and
seismic data: a case history, Geostatistical Case Studies, eds. G. Matheron e M.
Armstrong, p.93-103.

Moldoveanu, N., van Baaren, P., Addessi, D., Stubbington, L. e Combee, L., 1996,
Repeatability of the seismic experiments for 4D seismic in transiton zone surveys, 66th
SEG Mtg, p.5-8.

Neff, D.B., 1993, Amplitude map analysis using forward modeling in sandstone and
carbonate reservoir, Geophysics, 58(10):1428-1441.

Neidell, N.S. e Poggiagliolmi, E., 1977, Stratigraphic modeling and interpretation –


geophysical principles and techniques, AAPG Memoir 26, p. 389-416.

176
Nelson Hr. H.R., Mastoris, S. e Hoxohi, C., 1991, Visualization of map and seismic
attributes, 53rd EAEG Meeting, Florença, A044, p. 86-87.

Nes, O.M., Holt, R.M., Fjaer, E., 2000, The reliability of core data as input to seismic
reservoir monitoring studiesI, SPE 65180.

Newman, P., 1973, Divergence effects in a layered earth, Geophysics, 38:481-488.

Ng, H.T., Bentley, L.R. e Krebes, E.S., 2005, Monitoring fluid injection in a carbonate pool
using time-lapse analysis: Rainbow Lake case study , TLE, 24(5): 530-534 .

Nur, A., 1993, Rock Physics short course, apostila de curso Unicamp.

O’Doherty, R.F. e Anstey, N.A., 1971, Reflection on amplitudes, GP, 19(?):430-458.

Oldenburg, D.W., Scheuer, T. e Levy, S., 1983, Recovery of the acoustic impedance from
reflection seismograms, Geophysics, 48(?):1318-1337.

Oldenburg, D, Eso, R., Napier, S. e Haber, E., 2005, Controlled source eletromagnetic
inversion for resource exploration, FB, 23(7):67-73.

Oliveira, A.S., Rodriguez, C. e Braga, V.L.O., 2005, Sobre a aplicação da compensação-Q


com SVD e posterior aplicação do Iterdec em Roncador, Comunidade Técnica de Sísmica
da Petrobras, 27/maio.

Ostrander, W.J., 1984, Plane-wave reflection coefficients for gas sands at nonnormal
angles of incidence, Geophysics, 49(10)1637-1648.

Paffenholz, J. e Barr, F.J., 1995, Ann improved method for deriving water-bottom
reflectivities for processing dual-sensor ocean-bottom cable data, 65th Int. SEG Mtg.,
p.987-990.

Parr, R.S. e Marsh, M., 2000, Development of 4-D reservoir management West of
Shetland, World Oil, setembro:39-47.

Partyka, G., Gridley, J. e Lopez, J., 1999, Interpretational applications of spectral


decompositions in reservoir characterization, TLE, 18(?):353-360.

Paulsson, B.N.P., Smith, M.E., Tucker, K.E. e Faibon, J.W., 1992, Characterization of a
steamed oil reservoir using cross-well seismology, TLE, 14(7):24-32.

Pennebaker Jr., E.S, 1968, Seismic data indicate depth, magnitude of abnormal
pressures, World Oil, Junho, p.73-77.

PGS, 2006, PGS Data Processing, Preliminary Seismic Processing Report, Campos
Basin Albacora-Roncador HD3D, PGS Job No. 2004095, 74 p.

P/GSI, 2005, Borehole seismic records 1000 earthquakes during San Andreas Fault
research, FB, 23(9):17.

177
Pharez, S.J., Jones, N., Dirks, V., Zimine, S. Pringent, H., Ibbotson e Gruffeille, J.-P.,
2005, Prestack wave-equation migration as a routine production tool, TLE, 24(6):608-613.

Pon, S. e Lines, L.R., 2005, Sensitivity analysis of seismic depth migrations, Geophysics,
70(2):S39-S42.

Puckett, M., 1991, Offset VSP: a tool for development drilling, TLE,13(8):18-24.

Raymer, ?, 1980, An improved sonic transit time-to-porosity transform, SPWLA Annual


Meeting, Paper P.

Ribeiro, N., Formiga, L., Sansonowski, R. e Jaeger, M., 2006, First deepwater 3-VSP in
Brazil minimizes drilling risk in the Marlim field, 76th SEG Mtg.

Richards, P.G. e Frasier, C.W., 1976, Scattering of elastic waves from depth dependent
inhomogeneities, Geophsycis, 41(?):441-458.

Richards, P.G. e Menke, W., 1983, The apparent attenuation of a scattering medium, Bull.
Seism. Soc. of America, 73(?):1005-1021.

Rijks, E.J.H. e Jauffred, J.C.E.M., 1991, Attribute extraction: an important application in


any detailed 3D interpretation study, TLE, 11(9):11-19.

Robertson, J.D. e Nogami, 1984, Complex seismic trace analysis of thin beds,
Geophysics, 49(?):344-352.

Robertson, J.D. e Fisher, D.A., 1988, Complex seismic trace attributes, TLE, 7(6):22-26.

Rodriguez, C., 1993, AVO – debate técnico, Petrobras/Depex, doc. interno.

Rodriguez, C., Aguiar, L.A.M., Souza, R.S., Fonseca, R.C.S. e Maia, F.J., 1995,
Delimitação de depósitos de leques aluviais e fluviais através de sísmica 3D – um caso
histórico, IV Cong. SBGf, p.827-830.

Rodriguez, C., Stewart, R.R., Li, X. e Bancroft, J.C., 1998, Imaging of the Valhall field
Norway using 4-C seismic data, AAPG Intern. Conf., Rio de Janeiro, p.120-1.

Rodriguez, C. and Stewart, R.R., 1999, Survey design for vertical cable seismic
acquisition, 61st EAGE Mtg, session 6007.

Rodriguez, C., 2000, Advanced Marine Seismic Methods: Ocean-Bottom and Vertical
Cable Analyses, Tese de Doutorado, Univ. of Calgary.

Rodriguez, C.,Stewart, R.R., and Margrave, G., 2000, Where does S-wave energy on
OBC recordings come from?, 70th SEG Mtg, p.1170-1173.

Rodriguez, C., 2002, Seismic interpretation of an ultra-deepwater field – a case study from
Roncador, Brazil, 64th EAGE Mtg, G031.

Rodriguez, C., 2004, Análise do uso de atributos sísmicos na caracterização de


reservatórios, Proposta de CTO.

178
Rodriguez, C., Souza, J.A.B., Sarzenski, D.J., Ida, M. e Elias, V.L.G., 2004, Reservoir
characterization of an ultra-deepwater giant oil fiel offshore Brazil, 66th EAGE Mtg, A009.

Rodriguez, C., Costa, F., Mihaguti, M. e Carvalho, F., 2006a, Aquisição e processamento
sísmico HD3D em Roncador – um estudo de caso, I Simp. Geof. Reservatorio Petrobras.

Rodriguez, C., Costa, F., Sarzenski, D. e Carvalho, F., 2006b, O uso de atributos sísmicos
para caracterização geológica em Roncador, X Simpósio de Geof. da Petrobras.

Rosa, A.L.R. e Tassini, J., 1990, Introdução à Inversão do Traço Sísmico, Apostila de
curso interno, Petrobrás.

Rosa, A.L.R. e Tassini, J., 1995, Introdução à Inversão do Traço Sísmico, Apostila de
curso interno, Petrobrás.

Rosa, A.L.R., 2002, Análise do Sinal Sísmico, Apostila de curso interno, Petrobrás, 500 p..

Rosa, A.L.R., Cunha Filho, C.A., Rodriguez, C. e Cavalcanti, V.L.O.B, Estratégia de


processamento para aumento de resolução sísmica baseada na deconvolução iterativa, III
Enc. Lições Aprend. Geof. Reserv., Aracaju.

Ross, C.P., Carlson, .DH. e Starr, J.G., 1996 , Comparison of AVO using ocean bottom
seismic and marine streamer data, 66th SEG Mtg, p.1755-1758..

Rowbotham, M., Williamson, E. e Swaby, L., 2003, The implication of anisotropy for
seismic impedance inversion, First Break, 21(?):53-58.

RSI (Rock Solid Images), 2002 (?), Calculation, classification and calibration of seismic
attributes to well log attributes, A non-linear Kohonen self-organized mapping approach,
Campos Basin, Brasil, Cenpes-UN-Rio/Atp-BrC/Res, 57 p.

Russel, B., 1990, Introduction to seismic inversion methods, SEG Course Notes Series,
vol. 2.

Russel, B. e Hampson, D., 1991, Comparison of poststack seismic inversion methods,


SEG, paper SI1.1, p.876-878.

Saltzer, R., Finn, C. e Burtz, O., 2005, Predicting Vshale and porosity using cascade seismic
and rock physics inversion, TLE, ??(7):732-736.

Schlumberger, 1985, Avaliação de Formações no Brasil.

Schmidt, J. e Santos, M.S., 1995, Caracterização de reservatórios via rede neural, IV


Congresso SBGf, Rio.

Schoenberger, M., 1974, Resolution comparison of minimum-phase and zero-phase


signals, Geophysicis, 39(6):826-833.

Schoenberger, M. e Levin, K., 1974, Apparent attenuation due to intrabed multiples,


Geophysics, 39(?):278-291.

179
Schultz, P.S., Ronen, S., Hattori, M. e Corbett, C., 1994, Seismic-guided estimation of log
properties, TLE, 13(5):305-315.

Schwedersky , G., Siqueira, A.G., Becker, M.R., Rosa, A.L.R., Bettini, C., Menezes, S.X. e
Alegre, L., 1992, Geofísica de Reservatório, IV Sem. Geof. Petrobrás, p.535-539.

Schwedersky, G., Almeida, A.S. e Bettini, C., 1995, Diferentes abordagens na utilização
de dados sísmicos na geração de modelos de porosidade, IV Cong. SBGf, Rio.

Shapiro, S.A., Hubral, P. e Zien, H., 1994, Frequency-dependent anisotropy of scalar


waves in a multilayered medium, Journal of Seismic Exploration, 3(?):37-52.

Sheriff, R.E., 1978, A first course in geophysical exploration and interpretation, IHRDC,
Boston, 313 pg.

Sheriff R.E., 1980, Nomogram for Fresnel zone calculation, Geophysics, ??(??):??

Sheriff, R.E., 1985, Aspects of seismic resolution, AAPG Memoir 39, p.1-10.

Sheriff, R.E., 1992, Petrophysical and geophysical background, in Sheriff R.E. (ed.),
Reservoir Geophysics, SEG Investigations in Geophysics, vol. 7.

Sheriff, R.E., 1991, Encyclopedic Dictionary of Applied Geophysics, 3rd ed., SEG.

Sheriff, R.E., 2002, Encyclopedic Dictionary of Applied Geophysics, 4th ed., SEG,
Geophysical Reference Series 13.

Sheriff, R.E. e Geldart, L.P., 1995, Exploration Seismology, Cambridge, 2a ed, 592 p.

Sherwood, J.R., 1993, 3D seismic and geostatistical methods provide more accurate
reesrvoir models, Petr. Engineer Internat., dezembro, p.15-19.

Shuey, R.T., 1985, A simplification of Zoeppritz equations, Geophysics, 50(?):609-614.

Sonneland, L., Navrestad, T. e Roed, 1995, Sub-sea seismic: Acquisition and data
analysis procedures, 65th SEG Mtg, p.963-965.

Souza, J.A., 1985, Alguns fatores que influenciam ou afetam as previsões de


profundidades nos prospectos de poços, Petrobras/Dexnor/Dirgef, Relatório Interno.

Souza Jr., O.G. e Sousa, M.T.A., 1993, Aplicação de análise de regressão para geração
de perfis sônicos sintéticos, ?? Informe Geofísico 105 // Relatório interno DEBAR.

Spencer, T.W., Sonnad, J.R. e Butler, T.M., 1982, Seismic Q – Stratigraphy or dissipation,
Geophysics, 47(1):16-24.

Spikes, K.T. e Dvorkin, J.P., 2005, Gassmann-consistency of velocity-porosity transforms,


TLE, 24(6):581-583.

Stewart, R.R., 1992, Exploration seismic tomography: fundamentals, SEG Course Notes
Series, vol. 3.

180
Stolt, R.H., 1978, Migration by Fourier transform, Geophysics, 43(?):23-48.

Stovas, A. e Landro, M., 2005, Fluid-pressure discrimination in anisotropic reservoir rocks


– A sensitive study, Geophysics, 70(3):O1-O11.

Taner, M.T. e Koehler, F., 1969, Velocity spectra – digital computer derivation and
applications of velocity functions, Geophysics, 34,(?):859-881.

Taner, M.T., Koehler, F. e Sheriff, R.E., 1979, Complex seismic trace analysis,
Geophysics, 44(?):1041-1063.

Taner, M.T., 2001, Seismic attributes, Canadian SEG Recorder, 26(9):48-56.

Tatham, R.H. e Stoffa, P.L., 1976, VP/VS – A potential hydrocarbon indicator: Geophysics,
41:837-849.

Tatham, R.H. e McCormack, M.D., 1993, Multicomponent seismology in petroleum


exploration, SEG Investigations in Geophysics Series, vol. 6, 248 p.

Tenghanm, R. e Long, A., 2006, PGS shows off electrical marine vibrator to capture
‘alternative’ seismic source market, FB, 24(1):33-36.

Tessmer, G. e Behle, 1988, Common refleciton point data-stacking technique for


converted waves, GP, 36(?):671-688.

Thomas, J.E., 2003, Velocidades sísmicas, Universidade Petrobras, 132 p.

Thomsen, L., 1986, Weak elastic anisotropy, Geophysics, 51(?):1954-1966.

Thomsen, L., 1990, Poisson was not a geophysicist, TLE, 19(12):27-29.

Toverud, T. e Ursin, B., Comparison of seismic attenuation models using zero-offset


vertical seismic profiling (VSP) data, Geophysics, 70(20):F17-F25.

Traub, B. e Li, X.-Y, 2006, The effects of near-surface conditions on anisotropy parameter
estimations from 4C seismic data, GP,54(?):15-28.

Tsuneyama, F. and Mavko, G. 2005, Velocity anisotropy estimation for brine-saturated


sandstone and shale, TLE, 24(9):882-888.

Varela, C.L. e Esteves, F.R., 1990, Mapeamento de amplitude na delimitação dos


Campos de Corvina e Malhado, Bol. Geociências da Petrobras, 4(3):263-274.

Varela, C.L., Rosa, A.L.R. e Ulrich, T.J., 1993, Modeling of attenuation and dispersion,
Geophysics, 58(?):1167-1173.

Vasquez, G.F. e Carvalho, R.D., 1993, Sísmica de muito alta resolução na Bacia Potiguar,
V Sem. de Geofísica da Petrobras, p.184-189.

Vernik, L., 1994, Predicting lithology and transport properties from acoustic velocities
based on petrohysical classification of siliciclastics. Geophysics, 59(3):420-427.

181
Wagner, S.R., Pennington, W.D. e MacBeth, C., 2006, Gas saturation prediction and effect
of low frequencies on acoustic impedance images at Foinaven Field, GP,54(??):75-87.

Wang, Z., 2001, Fundamentals of seismic rock physics, Geophysics, 66(?):398-412.

Whitcombe, D.N., Murray, E.H., Aubin, L.A.S. e Carrol, R.J., 1994, The application of 3D
depth migration to the development of an Alaskan offshore oil field, Geophysics,
59(10):1551-1560.

White, J.E., 1965, Seismic waves – radiation, transmission , and attenuation, McGraw-Hill.

White, J.E., 1983, Underground sound – application of seismic waves, Elsevier.

White, R.E., 1991, Properties of instantaneous seismic attributes, TLE, 10(8):26-32.


Discussion and reply 11(8):45-46 e 11(10):10-12.

Widdes, M.B., 1973, How thin is a thin bed?, Geophysics, 38(6):1176-1180. Reimpressão
de Proceedings of the Geophysical Society of Tulsa, 1957-58.

Wintersteins, D.F. e Meadows, M.A., 1991, Analysis of shear-wave polarization in VSP


data: a tool for reservoir development, 2nd Archie Conference, Houston, SPE 23543.

Wood, L.C., 1982, Imaging the subsurface, in: Concepts and techniques in oil and gas
exploration, SEG, 45-90.

Wyllie, M.R.J, Gregory, A.R. e Gardner, L.W., 1956, Elastic wave velocities in
heterogeneous and porous media, Geophysics, 21(?):41-70

Xu, S e White, R.E., 1995, A new velocity model for clay-sand mixture, GP, ??(?):91-118.

Yilmaz, O., 1987, Seismic data processing, Investigation in Geophysics vol. 2, SEG.

Yilmaz, O., 2001, Seismic data analysis: processing, inversion, and interpretation of
seismic data, 2a edição, SEG.

Zachariadis, R.G., Thomason, H.B. e Teagye, H.E., 1983, Ocean Bottom Seismometers in
Seismic Exploration Surveys: Planning and Operations: 53rd Annual Internat. Mtg., SEG,
Expanded Abstracts, Session:S15.6.

Zachariadis, R.G. e Bowden, E.A., 1986, Ocean Bottom Cable: A Fixed Multichannel Sea
Floor Reflection System: 56th Annual Internat. Mtg., SEG., Expanded Abstracts,
Session:S4.4.

Zeng, H. e Backus, M.M., 2005, Interpretive advantages of 900-phase wavelets: Part 1 –


Modeling, Geophysics, 70(3):C7-C15.

Zhou, C., Cai, W., Luo, Y., Schuster, G. e Hassanzadeh, S., 1993, High-resolution cross-
well imaging by seismic traveltime + waveform inversion, TLE, 12(10):988-991.

182

You might also like