INTRODUÇÃO À GEOFÍSICA DE RESERVATORIO
Carlos Rodriguez UN-Rio/Atp-Ro /Res
2a edição Rio de Janeiro, julho de 2006
1
0 – APRESENTAÇÃO, UM BREVE HISTÓRICO, UM REGISTRO E AGRADECIMENTOS Os objetivos principais deste curso são: - apresentar, de forma sucinta, a profissionais de reservatório (geólogos, engenheiros e, secundariamente, a geofísicos com menos de três anos de experiência), as principais utilizações da sísmica e suas limitações, com maior enfoque nas etapas ligadas direta ou indiretamente às aplicações de estudos de reservatório; - apresentar métodos sísmicos relacionados diretamente à caracterização, desenvolvimento e produção, e - encorajar estes profissionais a um intercambio efetivo com geofísicos de reservatório mais experientes e de exploração (interpretação, processamento e aquisição). Este material, em sua segunda edição, ficou muito aquém do que o autor considera desejável para este curso, com a razão principal para esta falta de qualidade sendo a grande falta de tempo para a realização de um melhor produto, pois esta apostila foi realizada secundariamente às atividades de um ativo de produção. Particularmente deficiente foi a consulta à literatura especializada (Geophysics, Geophysical Prospecting (GP), The Leading Edge (TLE) e First Break , principalmente) e trabalhos apresentados em eventos da Petrobras no período entre 1995 e 2006. A apostila foi estruturada em capítulos relacionados às atividades consideradas mais importantes na geofísica pelo autor, tentando-se apresentar um resumo da teoria, as principais premissas (e onde e quando elas podem ou não ser válidas), alguns resultados e opiniões divergentes sobre alguns tópicos. O primeiro registro do assunto ‘geofísica de reservatórios’ na Petrobrás por mim encontrado foi Schwedersky et al. (1992)1. No artigo, é apresentado um resumo dos resultados de um grupo de trabalho (GT-OS-059/-CENPES) cujo objetivo era “...levantar os recursos disponíveis e necessários para o desenvolvimento de trabalhos de Geofísica de Reservatório e definir projetos de caráter técnico inovador na Companhia”. Os autores comentam e comparam o uso da sísmica (determinismo) e métodos (geo)estatísticos para obtenção de propriedades de reservatório entre poços. Algumas das ações práticas sugeridas pelo GT foram realizadas pelo Pravap-2. Pode-se considerar que algumas das observações do artigo são verdadeiras até hoje, e que algumas recomendações não foram, infelizmente, acatadas – a de maior interesse para este curso o fato do termo ‘geofísica de reservatório’ não se referir “...necessariamente a novos métodos mas sim ao objetivo da aplicação dos métodos geofísicos conhecidos”. Isto porque vários técnicos (geofísicos, inclusive) da empresa (dentro ou não da área de reservatório) consideram a ‘geofísica de reservatório’ como uma disciplina à parte, esquecendo-se que as equações e premissas são basicamente as mesmas que a geofísica (sísmica, especialmente) ‘convencional’, com a principal diferença sendo o foco, o que causa a necessidade de se procurar (algumas vezes sem sucesso) ajustes residuais, nem sempre se obtendo ganhos significativos. Ainda fora da parte técnica, aproveito para registrar também o isolamento em que os geofísicos de reservatório se encontram na Petrobrás, o que é prejudicial para todos – mas principalmente para a própria área de desenvolvimento e produção. Tal isolamento se auto-alimenta, pois vários técnicos qualificados da exploração (onde estão vários geofísicos capacitados e experientes) têm – deixando de lado por um momento a sempre presente dificuldade da ‘liberação’ dos técnicos por parte dos gerentes – receio (algumas Nem o documento propondo o GT-016/89 (que sugeriu o uso de estações de interpretação por geólogos de desenvolvimento), nem um possível relatório final deste GT, foram encontrados.
1
2
0 – APRESENTAÇÃO, UM BREVE HISTÓRICO, UM REGISTRO E AGRADECIMENTOS Os objetivos principais deste curso são: - apresentar, de forma sucinta, a profissionais de reservatório (geólogos, engenheiros e, secundariamente, a geofísicos com menos de três anos de experiência), as principais utilizações da sísmica e suas limitações, com maior enfoque nas etapas ligadas direta ou indiretamente às aplicações de estudos de reservatório; - apresentar métodos sísmicos relacionados diretamente à caracterização, desenvolvimento e produção, e - encorajar estes profissionais a um intercambio efetivo com geofísicos de reservatório mais experientes e de exploração (interpretação, processamento e aquisição). Este material, em sua segunda edição, ficou muito aquém do que o autor considera desejável para este curso, com a razão principal para esta falta de qualidade sendo a grande falta de tempo para a realização de um melhor produto, pois esta apostila foi realizada secundariamente às atividades de um ativo de produção. Particularmente deficiente foi a consulta à literatura especializada (Geophysics, Geophysical Prospecting (GP), The Leading Edge (TLE) e First Break , principalmente) e trabalhos apresentados em eventos da Petrobras no período entre 1995 e 2006. A apostila foi estruturada em capítulos relacionados às atividades consideradas mais importantes na geofísica pelo autor, tentando-se apresentar um resumo da teoria, as principais premissas (e onde e quando elas podem ou não ser válidas), alguns resultados e opiniões divergentes sobre alguns tópicos. O primeiro registro do assunto ‘geofísica de reservatórios’ na Petrobrás por mim encontrado foi Schwedersky et al. (1992)1. No artigo, é apresentado um resumo dos resultados de um grupo de trabalho (GT-OS-059/-CENPES) cujo objetivo era “...levantar os recursos disponíveis e necessários para o desenvolvimento de trabalhos de Geofísica de Reservatório e definir projetos de caráter técnico inovador na Companhia”. Os autores comentam e comparam o uso da sísmica (determinismo) e métodos (geo)estatísticos para obtenção de propriedades de reservatório entre poços. Algumas das ações práticas sugeridas pelo GT foram realizadas pelo Pravap-2. Pode-se considerar que algumas das observações do artigo são verdadeiras até hoje, e que algumas recomendações não foram, infelizmente, acatadas – a de maior interesse para este curso o fato do termo ‘geofísica de reservatório’ não se referir “...necessariamente a novos métodos mas sim ao objetivo da aplicação dos métodos geofísicos conhecidos”. Isto porque vários técnicos (geofísicos, inclusive) da empresa (dentro ou não da área de reservatório) consideram a ‘geofísica de reservatório’ como uma disciplina à parte, esquecendo-se que as equações e premissas são basicamente as mesmas que a geofísica (sísmica, especialmente) ‘convencional’, com a principal diferença sendo o foco, o que causa a necessidade de se procurar (algumas vezes sem sucesso) ajustes residuais, nem sempre se obtendo ganhos significativos. Ainda fora da parte técnica, aproveito para registrar também o isolamento em que os geofísicos de reservatório se encontram na Petrobrás, o que é prejudicial para todos – mas principalmente para a própria área de desenvolvimento e produção. Tal isolamento se auto-alimenta, pois vários técnicos qualificados da exploração (onde estão vários geofísicos capacitados e experientes) têm – deixando de lado por um momento a sempre presente dificuldade da ‘liberação’ dos técnicos por parte dos gerentes – receio (algumas Nem o documento propondo o GT-016/89 (que sugeriu o uso de estações de interpretação por geólogos de desenvolvimento), nem um possível relatório final deste GT, foram encontrados.
1
2
vezes, justificado) de ir para a área de reservatórios – por vários motivos, como por ex., o ‘domínio’ (que freqüentemente se reverte na ascensão profissional) de engenheiros, a menor comunidade, etc. Como os geofísicos da exploração geralmente não desejam (e alguns poucos não podendo) ir para o reservatório, os gerentes de reservatório não ‘liberam’ seus geofísicos – processo pernicioso, pois impede aos geofísicos de reservatório – principalmente os menos experientes – uma capacitação técnica e/ou acumulo de experiência para realizar da melhor forma possível suas obrigações profissionais. Espero que tal círculo vicioso possa ser rompido, se não breve, ao menos num futuro não muito distante. Diversas pessoas têm me ajudado ao longo de vários anos com seu tempo e atenção em explicações e discussões sobre vários assuntos que reduziram um pouco minha vasta ignorância sobre sísmica, mas devo reconhecer especialmente a contribuição de Adelson de Oliveira, Andre Romanelli Rosa, Antonio Buginga Ramos, Carlos Cunha, Carlos Varela, Eduardo Faria, Fernando Rodrigues, Gerson Ritter, Guenther Schwedersky, Gustavo Ponce Correia, Tutor Jose Tassini, Marcos Gallotti, Prof. Osvaldo Duarte, Raimundo Freire e Wander Amorim. Especificamente para a realização deste curso, agradeço os esforços de Ronaldo Jaegher e Mauro Mihaguti. Agradeço também aos geólogos Carlos Beneduzi, Carlos Varela, Cristiano Sombra, Darci Sarzenski, Jorge Andre de Souza, Luis Carlos de Freitas, Mauro Becker, Olinto de Souza, Paulo Paraizo, Pedro Zalan, Sandra Carneiro, Thomas Adams e Zilander Camoleze o grande aprendizado adquirido sobre geologia (e não só de desenvolvimento) ao longo do convívio profissional.
3
1 – INTRODUÇÃO AOS MÉTODOS GEOFÍSICOS 1.1 Objetivos e breve histórico Basicamente, a geofísica procura estudar a terra (geo) através de suas propriedades físicas. Geralmente desejam-se informações sobre depósitos minerais (incluindo hidrocarbonetos) – quase sempre associados a características que diferenciam estes depósitos das rochas ao redor – ou sobre a estrutura do planeta em profundidades em que observações diretas não são possíveis. Nunca se deve esquecer que, por mais fortes que sejam as indicações de qualquer método geofísico sobre a presença de óleo e gás, são sempre baseadas em observações indiretas . Os métodos potenciais são aqueles em que são apenas registradas quantidades de uma determinada propriedade, sem que seja necessário o uso de uma fonte de energia. Os mais comuns são a gravimetria e magnetometria. As técnicas mais comuns na prospecção de petróleo envolvem o uso de uma fonte, com a sísmica de reflexão sendo de longe a mais usada. Nesta apostila, os dados geofísicos são considerados como coletados na superfície (solo ou nível do mar), com as exceções sendo explicitadas. Assim, não se pretende tratar de perfilagem de poços. O método de refração será citado de forma muito superficial. Há vários séculos sabe-se que a Terra atua como um magneto gigantesco e irregular, e obviamente a gravidade é um conceito estabelecido desde Newton, pelo menos. A teoria de propagação de ondas em meios elásticos já tem bem mais de um século, e a teoria de tratamento de sinal (similar a usada por engenheiros elétricos e de telecomunicações) teve grande impulso há uns 50 anos com a implementação do tratamento digital. Operacionalmente, a geofísica teve grande impulso nas duas grandes guerras, com o desenvolvimento de várias ferramentas para localização de artilharias, submarinos e aviões. 1.2 Gravimetria Na prospecção gravimétrica são medidas pequenas variações na força da gravidade causadas por mudanças nas densidades das rochas. As mudanças de maior interesse na industria do petróleo são de dois tipos: 1) as existentes entre o embasamento (rochas ígneas ou metamórficas, relativamente de alta densidade) e rochas sedimentares (de menor densidade) e 2) as presentes entre rochas evaporíticas e demais rochas sedimentares. O primeiro tipo indica a presença de bacias sedimentares, bem como a espessura aproximada de sedimentos. A segunda vem sendo usada, em alguns casos, como auxiliar ao método sísmico de reflexão na definição da geometria de corpos de sal (que algumas vezes são bastante disformes, prejudicando o imageamento sísmico). As anomalias gravimétricas de interesse são da ordem de 10-6 a 10-7 da gravidade terrestre (g ), fazendo com que os instrumentos que medem essas variações (os gravímetros) sejam criados para medir a variação em g , e não a própria gravidade. O maior problema da gravimetria é que não é possível determinar uma fonte única para uma determinada anomalia – ou seja, matematicamente a solução do problema inverso admite mais de uma solução. Na prática, tem uso restrito e limitado na industria do petróleo, geralmente nas fase exploratórias iniciais, em que se procuram definir geometria de bacias sedimentares.
4
1.3 Magnetometria Obtém variações locais do campo magnético terrestre relacionadas a mudanças na susceptibilidade magnética das rochas. Rochas sedimentares apresentam geralmente uma susceptibilidade bastante inferior a rochas ígneas e metamórficas (na prática, os minerais ferromagnéticos – magnetita, principalmente – são as principais fontes de anomalias), por isso na industria do petróleo esta ferramenta é usada – geralmente juntamente com a gravimetria – na definição de bacias e grandes feições. Algumas vezes, no entanto, variações de susceptibilidade intra-embasamento são mais importantes que as diferenças entre o embasamento e rochas sedimentares – assim, este método pode ser menos conclusivo que a gravimetria na definição de bacias sedimentares. Diferente da gravimetria, as anomalias magnéticas geralmente são significativas em relação ao campo principal. Em comum com o método gravimétrico (e com qualquer outro método potencial, em geral), a interpretação dos dados aceita mais de uma solução. 1.4 Métodos Elétricos Existem vários métodos, que podem ser agrupados entre os que usam fontes naturais (self-potential , telúricos e magnetotelúricos), eletromagnéticos (terrestres e aéreos), resistivos e polarização induzida. Historicamente tem sido de aplicação bastante restrita na prospecção de hidrocarbonetos a partir da superfície, mas nos últimos anos o uso de sea-bed logging tem se mostrado como uma ferramenta útil – usando junto com a sísmica – em atividades exploratórias na diminuição de incertezas de qual tipo de fluido preenche potenciais reservatórios. Devido a sua importância, será discutido em maior detalhe no cap. 10. 1.5 Refração Sísmica As ondas refratadas (que se propagam na interface entre duas camadas, com velocidade definida pelo meio com maior velocidade, ver item 2.7) tem aplicação na prospecção de petróleo principalmente para definição de domos de sal (tendo sido usada na indústria antes da sísmica de reflexão, as vezes juntamente com a gravimetria) e definição da espessura da zona de intemperismo (camadas superficiais de baixa velocidade), informação útil na obtenção de correções estáticas. É usada em sismologia no estudo de terremotos e estrutura interna da Terra.
5
2 – INTRODUÇÃO AO MÉTODO SÍSMICO Métodos sísmicos abrangem as várias escalas necessárias à caracterização de reservatórios, como mostra a fig. 2.1. Nos extremos da figura, temos, de um lado, análises de testemunho e perfis, que fornecem informações bastante detalhadas, porém pontuais, e no outro a sísmica de superfície, que amostra todo o reservatório com baixa resolução (10 a 20 m). À esquerda da linha tracejada geralmente são usados métodos indiretos, como por ex. geoestatística (o mais comum), redes neurais e – mais raramente – teoria de fractais. A fig. 2.1 mostra também alguns valores aproximados de resolução para diferentes métodos. A fig. 2.2 indica quais informações – teórica e geralmente – são obtidas dos dados sísmicos com interesse direto d ireto em caracterização de reservatórios. A principal ferramenta usada na definição de limites e geometria de camadas geológicas é a sísmica de superfície tri-dimensional (3D); algumas vezes a sísmica de superfície é chamada de ‘convencional’.
Fig. 2.1 – Alguns métodos sísmicos com suas escalas de observação (relacionado à resolução) e fração do reservatório amostrada (extraído de Harris, 1994).
Fig. 2.2 – Informações de interesse para caracterização de reservatório que podem ser obtidas (ao menos em tese) a partir de dados sísmicos. Na prática, a obtenção e confiabilidade das medidas dependem da geologia (tipo e profundidade das rochas e fluidos) e dado disponível (extraído de Nur, 1993).
2.1 Introdução à propagação de ondas Onda é uma perturbação que se propaga em um corpo sem provocar deslocamento de material, somente de energia. Uma onda pode ser analisada pelo deslocamento de um ponto fixo ao longo do tempo (fig. 2.1.1a), quando se obtém: . seu período (ou ciclo) T , que é o tempo necessário para uma partícula retornar ao estado original de repouso (antes da passagem da onda), . sua freqüência (f=1/T ), ), que é o número de ciclos por unidade de tempo (unidade s-1 ou Hertz (Hz)), correspondendo ao inverso do período, . sua fase (φ ), ), ou atraso, que é a posição de um ponto da onda em relação a uma referencia (geralmente a origem, ou tempo inicial) arbitrária , e . amplitude (A), que representa o deslocamento sofrido por uma partícula fixa em cada tempo; a amplitude máxima é denominada pico (peak ) ou crista, e a mínima cava (trough ) ou vale.
6
A freqüência é muito estudada porque determina, entre outras coisas, a menor espessura observável (resolução vertical). Já a amplitude é bastante usada na definição de litologias e fluidos. O conceito de fase é um pouco menos difundido, estando associado a ‘amarração’ entre dados sísmicos e perfis de poços. Quando analisamos diversos pontos de uma onda ao mesmo tempo (fig. 2.1.1b), além da amplitude, observam-se . o comprimento de onda (wavelength ) (λ ), ), que é a distância entre pontos com mesma fase em ciclos sucessivos, e . o número de onda (wavenumber ) ( κ =1/ =1/ λ ), que é o número de comprimentos de onda por unidade de distância. Uma observação conjunta das fig. 2.1.1a e b fornece f ornece a velocidade (V= λ λ /T= λ λ.f . f ), ), que é a razão de propagação de uma onda. Para uma onda não periódica analisada em um ponto fixo, existe o período dominante (fig. 2.1.1c), definido pelas cavas principais, e a freqüência dominante, que é o inverso deste período. Ela não deve ser confundida com a freqüência de pico, que é definida pelo maior valor de amplitude em um espectro da transformada de Fourier (explicada a seguir). Analisando-se uma onda não periódica em tempo fixo, existe o comprimento de onda dominante (fig. 2.1.1d), medido da mesma maneira que o período dominante. A resolução vertical é função direta da freqüência (ou período) dominante.
Fig. 2.1.1 – Características de uma onda periódica, para (a) ponto fixo, (b) tempo fixo e não periódica, mostrando (c) período e (d) comprimento de onda dominantes (extraído de Lindseth, 1982).
A interferência é a superposição de duas ou mais formas de onda, gerando uma nova onda, que é a resultante desta superposição. É totalmente construtiva quando as ondas estão em fase (fig. 2.1.2a), e totalmente destrutiva quando a diferença de fase é de 1800 (fig. 2.1.2b). Geralmente, a diferença de fase entre duas (ou mais) ondas está entre 00 e 1800, ocorrendo interferência parcialmente destrutiva e parcialmente construtiva ao mesmo tempo (fig. 2.1.2c). Um atraso menor que meio período causa interferência construtiva – como na sísmica trabalhamos com tempo duplo, o atraso a ser considerado para interferência será de um quarto de período. p eríodo. O fenômeno da interferência permite minimizar alguns ruídos coerentes na aquisição – caso sejam conhecidos os comprimentos de onda dominante desses ruídos – através de um arranjo de receptores. Este é um caso de interferência ‘desejável’; geralmente, no entanto, a interferência é indesejável, pois mistura reflexões de eventos 7
distintos, tornando impossível sua separação – o caso mais comum e conhecido sendo o tunning , em que a amplitude de topo e base de camadas pouco espessas (inferiores a 15 ou 20 m) se interferem.
Fig. 2.1.2 – Interferência entre ondas com c om diferenças de fase (atraso) de (a) 0 0, (b)1800) e (c) 90 0 (extraído de Lindseth, 1982).
Vários conceitos do método sísmico são ‘emprestados’ da ótica geométrica, pois são comuns às duas ciências; isto é especialmente útil nas análises cinemáticas, ou seja, quando estamos interessados apenas, por ex., no tempo de trânsito e velocidades, sem considerações dinâmicas, i.e., de amplitudes. Assim, o estudo de propagação de ondas pode ser feito pelas leis da ótica geométrica e/ou pela equação (elástica, viscoelástica ou inelástica) da onda. Frente de onda (fig. 2.1.3) é a região do espaço em que uma determinada propagação tem a mesma fase, ocorrendo interferência construtiva. A trajetória do raio é uma linha imaginária, perpendicular à frente de onda (fig. 2.1.3). O princípio de Fermat estabelece que esta trajetória é aquela em que as variações de primeira ordem (primeira derivada) do tempo de trânsito com respeito a pontos vizinhos é nula, i.e., que o tempo de trânsito é mínimo (de longe o caso mais comum), máximo (caso de focos enterrados, fig. 2.1.10) ou estacionário (ou seja, invariante). A velocidade de fase é a velocidade de cada componente de freqüência, ou da frente de onda. A velocidade de grupo é a velocidade da energia, ou envelope. Estas velocidades podem ser diferentes em meios anisotrópicos e/ou inelásticos, mas geralmente a diferença é pequena. Zona de Fresnel é a região em sub-superfície que limita todos os pontos de duas frentes de onda com atraso menor que meio período (fig. 2.1.4). Seu conceito é importante em estudos de resolução horizontal (espacial), migração e comparação entre velocidades sísmicas (referentes a zona de Fresnel da d a sísmica de superfície, da ordem de dezenas de metros) e de perfis (média de uma região ao redor do poço limitada aproximadamente por um círculo com raio geralmente inferior a um metro), entre outros. O princípio de Huygens estabelece que os pontos de uma frente de onda podem ser considerados com novas frentes de ondas. A frente de onda após um intervalo de tempo ∆t é definida pelo envelope das diversas pequenas frentes de onda (fig. 2.1.5). Este princípio permite demonstrar que uma onda plana incidindo em uma interface gera ondas refletidas e transmitidas (refratadas) também planas.
8
Fig. 2.1.4 – Significado geométrico da 1ª zona de Fresnel.
Fig. 2.1.3 – Frentes de onda e trajetórias de raios (extraído de Sheriff, 1991).
Uma pergunta que pode ocorrer é por que não existe propagação de ondas ‘para trás’ (ou seja, por que a onda não ‘volta’, e se propaga somente ‘para frente’)? Espera-se, intuitivamente, que as ondas geradas ‘para trás’ tenham forte interferência destrutiva com o campo de ondas posterior que se propaga ‘para frente’, porém com ‘atraso’. Esta idéia, denominado de teorema da extinção, é demonstrado de uma forma rigorosa matematicamente por Rosa (2002).
Fig. 2.1.6 – Significado geométrico da lei de Snell e ondas refletida, transmitida e convertida (extraído de Rosa e Tassini, 1990).
Fig. 2.1.5 – Demonstração geométrica do principio de Huygens, em que cada ponto da frente de onda no tempo t age como uma nova fonte, com a frente de onda no tempo t+ ∆t sendo definida pelo envelope das diversas ondas geradas em t (extraído de Rosa, 2002).
A Lei da Reflexão estabelece que um raio incidente gera um raio refletido cujo ângulo com a normal à superfície é o mesmo do raio incidente. Foi provada por Heron de Alexandria em 1 D.C. e, através do reductio ad absurdum , por Arquimedes (in Catoptrica, de Euclides) (Heath, 1921), podendo assim ser provavelmente considerada a primeira lei física com aplicação no método sísmico. A Lei de Snell (ou de Descartes) estabelece que um raio que se propaga na camada i com velocidade V i e atravessa uma interface com um ângulo de incidência θ i em relação à normal à interface (fig. 2.1.6), tem ângulo de reflexão ou transmissão na camada i+1 (com velocidade V i+1) dado pela expressão p = sen θi / V = sen θi+1 / Vi+1 2.1.1 p o componente horizontal da vagarosidade, sendo denominado parâmetro do raio.
9
O parâmetro do raio pode também ser definido como (fig. 2.1.7)
p=dt/dx
2.1.2
Neste caso, p pode ser visto como o inverso da velocidade aparente. É possível demonstrar (por ex., a partir de Huygens) que uma descontinuidade em um refletor (causada, por ex., por uma falha ou afinamento de camada) gera como reflexão uma difração, ou onda difratada (fig. 2.1.8). Em seções sísmicas, a frente de onda de uma difração aparece como uma hipérbole (fig. 2.1.9). Isto ocorre porque uma frente de onda, gerada espacialmente como uma esfera, é amostrada no método sísmico a uma profundidade geralmente constante e por um intervalo de tempo qualquer, tendo seu tempo de trânsito t definido aproximadamente pela equação hiperbólica t2 = t02 + x2 / V2 2.1.3 t 0 tempo
de trânsito (teórico) para distância fonte-receptor ( offset ) X nula e V velocidade do meio (considerada constante).
Fig. 2.1.7 – Demonstração geométrica do parâmetro de raio p (extraído de Margrave, 1996).
Fig. 2.1.8 – Geração de reflexão a partir de um refletor e difração a partir de uma descontinuiuade no refletor. (extraído de Krebes, 1989).
Fig. 2.1.9 – Frentes de ondas de difrações aparecem como hipérboles em dados sísmicos.
A análise da propagação de ondas pela teoria das difrações, apesar de mais complicada do que se usando trajetória de raios, é adequada para observações de descontinuidades. É útil também em estudos de limites de resolução sísmica e absolutamente necessária para estudos de migração (cap. 4). 10
Os pontos de uma frente de onda, que podem ser considerados como pontos secundários para geração de novas frentes pelo principio de Huygens, não geram ondas com mesma distribuição de energia em todas as direções; na realidade, eles se comportam com difratores. É possível demonstrar que a resposta sísmica a um difrator esta associada à diretividade da onda, ou fator de obliqüidade, segundo o qual a amplitude de uma difração é função da trajetória do raio. Como conseqüência, as maiores amplitudes de uma difração são no ápice da hipérbole gerada pelo ponto difrator. Modelagem sísmica é o processo de gerar dados sísmicos sintéticos a partir de uma configuração geométrica com determinados parâmetros (modelo geológico). Ao realizarmos modelagens, devemos procurar respeitar um dito atribuído a Einstein, de que o modelo deve ser o mais simples possível, mais não mais simples do que isso – naturalmente, conseguir isso não é fácil, sendo necessário conhecimento, bom senso e experiência. Por ex., se um meio é tão heterogêneo que a velocidade muda substancialmente em um comprimento de onda, então o próprio conceito de comprimento de onda perde seu sentido. A modelagem numérica é a mais comum, sendo realizada principalmente por . traçado de raio (menos precisa, porém muito mais rápida, e suficiente em várias situações) e suas variações (feixes gaussianos, por ex.), . equação de onda (mais precisa, mas muito demorada) – usando aproximações, como por ex., diferenças finitas, . híbrida (raios são usados em regiões de menor interesse, com as áreas de maior importância usando equação de onda), . refletividade, e . o método WKBJ (Wentzel, Kramers, Brillouin e Jeffreys), usado para resolver a equação da onda, é válido em meios variando suavemente na vertical (de forma que a derivada segunda da fase em relação a z é nula) e constante lateralmente. A condição é que o gradiente vertical de velocidade seja muito menor que a freqüência em radianos, o que geralmente acontece de acordo com Krebes (1989). Já Sheriff (2002) prefere dizer que a premissa fundamental é que as propriedades do meio sejam constantes para vários comprimentos de onda. De qualquer forma, WKBJ é aproximação de alta freqüência, também chamada aproximação assintótica ou da ótica geométrica. A modelagem física, bem menos comum, necessita da criação de um modelo próximo ao geológico em escala muito reduzida (1:1.000 a 1:10.000, por ex.). Costuma ser bem demorada e as fontes e receptores naturalmente não respeitam essa relação (i.e., um receptor, que na prática é pontual, ocupa proporcionalmente dezenas de metros), mas tem a grande vantagem de gerar quase todas as ondas existentes em uma aquisição real, o que é complexo e algumas vezes impossível em modelagens numéricas. Um exemplo de modelagem sísmica numérica é mostrado na fig. 2.1.10, em que uma depressão geológica (sinclinal) gera um anticlinal aparente em uma seção sísmica. Este efeito, denominado na sísmica ‘foco enterrado’, é similar ao que ocorre na ótica com um espelho côncavo com foco antes do observador, e é um caso particular do principio de Fermat, pois nesta situação o tempo não é mínimo.
11
Fig. 2.1.10 – Exemplo de modelagem sísmica numérica. Observar que uma depressão (sinclinal) gera um alto (anticlinal) aparente. Este efeito, denominado de foco enterrado, é demonstrado matematicamente pelo principio de Fermat (extraído de Rosa e Tassini, 1990).
2.2 Introdução à teoria dos sinais O Teorema da Amostragem (também chamado cardinal ou de Nyquist) diz que funções contínuas limitadas (não infinitas) podem ser reconstruídas de dados equiespaçados se ocorrer uma amostragem de pelo menos duas amostras por período desta função (fig. 2.2.1). Como corolário, o intervalo (algumas vezes chamado erroneamente de razão ) de amostragem (∆t ) usado no registro de uma onda deve ser igual à pelo menos duas vezes o inverso da maior freqüência que se deseja preservar. Esta freqüência é denominada freqüência de Nyquist (f N). A equação simples fN = 1 / 2(∆t) 2.2.1 fornece a freqüência máxima que pode ser registrada com um intervalo de amostragem determinado, usado na aquisição. No caso de amostragem insuficiente, ocorre o fenômeno de faseamento (alias ), exemplificado na linha tracejada da fig. 2.2.1. Este fenômeno é observado em filmes de cinema antigos, pelo movimento aparentemente contrário das rodas de um automóvel. Já uma amostragem excessiva gera 1) maior tempo de computação durante o processamento (devido ao maior número de amostras) e 2) maior presença de ruídos, já que acima de determinados valores de freqüência praticamente não ocorrem mais sinais. Na prática, usa-se um intervalo que permita registrar sem alias freqüências muito superiores às que efetivamente se esperam ocorrer nos sinais, principalmente pela construção do filtro anti-alias matemático. Assim, usa-se comumente um intervalo de 2 ms (que permite registro de freqüências de até 250 Hz), mesmo que em freqüências tão altas ocorra somente ruídos, para que se possa registrar sem problemas freqüências em torno de 150 Hz, que ainda podem ter informações de sinal; a mesma coisa ocorre em aquisições – especialmente para reservatórios – em que 1 ms é usado. A razão para esta amostragem maior é a impossibilidade de se criarem filtros físicos (eletrônicos) ou matemáticos ‘bruscos’ (função caixa), não sendo possível aplicar um filtro que atenue completamente uma freqüência, de por ex. 191 Hz e ‘deixe passar’ completamente uma freqüência de 189 Hz. Na prática, os filtros tem formato de trapézio, e não de retângulos ou quadrados; a inclinação do trapézio é denominada slope . Intervalos de amostragem menores que 1 ms são restritos a levantamentos especiais, de muito alta resolução, como para reservatórios muito rasos (menos de 500 m) e/ou trabalhos de geotecnia/engenharia. O teorema de Nyquist – e as propriedades subseqüentes – é válido para também para amostragem espacial (horizontal). Isto costuma ter impacto no custo da aquisição, pois o imageamento de camadas e/ou falhas com alto ângulo demandam um intervalo de 12
amostragem espacial reduzido, ou seja, (grupos de) receptores mais próximos entre si, o que significa o uso de um número maior de receptores.
Fig. 2.2.1 – Amostragem de uma função contínua de 50 Hz com intervalo de amostragem (o termo razão de amostragem, não totalmente correto, é muitas vezes usado) de 4 ms (linha contínua, suficiente para 50 Hz, pois a freqüência de Nyquist para 4 ms é 125 Hz) e 16 ms (linha tracejada, insuficiente, pois para 16 ms Nyquist é 31,25 Hz) (extraído de Rosa e Tassini, 1990).
Fig. 2.2.2 – Exemplo do significado no método sísmico do teorema (e transformada) de Fourier, em que um pulso é obtido pela soma de diferentes ondas, cada uma com fase, amplitude e freqüência distintas (extraído de Rosa e Tassini, 1990).
O Teorema de Fourier diz que uma função ou polinômio (por ex., uma onda) pode ser descrita pela superposição (somatório) de um conjunto de ondas senoidais e cossenoidais de diferentes freqüências, amplitudes e fases (fig. 2.2.2). Cada onda individual às vezes é chamada de harmônica. A série matemática que representa um sinal, definida em termos de amplitude e fase para cada freqüência, é denominada Transformada de Fourier (T.F.). Quando esta transformada é aplicada a uma função ou polinômio, ocorre uma mudança no domínio da observação dos dados. Um sinal originalmente no domínio do tempo (por ex., um traço sísmico), tem sua T.F. no domínio da freqüência, e vice-versa. Esta mudança de domínio é extremamente útil e poderosa para análises e alterações de diversas características de um sinal. A T.F. de um traço sísmico, por ex., mostra o espectro de amplitude (e também o de fase, mas na prática análises de fase são sempre mais complicadas) deste traço (fig. 2.2.3).
Fig. 2.2.3 – Exemplo de um espectro de amplitude de um traço sísmico típico (extraído de Lindseth, 1982).
A mudança de domínio realizada pela T.F. é totalmente reversível e não altera nenhuma propriedade do sinal. Quando a T.F. é aplicada em uma série discreta (ou seja, não contínua, mas amostrada a intervalos regulares), fala-se em Transformada de Fourier
13
Discreta. Um tipo específico da TF Discreta – a Fast Fourier Transform – é a usada no processamento sísmico. Alguns sinais importantes para a sísmica, e suas T.F., são mostrados na fig. 2.2.4. A fig. 2.2.4a indica um sinal com freqüência e amplitude constantes (uma onda cosenoidal perfeita). A fig. 2.2.4b mostra um pulso unitário (spike ), cuja característica importante é o espectro de amplitude plano (ou completo), com todas as freqüências presentes à amplitude constante; apesar de irrealizável na prática, este pulso é extremamente interessante em análises de algoritmos de processamento sísmico. A fig. 2.2.4c mostra um ruído aleatório branco (white noise ), assim denominado por analogia a cor branca da ótica; este ruído possui espectro parecido a de um pulso unitário, sendo útil em algumas etapas do processamento, quando se a usa a premissa (relativamente comum) de que o ruído dominante em dados sísmicos é aleatório.
Fig. 2.2.4 – Transformadas de Fourier (TF) de alguns eventos importantes na sísmica: (a) sinal monocromático no tempo (freqüência única e constante), com TF sendo um spike ; (b) impulso unitário (spike ) no tempo (fonte desejada, mas irrealizável fisicamente), com TF em que todas as freqüências têm mesma amplitude e (c) ruído branco (todas as freqüências possuindo amplitudes idênticas) (extraído de Lindseth, 1982).
Um Sistema Linear (S.L.) representa uma operação cujo produto final (saída) é relacionado linearmente com os dados de entrada; as propriedades de um S.L. de interesse para a sísmica são . não são criadas informações (por ex., um S.L. não introduz ruído), . um S.L. pode alterar a amplitude e fase de um sinal, mas não sua freqüência, . um S.L. é estacionário (invariante) no tempo, i.é., uma operação realizada no tempo t é idêntica a uma operação realizada no tempo t+ ∆t , e . um S.L. é distributivo, ou seja, a superposição de vários sinais como entrada não altera o resultado final aplicado individualmente. A operação de convolução (nesta apostila indicada pelo símbolo ∗) pode ser vista como a mudança na forma de um sinal pelo efeito de um S.L. Fisicamente, pode ser entendida como uma superposição (‘envolvimento’) entre duas séries quaisquer, de forma que o resultado final é função de operações de soma e multiplicação entre todos os elementos da série entre si – ou seja, uma multiplicação de matrizes. Um exemplo simples de convolução é apresentado na fig. 2.2.5. A convolução é absolutamente fundamental no método sísmico porque o traço sísmico pode ser definido (e é freqüentemente considerado) como a convolução entre um pulso (gerado artificialmente) 14
e a função refletividade (que representa as camadas em sub-superfície) adicionado de ruídos. O sismograma sintético, que é a primeira etapa na interpretação, corresponde à convolução de um pulso sísmico (construído sinteticamente de forma a ser o mais próximo ao dado real, ou extraído do próprio dado) com a função refletividade (obtida pelos perfis sônico e/ou densidade). A deconvolução, muito comum e importante no processamento, é o processo inverso à convolução.
Fig. 2.2.5 – Exemplo de uma operação de convolução, em que um operador (2,-1) (à esquerda) é convolvido (∗) com uma função (1,-2), resultando em (2,-5,2) (à direita) (extraído de Rosa e Tassini, 1990). Matematicamente, a convolução corresponde à multiplicação de matrizes.
Uma propriedade muito importante da T.F. é que uma convolução no domínio do tempo corresponde a uma multiplicação dos espectros de amplitude e soma dos espectros de fase . Assim, diversas etapas do processamento sísmico são realizadas no
domínio da freqüência de uma forma bem mais eficiente, já que são realizadas multiplicações e somas (após a transformação), operações muito mais rápidas que cálculos entre matrizes. Correlação cruzada (simbolizada neste material por ⊗) é uma operação que mede a similaridade entre duas séries, ou a extensão da relação linear entre duas séries; as séries tem que ter mesmo intervalo de amostragem. A autocorrelação é a correlação de uma série consigo mesma. Se formos rigorosos, o conceito de fase de um pulso deve ser analisado usandose a Transformada Z, o que está além dos objetivos deste curso. Como uma aproximação razoável, podemos considerar que um pulso de fase mínima (ou atraso mínimo) é aquele em que a energia da fonte é liberada no menor tempo possível, concentrando-se próxima ao tempo zero. Um pulso de fase máxima é o oposto, e um de fase misturada, como o próprio nome sugere, possui componentes com as duas características (fig. 2.2.6). Pulsos de fase mínima são de interesse por possibilitar a aplicação de forma segura e estável (i.e., com convergência) de algumas etapas do processamento, como a deconvolução. A Transformada de Hilbert (T.H.) possibilita a obtenção da fase mínima de um sinal quando seu espectro de amplitude é conhecido e este não possui nenhum componente de freqüência com amplitude nula; a segunda premissa é garantida adicionando-se uma pequena quantidade (0,1 %, por ex.) de ruído branco ao sinal. Um pulso de fase zero é simétrico em relação à origem, sendo irrealizável fisicamente por pressupor a existência de energia antes da fonte sísmica ter sido ativada. Apesar disso, é muito usado na interpretação, e ao final do processamento procura-se obter um pulso com a fase mais próxima de zero possível, para que os máximos absolutos de amplitude sejam coincidentes com os coeficientes de reflexão. Filtros são operadores que modificam uma série qualquer, com um objetivo especifico. Os filtros usados no processamento sísmico têm as propriedades de um S.L.; um filtro linear é um operador que altera uma série através de uma operação de convolução. Os filtros mais comuns no processamento são (fig. 2.2.7):
15
Fig. 2.2.6 – Classificação de pulsos ( wavelet ) sísmicos em relação à fase. Um pulso de fase mínima tem a maior parte da energia liberada no menor tempo possível, com o oposto ocorrendo para um pulso de fase máxima. Um pulso de fase misturada tem componentes com as duas características (extraído de Rosa e Tassini, 1990).
. passa-banda – limita a faixa (range ) de freqüências de um sinal; na prática, é quase sempre usado, geralmente com o objetivo de cancelar as regiões em que ruídos tem maiores amplitudes que o sinal, que são as freqüências muito baixas (inferiores a 6 Hz) e muito altas (acima de 60 ou 90 Hz, dependendo do dado e objetivo); . inverso – quando aplicado em um pulso procura um resultado o mais próximo possível a um spike , fornecendo um espectro de freqüências plano (ou seja, todas as freqüências têm valores de amplitude próximos), aumentando assim as altas freqüências – porém, geralmente, nas altas freqüências não ocorre nenhum sinal, somente ruído; . de forma – altera um pulso para uma forma desejada; se a forma desejada for um spike , é idêntico ao filtro inverso; . de predição – a partir de um intervalo de uma série, prevê valores futuros para a série; útil quando o dado é contaminado por reverberações de curto período (i.e., eventos similares, periódicos e próximos entre si).
Fig. 2.2.7 – Alguns tipos de filtros usados no processamento sísmico (extraído de Rosa e Tassini, 1990).
2.3 Introdução à petrofísica Os tipos de ondas sísmicas que mais interessam na indústria de hidrocarboneto (e as mais estudadas neste trabalho) são as compressionais e cisalhantes. Na dedução da equação da onda (o que está além dos objetivos deste curso), mostra-se que estes dois
16
tipos são gerados durante a propagação de uma perturbação mecânica (a onda) por um material. Nas ondas compressionais os movimentos das partículas são paralelos à direção de propagação. Estas ondas causam movimentos alternados de compressão e expansão nas partículas (fig. 2.3.1). Também são denominadas ondas primárias (por serem quase sempre as primeiras a chegarem), P (abreviação de primary ), ou longitudinais. Nas ondas cisalhantes os movimentos das partículas são perpendiculares à direção de propagação (fig. 2.3.1). São também denominadas ondas secundárias (por chegarem após a P), S, rotacionais ou tangenciais. Algumas vezes são estudadas separadamente as ondas-SV e SH. Nas SV as partículas vibram no plano vertical definido pela posição da fonte e receptor (plano sagital), enquanto que nas SH o movimento é no plano horizontal. As ondas-SV, geralmente geradas a partir de conversão/transmissão em interfaces de uma onda-P incidente em ângulo diferente da normal à interface, são bem mais comuns e de maior interesse.
Fig. 2.3.1 – Ondas compressional (esquerda), em que o deslocamento da partícula é paralelo à direção de propagação da onda e cisalhante (direita), quando a vibração é normal à direção de propagação (extraído de Sheriff, 1992).
A imensa maioria dos estudos de exploração e caracterização são realizados usando-se dados de ondas P, pois o registro de ondas S costuma ser caro a muito caro, o processamento é quase sempre mais difícil (algumas vezes sendo bem complexo) e a qualidade do dado é geralmente melhor a muito melhor nas ondas P. Por outro lado, as ondas S têm o potencial de informar sobre tipo de rochas e fluidos em algumas situações (especialmente em rochas fraturadas) e costumam ajudar o imageamento das ondas P. Na prática, informações indiretas de ondas S são obtidas a partir das ondas P convencionais, por estudos de AVO e inversões elásticas. Em meios não homogêneos, as deformações não se separam distintamente entre P e S, ocorrendo acoplamento entre as duas ondas. No entanto, caso a heterogeneidade for fraca (i.e., variações de V, µ ,λ , etc forem pequenas dentro de um comprimento de onda), então ondas que são predominantemente P, SV ou SH podem se propagar (Krebes, 1989). À medida que as ondas se propagem em subsuperfície, são gerados esforços (stress ), definidos como tensões internas existentes quando um corpo é submetido à esforços externos. Os esforços geram deformações (strain ), que podem ser analisadas como variações de um vetor deslocamento em um meio representando movimentos de partículas. A deformação gera distorções, i.é., alterações na forma e/ou dimensões de um corpo. Os tipos de deformação mais comuns – mostrados na fig. 2.3.2 – são extensional, volumétrica, cisalhamento puro e cisalhamento simples.
17
Fig. 2.3.2 – Tipos de deformações elásticas: (a) extensional, (b) volumétrica, (c) cisalhamento puro e (d) cisalhamento simples (extraído de Nur, 1983).
Um corpo é dito elástico quando existe uma relação única entre esforços aplicados e deformações resultantes. Em um meio elástico, a deformação independe de como o processo de esforço foi aplicado; alem disso, apos a remoção dos esforços, o corpo retorna a forma original. Para pequenas deformações (10-5 a 10-6), é válida a Lei de Hooke, que estabelece τij=Σkl cijkl εkl
2.3.1
τ ij esforço na direção ij , ε kl deformação na direção kl e c ijkl constante de rigidez ( stifness ) na direção kl de um corpo para um esforço na direção ij .
Pode-se dizer que a Lei de Hooke generalizada é uma relação constitutiva para um corpo linearmente elástico (Krebes, 1989). Para um material sobre efeito de pressão litostática, existem nove componentes de esforços, gerando nove componentes de deformação e 81 constantes de rigidez. No entanto, devido à simetria de τ e ε , as 81 se tornam 36. Introduzindo-se consideraçoes termodinâmicas (por ex., τ 12 = τ 21 caso contrário existiria rotação com aceleração constante – e conseqüente aumento infinito de velocidade, o que seria um absurdo – do corpo em volta do eixo 3; assim, nove τ ij diminuem para seis), este número é reduzido para 21. Um sólido isotrópico (que possui as mesmas propriedades físicas independente da direção em que elas são medidas) tem as deformações causadas por um esforço medidas por somente duas constantes, as constantes de Lamé, µ e λ . Neste caso, a eq. 2.3.1 se torna 2.3.2 τij= λδij εkk + 2µεij O módulo de cisalhamento (ou de rigidez) µ é definido pela razão entre o esforço e a deformação para o caso de cisalhamento simples (fig. 2.3.3), 2.3.3 µ= τT /(∆L/L) ≈ F/(A.θ) τ T (=F/A) esforço tangencial, ∆L deslocamento do cisalhamento, L distância entre os planos de
cisalhamento, F força, A área e θ ângulo de cisalhamento; a aproximação θ ≈ tg θ = ∆L/L é válida para pequenos ângulos de cisalhamento.
18
Uma característica importante de µ é ser invariável com o tipo de fluido que preenche os poros. Experimentos mostram que µ é positivo para pequenas deformações (Krebes, 1989). O módulo de volume (bulk modulus ), ou incompressibilidade, κ , representa a razão entre esforço hidrostático e deformação volumétrica através da expressão 2.3.4 κ = ∆τ /(∆V/V) ∆τ esforço variação de pressão, ∆V variação de volume e V volume inicial.
Este parâmetro é o inverso da compressibilidade C . O módulo de Young (ou de estiramento) E mostra a razão entre esforços e deformações axiais no caso de esforço uniaxial (fig. 2.3.4) 2.3.5 E= τ /( i ∆L/L) = (F/A)/(∆L/L) τ i esforço na direção i , ∆L variação no comprimento e L comprimento inicial.
A constante de Lamé λ é definida por λ= κ - 2µ /3
2.3.6
sendo algumas vezes definida como incompressibilidade dos fluidos porque, para fluidos, tem o mesmo valor que κ . A razão de Poisson σ é a razão entre as deformações transversal e longitudinal no caso de um corpo tracionado (fig. 2.3.5) 2.3.7 σ= (∆W/W)/( ∆L/L) ∆W variação da espessura original W e ∆L variação do comprimento inicial L.
A razão de Poisson, devido a sua importância em estudos de AVO e inversão elástica, merece comentários adicionais. Teoricamente, σ varia entre –1,0 e 0,5, mas na pratica seus valores estão entre 0 e 0,5, com 0,5 sendo a razão de Poisson de fluido ( µ =0 na eq. 2.3.8). Rochas ‘duras’ têm valores de Poisson pequenos (próximos de zero), porque a ‘dilatação’ é pequena quando a rocha sofre tração; rochas ‘moles’ tem Poisson alto (≈ 0,5). O quase sempre brilhante e muitas vezes polêmico geofísico Leon Thomsen considera que o uso de Poisson não é relevante para nenhum estudo de sismologia (Thomsen, 1990), com a razão desta irrelevância sendo a definição de Poisson – segundo o autor, um experimento que não tem o menor valor para propagação de ondas. Estas expressões podem ser reescritas como κ = (3λ + 2µ)/3, E = µ [(3λ+2µ)/(λ+µ)], σ=λ /2(µ+λ)
2.3.8
As expressões gerais de relação entre parâmetros petrofísicos e velocidades de propagação de ondas P e S são obtidas avaliando-se a equação 2.3.1 através do teorema da Divergência (também chamado de Gauss ou Stokes, que estabelece que a integral de volume do divergente é igual à integral de superfície dos vetores normais à superfície, permitindo transformar a integral de superfície em uma integral de volume) e usando-se a segunda lei de Newton (a=F /m). Para um meio isotrópico,
VP= [(λ+2µ)/ ρ]1/2, VS=(µ / ρ)1 /2
19
2.3.9
A eq. 2.3.9 mostra que nos fluidos, que não oferecem resistência ao cisalhamento (ou seja, µ =0), V S é nula, ou seja, ondas cisalhantes não se propagam em fluidos. Vê-se também que V P é maior que V S – apesar de demonstrado aqui somente para meios isotrópicos, este fato (V P> V S) ocorre em praticamente todas as situações de interesse na natureza.
Fig. 2.3.3 – Significado geométrico do módulo de cisalhamento (µ ) estático, obtido por F / [A. tg( θ )].
Fig. 2.3.5 – Significado geométrico da razão de Poisson (σ ) estática, obtido por ( ∆W/W) / ( ∆L/L).
Fig. 2.3.4 – Significado geométrico do módulo de Young (E ) estático, obtido por (F/A) / ( ∆L/L).
A tab. 2.3.1 (extraída de Sheriff, 2002) mostra relações entre parâmetros elásticos e V P e V S. Deve-se observar que esses parâmetros são agora definidos a partir de velocidades de propagação de ondas sísmicas – por isso, quando assim obtidos são denominados dinâmicos. Da mesma forma, quando obtidos por ensaios em laboratório de acordo com as eq. 2.3.3 a 2.3.8, são chamados de estáticos. A tab. 2.3.2 (extraída de McQuillin et al., 1984) indica valores destes parâmetros para algumas rochas, minerais, fluidos e outros materiais de importância na indústria do petróleo. A importância de se conhecer as constantes elásticas é que elas podem indicar características das rochas e fluidos – as propriedades petrofísicas de interesse de geólogos e engenheiros, como porosidade (φ), volume de argila (V SH ) e saturação de água (S W). Então, o que desejamos é obter essas constantes, o que se procura fazer a partir de algumas teorias que relacionem valores em constantes elásticas de rochas com medidas de propagação de ondas elásticas, e também como mudanças nas constantes estão relacionadas a variações no comportamento das propagações.
20
Tab. 2.3.1 – Relações entre parâmetros elásticos, V P, V S e densidade para um meio isotrópico (extraído de Sheriff, 2002).
Neste tipo de estudo, é necessário se conhecer as constantes elásticas individuais de cada componente da rocha, as frações volumétricas dos constituintes e o fabric (‘padrão’), sendo este último o mais difícil de se conhecer e/ou medir. A partir destas informações (ou o mais próximo e confiável possível delas), deve-se ‘escolher’ um modelo – uma discussão aprofundada dos quais está acima dos objetivos deste curso –, sendo os mais comuns os de Voigt (que considera deformação constante, sendo por isso chamado iso-deformação), Reuss (iso-esforço) e Hashin-Shtrikman (premissa de estrutura interna isotrópica, mais complexo que os anteriores). Na prática, muitas vezes se usa uma média entre os modelos de Voigt e Reuss. Empiricamente, Grant e West (1965) mostraram há mais de 40 anos que existe muita sobreposição nos valores de velocidades (VP) para diferentes litologias (fig. 2.3.6), ou seja, VP isoladamente não pode ser usado geralmente como identificador de tipo rocha.
21
Tab. 2.3.2 – Valores de alguns parâmetros elásticos para rochas, minerais, fluidos e materiais comuns na indústria do petróleo (extraído de McQuillin et al , 1984).
Gardner et al (1974) obtiveram a expressão ρ densidade (g/cm
3
) e V P velocidade (pés/s).
ρ = 0,23 (VP)1/4
2.3.10
por ajuste da curva mostrada na fig. 2.3.7. Na prática, os parâmetros que relacionam ρ e VP são obtidos para cada área ou campo de estudo, a partir dos poços que possuam as duas curvas. Geralmente, os resultados são próximos aos valores de Gardner (0,23 e ¼), mas pequenas diferenças podem ser importantes em inversões elásticas e/ou estudos de reservatório.
Fig. 2.3.6 – Histograma empírico da distribuição de velocidades (em pés/s) para diferentes tipos rochas indicando não ocorrer individualização clara do tipo de rocha por V P(extraído de Grant e West, 1965) .
22
Fig. 2.3.7 – Relação entre VP e densidade para diferentes tipos de rocha (extraído de Gardner et al , 1974), com ajuste da eq. 2.3.10.
Existem algumas relações empíricas entre velocidade e algumas variáveis, como por ex. a de Faust (1951), que relaciona V P, idade geológica e profundidade: 2.3.11 VP = 125,3 (z. T)1/6 z profundidade (pés) e T tempo geológico.
Wyllie et al. (1956) observaram que o tempo de trânsito de uma onda compressional em rochas consolidadas (sob altas pressões) saturadas com água pode ser descrito aproximadamente como a média ponderada volumétrica do tempo de trânsito dos constituintes, obtendo a expressão: 1/VP = φ /VA + (1-φ)/ VM 2.3.12 φ porosidade, V A velocidade da onda P na água e V M velocidade da onda P na matriz.
Segundo McQuiliin et al (1984), esta aproximação é razoável para areias saturadas com água com mais de 1.800 m de sedimentos sobrepostos. Gassman (1951) obteve uma equação que fornece a relação entre o módulo da rocha seca e saturada. Biot (1956), usando uma situação equivalente a impor propagação de onda P sem movimentos relativos entre fluidos e sólidos, obteve uma condição em que VP é igual à velocidade de Gassmann em todas as freqüências. Carcione et al . (2005) apresentam uma generalizaçao do módulo bulk de Gassmann para meios multiminerálicos. Geerstma (1961) desenvolveu, a partir da teoria desenvolvida por
Gassman e Biot a expressão:
VP2 = ρ-1 { ( κ R + 4µR /3 ) + ( 1 - κ R / κM )2 / [ ( 1- φ - κ R / κ M ) / κ M + φ / κF ] } 2.3.13 κ R, κ M, κ F bulk modulus (incompressibilidade) da rocha seca, da matriz (grãos) e do fluido respectivamente, µ módulo de cisalhamento e φ porosidade.
23
Esta expressão é geral, independendo da geometria, mas assume que a rocha é isotrópica, as constantes elásticas dos constituintes das rochas (minerais) são constantes e a freqüência analisada é baixa (inferior a 100 Hz). Essa equação, de grande uso e interesse para caracterização e monitoramento de reservatórios, permite uma análise quantitativa entre a velocidade de propagação de ondas e propriedades de fluidos, através de substituição dos mesmos. Uma grande vantagem é que ela permite a obtenção de parâmetros de litologia para rocha seca – parâmetros estes insensíveis à absorção (item 2.7), logo podemos estimar o comportamento da velocidade nas freqüências sísmicas a partir de medidas de laboratórios (plugs ) e/ou de perfis. κ R pode ser medida em laboratório ou obtida por valores aproximados disponíveis na literatura. κ e a densidade de fluidos e da matriz podem ser obtidos em laboratório (de água pode ser obtido por modelos teóricos que relacionam as variações destes parâmetros com as condições do reservatório) ou de valores da literatura. Rosa e Tassini 360 a 400 kbar para grãos de arenito e 670-700 kbar para grãos (1990) citam κ M de
de carbonato.
Alguns autores (por ex., McQuillin et al ., 1984) consideram problemática a obtenção de κ R, e Nur (1993) sugere usá-la com cautela em fluidos muito viscosos e arenitos muito argilosos. Uma conclusão interessante e importante da eq. 2.3.13 é que como κ da água é de duas a dez vezes superior a do óleo e dezenas de vezes maiores que do gás, podemse esperar decréscimos na velocidade de arenitos inconsolidados do Terciário na Bacia de Campos de 10 a 15% em rochas com óleo e 30 a 40% em reservatórios com gás – segundo Rosa e Tassini (1990), tal fato ocorre na prática. Isto explica o relativo grande sucesso do uso de anomalias de amplitude na exploração e explotação dos campos mais importantes da Petrobras. Berryman (1999) apresenta um excelente resumo (e, segundo o autor, completo) da origem e aplicação das equações de Gassman. As equações originais relacionam mudanças nos módulos de cisalhamento (µ) e compressibilidade (κ ) entre rochas secas e saturadas com fluidos. Segundo Berryman, é freqüentemente dito – de forma incorreta – que Gassmann assume que o módulo de cisalhamento µ seja constante. O autor apresenta a derivação para meios isotrópicos, garantindo que a generalização para meios anisotrópicos não é muito difícil. As equações relacionam, segundo Berryman (1999), µ e κ de um meio mono-minerálico poroso saturado e isotrópico com o mesmo meio no caso seco, e mostram que µ tem que ser independente mecanicamente da presença do fluido. Uma premissa importante é que não ocorre interação química entre a rocha porosa e o fluido. O artigo de Gassmann trata de situações quase-estáticas, ou seja, de baixas freqüências, sendo este talvez o principal atrativos das equações, pois tratam da faixa de freqüências dos dados sísmicos de superfície. Domenico (1974) demonstrou que uma quantidade muito pequena de gás produz uma grande queda em κ F e, conseqüentemente, em VP (fig. 2.3.8). Isto leva a uma importante conclusão, tanto teórica quanto prática: fortes variações de amplitudes em seções e mapas de amplitude podem indicar somente a presença de gás, e não sua quantidade, e muito menos se esta quantidade é comercial. Nos estudos de AVO esta conclusão será recordada, pois é um dos grandes problemas atuais em análises de AVO.
24
Fig. 2.3.8 – Variação de V P com saturação de água para areias com gás e óleo em diferentes profundidades (extraído de Domenico, 1974). Observar que quantidades muito pequenas de gás (menos de 5%) causam forte decréscimo em V P.
Existem algumas equações que procuram relacionar via modelos matemáticos (Biot-Gassman, por ex.) ou empiricamente velocidades com propriedades das rochas. O maior problema dos modelos matemáticos usados é que geralmente as premissas dificilmente são respeitadas no mundo real, sendo difícil a obtenção de um modelo confiável em várias situações – até o momento, pode-se considerar que isso ainda não foi obtido. Expressões empíricas, por outro lado, costumam ter aplicação local, ou pelo menos necessitam a ‘calibração’ (na verdade, reparametrização) para uma área diferente da que foi definida. Como exemplo, apresentamos as expressões obtidas por Han et al. (1986), que relacionam VP e VS com porosidade e teor de argila (C ) VP = 5,59 – 6,93.φ – 2,18.C, VS = 3,52 – 4,91.φ – 1,89.C VP – 5,41 – 6,35. φ – 2,87.C, VS = 3,57 – 4,57.φ – 1,83.C
2.3.14
para rochas saturadas com água e seca, respectivamente. Nestas expressões, mudanças na porosidade tem peso três vezes maior que mudanças no teor de argila; entretanto, como variações em C são geralmente muito maiores que em φ, o conteúdo de argila tem, na prática, grande importância no cálculo da velocidade no caso analisado por Han et al. Para arenitos argilosos, o diagrama da fig. 2.3.9, extraído de Nur (1993), mostra que para um valor constante de porosidade (20%, por ex.) existe uma grande variação nos valores de VP de acordo com a litologia (o que é bom, pois em tese permite a estimativa do tipo de rocha a partir de VP, sendo uma noticia melhor que a da fig. 2.3.6, que sugere ser isto bem mais difícil), porém a obtenção de φ a partir de VP continua muito problemática. Na figura, estão as curvas de correlação VP φ obtidas pelos modelos de Voigt, Woods-Reuss e Wyllie, mostrando que para a relação analisada Wyllie funciona razoavelmente bem para areias limpas, mas que nas demais litologias não respeita nenhum dado em particular, sendo uma entre algumas possibilidades. Na figura vê-se também que Woods-Reuss funciona bem para rochas próximas da porosidade critica (acima de 40%) – acima desta porosidade, o material não deve mais ser considerado 25
‘rocha’, mas sim grãos em suspensão em um fluido (água), com VP ficando muito próximo de 1.500 m/s e praticamente constante para qualquer φ.
Fig. 2.3.9 – Variação de VP com porosidade para arenitos argilosos (extraído de Nur, 1993). Para φ > 40%, os grãos não formam um sedimento, se tornando material em suspensão, e VP se torna próximo de 1.500 m/s (VP da água) e quase constante.
O efeito da saturação de água em VS é muito menor, já que ondas S não se propagam em fluidos, ocorrendo apenas o efeito indireto do aumento da velocidade com o decréscimo da densidade causado por uma menor SW. Vernik (1994) analisou rochas siliciclásticas consolidadas pobres em carbonatos e matéria orgânica e obteve expressões que indicam uma correlação entre VP e φ melhor que a fornecida pr Wyllie ou Raymer (que negligenciam fatores texturais) para quatro grupos diferentes de rochas (agrupadas de acordo com conteúdo de argila). Já a correlação entre φ e κ varia bastante em função da saturação de água irredutível, existindo uma diferença muito grande entre arenitos limpos (menos de 2% de argila) e comuns (2 a 15% de argila). Spikes e Dvorkin (2005) lembram que os módulos efetivos e velocidades dependem não somente de litologia, porosidade e fluidos, mas também na geometria de grãos e poros, textura dos minerais e trends de compactação e diagênese. Os autores consideram que, ainda que equações empíricas não considerem esses parâmetros explicitamente, elas são fáceis de usar e, se explicarem quantitativamente dados reais, são mais usadas que equações teoricamente mais corretas, porém geralmente muito mais complexas – apesar de não citado, deve-se lembrar também sobre a confiabilidade (e impacto de valores incorretos nos resultados finais) dos parâmetros necessários para equações complexas. No artigo é avaliado se duas equações empíricas (Wyllie et al (1956) e Raymer (1980)) são válidas independente do fluido (o que, segundo os autores, é afirmando nos artigos de Wyllie e Raymer) ou se uma substituição mais sofisticada (Gassmann) é necessária – de acordo com Spikes e Dvorkin, Wyllie não é consistente com equações de substituição de fluidos, mas Raymer é. Berryman (2005) analisa – no caso VTI – o aumento do módulo de cisalhamento quando liquido é substituído por gás, concluindo que o aumento máximo é de 20% (em cada camada isotrópica isolada, µ é independente do fluido). O autor cita que análises
26
ultra-sônicas em laboratório mostram claramente que µ é mais rígido na presença de liquido do que o esperado por Gassmann. 2.4 Velocidades sísmicas A obtenção de velocidades sísmicas é um processo bastante complexo, existindo livros somente sobre o assunto (Hubral e Krey, 1980; Thomas, 2003). A velocidade média é obtida dividindo-se a espessura total por metade do tempo sísmico VMÉDIA = (h1+...+hn)/[(t1+...+tn)/2] 2.4.1 h i e t i e spessura e tempo sísmico da camada i .
A maneira mais comum e usual de se obter velocidades intervalares (ou seja, velocidade de uma determinada camada, considerada constante), é através de Dix (1955) Vint2 = (V22t22 – V12t12) / (t2 – t1) 2.4.2 em que V na prática é a velocidade de NMO ou de migração, apesar da equação ter sido derivada para velocidade RMS – somente o uso de VNMO ou de migração já é uma fonte de erros. Ainda assim, esta equação é vastamente usada, por ex., em quase todos os pacotes (softwares ) de interpretação, na geração de modelos de velocidade para conversão tempo-profundidade. Este uso é disseminado principalmente à simplicidade da equação. Outra maneira de se obter velocidades intervalares é por migração em profundidade – o que, a propósito, não tem relação alguma com uma boa conversão tempo-profundidade. A formula de Dix gera grandes erros quando o intervalo de tempo é pequeno. Por isso, geralmente os programas de conversão tempo-profundidade tem problemas se forem usados interfaces muito próximas, como por ex., com pinchs . O método WKBJ (item 2.1) necessita que o gradiente vertical de velocidade seja muito menor que a freqüência (em radianos). No caso – bastante comum – de aumento linear da velocidade com profundidade (V(z)=V 0+az , V 0 velocidade inicial, a gradiente vertical e z profundidade), podemos verificar que com a em torno de 0,1 (um valor razoável), temos f ≈ 10 Hz e ω (freqüência angular) ≈ 63 Hz. Pennebaker (1968), em artigo clássico, mostrou como informações da sísmica de superfície – mais especificamente, as velocidades obtidas durante o processamento – podem ser usadas para prever aproximadamente tanto a profundidade de zonas de pressão anormais quanto à intensidade das mesmas. As considerações de Peenebaker são usadas ainda hoje – naturalmente, com algumas evoluções, como o uso de ondas-S. Wang (2001) apresenta algumas relações práticas, teóricas e empíricas entre velocidades sísmicas com rochas, fluidos e o meio. A maioria dos parâmetros tem seus efeitos analisados isoladamente, apesar do próprio autor reconhecer que a maioria não é independente (por ex., porosidade e VSH, viscosidade e RGO). Usando a classificação do artigo, um resumo dessas relações é apresentado a seguir. 1. Propriedades das rochas: . compactação, consolidação, idade e cimentação: VP e VS aumentam;
27
. textura: em geral, areias com maiores grãos e/ou menos selecionadas tem maiores VP e V S devido a melhor contato e menor porosidade, enquanto que areias com grãos angulosos têm menores VP e VS – porém maiores VP /VS – que areias esféricas; . conteúdo de argila: depende da posição da argila no interior da rocha, mas estatisticamente maior VSH significa menor VP e VS e maior VP /VS; . anisotropia: na intrínseca, folhelhos mais consolidados e/ou com grande conteúdo de matéria orgânica (geradores) geralmente são mais anisotrópicos; a induzida, causada por tensões, é proporcional aos esforços envolvidos e relacionados à fraturas; . fraturas: VP é maior na direção paralela às fraturas; duas VS são criadas (fenômeno denominado birrefringência ou splitting , cap. 10), uma mais rápida, paralela à direção das fraturas (VS1) e outra mais lenta (VS2), ortogonal à VS1; . porosidade: inversamente proporcional à VP e VS; geralmente não afeta VP /VS; . litologia: maiores VP e VS em dolomitos, seguidos de calcários e arenitos; folhelhos podem ter VP e VS maiores ou menores que arenitos; calcários tem os maiores VP /VS, seguidos de dolomitos e arenitos; folhelhos geralmente têm VP /VS maiores que areias, a exceção mais importante sendo arenitos inconsolidados, o que algumas vezes causa pit-falls em análises de AVO (cap. 7); . forma do poro: Wang (2001) considera este o fator mais importante na definição de VP e VS, porém o mais difícil de ser obtido; segundo o autor, 1) a dispersão em gráficos V-φ é causada principalmente por diferenças na forma do poro e 2) rochas com poros planos tem menores VP e VS. 2. Propriedades dos fluidos . viscosidade: diretamente proporcional a VP e VS; . densidade: VP aumenta, mas VS pode diminuir; . molhabilidade: altera a relação de forças internas entre fluido e grãos, geralmente ocorrendo um pequeno decréscimo com maior molhabilidade; . composição e tipo de fluido: óleo mais pesados causam maior VP e pequena diminuição em VS; VP costuma aumentar com salinidade; . fase do fluido: rochas com gás tem menor VP e pequeno aumento em VS, gerando aumento em VP /VS; saturações de gás entre 5 e 100% causam praticamente o mesmo efeito nas velocidades (fig. 2.3.8), dificultando a separação entre acumulações comerciais e não-econômicas; . RGO, RGA: alguns óleos com alto RGO têm comportamento sísmico de gás; RGA tem pouca importância, mesmo porque também geralmente é bem baixa; . saturação: tem efeito maior em rochas fraturadas. 3. Propriedades do meio . freqüência: geralmente VP e V S aumentam com freqüência, mas a magnitude da dispersão é difícil medir; . histórico de tensão: relacionado à criação e destruição de fraturas e microfraturas, que gera anisotropia; . ambiente deposicional: talvez seja o fator de maior complexidade; a razão, fonte e energia da deposiçao costumam gerar ciclos, que afetam VP e VS; Wang (2001) cita que argilas autigênicas e detríticas afetam diferentemente as velocidades; . temperatura: inversamente proporcional à VP e VS, sendo mais significativo para arenitos inconsolidados com óleos pesados; . estratégia e histórico de produção: injeção de água aumenta SW e pressão, sendo necessárias modelagens para obter o resultado final em VP e VS ao longo dos anos;
28
2.5 Modelo convolucional O traço sísmico (s(t)) pode ser visto como resultado da convolução entre um pulso (w(t)) e uma função refletividade (r(t)), adicionando-se ruído (n(t)) ao sistema. s(t) = w(t) ∗ r(t) + n(t) 2.5.1 Esta expressão é usada em várias etapas fundamentais durante o processamento sísmico. Devemos lembrar que é uma aproximação e simplificação, com algumas premissas que muitas vezes não são observadas, como por ex. se considerar o pulso w(t) constante (estacionário) durante a propagação. Uma grande importância desta equação – talvez a principal – é que a obtenção de r(t) é o objetivo final do método sísmico, pois r(t) muitas vezes indica as variações litológicas e/ou de fluidos. Então, vemos que o objetivo do processamento é retirar (atenuar, na verdade) todo o ruído e efeitos do pulso, o que é uma operação sempre muito complexa, com várias etapas, algumas das quais serão discutidas no cap. 4. A eq. 2.5.1 é usada em uma etapa inicial e fundamental da interpretação, que é a geração de sismogramas sintéticos (cap. 5). Neste caso, r(t) é obtido a partir de perfis sônicos e/ou densidade e w(t) pode ser extraída do dado sísmico (de uma forma estatística ou determinística) ou gerada (modelada) sinteticamente. A seguir, analisaremos algumas propriedades do pulso, alguns efeitos da propagação sobre o mesmo, e conseqüências de impacto direto na caracterização de reservatório. 2.6 O pulso sísmico O pulso sísmico – também chamado de assinatura, ou ondícula (a partir da tradução de wavelet ) – é o sinal gerado por uma fonte de energia sísmica. Para se verificar isoladamente os efeitos de algumas variáveis (e ao mesmo tempo avaliar a dificuldade e confiabilidade das análises) que afetam o pulso p(t), o mesmo pode ser decomposto em (Rosa e Tassini, 1995): p(t) = w(t) ∗ a(t) ∗ i(t) ∗ h(t) ∗ g(t) ∗ e(t) 2.6.1 com os efeitos sendo: w(t) assinatura, a(t) arranjos da fonte e receptores, i(t) instrumento, h(t) recepto,r g(t) reflexões fantasmas e e(t) terra.
Efeitos de acoplamentos de fontes e receptores geralmente não são considerados por serem de pouca importância no caso marítimo (já que a água é geralmente homogênea e perfeitamente acústica) e em terra de difícil correção, já que seria necessário o conhecimento detalhado da topografia e parâmetros de camadas rasas (zona de intemperismo), visando modelagens para obtenção das distorções de fase e amplitude. A assinatura w(t) é definida pelo tipo de fonte usado, que corresponde quase sempre à dinamite em terra e canhões de ar comprimido (air-gun ) no mar. Estas são fontes explosivas, que é quase sempre impulsiva, ou seja, com liberação de grande quantidade de energia em um tempo muito curto, de forma a termos um pulso com fase mínima. A assinatura pode ser medida ou estimada. Vibradores (cap. 3) geram assinaturas longas com forma controlada, que são gravados na aquisição para geração, durante o processamento, de operadores de deconvolução. A parametrização da aquisição procura sempre minimizar possíveis efeitos de arranjos, que são sempre mais prejudiciais em levantamentos terrestres, devido a variações topográficas e da zona de intemperismo e diferenças no acoplamento. 29
A distorção do instrumento de registro – apesar de geralmente pouco danosa – é considerada no processamento, com a resposta impulsiva dos instrumentos sendo medidos durante a aquisição ou obtidos de uma ‘biblioteca’. A distorção dos receptores (especialmente hidrofones ou – mais recentemente – acelerômetros) não é, geralmente, muito significativa. Geofones podem ter distorções significativas associadas à freqüência de ressonância, mas na prática são usados fatores de amortecimento para contornar este problema. Fantasmas (ghosts ) são gerados por interfaces de altíssimo contraste de impedância situados relativamente próximos à fonte e/ou receptores. São eventos descendentes gerados por reflexões do campo ascendente na superfície (terrestre ou do mar) (fig. 2.6.1), que geram um novo campo de ondas, com o grande problema de uma diferença de fase de 1800 (ou seja, com polaridade invertida) em relação ao campo original. Isto causa uma forte atenuação (denominada notch ) em alguns valores de freqüências, de acordo com a profundidade da fonte e/ou receptor. Um exemplo é mostrado na fig. 2.6.2, em que se compara o mesmo sinal registrado por um hidrofone a 180 m e a 5 m de profundidade. Segundo Rosa e Tassini (1995), os efeitos dos fantasmas no pulso talvez sejam os mais importantes e difíceis de serem corrigidos. Na Petrobras, os efeitos do instrumento e fantasmas são atenuados no processamento por um operador matemático único chamado defaninst (deconvolução do fantasma e instrumento), com os efeitos do instrumento sendo fornecidos pela aquisição ou obtidos em arquivos internos ou externos e os do fantasma modelados realisticamente, considerando-se a distribuição da variação da profundidade dos (principalmente) receptores (e não uma profundidade média única e constante, pois um operador assim gerado afetaria excessivamente uma determinada freqüência, alem de ser menos realista, já que os receptores nunca têm a mesma profundidade durante o levantamento). Fig. 2.6.2 – Efeito do fantasma do receptor no pulso, registrado em (a) 180 m e (b) 5 m de profundidade (extraído de Rosa e Tassini, 1990).
Fig. 2.6.1 – Origem do fantasma da fonte (representada por uma estrela na figura), com o mesmo efeito ocorrendo para o receptor. A diferença de tempo entre a primária e o fantasma (definido pela profundidade da fonte (ou do receptor) D ) determina a freqüência de ocorrência do notch do fanstama (f NOTCH = 750/D para raios verticais). Na prática, procura-se usar D de no máximo 6 m para a fonte e 9 m para receptores.
30
Os efeitos da terra são aqueles que podem nos informar sobre as litologias e fluidos percorridos durante a propagação de onda. Naturalmente, tal análise não é trivial, por várias razões, algumas das quais são discutidas nesta apostila. 2.7 Propagação de ondas Serão analisadas as características e alterações de amplitude, conteúdo de freqüência e de fase das ondas, para entendermos como extrair informações – bem como das limitações (alguma quase incontornáveis) – da sísmica de superfície. Apesar de prejudicial para o método sísmico, se não fosse a atenuação intrínseca do som no interior da Terra, a energia dos terremotos reverberaria por muito mais tempo. A perda de energia que ocorre no pulso sísmico durante a propagação causa uma atenuação de amplitudes, que é algumas vezes contornável quando sinais muito fracos são amplificados suficientemente durante o registro para serem recuperados no processamento, mas também uma perda de freqüências, que pode ser considerada como efeito mais danoso por ser muito mais difícil (e várias vezes impossível) recuperar uma freqüência não registrada. Perdas de amplitude são muitas vezes medidas e analisadas em décibeis (dB), que mede a razão entre duas amplitudes AINICIAL e AFINAL pela expressão razão em dB = 20 log (AFINAL / AINICIAL ) 2.7.1 Algumas vezes é usado o conceito de oitavas, com uma oitava entre duas freqüências indicando que a maior freqüência é o dobro da menor. Assim, um espectro de três oitavas significa que a freqüência mais elevada é oito (=23) vezes superior à menor. As principais causas das perdas de amplitude e freqüência são: espalhamento geométrico (divergência esférica) – é a perda de energia por unidade de volume. Pelo principio de conservação, a energia emitida pela fonte sísmica (que pode ser considerada pontual) é distribuída, à medida que a onda se propaga, por toda a frente de onda (que, em meios homogêneos e isotrópicos, é uma esfera). Esta distribuição causa um decréscimo de energia proporcional ao inverso do quadrado da distância (considerando-se a frente de onda esférica). Considerando que a perda é função direta da velocidade de propagação e tempo de trânsito, Newman (1973) propôs uma equação para correção deste tipo de perda proporcional a tV 2 (V velocidade RMS do meio, sendo aplicada na prática uma velocidade preliminar de processamento), que é usada até hoje, com algumas variações, quando não é efetuada migração com amplitude (pseudo-) verdadeira. Segundo Anstey (1977), a diferença média de amplitude entre 0,1 e 5,0 s é em torno de 50 dB, o que corresponde a uma perda de 99,7%, de acordo com o gráfico da fig. 2.7.1.
31
Fig. 2.7.1 – Escala de decibéis (dB, que mede o logaritmo da razão entre duas amplitudes) indicando que uma queda de 50 dB (considerada por Anstey como representativa entre eventos a 0,1 e 5,0 s) equivale a 99,97% de perdas (extraído de Anstey, 1977). absorção (ou atenuação inelástica) – este fenômeno não é completamente entendido, mas a hipótese mais aceita é que esteja relacionado à conversão de energia mecânica em calor, causada pelas propriedades inelásticas das rochas, com o calor sendo gerado por fricção entre grãos e/ou partículas. Por esta teoria, a causa principal da inelasticidade seria o movimento relativo nas fronteiras dos grãos, com a atenuação sendo função das condições das superfícies dos grãos, como saturação e conteúdo de argila. Por estar vinculado a estas propriedades, este processo seria muito difícil de se expressar matematicamente. O fato de rochas secas apresentarem baixa inelasticidade favorece a tese de que o principal causador da absorção é o movimento entre grãos, pois se considera que rochas secas tem alto coeficiente de fricção, dificultando bastante movimentos de deslizamento. White (1965, 1983) inclui como absorção toda “loss of amplitude in excess of that due to geometrical spreading and reflection” (“perda de amplitude além daquela devido a espalhamento geométrico e reflexão”). A análise de absorção é muito mais complexa que análises elásticas (que já não são triviais). O estudo é difícil porque muitos mecanismos contribuem para absorção e pequenas mudanças em algumas condições podem afetar a atenuação e absorção significativamente. Existem diversos desacordos entre os especialistas, como por ex. se o fator Q (definido a seguir) é ou não função da freqüência, quais os mecanismos causam absorção e entre eles qual(is) o(s) mais importante(s) e se a absorção é linear, entre outras duvidas. O estudo de absorção tem sido há bastante tempo uma fronteira de – na prática – poucos e reduzidos ganhos, devido principalmente à complexidade do assunto. Coautor de uma das ‘bíblias’ da sísmica (Aki e Richards, 1980), o Prof. da Univ. of Columbia
32
Paul Richards considera o fator Q “a mess ” (comunicação pessoal ao Dr. Gustavo Ponce Correia). A teoria de Biot considera Q variável com freqüência. Considera um sólido poroso com esqueleto elástico e somente um fluido. Utiliza três parâmetros, a viscosidade complexa (em que altas freqüências acelerariam o fluido), a tortuosidade do espaço poroso e um fator de acoplamento de massa. Esta teoria prevê a existência de duas ondas de dilatação, ou compressional: a onda-P mais comum, que tem velocidade praticamente constante, com um pequeno termo variando com o quadrado da freqüência, e uma onda denominada tipo II, associada a fluxo de calor ou difusão, com velocidade de fase proporcional à raiz quadrada da freqüência e sofrendo extrema atenuação. A onda tipo II, já verificada experimentalmente, pode ser importante em contatos gás-líquidos devido à vibração dos fluidos. Para as ondas-S, a velocidade é considerada virtualmente constante, com atenuação proporcional a f 2 . Se o fluxo de fluido é o aspecto mais importante, deve combinar parâmetros sedimentológicos com velocidade e atenuação. Dados experimentais mostram que a teoria de Biot não funciona bem para arenitos argilosos. Os efeitos de saturação são de difícil medida em laboratórios, porque 1) considera um distribuição homogênea do fluido, 2) o aquecimento para secar a amostra causa alterações na estrutura da matriz e 3) a remoção completa dos fluidos é impossível. Observa-se que a saturação de água (S W) e a viscosidade são muito importantes, com uma medida de VSP mostrando um fator Q caindo de 30 para 10 em sedimentos marinhos rasos com pequena quantidade de gás. Observa-se empiricamente que 1) as velocidades sísmicas quase sempre aumentam com a freqüência, 2) as ondas sísmicas são sempre atenuadas quando viajam pelas rochas e 3) a velocidade e atenuação aumentam em rochas saturadas com fluido (comparando-se com rochas secas) e diminuem com maior pressão efetiva. Medidas de laboratório e estudos teóricos mostram que, geralmente, a perda por absorção é aproximadamente constante quando medida em dB/ λ, com λ sendo proporcional à freqüência. Como conseqüência, as freqüências mais altas são atenuadas mais rapidamente que as baixas, o que causa uma diminuição progressiva da resolução sísmica à medida que a onda se propaga. Assim, a absorção tem como efeito colateral gravíssimo a perda de altas freqüências durante a propagação ; a recuperação desta freqüências é muito difícil, e muitas vezes impossível. Uma medida do efeito da perda do conteúdo de freqüências em função do tempo de propagação é indicado na fig. 2.7.2.
33
Fig. 2.7.2 – Perda de altas freqüências como função do tempo de propagação (curvas de 1 a 5 s) para uma absorção de 0,2 dB/ λ (extraído de Anstey, 1977).
Para medida deste efeito, usa-se um coeficiente de atenuação α (cujos valores costumam variar entre 0,2 e 0,5) de decaimento exponencial pela distância, de acordo com a fórmula AFINAL=AINICIAL.exp(-α.x), 2.7.2 x distância percorrida pela onda.
A medida da mudança de amplitude por um ciclo, ou decréscimo logarítmico, é δ = ln (AFINAL / AINICIAL) 2.7.3 Mais comumente usado na correção dos efeitos de absorção/dispersão do que α , o fator Q (fator de qualidade) é definido por Q = (π.f)/(α.V) = π / δ, 2.7.4 f freqüência e V velocidade.
O fator Q indica aproximadamente quantas vezes uma onda se propaga, em ciclos ou períodos. Pode ser visto como a razão entre a energia armazenada e a dissipada. K jartansson ((1979) ssugere a a e expressão 1/Q = 1/tg(ϕ) 2.7.5 ϕ atraso de fase da relação esforço-deformação.
Q costuma variar nos sedimentos entre 50 e 300 (tab. 2.7.1), sendo aproximadamente constante na faixa de freqüências da sísmica de superfície. A figura 2.7.3 mostra o efeito da absorção quando um spike se propaga em um meio com Q=100 durante 1,0 s. Fig. 2.7.3 – Efeito da absorção em um pulso unitário (spike ) após 1,0 s de propagação (extraído de Rosa e Tassini, 1990).
Algumas vezes usa-se o fator de dissipação, que é o inverso de Q (i.e., Q-1). Existem alguns algoritmos de obtenção do fator Q, com um muito bom tendo sido desenvolvido e apresentado por nosso Varela et al (1993). Muitas vezes a medida é 34
realizada no próprio dado sísmico, porém a forma mais confiável de obter-se o fator Q é através de VSP (cap. 8) (Robert Stewart, comunicação pessoal).
Tab. 2.7.1 – Valores do fator Q intrínseco para algumas rochas (Nur, 1993). Durante o processamento, correções do fator Q são usadas geralmente tanto para fase quanto para amplitude, sendo mais comuns no primeiro, pois, em caso de parâmetros imprecisos, o dano não costuma ser significativo. De qualquer modo, preferese sempre usar maiores valores de Q, diminuindo-se desta forma o efeito da correção de absorção. Especialmente danosa é a correção do fator Q em múltiplas não atenuadas, pois as mesmas se propagaram somente na água, meio que tem Q praticamente infinito (ou seja, as perdas por absorção no mar são desprezíveis). Na prática, é de separação muito difícil os efeitos de absorção efetiva (algumas vezes chamada de Q intrínseco) da redução no conteúdo de altas freqüências causada pelas múltiplas de (muito) curto período (fig. 2.7.4), que serão analisadas em breve. Regiões de absorção muito elevada (baixo fator Q) – que causam um decréscimo forte e abrupto no conteúdo de altas freqüências – têm sido associadas à ocorrência de gás, mas quase sempre essas acumulações são mais nítidas de outra forma (fortes anomalias, por ex.). Existem estudos teóricos que tentam relacionar o fator Q à permeabilidade, mas de muito pouca aplicação prática, até o momento. Mais recentemente, começou-se a analisar evidencias (e implicações) de anisotropia na distribuição do fator Q. As principais aplicações práticas do fator Q talvez sejam de tentar no processamento a recuperação de altas freqüências (Oliveira et al ., 2005) e estimar-se a freqüência máxima esperada de um levantamento sísmico. Não foi encontrada uma relação única entre Q e litologia, nem na teoria nem na prática, mas correlações locais têm sido encontradas empiricamente. Secundariamente, são reportados a separação de permeabilidades altas de baixas (em VSPs) e medidas de saturação e conteúdo de argila (medidas em laboratórios). A mensuração do fator Q pode ser feita em laboratórios (com diferentes técnicas), via VSP (usando-se a onda direta, em rochas teoricamente não perturbadas e sob condições controladas) ou da própria sísmica de superfície. No VSP ou sísmica, é difícil 35
obter medidas especificas em reservatórios, por ser um intervalo relativamente curto. Existe desacordo mesmo usando-se o mesmo conjunto de rocha, como por ex. o folhelho Pierre, em que se encontrou α variando com f e f 2 . Em VSPs, a pequena separação dos receptores pode fazer com que variações locais sejam mais influentes que a profundidade do receptor. A razão espectral (reta que melhor ajuste o decréscimo de amplitudes em direção às altas freqüências) é o método mais comum, com a onda tendo que ter viajado ao menos um comprimento de onda na camada analisada. Outros métodos são o decaimento de amplitude (pouco confiável, pois requer amplitude verdadeira), modelagem ajustando pulsos em tempos distintos através de diferentes valores de Q e ajuste de sísmica de superfície para perfis de poços. Os resultados permitem concluir que Q é independente da freqüência, especialmente para rochas secas – este fato é extremamente importante, pois permite analisar rochas em laboratórios (a freqüência de MHz) e extrapolar os resultados para a freqüência de perfis (KHz) ou sísmica de superfície (dezenas de Hz). O problema é incluir o fator de fluido a estas freqüências menores – para isso, usa-se geralmente a equação de Gassmann-Geerstma (eq. 2.3.13). Algumas medidas mostram Q inversamente proporcional à freqüência em líquidos, mas de uma forma negligenciável em freqüências sísmicas, mesmo para sedimentos marinhos inconsolidados. Arenitos com baixa porosidade costumam apresentar Q elevados, provavelmente devido a poucos fluidos para interagir com sólidos. A interface gás-liquido costuma ter um gradiente de pressão muito alto, causando um movimento de liquido anormalmente elevado, gerando uma alta atenuação (baixos valores de Q) sobre campos de gás, com algumas vezes reflexões sísmicas não sendo obtidas devido à alta atenuação em sedimentos marinhos rasos com gas bubbles (Rodriguez et al., 1998). Algumas análises encontram relação entre a razão QS /QP e a saturação, mas isso não pode ser considerado como regra geral. Em arenitos com saturação parcial, é comum que QS>QP, o que não costuma ocorrer geralmente – atribui-se o fato de que, quase sempre, QP>QS ao maior atrito que a partícula encontra ao realizar um movimento cisalhante em comparação ao compressional. Pode-se concluir que Q é constante, tanto para ondas-P quanto –S, e que pequenas quantidades de água faz com que o valor de Q decresça drasticamente. Empiricamente observa-se também que α diminui com o aumento da pressão de confinamento, talvez devido a fechamento de fraturas. Conclui-se também que α é maior para rochas saturadas com fluido, e que depende de SW, tipo de fluido e freqüência em uma relação complexa. No caso de tensões não-hidrostáticas, ocorre anisotropia em α , corroborando sua relação com o comportamento de tensões. Tem sido observado que a razão αP / αS possui algumas vezes relação com a razão de Poisson. A correção de efeitos de absorção é muito difícil, entre outras coisas pelo efeito combinado de outras causas de atenuação. A inelasticidade (algumas vezes chamada anelasticidade) é geralmente modelada matematicamente pela teoria da viscoelasticidade, onde a relação tensão-deformação é função do tempo t , com a resposta sísmica do meio dependendo da ‘história passada’ da rocha, dizendo-se que o meio tem ‘memória’ (Krebes, 1989). Segundo Toverud e Ursin (2005), nas freqüências sísmicas é comum o uso de equações empíricas para modelar a atenuação, com um método comum sendo o de uma relação linear entre a atenuação e a freqüência, que foi estabelecido por Futterman (1962) 36
e é bastante usado até hoje, com algumas pequenas variações. Os autores analisaram oito métodos distintos em um VSP, concluindo que todos fornecem resultados parecidos, com o modelo de Futterman sendo ligeiramente melhor, o que justifica sua utilização bastante disseminada. A absorção não deve ser confundida (apesar de estar associada à) com a dispersão. Sismicamente, este termo é usado quando diferentes freqüências viajam a diferentes velocidades, alterando a forma do pulso. É geralmente causada por anisotropia e/ou absorção (neste caso, não costuma ser significativa), estando também presente em ondas aprisionadas (channel waves ) e superficiais (por ex., o ground roll ). A dispersão leva ao conceito de velocidade de fase (da frente de onda) e de grupo (da energia) (ver item 2.1). Finalmente, existe também a chamada ‘equação de dispersão’, que relaciona o número de onda, a freqüência e a velocidade, e cuja discussão está além dos objetivos deste curso. De nosso interesse é que a dispersão (causada pela absorção) é facilmente constatada ao se comparar as velocidades do mesmo material (rocha) em amostras (plugs ) em laboratório (freqüências em MHz), perfil sônico (1 a 10 KHz) e dados sísmicos de superfície (dezenas de Hz) – observa-se que as velocidades são sempre maiores ao serem obtidas em maiores freqüências, pois a velocidade de fase (associadas às velocidades de grupo, ou da energia) é superior nas maiores freqüências. Como este fenômeno é observado somente em rochas saturadas com líquidos, considera-se que em rochas com poros preenchidos por líquidos a tensão induzida pela passagem da onda gere um incremento na pressão de poros, com as baixas freqüências tendo tempo suficiente para equilibrar-se, mas com as altas freqüências gerando um fluxo de fluidos. Esta teoria, denominada squirting flow , explicaria a presença da dispersão, e é usada para se modelar respostas esperadas em sísmica de superfície ou perfis a partir de dados de laboratório. A teoria de Biot descreve a contribuição da absorção e dispersão do fluxo macroscópico para rochas totalmente saturadas. Pode-se considerar que a extrapolação de propriedades de freqüências ultra-sônicas para de perfis sônicos e sísmica de superfície envolvem premissas que devem ser verificadas por dados que quase sempre não estão disponíveis. Ganley (1979) apresentam resultados no Mar de Beaufort, baseado no método da razão espectral e com correção de reverberação em dados de VSP, de Q=42 entre 550 e 1.200 m e Q=67 entre 950 e 1.310 m, com valores de dispersão consistentes com modelo de Futterman. Klimentos e McCann (1990), procurando encontrar uma forma de correlacionar conteúdo de argila e permeabilidade, observaram que esta relação é dependente da geometria do poro e forma da argila, parâmetros de difícil quantificação. Os autores descobriram que – quando a porosidade é mantida constante – o aumento do conteúdo de argila em arenitos causa maior absorção de energia. espalhamento difuso (scattering ) – espalhamento irregular e difuso de energia causada por heterogeneidades do meio através do qual a onda viaja. São ruídos gerados por pequenas feições geológicas, como falhas, recifes, diques e sills de dimensões reduzidas (inferiores a 10 m). Em algumas situações podem causar efeito parecido com reverberações (explicadas a seguir), por isso alguns autores (por ex., Rosa, 2002) consideram que processos para atenuação do scattering devem ser concomitantes ao de atenuação das reverberações.
37
transmissão e conversão – uma reflexão de um sinal sísmico ocorre quando uma onda encontra um contraste de impedância, com a razão (coeficiente) entre as amplitudes (deslocamento de partícula devido a passagem da onda) refletida e incidente definida por um coeficiente de reflexão, ou refletividade. Assim, vemos que um ‘mapa de amplitude’ de um determinado evento pode se referir tanto à distribuição areal dos coeficientes de reflexão quanto aos valores do ‘tamanho’ (amplitude) do deslocamento da onda – o segundo caso seria o mais correto, mas o termo ‘amplitude’ costuma ser usado para o primeiro (coeficientes de reflexão). Esses coeficientes são obtidos por aplicação de condições de contorno (que expressam a continuidade de tensões e deformações em uma interface) na equação da onda. Dessa forma, obtêm-se valores de refletividade como função de parâmetros petrofísicos e ângulos de incidência, podendo-se inferir então características do reservatório (e seus fluidos) analisando-se dados sísmicos. As equações de Zoeppritz são as expressões mais usadas e conhecidas para obtenção de refletividade (as eq. de Knott, obtidas por análises de potencial, são equivalentes à Zoeppritz, mas menos usadas), relacionando velocidades de ondas-P e –S e densidade das camadas acima e abaixo da interface e ângulo de incidência com coeficientes de reflexão. Essas equações são válidas para ondas planas em meios homogêneos e isotrópicos – ou seja, já com algumas aproximações e premissas. Ainda assim, as equações de Zoeppritz são bastante complicadas, extensas e com vários parâmetros, não permitindo uma inferência de relação entre coeficientes de reflexão (amplitudes) e propriedades petrofísicas de uma forma simples e direta. Por isso, quase sempre são usadas aproximações dessas equações, algumas delas apresentadas a seguir. No caso mais simples de incidência normal (i.e., trajetória perpendicular à interface) de uma onda-P do meio 1 para o meio 2 tem-se:
r = (Z2-Z1)/(Z2+Z1), T=2.Z1 /(Z2+Z1)
2.7.4
Z i impedância acústica (VP.ρ) do meio i.
Os coeficientes de reflexão r e transmissão T são coeficientes de deslocamento de partículas, por isso podem ser maiores que um sem problema algum. Geralmente, r possui valor inferior a 0,1, raramente atingindo 0,3. Como a fração da energia refletida é proporcional ao quadrado da refletividade, no caso teórico de apenas uma interface com r=0,1, somente 1% da energia gerada pela fonte sísmica retornaria à superfície. Em um caso real, em que existem várias camadas e outros tipos de perdas, uma percentagem muito menor da energia emitida pela fonte será captada pelos receptores (desconsiderando-se demais efeitos de propagação). A tab. 2.7.2 fornece alguns coeficientes de reflexão. Vemos que os maiores contrastes são no fundo do mar e na base da camada de intemperismo. Estas interfaces são as principais geradoras de múltiplas, com a maior parte das outras interfaces gerando uma pequena partição de energia. Rosa e Tassini (1995) citam o exemplo do poço 3-RJS-316, em que as perdas por transmissão (obtidas através de perfis) foram calculadas em 8,9 dB entre 1.186 e 3.504 m. Os autores consideram que as perdas por transmissão podem ser, geralmente, desconsideradas, principalmente quando as variações entre as camadas não são muito grandes. Esta opinião (apesar de questionável e não compartilhada por este autor) é comum entre vários geofísicos, e na maior parte das vezes o processamento não procura corrigir este efeito.
38
Tab. 2.7.2 – Coeficientes de reflexão para incidência normal em algumas interfaces típicas (extraído de Sheriff, 1978). Durante a obtenção das equações de Zoeppritz observa-se que, no caso de incidência não-normal de uma onda-P em uma interface sólido-sólido, são geradas (além de uma onda-P refletida e outra transmitida) duas ondas (uma refletida, outra transmitida) cisalhantes com polarização vertical (SV, fig. 2.1.6). Tal fato deve ser esperado intuitivamente, pois o componente de deslocamento tangencial à interface tem que ter continuidade na camada seguinte – isto é obtido com a geração da onda-SV. Este fenômeno, denominado de conversão de modo, permite a geração de ondasS usando-se fontes convencionais (de ondas-P), e é a base do desenvolvimento da sísmica multicomponente nos últimos dez anos. Deve ser registrado que, apesar de simplificar (e baratear) a aquisição, o uso de ondas convertidas é um complicador para o processamento. Alguns autores, como McQuillin et al. (1984), consideram que a conversão de ondas-P para –SV não é muito efetiva na sísmica convencional, porque a maior parte da incidência ocorre próxima à normal. Outros autores, como Rosa e Tassini (1990), discordam, acreditando ser necessário considerar-se a conversão mesmo para refletores profundos (onde, naturalmente, os ângulos de incidência são mais próximos à normal). Por isso, Rosa (2002) considera que o uso exclusivo da refletividade P-P para obtençao da (pseudo, segundo o autor) impedância elástica é naturalmente restrito.Segundo Sheriff (1992), a eq. 2.7.4 funciona como boa aproximação para ângulos de até 200. Expressões simplificadas das equações de Zoeppritz foram obtidas e/ou são mostradas – entre outros – por Bortfeld (1961), Cerveny e Ravindra (1971), Aki e Richards (1980) e Shuey (1985). Estas simplificações (mesmo com algumas sendo confiáveis para ângulos somente ate 300) mostram que quando a razão de Poisson (σ ) da camada inferior (considerando o caso de mais comum e que tem interesse, do campo de onda descendente) é muito menor que da superior, o coeficiente de reflexão r aumenta com o ângulo de incidência, gerando um aumento de amplitude com offset (distância fontereceptor). Deve-se avaliar se as premissas mais importantes dessas aproximações são respeitadas em cada caso, devendo ser registrado principalmente o fato que algumas equações que consideram uma variação pequena de V P, V S e ρ são usadas em modelagens, inversões, etc que obtêm/impõe elevadas alterações nesses parâmetros – ou seja, uma premissa básica da expressão utilizada é violada, e, no entanto tal expressão é usada da mesma maneira. O fenômeno da forte redução de Poisson, denominado de AVO, é usado com grande freqüência na exploração (para indicação de locais mais favoráveis a existência de HC) e explotação, para definição de limites de ocorrência de rochas-reservatório e fluidos. É importante registrar que o forte decréscimo da razão de Poisson é mais comum em reservatórios com gás, com o efeito de AVO sendo geralmente mais sutil em rochas com óleo. As ondas cisalhantes com polarização horizontal (SH) comumente não são obtidas a partir de ondas-P ou –SV (já que geralmente componentes horizontais de tensão não 39
são gerados), tornando necessário o uso de fontes sísmicas próprias, que são caras, pouco efetivas e de difícil operacionalidade. A Lei de Snell-Descartes também é válida para ondas convertidas. A eq. 2.1.1 pode ser reescrita como (fig. 2.1.6) sen(θP1)/VP1 = sen(θP2)/VP2 = sen(θS1)/VS1 = sen(θS2)/VS2
2.7.5
Quando sen( θP 2 ) se torna complexo (maior que 1), diz-se que a onda atingiu o ângulo crítico, a partir do qual são originadas ondas frontais (head waves ), também chamadas de cônicas ou de refratadas (fig. 2.7.3). Alguns autores usam o termo refratada para as ondas transmitidas – já que na ótica geométrica o fenômeno da mudança de direção de propagação de uma onda é denominado refração – mas na literatura da sísmica de exploração isto raramente acontece. Estas ondas, geradas quando ocorre incidência acima do ângulo crítico, se propagam na própria interface com a velocidade V P2 , sendo transmitidas continuamente para o meio de menor impedância. Seu estudo teórico não é trivial, estando além dos objetivos deste curso. Demonstra-se que são criadas por reflexão e transmissão de frentes de ondas curvas, já que a teoria do raio não explica a existência dessas ondas a partir de ondas planas, sendo necessária o uso de uma teoria mais acurada, baseada em frentes de ondas curvas (Krebes, 1989). A Lei de Snell-Descartes mostra que a geração de ondas S refratadas só ocorre, na sísmica convencional, quando V S do meio inferior é maior que V P do meio superior, o que costuma ocorrer em áreas com camadas de altas velocidades (geralmente carbonatos e vulcânicas) próximas a superfície (mas não aflorantes). Modos P-S-S-P algumas vezes são usados para análises abaixo de vulcânicas ou sal.
Fig. 2.7.3 – Ondas refratadas ( head waves ) se propagam na camada superior com velocidade da camada inferior, atingido a superfície antes das ondas refletidas a partir do afastamento crítico (crossover point ) (extraído de Sheriff, 1991).
A partir de um determinado offset (ou ponto), denominada distância (ou afastamento) crítica, as ondas refratadas atingem a superfície antes da onda refletida, pois serem mais rápidas que esta (fig. 2.7.3). Na prática, isto só ocorre para interfaces muito rasas.
40
Esta propriedade é usada algumas vezes nos serviços de refração rasa em aquisição terrestre (cap. 3) para determinação de valores de correção estática (ver cap. 4) e em refrações profundas, com receptores a vários quilômetros da fonte, para análise de descontinuidades muito profundas da Terra (por ex., Mohovicic). O método de refração foi o primeiro método sísmico usado na indústria do petróleo, para se mapearem topos de domos de sal (que é um grande gerador de ondas refratadas, devido a grande ∆V entre o sal e os sedimentos sobrepostos). Múltiplas podem ser definidas como energias sísmicas refletidas mais de uma vez. Alguns geofísicos (por ex., Milus Backus, com. pessoal a José Tassini) consideram que o efeito das múltiplas é o fenômeno mais pernicioso no método sísmico. Existem dois tipos principais (fig. 2.7.4), as de longo e curto período. Outra forma de classificação é entre as geradas em uma superfície livre (interface água-ar ou solo-ar) ou criadas nas interfaces entre duas camadas. As de longo período são, geralmente, geradas em uma superfície livre. As de longo período geralmente atingem os receptores como eventos distintos e se propagam nas camadas superiores (com velocidades menores). Seu maior problema é estarem quase sempre associadas a interfaces com alto contraste de impedância, tendo conseqüentemente altas amplitudes – o caso clássico e mais danoso é a múltipla do fundo do mar, geralmente de fácil identificação e difícil atenuação.
Fig. 2.7.4 – Alguns tipos de múltiplas (da esquerda para dir.): fantasma ( ghost , ver item 2.6) e near- surface e peg leg (ambas de curto período). A mais prejudicial costuma ser a double (associada a fundo/nível do mar) (extraído de Sheriff, 1991).
Teoricamente, a técnica CDP (cap. 3) atenua as múltiplas, porém na prática o problema é que as múltiplas nos offsets menores costuma estar próxima ou em interferência com o sinal primário que se deseja analisar. Os algoritmos no processamento que procuram atenuar as múltiplas são baseados principalmente em (cap. 4) 1) diferenciação entre eventos primários e múltiplos no domínio τ -p (transformada Radon) ou 2) via equação da onda. O primeiro grupo tem como vantagem ser relativamente rápido e barato, porém as transformadas disponíveis geralmente não são sistemas lineares (fazendo com que um sinal ‘levado’ para o domínio da aplicação do algoritmo – por ex., τ -p – tenha suas características alteradas no ‘retorno’, mesmo que nenhuma operação seja aplicada nele).
41
O segundo grupo (SRME sendo o mais comum), bem mais robusto e efetivo, tem como grande desvantagem o custo elevado, pois usa algoritmos que requerem bastante uso de máquina e necessita uma densa amostragem espacial. Apesar disso, os métodos SRME tendem a serem usados atualmente, devido aos resultados geralmente bem superiores. As múltiplas de curto período podem ser consideradas ainda mais danosas, pois diminuem a resolução sísmica e são bem mais dificilmente atenuadas durante o processamento. São geradas quando parte da energia refletida na base de uma camada pouco espessa é refletida no topo, e refletida novamente na base – criando a chamada reverberação ou peg-leg . Caso esta trajetória seja muito rápida, esta reverberação é adicionada à onda principal, causando um ‘alongamento’ no pulso. Como isto gera perda de altas freqüências, na prática é muito difícil separar os efeitos dessas múltiplas de efeitos de absorção. Schoengerger and Levin (1974) observaram que é muito difícil distinguir o efeito de reverberação e scattering da absorção, já que o efeito é similar. No exemplo dos autores, de 1/3 a ½ da atenuação em função da freqüência foi causada por acamamento. Rosa (2002) considera que esta fração deve ser ainda maior, devido a medidas de perfis sônicos já serem uma média das propriedades do meio; no entanto, esta média (ou suavização) é feita em espessuras muito abaixo do comprimento de onda da sísmica de superfície, não estando claro se – e quanto – esta suavização aumentaria o efeito do filtro estratigráfico. Já White (1983) considera que os efeitos das múltiplas intracamadas são pequenos se comparados à atenuação intrínseca na freqüência sísmica em sedimentos típicos. Além desse desacordo, nenhum dos trabalhos citados considerou o efeito do scattering em camadas com mergulho. De uma forma geral, alguns autores consideram que a reverberação deve ser responsável por 10 a 40% da inelasticidade total encontrada na propagação, com o restante sendo devido à absorção intrínseca das rochas. Este efeito, às vezes chamado de filtro estratigráfico, foi analisado também por O’Doherty e Anstey (1971) e Richards e Menke (1983). Pode-se mostrar que é de fase mínima, o que tem importância ao se tentar atenuá-lo no processamento. O efeito combinado da absorção inelástica e da reverberação – dois fenômenos sem relação entre si – é que se costuma procurar atenuar no processamento, podendo-se usar a expressão proposta por Richards e Menke (1983) 1/Qefetivo = 1/Qintrínseco + 1/Qreverberação 2.7.6 Segundo os autores, esta expressão só não deve ser usada quando Qintrínseco for elevado. Valores de Q intrínseco – que algumas vezes procura-se se associar a propriedades petrofísicas – provavelmente só podem ser obtidos de uma forma razoavelmente confiável através de VSP. Os fatores que alteram a amplitude, freqüência e fase do pulso sísmico durante sua propagação são mostrados, resumidamente, na fig. 2.7.5.
42
Fig. 2.7.5 – Alguns dos fatores mais importantes que alteram amplitude, conteúdo de freqüências e fase do sinal sísmico (extraído de Sheriff, 1978).
Anisotropia é definida como a variação de uma propriedade física (resistividade, permeabilidade, velocidade, etc) em função da direção de medição. Não deve ser confundida com heterogeneidade, que é a variação espacial de uma propriedade. O tipo de anisotropia mais comum em dados sísmicos e a menos complicada de se analisar e corrigir (por ser a mais simples) é denominada TI (de Tranverse Isotropy , significando que o material é isotrópico transversalmente a um eixo). O caso mais comum é o VTI, em que o eixo é vertical – o nome mais correto é anisotropia polar porém este termo não é muito usado. No caso do eixo ser horizontal – o exemplo mais importante sendo fraturas com uma direção preferencial de orientação –, o sistema é chamado HTI. Entre os dois, e também útil para a sísmica de superfície, ocorre o TTI (de tilted ). A anisotropia VTI está geralmente associada a folhelhos, e significa na prática que uma onda tem velocidade de propagação maior na horizontal que na vertical. Isso pode ser compreendido intuitivamente pensando que uma onda que se propaga na horizontal neste tipo de rocha irá ‘viajar’ dentro da rocha. Já uma onda que se propague verticalmente irá, necessariamente, atravessar trechos de rochas e trechos de um material com menor velocidade, com o resultado final sendo uma velocidade inferior a da rocha. No caso da sísmica de superfície, a velocidade tem um componente associado ao afastamento fonte-receptor. Quanto maior o afastamento, maior deverá ser a velocidade em um meio com anisotropia polar, pois tem maior peso o componente horizontal – que, como vimos, é mais veloz que o componente vertical. Assim, uma velocidade de processamento no caso de ambiente VTI será maior que a velocidade caso somente os afastamentos curtos fosse usados. Como o dado sísmico tem, após o empilhamento (ver cap. 4), afastamento nulo, conclui-se que se usarmos a velocidade de processamento para conversão tempo-profundidade para eventos em uma seção empilhada, os resultados estarão mais profundos que o correto, já que a velocidade é maior que a verdadeira. Tal fato é largamente conhecido, e freqüentemente observado na prática há mais de 20 anos (Banik, 1984).
43
Da mesma forma que a absorção, o efeito da anisotropia pode ser similar ao causado por outros fatores sendo geralmente de difícil separação as alterações geradas durante a propagação das ondas devido à anisotropia intrínseca das causadas por outras razões. O tipo de anisotropia mais comum (VTI) pode ser gerado quando a onda se propaga por diversas camadas horizontais isotrópicas com espessura muito menor que o comprimento de onda dominante, fenômeno mostrado por Backus (1962). Este fenômeno é observável em folhelhos geradores – geralmente constituídos de intercalações de matérias orgânicas e minerais de argila –, que costumam apresentar forte anisotropia. Alguns autores associam a quantidade de anisotropia ao potencial gerador, mas tal associação, observada em laboratório, ainda não está completamente provada, e muito menos existem relações numéricas entre parâmetros anisotrópicos e potencial gerador. Alguns autores (Shapiro et al. 1994, Rosa, 2002) consideram que uma anisotropia aparente pode ser causada pelo filtro estratigráfico, principalmente em folhelhos pouco espessos. Na prática, é extremamente complicado separar os dois efeitos, devido a dificuldade de obtenção de medidas confiáveis e possibilidade de grandes erros ocorrerem quando métodos de up-scaling são usados para se extrapolar informações de laboratórios (freqüência de MHz) para sísmica de superfície (dezenas de Hz). 2.8 Resolução vertical Resolução pode ser definida como a capacidade de se separar duas feições muito próximas. Pode ser considerada também a separação mínima necessária entre duas interfaces ou eventos para que suas características individuais não sejam perdidas durante uma observação. A pouca resolução vertical é provavelmente a maior limitação dos dados sísmicos de superfície, especialmente para o estudo de reservatórios. Isto ocorre porque a espessura das camadas em subsuperfície geralmente é inferior ao resolvível pelo pulso sísmico, causando uma superposição de sucessivas reflexões, normalmente de difícil – senão impossível – individualização. Tal fato é mostrado na fig. 2.8.1, onde se pode observar que interfaces muito próximas (associadas, naturalmente, à camadas pouco espessas) não são resolvíveis sismicamente. A fig. 2.8.2 exemplifica como pulsos com diferentes conteúdos de freqüência podem ou não resolver camadas de diferentes espessuras. A expressão 2.8.1 λ = V / f fornece a relação entre o comprimento de onda λ , a velocidade V e a freqüência (dominante, ver item 2.1) f . Veremos a seguir que menores λ proporcionam mais resolução vertical, logo desejamos ter menor velocidade e mais conteúdo de altas freqüências (de forma a aumentar a freqüência dominante), mas o que ocorre em subsuperficie é exatamente o contrário do que desejamos ou precisamos. Não podemos controlar o valor de velocidade, que é uma propriedade intrínseca do meio, e infelizmente V tende a aumentar com a profundidade, devido à compactação e idade das rochas. Em relação à freqüência, vimos no item 2.7 que, devido à absorção e múltiplas de curto período, o pulso tende a perder as altas freqüências à medida que se propaga. Então, o que fazer para se atenuar este problema? Pode-se realizar uma aquisição com esse objetivo e/ou aplicar no processamento algoritmos que aumentem a amplitude das maiores freqüências. Do lado da aquisição, tal objetivo requer quase sempre um custo muito superior a levantamentos convencionais, sendo necessários alguns estudos técnicos – modelagens 44
numéricas, principalmente – para se saber até onde vale a pena gastar mais e também análises econômicas, para verificar se tal gasto vale o retorno esperado. O principal problema da aquisição é relacionado ao fato do fator Q ser menor (ou seja, as rochas têm maior absorção) nas camadas mais rasas (por elas serem menos consolidadas), tanto em terra como no mar. Evitando-se o trajeto na parte rasa, aumenta-se o conteúdo de freqüência. Obviamente, o problema é colocar fontes e receptores abaixo destas zonas superficiais. Uma técnica relativamente comum é o VSP, em que os receptores estão em um poço e a fonte em superfície – vantagens e desvantagens desta e de outras técnicas de sísmica de poço serão discutidas no cap. 8. Pelo processamento, tem-se procurado intensamente técnicas e algoritmos que recuperem as altas freqüências, com algumas tendo resultado razoável a muito bom, e outras não sendo efetivas. Uma solução ‘caseira’ – o decon iterativo – tem fornecido excelentes resultados, e será discutido no cap. 5, juntamente com outras técnicas.
Fig. 2.8.1 – Função refletividade hipotética (à esquerda) e traço sísmico correspondente, indicando impossibilidade de resolver (definir) camadas pouco espessas (extraído de Lindseth, 1982).
Fig. 2.8.2 – Limites de resolução de acordo com a espessura das camadas e conteúdo de freqüências do pulso, mostrando que limite é diretamente proporcional à espessura e conteúdo de altas freqüências (extraído de Lindseth, 1982).
Quando se deseja determinar o limite de resolução, não existe uma relação única e precisa para isto. Este limite depende da qualidade dos dados, intensidade das reflexões e experiência e conhecimento do intérprete. Lord Rayleigh estudou o assunto – na luz visível –, encontrando um limite de resolução de λ /8. Widess (1973), em artigo clássico, interessado no comportamento da refletividade em camadas pouco espessas e qual a espessura mínima a partir da qual a amplitude de uma camada seria negligenciável, observou que, teoricamente, para uma camada ser detectável pela sísmica, sua espessura deveria se de pelo menos λ /8 – concordando assim com estudos de quase 100 anos anteriores da ótica. Em situações reais, no entanto, o autor considerou 45
que esta espessura deveria ser o dobro, com o limite de resolução vertical da sísmica igual a λ /4 . Esta grande diferença foi atribuída por Widdes à, principalmente, presença de ruídos. Até hoje, o valor comumente usado é de λ /4. Geralmente, o limite de todos os autores se encontra neste intervalo (λ /8 a λ /4) (Sheriff, 1985). Então, para se ter uma idéia razoável do limite de resolução do dado que estamos usando, necessitamos uma estimativa da velocidade intervalar do meio (obtida a partir de perfis ou análise de velocidade do processamento (cap. 4)) e da freqüência dominante (disponível no espectro de amplitude gerado via transformada de Fourier). Como exemplo, vamos considerar um arenito com V=3.000 m/s; caso a freqüência dominante f seja de 30 Hz (um valor razoável a bom), camadas com espessura inferior a 25 m não são resolvíveis – naturalmente, neste caso estamos deixando muito óleo para trás... caso seja possível dobrar f (por aquisição e/ou processamento), a espessura mínima cai a metade (12,5 m). Claro que chegar a dobrar a freqüência dominante geralmente não é possível – e quando possível, pode ser extremamente trabalhoso –, mas este exercício simples mostra que o prêmio pode ser altamente compensador. Vamos analisar agora o limite de resolução em três casos geológicos distintos: a. uma camada – a fig. 2.8.3a mostra duas ondas, R1 e R 2, reflexões do topo e base de uma camada, respectivamente (modelo na fig. 2.8.3c). A soma destas duas ondas – ou seja, o resultado da interferência entre R1 e R2 – é Rd (fig. 2.8.3b). Observa-se que Rd, apesar de preservar algumas características de R1 e R2, possui deslocamento de fase em relação a ambos, acarretando um erro no posicionamento do horizonte a ser interpretado.
Fig. 2.8.3 – Efeitos de interferências entre reflexões do topo (R 1) e base (R 2) de uma camada (a) e traço sísmico resultante (b). Modelo simples de uma camada mostrado em (c) (extraído de Widess, 1973).
b. rejeito vertical de falhas – vemos na fig. 2.8.4 diferentes valores de rejeitos vertical de falhas normais, em função de λ. Observa-se que é possível definir o rejeito quando o mesmo está entre λ /8 e λ /4. Rejeitos maiores são facilmente visíveis,
46
mas os menores não serão observados pela sísmica. Atentando-se para que o exemplo é de dado sem ruído, é interessante notar que esses limites correspondem ao sugerido por Widdes.
Fig. 2.8.4 – Limite de detecção de rejeitos verticais de falhas normais em dados não-migrados em função do comprimento de onda λ (extraído de Yilmaz, 1987).
c. detecção de feições tipo pinch-out – na fig. 2.8.5 vemos uma cunha com valor de impedância maior que os das camadas adjacentes e a resposta sísmica deste modelo. Na fig. 2.8.6 a cunha tem impedância maior que a camada superior e menor que a inferior. De grande interesse em casos de acunhamento – feições comuns em vários reservatórios – é analisar o comportamento da amplitude, especialmente sua variação em função do afinamento. Os casos de base do reservatório com refletividade positiva e negativa são mostrados nas fig. 2.8.5 e 2.8.6, respectivamente. Vemos que variações de amplitude ao longo de um determinado evento não estão associadas a mudanças petrofísicas (litológicas e/ou de fluidos), mas sim a interferência entre reflexões do topo e da base do reservatório. Este fenômeno, denominado de tunning , é amplamente conhecido e observado. Alguns estudos mais detalhados procuram retirar este efeito, geralmente através de modelagens para obtenção do comportamento esperado de amplitude no caso de afinamento.
Fig. 2.8.5 – Modelo de pinch com refletividade positiva no topo e negativa na base (acima), com dado sintético correspondente (acima, à direita) e variação da amplitude causada por afinamento da camada (efeito tunning ) (à direita) (extraído de Kallweit e Wood, 1982).
47
Fig. 2.8.5 – Modelo de pinch com refletividade positiva no topo e na base (acima), com dado sintético correspondente (acima, à direita) e variação da amplitude causada por afinamento da camada (efeito tunning ) (à direita) (extraído de Kallweit e Wood, 1982).
Robertson e Nogami (1984) apresentam uma proposta interessante: o uso de atributos complexos (cap. 6) pode fornecer, em algumas situações, uma definição de camadas finas (o que não deve ser confundido com um aumento artificial de resolução). A partir da constatação que a partir de λ /4 o afinamento pode ser revelado por um aumento anômalo na freqüência instantânea (já que, de forma parecida à amplitude, também existe uma freqüência de tunning ), os autores estudam dados sintéticos e reais, mostrando que este atributo pode ajudar, devendo ser testado em algumas situações. O caso apresentado é em objetivos rasos, desconhecendo-se se a metodologia teria resposta positiva também em reservatórios mais profundos. O limite de resolução não deve ser visto como um número absoluto, abaixo do qual não podemos extrair informação alguma do dado sísmico. Ele talvez possa ser considerado mais como uma divisão no tipo de evidencias disponíveis (Sheriff, 1985). Em outro artigo clássico, em que existe uma discussão interessante (analisando picos, extremos, faixas e razões de freqüências e oitavas, considerando um pulso como uma mistura não linear de freqüências dominantes e funções sinc 2 ) sobre limites (para dados sem ruídos) de resolução e critérios para determiná-los (também concluindo que o melhor critério é λ /4 para limite máximo), Kallweit e Wood (1982) se referem à distinção entre resolução e detecção, que significa simplesmente o registro de um pulso com razão sinal/ruído suficiente, independente de ser possível uma separação entre os eventos individuais que se interferem para produzir o pulso final. Dessa forma, alguns aspectos do reservatório podem ser distinguidos mesmo quando estão abaixo do limite de resolução. A função sinc(x), definida por sin(x)/x, é muitas vezes aplicada em estudos de sísmica, por ter uma forma similar a de um pulso sísmico . 2
48
Um exemplo desta situação é o exemplo de pinchs apresentado acima, em que a reflexão da base afeta e altera a reflexão do topo – tornando-se assim detectável – mas as reflexões do topo e base da camada não são mais individualizáveis. Análises de espessuras de reservatório abaixo do limite de resolução a partir de variações de amplitudes são realizadas, pelo menos, há quase 30 anos (Neidell e Poggiagliolmi, 1977). Um tema bastante interessante e importante, e recentemente novamente trazido à discussão, é qual fase em um pulso permite maior resolução: fase mínima ou fase zero? A fase de um pulso (ou sinal) pode ser alterada, sem alteração do espectro de amplitude. Berkhout (1973) provou que os pulsos de fase mínima são os que possuem o menor comprimento – a partir disso, pode-se supor que um dado processado de forma a se obter reflexões de fase mínima será o de maior resolução. No entanto, tal prova foi realizada para funções ‘de um ramo’ (one-sided ) – i.e., definidas somente para t ≥ 0 ou t ≤ 0. Schoenberger (1974) mostrou (usando sismogramas sintéticos com os dois tipos de fase) que um pulso com fase ‘zerada’ é mais curto e tem menores lobos laterais (causando menos duvidas na posição do evento) que o mesmo pulso (ou seja, com o mesmo espectro de amplitude) com fase mínima – fornecendo, assim, melhor resolução vertical. Além da resolução, o autor demonstrou que a definição do tempo correto de uma interface (reflexão) também é melhor no caso de fase zero. Entre as premissas usadas, está a que a razão entre as amplitudes do pico (lobo) principal e do maior lobo lateral é uma medida da resolução, que é uma premissa usada também por outros autores (pois gera menos ambigüidades e interferência e maior acurácia na interpretação). Yilmaz (2001) (entre outros autores) demonstra que o tamanho dos lobos laterais é função da ‘largura’ do espectro de amplitudes no domínio da freqüência, que é uma outra forma de se constatar que um maior conteúdo de altas freqüências gera maior resolução vertical. Em relação à prova de Berkhout (1973), o autor mostrou que a mesma não é correta para funções de ‘dois ramos’ (i.e., definidas para t ≤ 0 e t ≥ 0, ou que tem uma parte causal e outra anti-causal). Wood (1982) é uma boa referência para se conhecer as propriedades de um pulso de fase zero. O mesmo ocorre com o livro de Brown (1991, ou edições mais novas), em que o autor enumera muitas vantagens do uso de fase zero, como simetria do pulso, ambigüidade mínima em correlações (visuais ou matemáticas), coincidência da interface (topo ou base) com o centro do pulso e em sua máxima amplitude, além de também considerar ser a fase que fornece a melhor resolução. No entanto, Zeng e Backus (2005) publicaram dois artigos conjuntos recentemente questionando esta idéia (concordando, porém, que dados com fase mínima tem pior resolução vertical), com alguns pontos interessantes – apesar de se poder discordar de algumas conclusões, deve-se admitir que algumas questões são razoáveis, e, mais importante, a sugestão de se usar pulsos com fase de 900 (em vez com faze zero) deve ser quase sempre testada, tanto para análises visuais quanto de atributos. Inicialmente, os autores consideram que a premissa de que pulsos de fase zero são superiores é que a reflexão deve ser de somente uma interface, o que para eles só ocorre efetivamente quando a espessura da camada é superior a λ. Entre λ e λ /4, eles não consideram que a fase zero seja superior, mas sim a fase de 900. O maior problema dos artigos é que as conclusões a partir de comparações entre dados com os dois tipos de fase são questionáveis, principalmente quando os autores afirmam que a simetria do pulso de 900 é mais efetiva para atenuar efeitos de tunning que a de fase zero, pois o comportamento da amplitude é alterado de forma parecida (às vezes, sendo até pior) quando comparado com o de fase zero. Pode-se concordar com os autores (e tal fato é bem sabido) que dados com fase 0 de 90 são mais comparáveis a perfis. Porém, nos artigos não é mencionado que, por ex., 49
um mapa de amplitudes de um topo não tem praticamente utilidade em dados com este tipo de fase. Os próprios autores consideram que, nas situações hipotéticas e reais estudadas, não existe um tipo de fase que seja sempre a melhor. 2.9 Resolução horizontal Resolução horizontal pode ser definida como a capacidade de se individualizar dois pontos próximos lateralmente. Sua análise é realizada a partir do conceito de zona de Fresnel. A zona de Fresnel foi definida no item 2.1 (fig 2.1.4) como a região em subsuperfície que limita todos os pontos de duas frentes de onda cuja distância (atraso) seja menor que meio período. Ou seja, as duas frentes de onda estão em interferência construtiva. Assim, a zona de Fresnel pode ser vista como a região de uma interface que contribui para a reflexão (fig. 2.9.1). A primeira zona de Fresnel é indicada na fig. 2.9.2. É a região do espaço que mais contribui para as reflexões, por isso o termo ‘zona de Fresnel’ é usado, geralmente, referindo-se somente à primeira zona – o que, se formos rigorosos, não é correto, mas é aceitável na maior parte das situações, pois a contribuição das demais zonas quase sempre é desprezível. No caso simples da distância fonte-receptor (offset ) ser zero, ela é representada por uma circunferência cujo raio R é definido aproximadamente por R ≈ (V/2) . (t/f D)1/2 2.9.1 dominante. V velocidade média, t tempo sísmico (duplo) e f D freqüência
Deve ser registrado que esta expressão usa o critério de Sheriff (1980). Berkhout (1984) sugere o uso de λ /8 em vez de λ /4 para o limite de interferência construtiva, mas a diferença prática pode ser considerada de pouca importância, já que a (primeira) zona de Fresnel pode ser vista, como explicado em vários autores (por ex., Lindsey (1989)), uma aproximação numérica de uma função ponderada espacial, determinada pela distância ao ‘ponto’ de reflexão.
Fig. 2.9.2 – Primeira zona de Fresnel, definida por λ /4.
Fig. 2.9.1 – Significado físico e geométrico da zona de Fresnel.
A fig. 2.9.3 apresenta registros sintéticos de interfaces com larguras medidas em dimensões da (primeira) zona de Fresnel. Essas interfaces podem ser consideradas como feições lenticulares. Observa-se que as reflexões tomam a forma de difrações à medida 50
que os corpos se tornam menores, até o limite de resolução, quando uma feição lenticular aparecerá como uma descontinuidade.
Fig. 2.9.3 – Limite de resolução horizontal antes da migração para corpos lenticulares, com zona de Fresnel constante (mesma profundidade) (extraído de Sheriff, 1978).
A fig. 2.9.4 mostra como uma descontinuidade em uma camada, como por ex. uma erosão, apresenta uma resposta diferenciada de acordo com sua largura e a profundidade em que ocorre. A primeira linha horizontal corresponde à resposta sísmica em superfície, e as linhas horizontais subseqüentes representam maiores profundidades.
Fig. 2.9.4 – Limite de resolução horizontal antes da migração para descontinuidades, a diferentes profundidades (extraído de Yilmaz, 2001).
O nomograma da fig. 2.9.5 permite a obtenção aproximada da (primeira) zona de Fresnel. Por exemplo, um sinal com freqüência dominante de 20 Hz e tempo sísmico de 2,0 s, que se propagou em um meio com velocidade média de 3.000 m/s, está amostrando uma região em sub-superfície definida aproximadamente por um círculo com raio em torno de 470 m. Este valor pode causar preocupação, por ser muito elevado, aparentemente significando que um traço sísmico tem contribuição das reflexões de uma área de quase 1 km2. No entanto, deve ser observado que 1) a distribuição do peso (importância) dos pontos da zona de Fresnel é gaussiana e inversamente proporcional à distância do traço (fig. 2.9.1), ou seja, os 470 m se referem ao raio total, mas uma porção bem menor efetivamente determina o valor do coeficiente de reflexão (amplitude) e 2) o processo de migração diminui significativamente a Zona de Fresnel, reduzindo bastante os 470 m deste exemplo. 51
Fig. 2.9.5 – Nomograma para determinação aproximada da (primeira) zona de Fresnel em dados não migrados (extraído de Sheriff, 2002).
O processo de migração já foi definido como um filtro de Fresnel inverso (Lindsey, 1989) e deconvolução espacial (Berkhout, 1984). Após a migração, o diâmetro da (primeira) zona de Fresnel é definido teoricamente por λ /4, mas na prática o valor λ /2 deve ser usado, devido a algoritmos de migração e/ou velocidades incorretos e até espaçamento entre traços (ver cap.3) insuficiente. O último item tem impacto direto no custo da aquisição, pois se querendo ou necessitando-se da melhor resolução horizontal possível, o limite será definido pela distância entre receptores, porém lembrando-se da máxima freqüência que se espera recuperar do dado (que, como vimos, é função da freqüência dominante – relacionada à absorção intrínseca das rochas e reverberações –, da velocidade do meio e dos mergulhos das camadas). Finalmente, pode-se concluir que – além de mostrar limites de resolução horizontal – o conceito de zona de Fresnel mostra que variações em subsuperfície geram efeitos amostrados por vários traços sísmicos, porque os traços têm distâncias muito menores do que a (primeira) zona de Fresnel, apesar desses efeitos serem mais significativos ou importantes somente para os traços mais próximos. O ‘peso’ de acordo com a distância é considerado no processo de migração (cap. 4), que colapsa (converge) as informações, individualizando eventos e aumentando bastante a resolução (fig. 2.9.6). Na prática, a resolução horizontal não costuma ser um problema muito grande, principalmente porque praticamente todos os dados sísmicos atualmente são migrados antes do empilhamento – observe o ganho de resolução significativo entre o raio da eq. 2.9.1 e λ /4 (metade do diâmetro de Fresnel após a migração). Alguns cuidados, no entanto, devem ser observador. Denham e Sheriff (1980), por exemplo, consideram que a resolução horizontal é prejudicada devido à presença de ruídos antes da migração, alias espacial, abertura de migração e erros de velocidades. Noções dos três últimos tópicos serão apresentados no cap. 4.
52
Fig. 2.9.6 – Relação entre limites de resolução horizontal para dados sísmicos antes (d ) e após (d MIG ) migração. Observar como a migração aumenta significativamente a resolução horizontal (extraído de Rosa e Tassini, 1990).
53
3 – NOÇÕES DE AQUISIÇÃO SÍSMICA A aquisição sísmica possui vários componentes, dos quais analisaremos aqui: fonte, receptores, instrumento de registro, posicionamento e geometria. O desejável em um planejamento e na aquisição de um levantamento sísmico é que ocorram as menores quantidades possíveis de interferências, para que as variações nos dados sejam causadas somente por fatores geológicos. O livro de Evans (1997) fornece uma boa visão – e algumas vezes bem detalhada – dos principais aspectos da aquisição, com exceção de aspectos mais recentes, como acelerômetros. As principais fontes sísmicas são explosivos e vibradores (Vibroseis ) em terra e canhões de ar comprimido (air-gun ) no mar. O tipo de fonte a ser usado é determinado principalmente por fatores econômicos, restrições ao uso de explosivos ou pela necessidade de um tipo de pulso especifico (quase sempre, que seja de fase mínima). De qualquer forma, a fonte deve ter potência suficiente para gerar um sinal que, após percorrer alguns quilômetros em subsuperfície e ter sofrido vários tipos de perdas de energia, seja registrado com amplitude superior aos ruídos – especialmente nos objetivos mais profundos. Ao mesmo tempo, a energia não pode ser muito alta, pois além de requerer um custo maior, saturaria a faixa dinâmica do instrumento. Os explosivos do tipo dinamite são a fonte mais comum em levantamentos terrestres, por liberarem uma grande quantidade de energia em um tempo muito curto. São colocados juntamente com uma espoleta detonadora, em furos de pequeno diâmetro (5 a 10 cm) e profundidade entre 1 e 10 m. Estes furos são realizados por uma pequena sonda acoplada a um caminhão, ou quando não é possível o acesso, por trado mecânico. Normalmente os explosivos são agrupados em um conjunto de 2 a 6 unidades. A profundidade de detonação deve ser suficiente para evitar a zona de intemperismo, que absorve grande parte da energia, e permitir a menor perda de energia possível para superfície, mas não deve ser muito grande, pois seria demorada a perfuração. Um problema potencial da utilização de dinamite, talvez ainda não discutido o suficiente, são os efeitos ambientais. Além da onda de choque gerada em algumas situações, os efeitos dos diversos sais, provavelmente tóxicos, que compõem os explosivos e podem ser dissolvidos no lençol freático, não são comumente analisados (Antonio Buginga, com. pessoal). A técnica Vibroseis usa de 4 a 10 caminhões com uma fonte vibradora, que, em contato com o solo, emite um pulso de longa duração (7 a 35 s) e não muito potente. É mito pouco usado no Brasil, sendo mais aplicado em regiões abertas e com topografia suave (desertos, Ártico, planícies e planaltos). Uma grande vantagem do air-gun (fig. 3.1) é sua alta repetibilidade e confiabilidade, além de relativa simplicidade. A liberação de energia ocorre sob a forma de uma bolha de ar comprimido, que exerce forte ação no ambiente aquoso. A força reativa da água causa uma contração desta bolha, que gera, por sua vez, uma reação do ar comprimido do interior da bolha, criando novamente componentes de tensão na água. Estes esforços ação/reação geram um trem indesejável de pulsos secundários, causando o denominado efeito bolha. Usando-se a propriedade de que o tempo de ocorrência da bolha é proporcional ao volume do canhão, este efeito é atenuado pela criação de subarranjos de canhões, em que as bolhas geradas pelos diversos elementos do conjunto
54
tendem a se anular (fig.3.2). Uma das medidas da eficiência de uma fonte é a razão entre as amplitudes do evento primário e da primeira bolha. Atualmente um tipo específico, o sleeve-gun (fig. 3.1), é geralmente usado – as vantagens são menos componentes (causando menor manutenção) e mais energia liberada (a energia é proporcional à raiz quadrada da área que libera o ar).
Fig. 3.1 – Desenho esquemático (esquerda) e foto (dir.) de sleeve-gun . O ar comprimido do interior do air-gun é liberado na água quando a sleeve (‘manga’) se desloca (fig. inferior), gerando uma bolha de ar com alta pressão. (extraído de Sheriff, 2002).
Os sub-arranjos, por sua vez, são agrupados em um arranjo, desenhado de forma a se obter uma diretividade (reforço ou atenuação de determinadas faixas de freqüência de acordo com ângulos, distâncias e direções) especifica. São necessários grandes compressores a bordo do navio, para gerar energia na quantidade e rapidez (algumas vezes o intervalo de tiros é inferior a 10 s) suficientes para a operação, que, em condições favoráveis, ocorre ininterruptamente, ao contrário de levantamentos terrestres, que quase nunca são realizados à noite. Fig. 3.2 – Abaixo: efeito bolha (B1, B2) de um air-gun isolado (a), que é atenuado com o uso de sub-arranjos (b) (extraído de Sheriff, 2002); à direita: pulsos primários de cada canhão em um sub-arranjo são reforçados enquanto as bolhas são atenuadas (extraído de Evans, 1997).
55
Em relação à profundidade da fonte, já discutida no item 2.6, é mostrado na fig. 3.3 o efeito do fantasma (da fonte, neste caso) no pulso do air-gun , nos domínios do tempo – em que ocorre um ‘alongamento’ do pulso principal e a geração de pequenos pulsos secundários – e na freqüência, em que é claro a presença de notches . No entanto, deve ser observado que, em uma porção do espectro de freqüências mais baixas, uma maior profundidade (6 m, no exemplo) pode ser vantajosa, pois realça (comparativamente com uma profundidade de 2 m) as freqüências de interesse – a questão a ser respondida por modelagens é qual a melhor profundidade, de acordo com os objetivos do levantamento.
Fig. 3.3 – Efeito de diferentes profundidades (2 e 6 m) da fonte no pulso, nos domínios do tempo (acima) e freqüência (dir.) (extraído de Dragoset, 1990).
De importância bastante secundária são as fontes implosivas, como por ex. o Vaporchoc , do inicio dos anos 70 e o water gun . Essas fontes, da fase misturada, tinham a forma de onda registrada durante a aquisição para posterior uso no processamento. Foram praticamente abandonadas devido ao melhor rendimento e qualidade do air-gun . Tenghamn e Long (2006) apresentam resultados 2D do protótipo de um vibrador marinho eletro-mecânico, em desenvolvimento pela PGS, com potência de um pequeno air-gun ou carga de dinamite. Na verdade, são dois vibradores sincronizados, um com sinal entre 6 e 20 Hz, o outro gerando um pulso entre 20 e 100 Hz. Seu uso é previsto em áreas marítimas muito especificas, como regiões em que o uso de air-gun pode impactar cetáceos ou como fonte para sistemas permanentes (sísmica 4D). O desenvolvimento começou em meados dos anos 90, existindo (segundo a PGS) testes de campo em 1999 e um teste por uma companhia de petróleo (não revelada) em 2002. Os resultados, mesmo razoavelmente promissores, devem ser considerados como muito preliminares, existindo ainda muito a ser desenvolvido. Em uma seção sísmica, a distância horizontal entre dois pulsos sucessivos em fase, medida no mesmo tempo, corresponde ao comprimento de onda aparente do sinal (λ AP , fig. 3.4). Um registro com amostragem horizontal insuficiente de λ causa criação de mergulho estrutural menor que o verdadeiro, prejuízo na aplicação de filtros espaciais no processamento e problemas na migração dos dados. Da mesma forma, ruídos coerentes devem ter amostragem suficiente, para que possam ser atenuados adequadamente durante o processamento ou na própria aquisição. Os parâmetros de aquisição mais importantes estão relacionados principalmente a quanto se pretende gastar (a aquisição costuma responder por 80 a 95% do custo do método sísmico), os objetivos (levantamento regional, de detalhe, de caracterização de 56
reservatório, 4D, etc), o que se acredita possa ser conseguido e restrições no local de aquisição (impactos ambientas, obstruções como plataformas e/ou navios (no mar), obras civis (em terra), etc). Fig. 3.4 – Comprimento de onda aparente (λAP) registrado pelos receptores (extraído de Sheriff, 2002).
O intervalo de pontos de tiro (IPT) é função do número de canais e grau de cobertura desejado. O instrumento de registro realiza algumas filtragens básicas (anti-alias , ruídos com muito baixa freqüência – abaixo de 3 Hz – e elevada amplitude) e, principalmente, amplificação do sinal. O fato da razão entre as maiores (ondas diretas, reflexão do fundo do mar, etc) e as menores amplitudes registradas serem da ordem de 1.000.000 gera um problema na construção desses instrumentos, que precisam ter a maior faixa dinâmica (dynamic range ) possível. A faixa dinâmica esta diretamente ligada ao número de bits que cada amostra é registrada, ou, de outra forma, quantos bits o conversor do sinal analógico para um dado digital tem disponível. Instrumentos mais antigos, de 16 bits , permitiam uma menor faixa, diminuindo a capacidade de registro de sinais. Os instrumentos de 24 bits , que permitem uma melhor separação do sinal e ruído, causaram uma melhora – às vezes bastante significativa, especialmente em terra – na qualidade da sísmica. Além das dificuldades operacionais da construção de instrumentos de 32 bits , alguns fabricantes (Sercel, por ex.) não acreditam que nesta faixa dinâmica exista algum sinal significativo. Esta opinião é questionável, e talvez seja testada no futuro, mas sem duvida existe um limite, a partir do qual os próprios ruídos do instrumento de aquisição são superiores a possíveis sinais que se desejam registrar. O número de bits é importante porque determina a extensão (tamanho) das menores amplitudes que podem ser registradas (geralmente, os ruídos), já que as maiores são inerentes ao processo de aquisição (fonte, ruídos ambientais, sensibilidade dos receptores, etc). Como exemplo, vemos na fig. 3.5 a limitação da faixa dinâmica para um sistema de registro com 16 bits . Na figura, a área cinzenta corresponde a região em que não ocorrerá gravação, gerando uma faixa dinâmica em torno de 84 dB. Rosa e Tassini (1990) consideram esta faixa entre 80 e 90 dB, também para instrumentos de 16 bits . Na prática, a faixa dinâmica do sinal é superior a dos aparelhos, gerando problemas de distorção para amplitudes muito grandes (que são ‘clipadas’) e, o que é mais grave, obscurecimento de um sinal muito fraco (i.e., com amplitude muito baixa) pelo nível de ruídos. Algumas áreas, consideradas como de qualidade sísmica deficiente, podem fornecer melhores dados quando se utilizam instrumentos com a maior faixa dinâmica possível. No caso da sísmica de superfície disponível ter sido adquirida com 16 bits , é altamente recomendável a realização de nova aquisição – naturalmente, alterandose também outros parâmetros e não somente o instrumento de registro – ainda que a qualidade seja considerada satisfatória.
57
Fig. 3.5 – Faixa de amplitudes recuperáveis (área branca) e nãorecuperáveis (área cinza) para um instrumento de registro de 16 bits . Na prática, geralmente ruídos dominam sobre o sinal abaixo de 60 dB (e, às vezes, 40 dB) (extraído de Sheriff, 2002).
A questão de uma nova aquisição é, quase sempre, decidida por questões econômicas, já que do ponto de vista técnico qualquer dado adquirido com mais de cinco anos dificilmente não pode ser melhorado – obviamente, estamos considerando que as melhores técnicas de processamento estão sendo aplicadas. No mar, o custo da aquisição costuma ser pequeno a bem pequeno, comparando-se com a perfuração de poços, seja para exploração ou explotação – esta regra costuma torna-se ainda mais válida à medida que vamos para águas mais profundas. Em terra, ao contrário, os poços tem custo algumas vezes inferior ao da sísmica (especialmente 3D), que tem um custo elevado por km2. A gravação dos dados em meios magnéticos ou digitais costuma obedecer ao padrão estabelecido pela SEG (Society of Exploration Geophysicists ), sendo SEG-D o padrão mais comum para a aquisição, e SEG-Y para o processamento e interpretação. O intervalo de amostragem é função da resolução vertical que se espera encontrar (relacionada à máxima freqüência recuperável). Atualmente, o padrão é de 1, 2 ou (menos comum) 4 ms. Já que muito raramente esperam-se recuperar freqüências acima de 125 Hz (freqüência Nyquist para 4 ms, item 2.2), pode-se questionar a necessidade de intervalos inferiores a 4 ms. Existem duas razões principais para isso. A primeira é que o filtro anti-alias aplicado na aquisição (como praticamente todos os filtros de freqüência usados no processamento e algumas vezes na interpretação) não atua como uma ‘caixa’ no domínio da freqüência, mas tem uma forma parecida com um trapézio (isto porque um filtro na forma de caixa tem problemas matemáticos de instabilidade, gerando o chamado fenômeno de Gibbs, associado a problemas na transformada de Fourier de uma função com descontinuidades). Assim, necessitando-se cortar freqüências acima de 125 Hz, o filtro anti-alias na prática precisa iniciar a atenuação da energia em torno de 90 Hz, freqüência em que as vezes pode ocorrer sinal de interesse. Seria desejável que os filtros de instrumentos e filtros matemáticos (estes, aplicados no processamento) fossem capazes de cancelar totalmente amplitudes a partir de uma freqüência desejada – ou seja, que agissem como um retângulo no espectro de 58
amplitude. Na prática, entretanto, isto não é possível, por problemas de construção dos aparelhos (filtros de instrumentos) e instabilidade dos operadores matemáticos, existindo uma rampa (slope ), com inclinação medida em dB/oitava (oitava é o intervalo entre duas freqüências com razão de 2 ou 0,5, item 2.7). Os filtros, devido à esta rampa, funcionam aproximadamente como trapézios em um espectro de amplitude. A segunda razão é que algumas etapas do processamento (por ex., alguns algoritmos de migração e deconvolução) trabalham melhor com um intervalo de amostragem menor. Uma terceira razão, secundária, é que o custo adicional do uso de intervalos menores costuma ser muito pequeno a desprezível, em comparação aos demais fatores envolvidos (custo do navio, pessoal, fonte sísmica, etc). Esta terceira razão não ocorre no processamento nem na interpretação, em que algumas vezes se acaba sub-amostrando o dado (de 2 para 4 ms, geralmente) devido à limitações de espaço em disco e/ou velocidade de processadores computacionais. Intervalos de 0,5 ms (ou menores) são usados em levantamentos de muito alta resolução, para objetivos muito rasos, como reservatórios (geralmente terrestres) até 500 m de profundidade, ou geotecnia. Finalizando, apesar de pouco comum, uma aquisição com um intervalo de 3 ms pode ser realizada sem contra-indicações, ao menos teóricas. O filtro notch , usados para atenuar uma faixa muito estreita de freqüências, principalmente as freqüências de 50 ou 60 Hz produzidas por linhas de transmissão de energia elétrica, é evitado ao máximo, por atenuar o espectro em uma faixa de freqüências onde costuma ocorrer sinal. O tempo (máximo) de registro é determinado principalmente pelo objetivo (mesmo que potencial) exploratório mais profundo, acrescido de um tempo suficiente para a etapa de migração (de 0,5 a 1,0 s). Em algumas aquisições com foco principal para reservatório, em que o intervalo de tiro seja reduzido (10 a 15 m) o tempo de registro pode ser insuficiente para se registrar o objetivo mais profundo, especialmente em regiões de águas muito profundas (devido à grande tempo que a onda viaja na água, que tem baixa velocidade). Por ex., um navio viajando a 4 nós (≈ 2 m/s) e atirando a cada 12,5 m, não pode registrar 7,0 s de dado, ainda que isso fosse necessário. Este problema é contornável, ao menos em tese, atrasando-se o inicio do registro (por ex., começando em 0,5, 1,0 ou até 2,0 s), mas na prática isso costuma gerar alguns problemas, além do tempo inicial poder ter que variar ao longo de uma linha de tiro, devido a mudança da lamina d’água, o que é um possível complicador. A cobertura é o número de vezes que um ponto (ou cela) em sub-superfície é amostrado ou imageado (ao menos, teoricamente) usando-se a técnica CDP. O conceito de CDP (ou CDF, ou CMP, do inglês Common Depth Point ou Family ou Common Mid Point ), é dos mais importantes na aquisição e do processamento, sendo a principal evolução realizada na historia do método sísmico. Acredita-se que nenhuma outra técnica ou algoritmo tenha contribuído para a descoberta e produção de hidrocarbonetos como a técnica CDP. É usada em escala de produção desde os anos 60, tendo sido idealizada por Mayne no inicio da década de 50. Rosa (2002), no entanto, cita que conceito similar foi aplicado por Cecil Green nos anos 30 (Dobrin e Savit, 1988). Foi proposta inicialmente por W.H. Mayne via registro de patente em 1950 (Mayne, 1962), considerando que uma informação associada a um ponto de reflexão amostrado com diferentes offsets , seja combinada algebricamente, após as correções de tempo apropriadas. O autor já considerava que o aumento teórico na razão sinal/ruído seria 59
proporcional à raiz quadrada da cobertura, o que está correto caso o ruído (aleatório) seja gaussiano (Osvaldo Duarte, com. pessoal) – o que, apesar de possível (e até provável) intuitivamente, talvez nunca tenha sido comprovado. Interessante observar que tal comprovação não deve ser muito complicada – por ex., uma análise das amplitudes em tempos superiores ao fundo do mar em águas profundas –, mas nunca foi realizada, ao que eu saiba.
Fig. 3.6 – Significado geométrico do conceito CDP. Um ponto em subsuperfície é amostrado várias vezes, para diferentes afastamentos entre fontes (letras no desenho) e receptores (números) (extraído de Sheriff, 2002).
Neste conceito, exposto por Mayne (1962) em uma forma similar à usada até hoje, considera-se que a distância entre fonte e receptor (denominada offset ) varie de forma simétrica (geralmente com incremento constante) em relação ao ponto médio, com este ponto (ou cela) sendo amostrado várias vezes, gerando a cobertura (ou multiplicidade, fig 3.6). Assim, o offset aumenta gradualmente para traços sucessivos, aumentando também o tempo de chegada dos traços mais distantes. A diferença de tempo entre as sucessivas reflexões do mesmo ponto é chamado de sobretempo normal, ou normal move-out (NMO). As principais contribuições desta técnica são duas. Uma é o aumento da razão sinal/ruído, através do cancelamento de ruídos aleatórios, pelo empilhamento (soma) dos traços (após a correção de NMO), em que eventos fora de fase se anulam estatisticamente por interferência destrutiva. A segunda, tão ou mais importante que a anterior, é a informação de velocidades, devido à existência de dados a diferentes tempos e offsets . Estas velocidades, obtidas durante o processamento (cap. 4), provavelmente são o parâmetro mais importante do processamento. São também fundamentais durante a interpretação, principalmente (mas não só) para conversão tempo-profundidade, e fornecem ainda informações – preliminares ou não – sobre características petrofísicas das rochas, sendo indícios de possíveis problemas a serem enfrentados na perfuração de poços (zonas de pressão anormalmente elevadas, antecipadas pelo perfil de Peenbaker (1968), item 2.4). O resultado da soma (empilhamento) dos traços de uma família CDP geralmente não representa um traço hipotético com afastamento nulo, pois a refletividade de cada evento é uma média das refletividades dos diversos ângulos (com amplitudes e fase variando, algumas vezes significativamente), os eventos raramente são perfeitamente horizontalizados após o NMO e mergulhos das camadas violam a premissa básica da técnica CDP. Ainda assim, a técnica tem se mostrado, na prática, bastante robusta – o que talvez seja até mesmo um mistério. Um dos maiores geofísicos de todos os tempos, Franklin Levin, escreveu um artigo clássico (Levin, 1984), declarando-se surpreso da sísmica de reflexão funcionar, devido a premissas poucos razoáveis, aproximações quase grosseiras e outros problemas. Os receptores são agrupados em arranjos através da união de elementos, obtendo-se assim a resposta de um conjunto atuando como um receptor único, 60
denominado grupo ou estação. Os objetivos dos arranjos são cancelar ruídos (via interferência destrutiva) e reduzir a quantidade de dados registrados. O exemplo mais comum é a disposição de geofones (e, menos comumente, hidrofones) em um intervalo que cancele o (componente vertical do) ruído que viaja horizontalmente ao mesmo tempo em que reforça o componente vertical das reflexões. Na fig. 3.7, a horizontal wave (correspondente ao ruído) é atenuada (desde que o espaçamento entre receptores seja λ /2), enquanto que a vertical wave (o sinal refletido) será reforçado. Na prática, esta ‘onda horizontal’ (o ground-roll , comentado abaixo) tem λ variável, dificultando muitas vezes a atenuação pretendida. Outras razões listadas por Evans (1997) para uma pobre resposta dos arranjos são espaçamento entre elementos errático devido à terreno ou acoplamento ruim, variações na topografia (terra) ou profundidade do cabo (mar) e camada de intemperismo com espessura variável, gerando alterações no tempo de chegada das ondas. Fig. 3.7 – A horizontal wave , correspondente ao ruído, pode ser atenuada se usando um arranjo que some amplitudes máximas e mínimas deste evento e que reforce o sinal (vertical wave ) (extraído de Evans,1997).
Um problema do uso de arranjos é a perda de resolução, e ‘mistura’ de informações, pois o registro se torna uma média dos registros de todos os elementos do arranjo. Atualmente, algumas aquisições são realizadas sem o uso de arranjo nos receptores, ‘vendendo’ isso como uma grande vantagem – particularmente, o chamado Q- system da Schlumberger. No entanto, alguns autores (por ex., Evans, 1997) consideram que é preferível atenuar ruídos durante a aquisição porque as altas amplitudes de ruídos coerentes podem não permitir que reflexões de baixa amplitude sejam registrados – obviamente, tal consideração é função da faixa dinâmica do instrumento. Uma discussão mais detalhada do desenho de arranjos de fontes e receptores – muitas vezes baseada na resposta da transformada de Fourier de uma função caixa (gerada pelos componentes do arranjo) está além dos objetivos deste curso, e pode ser encontrada em (bem mais completa) Evans (1997) e (secundariamente) Sheriff e Geldart (1995) e Sheriff (2002). A energia de algumas ondas superficiais, conhecidas como ground roll , podem mascarar as reflexões nos levantamentos terrestres. Estas ondas, que são do tipo Rayleigh (movimento da partícula elíptico e retrógrado), geralmente tem baixas velocidade e freqüência, e grandes amplitudes. São atenuadas na aquisição com o uso de arranjos de geofones e, secundariamente, da fonte. No processamento, filtros de freqüência e o empilhamento também procuram retirar as ondas superficiais. O intervalo de grupos (IG), ou de estações (IE), é determinado pela resolução esperada, para se evitar alias espacial e, principalmente, por razoes econômicas, pois tem um forte impacto no custo total da aquisição, especialmente em levantamentos terrestres. Normalmente é de 12,5 ou 25 m (40 ou 80 pés), com alguns levantamentos para reservatório usando 6,25 m, ou ainda menos.
61
O lanço é o comprimento da rede de geofones, correspondendo ao comprimento do cabo no mar. Deve ser de pelo menos a profundidade do objetivo mais profundo, e permitir um imageamento completo no(s) nível(is) de interesse. Além desta razão, não deve ser muito curto para que se possa ter uma melhor definição da velocidade no processamento. Por outro lado, não deve ser longo demais, devido à custos e também porque não se deve registrar reflexões a partir do ângulo critico (40-500). O afastamento mínimo, em terra ou no mar, raramente é superior a 200 m, pois as reflexões de baixo ângulo costumam ser fundamentais na técnica CDP; além disso, esses offsets também são necessários na obtenção da velocidade. Em casos de objetivos muito rasos, pode ser bastante reduzido para aumentar a cobertura, antes da chegada das ondas refratadas. Existem basicamente dois tipos de lanço (fig. 3.8). O split-spread é um arranjo com receptores simétricos, com a fonte localizada no centro. É o mais comum em terra, por ser mais operacional. No end-on a fonte é localizada após o último grupo de receptores. É usado em áreas com mergulho (mergulho acima), para objetivos muito profundos e visando atenuação de múltiplas e ground-roll . É praticamente o único possível no mar em aquisições convencionais (usando streamer , ver a seguir).
Fig. 3.8 – Tipos de lanços mais comuns: split-spread (esquerda), em que receptores são simétricos em relação à fonte e é comum em levantamentos terrestres, e end-on (direita), em que a fonte está sempre no extremo do lanço, usado geralmente no mar (extraído de Sheriff, 1991).
Os receptores terrestres mais comuns são os geofones, constituídos de uma bobina envolvendo um magneto, suspensa por uma mola, acoplados a um pino (fig. 3.9), que é cravado no terreno o mais próximo da vertical possível. Ao ser atingido por uma onda sísmica, é gerada uma voltagem elétrica, proporcional à energia da onda, amplificada por instrumentos e registradas em meios magnéticos ou digitais. A resposta de geofones podem ser distorcidas, na forma de favorecimento de algumas freqüências e atenuação de outras – na prática, isto é contornado usando-se um fator de amortecimento no equipamento. No caso marítimo, são usados hidrofones como receptores, em que um cristal piezelétrico submetido à pressão também gera uma corrente proporcional à amplitude da onda sísmica. Hidrofones têm comportamento idêntico ao de microfones, registrando o som na água. A resposta espectral é bastante plana nas freqüências sísmicas. Uma diferença fundamental entre o geofone e o hidrofone é que o primeiro, por registrar uma velocidade (que é uma grandeza vetorial), é sensível à direção e sentido da onda, enquanto que, por a pressão ser uma grandeza escalar, o hidrofone não possuir esta sensibilidade. 62
Fig. 3.9 – Seção esquemática de um geofone, em que um pino ( spike ) cravado no terreno capta a energia refletida, gerando uma corrente por movimento de bobina (extraído de Sheriff,1991).
Esta propriedade é interessante ao se analisar o comportamento desses receptores em relação ao fantasma do receptor: um geofone e um hidrofone apoiados no fundo do mar (como é o caso da aquisição do tipo cabo de fundo oceânico, ou OBC, do inglês ocean bottom cable ) registram uma onda vertical ascendente com a mesma polaridade (ou sinal), positiva, ou negativa – e com amplitude, digamos A. Ao ser refletida no nível do mar, a amplitude da onda é praticamente mantida, porém a polaridade é invertida (devido ao coeficiente de reflexão da interface água-ar ser praticamente igual a 1). Assim, esta onda descendente será registrada pelo hidrofone com polaridade oposta à da ascendente (- A), porém o geofone, por ser sensível ao sentido de propagação, irá registrar a onda descendente com polaridade inversa. Como esta onda descendente já foi ‘multiplicada’ por -1 ao ser refletida na superfície da água, o resultado final é que o geofone registra a reflexão e o fantasma dela com a mesma polaridade (A . -1 . -1 = A, com o primeiro -1 referente à inversão de polaridade do nível do mar e o segundo -1 devido à sensibilidade do geofone ao sentido de propagação), enquanto que o hidrofone registra os dois eventos com polaridade contraria. Esta propriedade, inicialmente observada por Barr e Sanders (1989) a partir de idéias de Cagniard (1953) e Lowenthall et al. (1985), é sempre usada em dados de OBC. A principal questão a ser resolvida é a obtenção de um fator de escala entre as diferentes respostas do hidrofone e geofone – diversos artigos tratam do assunto (Dragoset e Barr (1994), Paffenholz e Barr (1995), Canales e Bell (1996), Ball e Corrigan (1996)) e o assunto, senão completamente resolvido, pode pelo menos ser considerado como não muito problemático. Existem geofones de três componentes (3C) que, além dos movimentos das partículas na direção vertical, são sensíveis também a deslocamentos horizontais – geralmente associados a ondas S. Recentemente, um novo tipo de receptor, o acelerômetro, está disponível no mercado. É um equipamento totalmente digital, que responde à aceleração – por isso, o efeito da gravidade tem que ser compensado. Geralmente, são receptores 3C. Parecem ter excelente resposta espectral, grande fidelidade e repetibilidade e baixo consumo de energia. Gibson et al (2005) – funcionários da companhia de aquisição Veritas – reportam um teste (realizado em 2002 em campo de óleo pesado no Canadá) muito interessante (apesar de, segundo os próprios autores, a comparação ser limitada) entre dois fabricantes de acelerômetros (I/O e Sercel ), concluindo que a diferença na qualidade dos dados foi pequena. Talvez mais importante, eles dizem que o uso de acelerômetros resultou em melhor qualidade, operações mais eficientes e menor custos na sísmica multicomponente (MC). Os autores consideram que as vantagens mais importantes dos acelerômetros sobre os geofones são: 63
1) registro sem arranjo (single sensor ), que gera uma correção da inclinação e orientação do sensor mais confiável, um registro isotrópico (importante em análises azimutais) e maior resolução devido à eliminação de efeitos intraarranjos (especialmente estáticas de ondas-S); por outro lado, o não uso de arranjos impossibilita a rejeição direta de ruídos ambientais e coerentes, requerendo amostragem apropriada tanto para ondas-P quanto –S, o que é complicado na prática, 2) saída digital direta (sem conversão; vantagem é que geofone multicomponente às vezes tem crosstalk e leakage )), 3) melhor fidelidade vetorial (MC), 4) resposta mais linear de fase e amplitude, 5) pequena distorção harmônica (geração de freqüências múltiplas inteiras das freqüências de entrada, MC), 6) medida da inclinação do receptor, e 7) reduzido uso de energia. Apesar destas vantagens, os autores recomendam teste da integridade dos acelerômetros após uma extensa utilização. O navio sísmico arrasta de 1 a 16 cabos, cada cabo contendo centenas de hidrofones (fig. 3.10). Os cabos, denominados streamer , são preenchidos com um óleo (até recentemente, neroma, um tipo especial de querosene, que tem sido menos utilizado devido a preocupações ambientais) mais leve que a água. Normalmente cada cabo possui entre 4 e 6 km de comprimento, mas as vezes são usados 8 ou até mais quilômetros em situações especiais (dados de refração, reflexões muito profundas, análises da crosta, etc) – no entanto, quando offsets muito grandes são necessários, costuma-se separar o navio com a fonte do navio com os receptores, devido à dificuldade operacional de cabos extremamente longos.
Fig. 3.10 – Seção esquemática de um navio arrastando um cabo ( streamer ) com hidrofones (agrupados em live sections na figura) (extraído de Sheriff, 2002).
Correntes submarinas causam movimento nos cabos, fazendo com que eles se desviem da posição desejada, principalmente na horizontal. Este fenômeno, denominado deriva (feathering ) gera erro de posicionamento em dados 2D e a necessidade de recobrimento (re-detonação) para se obter a cobertura desejada – inclusive para diferentes grupos de offsets . Este recobrimento (em inglês, in-fill ) aumenta (muitas vezes, significativamente) o custo da aquisição. Para diminuí-lo, procura-se realizar o levantamento em épocas do ano em que as correntes sejam mais fracas e usar-se o maior número possível de cabos.
64
Os cabos têm profundidade controlada a bordo, através de aparelhos denominados pássaros (birds ). ). Alguns birds também também controlam a posição lateral, mas são menos efetivos que na correção vertical, pois as correntes horizontais são muito mais fortes. O controle da profundidade é desejável para que ao longo do cabo (e de um cabo para outro) exista a menor variação possível no fantasma do receptor e que o cabo nem se aprofunde demais (gerando um fantasma mais próximo das freqüências de interesse) nem fique muito raso (quanto mais próximo à superfície, maior o nível de ruído e mais prejudicadas as freqüências muito baixas). É relativamente simples mostrar que o fantasma cria uma forte depressão no espectro de amplitude (o notch ) nas freqüências definidas pela equação fNOTCH = 750 / z 3.1 z profundidade profundidade da fonte ou receptor.
Nesta equação, 750 representa representa aproximadamente a metade da velocidade do som na água, que costuma variar entre 1.500 ± 10 m/s. A profundidade da fonte costuma ser aproximadamente constante, em 5 ou 6 m, criando um notch em 150 ou 125 Hz. A profundidade do receptor é muito mais variada, até pelo próprio comprimento dos cabos. Ao se aplicar um operador para atenuar o efeito do fantasma do receptor, deve ser usado uma média (incluindo algum tipo de desvio) das profundidades, para que o notch seja menos severo, e não atue somente em uma freqüência. Este procedimento também é mais realista que considerar a profundidade dos cabos invariante (fig. 3.11). Rosa (2002) acredita que variações pequenas em z afetam afetam significativamente a forma do pulso. Pode-se concluir que cabos à profundidade de 10 m é altamente desaconselhável, pois o notch ocorreria a 75 Hz, muito próximo (e, em algumas situações, dentro) da freqüência de interesse. O ideal é que tanto a fonte quanto os receptores ficassem em superfície, mas isso não é possível, pois a maior parte da energia da fonte seria enviada para o ar e os hidrofones registrariam um nível muito elevado de ruído. A fig. 3.11 mostra o efeito do fantasma no espectro de amplitude para algumas profundidades do cabo. Deve ser registrado que os fantasmas alteram também o espectro de fase do sinal.
Fig. 3.11 – Esquerda: espectros de amplitude para algumas profundidades de cabo (extraído de Rosa, 2002). Direita: espectros de amplitude considerando-se profundidade do cabo constante (azul) – que gera um forte notch – – e considerando-se várias profundidades (verde) – que gera um operador de deconvolução mais suave e realista (extraído de PGS, 2006).
O posicionamento é feito, em terra, por equipes de topografia, que determinam os locais a serem colocadas as fontes e receptores, de acordo com o planejamento do programa sísmico.
65
Os navios sísmicos usavam, até o inicio da década de 90, sistema de rádioposicionamento ou satélites do tipo Transit , o que às vezes causava incorreções na posição do navio quando muito distante (acima de 150 km) da costa. Com o advento do GPS e DPGS, uma localização altamente precisa e confiável é a regra. Navegação é o termo usado para o controle do posicionamento, com este sistema sendo integrado ao controle das operações, que controla o registro (definindo o instante exato da detonação), controla o sincronismo entre canhões, inicia a gravação dos dados, etc. Dados marítimos geralmente têm qualidade melhor a muito melhor que dados terrestres, principalmente por dois fatores. Um, a cobertura costuma ser muito maior, pois como o maior custo da aquisição (o navio em si) é inevitável, o custo adicional para se ter mais informações costuma ser compensador. Em terra, o custo do explosivo (dinamite) é elevado, e o uso de muitos receptores encarece geralmente bastante a aquisição, devido ao tempo necessário para ‘plantar’ e retirar os geofones. O segundo é que tanto a fonte quanto os receptores estão em um meio quase homogêneo, isotrópico e sem absorção, gerando uma interferência mínima do meio na geração do pulso e registro das ondas – especialmente em águas mais profundas e/ou fundo do mar ‘macio’ (material inconsolidado, e não carbonatos – recifes – ou rochas vulcânicas), em que não ocorrem reverberações de energia aprisionada no mar. Em terra, ao contrario, podem existir grandes gra ndes variações na topografia, lençol freático, características do material da zona de intemperismo, acoplamento variado (devido à mudanças no tipo de solo) do geofone, etc, causando alta interferência do meio tanto na geração do pulso quanto no registro das ondas. Um imageamento em três dimensões (3D) de sub-superfície fornece um dado mais próximo da posição lateral das reflexões. Isto pode ser facilmente constatado ao se observar a fig. 3.12, que mostra o chamado modelo de French (French, 1974). Este modelo, usado também para testar algoritmos de migração, mostra como as reflexões laterais podem afetar um dado adquirido em duas dimensões. Fig. 3.12 – Modelo de French (esquerda) e (abaixo, da esquerda para direita) seções empilhada, migrada em duas dimensões e migrada em três dimensões. Observar falsas estruturas causadas por reflexões laterais na migração 2D (extraído de French, 1974).
66
Um levantamento 3D marítimo convencional consiste na aquisição de várias linhas de tiro paralelas (2D), geralmente com vários cabos (4 a 16) espaçados entre 50 e 200 m entre si – naturalmente, quanto mais cabos o navio arrastar, mais rápido e com menor custo é feita o levantamento. No entanto, existe um limite operacional, pois o arrasto de vários cabos com mais de 4 km de comprimento não é operação trivial. Esta geometria de aquisição gera uma grande limitação para observação de trajetórias com diferentes azimutes, permitindo uma boa amostragem de sub-superfície somente para diferentes afastamentos. Tal geometria só pode ser considerada 3D em áreas que não apresentem muita complexidade estrutural nem anisotropia azimutal. A direção de detonação é denominada inline e e a direção perpendicular crossline . Estes nomes acompanham estas direções durante o processamento e interpretação. Geralmente a direção das inlines é perpendicular ao mergulho das camadas, o que diminui reflexões laterais. Em algumas situações, com fortes variações laterais de velocidade nas camadas superiores (como por ex., próximo à quebra da plataforma), um levantamento na direção strike pode pode ser vantajoso. Neste caso, o campo de velocidades de processamento terá menos variação lateral e deve ocorrer melhor cobertura. co bertura. Outro uso da aquisição strike é é quando inlines na na direção dip fiquem fiquem muito curtas. Nos levantamentos 3D em terra, pode-se usar uma direção perpendicular (mais comum) ou paralela entre as linhas de tiro e receptor. No caso perpendicular, tem-se uma riqueza azimutal, mas muitas vezes na prática ocorre um empobrecimento na quantidade de offsets , pois é muito caro realizar uma amostragem rica tanto em azimutes quanto em afastamentos, devido ao grande número de receptores necessários. Como as duas direções de aquisição têm prós e contras, sendo geralmente muito difícil se definir qual melhor direção, a PGS apresentou em 2005 a proposta, para dados marítimos, de duas aquisições, em dois azimutes geralmente (mas não obrigatoriamente) ortogonais. É claro que, apesar das vantagens potenciais e prováveis, a decisão de usar esta técnica é principalmente econômica. No mar, é comum a utilização de dois conjuntos de fontes, o mais idêntico possível, com uso alternado entre eles. Este tipo de configuração, denominada flip-flop , é comumente usado pois reduz o tempo de aquisição porque torna possível a aquisição de celas com metade do tamanho na direção cross-line . Um pequeno problema do flip-flop é é tornar necessária a interpolação de tiros durante o processamento para atenuação de múltiplas (Marcos Gallotti, com. pessoal). 3.1 Sísmica de alta resolução Para algumas situações especiais de reservatórios muito rasos (poucas centenas de metros abaixo da superfície), é possível a recuperação de altas freqüências muito acima do geralmente registrado, permitindo uma resolução vertical e horizontal significativamente superior. Como exemplo, Carvalho e Amorim (1991) mostram o detalhamento de feições estruturais e estratigráficas em reservatórios rasos através de uma sísmica com parâmetros de aquisição adequados. Os autores apresentam um caso histórico de levantamento na Bacia Potiguar imersa, cujo objetivo era definir (distinguir) um arenito com 6 m de espessura a 270 m de profundidade. Os resultados, re sultados, quando comparados com uma seção convencional, mostram as seguintes melhorias (fig. 3.1.1): 1. identificação clara de uma falha normal com rejeito vertical de 6 m, 2. melhor definição do topo das Fm Açu e Alagamar, e 3. mapeamento de dois refletores intra-Açu, imperceptíveis no dado convencional.
67
Fig. 3.1.1 – Comparação entre dado convencional (seção superior) e de alta resolução, indicando detalhamento estrutural e estratigráfico na seção de maior resolução (extraído de Carvalho e Amorim, 1991).
Vasquez e Carvalho (1993) relatam como aplicação de sísmica de alta resolução a sísmica de afloramento , que pode ser definida como a obtenção de dados de camadas rasas ou de afloramentos que, por alguma metodologia – geoestatística sendo a mais comum – pode extrapolar as conclusões para camadas mais profundas, além de um melhor conhecimento da zona de baixa velocidade. Os autores descrevem um levantamento de muito alta resolução realizado em maio de 1991 em um afloramento da Fm. Açu. O intervalo de amostragem foi de 0,25 ms e a distância entre PTs e estações de 1 m. A etapa mais criteriosa do processamento foi a análise de velocidades. Os resultados obtidos mostraram uma resolução de 1 m a até 30 m de profundidade, com os dados sísmicos mostrando boa correlação como o modelo fluvial considerado para a área. Talvez com algum potencial de aplicação prática é o trabalho de Grochau e Freitas (1993), que reportam a existência, sob certas condições de levantamento, da presença de componentes de alta freqüência em dados de controle de qualidade de aquisição na região amazônica. Estes componentes foram considerados historicamente como ruídos, mas os autores reconheceram características de sinal. Foi realizada uma linha experimental, coincidente com uma convencional, com intervalo de amostragem de 2 ms e filtro corta-alta mais aberto. Durante o processamento, foram usadas etapas não rotineiras, e as fases de rotina foram realizadas com maior acurácia. Os resultados (fig. 3.1.2) mostram uma recuperação muito boa de altas freqüências, com os autores acreditando que os dados poderiam ser ainda melhores com parâmetros de aquisição mais apropriados e alterações em rotinas do processamento.
Fig. 3.1.2 – Comparação entre linha 2D convencional (à esquerda) e adquirida e processada com parâmetros de alta resolução (extraído de Grochau e Freitas, 1993).
68
3.2 Aquisições especiais: cabos de fundo e vertical, sensores permanentes As aquisições especiais aqui discutidas serão o cabo de fundo oceânico (OBC) e cabos verticais. Uma apresentação mais detalhada do assunto pode ser encontrada em Rodriguez (2000). A idéia de colocar os receptores no fundo do mar (os OBS, Ocean Bottom Seismometers ) é usada desde a década de 30 (quando a geologia dos oceanos era praticamente desconhecida), tendo tido um enorme progresso após a 2ª guerra. Seu uso principal tem sido para estudos acadêmicos de camadas do interior da Terra e terremotos e monitoramento de explosões nucleares, estudos regionais de bacias sedimentares e, mais raramente, para exploração de HC, em áreas com espessas camadas vulcânicas. Nestes levantamentos, usam-se unidades isoladas com autonomia por bateria, que registram, geralmente continuamente, em um intervalo de amostragem pré-estabelecido. Cada unidade tem, geralmente, um geofone com três componentes e um hidrofone, e fica espaçada entre 200 m a 30 km. Alguns trabalhos explicando e mostrando resultados (inclusive de interesse comercial) desta técnica são Bowden e Prior (1983), Makris e Thiessen (1983), Zachariadis et al. (1983), Hughes et al. (1995) e Mjelde et al. (1995). Os primeiros cabos de fundo usados na industria do petróleo eram streamers convencionais adaptados para trabalhar sobre o fundo do mar, com uma tensão aplicada ao cabo para mantê-lo esticado e na posição desejada (Zachariadis and Bowden, 1983). Em meados da técnica de 90 houve o trabalho pioneiro de Berg et al. (1994) da Statoil (experimental iniciado em 1988) usando ROVs (robôs operados remotamente) para acoplamento dos receptores, que mostrou excelentes resultados, com informações de ondas convertidas (P-S) em Ekofisk (Mar do Norte), área virtualmente cega para ondas P. Tal resultado gerou um boom no uso da técnica, especialmente em regiões em que gás disseminado nas camadas acima de reservatórios obscurecem a onda P-P convencional, devido à grande absorção da onda-P pelas rochas com gás como também pelo significativo espalhamento da energia presente, devido à fortes contrastes de impedância em diversos geometrias espaciais. Como exemplo, Rodriguez et al. (1998) apresentaram imageamento usando ondas S de dados OBC na área do campo de Valhall (Mar do Norte), com reserva potencial de 1. 109 BOE, em que a onda P praticamente não imageava o reservatório (fig 3.2.1). Algumas conclusões de Berg et al.(1994) continuam válidas, como a boa qualidade em diferentes tipos de fundo marinho, geologia e laminas de água, uma clara separação entre ondas P e S, e fracas ondas Scholte (o corresponde ao ground roll no caso marinho). Atualmente, a totalidade das aquisições é realizada ou com dual-sensor (hidrofone e geofone com componente vertical) ou 4C (hidrofone e geofone com três componentes). Costuma-se usa geofones do tipo gimbaled , que procura manter a posição vertical, apesar de acelerômetros serem mais indicados. Uma grande discussão, desde o inicio do uso a técnica, é o quão efetivo e confiável é o acoplamento dos geofones ao fundo do mar. Uma estratégia relativamente comum era colocar pesos junto aos receptores, de forma que eles se acomodassem e ficassem o mais fixo possível. Outro problema é a fidelidade vetorial, que significa que todos os componentes do geofone tenham uma resposta fiel ao campo de onda. Os cabos podem ser tensionados, para ficarem retos, na posição desejada e fixos. As principais vantagens do OBC sobre o streamer são 1)em áreas com obstáculos de navegação, não é necessário a realização de under-shooting – técnica em que dois navios viajam em paralelo, um com a fonte e outro com receptor, para contornar obstáculos à passagem de um navio 69
rebocando vários cabos); a qualidade do under-shooting é prejudicada, e objetivos rasos muitas vezes são mal imageados; 2) é possível o registro de ondas S, o que pode aumentar a confiança em predições litológicas (exploração) e caracterização de reservatórios e imagear áreas em que ondas P não funcionam devido à forte absorção (geralmente associadas à chaminé de gás em sedimentos acima de reservatórios, Rodriguez et al., 1998); 3) o dado é multi-azimutal; 4) como o nível de ruído ambiental é muito menor, é possível a aquisição em maior período durante o ano; 5) é mais confiável para sísmica 4D, devido ao uso do mesmo receptor praticamente na mesma posição. Outras vantagens são a ausência de ruído de arrasto no cabo, melhor informação de posição, ausência de fortes correntes e padrão mais uniforme na aquisição (Zachariadis e Bowden, 1983). Alguns autores citam uma possível maior resolução devido à melhor posicionamento, mas isso não tem sido reportado de forma consistente na prática.
Fig. 3.2.1 – Comparação entre seção PP (esquerda) e PS, adquiridas com OBC no campo de Valhall (Mar do Norte) (extraído de Rodriguez et al., 1998). O reservatório (com reservas em torno de 1.109 BOE) está entre 5,0 e 5,5 s na seção OS (elipse verde), tendo imagem muito ruim e forte pull-down na seção PP (elipse vermelha) devido à chaminé de gás sobre o reservatório.
A posição dos receptores é obtida inicialmente por sinais de muito alta freqüência (75 KHz), com a premissa de meio homogêneo – o que provavelmente não é verdade para a água do mar a esta freqüência, especialmente em águas profundas. Por isso, o posicionamento é sempre verificado pelo próprio dado sísmico, geralmente através da onda direta, usando-se a grande redundância desta informação, a vários azimutes e afastamentos. Na prática, no entanto, os erros costumam ser pequenos – Cafarelli et al. (2006) reportam erros médios inferiores a 1% no 3D-4C mais profundo realizado no mundo, adquirido em Roncador (lamina d’água superior a 1.800 m). O uso de sensores isolados (nodes ) – testado e abandonado pela CGG no final da década de 90 – foi ‘ressuscitado’ por companhias de serviço há cerca de dois anos. O 70
grande problema é que a não utilização de cabos obriga o uso de ROVs (com DGPS),o que garante um acoplamento, orientação e posicionamento mais acurados, mas é extremamente mais demorado, tornando ainda mais cara a aquisição multicomponente, que já é bastante cara no mar – um levantamento OBC custa de 5 a 20 vezes mais que um streamer . Para comparação, em 2005 a PGS adquiriu um 3D-OBC em Roncador com área de cobertura total de 23 km2, a um custo de US$ 8,5.106. A mesma companhia, no mesmo ano, realizou um levantamento de alta resolução (HD3D) com custo total de US$ 11,5.106 cobrindo uma área em torno de 400 km2. Durante a aquisição, usam-se geralmente três a quatro navios (um para registro, outro para fonte e os adicionais para movimentação do cabo e apoio operacional). A conversão de ondas P (descendentes, geradas pela fonte) para S (ascendentes, registradas pelos componentes horizontais dos geofones) ocorre geralmente nas interfaces das rochas, não no fundo do mar (Rodriguez et al., 2000). A principal exceção é em fundos marinhos muito duros (carbonatos e basaltos sendo os casos mais comuns), em que ocorre forte conversão de ondas P-S, com ambas descendentes (Tatham e Stoffa, 1976). O fato da conversão não ocorrer no fundo do mar impede o processamento pela técnica CDP, pois o ponto de conversão varia lateralmente em profundidade (aproximando-se da fonte para pontos de conversão mais profundos). Este fenômeno, já bem conhecido (Tessmer e Behle, 1988) complica sobremaneira o processamento de ondas PPS. Outro grande problema é a estática da onda convertida. Existem dezenas de exemplos reportando melhores resultados com cabos de fundo do que com streamers . Um dos primeiros foi Ross et al. (1996), da PGS, que apresentou melhor AVO (cap. 7) no Golfo do México, em que o dado convencional (streamer ) não mostrava DHI (Direct Hidrocarbon Indicator ), mas OBC – devido principalmente à presença de maiores afastamentos – indicou mostrou efeitos de AVO. Da mesma época, e também mostrando resultados de AVO, existe o trabalho de Sonneland et al. (1995). Muito menos usado, e indisponível comercialmente no momento, é a técnica de cabo vertical, descrita por Krail (1991, 1994, 1997). Foi desenvolvida pela Texaco (que posteriormente vendeu a patente para a PGS), baseada no walkaway VSP (ver cap. 7) e estudos da Marinha dos EUA na guerra anti-submarinos. O processamento é feito diretamente com migração antes do empilhamento em profundidade (PSDM), com nosso colega Marcos Gallotti tendo desenvolvido e aplicado em dados sintéticos (modelagem física) um algoritmo para este tipo de dado (Guimarães et al , 1998). O cabo é mantido próximo à vertical através de uma alta tensão aplicada, com o uso de ancoras e bóias. O ruído é menor que em dados streamer , é possível uma geometria realmente 3D e, segundo o autor, a aquisição é mais barata – por ser mais rápida. Uma desvantagem em relação ao cabo de fundo é o não registro de ondas S, mas esta técnica funciona melhor que OBC em regiões com muitos dutos e/ou em fundos marinhos muito duros (carbonatos ou basaltos). Provavelmente existiram grandes problemas de ordem prática, talvez associados à variação na posição horizontal dos receptores, bem como a obtenção da posição verdadeira, e esta técnica nunca se tornou realmente comercial, apesar de ter um potencial bem interessante. 3Ds relativamente pequenos (menores que 50 km2) apresentaram custo de cabo vertical inferior a streamer (Krail, 1994). Rodriguez e Stewart (1999) analisaram (usando traçado de raio 3D) a geometria de aquisição de cabos verticais (quantidade de cabos, número e distribuição de hidrofones por cabo, quantidade de PTs e diferentes lamina de águas foram testados) 71
para um modelo 2,5D simples, porém realista. Os autores obtiveram equações empíricas que relacionam estes parâmetros – alem de mergulho e profundidade de camadasobjetivo – com cobertura azimutal e de afastamentos. Concluíram que apenas um cabo já fornece boa cobertura e que o método deve funcionar melhor para águas mais profundas. Uma comparação interessante – apesar de limitada e talvez não extrapolável – é apresentada por Moldoveanu et al. (1996). Na zona de transição da Louisiana (6 m) hidrofones enterrados sem arranjos na lama do fundo do mar mostraram melhores resultados que geofones de pântano, com os autores creditando tal fato ao menor ruído. A principal justificativa para o uso de sensores permanentes é uma maior repetibilidade para sísmica 4D, já que os receptores são os mesmos e permanecem praticamente na mesma posição, e, no caso marítimo, a facilidade operacional, pois se torna necessário o uso de apenas um navio que – por não estar arrastando nenhum cabo – pode chegar bem próximo de obstáculos (plataformas de produção, quase sempre). Algumas dúvidas são se ocorrem alterações na resposta dos receptores ao longo dos vários anos que os sensores devem permanecer no local e a vida útil dos equipamentos. Existe um projeto na Petrobrás, coordenado pelo Pravap-19, analisando a possibilidade do uso de sensores permanentes no fundo do mar em Jubarte e/ou Roncador. Atualmente (jul/06), tal projeto está na fase de estudos do valor da informação. Uma estimativa de preços em janeiro/2006 para colocar os sensores cobrindo uma área de aproximadamente 9 km2 em Roncador foi superior a US$ 35.106.
72
4 – NOÇÕES DE PROCESSAMENTO SÍSMICO Antes de iniciar a apresentação das possíveis etapas de um processamento, devese salientar que não existe uma seqüência única, a ser aplicada em todas as situações. Como geralmente existe uma zona de maior interesse na seção sísmica (especialmente em trabalhos de reservatório), às vezes pode se tornar necessário sacrificar a qualidade no restante do dado. Um exemplo de como diferentes enfoques de processamento fornecem diferentes respostas é indicado na fig. 4.1 (contra-capa de Yilmaz (1987), a bíblia do processamento sísmico durante muitos anos), em que uma linha 2D foi processada por companhias diferentes.
Fig. 4.1 – Resultados do processamento de seis companhias diferentes para o mesmo dado (extraído de Yilmaz, 1987).
73
O que se procura no processamento é, resumidamente, restaurar as diversas perdas da amplitude da propagação, retirar efeito das camadas superficiais, corrigir diferentes trajetórias e obter a verdadeira posição espacial dos eventos e empilhar os traços de uma família CDP. A atenuação de ruídos aleatórios realizada durante o empilhamento (stack ) é, geralmente, bem eficiente. Já a eliminação de ruídos coerentes costuma ser bem mais difícil, com algumas etapas sendo discutidas neste capítulo. Os ruídos coerentes mais comuns são múltiplas de longo ou curto período, ondas diretas ou superficiais, difrações e ondas S convertidas. Yilmaz (1987) considera deconvolução, empilhamento de CDPs e migração como sendo as três etapas principais do processamento. Cary (2001) considera esta afirmação atual, com esses três processos dominando o fluxo de processamento. Neste artigo, em que Cary faz um resumo do desenvolvimento do processamento ao longo dos últimos 20 anos, o autor lembra que o método de minimização por mínimos quadrados de Gauss é usado em todas as etapas de processamento. Lembra também que quase todos os processadores jamais estão satisfeitos com o resultado de um trabalho e que, imediatamente após a conclusão, se observam imperfeições. A maior evolução é creditada pelo autor – e pela imensa maioria da comunidade geofísica – ao aumento da capacidade dos computadores disponíveis do que propriamente por progressos na teoria. Este aumento tornou possível a disponibilização de um volume de dados muito maior, em muito menos tempo e com uma qualidade muito superior. Ainda assim, é observado por Cary que novas técnicas de processamento – mesmo fornecendo resultados muito bons ou excelentes – não sobrevivem se não forem razoavelmente rápidas e simples de serem usadas. O correto posicionamento espacial dos traços (ou seja, navegação e geometria corretas) é uma etapa fundamental de todo o processamento. A primeira etapa é a preparação dos dados, ou pré-processamento. Algumas vezes, ocorre uma sub-amostragem do dado – ou seja, dado adquirido com 1 ms é processado em 2 ms, ou adquirido em 2 é processado em 4 ms – para agilizar o processamento. A decisão de reamostrar ou não é tomada considerando-se o beneficio (disponibilidade do dado mais cedo) e possíveis perdas (principalmente, diminuição de resolução, quando se considera ser possível a existência de freqüências ao nível do(s) objetivo(s) em torno de 90 Hz). O mesmo é verdade para a amostragem espacial, mas geralmente a subamostragem não é realizada porque o processo de migração costuma funcionar bem melhor com uma amostragem mais densa – na verdade, é comum a realização de interpolação de traços antes da migração. Neste capitulo será usada como guia a seqüência de processamento aplicada em um dado HD3D em 2005/2006 para Roncador (PGS, 2006; Rodriguez et al , 2006a), com algumas etapas sendo detalhadas. Serão apresentadas também algumas etapas não usadas naquele processamento.
74
4.1 Edição de traços ruidosos e atenuação do ruído de swell Como o nome sugere, é um trabalho que procura atenuar alguns ruídos presentes, e até retirar os dados (traços) muito ruidosos, através de várias técnicas, geralmente estatísticas. 4.2 Deconvolução determinística da assinatura da fonte Geralmente, é aplicada conjuntamente ao defanist (item 2.6), para atenuação dos efeitos dos fantasmas da fonte e receptor. O objetivo principal do processamento é retirar os efeitos de propagação, para se obter informações de sub-superfície. Usando-se o modelo convolucional (item 2.5) – em que o traço pode ser visto como o resultado da convolução de um pulso (considerado constante) com a função refletividade da Terra – conclui-se que, deconvolvendo o pulso do traço real, obtém-se a função refletividade. Como a convolução no domínio do tempo corresponde à multiplicação dos espectros de amplitude e soma dos espectros de fase, e a deconvolução corresponde, respectivamente, à divisão e subtração dos mesmos espectros, é natural se pensar em realizar operações de deconvolução no domínio da freqüência. Isto – apesar das aproximações, algumas discutidas a seguir – é muitas vezes realizado no processamento. Uma figura esquemática deste processo é mostrado na fig. 4.2.1, extraído de Rosa (2002).
Fig. 4.2.1 – Representação da operação de deconvolução no domínio da freqüência, em que os espectros de amplitude (A) são divididos e os de fase ( φ ) subtraidos (extraído de Rosa, 2002).
Neste processo, obviamente é necessário conhecer o pulso a ser deconvolvido, que pode ser estimado ou medido. A medição (gravação) durante a aquisição (ou extração do próprio dado, através da onda direta), apesar de fornecer uma excelente indicação do pulso, tem o grave inconveniente de não informar nem considerar as inevitáveis alterações na forma do pulso – que, é considerado constante durante a deconvolução. A maneira de contornar a variação do pulso é o uso de janelas de tempo pequenas (de 500 a 2.000 ms), em que a alteração do pulso ainda seja uma premissa razoável. As estimativas podem ser estatísticas (por auto-correlação, baseada em que – como a auto-correlação de uma função aleatória (como a refletividade é considerada) é um spike – a auto-correlação do traço é idêntica à auto-correlação do pulso) ou determinísticas (por exemplo, ajuste entre perfis de poços e dados reais – usado geralmente em processos de inversão elástica – mais recomendável, mas nem sempre com resultados satisfatórios). Nas estimativas estatísticas, geralmente o pulso deve ter fase mínima, para que a operação de divisão no domínio da freqüência seja convergente e que o espectro de fase 75
do pulso possa ser obtido a partir do espectro de amplitude através da transformada de Hilbert. Este processo – também usado na obtenção de atributos complexos, ou do traço complexo, a serem discutidos no cap. 6 – convolve um operador de quadratura (que rotaciona a fase em 900) com o logaritmo do espectro de amplitude. Para que não ocorra divisão por zero, é usual acrescentar-se um pequeno ruído aleatório (ruído branco) – em torno de 0,01% – antes da deconvolução, se garantido que todos os componentes de freqüência tenham um valor não nulo de amplitude. Estimativas estatísticas costumam apresentar problemas nas faixas do espectro de amplitude em que ocorre declividade acentuada, como nos limites do espectro ou próximos a notches . Um dos problemas intrínsecos da estimativa determinística através de perfis é que a amostragem geológica é distinta entre a perfilagem e a sísmica de superfície. Este problema é comum à geração de sismogramas sintéticos, a ser discutido no próximo capitulo. Muitas vezes, o processo de deconvolução usado é misto, ou seja, estatísticodeterminístico. Cary (2001) considera que a deconvolução estatística predomina, lembrando que com isso a fase do sinal continua sendo uma incógnita. Uma etapa adicional de deconvolução, comumente aplicada, altera somente a fase do sinal, deixando a amplitude inalterada. Esta etapa, denominada deconvolução de fase zero, causa um aumento da resolução aparente (porém efetivo) da seção (aparente por não alterar o espectro de amplitude). Outra grande vantagem é que os máximos absolutos do pulso passam a corresponder à posição da reflexão, facilitando bastante a interpretação. Na prática, muitas vezes não é trivial a obtenção da fase zero, com os métodos mais comuns usando o fundo do mar e/ou perfis de poços e/ou VSP (provavelmente, o mais confiável). Freqüentemente, no entanto, ainda é necessária alguma correção durante a interpretação. Etapas adicionais podem ser aplicadas, como por exemplo a correção da cor da função refletividade (que, na prática, não é exatamente branca, ou seja, não tem valores iguais de amplitude para todas as freqüências). Ainda que algumas vezes tais etapas gerem melhoras pequenas, muitas vezes são úteis, como o exemplo da fig. 4.2.2, extraído de Rosa (2002), mostrando o ganho da deconvolução de fase zero (seção do meio) e melhora após ajuste da função refletividade. Fig. 4.2.2 – Dado real (com traços sintéticos inseridos para comparação) com deconvolução estatística-determinística (esquerda), deconvolução estatística-determinístico + deconvolução de fase zero (centro) e deconvolução estatística-determinístico + deconvolução de fase zero + correção da cor da função refletividade (extraído de Rosa, 2002). Observar boa melhora com aplicação de fase zero e pequenos ganhos com correção da cor da refletividade (geralmente não aplicada).
76
4.3 Correção de espalhamento geométrico A recuperação de amplitudes, ou amplitude verdadeira, é um dos maiores objetivos do processamento, sendo também um dos mais difíceis (ou o mais difícil, para alguns autores, como por ex. Russel, 1990). Os principais fatores que alteram a amplitude do sinal foram discutidos no item 2.7. O de maior impacto é o espalhamento geométrico (divergência esférica), que atualmente costuma ser considerado durante a própria etapa de migração. Também na migração devem ser levados em conta possíveis efeitos de anisotropia. Perdas por transmissão (que podem ser aplicadas juntamente com as correções do filtro estratigráfico), absorção, reverberação (filtro estratigráfico) e múltiplas não devem ser considerados na migração, segundo Rosa (2002). O autor apresenta três razões para isso: 1) não estão relacionadas diretamente ao processo de migração, 2) um possível erro na parametrização tornaria necessária a repetição da migração, que é um processo caro e demorado, e 3) a não existência de técnicas confiáveis para tal.
Fig. 4.3.1 – Comparação de seção antes (superior) e após correção de espalhamento geométrico (divergência esférica) (extraído de PGS, 2006).
77
A correção de absorção (fator Q) apresenta um problema muito grave, e bastante comum, que é a super-correção das amplitudes nas altas freqüências, pois geralmente nesta parte do espectro ocorre um domínio do ruído sobre o sinal (algumas vezes, até por limitação da faixa dinâmica do equipamento de registro na aquisição). Este problema é contornado aplicando-se um fator Q menor que o necessário – naturalmente, todas as amplitudes são sub-corrigidas, mas este efeito é menos prejudicial que a super-correção dos ruídos de alta freqüência. Outra solução é aplicar um fator Q inversamente proporcional ao tempo de trânsito, ou seja, as ondas que viajam por mais tempo – estando conseqüentemente mais afetadas pela absorção – são progressivamente menos corrigidas. Além das amplitudes, a absorção também está associada à dispersão, tornando necessária uma correção de fase. Efeitos de supercorreção devido a fatores Q superdimensionados são bem menos nocivos na fase que nas amplitudes, no entanto. Até aqui, tem-se considerado o fator Q intrínseco, mas na realidade devemos procurar corrigir o fator efetivo, que inclui também a atenuação de altas freqüências devido à múltiplas de curto período (reverberações, ou filtro estratigráfico), como explicado no item 2.7. Geralmente esta correção é aplicada usando-se o método de O’Doherty e Anstey (1971) (ou variações a partir dele, um dos quais apresentado por Rosa, 2002), que é estatístico. Aumentos de amplitude – nem sempre associados à recuperação de efeitos de propagação – podem ser usados localmente para uma melhor definição estrutural, mas geralmente causam um pior caráter na seção. Entre os mais comuns está o AGC (Automatic Gain Control ), em que em uma janela em tempo (100 a 2.000 ms, geralmente) é feita uma normalização pela maior amplitude. Assim, as amplitudes máximas de cada janela são ‘igualadas’, mascarando anomalias mas realçando eventos muito fracos. Um exemplo do efeito da aplicação da correção do espalhamento geométrico é mostrado na fig. 4.3.1. 4.4 Correções residuais (variações da fonte e VÁGUA) As correções estáticas correspondem a deslocamentos de tempo constante, independente da posição da amostra no traço. São diferentes das correções dinâmicas (em que cada traço do CDP sofre um deslocamento distinto, como por exemplo na correção de NMO). São aplicadas principalmente em dados terrestres, sendo determinadas geralmente por refração rasa ou algoritmos computacionais. Procura corrigir atrasos causados por variações topográficas nas posições de fontes e receptores e/ou mudanças de velocidade nas camadas superiores (a zona de intemperismo), muitas vezes associadas a variações no lençol freático (que tem grande importância na definição de VP). Em dados marítimos, só mais recentemente se tem observado que a não consideração de variações nas profundidades das fontes e – principalmente – dos cabos pode causar uma perda nos componentes de alta freqüência. Outro problema é que os CDPs de um 3D têm traços muitas vezes adquiridos em dias diferentes, com condições de mar (por exemplo, temperaturas) distintas, o que algumas vezes causa diferenças de tempo de trânsito não associadas à propagação em sub-superfície, mas sim à lamina de água. Nem sempre essas correções são aplicadas, não sendo ainda rotina sua consideração de uma forma determinística, com somente alguns processamentos mais cuidados procurando atenuar este problema de uma forma geralmente estatística. Naturalmente, isto é ainda mais crítico em processamentos para 4D (cap. 9). Um exemplo em mapa da aplicação deste tipo de correção em dado marítimo é mostrado na fig. 4.4.1. 78
Se mal aplicadas ou não consideradas estas correções podem conduzir (especialmente em dados terrestres) a pouca continuidade de eventos, alinhamento pobre de sinais após correção de NMO, má determinação de velocidades e instabilidade na forma da onda e variações indesejáveis de amplitude e freqüência.
Fig. 4.4.1 – Mapas em tempo do fundo do mar antes (esquerda) e após correção estática da lamina d’água (extraído de PGS, 2006).
4.5 Regularização de cobertura (com ou sem flex-binning ) 4.6 Atenuação de múltiplas (Radon, etc.) As múltiplas, apresentadas no item 2.7, são danosas não só na interpretação (não sendo rara sua ocorrência no mesmo tempo sísmico do reservatório), mas também durante a migração, pois ao serem migradas com a velocidade de eventos primários, é criado um efeito denominado ‘sorriso’, associado ao espalhamento exagerado da energia – neste caso, diz-se que o evento foi supermigrado. Este fenômeno também ocorre no caso de migração de um spike e também nos limites do levantamento (efeitos de borda). Teoricamente, a técnica CDP (cap. 3) atenua as múltiplas, porém na prática o problema é que as múltiplas nos offsets menores costumam estar próximas ou em interferência com o sinal primário que se deseja analisar. Os algoritmos no processamento que procuram atenuar as múltiplas são baseados principalmente em 1) diferenciação entre eventos primários e múltiplos no domínio τ -p (transformada de Radon) ou 2) via equação da onda. O primeiro grupo tem como vantagem ser relativamente rápido e barato (o princípio é separar eventos primários corrigidos de NMO das múltiplas), porém as transformadas disponíveis geralmente não são sistemas lineares (fazendo com que um sinal ‘levado’ para o domínio da aplicação do algoritmo – por exemplo, τ -p – tenha suas características alteradas no ‘retorno’, mesmo que nenhuma operação seja aplicada nele). Um pouco melhores (mas nem sempre suficientes) são a transformada de Radon Parabólica (ou, menos comum, hiperbólica) e o Radon de alta resolução (que nada mais é que se ampliar a amostragem no domínio t-x para atenuar-se alterações do sinal durante a aplicação da transformada direta e inversa – naturalmente, tal aumento de amostragem significa mais tempo de computação). Na fig. 4.6.1 é apresentado o resultado da atenuação de múltiplas em gathers no domínio CDP. Algumas vezes se usa um truque após a transformada de Radon, que é, no domínio CDP corrigido para NMO, agrupar-se aleatoriamente os traços, atenuando os
79
efeitos sem coerência – no entanto, como quase todos os métodos que não usam equação da onda, nem sempre este artifício produz resultados satisfatórios. O segundo grupo (Surface-Related Multiple Elimination , ou SRME, sendo o mais comum), bem mais robusto e efetivo, tem como desvantagens o custo elevado, (pois usa algoritmos que requerem bastante uso de máquina), não ser extensível facilmente para 3D, ignorar efeitos como deriva de cabo e mergulho cruzado (mergulho aparente, perpendicular à direção de aquisição) e necessitar uma densa amostragem espacial. Apesar disso, os métodos SRME tendem a serem usados atualmente, devido aos resultados geralmente bem superiores aos do Radon. Até meados dos anos 90 usava-se o MAFK , que procurava atenuar as múltiplas no domínio f-k (freqüência – numero de onda). No entanto, costumava ser pouco efetivo, ou cancelava também o sinal de interesse. Deve ser observado que a atenuação de múltiplas é um problema que não está resolvido (apesar de uma melhora significativa recente pelo SRME), sendo ainda necessário algumas vezes a aplicação do silenciamento (mute ) interno – o que cancela também o sinal nos menores afastamentos, ver item 4.12 – para se obter uma melhor (ou menos pior) imagem de níveis de interesse. De uso mais restrito para múltiplas de longo período, mas algumas vezes útil nas de curto período, é a deconvolução preditiva. A premissa básica é que, por ser aleatória, a função refletividade é imprevisível. No entanto, uma múltipla viola esta premissa, por ter uma periodicidade, já que é repetida a intervalos de tempo constante. Assim, eventos periódicos podem ser considerados múltiplas, e atenuados.
Fig. 4.6.1 – Comparação de gather CDP antes (esquerda) e após aplicação de atenuação de múltiplas por transformada de Radon (extraído de PGS, 2006). Apesar da forte atenuação, a energia das múltiplas remanescentes nos afastamentos próximos pode ser problemática para a migração e empilhamento.
4.7 Correção de fator Q (somente fase)
80
4.8 Análise de velocidade de migração 500 x 500 m (com anisotropia, se necessário) Uma discussão sobre velocidades já foi realizada no item 2.4, com alguns aspectos sendo (re)apresentados aqui. O tempo de trânsito (tempo sísmico ou tempo duplo) t é relacionado ao afastamento fonte-receptor x pela equação (que pode ser facilmente obtida por Pitágoras) t2 = t02 + (x/V)2 4.8.1 t 0 tempo vertical (correspondente ao afastamento nulo) e V velocidade.
Esta expressão também representa o truncamento no segundo termo da expansão de Taylor de uma formulação bem mais precisa do tempo de trânsito (Taner e Koehler, 1969). Aproximações mais acuradas serão discutidas neste item. A velocidade é a que melhor horizontaliza uma reflexão ou evento, sendo chamada também de velocidade de empilhamento (ver item 4.12). Apesar de só corresponder à velocidade RMS em pouquíssimas situações, é largamente usada como tal – um exemplo de uso extremamente disseminado é a obtenção da velocidade intervalar através da formula de Dix (1955), que é usada em muitas etapas do processamento (por exemplo, conversão de afastamento para ângulo de reflexão), e interpretação (velocidades intervalares para criação de modelos geológicos, etc). É obtida na fase de análise de velocidades, etapa absolutamente fundamental do processamento. A velocidade é, provavelmente, o parâmetro isolado mais importante de todo o processamento – isto pode ser avaliado, por exemplo, na resposta de Sam Gray sobre qual as três coisas mais importantes no processamento: “Velocity, velocity and velocity ” (comunicação pessoal). O estudo de velocidades sísmicas requer um curso à parte, com mais informações disponíveis em Thomas (2003, com o autor ministrando um curso sobre o tema regularmente na Petrobras). Em um meio homogêneo, a trajetória do raio é uma linha reta e V corresponde a velocidade média (V M). Já para um meio realista, com várias camadas com diferentes velocidades, a trajetória do raio é definida pela lei de Snell e V não representa mais V M, aproximando-se da velocidade média quadrática (V RMS ), que é definida pela expressão VRMS2 = (Σ Vi2 ∆ti) / (Σ ti) 4.8.2 V i e e tempo de trânsito da i-ésima camada. t i velocidade
Uma boa estimativa das velocidades é função de vários fatores, como ruído presente, complexidade geológica, algoritmos e tempo disponíveis para o processamento. Alguns desses fatores devem ser observados durante a definição de um programa sísmico. Como exemplo, pode-se ver na fig. 4.8.1 (extraída de Rosa, 2002) como uma definição deficiente da velocidade é obtida caso um afastamento fonte-receptor suficiente não seja usado durante a aquisição. Deve-se observar também neste exemplo que, caso fosse usado um lanço demasiadamente curto, poder-se-ia concluir – erroneamente – que o meio seja anisotrópico, devido à sub-correção aparente do evento. De uma forma geral, pode-se afirmar que as ambigüidades entre velocidades e posições do evento se tornam piores quando a abertura (definida no item 4.10) diminui e que no método de tomografia (muito usado para PSDM) esta ambigüidade pode ocorrer quando o imageamento é deficiente (Bube et al , 2005).
81
Fig. 4.8.1 – Dado sintético de um evento (base de camada com aumento de velocidade linear com profundidade) corrigido para NMO com velocidade usando-se todos os offsets (acima) e somente os menores offsets (extraído de Rosa, 2002). Observar pior horizontalização com lanço curto, que pode sugerir (incorretamente) presença de anisotropia no meio.
Camadas com mergulho fazem com que o ‘ponto comum’ de reflexão de um CDP seja transformado na verdade em uma região, e que a velocidade aumente (já que o tempo da reflexão será menor que no caso de camada horizontal). Algo relativamente comum e problemático durante a correção de NMO é a ocorrência de dois eventos distintos (geralmente, um (quase) horizontal e outro com mergulho razoável) ao mesmo tempo – este fenômeno era corrigido pelo DMO, mas hoje em dia a migração antes do empilhamento geralmente cuida desse problema. Na prática, a técnica CDP funciona razoavelmente bem em regiões com mergulhos de camadas inferiores a 300. Muito mais perniciosas são as mudanças laterais de velocidade, que podem variar de aceitáveis até problemáticas – caso, por exemplo, de mudanças superiores a (segundo Brzostowski e Ratcliff, 1995) 5% em distancias menores que 1 km. Um caso relativamente comum, e que introduz algumas pequenas complicações e comportamentos interessantes à técnica CDP, é o aumento linear da velocidade com a profundidade – na verdade, o caso mais realista é a mudança do fator linear em diferentes pacotes. Por exemplo, no caso da Bacia de Campos, entre o fundo do mar e o Marco Azul ou Cretáceo Sísmico. A eq. 4.8.1 foi obtida baseada em uma grande simplificação, que são camadas homogêneas, isotrópicas e horizontais. Na prática, o tempo de trânsito t é uma função mais complexa do afastamento x e da velocidade, existindo algumas equações (com diferentes níveis de premissas e aproximações) para obtenção da velocidade (algumas delas com parâmetros adicionais, relacionados à curvatura do raio e/ou anisotropia). A maior parte é obtida a partir de análises inicialmente desenvolvida por Taner e Koehler (1969), que usaram expansão de Taylor para encontrar uma primeira aproximação para a velocidade. O método apresentado por eles tem sido usado, com algumas evoluções, há vários anos. Entre as evoluções mais famosas, está a de Alkhalifah e Tsvankin (1995), t2 = t02 + x2 /V2 +2ηx4 / { V2 [t02V2 + (1+2η) x2] }
4.8.3
que é uma equação de pseudo-4a ordem (o termo x 4 é dividido por x 2 ), que introduz o parâmetro η , que merece ser comentado, assim como esta equação. η foi deduzido inicialmente a partir dos parâmetros anisotrópicos (válidos para meios com VTI, ou anisotropia polar) de Thomsen (1986), ε e δ, η = (ε - δ) / (1 + 2 δ) 4.8.4 ε função
das velocidades horizontal e vertical e δ função das velocidades vertical e de NMO. Assim, naturalmente η deve ser visto como relacionado à intensidade da anisotropia de um meio. O curioso, no entanto, é que η também é função da curvatura do 82
raio (causado pelo aumento linear de velocidade) – algo que, a princípio, sé deve ter relação com anisotropia polar devido ao fato de que a velocidade de uma onda ao longo de um raio curvo deve apresentar, intuitivamente, uma relação (provavelmente nada trivial) com a anisotropia. Tal relação não tem sido objeto de estudo, com η sendo usado com certa freqüência relacionado somente a fatores anisotrópicos para correlações com variações litológicas, o que, além de provavelmente geralmente estar errado, pode ser perigoso, pois indica falsos valores de anisotropia no meio. De qualquer forma, na prática η é obtido realizando-se primeiramente uma análise de velocidade somente com afastamentos curtos (1/4 a 1/2 do total) – para minimizar possíveis efeitos de anisotropia. Uma segunda análise é então realizada, agora com todos os afastamentos, mantendo-se a velocidade e procurando-se a melhor horizontalização de eventos variando-se o valor de η . Uma alternativa muito interessante ao uso de η é apresentada por Rosa (2002) que, através de um desenvolvimento algébrico, chega a t2 = t02 + x2 / (V2 + αx) 4.8.5 em que α é um fator com significado físico não muito claro, mas que estabiliza e aumenta a precisão da eq. 4.8.1, sendo mostrados naquele trabalho melhores resultados (em dados sintéticos) com eq. 4.8.5 que 4.8.3 (Alkhalifah), em meios com aumento linear de velocidade com profundidade, porém a eq. 4.8.5 tem resultados piores em meios anisotrópicos. As duas equações funcionam melhor que a eq. 4.8.1, que é conhecida também por equação de segunda ordem por corresponder a um truncamento da série de Taylor no segundo termo. α é obtido, na prática, de forma similar a η , sendo também necessárias duas análises de velocidade. Assim, ao se desejar uma melhor definição do campo de velocidades – com conseqüente melhor imageamento – torna-se necessário a realização de uma etapa adicional de análise, o que obviamente demanda maior tempo. O intervalo de análise de η ou α não é o mesmo das velocidades (geralmente, estas são realizadas em uma malha de 500 x 500 m em um 3D, enquanto η ou α costumam ser obtidos em uma malha de 1 x 1 ou 2 x 2 km, já que a variação desses parâmetros é, geralmente, mais suave e menor que a da velocidade). Outra alternativa é o uso de outras equações, geralmente disponíveis nas companhias de processamento. A PGS, por exemplo, usa uma equação de pseudo-6a ordem (Sun et al., 2002) que mostrou resultados bem interessantes no campo de Roncador (Rodriguez et al , 2006a), conseguindo horizontalização de eventos com grandes afastamentos sem uso do fator η , o que, além de tornar possível de uma forma menos demorada a obtenção de um campo de velocidades mais correto e confiável, sugere que a presença de anisotropia polar – sugerida, principalmente, pela supercorreção (hockey-stick ) – deve ser, muitas vezes, associada a problemas nas aproximações implícitas de equações mais simples, principalmente a de 2a ordem (mais comumente usada). Uma comparação da horizontalização de eventos desta equação com a eq. de 2ª ordem (eq. 4.6.1) é mostrada na fig. 4.8.2.
83
Fig. 4.8.2 – Comparação do alinhamento de eventos com eq. de 2ª ordem (esquerda) e de pseudo6ª ordem (extraído de Sun et al., 2002).
4.9 Remoção da correção de divergência esférica e de marcas de aquisição residuais 4.10 PSTM Kirchhoff com raio curvo e anisotropia TI Uma reflexão registrada em superfície pode ser correspondente a qualquer ponto de um semicírculo, como indicado na fig. 4.10.1, extraída de Lindseth (1982). Assim, deve-se obter o correto posicionamento de um evento, que é o objetivo principal da migração. Neste processo, são removidos efeitos de curvatura das interfaces, difrações são colapsadas, alterações causadas por mudanças laterais de velocidades são corrigidas ou atenuadas e a zona de Fresnel é bastante diminuída, aumentando-se significativamente a resolução horizontal. Fig. 4.10.1 – Uma reflexão registrada em superfície pode ser referente a qualquer ponto de um semicírculo (ou semi-esfera, no caso 3-D) (extraído de Lindseth, 1982).
O processo de migração pode ser realizado de várias maneiras, algumas sendo discutidas neste item. Discussões mais detalhadas são objeto de curso específico sobre o assunto. Pode-se considerar um processo inverso ao princípio de Huygens, em que a fonte se situe na interface causadora da reflexão e os receptores em superfícies – esta idéia é chamada refletor explosivo. A partir das posições dos traços em superfície, são geradas frentes de ondas circulares, com os raios definidos pela profundidade (em tempo) aparente dos refletores (fig. 4.10.2). A profundidade (em tempo) correta é definida pelo envelope dessas diversas 84
frentes de onda, corrigindo-se assim os mergulhos das reflexões. O ângulo de migração é o maior ângulo em que se realiza a geração das frentes de onda.
Fig. 4.10.2 – Exemplo do significado geométrico da migração, em que as reflexões são colocadas na posição correta (extraído de Sheriff, 1991).
Outro processo de migração é baseado na geometria das difrações. Na fig. 4.10.3, (de Rosa e Tassini, 1990) vemos uma difração, uma frente de onda e o resultado da migração, para um meio homogêneo. Observa-se que é possível obter um ponto da reflexão migrada a partir de reflexão não migrada e da geometria das difrações.
Fig. 4.10.3 – Exemplo do significado geométrico da migração, em que as reflexões são colocadas na posição correta (extraído de Rosa e Tassini, 1990).
Considerando-se os princípios de Huygens e da interferência de ondas, a onda principal pode ser vista como o envelope tangente às ondas secundárias que estejam em interferência construtiva. Desta forma, a migração pode ser aplicada sem conhecimento a priori da posição dos refletores, sendo necessário apenas uma aproximação da velocidade de propagação. Por este processo – uma versão simplista da migração de Kirchhoff – as amplitudes de uma difração são colapsadas para o ápice da hipérbole. O raio imagem, bastante usado em modelagens, é um raio teórico, normal à superfície (nível do mar ou solo), que indica a trajetória teórica de um raio até o ápice de uma hipérbole. Para uma camada com mergulho, é diferente do raio vertical – nestes casos, é necessária a migração em profundidade, que considera a propagação do ponto difrator de acordo com a Lei de Snell e utiliza modelo de velocidades intervalares. Em algumas situações de geologia complexa, a dispersão do ponto comum pode ser considerada pequena. No caso de camadas com mergulho, entretanto, geralmente os pontos amostrados em sub-superfície não são coincidentes, ocorrendo duas distorções
85
fortes no conceito CDP: o ‘ponto’ se transforma em uma área e o valor da velocidade é alterado para Vα = V / cosα 4.10.1 α mergulho da camada.
O processo de DMO (Dip Move Out ), de uso bastante comum até meados dos anos 90, corrige a trajetória do sinal nesses casos. O DMO era também chamado de migração parcial pré-empilhamento, e seu efeito é mostrado na fig. 4.10.4, extraída de Sheriff (1991). A equação de migração φ AP ângulo aparente (antes da meio e p parâmetro do raio.
tg φAP = sen φMIG = V.p
4.10.2
migração), φ MIG ângulo verdadeiro (após migração), V velocidade do
mostra que mergulhos antes da migração não podem ser superiores a 450.
Fig. 4.10.4 – Diagrama simplificado da correção realizada pelo DMO para eventos mergulhantes, em que uma amostra é colocada na posição correta de offset zero (extraído de Sheriff, 1991).
A realização de migração é necessária para colapsar difrações (geradas em terminações bruscas de camadas, como falhas) e corrigir falsos mergulhos (gerados por ‘movimentos’ laterais da energia entre os pontos de reflexão e a superfície em camadas com mergulho). Existem diversas formas de realizar a migração, cada uma com seus pontos fracos e fortes. Uma discussão detalhada está bem além dos objetivos deste material, sendo possível estudar-se o assunto durante um ou dois semestres em cursos de pós-graduação. Algumas noções, no entanto, serão aqui apresentadas. Como aspectos importantes na migração podem ser citados a presença de ruídos nos dados não-migrados, falseamento (alias ) espacial, abertura de migração e incertezas devido à velocidades. Sabendo-se que um ponto em sub-superfície (por ex., uma descontinuidade devido à erosão e/ou plano de falha) gera uma difração em uma seção sísmica (sendo por isso chamado de ponto difrator), o processo de migração deve ‘colapsar’ a difração para um ponto. Uma representação geométrica deste processo é mostrada na fig. 4.10.5. Na figura, cada ponto em superfície em que existe um receptor é o centro de um círculo hipotético com raio igual ao produto da velocidade pelo tempo de trânsito, e a posição do ponto difrator é definido após a migração pela interseção de todos os círculos hipotéticos. Esta idéia começa com o conceito que uma reflexão pode ter sido gerada em qualquer ponto de um semicirculo (fig. 4.10.1).
86
Fig. 4.10.5 – Significado geométrico da migração por colapso de difrações, em que a posição de um ponto difrator é obtida pela interseção de várias trajetórias possíveis (extraído de Rosa, 2002).
Considerando-se agora que um evento contínuo pode ser visto como vários pontos difratores juntos podem-se concluir que este método permite a migração de qualquer reflexão presente em uma seção sísmica. Outra maneira de se entender geometricamente a migração de um evento contínuo é mostrado na fig. 4.10.2. Como no caso anterior, são traçados semicírculos, com o evento migrado sendo definido agora pela tangente aos semicírculos. Este processo é a forma geométrica da migração denominada por frentes de onda. Na figura vê-se também o ângulo de migração, que é o ângulo máximo até o qual se estende o processo de migração – naturalmente, quanto maior o ângulo, mais preciso e demorado (logo, caro) o processo. Este ângulo está associado à abertura do operador de migração (fig. 4.10.6). Apesar de aqui sendo mostrado para camada mergulhante, a abertura ou ângulo de migração define também a declividade máxima que uma difração será colapsada. O conceito de abertura – que não deve ser confundido com o máximo afastamento fonte-receptor, não tendo relação alguma com este – determina também o ângulo máximo a ser migrado para uma determinada profundidade. Caso a abertura da migração seja constante, o ângulo máximo de migração decresce com a profundidade e, da mesma forma, usando-se um ângulo de migração constante, a abertura aumenta com a profundidade. Na prática, pode-se variar a abertura (mantendo-se constante o ângulo para o imageamento correto de planos de falhas) com a profundidade, para a migração ser um pouco mais rápida. A abertura é definida pela expressão A ≥ 2.z.tanθ 4.10.3 z profundidade (correta) e θ maior ângulo real a serem migrados.
Esta expressão define também o que é chamado de franja de migração, que corresponde a uma extensão lateral além de onde se deseja migrar, para evitar artefatos de borda (os ‘sorrisos’). Na verdade, a franja é metade da abertura. Observa-se que a abertura pode ser maior que o afastamento fonte-receptor máximo usado na aquisição.
87
Fig. 4.10.6 – Esquema geométrico da abertura e do ângulo de migração θ (extraído de Margrave, 1996).
Outro parâmetro fundamental para a migração (independente do algoritmo usado) é o espaçamento entre traços (a amostragem espacial). É fornecido por ∆x ≤ V / (2.f max.senθ) 4.10.4 V velocidade de migração, f max máxima freqüência que se
espera (ou pretende) migrar.
É interessante observar nas eq. 4.10.3 e 4.10.4 que o ângulo θ refere-se não somente ao mergulho da reflexão de horizontes geológicos, mas também de planos de falhas e dos ramos das hipérboles (‘pernas’) de difração. Assim, θ não deve ser definido, geralmente, pelo mergulho das camadas, mas sim pelos planos de falha e/ou hipérboles de difração. Na prática, Rosa (2002) sugere o uso de pelo menos 600, considerando ser este um valor representativo para planos de falhas mais comuns e colapsar uma parte significativa das difrações. Do ponto de vista teórico, existem duas maneiras principais de realizar a migração: soma de difrações, em que as amplitudes são somadas ao longo da difração e o resultado é colocado no ápice da difração (fig. 4.10.5), ou por frentes de onda, em que cada sinal registrado origina uma nova frente de onda, com o resultado migrado definido pelos envelopes (fig. 4.10.2). De qualquer forma, pode-se considerar a migração requer o caminho inverso da propagação, iniciando-se em superfície e terminando nos refletores. A integral (ou equação) de Kirchhoff é bastante usada no processamento sísmico, principalmente em migrações, pois permite considerar que uma integral operada em uma superfície (no caso do método sísmico, esta superfície é a interface água-ar (caso marítimo) ou solo-ar, em que estão localizadas a fonte e os receptores) pode representar o campo de onda de todo o volume – no caso, as camadas geológicas. Matematicamente, é obtida a partir do teorema de Green (que, por sua vez, é desenvolvido a partir do teorema de Gauss/Stokes, ou da divergência). Segundo Rosa (2002), é bastante versátil em problemas específicos e eficiente computacionalmente em aplicações simples – o melhor exemplo sendo, provavelmente, a migração em tempo. Um grande atrativo prático para o uso de Kirchhoff é que registro não-migrados podem ser migrados em qualquer conjunto de amostras – como isso é fundamental em dados 3D, e como Kirchhoff é o único método que possui esta característica (segundo Gray, 2001), esta técnica é a mais usada para grande volume de dados. Uma desvantagem prática de Kirchhoff é quando se necessita imagear altos mergulhos, pois a abertura de migração em três dimensões pode tornar o processo proibitivo. 88
Outra forma de migrar os dados sísmicos sem o uso de Kirchhoff é através das chamadas técnicas espectrais, por serem aplicadas no domínio ω -k x -k y ou ω -k x (ω freqüência e k i componente do número de onda). Na forma desenvolvida inicialmente, não contemplava variações laterais de velocidade, mas alternativas foram sendo desenvolvidas, pois são os métodos mais rápidos. O campo de ondas é decomposto em componentes de ondas planas, com cada componente sendo migrado separadamente. Uma técnica comum é a migração por deslocamento de fase (Gazdag, 1978), por usar esta metodologia para ‘depropagar’ o campo de ondas. São acuradas para grandes mergulhos. Este método é interessante para ilustrar dois aspectos da migração, presentes independentemente do método usado: a remoção de ondas evanescentes durante a migração e o decréscimo de resolução vertical após a migração. As ondas evanescentes são geradas quando k z se torna complexo (isto acontece quando ω /v > k x). Demonstra-se que essas ondas são reforçadas durante a migração – por isso, elas são removidas, pela atenuação de eventos com velocidades aparentes inferiores à velocidade mais baixa usada na migração. O outro aspecto importante da migração – que pode ser provado por análises de eventos em domínios ω -k (freqüência-número de onda) – é que ocorre, para um k constante, uma diminuição de ω após a migração (fig 4.10.7). Ou seja, a migração decresce a resolução vertical – apesar desta inconveniência, é absolutamente necessário migrar os dados sísmicos.
Fig. 4.10.7 – Diagrama mostrando migração no domínio ω -k , em que o evento C (com mergulho original ’ φ t ) é migrado para o evento C (com mergulho φ t ’ ). Observar que a freqüência pós-migração ω ’ é menor que ω (freqüência prémigração), mostrando que a migração diminui a resolução vertical (extraído de Krebes, 1989).
A fig. 4.10.7 também mostra a chamada migração Stolt (1978), em que uma amostra situada em ω 0 /V cos θ – este é deslocada (mantendo-se k x constante) para ( ω 0 /V). deslocamento corresponde à migração. Outro método razoavelmente comum é a migração por diferenças finitas, que procura resolver a equação de onda de forma aproximada, através de algum método de diferenças finitas. Foi o primeiro método digital, sendo popular ainda hoje para migrações pós-empilhamento. Uma característica fundamental é que ela considera a propagação de todo o campo de onda, enquanto que Kirchhoff trabalha com um conjunto de traços selecionados. É bem preciso para pequenos mergulhos, perdendo acurácia em mergulhos muito grandes. Deve-se comentar que a distribuição dos traços só não precisa ser regular no caso da migração Kirchhoff, mas caso seja usada deslocamento de fase ou diferenças finitas, é
89
necessário uma homogeneização (por ex., via interpolação) na distancia entre PTs e linhas. Por outro lado, o processo Kirchhoff pode – devido à distribuição irregular – migrar componentes de freqüência maiores que os da eq. 4.10.4, gerando um falseamento (alias ) espacial. Isto é contornado usando-se um filtro corta-altas em função do mergulho. Os métodos de diferenças finitas e do domínio f-k consideram somente um sentido de propagação. A técnica que considera a propagação total é a chamada reverse time migration (RTM), sendo o processo que faz menos aproximações (por isso, sendo também o mais acurado) – no entanto, é também o mais lento, sendo, mesmo com os computadores atuais, praticamente impossível de ser usada em um 3D marítimo. A migração em tempo, apesar de suficiente em várias situações, não respeita a lei de Snell, ou seja, durante a migração não são consideradas variações laterais de velocidade. Caso existam variações significativas – significativa sendo aparentemente de difícil quantificação, com uma referencia (Brzostowski e Ratcliff, 1995) considerando 5% em uma distancia de 1.000 m, enquanto que Rosa (2002) acredita que mudanças com comprimentos de ondas superiores ao máximo offset –, é recomendável (e muitas vezes necessária) a aplicação da migração antes do empilhamento em profundidade, a PSDM (do inglês Pré-Stack Depth Migration ) (fig. 4.10.8).
Fig. 4.10.8 – Diferença fundamental entre migração em profundidade (esquerda) – que respeita a lei de Snell – e em tempo (extraído de Margrave, 1996).
Existem vários exemplos práticos sobre a necessidade de PSDM, sendo aqui intencionalmente mostrado um não muito comum, com o objetivo de mostrar ao leitor o quão vasto podem ser os casos geológicos em que o uso de PSDM se faz necessária. Whitcombe et al. (1994) mostram que, após a perfuração de um poço no campo de Endicott (Alaska), foi observado que a sísmica indicou uma falha na posição incorreta (fig. 4.10.9). Este tipo de erro de posicionamento é comumente causado por pequenas incorreções nas velocidades de migração (com o erro geralmente aumentando com o mergulho da camada) e/ou – de novo ! – por fortes variações laterais de velocidade. No caso apresentado pelos autores, estas variações foram causadas pela camada de solo permanentemente congelada (permafrost ), que tem uma velocidade muito superior à camada de solo em que a água não é congelada.
90
Fig. 4.10.9 – Acima: resultado de PSTM (esquerda) sugerindo que poço estaria no bloco alto, e reposicionamento da falha (constatada pelo poço) em dado com PSDM. À direita: indicação de que PSDM (ou raio imagem) é necessário para colocar o ápice da hipérbole na posição correta (extraído de Whitcombe et al , 1994).
Historicamente, a situação mais comum em que a PSDM é aplicada – e onde seu uso foi iniciado – é no imageamento de regiões com domos de sal. Outras situações geológicas são canyons no fundo do mar, carbonatos próximos à quebras de plataformas e regiões com falhas reversas. Em várias situações, uma migração antes do empilhamento em tempo (PSTM, do inglês Pré-Stack Time Migration ) bem aplicada, que coloque todos os eventos nas posições corretas (incluindo um foco das difrações nos ápices correspondentes), seguida de uma conversão tempo-profundidade via raio-imagem (também bem realizada), corresponde ao uso de PSDM, com as vantagens de ser mais simples e rápida. Rosa (2002) compara este raciocínio de um índio pescando um peixe com uma lança – na verdade, o índio não precisa saber a posição correta do peixe, mas sim o ‘desvio’ (deslocamento) na trajetória da lança; este ‘desvio’ corresponde à correção a ser realizada pelo raio-imagem. O processo de PSDM é extremamente sensível ao campo de velocidades. Por exemplo, um erro de 5% nas velocidades no caso de PSTM não deve causar problemas significativos, mas pode ser um desastre para PSDM. Uma forma de entender essas diferentes suscetibilidades pode ser quando se considera que a migração em tempo usa uma espécie de velocidade média entre a superfície e o refletor, enquanto que migrações em profundidade usam velocidades intervalares. Outra maneira intuitiva é considerar que durante PSDM estamos procurando um ajuste muito fino – geralmente espacial ou lateral – de eventos.
91
Fig. 4.10.10 – Efeito de erros de velocidade em PSDM: acima, V=1.900 m/s, no meio V=2.000 m/s (correta) e abaixo V=2.100 m/s. S corresponde ao traço empilhado. Observar forte suscetibilidade de PSDM a erros não muito elevados (5%) de velocidade, mesmo em dados sintéticos. Observar também efeito de estiramento (item 4.13) nos maiores offsets , mesmo para velocidade correta(extraído de Rosa, 2002).
Diz-se que PSTM é muito mais robusta à imperfeições na velocidade que PSDM. Como esperado, a obtenção de velocidades é muito mais difícil e complexa no caso de PSDM que para PSTM. O erro máximo admissível para PSDM é 2%, sendo 1% desejável – existem algumas técnicas que procuram conseguir este nível de acerto, com a tomografia (uma minimização algébrica que diminui erros de velocidades para cada conjunto de traços migrado) estando entre as mais comuns. Independente do método, geralmente a observação de eventos horizontalizados (de maneira similar à análise de velocidades para empilhamento) costuma ser usada como controle de qualidade. Como exemplo, a fig. 4.10.10 mostra como se identificar a velocidade correta (mesmo este sendo um caso simples, de dado sintético com velocidade constante e refletor horizontal), e também o quão suscetível o processo de PSDM é a erros de velocidade, mostrando o imageamento muito pobre com um erro de 5%. Um grande problema prático é que geralmente nenhum método de definição de velocidades para PSDM funciona bem em áreas com qualidade pobre e forte variações de velocidades – infelizmente, é exatamente neste tipo de situação que se precisa que a PSDM funcione melhor. Pon e Lines (2005) consideram que essa susceptibilidade está associada a incertezas (ou erros), que deveriam sempre ser estimadas. Os autores apresentam uma análise matemática de incertezas (erros sistemáticos e aleatórios) em um caso simples para avaliar erros de posição na seção migrada em profundidade. Processos de PSDM são geralmente classificados em dois grupos principais: Kirchhoff e equação da onda. O segundo, como o nome sugere, usa a equação de onda para ‘depropagar’ o dado, através de algoritmos de diferenças finitas (em tempo ou em freqüência), deslocamento de fase no domínio da freqüência, etc. Costuma fornecer melhores resultados, tendo os problemas de obtenção do campo de velocidade e custo computacional. Kirchhoff (que também usa a equação da onda, pois é uma forma de representar a função de Green do campo de ondas), apesar de geralmente inferior, é mais fácil para obtenção de funções velocidades e menos demorada. Gochioco e Brzostowski (2005) consideram que Kirchhoff é uma tecnologia madura, não sendo esperadas melhoras significativas, enquanto que equação da onda ainda tem muito a 92
evoluir. Comparações entre os dois métodos são fornecidas por vários autores. Pharez et al. (2005), por exemplo, comparam Kirchhoff e equação da onda em cinco regiões produtoras em mar e terra, com a equação de onda sendo superior e justificando os custos adicionais. Independente do método (que deve ser escolhido de acordo com a complexidade da área, tempo e recursos financeiros disponíveis para o processamento), é importante se lembrar que etapas anteriores são cruciais para a obtenção de um dado migrado com boa qualidade. Bevc e Bondi (2005) citam regularização no pré-processamento apropriada, preservação de amplitudes, extrapolações de altas ordens, a capacidade de trabalhar com velocidades laterais de velocidade com precisão, o uso de todo o dado disponível (ou seja, não fazer decimações) e manter abertura elevada para capturar fortes mergulhos. Os autores consideram também que Kirchhoff é de mais fácil entendimento, é baseada em cálculos simples, é flexível no trato de variações extremas de velocidades, fortes mergulhos e, principalmente, dados 3D. No entanto, no mesmo trabalho é apresentado um exemplo sintético que demonstra a inferioridade de Kirchhoff na definição da frente de onda a ser migrada (fig. 4.10.11).
Fig. 4.10.11 – Incorreção de tempos de transito obtidos por Kirchoff (linha amarela tracejada) em imagear um campo de onda, mostrando necessidade de equação de onda para PSDM em meios muito complexos (extraído de Bevc e Biondi, 2005).
Atualmente, pode-se considerar como rotineiro a estimativa de velocidades que considerem anisotropia durante a análise de velocidades e migração – esta evolução é devida principalmente ao (como muitas outras evoluções no processamento) significado melhoramento dos computadores. Talvez a preocupação principal hoje em dia seja uma migração com preservação (ou recuperação) ‘verdadeira’ (aspas porque tal coisa talvez seja impossível na prática) de amplitudes. Finalmente, um campo de velocidade definido da forma que gere a melhor migração e/ou empilhamento – ou seja, o melhor imageamento possível – não é em absoluto uma garantia que uma conversão tempo-profundidade usando este campo será correta, ainda que melhore a conversão, em comparação a um campo menos rebuscado. Da mesma maneira, não se pode considerar que a aplicação de PSDM forneça a profundidade correta dos refletores (ainda que, geralmente, seja uma aproximação superior a uma conversão tempo-profundidade após PSTM e com velocidades de processamento PSTM). 4.11 Análise de velocidade residual É realizada após a migração, em que os eventos estão – ao menos teoricamente – em sua posição verdadeira. Como na análise anterior (item 4.8) procura-se horizontalizar
93
os eventos e, também como o anterior, é uma correção dinâmica (cada amostra de um traço tem deslocamento diferente das demais). Esta horizontalização (ou alinhamento) das amostras é obtido corrigindo-se as diferentes trajetórias – referentes aos diferentes caminhos percorridos pelo campo de onda entre cada par fonte x receptor pela equação hiperbólica 4.8.11, aqui repetida t2 = t02 + (x/VE)2 4.11.1 de empilhamento. t 0 tempo vertical (correspondente ao afastamento nulo) e V E velocidade
A velocidade de empilhamento – assim como a de migração – é usada para conversão tempo-profundidade, estimativa de zonas de pressões anormais em subsuperficie (perfis de Pennebaker, item 2.4) e inferência de propriedades físicas das rochas. Ainda mais que a velocidade de migração, esta é obtida de forma estatística, sendo influenciada pela geometria de aquisição. Para um meio homogêneo, a trajetória do raio é uma linha reta e V E é igual à velocidade média (V M). Já em um meio com várias camadas de velocidade variável, a trajetória do raio é definida pela Lei de Snell e V E não representa mais V M, aproximando se da velocidade média quadrática (V RMS ), definida pela expressão VRMS = [ (Σ Vi2∆ti) / Σ ∆ti) ]1/2 4.11.2 intervalar e tempo de trânsito da camada i . V i e ∆t i velocidade
A fórmula de Dix (1955) fornece a velocidade intervalar entre duas reflexões i e i+1, a partir de V NMO (considerada idêntica à V E e V RMS ) e tempo sísmico t i 2 2 VDIX = [ (V i+1 ti+1 – Vi ti ) / ( t i+1 – ti) ] ½ 4.11.3 A fig. 4.11.1, extraída de Rosa e Tassini (1990) e obtida pelos autores para situação que se pode considerar representativa, nos permite concluir que: 1. V E (V S na figura) é maior que V M e V RMS , aproximando-se de V RMS quando x → 0 . Isto ocorre por diversas razões, como por exemplo, anisotropia, geometria de aquisição e aumento de velocidade com profundidade. Na prática, quando V E é usada diretamente para conversão tempo-profundidade, pode-se esperar profundidades maiores que as verdadeiras, já que a velocidade correta é V M. V M só é disponível por perfuração de poços, por isso geralmente processos de conversão calibram ou ajustam velocidades de processamento a partir de informações de poços, e 2. o tempo de reflexão em offsets nulos (geralmente extrapolados, pois não são 2 adquiridos) obtido por V E ( T 0S na figura) é maior que o real – ou seja, mesmo que o item anterior não ocorra (i.e., se fosse possível a obtenção de velocidades corretas), ainda assim processos de conversão tempo-profundidade podem ser imperfeitos, pois t 0 obtida pelo empilhamento pode estar errado. Fig. 4.11.1 – Gráfico x 2 -t 2 , mostrando que para offsets nulos a velocidade de empilhamento (V S) é maior que as velocidades média (V M) e RMS (seção empilhada) e que t 0 é maior que o correto (extraído de Rosa e Tassini, 1990).
94
Como dito no item 2.4, o estudo de velocidades sísmicas requer um curso próprio. No entanto, um resumo é apresentado abaixo, na forma de texto e figuras (extraídas de Anstey (1977) e Brown (1992). Velocidades de empilhamento podem, de acordo com a direção e parâmetros de aquisição, complexidade geológica e fortes variações laterais de velocidade, representar características de propagação das ondas com menor relação direta à variações de velocidades intervalares de camada. Por exemplo, no caso de aquisição marítima na direção do mergulho em área próxima ao talude e com uma camada de carbonatos abaixo do fundo do mar (caso da Bacia Potiguar imersa), pode ocorrer uma ‘mistura’ de sinais de diferentes interfaces chegando em tempo muito próximos em um mesmo receptor. A correção da trajetória do sinal neste caso será realizada por valores de velocidades que possuirão relações muito complexas com as velocidades intervalares das camadas – assim, conclui-se sobre mais um beneficio da migração antes do empilhamento, especialmente quando é realizada em profundidade, como já discutido.
Fig. 4.11.2 – À esquerda: significado geométrico e cinemático de algumas velocidades do método sísmico (extraído de Anstey, 1977). Acima: algumas aplicações de algumas velocidades sísmicas (extraído de Brown, 1992).
Caso não seja realizada migração antes do empilhamento, é interessante observar as conclusões do trabalho de Souza (1985), que criou um modelo geológico simplificado (quatro camadas horizontais) para demonstrar que – mesmo nessa situação ideal – V E é em torno de 5% superior à V M verdadeira do pacote sedimentar, sendo próxima a V RMS . Por isso, em algumas conversões tempo-profundidade (principalmente quando existem poucos poços para realização de ajustes), V E é reduzida em 90 a 95%. Esta redução é também aplicada muitas vezes quando o dado é migrado após o empilhamento. Camadas ou lentes com velocidades anormalmente baixas causam um maior tempo de trânsito da onda sísmica, levando ao fenômeno denominado pull (ou push ) 95
down ,
gerando falsos sinclinais no dado. O efeito inverso – para camadas com velocidades elevadas – é denominado pull (ou push ) up . Na fase de análise de velocidades (denominada informalmente por velan , do inglês velocity analysis ), que preferencialmente deve ser realizada juntamente pelo intérprete e geofísico ou técnico do processamento, são obtidas as denominadas funções de velocidade, em um intervalo normalmente de 500 m (às vezes, 1 ou 2 km, em análises preliminares e/ou dados 2D). Esta etapa é muitas vezes a mais demorada do processamento – mas já se falou sobre a importância da mesma; a demora e importância costumam ser ainda maior em áreas com qualidade deficiente. A forma mais comum e rápida de se realizar velan é a utilização de estações de trabalho com algoritmos específicos, a maior parte deles realizando um empilhamento com várias velocidades (com incremento constante e variável entre 10 e 50 m/s, geralmente) em intervalos de tempo variando entre 10 e 50 ms, sendo mostrado a coerência para cada par velocidade x intervalo de tempo, sendo geralmente escolhido o par tempo x velocidade com maior coerência (a exceção mais importante sendo as múltiplas), com os vários pares assim obtidos definindo a função velocidade para um determinado CDP. É comum o uso de limites de velocidades intervalares (obtidas via Dix), de forma que velocidades muito elevadas (por ex., superiores a 7.000 m/s) ou baixas (inferiores a 1.300 m/s) não sejam obtidas. Porém, deve-se lembrar que algumas vezes não existem relações entre a velocidade intervalar fornecida por Dix e a velocidade intervalar efetiva do meio – ou seja, o uso de limites deve ser usado com certa cautela, especialmente nas velocidades de empilhamento, em que esta relação pode ser ainda menor. Na etapa de velan para migração, a atenção com variações bruscas de velocidades é feita tanto em um mesmo CDP como lateralmente, sendo geralmente aplicada uma suavização de velocidades. O efeito de ruídos aleatórios no processo de definição de velocidades é mostrado na fig. 4.11.3. A figura mostra como a presença de ruídos em um conjunto de traços (gather ) CDP (à esquerda na figura, seção sem ruído e com razão sinal/ruído de 6, 3 e 1) afeta a análise de velocidades – velans à direita para gather CDP com diferentes razões sinal/ruído. Costuma-se observar funções velocidades de locais adjacentes, para não gerar variações extremas e definir-se, entre mais de uma opção, qual evento tem mais consistência geológica. As velocidades são usadas em tempo real para horizontalização dos refletores e para empilhamento de um pequeno trecho da seção (procurando-se reforçar eventos com significado geológico, e não eventos espúrios, como ruídos coerentes). Velocidades maiores que as corretas levam a uma sub-correção – ou seja, o evento fica sub-corrigido nos maiores afastamentos. O oposto ocorre quando velocidades menores que as necessárias são usadas: os eventos são super-corrigidos, gerando o efeito de bastão de hóquei (hockey stick ), também associado a anisotropia e/ou aumento linear da velocidade com a profundidade, que aumentam a velocidade necessária para horizontalização do evento. Como as múltiplas são sub-corrigidas (pois terem velocidades menores que eventos primários), após o empilhamento elas são parcialmente atenuadas. Na prática, no entanto, esta atenuação quase nunca é muito efetiva, pois nos menores offsets a diferença de tempo de trânsito entre eventos múltiplos e primários é freqüentemente 96
desprezível, tornando necessária a utilização de técnicas mais sofisticadas de atenuação de múltiplas, como já discutido.
Fig. 4.11.3 – Efeito de ruído na definição da velocidade: CDP gathers (variando de sem ruído até razão sinal/ruído de 1) com velans correspondentes à direita (extraído de Yilmaz, 2001).
4.12 Definição de mutes internos e externos para empilhamentos total e parcial Silenciamento – tradução rigorosa, mas muito pouco usada do inglês mute – é o cancelamento de faixas (geralmente variáveis em tempo e offsets ) de intervalos de traços, através do desenho de janelas (linhas), aplicados geralmente para cancelamento de ruídos ou definição de faixas de ângulos para empilhamento de angle-stacks . Os mutes mais comuns são o interno – em que trechos dos traços mais próximos (menor afastamento fonte-receptor) são eliminados, geralmente com o objetivo de atenuação de múltiplas ou ground-roll (em terra) – e o externo, usado geralmente para cancelar efeitos de estiramento (stretching , ver próximo item), ondas diretas e superficiais e refrações rasas (em terra). O mute externo também é usado para se aumentar a resolução vertical, retirando o sinal dos maiores offsets , associados a menores freqüências. A fig. 4.12.1 mostra um exemplo do desenho e objetivos da aplicação de mutes interno e externo. 4.13 Empilhamento (stack ) total e parcial Empilhamento (ou stack ) é a soma (ou superposição) de todos os traços de uma família CDP (no caso de stack total). Também comum (principalmente para estudos de AVO) é o empilhamento por grupo de afastamento (próximos, médios e afastados, ou near, mid e far ). Obtendo-se estimativas do ângulo de reflexão (a partir de velocidades médias e offsets ), define-se a linha – variável em tempo e afastamento – ao longo de um CDP correspondente aproximadamente a ângulos determinados (por ex., 20, 120, 200, etc). Empilhando-se as amostras entre duas dessas linhas, obtém-se o angle-stack , que é
97
usado em inversões elásticas. Deve-se registrar que durante a inversão, a amplitude (ou coeficiente de reflexão) considerada como de um ângulo determinado (por ex., 50 ou 150) corresponde, na realidade à soma de todas as amplitudes entre os ângulos mínimo e máximo de cada faixa (por ex., 0 a 100 ou 10 a 200) – ou seja, processos de inversão elástica apresentam também esta premissa. A fig. 4.12.1 mostra um exemplo do desenho das faixas de ângulo, que definem as janelas de cada angle stack .
Fig. 4.12.1 – Esquerda: gather CDP com linhas de mutes interno (azul, para retirada de múltiplas residuais nos offsets próximos) e externo (vermelho, para retirar efeitos de estiramento e eventos espúrios – por ex., reflexões entre 4,1 e 4,2 s – e aumentar resolução da parte rasa na seção empilhada). Direita: linhas de ângulos (20,110, 200, 300, 400 e 500) que definem as faixas de empilhamento parcial por ângulo (angle stacks ) (extraído de PGS, 2006).
Antes do empilhamento, as amostras relativas ao mesmo ponto em subsuperfície são alinhadas horizontalmente pela correção do NMO (normal move-out ), ou sobretempo normal. Após o empilhamento, o traço resultante é localizado no ponto médio do segmento definido pelas posições da fonte e do receptor. O principal objetivo desta etapa é realçar o sinal em relação ao ruído aleatório, com aumento da razão sinal/ruído sendo dado por n 1/2, onde n é o numero de traços do CDP. Relacionado à correção do sobretempo normal é o fenômeno prejudicial do estiramento (stretching ), associado ao aumento real do período (tempo) de um evento, quando comparado ao período do evento antes da correção de NMO. Isto é, a primeira amostra de um pulso será deslocada, pelo estiramento, em um tempo ∆t qualquer. A ultima amostra deste mesmo pulso, no entanto, sofrerá um deslocamento maior (as vezes, significativamente maior, de acordo com o período e velocidade de correção). 98
Assim, ocorre mudança na forma original do pulso, pelas diferenças no deslocamento entre amostras consecutivas em um traço durante a correção de NMO (fig 4.10.10). Um efeito prejudicial do estiramento é uma perda – indireta, por não ser causada pela propagação, mas existente – de altas freqüências. Por isso, algumas vezes é realizado um silenciamento (mute ) externo nos maiores afastamentos (por um percentual máximo de estiramento ou desenho de um mute , como usado no item 4.12), procurandose preservar uma melhor resolução vertical, especialmente na parte rasa. Um problema da técnica CDP é como a variação da amplitude com offset é considerada, pois a amostra resultante tem amplitude corresponde a uma soma (que pode ser vista como uma espécie de média) de diferentes amplitudes, cada um correspondendo a um determinado afastamento. Esta ‘média’ é, naturalmente, diferente da amplitude correta para uma propagação com afastamento nulo. Este fato, que se torna especialmente danoso no caso de ângulos críticos (que devem ser observados e cancelados antes do empilhamento), muitas vezes na prática não é tão grave, porque a refletividade costuma ter uma variação suave com o ângulo de incidência, principalmente nos ângulos mais comuns da sísmica de superfície (até 400). Em relação a este fato, Rosa e Tassini (1990) citam os seguintes problemas potenciais: 1.interfaces com alto contraste de impedância gerando ângulos críticos para offsets relativamente curtos, causando deformação de fase e amplitude, 2.areias saturadas com gás gerando aumento de amplitude com afastamento, alterando o traço empilhado, e 3.como o coeficiente de reflexão geralmente decresce com o ângulo de incidência, a média dos menores coeficientes poderia ser muito pequena; felizmente, esta variação é lenta para os menores offsets , sendo este fato problemático para camadas rasas e/ou afastamentos maiores. Segundo os autores, estas deficiências devem ser consideradas quando se deseja realizar extração de parâmetros elásticos dos dados sísmicos. 4.14 Correção de fator Q (somente amplitude) 4.15 Se necessário, Tratamentos residuais (compensação de fase, tratamentos espectrais e filtro finais) Os filtros mais comuns são os de freqüência, usados para realçar eventos de interesse e/ou atenuar ruídos. São aplicados geralmente de forma variante no tempo. Por exemplo, em tempos menores (ate 1,5 s abaixo da superfície ou fundo do mar), costumase usar um filtro com as altas freqüências mais ‘abertas’ (entre 60 e 90 Hz). Para maiores tempos de propagação, ‘fecha-se’ progressivamente o corta-altas e, às vezes, ‘abre-se’ mais o corta-baixas (por ex, de 2,0 a 4,0 s um filtro 8-40 Hz e de 4,0 a 6,0 s um filtro 6-30 Hz). Com objetivo informativo, alguns filtros (e aplicações) usados no processamento sísmico são mostrados na tab. 4.15.1, extraída de Sheriff (2002) Um processo com base teórica distinta da deconvolução, mas com o mesmo efeito prático, é o chamado branqueamento espectral (spectral whitening ). Como o nome sugere, procura-se tornar o espectro de freqüência aproximadamente plano, aumentandose as menores amplitudes. O maior problema desta técnica é que geralmente os ruídos de alta freqüência são realçados, com pouco (ou muito pouco) sinal de interesse sendo beneficiado – este problema é comum à deconvolução spike , sendo geralmente 99
necessário nos dois casos a aplicação de um filtro corta-altas, o que quase sempre retorna o dado ao conteúdo de freqüência (especialmente as altas) existentes antes da aplicação do branqueamento ou deconvolução. Para atenuar o aumento da amplitude dos ruídos de alta freqüência, costuma-se realizar o balanceamento espectral por janelas de tempo, de foram que nos tempos maiores seja realizada uma menor amplificação das altas freqüências.
Tab. 4.15.1 – Alguns tipos de filtros usados na geofísica e suas aplicações (extraído de Sheriff, 2002).
Existem alguns métodos para atenuação de ruídos aleatórios, o mais importante sendo (após o empilhamento) o chamado decon f-x (que nada tem a ver com deconvolução). Esta técnica também é a base para a interpolação f-x . Extremamente útil e poderoso, e bastante robusto (desde que o dado seja de fase zero), é um processo desenvolvido em 1975 na Petrobras por José Tassini e Francisco Evangelista (segundo Duarte, 2003), chamado deconvolução iterativa (iterdec ). O método, explicado em detalhe em Rosa (2002) e Duarte (2003, que o chama ‘deconvolução recursiva’) parte da premissa que o sinal possui fase zero e a função refletividade é branca (ou seja, é totalmente aleatória). Como o sinal é considerado de fase zero, os máximos e mínimos do traço sísmico podem ser considerados como uma primeira aproximação da função refletividade. Estes máximos e mínimos são convolvidos com uma assinatura estimada, gerando um traço sintético que é subtraído do traço original, gerando um resíduo. Este resíduo é incorporado à primeira função refletividade, gerando uma nova função, que será convolvida e novamente comparada com o traço real, até obter-se um erro mínimo.
100
Recentemente, este método foi revisto e bastante melhorado, aumentando-se o numero de iterações usadas, entre outros procedimentos (Rosa et al ., 2004), conseguindo–se uma extrapolação para as altas freqüências tão boa que se tornou necessária uma interpolação espacial (entre traços e linhas) para se evitar o alias espacial. Esta nova versão do iterdec tem sido chamada de ‘iterdec turbinado’, ‘iterdec C++’ e ‘segunda geração do iterdec’. A premissa fundamental do método (de que o dado seja de fase zero) continua necessária.
101
5 – NOÇÕES DE INTERPRETAÇÃO SÍSMICA Antes de se interpretar um dado, é importante observar parâmetros de processamento e a seqüência de aquisição, para avaliar a necessidade e/ou possíveis ganhos de um novo programa sísmico e/ou reprocessamento. Como regra geral, no caso de dados adquiridos há mais de cinco anos e/ou processados há mais de dois anos, deve-se sempre considerar a necessidade de nova aquisição e/ou processamento. O uso de sísmica 3D talvez seja, na prática, a técnica mais eficiente e útil, depois do conceito CDP. Após o processamento, as amostras geralmente são equalizadas para apresentação (interpretação), devido a grande diferença de amplitude entre elas. Esta equalização corresponde a um ajuste pela média de uma determinada janela de tempo – naturalmente, uma equalização exagerada pode esconder variações de amplitude importantes, tendo assim que ser realizada com atenção. Os tipos de apresentação mais comuns são wiggle , área variável e densidade variável (fig. 5.1). O primeiro é mais usado no processamento, em que as amplitudes são mostradas de forma continua por uma curva (proporcional aos valores de amplitude). Quase sempre é usada conjuntamente com área variável, em que eventos com mesma amplitude são ‘preenchidos’ com cores – geralmente, é usado um preenchimento das amplitudes positivas com a cor preta, e as amplitudes negativas sem preenchimento. Densidade variável é o mais corriqueiro na interpretação, e usa uma gradação de cores para indicar variações de amplitude – na Petrobras, a escala mais comum é a gradação entre o branco para as amplitudes máximas negativas e preto para as máximas positivas, com os diversos tons de cinza entre estes extremos. Também comum é a gradação vermelha (negativo) / azul (positivo), com as gradações muito coloridas sendo geralmente benéficas para interpretação estrutural, com a desvantagem de cansaço visual se usadas continuamente.
Fig. 5.1 – Tipos de apresentação do dado sísmico: wiggle com área variável (esquerda) e densidade variável com a escala de cinza (mais comum) e azul-branco-vermelho (direita).
102
5.1 Sismograma Sintético Representa o modelo convolucional de um pulso sísmico aplicado em uma função refletividade obtida a partir dos perfis sônico e (quando presente) densidade, como mostrado na fig. 5.1.1. Algumas vezes, o perfil de densidade não é considerado (por não ser confiável ou não estar disponível), mas o efeito desta simplificação é geralmente considerado pequeno por alguns autores (Sheriff, 1992; Rosa, com. verbal).
Fig. 5.1.1 – Geração de sismograma sintético (s t ) a partir do perfil de impedância (I t, que fornece a refletividade r t ), usando o modelo convolucional (eq. 2.5.1) e pulso (sintético ou obtido do próprio dado) (extraído de Rosa, 2002).
A assinatura usada pode ter características similares ao pulso observado nos dados reais ou ser idealizada. Um pulso idealizado geralmente é de fase zero, sendo os mais comuns o tipo Ricker (definido por uma freqüência central dominante), filtro passabanda e Butterworth. A obtenção de um pulso a partir de dados reais, apesar de mais complicada, geralmente fornece melhor correlação entre o sismograma sintético e o dado real. Estes pulsos podem ser obtidos de forma estatística (uma ‘média’ dos pulsos de uma determinada janela temporal e espacial) ou determinísticos (o pulso que fornecer melhor correlação entre o dado real e o sintético). Quando não ocorre uma boa correlação entre o sismograma sintético e os dados reais, além das limitações de qualidade do dado (ruídos, etc), uso de parâmetros incorretos para fatores de propagação no processamento e resolução vertical, deve-se sempre lembrar que a sísmica de superfície amostra uma região espacial definida pela zona de Fresnel – de dezenas de metros – que é muito superior à região em volta do poço imageada pelos perfis. Algumas vezes tem que ser levado em consideração também a dispersão (com velocidades sônica sendo maiores por possuírem maior conteúdo de altas freqüências) e/ou anisotropia (principalmente para poços direcionais). Praticamente todos os pacotes de interpretação possuem um aplicativo para geração de sismograma sintético, que é a primeira etapa na interpretação, pois permite identificar nos dados sísmicos eventos de interesse geológico observados em perfis, testemunhos e amostras laterais.
103
Em poços que não têm perfil sônico – situação relativamente comum em campos terrestres – é possível, sob algumas circunstâncias, gerar-se uma curva sintética. Um aplicativo foi desenvolvido por Freire et al . (1993), relacionando de forma não linear o tempo de trânsito de uma onda compressional com a resistividade, através de cinco constantes que possuem informações sobre propriedades físicas (inclusive elétricas) e seus constituintes sólidos e fluidos. Inicialmente, são usados poços que possuam curvas de resistividade e sônico, para obtenção dos parâmetros das equações, em trechos com lito-resistividade similar. Além dos parâmetros, é obtida uma medida do erro da curva sintética com a real. O método foi usado com sucesso em campos do Recôncavo, mas não funciona em reservatórios com hidrocarbonetos. Outra técnica, apresentada por Souza Jr e Sousa (1993), usa o perfil neutrônico e análises de regressão (Teoria Geral dos Modelos Lineares) no pacote SAS. Os autores citam que a porosidade neutrônica é a variável com melhor correlação com o sônico, vindo a seguir densidade e raios gama. Este método foi comparado com as fórmulas de Gardner e Faust em poços da porção emersa da Bacia Potiguar. Da mesma forma que a técnica de Freire et al ., são individualizadas formações com características similares de perfis, para obtenção de equações e parâmetros de correlação. Os resultados apresentados mostram que tal ferramenta tem grande utilidade, sendo, no entanto necessário, quando ocorre gás, uma análise separada e mais cuidadosa. 5.2 Introdução à interpretação 5.2.1 Introdução As estações de trabalho e programas de interpretação (Landmark, Geoquest, Gocad, Petrel , etc) permitem um mapeamento relativamente rápido de vários eventos, principalmente os associados a fortes contrastes de amplitude (fundo do mar, marco azul, topos e bases de reservatórios turbidíticos, etc). No entanto, o trabalho de interpretação não pode ser somente esta ‘topografia de sub-superfície’, como já foi considerado (às vezes, com razão), a atividade do intérprete. Durante o mapeamento, o geólogo ou geofísico deve ir criando mentalmente a evolução estrutural, sistemas e eixos deposicionais, etc, de forma a entender a evolução geológica, variações de espessura, possíveis rochas geradoras e caminhos de migração do óleo, etc. Mais uma vez, as ferramentas atuais melhoram e tornam mais rápido este trabalho, com recursos de visualização – principalmente tri-dimensionais – que auxiliam bastante o entendimento da geologia atual e dos processos evolutivos de uma área. Naturalmente, o uso dessas ferramentas será tanto melhor quanto maior for a atenção durante o trabalho e conhecimento de geologia do intérprete. No caso de reservatório, a disponibilidade de mais informações de poços é muito positiva – por outro lado, a necessidade de definição detalhada de características das rochas (geralmente, impossível de ser totalmente conseguida, pelas características do método sísmico apresentadas nos capítulos anteriores) faz com que sempre reste muito que fazer. É relativamente comum, ao se interpretarem gerações distintas de levantamentos – principalmente caso 2D – a existência de erros de amarração (mis-ties ) entre eventos observados em diferentes direções (por ex., em linhas paralelas e perpendiculares ao mergulho de uma camada). Estas diferenças podem ser causadas por diferenças em velocidades de processamento, em parâmetros de deconvolução e filtragem, em ajustes de fase, etc. Erros muito severos e constantes podem ser causados por problemas de posicionamento (navegação), especialmente em dados antigos. Outra verificação necessária é em relação à polaridade do dado, nem sempre de fácil constatação;
104
geralmente, usa-se o fundo do mar, mas lobos laterais pronunciados no pulso podem dificultar esta análise. Talvez os maiores problemas da atividade de interpretação sejam o pouco tempo disponível e a experiência necessária, ambos quase sempre insuficientes para o problema que se necessita atacar. Com mais tempo disponível, o geofísico tem mais chance de melhorar o trabalho, vendo com mais detalhe os dados. A experiência auxilia a que isso seja feito usando-se um tempo (muito) menor – no entanto, isto pode ser perigoso. Pode-se afirmar que quanto maior o prazo, melhor o resultado. Como exemplo, vejamos a interpretação por picagem automática – tal procedimento pode ser, a principio, interessante, mas o que não pode ser feito é uma não verificação pelo geofísico dos resultados, através de controle de qualidade, considerações geológicas, análise da qualidade dos dados e dos ruídos, etc. 5.2.2 Sísmica 3D Um levantamento 3D fornece um volume de dados, a partir do qual se podem extrair seções verticais nas direções paralela (in-line ), ortogonal (cross-line , ou x-line ) e aleatória à direção de aquisição e seções horizontais (time-slices ) – existem também os horizon-slices , naturalmente somente após alguma interpretação ter sido realizada. Além de serem mais próximos da realidade que dados 2D, dados 3D permitem uma melhor interpretação, com rastreamento e correlação de falhas e horizontes mais precisa e confiável, além de mais rápida. Os diversos benefícios da técnica 3D – inclusive na relação custo/beneficio – em comparação com 2D para caracterização de reservatórios e interpretação exploratória são extensivamente citados na literatura há pelo menos duas décadas. Time-slices são extremamente úteis na definição de feições estruturais e estratigráficas, indicando fechamentos, domos de sal, etc. São usados também para controle de qualidade da aquisição e do processamento, sendo comum a observação dos traços próximos (near-traces ) para verificação de problemas de navegação e desbalanceamento de amplitudes (causados por problemas de aquisição e/ou processamento) em 3Ds. Exemplo de seção inline¸ crossline e time-slice são mostradas na fig. 5.2.2.1.
Fig. 5.2.2.1 – Seções verticais de um 3D marítimo nas direções paralela ( inline, esquerda) e ortogonal (crossline ) à aquisição e fatia em tempo constante ( time-slice , à direita).
105
A interpretação volumétrica permite – principalmente quando se trabalha com eventos associados a fortes anomalias de amplitude – uma análise relativamente rápida, verdadeiramente tri-dimensional e de relações entre amplitudes e altos estruturais em tempo real. Existem diversas formas e pacotes de interpretação, com uma discussão detalhada estando acima dos objetivos desse curso. O que deve ser registrado é que é necessário um cuidado para que a forma de apresentação não se sobreponha ao conteúdo da interpretação feita, já que é possível – e algumas vezes efetivamente ocorre – que volumes multicoloridos, que atraem a atenção, sejam usados como um fim em si próprio, esquecendo-se o que exatamente estamos tentando realçar, o significado físico das manipulações visuais e as limitações, premissas e incertezas do dado que usamos para chegar àquelas figuras tão bonitas e coloridas. Não existe uma ‘receita de bolo’ rígida que seja a melhor metodologia para interpretação, mas geralmente – após a confecção de sismogramas sintéticos e identificação de níveis (horizontes, marcos, etc) de interesse na sísmica, ocorre uma interpretação em uma malha ‘aberta’, ou seja, não são usadas todas as linhas, para se ter inicialmente uma idéia do ‘geral’ da geologia de uma forma mais rápida. A partir desta análise preliminar, pode-se usar um mapeamento (picking ) automático para agilizar o processo. Geralmente, algumas repetições são necessárias para se conseguir um bom resultado – que, naturalmente, é função da qualidade do dado sísmico e da reflexão sendo mapeada (i.e., eventos associados a altos contrastes de impedância, como fundo do mar, marco azul, topo e base de reservatórios turbidíticos, etc, são melhores candidatos para processos automáticos). Processo similar pode ser usado no mapeamento de falhas, porém o mapeamento automático costuma ser menos eficiente. Atributos geométricos, também discutidos no cap. 6, são os associados – como o nome sugere – a características de forma de um evento (geralmente, horizonte, camada ou plano de falha). Os mais comuns são mergulho e azimute, que são freqüentemente usados para definição de feições estratigráficas e estruturais sutis. Existem vários trabalhos sobre o assunto, a maioria mostrando a necessidade de se procurar extrair, em estações de trabalho, todas as informações possíveis de uma visualização volumétrica de horizontes e atributos, com uso de sombreamento e diferentes ângulos de iluminação e rotação. Como exemplo, Rijks e Jauffred (1991) mostram resultados com a utilização de displays de atributos de horizontes (ou geométricos, como mergulhos e azimutes) para definição de feições estruturais e estratigráficas sutis, com análise separadas de cada atributo, pois o imageamento por um atributo depende da relação geométrica entre o plano de falha e horizonte. Os autores apresentam um exemplo do Mar do Norte mostrando a utilidade e complementação ao se observar dip e azimute (fig. 5.2.2.1). No mesmo artigo, é também exemplificado como a simples mudança na direção de iluminação pode alterar a interpretação realizada (fig. 5.2.2.2), mostrando a importância de se ‘varrer’ todo o dado com diferentes parâmetros de visualização. A iluminação artificial de um evento é usada para evidenciar feições, principalmente as mais sutis. Diferentes sombreamentos, ângulos de iluminação e rotação são testados, observando-se continuamente as superfícies e volumes com o objetivo de melhor entendimento de processos deposicionais e/ou erosionais, possíveis mudanças de fluidos, padrões estruturais, etc.
106
Fig. 5.2.2.1 – Atributos de horizontes (geométricos) dip (esquerda) e azimute, mostrando presença de falhas sutis, não observadas durante a interpretação (extraído de Rijks e Jauffred, 1991).
Fig. 5.2.2.2 – Diferentes ângulos de iluminação (A e B) fornecem diferentes (e complementares) imagens de um plano de falha (extraído de Rijks e Jauffred, 1991).
Já pelo final dos anos 60 alguns geofísicos perceberam reflexões isoladas e mudanças no caráter das seções, que em 1975 foram o inicio do conceito de estratigrafia de seqüências baseada em onlap , offlap e outros padrões morfológicos (Forrest, 2000). Inicialmente, não houve muito crédito nessas idéias, mas à medida que começaram a ocorrer sucessos em poços, elas foram levadas a sério. Algumas reflexões isoladas de altas amplitudes foram chamadas de bright spots , originando a tecnologia usada até hoje (Chopra e Marfurt, 2005). É sabido que alguns artigos de pesquisa (por ex., Churlin e Sergeyev, 1963) já citavam detecção direta de HC através do dado sísmico, mostrando correlação com dados de poços. No inicio, bright spots eram usados com interesse no óleo algumas vezes associado ao gás, com somente mais tarde se percebendo que muitas vezes o óleo não ocorre. Mesmo com essa concepção errada no começo, bright spots impulsionaram bastante o uso da sísmica na exploração de petróleo. O ‘cubo de coerência’ pode ser considerado como estabelecido por Bahorich e Farmer (1995) – apesar de controvérsias judiciais sobre a patente do mesmo, é mais provável que a idéia tenha sido aplicada, da forma como é conhecida hoje em dia, na Amoco. É interessante registrar que o problema que se procurava resolver era o de diferenças entre levantamentos 2D distintos e sobrepostos (Chopra e Marfurt, 2005) – com esse objetivo, pensou-se em atributos o mais independente possíveis do pulso, com o conseqüente uso de uma cross-correlação normalizada. É uma ferramenta muitas vezes útil, especialmente para definição de geometrias estruturais e/ou deposicionais mais sutis, nem sempre claras na sísmica convencional. É baseada em medidas de similaridade e diferenças entre traços (ou grupos de traços) adjacentes, através de time -slices ou superfícies paralelas ou coincidentes com 107
horizontes interpretados. Uma característica interessante é que as feições estruturais/deposicionais são observáveis sem nenhuma interpretação, o que, além de permitir uma avaliação mais rápida em algumas situações, significa que não existe nenhuma tendência introduzida pelo interprete. Se possível, recomenda-se a observação simultânea (ou seja, com sobreposição) de time-slices de dados sísmicos e cubos de coerência, pois tal procedimento costuma realçar ainda mais o padrão estrutural. Deve ser registrado que, muitas vezes, a contribuição do dado (cubo) de coerência é marginal, principalmente porque quase tudo que esse tipo de dado mostra pode ser observado no dado convencional. No entanto, isso não invalida a necessidade de sempre se gerar um cubo de coerência, mesmo porque tal procedimento é relativamente rápido e simples. Lu et al. (2005) apresentam uma metodologia para obtenção de cubos de coerência que usa estatísticas de ordem superior (momento de 4ª ordem normalizado), diferente da convencional, que estima correlações nas direções inline e crosslines e usa a média geométrica como medida de coerência. Os autores apresentam resultados, em dados reais, com melhorias não muito significativas, mas presentes. É garantido que o aplicativo não é muito demorado. 5.2.3 Horizontalização de eventos e seções Partindo-se da premissa – muitas vezes razoável geologicamente – que o topo de uma camada tenha sido horizontal ao final da deposição, é natural se considerar que se horizontalizando um evento interpretado como correspondente a um topo, pode-se observar a paleogeografia da camada – geralmente, estamos interessados principalmente na base e variações de espessura, associadas a causas deposicionais e/ou estruturais. Este procedimento é simples e rápido, estando disponível na maioria dos pacotes de interpretação. Mais uma vez, devem ser lembradas as premissas, como por ex. possíveis erosões ou quaisquer outros processos pós-deposicionais que tenham afetado a espessura da camada são desconsiderados. Exemplos da utilidade desta técnica são relativamente comuns, sendo dois aqui citados. Rodriguez et al. (1995) realizaram uma interpretação de detalhe em um 3D sobre o campo de Arabaiana (RN) para delimitar a ocorrência de reservatórios de gás profundos (3.700 m). Os autores identificaram na sísmica dois tipos de reservatórios observados em perfis: leques aluviais (de má qualidade) e sistemas fluviais (de qualidade muito melhor), com as feições associadas a sistemas fluviais sendo mais claras em seções horizontalizadas ao nível do topo do reservatório (fig. 5.2.3.1). Rodriguez (2002) mostra um caso com dificuldades na definição do topo, base e níveis internos em um reservatório muito espesso, e o grande auxilio da horizontalização de seções – apesar de ainda permanecer, as incertezas foram razoavelmente reduzidas.
Fig. 5.2.3.1 – Seção sísmica horizontalizada ao nível do topo do reservatório indicando, à direita da falha de Arabaiana, feições de leques aluviais (extraído de Rodriguez et al., 1995).
108
5.3 Conversão tempo-profundidade A conversão de dados de tempo para profundidade é, geralmente, a etapa mais crítica e sujeita a erros da interpretação, infelizmente geralmente impactando a estimativa de reservas. Os dados corretos – e que são usados para amarração e calibração – são, naturalmente, informações de poços, pois fornecem a profundidade verdadeira. Também necessária para verificação de qual evento sísmico (aumento ou decréscimo de impedância acústica, e sua quantificação) é o perfil sônico. Check-shots e/ou VSPs são dados úteis e complementares, pois mostram valores de velocidade para tempos e profundidades de interesse e permitem correção do drift , fenômeno associado à dispersão (diferentes freqüências viajam a diferentes velocidades) que causa uma velocidade superior – para o mesmo pacote sedimentar – nos perfis sônicos que em dados sísmicos. Existem diversas maneiras de se realizar a conversão, com quase todas sendo baseadas em uma espécie de interpolação das informações de poços. Costuma-se usar nesta interpolação velocidades de processamento – apesar dos erros do uso deste tipo de informação, como citado no item 4.8. Na Petrobras, um aplicativo desenvolvido pelo geólogo Fouad Gosh e geofísicos Carlos Eduardo Pontes e Paulo Camargo, obtém velocidades médias (V M) entre a superfície e o nível de interesse, a partir de velocidades intervalares calculadas aplicandose Dix em velocidades de processamento (empilhamento, ou, mais comumente, de migração). As V M são ajustadas nos poços por operações de gridagem. Praticamente todos os métodos que usam raio-vertical trabalham de forma similar, com as maiores diferenças sendo em como o ajuste entre V M de processamento e correta (a partir de poços) é realizado e como a distribuição das diferenças (ajustes, ou erros) entre velocidades de processamento e de poços é realizada (com o uso de geoestatística sendo bastante comum e recomendado, geralmente usando informações de poços como variável hard ). Um exemplo é o trabalho de Journel et al. (1992), que apresentam a geoestatística como ferramenta útil para integração de diversos tios de dados, como por ex., sísmica 3D com poços. Os autores classificam as informações como primárias (hard , de poços) e secundárias (softs , da sísmica), com dois algoritmos para tratamento dos dados: interpolação, que gera somente uma resposta, e estocásticos (ou simulação), que permitem múltiplas realizações. Os autores, analisando um reservatório situado sobre um domo de sal no Golfo do México, testaram diferente métodos para conversão, a partir da leitura do tempo sísmico da camada e dos valores de profundidade dos horizontes geológicos correspondentes. Os métodos usados foram krigagem ordinária, krigagem com deriva externa, collocated cokriging e simulação condicional com collocated cokriging , sendo que o terceiro apresentou melhores resultados. Moinard (1987) também apresenta um caso de utilização de krigagem para conversão no mapeamento de um recife no norte do Texas. Hwang e McCorkindale (1994) reportam o uso de geoestatística para conversão, como krigagem, krigagem com deriva externa e simulação condicional sendo avaliados, no campo de Troll (Noruega). Outra forma – que na verdade pode ser considerada uma pequena variação da idéia acima, e que algumas vezes é usada na exploração – é o método de isópacas. Nesta técnica, isópacas em tempo sísmico são convertidas para espessura através de velocidades intervalares, geralmente obtidas por perfis (e, mais raramente, por Dix). Figueiredo e Rambo (1994) compararam este método com o de Gosh-Pontes-Camargo, reportando que o segundo se mostrou relativamente acurado, com erros nas estimativas de profundidade de 44 m em um poço e 100 m em outro.
109
Devido à incerteza – maior ou menor, mas sempre presente – de qualquer método de conversão, a realização de análises de incerteza é sempre recomendável. Na prática, muitas vezes a falta de tempo não permite tal exercício. Quando realizada, uma forma popular é Monte Carlo. Como exemplo – nada recente, mostrando a importância do assunto – da Petrobras, Freitas e Souza (1992) usaram esta técnica para analisar a sensibilidade que mudanças nas velocidades intervalares causam na conversão em uma acumulação do Mar do Norte. O produto são diversos mapas de profundidade e a correspondente probabilidade (grau de ocorrência possível) associada. Atualmente, em estudos de reservatório procuram-se avaliar três cenários (P10, P50 e P90), principalmente para robustez de um determinado projeto. Um exemplo de como valores de velocidades podem determinar a forma de um mapa em profundidade, na fig. 5.3.1 é apresentado um mapa do topo do arenito Namorado no campo de Albacora. Em tempo (esquerda), ocorre um fechamento estrutural secundário na parte oeste do reservatório, mas em profundidade (direita) este fechamento desaparece. A causa deste pull-up – o aumento da lamina d’água (meio que tem baixa velocidade, ‘aumentando’ o tempo de reflexão) para leste – é relativamente comum, devendo ser observada com atenção em dados marítimos.
Fig. 5.3.1 – Mapas em tempo (esq.) – com falso fechamento estrutural secundário a oeste – e em profundidade (dir.) do topo do arenito Namorado do campo de Albacora.
5.4 Inversão Este item poderia ter sido incluído no cap. 4 (processamento), mas como processos de inversão – apesar de realizados pelos grupos de processamento – requer um envolvimento continuo e o mais detalhado possível do intérprete. A inversão pode ser definida como a operação inversa da aquisição, procurandose basicamente a obtenção da função refletividade, que indica variações de impedância. Procuram-se corrigir fatores de propagação e aquisição, extrair velocidades intervalares e converter a função refletividade em uma estimativa válida de parâmetros elásticos. A partir dos valores de impedância de uma camada e da série de refletividade, obtêm-se, 110
recursivamente estimativas de impedâncias para camadas subseqüentes (geralmente, abaixo da primeira). A fig. 5.4.1 mostra de forma simplificada como funciona a modelagem (processo ‘direto’) e o que se obtém com processos de inversão. Processos de inversão sísmica pretendem, basicamente, extrair informações de refletividade a partir do dado, já que a refletividade pode indicar características dos fluidos e/ou rochas de sub-superfície. Existem alguns livros (e.g., Lindseth (1982)) e centenas de artigos (por ex., Lavergne (1975), Lindseth (1979), Oldenbur et al. (1983), Cooke e Schneider (1983)) sobre o tema, com alguns sendo apresentados e comentados aqui, após uma breve explicação sobre o assunto e noções sobre alguns métodos. Um dos pioneiros foi o de Kunetz (1963). Para uma boa inversão, é desejável que o dado sísmico tenha uma alta razão sinal/ruído e o maior espectro de freqüências possível. Durante o processamento, deve-se sempre que possível preferir procedimentos determinísticos em vez de estatísticos, e algumas etapas como mutes , estáticas e velocidades devem ser tratadas com grande cuidado. Também se devem procurar amplitudes verdadeiras, o que sugere o uso de migração Kirchhoff. Em resumo, deve-se procurar fazer o que Hall (1990) chamou de “properly processing ”. Entre as vantagens teóricas, está a possibilidade de se obter estimativas quantitativas da distribuição de alguns parâmetros petrofísicos – na prática, análises quantitativas geralmente não são confiáveis, por diversas razoes, com alguns autores (por ex., Rosa, 2002) considerando que esta vantagem não ocorre na prática. Outra vantagem é o uso de informações não sísmicas (poços, geologia) para obtenção do resultado. Em tese, a inversão é um processo simples, com a premissa principal de que o traço pode ser representado por um processo de convolução (eq. 2.5.1). Na prática, sempre permanece um ruído no dado e o pulso (wavelet ) estimado nunca é o efetivamente propagado. Pode-se usar um pulso constante em uma janela (temporal e lateral) limitada para minimizar efeitos da não-estacionaridade. Geralmente, a escolha do melhor modelo envolve uma minimização de erros (ou diferenças) entre o dado real (registrado) e um dado sintético gerado a partir de um modelo geológico. Uma maneira popular de fazer esta minimização é por mínimos quadrados. No geral, pode-se considerar que processos de inversão são instáveis, por isso sempre se procura na prática usar métodos e dados que diminua o máximo possível esta instabilidade. Talvez o maior problema seja a não-unicidade, ou seja, um dado pode ser ajustado a diferentes modelos – assim, a escolha do modelo mais apropriado envolve o conhecimento da teoria dos processos de propagação de ondas, tratamento de sinal, petrofísica, inversão propriamente dita e de interpretação geológicas. Uma inversão correta necessitaria de um espectro de freqüências completo. Já foi dito que a sísmica não possui os componentes de altas freqüências (acima de 80 a 100 Hz) devido à inelasticidade e/ou reverberações e de baixas (ou muito baixa, inferiores a 3 ou 5 Hz) freqüências por filtragens durante a aquisição e/ou processamento necessárias para atenuação de ruídos de altas amplitudes. A partir disso, existem duas formas principais de se realizar inversão: restringindo-se ao espectro disponível na sísmica ou procurando-se obter as freqüências ausentes de alguma maneira. O primeiro processo honra mais o dado real, mas sofre de pequena resolução vertical e a segunda opção –
111
apesar de mais usada – tem sempre o problema de como se ‘injetar’ freqüências fora da sísmica, com alguns aspectos desse problema sendo discutidos a seguir.
Fig. 5.4.1 – Esquema simplificado (extraído de folder da Jason) de processos de modelagem (acima, em que um modelo geológico é convolvido com um pulso) e de inversão (abaixo), em que informações geológicas são obtidas a partir de dados sísmicos pela deconvolução do pulso.
Uma inversão correta necessitaria de um espectro de freqüências completo. Já foi dito que a sísmica não possui os componentes de altas freqüências (acima de 80 a 100 Hz) devido a inelasticidade e/ou reverberações e de baixas (ou muito baixa, inferiores a 3 ou 5 Hz) freqüências por filtragens durante a aquisição e/ou processamento necessárias para atenuação de ruídos de altas amplitudes. A partir disso, existem duas formas principais de se realizar inversão: restringindo-se ao espectro disponível na sísmica ou procurando-se obter as freqüências ausentes de alguma maneira. O primeiro processo honra mais o dado real, mas sofre de pequena resolução vertical e a segunda opção – apesar de mais usada – tem sempre o problema de como se ‘injetar’ freqüências fora da sísmica, com alguns aspectos desse problema sendo discutidos a seguir. A inversão que usa o próprio dado sísmico de entrada é às vezes chamada de banda limitada, pois o espectro de amplitude (‘banda’) é limitado nas baixas (não foram registradas na aquisição e/ou foram retiradas no processamento) e altas (perdidas por inelasticidade e reverberações) freqüências. As baixas freqüências geralmente são recuperadas de perfis ou de análises de velocidade do processamento. Para as altas, também se podem usar os perfis, porém com mais cuidado, pois os perfis são muito mais ricos em sinal nas altas freqüências, enquanto que no dado sísmico nesta faixa o ruído predomina. Um exemplo de como a ausência de uma faixa de freqüências pode prejudicar um processo de inversão é 112
mostrado na fig. 5.4.2 – no caso, a faixa de 6 a 11 Hz é retirada de um perfil, mostrando como se alternam erros positivos e negativos de velocidade em relação ao correto.
Fig. 5.4.2 – Indicação de como a ausência de baixas freqüências (6 a 11 Hz, no caso) pode afetar a inversão (extraído de Lindseth, 1979).
A inversão sparse-spike procura estimar um conjunto de refletividades esparsas, tendo um forte componente estatístico e requerendo um atento acompanhamento e parametrização (por ex., valores máximos e mínimos de refletividade e amplitudes) dos geofísicos de processamento e do intérprete. A inversão baseada em modelo – como o nome sugere – usa um modelo inicial (geralmente obtido a partir de perfis), que é convolvido com alguns pulsos, até se obter um dado mais próximo do real. Não raramente, o resultado pode ter um aspecto ‘blocado’, ou ‘bolo de noiva’, com a estratigrafia de perfis sendo superestimada entre os poços. Na inversão aplicada após o empilhamento (post-stack ) pretende-se extrair a impedância acústica. Este processo pode ser visto como o inverso da geração de sismogramas sintéticos – na verdade, uma comparação entre os dois métodos pode auxiliar o entendimento do que (e como) se pretende fazer. Um processo de inversão desenvolvido técnicos da Petrobras – principalmente por José Tassini e André Romanelli –, não tem seu uso disseminado como deveria, pois é um processo simples, rápido, barato, robusto, de fácil aplicação e que pode gerar informações muito boas a excelentes. É denominado Sevel (de seção velocidade), gerando dados de pseudo-impedância acústica e sendo realizado em duas fases: a primeira, a deconvolução iterativa, é descrita no cap. 4. A segunda, em que se deseja restabelecer as baixas freqüências inexistentes nos dados sísmicos, usa informações das análises de velocidade do processamento e/ou perfis de poços. Apesar de disponível há duas décadas, e recomendado – inclusive com exemplos reais, alguns com significativo impacto econômico (por ex., Freitas et al , 1996) – na caracterização de reservatórios por alguns autores há mais de 10 anos, especialmente em áreas de boa qualidade, ainda é necessário a recomendação que geofísicos, geólogos 113
e gerentes de reservatórios solicitem aos grupos de processamento sísmico a realização deste processo, que deveria ser parte do fluxo padrão de processamento para reservatórios (senão também para a interpretação). Russel e Hampson (1991) comparam três métodos (banda limitada, sparse-spike e baseada em modelo) de inversão pós-empilhamento em dois dados reais e sintéticos. Nos dados sintéticos (sismograma e cunha), sparse-spike funcionou melhor. Nos dados reais (areia com gás e recife), o método de banda limitada teve a variação lateral mais próximo da geologia, porém com pior resolução vertical. Os autores concluem que o banda limitada é mais robusto, apesar de menos preciso. Em maio de 1989 ocorreu um seminário sobre os aspectos práticos de inversão em Berlim, patrocinado pela EAEG (atual EAGE). Dados sísmicos (após empilhamento) e perfis foram fornecidos antecipadamente a algumas companhias (IFP, Western, Statoil, Simon-Geolithic e CGG) interessadas, e os resultados das inversões (acústicas) foram comparados com perfis de poços não fornecidos (testes-cego, ou blind-tests ). Os resultados foram publicados na Revue de l’IFP em 1990, com alguns autores reclamando da qualidade do dado, a não informação de velocidades do processamento e o fornecimento de somente o perfil de impedância (em vez do sônico e densidade separadamente). Na introdução, Grau (1990) define inversão como se encontrar um modelo razoável de subsuperfície que seja compatível com o dado sísmico observado – em outras palavras, estimar parâmetros elásticos em uma solução que se ajuste tanto à sísmica quanto a informações a priori (perfis, estratigrafia, estrutural, etc). Neste conjunto de dados, Hall (1990) limitou-se a usar as altas freqüências recuperáveis durante o processamento, não incorporando informações ‘extras’ (geralmente extraídas de perfis), pois ele considera que ocorrem grandes diferenças entre o modelo e a realidade distante dos poços. As baixas freqüências foram obtidas através de filtragem nos perfis de impedância (com densidades geradas via Gardner), pois velocidades de processamento não foram fornecidas – este método requer o que o autor classifica de necessidade preliminar do uso de interpretação para avaliar Gardner. A inversão em si foi relativamente simples, sendo uma simples translação de coeficientes de reflexão para impedâncias acústicas, normalizadas por dados de perfil. Na mesma publicação, Dequirez e Richard (1990), do IFP, consideram que a ausência de baixas freqüências é bastante prejudicial para fazer uma interpretação geológica. Os autores consideram que os métodos de inversão broadband constrained têm melhor resultado (menor não-unicidade e restauração de interfaces abruptas) usando-se a premissa sparse-spike ou parametrização geológica das camadas. O sparse- spike pode ser visto como se obter a menor soma dos valores absolutos de coeficientes de reflexão em função do tempo. Uma premissa básica é que a refletividade é composta de uma série de eventos maiores sobrepostos em um background de eventos com menor amplitude. A parametrização geológica, como o nome sugere, significa usar inicialmente um modelo a partir de perfis de poços e horizontes interpretados sismicamente. Wagner et al. (2006) mostram como a ausência de baixas freqüências em dados streamer produz artefatos no resultado de inversão acústica, em comparação com dados OBC (que são mais ricos em amplitudes na faixa 2,5 a 8 Hz), no campo de Foinaven (Mar do Norte). Analisando os dois tipos de levantamentos de 1995 e 1998, eles também observam como a ausência das baixas freqüências afeta o possível monitoramento. Para a análise 4D foi usado um modelo que considera saturações uniformes quando estas são altas ou elevadas e não uniformes em saturações intermediarias, que mostrou que a previsão de SGÁS é mais confiável e realista usando OBC. 114
Contreras et al (2005) apresentam o resultado da aplicação de um método de inversão estatística (Markov-Chain Monte Carlo) em campo de águas profundas no GOM (porosidade superior a 30%, permeabilidade variando entre 100 a 4000 mD) em que IP e IS diferenciam folhelho e areia e fluido. A técnica de inversão usa uma ‘restrição de variograma geoestatisticamente correto’ para contornar alguns problemas com métodos estatísticos tradicionais. Esta técnica é desenhada para fazer os residuais variarem dentro da faixa estatística definida pela estimativa do usuário da quantidade relativa de ruído no dado. O método honra perfis e angle-stacks , usa critério consistente estatisticamente para ajuste sem variações espaciais não-realistas e permite a obediência explicita de correlações estatísticas entre propriedades petrofísicas e elásticas. Duas premissas: a sísmica tem que detectar espessura de litologias e unidades de fluxo e tem que existir uma correlação entre propriedades petrofísicas e elásticas que permitam diferenciação de φ, SW e litologia. Saltzer et al . (2005) apresentam resultados (em um turbidito 1 km abaixo do fundo do mar em águas profundas na costa oeste da África) de inversão em duas etapas: a primeira uma inversão ‘convencional’ para obtenção de IP e IS e a segunda uma ‘inversão litológica’, baseada, segundo os autores, na física de propagação de ondas em meio poroso – na verdade, o modelo de Xu e White (1995). Na segunda etapa, é necessário a compliances e densidades da areia e minerais de argila, com a rocha teórica sendo obtida por VSH. A seguir, uma teoria de meios efetivos é usada para calcular o efeito de poros de areia e argila nos módulos bulk e de cisalhamento. Finalmente, Gassmann fornece o módulo bulk da rocha saturada com fluido. No entanto, é necessária uma calibração dos parâmetros petrofísicas (propriedades dos grãos e aspect ratio ) antes da inversão, através de ajustes entre valores teóricos obtidos via modelagem (usando valores de parâmetros que se consideram próximos aos corretos) com perfis sônico e densidade. 5.4 Tópicos Adicionais Devido à dificuldade e importância de se conhecer o comportamento da geopressão abaixo do sal, existe um consórcio de indústrias – sob coordenação e execução da Knowledge Systems , de Houston – para desenvolver melhores metodologias na predição de pressão e examinar métodos de melhorar imageamento. Usando dados com streamer de até 10 km e informações de 50 poços, o projeto pretende auxiliar também na perfuração. Martini et al. (2005) apresentam um estudo – via modelagem de dados sintéticos para imageamento de reservatório dentro e abaixo de rochas vulcânicas, usando integração de sísmica, perfis, gravimetria e observações geológicas. Particularmente interessante é que os autores consideram que interfaces do basalto têm comportamento fractal, e a partir disso ‘recuperam’ (ou criam) altas freqüências espaciais na sísmica por repetição do padrão existente nas baixas freqüências. De acordo com Chopra e Marfurt (2005), a origem da decomposição espectral também ocorreu na Amoco – o que mostra que, aparentemente, uma cia de óleo brilhante no desenvolvimento de ferramentas sísmicas pode não ter muito sucesso no seu core bussiness... Segundo esses autores, o uso de transformadas de Fourier em janelas curtas por um geofísico gerou imagens “atraentes” de recifes pobremente resolvidos. Desenvolvimentos posteriores levaram a criação de um fluxo de processamento relativamente simples, mas algumas vezes com auxilio significativo na interpretação de feições, principalmente as deposicionais. O trabalho pioneiro em decomposição espectral 115
pode ser considerado o de Partyka et al. (1999). Uma forma alternativa (mas tanto teórica quanto praticamente parecida) ao uso de Fourier é a transformada de pulso, apresentada por alguns autores, como por ex. Castagna et al. (2003). O conceito de ‘impedância elástica’ foi estabelecido por Connolly (1999), considerando que a maneira usada para se obter impedâncias acústicas pode ser usado para ângulos de incidência não-normais. Alguns autores (por ex., Rosa, 2002) não apreciam o conceito, mas este termo – bem como a ‘inversão elástica’ – fazem parte do cotidiano do intérprete atualmente, ainda que usados, rigorosamente, de forma incorreta, ou nem sejam apropriados. O reconhecimento de padrões por técnicas matemáticas (por ex., redes neurais) e/ou por multi-atributos combinados também tem seu valor, devendo ser testado, se possível, existindo diversos exemplos na literatura. Outra forma é pela forma do traço, em que formas determinadas do traço são associadas – geralmente de uma maneira estatística – à litologias e/ou fácies e/ou fluidos.
116
6 – INTRODUÇÃO À CARACTERIZAÇÃO DE RESERVATÓRIOS Neste capítulo, será discutido como a sísmica pode auxiliar na confecção de modelos geológicos mais realistas. A idéia básica é que a sísmica amostra de uma forma regular todo o reservatório, e que esta amostragem continua e completa – apesar da baixa amostragem vertical, quando comparada com os perfis – deve ser usada na definição de variações de propriedades petrofísicas (φ, SW, NTG, κ ) entre os poços. Quase sempre, atributos sísmicos são usados para este objetivo. Devido a sua importância, é realizada a seguir uma discussão sobre o tema, já que na prática talvez todos os produtos da sísmica possam ser classificados como atributos. Chopra e Marfurt (2005) apresentam um interessante histórico do desenvolvimento e uso de atributos sísmicos. Definem atributos como “uma medida quantitativa de uma característica sísmica de interesse”, afirmam que são usados desde os anos 30 (pois consideram o tempo de trânsito como atributo) e creditam a existência de mais de 50 atributos hoje em dia. Associam a evolução dos atributos aos avanços da tecnologia de computadores, citando como exemplos o aparecimento do registro digital na década de 60 (o que permitiu melhores medidas de amplitudes e conseqüente correlação entre bright spots e ocorrências de HC), a disponibilidade de plots coloridos no inicio dos 70 (facilitando o uso de atributos complexos) e, finalmente, as estações de interpretação nos anos 80. Lembrando que o objetivo da sísmica de reservatório é a caracterização estática e dinâmica de reservatórios, os autores consideram que um bom atributo é direta ou indiretamente sensível à feição geológica ou propriedade do reservatório de interesse. Consideram também que a identificação de feições é feita na maior parte das vezes por comparação do que se vê com exemplos na base de dados mentais – também por isso, pode-se considerar a interpretação parte ciência, parte arte (o mesmo tem sido dito para o processamento). Em relação ao uso prático, os autores recomendam que cada atributo seja usado para somente um tipo de propriedade petrofísica ou característica geológica, para combinação posterior (através de geoestatística ou outra ferramenta). Em relação à definição, eles consideram que qualquer quantidade derivada do dado sísmico é atributo, logo incluem velocidade intervalar, inversões, predição de pressão de poros, terminações de reflexões, atributos complexos e AVO, entre outros – como se vê, praticamente tudo que se pode extrair da sísmica. Entre as classificações existentes, cita-se uma que separa os geométricos (mergulho, azimute, continuidade, etc) e físicos (amplitude, fase e freqüência). Os atributos mais usados são o tempo de trânsito, velocidade e amplitude. Tal como vistos hoje, pode-se considerar que os atributos nasceram no final da década de 60, a partir de trabalhos de Nigel Anstey (inicialmente interessado no uso de cores para distinguir feições em dados sísmicos), procurando mostrar qualquer informação que auxiliasse na interpretação, como velocidade intervalar ou conteúdo de freqüência, por exemplo. O trabalho dele foi mostrado no congresso da SEG em 73 (Anstey, 1973), mas o alto custo de plots coloridos retirou muito do interesse dos resultados, que foram muito bons. Como exemplo, o uso (hoje rotineiro) de densidade variável (também chamada de intensidade variável) teve Anstey e seu grupo como pioneiros. Chopra e Marfurt (2005) reportam que, a partir das idéias de Anstey, Taner e Koehler consideraram que a forma da onda registrada em geofones (que são sensíveis à velocidade de partículas) seria proporcional à energia cinética. A extensão natural foi a associação com a energia potencial, com a resultante sendo a energia do traço – o que 117
chamamos hoje em dia de envelope. Norman Neidell, que trabalhava com eles, sugeriu o uso da transformada de Hilbert para se conseguir o mesmo resultado – neste momento, nasceram os atributos complexos, e com eles uma polêmica que deve estar longe de acabar. Já em 1975 (segundo Chopra e Marfurt, 2005), três dos principais atributos complexos – usados até hoje, seja na forma como definidos originalmente ou com pequenas variações – estavam definidos: o envelope instantâneo (reflection strength ), a fase instantânea e a freqüência instantânea. O envelope realça as anomalias de amplitude (por envolver soma de quadrados), sendo muitas vezes o atributo instantâneo mais estável. A fase algumas (ou muitas) vezes mostra continuidade de eventos de uma forma melhor que a amplitude – por isso, é muitas vezes considerado o atributo complexo mais útil e importante, por ser o mais independente da amplitude, fornecendo assim uma informação adicional. A freqüência talvez seja o menos útil, indicando (em tese, mas com pouca utilidade prática, geralmente), atenuações (absorção) muito fortes – associadas, por ex., a gás – e afinamento de camadas. Em 1976 Taner mostrou os atributos complexos no congresso da SEG – vemos assim que os atributos complexos são contemporâneos da sismoestratigrafia (que, aliás, usava com certa freqüência atributos complexos em interpretações). Segundo Taner (in Chopra e Marfurt, 2005), o próprio Peter Vail disse, ao ver uma seção de fase instantânea, que “aquele tipo de seção era o que ele gostaria de ter para interpretação estratigráfica”. A disseminação de atributos complexos começou com o trabalho de Taner et al (1979), que sugeriram que o traço sísmico convencional pode ser visto como o componente real de um traço complexo, com o traço complexo podendo ser considerado um vetor. Geralmente, o componente imaginário do traço complexo é obtido a partir da parte real do próprio traço complexo (isto é, o traço sísmico) através de uma rotação de fase de 900 – por isto, o traço imaginário algumas vezes é chamado de quadratura. No entanto, o traço imaginário só corresponde exatamente à rotação de 900 do traço real caso este seja de fase zero. Sendo rigorosos, é necessário usar a transformada de Hilbert para obter o traço imaginário – entretanto, na prática isto quase nunca é realizado, mesmo porque a maior parte dos dados sísmicos estão (ou, melhor dizendo, são considerados como) próximos de fase zero após o processamento. A idéia da existência de um traço real e outro imaginário (fig. 6.1) permite a separação de algumas informações envolvendo amplitude e fase de um número complexo – com o termo fase aqui não devendo ser confundido com a fase de um sinal como descrito no item 2.1. Uma grande discussão – ainda não concluída – sobre o significado físico do traço não impede (geralmente!) o uso de atributos complexos. Os atributos complexos mais comuns e importantes são: 1. Intensidade de reflexão (reflection strength ) – também chamada de envelope, é a raiz quadrada da soma dos quadrados das amplitudes dos traços real e imaginário, representando a quantidade total de energia em um instante qualquer, ou o módulo instantâneo do traço complexo. Pode indicar limites de seqüências sísmicas e mudanças deposicionais abruptas, geralmente realçando anomalias de amplitude. 2. Fase instantânea – é o ângulo, para cada amostra, entre os componentes real e imaginário, representando a quantidade de energia cinética. Enfatiza a coerência de uma reflexão, sendo muito útil em várias situações para definição de afinamentos, progradações, etc, por ser menos relacionado com a amplitude. Na prática, é usado o coseno da fase, por não apresentar ‘pulos’. É altamente recomendado que seja observado – principalmente na fase inicial da interpretação – algumas seções de (co-seno) da fase, pois ou corrobora a interpretação realizada em amplitude, ou fornece – por menos que seja – informações adicionais. Também é útil em algumas situações para extração de 118
atributos a serem correlacionados com propriedades petrofísicas. 3. Freqüência instantânea – derivada em relação ao tempo da fase instantânea. Tem importância secundária, pois não costuma ser uma indicadora muito efetiva de interfaces e possível diminuição do conteúdo de freqüência – reportada com certa regularidade na literatura diminuição do conteúdo de freqüência – reportada com certa regularidade na literatura como indicadores indiretos de hidrocarbonetos. Na prática tem, geralmente, pouca importância. 4. Polaridade aparente – é o sinal (positivo ou negativo) de uma amostra no máximo de intensidade de reflexão. Como estes cálculos eram realizados amostra por amostra, foram chamados atributos instantâneos . Não é difícil imaginar a confusão que estas definições geraram, principalmente o conceito de fase e freqüência dos atributos complexos, que não tem relação com os mesmos conceitos ‘clássicos’, vistos até aqui, relacionados com a propagação de um pulso sísmico.
Fig. 6.1 – Visualização do traço complexo e seus componentes, que são o traço real (ou se ja, o registrado pelo método sísmico) e o imaginário (obtido pela transformada de Hilbert ou quadratura) (extraído de Sheriff, 2002).
Uma tentativa teórica (frustrada na prática em dados reais, segundo White (1991) devido a ruído e interferências) de estabelecer um significado físico a alguns atributos complexos foi realizada por Robertson e Nogami (1984), quando eles observaram que a freqüência instantânea no máximo (pico) de um pulso de fase zero corresponde à freqüência média do espectro de amplitude do pulso. Pela mesma razão, os autores demonstraram que a fase instantânea corresponde à fase verdadeira do pulso (um parâmetro muito difícil de ser obtido no mundo real a partir somente do dado sísmico) nessa posição. Nos anos 80 ocorreu uma proliferação de atributos, estando o co-seno da fase instantânea entre os mais importantes, pois, ao contrário da fase, não apresenta descontinuidade a 1800, o que permite operações como interpolação, suavização e (segundo Chopra e Marfurt, 2005) até migração! Uma introdução interessante foi o conceito de atributos intervalares (ou volumétricos, em comparação com superficiais), definidos geralmente como uma média (ponderada pelo número de amostras ou não) dos valores dos atributos entre topo e base de camadas (reservatórios, geralmente) espessas.
119
Bodine (1984, 1986) introduziu o conceito de atributos respostas (response attributes ). A partir da consideração de que a maior parte da energia do sinal em um traço está concentrada na vizinhança de picos do envelope instantâneo, a fase e freqüência instantânea de um evento seriam descritas de forma mais acurada considerando para eles os valores nesses máximos. Esses atributos – também chamados de atributos do pulso – têm um valor computado em cada máximo do envelope e então assinalado a todo o pulso. Esta idéia, apesar de talvez pouco clara à primeira vista, tem grande potencial, tendo sido usada, entre outros, por Taner (2001) para desenvolver um indicador de camadas pouco espessas e, mais recentemente, um algoritmo de Liner et al . (2004) – o SPICE –, que é aplicado comercialmente. Informações adicionais sobre response attributes estão disponíveis em Robertson e Fisher (1988). Procurando desmistificar – e simplificar – um pouco os atributos complexos, e ao mesmo tempo justificar seu uso, Barnes (1998) faz uma comparação interessante do significado físico (ou falta de) de atributos complexos com a existência de freqüências negativas na transformada de Fourier. Obviamente, as freqüências negativas não têm significado físico nenhum, aparecendo no desenvolvimento matemático da teoria da transformada. No entanto, esta ausência de sentido não impede que Fourier seja usada incontáveis vezes todos os dias no processamento e interpretação de dados sísmicos. Então, para o autor o traço complexo pode ser considerado quase que um truque matemático (que funciona, naturalmente). Ele também considera que o importante do traço complexo é a forma polar, com os traços real e imaginário sendo introduzidos para computação prática de fase e amplitude instantânea. O uso disseminado de estações de trabalho (workstations ) e softs de interpretação sísmica causaram uma rapidez gigantesca no trabalho do intérprete, com um salto de qualidade também significativo, com diferentes escalas de observação (zoom ), uso de cores e possibilidade de cálculos praticamente imediatos de uma grande gama de atributos. Ao mesmo tempo, infelizmente também permitiu algumas vezes uma valorização da forma (apresentações coloridas, especialmente de volumes) sobre o conteúdo. O crossplot (ou plote cruzado, tradução que nunca ‘pegou’), de atributos foi introduzido para mostrar visualmente a relação entre duas a quatro variáveis. É usado principalmente para separar (agrupar) tipos distintos de rochas e/ou fluidos – agrupamento este que usa o fato de que, quase sempre, o que estamos interessados (reservatórios com hidrocarbonetos) são anomalias (inclusive estatísticas). Este tipo de análise é interessante para identificação de quais atributos respondem a determinadas características de rocha e fluido, essenciais à caracterização de reservatórios. Os atributos são bastante enriquecidos quando extraídos também de dados préempilhamento, pois as litologias costumam fornecer refletividades distintas para diferentes ângulos de incidência. Os casos mais comuns e de interesse são distinção entre folhelhos (especialmente os de baixa velocidade) e areias e entre areais com água ou com hidrocarbonetos. Os atributos complexos provavelmente têm potencial a ser desenvolvido, com algumas aplicações talvez ainda a serem descobertas. O significado físico às vezes aparece após aplicações e análises de resultados, e não de uma forma direta – diferente, de, por ex., a amplitude, relacionada diretamente a variações de impedância geralmente associadas a variações de porosidade e/ou fluidos. Para exemplificar o poder da 120
criatividade e experiência, é interessante citar o fato citado por Lindseth (2005), que o geofísico Bem Rummerfeld em 1954, quando os dados eram classificados em termos de caráter e consistência (de uma forma qualitativa, não existindo interpretação como consideramos hoje) à tinta, percebeu – corretamente – que áreas com dados ruins poderiam estar associados a zonas de falhas. Devem existir algumas centenas de trabalhos publicados sobre o uso de atributos complexos, com vários citando a vantagem da fase instantânea. Duff e Mason (1989) sugerem o uso deste atributo para mapeamento, apresentando um caso na Bacia de Gippsland (Austrália?), em que time-slices de fase são comparados com de amplitude. Nelson et al (1991) reportam o uso da fase instantânea para delimitação de contatos de gás, interpretação estrutural e estratigráfica. O uso de poderosas estações de trabalho e programas muito eficientes de visualização algumas vezes não permite perceber a não extração completa de todas as informações presentes na sísmica. Isto porque pode ocorrer a valorização da forma em relação ao conteúdo, pois as estações permitem a obtenção de um sem número de atributos, que podem ser observados em ambientes 3D multicoloridos. Algumas falhas (pit-falls ) de interpretação são causadas quando o geofísico não percebe que atualmente a interpretação tem que ser feita – segundo Brown (2005) – com um balanceamento delicado entre geofísica, geologia e computadores. Uma linha parecida de raciocínio – se bem que mais antiga – teve como reação o adágio ‘quem ve mapa não ve seção’, significando que observar somente um tipo de dado não só não é recomendável como pode ser perigoso. Pode parecer (e deveria ser) óbvio, mas não se pode esquecer em sempre analisar seções verticais ao se observar mapas de amplitudes. Brown (2005) chega a considerar que o ‘caráter’ de uma seção é mais importante que a amplitude para identificar HC em dados sísmicos, o que talvez já seja um exagero, mas de qualquer forma mostra a importância de se ‘varrer’ o dado visualmente, em vez de somente realizar uma interpretação automática, algumas vezes com posterior controle de qualidade (nem sempre eficiente). Ao mesmo tempo, deve-se reconhecer a grande utilidade de operações simples, como a amplitude RMS . Obtida por elevar-se ao quadrado os valores de amplitude, permite que amplitudes superiores à média – mas não muito superiores – sejam realçadas, e tem grande aplicação, tanto teórica quanto prática. Da mesma forma, fatias de horizontes (horizon-slices ) devem sempre ser analisados, como também se deve sempre que possível trabalhar independentemente com amplitudes do topo e da base. Além dos atributos complexos, existem alguns atributos menos ortodoxos. Um exemplo são os chamados polinomiais, disponíveis no pacote Geoquest (Schlumberger). A idéia é que um traço pode ser considerado como um polinômio, com os termos de cada grau do polinômio sendo vistos como atributos. Pode ser traçado um paralelo entre este processo e a transformada de Fourier, em que, em vez de existirem amplitudes associadas a freqüências, as amplitudes estão associadas aos graus do polinômio. Da mesma forma que os atributos complexos, o significado físico dos termos do polinômio pode não ser claro, nem existir relação direta entre, digamos, o termo de 3ª ordem e a porosidade. Por outro lado, pode ser intuitivo esperar que exista alguma correlação entre variações dos traços (que, considera-se, estejam associadas a variações petrofísicas) e mudanças nos termos dos polinômios. Idéia parecida (sem o uso direto de polinômios, no entanto) é associar a ‘forma’ do traço (‘desenhado’ pelo padrão wiggle , fig. 5.1) a variações litológicas e/ou de fluidos – método disponível em alguns softs de interpretação sísmica. 121
Um exemplo quantitativo de extração de porosidade a partir de dados sísmicos invertidos é apresentado por Angeleri e Carpi (1982), usando a eq. de Wyllie rearranjada para φ = (∆t - ∆tma) / (∆tf - ∆tma) – VSH .[ (∆tSH - ∆tma) / (∆tf - ∆tma) ] 6.1 ∆t , ∆t f, ∆t ma e ∆t SH tempo de trânsito para rocha
saturada, fluido, matriz e argila, respectivamente.
A comparação entre as medidas de porosidades de perfis e as obtidas pela sísmica são mostradas na fig. 6.2, e foram boas para arenitos limpos e muito ruins para arenitos com folhelhos, o que não é totalmente surpreendente, pois Wyllie funciona melhor para arenitos limpos. Na Petrobras, Blauth et al . (1994) analisaram o reservatório carbonático do campo de Bonito, verificando por modelagens sísmicas se variações de amplitudes estariam relacionadas a mudanças de porosidade, espessura porosa ou velocidade da camada superior. O objetivo dos autores era obter a capacidade de estocagem de fluído do reservatório. Foi encontrada boa correlação entre amplitudes sísmicas e H.φ (produto entre porosidade e espessura porosa) quando se individualizaram três regiões geográficas distintas. Este é um caso não muito comum, pois mostra resultados com reservatórios carbonáticos, que geralmente têm relações entre atributos sísmicos e parâmetros petrofísicos ainda mais complicadas do que as rochas siliciclásticas. Segundo Chopra et al (2005), carbonatos são 20% das rochas sedimentares, mas tem 60% das reservas. Por outro lado, respondem por 40% da produção, mostrando que são rochas que ainda necessitam um maior aprendizado. Por exemplo, estudos do efeito da saturação na velocidade de carbonatos mostram resultados ambíguos em relação ao uso de Gassmann. Baechle et al. (2005) analisaram 30 amostras de calcário do Mioceno e Cretáceo com porosidades entre 5 e 30% e textura e tipo de poros variados, encontrando tanto aumento quanto diminuição do módulo de cisalhamento, e diferença entre valores medidos e os esperados por Gassman. Ng et al (2005) também observaram que o uso de Gassman fornece variações menores que as observadas, analisando sísmica time-lapse em área com aplicação de solvente e injeção de gás.
Fig. 6.2 – Comparação entre porosidades obtidas por aplicação de Wyllie modificada em dados de inversão (linha cheia) e obtidas por e de perfis (linha tracejada) (extraído de Angeleri e Carpi, 1982).
122
DeLaughter et al. (2005) apresentam um método para comparação de atributos (por ex., amplitudes) de horizontes interpretados em diferentes 3Ds. Segundo os autores, as amplitudes são reescaladas por um método simples, com sentido geofísico e estatisticamente robusto. O método (denominado ‘z-score ’) usa funções características (autovetores para um operador linear em um espaço vetorial cujos vetores são funções, as eingenfunctions ) para transformar os sistemas de coordenadas que assinalam posições e tempo a eventos, medindo quantos desvios-padrão um determinado ponto esta da média. O dado a ser usado tem que ter distribuição unimodal. O artigo compara resultados com os métodos Hi-Lo e RMS (fig. 6.3).
Fig. 6.3 – Comparação de atributos (amplitude, no caso) extraídos de diferentes 3Ds (triângulo branco mostrando área de sobreposição aproximada) re-escalados por três métodos distintos: Hi- Lo (esquerda, marca visível), RMS (no centro, que mostra fortemente o efeito de médias nãonulas) e ‘z-score ’ (direita) (extraído de DeLaughter et al., 2005).
Uma aplicação do uso de atributos e redes neurais na Petrobrás é encontrada em RSI (2002). Como a seqüência aplicada pode servir de guia preliminar para analises semelhantes, aquele relatório será discutido com algum detalhe. Sua leitura é recomendada, com atenção a algumas observações aqui apresentadas. O projeto – 100 km2 de dados sísmicos e perfis de sete poços (um direcional) na vizinhança de Barracuda-Caratinga – teve como objetivo aplicar redes neurais em uma combinação de atributos sísmicos derivados de dados empilhados por faixa de ângulo (angle-stack ) e de dados de impedância acústica e cisalhante (volume de inversão do IFP). Foram gerados sismogramas sintéticos nas condições originais, SOLEO 80% e SW 100%. Os objetivos principais eram: 1) verificar a sensibilidade de atributos sísmicos (e posterior escolha) a mudanças de rochas e fluidos (em rochas reservatórios e não-reservatórios), 2) uso de redes neurais em uma região que inclua diferentes reservatórios e saturações, 3) classificação do dado sísmico em classes litológicas, e 4) calibração dessas classes em um volume de distribuição de fácies. Os atributos selecionados (além das impedâncias) foram envelopes do traço, 2ª derivada da fase, fase da amplitude modulada e impedância acústica relativa, todos extraídos nos angle-stack de 150 e 300. A aplicação não-supervisionada de Kohonen gerou um produto que, segundo os autores, diferenciou claramente classes de tipos de rochas e saturação. A metodologia de classificação da RSI deve ser testada, sendo totalmente diferente da usada em alguns estudos (por ex., Rodriguez (2002)), que procura individualizar no inicio do processo quantas classes (geralmente quatro ou cinco) são necessárias para agrupar os diferentes conjuntos. A RSI, no entanto, inicia o processo usando um grande número de classes (144) e, por inspeção visual, gera posteriormente um número bem menor de conjuntos por junção de várias das classes iniciais. Procedimento similar (também usando Kohonen 123
não-supervisionada) é realizado com perfis (no entanto, o relatório não explicita se foram usadas mais de 100 classes inicialmente também para os perfis). Após as duas classificações, ocorreu uma calibração entre os dois grupos de conjuntos, que gerou 15 classes de fácies (litológicas e/ou fluidos). Os autores consideram que todas as fácies podem ser discriminadas no produto final, mas isto só foi verdadeiro no caso apresentado dentro do reservatório, com os resultados sendo bastante inconclusivos fora desta região. Foram realizadas análises de perfis, com ajustes sendo realizados porque a RSI considerou que os perfis têm baixa penetração (são rasos), sendo suscetíveis a rugosidades do poço. Por isso, usaram a equação de Faust (1951) modificada – a original obtém empiricamente VP como função da profundidade e idade geológica (eq. 2.3.11) –, para correção de VP a partir da resistividade (calibrada nos trechos em que o sônico é confiável) e Gardner (eq. 2.3.10) – também ajustada nos trechos considerados bons – para correção de densidade. As propriedades elásticas dos fluidos (a serem usadas nas modelagens de substituição de fluidos) foram obtidas pelas relações (empíricas e com valores para parâmetros de fluidos válidos para pressão constante, uma premissa que deve ser verificada caso a caso) de Batzle e Wang (1992) (o mais recomendável é que os parâmetros – temperatura, gradiente de pressão de poros, etc. – sejam obtidos por medidas diretas, geralmente existentes). A modelagem da substituição – usando Biot (1956)-Gassman (1951) – mostrou que o fluido do poro tem efeito negligenciável na impedância P nas areias cimentadas, concluindo-se não ser possível à determinação do fluido saturante usando apenas ondas P. A experiência dos técnicos da RSI é que – com poucas exceções – os atributos da transformada de Hilbert, impedância e AVO são os mais úteis para uso em redes neurais. Existem duas maneiras principais para seleção de atributos: 1) extração dos mesmos a partir dos dados sísmicos reais com escolha posterior (visualmente em mapas ou volumes ou por cross-plots com médias de propriedades petrofísicas) dos que mostram correlação com os parâmetros petrofísicos de interesse, ou 2) extração de dados sintéticos modelados variando-se as propriedades petrofísicas que se deseja analisar. A RSI usou a segunda opção, mas com um procedimento muito questionável, pois as modelagens foram realizadas nos ângulos de empilhamento de 50 e 350, mas os atributos foram selecionados nos ângulos de 150 e 300 – com a justificativa que o dado de 50 era ruidoso e 35 0 tinha baixa cobertura, então se usaram os ângulos mais próximos. A questão óbvia que se faz é porque, então, as modelagens não foram feitas com 150 e 300, sendo mais perigosa a premissa de que o comportamento a 50 é similar ao de 150. Foi usado um pulso Ricker 25 Hz, pois análises de AVO mostraram que nem um pulso extraído da sísmica nem um Ormsby (4/8-20/30) forneceu bons resultados. Na etapa de seleção, é importante verificar se não existe dependência (correlação) entre os atributos – a RSI denomina este fase como ‘teste de redundância’. Inicialmente foram usados oito atributos (envelopes do traço, 2ª derivada da fase, fase da amplitude modulada e impedância acústica relativa), obtidos nos cubos de 150 e 300, em uma topologia 8x8 (64 classes) que foi considerada satisfatória. Posteriormente, no entanto, um teste incorporando-se atributos da inversão elástica (sem ter sido verificado se eles tinham correlação com parâmetros petrofísicos) em uma tipologia 12x12 (144 classes) mostrou melhor discriminação de fácies, sendo então utilizada. A RSI considerou os resultados muito bons, mas tal informação, naturalmente, tem que ser corroborada pelos técnicos do ativo. Então, após um longo e complicado (e algumas vezes questionável) trabalho para obtenção de atributos, existem algumas questões: o que fazer com eles? como usá-los na
124
modelagem geológica? serão usados de uma forma quantitativa ou somente qualitativa? como escolhê-los? Obviamente (e infelizmente) não existe uma resposta única para nenhuma dessas questões. O roteiro aqui apresentado é baseado no trabalho de Rodriguez et al (2006b), que apresenta o uso de atributos sísmicos na caracterização geológica no campo de Roncador. Inicialmente, deve ser considerado que naturalmente sempre que possível se prefere o uso de atributos com justificativa teórica clara, coerente, intuitiva e com corroboração empírica. Um exemplo clássico é a amplitude, que foi (e continua sendo) usada no descobrimento e desenvolvimento de diversos campos na empresa, incluindo provavelmente os mais importantes. É um atributo sabidamente associado à variação do tipo fluido e/ou a porosidade, com a exceção mais importante sendo os folhelhos de baixa velocidade presentes no Terciário e Cretáceo das bacias marítimas. Indo agora às referencias, eis o que Sheriff (2002) diz sobre atributos (grifos meus): “A measurement derived from seismic data... because they are based on so few types of measurement, attributes are generally not independent… they sometimes help one to see features, relationships, and patterns that otherwise might not be noticed . Seismic measurements usually involve appreciable uncertainty and do not relate directly to any single geologic property… we still do not understand how to relate most seismic atributes to geologic causes and situations. ”. A partir desta definição, pode-se concluir
que, já que obviamente o dado (sinal) sísmico é um só, qualquer atributo (por mais esotérico que possa parecer) está sempre associado a uma propriedade oriunda de traços sísmicos e que tudo que estamos tentando correlacionar com φ, NTG, etc. são diferentes maneiras de observarmos o mesmo dado – naturalmente, tal conclusão não é inquestionável, mas eu concordo e tenho trabalhado com ela. Outro tema que geralmente causa discussão é a utilização de atributos oriundos da já mencionada decomposição polinomial. A partir da definição de Sheriff, me parece bastante razoável considerar que os termos do polinômio que representa um traço podem ser considerados como atributos, pois sem dúvida os mesmo são “medidas derivadas de dados sísmicos”. Então, a questão passa a ser se o geofísico concorda ou não com o Sheriff. No caso de discordância, recomenda-se uma discussão com o próprio, de preferência o mais rápido possível, pois não se pode saber até quando ele estará vivo e lúcido. Na extração, os atributos para reservatórios muito espessos (acima de 10 amostras) devem ser volumétricos, i.é., representar uma média dos valores entre o topo e a base, e não somente os valores de uma superfície (o topo, geralmente). É recomendado também nestes casos o uso de valores normalizados pela espessura (número de amostras), pois vários atributos podem variar somente pela quantidade de amostras usada – por ex., o número de zero-crossing (quando amplitudes passam de positivas para negativas e vice-versa) é um bom indicativo da heterogeneidade de uma camada, mas naturalmente quanto mais espessa uma camada for, maior a probabilidade de que ocorram zero-crossing . Os atributos devem ser extraídos na maior quantidade de dados sísmicos disponíveis (original, iterdec, resultados de inversões acústicas e elásticas, coerência, decomposição espectral, angle-stacks , etc), e geralmente preferencialmente no domínio do tempo (não em profundidade). Após a extração, atributos podem ser combinados – geralmente, os mais independentes – para a geração de novos atributos, de forma a aumentar a possibilidade da existência de ao menos um atributo que possua correlação com propriedades petrofísicas.
125
Cabe aqui uma observação: as superfícies obtidas da interpretação i nterpretação sísmica devem sempre ser suavizadas antes da conversão tempo-profundidade, com os atributos sendo extraídos após esta suavização. A próxima decisão costuma ser a escolha dos atributos. Após a extração e controle de qualidade, a seleção é realizada analisando os atributos que indicam aproximadamente variações gerais esperadas para alguns parâmetros petrofísicos, a partir do conhecimento dos geocientistas (e algumas vezes também engenheiros) de variações de propriedades petrofísicas do reservatório – por ex., direção de deposição afetando NTG. Deve ser observada uma variação suave do atributo em mapa, ou seja, atributos com comportamento ‘nervoso’ (muita variação em pontos adjacentes) não devem ser usados, pois não tem sentido geológico. A etapa seguinte é a verificação da correlação entre atributos e média de propriedades petrofísicas (aplicativo Rave na Landmark e LPM na Geoquest), a confiabilidade da correlação e do próprio atributo. Esta etapa costuma ser a mais critica, estando sujeita a diferentes problemas, alguns dos quais serão discutidos agora. Inicialmente, a correlação geralmente avaliada é a linear, não sendo consideradas de graus maiores e/ou exponenciais. Uma justificativa intuitiva razoável para este procedimento é pensar que mesmo uma correlação linear já é complicada (e incerta) o suficiente – de qualquer forma, existem provas teóricas desta opção, cuja discussão está além dos objetivos deste curso. Então, a reta que ajusta os pontos definidos pelos pel os valores de atributos e petrofísica muitas vezes tem como primeiro grande problema à pequena quantidade de amostras – isto é, a limitação de informações, causada pelo número geralmente reduzido de poços disponíveis. Este pequeno número pode gerar, além do fato óbvio da pequena amostragem (‘pequena’ podendo ser considerada qualquer valor inferior, Olinto de Souza, com. pessoal, 1995), um questionamento da representatividade que temos da variação, dos limites e da distribuição da propriedade que analisamos. Em outras palavras, o quanto realmente sabemos como e o quanto à (por ex.) porosidade varia no reservatório? Outro problema potencial, este intrínseco à metodologia da prospecção geológica, é uma inevitável tendenciosidade (viés, bias ), ), pois naturalmente a amostragem dos poços tende a ocorrer (salvo pitfalls não não intencionais) sempre nas melhores porções do reservatório. Uma análise deste problema (ele realmente ocorre? violamos premissas estatísticas?) provavelmente envolve discussões estatísticas além do nível neste material, mas é importante que os técnicos envolvidos considerem esta questão, que pode ser importante, mesmo que sendo provavelmente de quantificação extremamente difícil. Analisando-se os valores do coeficiente de correlação, observam-se os atributos que possuem os maiores valores. Verifica-se então novamente em mapa a distribuição desses atributos e se realiza uma análise bastante subjetiva da distribuição dos valores de atributos – por ex., se um elevado coeficiente de correlação não é obtido devido a um ponto que ‘força’ uma distribuição talvez aleatória a ter uma boa correlação, se os atributos e/ou parâmetros petrofísicos não tem uma faixa de variação muito estreita, etc. Talvez o maior problema no uso de atributos na modelagem geológica seja a ocorrência de correlação por puro acaso. Kalkomey (1997), à época na Chevron, escreveu um excelente artigo sobre este assunto, realizando uma análise quantitativa da incerteza associada à escolha do atributo em algumas situações analisando principalmente o coeficiente de correlação. Segundo a autora, além do fato de poucas amostras (o que é intuitivo), também o uso de atributos independentes gera uma maior chance de correlação por acaso. A fig. 6.4 exemplifica este problema para o caso de um coeficiente de correlação de 0,6. Resumindo, é demonstrado que a ocorrência de 126
probabilidade espúria aumenta quando, além de uma baixa correlação, menos poços e/ou mais atributos independentes são usados. O que exatamente significa ‘independente’ no contexto é de difícil avaliação, tanto para os dados de poços quanto para alguns atributos. Em relação aos perfis e testemunhos, os quão independentes costumam ser as fácies observadas? Já para os atributos, como saber, por ex., se o co-seno da fase instantânea é independente do termo de 3ª ordem da decomposição polinomial? No caso pouco provável de se conseguir uma resposta para essas perguntas, restará ainda como mensurar esta dependência. A autora considera que usar um atributo errado (ou seja, com correlação casual) é pior que não usar nenhum – esta conclusão pode levar a uma outra longa (e potencialmente inconclusiva...) discussão. No artigo recomenda-se fortemente que somente atributos com um significado físico sejam considerados – especialmente quando o número de poços é reduzido. red uzido. Tendo sido apresentados alguns alertas que podem induzir alguém a não usar atributos, devem ser pensadas agora quais as alternativas. Uma primeira opção pode ser a confecção de mapas com ‘contorno manual’, como era feito há 15 ou 20 anos atrás, baseados somente em valores de poços e na interpretação de deposição, diagênese, etc feita pelo geólogo – atualmente, tal opção pode ser um pouco complicada, pois, como mostra a fig. 6.5, este tipo de interpretação é extremamente simples quando comparada ao resultado do uso de atributos, e os resultados obtidos (estimado x constatado) são sempre melhores quando atributos são usados. O uso de geoestatística não deve auxiliar muito, devido a poucas amostras geralmente disponíveis.
Fig. 6.4 – Probabilidade de ocorrência de correlação por acaso (eixo vertical, de 0 a 1) de acordo com número de atributos independentes e quantidade de amostras para um coeficiente de correlação de 60% (extraído de Kalkomey, 1997).
Outra opção – talvez mais interessante – seja tentar se diminuir as incertezas. Neste caso, a questão natural é: como fazer isso? Mais uma vez, não existe respostas prontas, mas entre algumas sugestões potencialmente interessantes está uma discussão efetiva, durante a escolha e conseqüente analise dos atributos e suas variações espaciais, que envolva efetivamente geofísicos, geólogos e engenheiros. Tal discussão passa, por ex., na procura de sentido geológico (ambiente deposicional, variações razoáveis de porosidade, VSH, etc) em mapas ou volumes de atributos com alto coeficiente de correlação, no possível significado físico dos mesmos e – sem dúvida mais difícil e demorada, mas com certeza mais efetiva – uma análise de incertezas e sensibilidade.
127
Fig. 6.5 – Comparação entre mapas de porosidade gerados a partir de contorno manual (esquerda) e usando atributos. Observar variação aparentemente mais geológica geo lógica e melhor estimativa (tabela) de porosidade com o uso de atributos.
Já que um número maior de amostras gera maior confiabilidade, uma procura natural é aumentar a quantidade de pontos de regressão (sample size ) na fig. 6.4. Como os poços disponíveis são geralmente em número limitado, uma opção – demorada e infelizmente muitas vezes impraticável –, é um fatiamento do reservatório. Neste caso, uma subdivisão das camadas usando perfis é feita pelo geólogo – esta etapa é a menos complicada e trabalhosa. Os problemas começam quando se procura aplicar esta subdivisão na sísmica, já que geralmente nem todas as interfaces geológicas são visíveis na sísmica convencional como também este processo requer uma conversão tempo x profundidade extremamente precisa (o que raramente existe). Uma proposta ainda mais radical desta opção é a extração de atributos para todas as as amostras entre topo e base de reservatório. Na empresa, esta alternativa de aumentar a quantidade de amostras foi realizada pelo geol. Paulo Paraizo do Cenpes, que deve ser contatado pelos interessados. Em tese, o pacote Petrel também também tem esta facilidade, mas na prática não foi possível realizar uma tentativa no grupo de Roncador em 2004. Um artifício que pode reduzir as chances de correlação por acaso é o uso de redes re des neurais, em que atributos independentes deixam de sê-lo, quanto um ou mais atributos originalmente sem dependência linear se ‘fundem’ em um novo atributo. Na prática, o uso de redes neurais em atributos para caracterização ainda carece de mais exemplos, principalmente numa avaliação quantitativa. Por outro lado, é demonstrável (ao menos pela teoria matemática, Fernando Rodrigues, com. pessoal, 2003) que processos de redes neurais são equivalentes a processos estatísticos. Partindo-se deste raciocínio, pode-se talvez considerar que os vários trabalhos já realizados se usando propriedades estatísticas podem ser, de alguma forma, guias de resultados esperados de processos de redes neurais. O uso de atributos elástico e/ou de d e AVO é sempre útil e recomendável, pois amplia o universo de informações possíveis. Uma questão complicada é a independência dessa classe de informações dos atributos da sísmica convencional (total, ou zero-offset ) e 128
também dos atributos obtidos por inversão elástica dos perfis, já que praticamente todos os métodos de inversão usam informações de perfis, que podem assim de alguma forma interferir nos resultados das inversões elásticas. Uma alternativa para ajuda a escolha de atributos é a realização de modelagem numérica, gerando-se os diversos atributos a partir do dado sintético e verificando-se assim quais atributos tem melhor correlação com petrofísica. Como nada é perfeito, neste caso um grande problema é a realização da modelagem e extração dos atributos (geralmente, demorada e tediosa), além do problema sempre presente em modelagens, que é a confiabilidade que o dado sintético obtido seja próximo do verdadeiro (conteúdo de ruídos, etc). De qualquer forma, essas modelagens devem ser realizadas, se possível. Ainda outra discussão, de aspectos teóricos e práticos importantes, é a existência ou não de relação entre atributos sísmicos e permeabilidade. Este debate, já presente há alguns anos em comunidades dentro e fora da empresa, tem de um lado aqueles que consideram que a passagem da onda no método convencional é insuficiente para detectar respostas e/ou variações de permeabilidade das rochas. Apesar desta idéia ser bastante razoável, os do ‘outro lado’ (nos quais me incluo) argumentam que os fatores que afetam a propagação de onda (heterogeneidades, etc) também afetam indiretamente , de maneira quantitativa e qualitativa, valores e distribuição de permeabilidade. Alguns estudos procuram obter estimativas de permeabilidade a partir de medidas de absorção (inelasticidade) das rochas. McCann (1994), por ex., observou que a relação entre o fator Q e V P varia de acordo com a permeabilidade da rocha (fig. 6.6). Segundo o autor, valores de Q elevados estão associados à menor quantidade de poros preenchidos com fluidos, o que causa uma menor absorção. Uma possível restrição a este trabalho é que – como vários outros que procuram correlacionar amplitude com absorção – são usados indistintamente dados de laboratório (freqüência de MHz) e de VSP (dezenas a 100 Hz), desprezando-se possíveis efeitos de dispersão (variação da velocidade com a freqüência, item 2.7).
Fig. 6.6 – Variação de permeabilidade (área cinzenta com maior permeabilidade) em função da relação entre VP e fator Q (extraído de McCann, 1994).
129
Best (1993), realizando medidas ultra-sônicas (0,8 MHz) em arenitos saturados com água observou uma forte dependência linear entre QP e QS (com QP = 1,63.QS), que QP e QS são inversamente proporcionais à percentagem de minerais intraporos, e que arenitos argilosos e folhelhos arenosos são as rochas com maior absorção. Para este autor, existem pelo menos dois mecanismos de absorção atuando nos reservatórios, com arenitos limpos e folhelhos puros sendo bons transmissores de energia porque a estrutura regular da rocha original estaria mais bem preservada. Arenitos argilosos e folhelhos arenosos, ao contrário, têm maior absorção por esta estrutura estar corrompida. O artigo mostra ainda dados que indicam que a teoria de Biot funciona bem para prever a absorção em arenitos muito permeáveis em uma grande faixa de freqüências, sugerindo que ela pode ser usada diretamente para prever absorção e valores de velocidade nas freqüências sísmicas. Uma análise mais profunda do uso de atributos foi proposta na Petrobras por Rodriguez (2004) na forma de CTO, mas não foi aprovada. O objetivo principal era analisar o uso de atributos sísmicos (ligados à amplitude, traço complexo, inversões elástica e acústica, decomposição espectral e polinomial) para caracterização de reservatórios a partir de correlação dos mesmos com propriedades petrofísicas (incluindo permeabilidade) e aplicação de redes neurais (usando atributos sísmicos) na caracterização de reservatórios. Os produtos esperados eram a obtenção de um modelo geológico mais realista (por se obter correlações entre atributos sísmicos e parâmetros petrofísicos mais confiáveis e melhores – este ganho poderá ocorrer para vários campos de hidrocarbonetos da companhia), uma maior confiabilidade no uso de atributos sísmicos e uma análise detalhada da relação entre permeabilidade e atributos. Na proposta do CTO, colocou-se como histórico que a utilização de atributos sísmicos é pratica corriqueira na industria de petróleo, especialmente na caracterização de reservatórios, onde existe maior número de observações diretas (poços, perfis, testemunhos, etc) para correlação. Os atributos são usados para definir a variação espacial entre poços de parâmetros importantes para o modelo geológico e simulador de fluxo, como porosidade, saturação de água, permeabilidade, NTG, etc. Algumas vezes, ocorrem questionamentos sobre o uso de alguns atributos sem correlação – ao menos aparente – com características das rochas, como atributos de traço complexo (Taner et al ., 1979) e/ou termos de um polinômio que reconstitui o traço sísmico (Rodriguez et al ., 2004). Adicionalmente, é questionada também a validade das correlações obtidas, do ponto de vista da representatividade estatística das mesmas, se valores altos de correlação não são casuais, etc. Outra questão que se propõe seja avaliada é a premissa de usar atributos para caracterização de permeabilidade, devido a questionamentos presentes na literatura de que o principal componente da permeabilidade seria a garganta dos poros, que afetariam muito pouco a propagação de ondas sísmicas. Finalmente, o uso de redes neurais para caracterização, a partir da escolha de atributos, seria testada e analisada. Em resumo e exemplificando, é apresentada a seguir uma síntese do trabalho desenvolvido no ativo de Roncador a partir de 2001, disponível em Rodriguez et al. (2006b). A metodologia pode ser resumidamente descrita como: 1) Interpretação, controle de qualidade, suavização dos horizontes; 2) Extração de atributos (amplitudes, complexos, polinômio) médios/normalizados (no caso de Roncador, correspondem a mais de 20 dados sísmicos (original, iterdec, inversões, testes));
130
3) verificação de correlação linear entre atributos médios e média de propriedades petrofísicas (porosidade, NTG, VSH, permeabilidade) (fig. 6.7); 4) Escolha de atributos via análises tanto dos gráficos de correlação (fig. 6.8) quanto de mapas de atributos (ruídos, coerência geológica) (fig. 6.9), com preferência para atributos ´convencionais´ (por ex., amplitude); 5) Uso dos atributos selecionados, honrando os valores encontrados pelos poços e limitando-se os valores dos atributos aos valores máximos/mínimos constatados em perfis e/ou a quantidades razoáveis (por ex., porosidades inferiores a 40%). Uma análise da tabela da fig. 6.7 mostra que uma propriedade petrofísica (Gross thickness ) praticamente não tem correlação com nenhum atributo, tornando praticamente inviável o uso dos atributos escolhidos para modelagem geológica. Uma possível tentativa seria a criação de ‘novos’ atributos via, por ex., redes neurais. Observa-se também que NTG (2ª coluna) tem elevado coeficiente de correlação com atributos pouco relacionados entre si (response frequency, reflection strength e second derivative ). Neste caso, a escolha será por avaliação das retas de correlação (fig. 6.8) e/ou mapas dos atributos (fig. 6.9).
131
Fig. 6.7 – Exemplo de tabela de coeficiente de correlação linear entre atributos sísmicos (linhas) e propriedades petrofísicas (colunas) do aplicativo LPM (Geoquest) . Cores quentes indicam maior correlação.
Um estudo das retas de correlação é necessariamente subjetivo, envolvendo principalmente bom-senso e experiência. Na fig. 6.8, temos duas excelentes correlações (em torno de 90%), mas ainda assim os atributos não são necessariamente ótimos. Second derivative (acima à esquerda) apresenta uma concentração de pontos com valores praticamente constantes do atributo (em torno de 0,0025) enquanto NTG tem uma variação pelo menos razoável – ou seja, o atributo não conseguiu separar bem valores de NTG em torno de 0,5. O atributo reflection strength (acima à direita) tem o mesmo problema (em menor grau, no entanto) do anterior, e um ponto extremo (RO-55D) que provavelmente aumenta o coeficiente de correlação. Na parte inferior da fig. 6.8 vemos correlação de amplitude (para dois cubos sísmicos distintos) com porosidade, com coeficientes que podem ser considerados bons (superiores a 65%). O exemplo da esquerda tem como desvantagem o agrupamento de pontos entre as amplitudes 50 e 100, o que causaria – caso o atributo fosse usado – uma diferenciação pobre de porosidade nesta faixa de amplitudes. O gráfico inferior à direita talvez seja o melhor caso entre os quatro mostrados na figura, apesar de não ser o maior coeficiente de correlação.
132
Isto porque existe uma distribuição e agrupamento que podem ser considerados bons a muito bons dos valores de atributos com os parâmetros petrofísicos de interesse.
Fig. 6.8 – Alguns exemplos de correlação linear entre atributos sísmicos (abscissa) e propriedades petrofísicas (ordenada) do aplicativo LPM (Geoquest). O gráfico abaixo à direita pode ser considerado como o melhor (poços são círculos vermelhos), pois apesar de não possuir o maior valor de correlação, apresenta distribuição e agrupamento muito bons tanto do atributo amplitude quanto da porosidade. Os círculos vazios são poços não usados na correlação por decisão do geólogo (geralmente, valores de parâmetros petrofísicos não confiáveis).
Uma análise dos mapas dos atributos selecionados costuma ser feita como a última etapa na escolha. A fig. 6.9 mostra dois mapas, sendo nítida a principal diferença entre eles, com o atributo à esquerda mostrando um caráter de forte variação entre celas adjacentes, o que gera um caráter ‘nervoso’ ao atributo, contra-indicando seu uso para modelagens geológicas. O mapa da direita, ao contrário, mostra um comportamento bem mais ‘suave’, com variações mais próximas do que se espera para mudanças de características petrofísicas em reservatórios, geralmente.
133
Fig. 6.9 – Exemplos de mapas a serem avaliados para escolha de atributos. O mapa da esquerda é muito ‘nervoso’, apresentando forte variação em celas adjacentes. À direita, um mapa com variações mais suaves.
Uma opção bastante distinta, e muitas vezes usada, é o uso qualitativo dos atributos, associando – às vezes de uma maneira somente intuitiva – determinado(s) atributo(s) com variações litológicas e/ou de fluidos. Esta opção é especialmente interessante no caso de modelos ‘binários’ (geralmente preliminares), ou seja, quando se esta mais interessado na definição da existência ou não de reservatório, e não em heterogeneidades do mesmo, ou para trabalhos de exploração. Varela e Esteves (1990) observaram que existe correlação entre anomalias de mapas de amplitude do reservatório Eoceno nos campos de Malhado e Corvina e regiões com óleo acumulado, sugerindo que a presença de óleo altera o comportamento acústico do reservatório. Os autores realizaram modelagens petrofísicas com a equação de BiotGeerstma, e os resultados indicaram que a relação é causada pelas propriedades distintas entre óleo e água, não existindo associação entre variações de amplitude e porosidade. Em Corvina, a presença de um pebbly acima do reservatório causava fortes variações nos mapas de amplitude do topo do reservatório, não relacionadas à presença de fluidos. Para a obtenção do mapa de amplitude do topo do reservatório, foi necessária a realização de uma soma entre o mapa de amplitude do pebbly e o do topo do reservatório, retirando-se as influências da camada imediatamente superior, gerando o que foi denominado pelos autores mapa de amplitude compensada . Este procedimento é simples, rápido e seguro, podendo e devendo ser aplicado sempre que se julgue necessário. Informalmente, é denominado ‘inversão de pobre’, pois realiza de uma forma preliminar algo que é objetivo de processos de inversão, que é retirar efeitos de camadas adjacentes. A modelagem geológica em si não será discutida em detalhe neste curso, sendo apresentados somente alguns exemplos e comentários gerais, usando-se principalmente geoestatística. Araktingi et al (1990) apresentam um estudo de extrapolação de propriedades de perfis para dados sísmicos via geoestatística, usando duas linhas 2D e um conjunto de perfis sintéticos e dois métodos para correlação: kriging com deriva externa e cokriging com a hipótese de Markov-Bayes. A comparação entre os métodos indicou que o 134
procedimento de Markov-Bayes fornece uma avaliação mais quantitativa da influência do dado sísmico na distribuição de probabilidade local do que o método da deriva externa, que não é calibrado. Sherwood (1993) cita como uma vantagem da sísmica 3D para uso em geoestatística o tamanho regular da cela. O autor, analisando um reservatório do Terciário do Golfo do México em 15 poços, obteve diversos atributos da sísmica para integração com valores médios de parâmetros petrofísicos, ocorrendo a melhor correlação entre amplitude e porosidade. A integração foi feita por co-krigagem e simulação condicional, gerando um modelo muito detalhado, a partir do qual foi criado um modelo para simulação de reservatórios com menos detalhe. Quando ocorre rápida variação litológica entre areia e folhelho e a faixa de valores de velocidade é comum as duas litologias, Doyen et al (1989) sugerem o método de Monte Carlo (que fornece uma família de alternativas, todas consistentes com os dados) para realizar inferência do tipo de rochas, a partir de poços e sísmica. A quantidade de modelos gerados é função da incerteza da classificação. Os autores analisaram um reservatório composto de areias de canal, atingido por três poços. Os valores de velocidade para o modelo, obtidas a partir das amplitudes sísmicas, estão calibrados com informações de perfis, reproduzindo as seqüências verticais interpretadas nos poços. Doyen (1988) mostra a utilização de co-krigagem para estimar a distribuição areal de porosidade em meio teórico e com dados reais (areias de canais no campo de TaberTurin, Alberta, Canadá). Segundo o autor, a co-krigagem integrou consistentemente dados sísmicos com medidas de porosidade de perfis, fornecendo também estimativas de erro do processo. A vantagem da geoestatística é considerar as funções de autocorrelação e correlação cruzada espacial para modelagem lateral, fornecendo um erro 50% (dados sintéticos) e 20% (dados reais) inferior que o erro de uma regressão de mínimos quadrados. Os resultados obtidos pelos métodos de krigagem, regressão linear e co-krigagem são mostrados na fig. 6.10. de Buyl (1989) considerando que “... o volume de rocha investigado fisicamente por análises de testemunhos e perfis é da ordem de 1 ppb”, e que a sísmica fornece informações imprecisas e interpretações ambíguas mas tem excelente densidade espacial de informações, sugere e utiliza métodos estatísticos e determinísticos para caracterização do reservatório de Taber. Schultz et al (1994) sugerem avaliar a possibilidade de usar atributos sísmicos que não possuam relação obvia com propriedades petrofísicas (por ex., freqüência instantânea) para se obter estimativas de valores de perfis usando ferramentas estatísticas para verificar se existe algum tipo de correlação; existindo correlação, são geradas funções de calibração e correções residuais. No caso desenvolvido pelos autores, as funções de calibração são não lineares e geradas por redes neurais.
135
Fig. 6.10 – Comparação entre métodos de krigagem (acima à esquerda), regressão linear (esquerda) e co-krigagem (acima) para se obter distribuição areal de porosidade a partir de perfis e dados sísmicos. Co-krigagem obteve os melhores resultados em um modelo sintético (extraído de Doyen, 1988).
Neff (1993) apresenta um estudo interessante sobre correlação entre mapas de amplitude sísmica e características de reservatório mais comuns. Analisando dados de várias bacias em todo o mundo, o autor identificou cinco tipos principais de reservatórios (diferentes contrastes de impedância entre areias e folhelhos encaixantes, clásticos sobre carbonatos porosos e anidrita sobre carbonato poroso), obtendo vários tipos de relações entre diferentes propriedades. O autor concluiu que existem feições de correlação entre amplitude e espessura produtora para uma faixa limitada de espessura do reservatório. Na realidade, amplitudes estão relacionadas à espessura porosa com HC, e não unicamente à porosidade ou espessura. A contribuição da porosidade nesta relação varia para cada modelo. O autor reforça a necessidade de realização de modelagens, principalmente quando se realizam análises de AVO. Aquino (1993) reportou a utilização de dados sísmicos, juntamente com geoestatística, no campo de Corvina (zona Carapebus Eocenico), para estimativa de volume de hidrocarbonetos, como uma ferramenta eficaz. Schmidt e Santos (1995) verificaram a utilização de redes neurais em dados sísmicos sintéticos para caracterização de reservatórios. Estas redes não são programadas, mas treinadas com a apresentação repetida de dados de entrada (atributos sísmicos dos traços coincidentes com poços) e respostas desejadas (informações de perfis). Segundo os autores, uma vantagem deste método é que informações não resolvíveis, mas detectáveis (item 2.8) podem ser avaliados. Shwedersky et al (1995) geraram, para o reservatório Namorado do campo de Albacora, modelos de porosidade por correlação entre propriedades de perfis e seções de pseudo-impedância acústica (SEVEL). Foram usados dois métodos geoestatísticos no pacote Sigmaview (baseado na GSLIB), a krigagem com deriva externa (com informações do SEVEL funcionando como variável regional) e simulação condicional (série de imagens equiprováveis). Este trabalho provavelmente foi pioneiro na Petrobras na utilização de geoestatística com dados sísmicos para obtenção de propriedades petrofísicas e caracterização de reservatórios. 136
137
7 – NOÇÕES DE AVO As amplitudes registradas pelo método sísmico são grandezas relacionadas à quantidade de energia que é refletida nas diversas interfaces ou descontinuidades (que por sua vez estão associadas a topos, bases, contatos de fluidos, falhas, etc) de subsuperfície. Nosso interesse em quantificar a reflexão é porque a partir desta medida se podem inferir propriedades das rochas e de seus fluidos, que é nosso objetivo final. As equações de Zoeppritz, apresentadas no cap. 2, fornecem esses coeficientes de reflexão de interfaces para ondas planas se propagando em meios isotrópicos e homogêneos – mais uma vez, uma aproximação, mas neste caso geralmente não muito problemática. Problema muito maior é que as expressões de Zoeppritz são muito complicadas, tornando quase impossível seu uso para obtenção dos parâmetros petrofísicos de interesse (VP, VS e ρ). Por isso, há pelo menos 40 anos são usadas aproximações para Zoeppritz, estando entre as mais conhecidas as de Bortfeld (1961), Cerveny e Ravindra (1971), Aki e Richards (1980) e Shuey (1985). Estas simplificações (mesmo com algumas sendo confiáveis para ângulos somente ate 300) mostram que quando a razão de Poisson (σ) da camada inferior (considerando o caso mais comum e de maior interesse, que é o campo de onda descendente) é muito menor que da superior, o coeficiente de reflexão r aumenta com o ângulo de incidência θ , gerando um aumento significativo de amplitude com offset (distância fonte-receptor). Deve-se sempre avaliar se as premissas mais importantes dessas aproximações são respeitadas em cada caso, devendo ser registrado principalmente o fato que algumas equações que consideram uma variação pequena de VP, VS e ρ são usadas em modelagens, inversões, etc, que obtêm/impõe elevadas alterações nesses parâmetros – ou seja, às vezes algumas aproximações são usadas mesmo com as premissas dessas aproximações sendo sabidamente violadas. Este fenômeno de forte aumento de amplitude, denominado de AVO ( Amplitude Versus Offset ), é usado com grande freqüência na exploração (para indicação de locais mais favoráveis a existência de HC) e explotação, para definição de limites de ocorrência de rochas-reservatório e fluido.
É importante registrar que o forte decréscimo da razão de Poisson é mais comum em reservatórios com gás, com o efeito de AVO sendo geralmente mais sutil em rochas com óleo. A equação mais comumente usada, por sua relativa simplicidade e robustez, é a de Shuey (1985): r(θ) ≈ A + B.sen2θ + C. (tan2θ - sen2θ) 7.1 que apresenta os conceitos de intercept A e gradiente B , definidos por A = (∆α / αM + ∆ρ / ρM) / 2 ≈ r(00) B = -k.A + (1-k).C + ∆σ(1-σM2) C = (∆α / αM) / 2
com α, ρ e σ sendo VP, densidade e Poisson, os índices respectivamente, e k=(2VS /VP)2. C costuma
M
7.2
indicando média e ∆ diferenças,
ter importância somente para os maiores ângulos (em que senθ seja razoavelmente diferente de tanθ). A e B são denominados atributos de AVO, e bastante usados na forma de gráficos, com a inclinação da reta que melhor ajusta as amplitudes sendo definida por sen2θ - esta reta é chamada de background (‘reta de fundo’), indicando
138
as rochas que possuem variação de amplitude com offset ‘normais’, com os valores que se afastam dela sendo geralmente as anomalias de interesse. (fig. 7.1) Gráficos de A e B também são usados para a criação de ‘classes’ (ou ‘tipos’) de AVO em função da posição dos valores de amplitudes nesses gráficos. Resumidamente e de uma forma bastante genérica , AVOs do tipo 1 estão associados à folhelhos de baixa velocidade, tipo 2 a reservatórios com água, tipo 3 caso clássico de AVO (rocha com hidrocarboneto com aumento de amplitude com offset ) e tipo 4 caso clássico de pit-fall , associado a aumento de AVO em reservatório com água. A fig. 7.1 mostra aproximadamente a divisão entre esses tipos (ou classes), com explicações mais detalhadas desta classificação (incluindo a classe 3,5) disponíveis em Rosa (2002).
Fig. 7.1 – Exemplo de gráfico A vs B mostrando tipos de AVO (extraído de Rosa, 2002).
Entre outras observações das eq. 7.1 e 7.2, constata-se que quando a razão de Poisson do meio inferior for muito menor que a do meio superior, r é inversamente proporcional a θ . Ostrander (1984), em artigo clássico, apresenta teoria, medidas de laboratórios e dados sísmicos reais para concluir que a razão de Poisson tem forte influência nas mudanças do coeficiente de reflexão em função dos ângulos de incidência, e que análises de dados de reflexão no domínio do ponto de tiro ou CDP podem indicar anomalias relacionadas à presença de gás. O autor cita um problema conhecido, da presença de bright spots relacionados a quantidades sub-comerciais de gás, como de difícil solução. As principais conclusões do artigo (com alguns comentários) são: . sedimentos rasos inconsolidados saturados com água salgada tem elevadas razoes de Poisson (deve estar relacionada à baixíssima VS desse material, que é próxima de zero, pois muitas vezes não é realmente um sedimento, mas sim grãos em suspensão (logo, com pouco contato) na água, o que dificulta a propagação de ondas S), . σ é diretamente proporcional à porosidade e inversamente à consolidação, . arenitos muito porosos saturados com água salgada têm altas (0,3 a 0,4) razões de Poisson, e . arenitos muito porosos saturados com gás tem razões de Poisson extremamente baixas (em torno de 0,1). Estas variações ocorrem porque a mudança do fluido altera bastante o módulo volumétrico κ , sem mudar muito o módulo de cisalhamento µ. Assim, VS tem pouca 139
variação, enquanto que VP muda significativamente, de acordo com a eq. 2.3.9, aqui repetida: VS = (µ / ρ)1/2, VP = [(κ +4µ /3)/ ρ]1/2 7.3 O autor usou o modelo simples de uma areia com gás que apresenta VP, ρ e σ bem menores que o folhelho encaixante para analisar a variação de r( θ ) , com o resultado mostrado na fig. 7.2. Observa-se que o coeficiente de reflexão aumenta com o ângulo (e, conseqüentemente, com o afastamento fonte-receptor), gerando maiores amplitudes para maiores offsets , que é o efeito clássico de AVO. É mostrado também na figura que no caso de areia sem gás a refletividade permanece praticamente constante ao longo dos offsets . Fig. 7.2 – Modelo simplificado de areia com gás dentro de camadas de folhelhos (esquerda) e correspondente variação do coeficiente de reflexão em função do ângulo de incidência. Observar diferença na refletividade para o caso de areia sem gás (linha pontilhada) (extraído de Ostrander, 1984).
Um exemplo real do mesmo artigo – e verificado com velocidade e densidade por poço – é um reservatório de arenito (leque de mar bem maiores que do arenito profundo) com net pay de 30 m, 2.000 m de profundidade com gás, gerando a reflexão a e trapa mista (estrutural-estratigráfica), dentro de folhelho 1,75 s da fig. 7.3.
Fig. 7.3 – Anomalia a 1,75 s, causada por arenito com gás dentro de folhelhos. Análise de AVO indicou aumento de amplitude com a distância (extraído de Ostrander, 1984).
Finalmente, o autor cita os principais fatores que afetam a variação de amplitude com a distância, sendo que todos, com exceção óbvia do coeficiente de reflexão, devem ser corrigidos ou cancelados durante o processamento. O mais importante é a correção do espalhamento geométrico.
140
Lembrando que a razão de Poisson (σ) varia geralmente entre 0,5 (materiais incompressíveis, como os líquidos) e 0,0, Muskat e Meres (1940, in Ostrander, 1984), usaram um valor de σ constante para todas as camadas e obtiveram a fig. 7.4, que mostra pouca variação da refletividade para a faixa de ângulos presentes na aquisição de dados sísmicos, o que pode ser visto como um fato teórico que corrobora o uso da técnica CDP.
Fig. 7.4 – Variação da refletividade com ângulo de incidência quando a razão de Poisson (σ) permanece constante (esquerda), diminui (centro) e aumenta. Linhas contínuas se referem a maiores diferenças em σ (extraído de Ostrander, 1984).
Koefod (1955, in Ostrander, 1984) considerou diferentes valores de σ, obtendo a fig. 7.4, onde se pode ver que análises de bright spots podem ser realizadas se considerando mudanças em σ, especialmente para afastamentos longos. Esta idéia (uso de Poisson) é largamente difundida, apesar de Thomsen (1990) considerar que Poisson é totalmente desnecessário para o método sísmico. Entre os efeitos que afetam a amplitudes das reflexões, em algumas situações a curvatura dos refletores também tem que ser considerada, como mostrado na fig 7.5, extraída de Rosa (2002).
Fig. 7.5 – Aumento de amplitude com distância causado por curvatura do refletor (extraído de Rosa, 2002).
Allen e Peddy (1992) apresentam cinco casos de falhas (pit-falls ) de AVO em bright spots no Golfo do México. 1. Efeito da zona de Fresnel – na fig. 7.6 vemos, em 1,5 s, uma forte reflexão que corresponde, no poço da direita, a reservatório com gás. A presença do mesmo evento no poço seco à esquerda é atribuída ao efeito da zona de Fresnel, que afeta, de uma forma ponderada, os sinais registrados dentro dessa zona (item 2.9) – no caso analisado, calculou-se uma contribuição de 30%. Este exemplo mostra 141
cabalmente a necessidade da realização da migração antes do empilhamento, para que as analises do AVO em gathers seja realizada após o colapso da zona de Fresnel – felizmente, hoje em dia a migração antes do empilhamento é efetuada praticamente sempre.
Fig. 7.6 – Análises de AVO sugeriram presença de areia com gás para os dois poços que atravessaram a anomalia Yegua , mas o poço da esquerda é seco. Observa-se claramente efeito de AVO no gather , que está associado ao efeito da zona de Fresnel da areia com gás encontrado pelo poço da direita (extraído de Allen e Peddy, 1992).
2. Areia com água – uma areia espessa com 33% de porosidade, saturada com água, causou um aumento de amplitude com afastamento. Após a perfuração do poço, foram realizadas modelagens com dados de perfis, que mostraram ser verdadeiro o aumento encontrado no dado real. Este tipo de pitfall é extremamente difícil de ser contornado. 3. Linhito – modelagens realizadas antes da perfuração indicaram que uma anomalia em torno de 1,6 s na fig. 7.7 deveria estar associada a areias com gás, mas o poço perfurado indicou que a anomalia era devido à presença de linhito.
Fig. 7.7 – Forte anomalia (também presente em análises de AVO) causada por linhito (extraído de Allen e Peddy, 1992).
4. Areia com gás sem AVO – um poço mostrou a ocorrência de 10 m de areia com gás, sem indicações no dado sísmico (fig. 7.8). Modelagens numéricas a partir de perfis indicavam a existência de anomalia – após alguns testes, foi constatado que o arranjo de receptores usado na aquisição foi o responsável pela forte atenuação do aumento de amplitude (fig. 7.8). Este exemplo real mostra a importância na
142
definição de parâmetros apropriados de aquisição e possíveis efeitos danosos quando isso não ocorre.
Fig. 7.8 – Os dois conjuntos de traços de um CDP à esquerda são de dados reais, não mostrando efeito de AVO em poço que constatou gás. O terceiro CDP mostra dados sintéticos com anomalia de AVO, que desaparece (quarto CDP) ao se considerar efeito do receptor (extraído de Allen e Peddy, 1992).
Na Petrobras, o uso de AVO pode ser considerado amplamente disseminado já há bastante tempo, fazendo parte da cultura dos geofísicos da empresa, usando pacotes tipo Sigeo, Hampson-Russel, etc. Rodriguez (1993) reportou um debate de um dia coordenado por Rogério Santos, no âmbito do antigo Depex (Sede e Distritos) e Cenpes, com alguma teoria e casos práticos sobre o assunto. No evento concluiu-se que existiam vários problemas na utilização do método, com duvidas da confiabilidade na aquisição e processamento do dado e, principalmente, na não-unicidade dos resultados. Tais conclusões são validas até hoje, apesar de naturalmente os progressos na aquisição e processamento terem reduzido as incertezas e aumentado a confiabilidade. Os principais casos históricos apresentados no evento foram: 1) 1-SES-100 – resultado positivo de AVO, pois não houve indicação de aumento de amplitude em uma anomalia gerada por folhelho sobre marga; 2) 1-BAS-82 – resultado negativo, com a mesma geologia do caso acima (folhelho sobre marga) agora criando efeito de AVO; 3) Poço 54 da Foz do Amazonas – uma saturação de gás de apenas 10% causou forte anomalia de AVO. Esta situação – presença mínima e sub-comercial de gás gerando aumento de amplitude com offset – não é incomum, sendo um grande problema prático. Informalmente, é às vezes chamada ‘eno’ ou ‘alka-seltzer’. Mais recentemente, alguns trabalhos mostram uma ligeira melhora na previsão dessas acumulações se usando inversões elásticas – em algumas situações, dados de excelente qualidade tem se mostrado úteis, mas não se pode considerar que este problema já está resolvido. A principal razão deste problema (já observado em 1984 por Ostrander) é que quantidades mínimas de gás causam um decréscimo muito acentuado em VP (fig. 2.3.8). O resultado negativo do poço 54 fez com que uma locação próxima a ele fosse cancelada, devido ao alto risco econômico envolvido.
143
8 – INTRODUÇÃO À SÍSMICA DE POÇO Como dito na introdução, neste curso no tema sísmica de poço não serão considerados perfis convencionais, por este ser assunto de cursos próprios (como por ex., o oferecido na Petrobras pelo geólogo Carlos Beneduzi). Serão apresentadas noções de perfis sísmicos verticais (VSP), tomografia entre poços (tomografia), de uma ferramenta sônica que procura registrar reflexões (em vez das ondas diretas do sônico/dipolar convencional) se afastando bastante a fonte e os receptores (usada principalmente em poços horizontais, é denominada BARS pela Schlumberger) e de seismic while drilling , em que receptores são colocados próximos à broca, com alguns tiros sendo detonados quando ocorre uma breve interrupção na perfuração para colocação de colunas. A denominação ‘sísmica de poço’ significa a aquisição de informações usando-se um (ou mais) poço(s) para colocação de receptores (situação mais comum, sendo também possível o uso de fontes nos poços). A principal vantagem em relação à sísmica de superfície é a presença de um maior conteúdo de altas freqüências, fornecendo geralmente uma resolução vertical bastante superior à sísmica convencional (de superfície). A principal desvantagem (alem da óbvia, que é a necessidade da existência de um poço) é que as informações obtidas são, apesar de bem detalhadas, restritas a uma região significativamente menor que a amostrada pela sísmica de superfície. 8.1 Check-shots Tiros de controle (check-shots ) fornecem o tempo de trânsito para níveis geológicos e são usados em confecção de sismogramas sintéticos e identificação no dado sísmico de interfaces entre camadas. São adquiridos colocando-se receptores em poços a profundidades definidas de acordo com os níveis (geralmente, de 10 a 20) de interesse e o uso de uma fonte ao nível do mar. O tempo de chegada da onda direta é medido, sendo considerado bem próximo à metade do tempo sísmico – as sempre presentes diferenças (geralmente inferiores a 10 ms) estão associadas a diversos fatores, como fase diferente de zero da sísmica, migração imperfeita, etc. Um esquema deste tipo de aquisição é mostrado na fig. 8.2.1. 8.2 VSP A aquisição de perfis sísmicos verticais (VSP, do inglês Vertical Seismic Profiles ), envolve uma fonte em superfície, geralmente próxima ao poço (o VSP zero-offset , o mais comum, principalmente por ser o mais rápido, exigindo menos tempo disponível da sonda de perfuração – provavelmente, o maior empecilho à aquisição e conseqüente uso de VSP, principalmente offshore ), mas algumas vezes afastada (offset VSP, usado geralmente para se obter um imageamento lateral de nível de interesse e/ou para estimativa de parâmetros anisotrópicos em regiões com anisotropia polar (VTI)). Quando a fonte é colocada no poço e os receptores em superfície, tem-se o denominado VSP reverso (reverse VSP ), de uso restrito. Apesar de várias tentativas de se usar as vibrações das brocas de perfuração como fonte sísmica, até o momento não foram conseguidos resultados realmente satisfatórios. O principal problema é a grande flutuação no comportamento da ‘fonte’, o que torna muito difícil o processamento e análise dos dados. Outras formas menos comuns de aquisição são o walk-away VSP , em que a fonte se move durante a aquisição, criando diversos offsets , e o 3D-VSP, em que os tiros são distribuídos em superfície ao longo de um circulo (poços verticais ou direcionais de baixo 144
ângulo) ou retângulo (poços horizontais), criando um volume tri-dimensional – naturalmente, tal opção é bem mais demorada, sendo na prática de uso bastante restrito, apesar de potencialmente útil em situações particulares (por ex., problemas críticos de imageamento na vizinhança de poços). As fontes mais comumente usadas são os air-guns (mesmo em terra, sendo geralmente construída uma ‘piscina’ para colocação do canhão) devido à boa repetibilidade desse tipo de fonte, com o uso de vibradores ou dinamites sendo muito restrito. Os receptores mais comuns são os geofones, geralmente de três componentes (3-C), pois costumam ter melhor acoplamento e menor sensibilidade a ruídos que hidrofones. Mais recentemente, os acelerômetros (cap. 3) passaram a ganhar espaço, sendo possível que em um futuro não muito distante (cinco anos, talvez), sejam usados na grande maioria dos levantamentos de VSP. Alguns esquemas de aquisição são mostrados na fig. 8.2.1.
Fig. 8.2.1 – Geometria de aquisição de (da direita para esquerda) check-shot , VSP com afastamento nulo, offset VSP e walk-away VSP (extraído de Campbell et al , 2005).
O espaçamento entre receptores é função da máxima freqüência que se deseja amostrar sem alias , como na sísmica de superfície. A ferramenta de VSP pode possuir de três a mais de 90 receptores, mas o uso de mais de 12 receptores geralmente só ocorre em 3D-VSP. Para cada posição fixa do receptor, geralmente são detonados cinco a 15 tiros, com vários traços sendo registrados à mesma profundidade, com posterior edição e soma, para se aumentar a razão sinal/ruído. São registrados os campos de onda descendente (a onda direta sendo a principal) e ascendentes (que correspondem a reflexões). Para ambos os campos, é comum a presença de ondas convertidas quando existe algum offset e/ou o poço tem grande desvio da vertical. Um esquema mostrando as ondas de maior interesse é apresentado na fig. 8.2.2.
145
Fig. 8.2.2 – Os principais tipos de ondas presentes em dados de VSP. Para VSPs com offset e/ou poços direcionais, é comum a presença de ondas convertidas PS ( principalmente ascendentes) (extraído de Schlumberger, 1985).
O processamento é realizado para recuperar a amplitude dos eventos ascendentes, retirar ruídos aleatórios e coerentes (por ex., as tube waves ), restaurar a forma do pulso sísmico e atenuar múltiplas. Tube waves , denominadas em português ondas tubo ou entubadas, são ondas superficiais que ocorrem na parede de um poço, propagando-se na interface fluido/sólido. A seqüência de processamento inclui edição e controle de qualidade, empilhamento, normalização, recuperação de amplitudes, filtragens de freqüência e de velocidades (quando ocorre a separação das ondas ascendentes e descendentes) e deconvolução. Um problema na técnica VSP é a ausência de migração, ou realização de migração (em walk-away ou 3D) com abertura geralmente insuficiente. Um exemplo de uma seção VSP, antes e após o alinhamento das ondas ascendentes, é mostrada na fig. 8.2.3.
Fig. 8.2.3 – Dados de VSP antes (esquerda) e após alinhamento de eventos ascendentes (extraído de Schlumberger, 1985).
As aplicações mais comuns e vantagens da técnica VSP são: 1) excelente controle da conversão tempo x profundidade, com obtenção acurada das velocidades intervalares entre níveis sendo possível por existir uma grande precisão e confiança tanto na profundidade quanto no tempo registrado; 2) melhor resolução vertical, em comparação à sísmica convencional, pois as ondas atravessam somente uma vez os sedimentos mais rasos, que tanto em terra quanto no
146
mar são os principais responsáveis pela absorção, que ‘rouba’ as altas freqüências do dado sísmico; 3) um melhor conhecimento quantitativo dos fatores que alteram o pulso, pois geralmente é feito um registro do pulso bem próximo à fonte (near-field measurement), que é comparado com os diversos pulsos registrados a diferentes profundidades, permitindo análises precisas das mudanças do pulso, tornando possível, por ex, obtenção do fator Q (item 2.7); estas análises podem ser úteis no processamento e/ou processos de inversão; 4) em poços exploratórios, ver ‘a frente’ da broca, ou seja, o campo de ondas ascendente (as reflexões) podem fornecer informações sobre camadas ainda a serem perfuradas; isto pode ser importante para correções em estimativas de profundidade ou previsão da proximidade de zonas com sobrepressão; 5) dados com melhor correlação com a sísmica de superfície que perfis de poços por três razões: a) a faixa de freqüência da sísmica é mais próxima a do VSP que a de perfis, b) a região em volta do poço amostrada pelo campo de ondas é significativamente maior (e menos distante da sísmica de superfície) no VSP que em perfis, e c) VSPs são menos sensíveis às condições dos poços. Puckett (1991) apresenta três casos de utilização de VSP com offset em regiões com estágio maduro de exploração para caracterização de reservatórios e definição de locações de desenvolvimento. A primeira, em uma região NW de Oklahoma em que os poços têm profundidade de 2.100 a 3.000 m e o principal problema é encontrar boas porosidades (8% é considerado um bom valor). Um poço encontrou uma camada com φ de 16% sobreposta à camada com φ de 10%, o que constitui um excelente reservatório. Para verificar a continuidade lateral foram adquiridos três VSPs em diferentes direções, com offset de 1.300 m, com os resultados indicando (fig. 8.2.4) que a extensão da zona de boa porosidade é muito restrita.
Fig. 8.2.3 – VSPs com afastamento em diferentes direções indicando baixa continuidade do reservatório Hunton (extraído de Puckett, 1991).
O segundo caso foi na Bacia de Anadarko em que dois VSPs foram adquiridos com offsets de 2.500 m com o propósito de identificação e posicionamento de falhas, mas com os resultados sugerindo a presença de uma camada com boa porosidade. O terceiro e ultimo caso foi na Bacia de Ardmore (S Oklahoma), onde em uma área com falhas reversas foi perfurado um poço no flanco de um horst ; neste poço foi adquirido um VSP com offset para imagear o reservatório carbonático mergulho acima e um arenito sotoposto não atingido pelo poço. Devido à complexidade estrutural, foi 147
realizada modelagem numérica (traçado de raio) para selecionar o melhor posicionamento de fonte e receptores (este procedimento – realização de modelagens para determinar parâmetros de aquisição – é padrão atualmente), que indicou que para imagear o arenito sotoposto a fonte deveria estar para SW, mas com esta opção se obteriam reflexões horizontais (que geralmente possuem baixa razão sinal/ruído) para o carbonato. Com a fonte a NE, a modelagem indicou o registro de reflexões verticais para o carbonato, mas um pior imageamento para os horizontes profundos. Optou-se então por adquirir nas duas posições, e os resultados mostraram o padrão de falhamentos da área (fig. 8.2.4), que é fundamental na localização dos poços porque as falhas colocam lado a lado camadas permeáveis e impermeáveis.
Fig. 8.2.4 – Exemplo da Bacia de Ardmore (Oklahoma). Modelagens (esq.) indicaram a necessidade de duas direções de levantamento. Resultados (dir.) mostraram o padrão de falhamentos, fundamental na caracterização de reservatórios na área (extraído de Puckett, 1991).
Hardage et al. (1994) apresentam um estudo de integração de informações geológicas, geofísicas e de engenharia no campo de Stratton (sul do Texas), em que foi possível a detecção de camadas de até 3 m de espessura e 60 m de largura (canais fluviais meandrantes) a 1.800 m de profundidade em dados sísmicos calibrados cuidadosamente com VSP. Apesar de realmente impressionantes, a possibilidade de detecção de camadas tão finas infelizmente não é muito comum, sendo restrita a algumas situações especiais. Campbell et al (2005) consideram que VSPs são usados geralmente como check- shots densos para calibração de perfis sônicos, obtenção de informação de velocidades e geração de um traço para correlação sísmica-perfil. Segundo os autores, isto subestima a técnica e também desperdiça algumas oportunidades para extrair informações que podem ajudar tanto o processamento quanto a interpretação, como por ex. medidas diretas do fator Q e espalhamento geométrico e efeitos de múltiplas intracamadas. Na Petrobras, o uso de VSP talvez ainda seja tímido, provavelmente devido ao alto custo das sondas de perfuração e do imageamento de uma porção muito limitada do reservatório. Foi adquirido pela Schlumberger um 3D-VSP no Campo de Marlim (Ribeiro et al , 2006) com padrão de tiros circular e processamento por duas companhias (Read e Schlumberger). Os resultados dos dois processamentos podem ser considerados complementares. O custo total foi superior US$ 1,5.106 (incluindo o tempo de sonda da operação). A qualidade, apesar de boa, ficou aquém do esperado, e a resolução vertical foi pouco superior a da sísmica de superfície. Importante registrar que o numero de
148
receptores (doze) não foi muito elevado, mas a aquisição ocorreu ‘aproveitando’ a presença de um navio-fonte que estava realizando operações de under-shooting para aquisição sísmica de superfície no complexo de Marlim. Atualmente existe um projeto coordenado pelo geof. Schinelli (UN-BA) procurando realizar uma carteira de possíveis aquisições 3D-VSP, de forma a conseguir a presença por um longo tempo de uma embarcação com fonte sísmica. Na prática, porem, o elevadíssimo dinamismo dos cronogramas de perfuração deve tornar a aplicação desta carteira inviável. Uma opção talvez seja usar a idéia da CGG que, pretendendo instalar sensores permanentes no fundo do mar (OBC) no Campo de Roncador, sugeriu o uso de um container com todos os equipamentos (fonte, compressores, instrumentos de registro, etc) necessários para a aquisição, que seriam carregados rapidamente em algum rebocador de médio a grande porte. 8.3 Tomografia sísmica entre poços A tomografia, bastante usada na medicina, é usada na sísmica para estimativa de parâmetros litológicos e imageamento de camadas (Stewart, 1992). O conceito físico fundamental é a reconstrução de imagens a partir da soma de diversas projeções. Na medicina, funciona muito bem devido à excelente cobertura angular (diversas trajetórias), sendo medida a atenuação de raios-x, relacionada diretamente à densidade do material atravessado. Na petrofísica, a tomografia fornece, também por análises de atenuação, informações de densidade, que são usadas na determinação de composição mineralógica, textura, estrutura sedimentar e distribuição de fraturas. Fornece também estimativas de melhores parâmetros de pressão e injeção para vários agentes EOR. Na sísmica, é difundida a partir do congresso da SEG de 1984 em Atlanta, quando foi citado seu uso para determinação de velocidades mais acuradas. Teoricamente, a tomografia trabalha com as mesmas variáveis da sísmica de superfície – velocidades, atenuação, impedância, absorção, polarização, etc. Atualmente, é bastante usada na determinação de velocidades para realização de PSDM (cap. 4). Uma discussão teórica sobre a matemática envolvida em processos de tomografia esta além dos objetivos deste curso, e neste capítulo o termo ‘tomografia’ se refere a ‘tomografia entre poços’ (fig. 8.3.1). A principal vantagem da tomografia em relação à sísmica de superfície é a mesma do VSP, que é a colocação de receptores próximos ao reservatório, evitando a forte atenuação e absorção (inelasticidade) que ocorre nas camadas superficiais. A grande vantagem em relação ao VSP é que na tomografia tanto a fonte quanto o receptor estão próximos ao reservatório, permitindo um registro de freqüências muito altas – teoricamente, é possível (segundo Stewart, 1992 e Harris, 1994) o registro da ordem de 520 a até 2.000 Hz, mas em casos reais a freqüência máxima utilizável é em torno de 1.000 Hz, o que de qualquer forma representa um aumento significativo de resolução vertical. Além da resolução vertical, a obtenção de velocidades por inversão do tempo de trânsito (que podem ser usadas na estimativa de propriedades petrofísicas e em heterogeneidades a partir da amplitude de reflexões) é muito superior nesta técnica. O auge do uso da tomografia de poços foi na segunda metade da década de 90. À época, a aplicação mais comum era em processos de EOR em áreas de óleo pesado (Stewart, 1992, Paulsson et al., 1992), tendo sido usada principalmente para monitoramento de fluxo de vapor porque, como as mudanças nas propriedades petrofísicas (velocidades, principalmente), são muito grandes, não era necessário um tratamento muito sofisticado na aquisição e processamento dos dados (Harris, 1994). 149
Apesar do sucesso do monitoramento da injeção de vapor (Justice et al ., 1993, por ex.), já naquela época se questionava os benefícios econômicos (Harris, 1994), quando o custo de uma aquisição básica (dois poços) era em torno de US$ 50.000, sem considerar processamento e custos indiretos associados à parada de operação de pelo menos dois poços.
Fig. 8.3.1 – Seção esquemática de levantamento tomográfico, incluindo algumas trajetórias de raio (extraído de Stewart, 1992).
As fontes mais comuns eram os transdutores piezelétricos, sendo usado também cápsulas de dinamite, canhões de ar comprimido e perfurantes, cordel detonante, vibradores hidráulicos e, secundariamente, a própria broca de perfuração (muito pouco efetivo, como no caso do VSP reverso). Os receptores são os mesmos usados em VSP (geofones tri-axiais, acelerômetros e hidrofones no interior de líquidos). A configuração de aquisição típica é mostrada na fig. 8.3.1. A análise dos dados registrados é complexa, com as dificuldades se iniciando no padrão de radiação das ondas emitidas pela fonte (complicado devido ao confinamento cilíndrico) e passando pela grande quantidade de ondas registradas (fig. 8.3.2). A utilização somente de ondas diretas, apesar de bem mais simples, não permite a extração de todo o potencial do método tomográfico – este fato é exemplificado na fig. 8.3.3, em que se podem observar a geometria das camadas obtida em cada situação. Na prática, usa-se uma ‘mistura’ de propriedades do processamento de VSP e da sísmica de reflexão (de superfície), com vasta aplicação de processos de inversão que descrevam campos de ondas em meios heterogêneos (nestes processos, o problema da convergência de processos não-lineares costuma estar presente, segundo Harris, 1994).
150
Fig. 8.3.2 – Diversos tipos de ondas presentes em dados de tomografia sísmica entre poços (extraído de Harris, 1994).
Uma grande desvantagem – talvez a maior, especialmente no mar – da tomografia para caracterização de reservatórios é que os poços têm que estar muito próximos, devido à energia limitada que se pode usar em uma fonte no interior de um poço, à absorção que ‘rouba’ as altas freqüências quando o sinal se propaga por distâncias longas e pela grande complicação que se torna o campo de ondas quando ondas refratadas (item 2.7), que possuem fortes amplitudes e rápidas mudanças de fase começam a aparecer (que é o que ocorre quando os receptores estão além da distância critica, fig. 2.7.3). Sendo otimista, pode-se acreditar que o método funcione com distância entre poços de até 1.000 m, mas na literatura normalmente a distância é inferior a 500 m. Zhou et al. (1993) apresentam resultados de tomografia de poços distantes 600 pés, conseguindo, segundo os autores, “… o melhor retrato de velocidades 2D da terra já obtido pela sísmica”, com resolução vertical de 3 m (fig. 8.3.3). Macrides et al. (1988) também apresentam resultados de tomografia para controle de frente de injeção de vapor. Entre as principais razões para a diminuição do interesse na tomografia entre poços – apesar de vários resultados práticos muito bons – estão a reduzida área imageada (associada à necessária proximidade dos poços), a necessidade da disponibilidade de pelo menos dois poços, a relativa complexidade do processamento causada pela grande quantidade de ondas registradas e a ausência de uma imagem 3D. Assim, esta técnica tem grande potencial quando a necessidade de uma alta definição da geometria e petrofísica justificam o custo envolvido – situação esta não muito comum.
151
Fig. 8.3.3 – Resultado final de tomografia sísmica realizando inversão da forma da onda (esq.) e comparação em detalhe das resoluções vertical e horizontal quando esta inversão é usada (acima) e quando somente tempos de trânsito (abaixo) são considerados (extraído de Zhou et al , 1993).
8.4 Perfil sônico de reflexão A idéia básica é registrar, em vez das ondas diretas registradas e analisadas na perfilagem sônica convencional, ondas refletidas em interfaces próximas ao poço. Geralmente as interfaces são referentes a topo e/ou base de uma camada, e os poços são direcionais de alto ângulo ou horizontais. Isto é conseguido se afastando bastante fontes e receptores, de forma que exista uma distância suficiente para que as ondas refletidas sejam registradas. Na prática, um possível problema é a necessidade de operações a cabo, o que pode acarretar um tempo talvez longo de sonda, e o pequeno diâmetro geralmente presente nesta fase de perfuração, que sempre é um agravante potencial para a geração de problemas operacionais. Foi realizada uma aquisição no campo de Marlim Sul, com resultados mostrando a geometria do reservatório turbidítico a uma distância de até 10 m do poço e resolução de 0,3 m (Maia et al , 2006). 8.4 Seismic while drilling (SWD) Nesta técnica, um grupo de receptores é colocado relativamente próximo à broca de perfuração. Nos breves intervalos de colocação dos tubos de perfuração, é possível se acionar uma fonte de ar comprimido, que gera energia suficiente para que um sinal seja captado em sub-superfície. A fonte de ar geralmente vem do próprio mecanismo de sustentação do equilíbrio da plataforma. Dessa forma, tem-se um registro da onda direta em tempo real, o que significa a possibilidade de vários pontos de check-shot durante a perfuração, o que auxilia bastante as quase sempre presentes correções necessárias entre a profundidade estimada 152
inicialmente (durante os estudos de locação de poços) de determinados objetivos e a efetivamente constatada pelo poço, principalmente em situações exploratórias. Também extremamente útil – apesar de atualmente ainda não ser possível em tempo real – é o registro de ondas refletidas, pois auxiliam nas correções de profundidade, fazendo com que o SWD funcione como um VSP.
153
9 – INTRODUÇÃO À SÍSMICA 4D É fato provado na teoria e na prática que substituições e/ou mudanças na pressão e/ou temperatura dos fluidos que preenchem os poros de uma rocha sedimentar alteram os valores de velocidade de propagação de ondas e densidade desta rocha. Como geralmente os processos de produção e injeção efetuados em vários campos de óleo estão associados à pelo menos um (e quase sempre a mais de um) desses efeitos, é natural supor que a resposta sísmica de uma rocha-reservatório possa variar ao longo da vida de um campo, e também que essas variações possam ser relacionadas qualitativa e quantitativamente às mudanças induzidas – mais especificamente, no caso dos campos mais importantes no Brasil, estamos interessados em avanços de frentes de injeção de água, mudanças de pressão e possível óleo ‘deixado para trás’. Por outro lado, geralmente, o gerenciamento de reservatórios é baseado no resultado de simuladores de fluxo, por sua vez baseados em modelos geológicos (e estes, muitas vezes, baseados fortemente em dados sísmicos). As mudanças na distribuição de fluidos e pressões causadas por produção e/ou injeção previstas pelos simuladores são verificadas por poços e/ou histórico de produção e balanço de materiais. O que a sísmica 4D procura conseguir é tal verificação em toda a área do campo. Inicialmente, precisa-se estimar o mais corretamente possível as mudanças esperadas nos parâmetros petrofísicos das rochas devidas à produção/injeção. Esta análise, denominada de estudo de viabilidade (feasibility ), é a etapa inicial de qualquer projeto 4D, e é geralmente baseada nas equações de Biot-Gassmann-Geerstma (item 2.3.13), novamente discutidas a seguir. Naturalmente, estamos interessados somente em mudanças causadas por produção e/ou injeção. Essas mudanças geralmente não são muito grandes (10% para impedância acústica é um valor ótimo, com 5% já sendo aceitável, apesar de um pouco arriscado), o que significa dizer que os dados adquiridos ao longo do tempo devem ser o mais próximo possível entre si, com diferenças mínimas de aquisição – isto leva ao conceito de repetibilidade, que por sua vez leva ao questionamento de quão diferentemente dois 3Ds podem ser adquiridos e ainda assim as diferenças nas respostas sísmicas serem observáveis. Discussões do quão necessário é a repetibilidade, qual nível de diferença é aceitável, quais os parâmetros de aquisição são os mais importantes (a direção de aquisição parece estar entre os mais importantes), o real benefício de se usar sensores permanentes, o quanto de diferença acima do reservatório pode ser minimizado (e como) durante o processamento, etc, são bastante atuais e importantes, e não devem ser completamente resolvidas no curto prazo (próximos dois anos). Sem entrar em maiores detalhes sobre a repetibilidade, podemos pensar no caso terrestre em mudanças no lençol freático, alterações no acoplamento de geofones, mudanças na resposta do solo nos pontos de tiro, etc. No mar, existe o problema do posicionamento (horizontal e vertical) da fonte e dos receptores, diferentes trajetórias associadas a variações na deriva dos cabos, etc. Nos dois ambientes, variações do ruído ambiental em levantamentos distintos estão sempre presentes. Em dados reais, sempre existem diferenças nos dados sísmicos acima do reservatório (onde, a princípio, não deveriam ocorrer diferenças, salvo alterações de subsidência do reservatório de difícil percepção com a qualidade atual dos dados – salvo casos de importância isolada, como alguns campos no Mar do Norte). Estas diferenças são minimizadas durante o processamento, preferencialmente em etapas antes do 154
empilhamento. Basicamente, o que se procurar é ‘igualar’ o mais possível os dois dados, geralmente usando-se bastante processos estatísticos (por mais desejável que os determinísticos predominassem) e verificação após a aplicação de cada etapa se as diferenças acima do reservatório estão diminuindo – diferenças essas associadas à amplitudes distintas e deslocamentos de fase e tempo. Com tamanhos questionamentos, é natural supor que a sísmica de monitoramento funcione melhor quanto maior forem as variações na impedância das rochas – na prática, tais casos estão associados à injeção de vapor, que foram os primeiros exemplos reais da sísmica 4D (Greaves e Fulp, 1987), inclusive na Petrobras (campo de Fazenda Alvorada, no Recôncavo). Como exemplo, são mostradas na fig. 9.1 exemplo do monitoramento de injeção de vapor e na fig. 9.2 outro exemplo de injeção de vapor (neste caso, dados de tomografia em de areia inconsolidada com φ de 32% e κ de 1 Darcy) mostrando espectros de amplitude antes e após injeção de vapor, acima e abaixo do reservatório.
Fig. 9.1 – Seção sísmica vertical de um 3D mostrando envelope das amplitudes de reservatório (setas brancas) (a) antes, (b) durante e (c) após processo de injeção de vapor. Observar dimspot nas amplitudes do nível Palo Pinto (abaixo do reservatório) (extraído de Greaves e Fulp, 1987).
155
Fig. 9.2 – Comparação entre espectros de amplitude para uma janela de tempo acima (a) e abaixo (b) do reservatório, antes (linha cheia) e após (linha pontilhada) processo de injeção de vapor (extraída de Eastwood et al ., 1994).
Dillon e Vasquez (1993) analisaram, em laboratório, o comportamento de VP em amostras do reservatório do campo de Fazenda Alvorada (BA), com variações de temperatura entre 25 e 900C, observando mudanças de 12%. Os resultados obtidos indicaram também que, ao se corrigir teoricamente os efeitos de dispersão, as variações de velocidade são iguais ou maiores que as observadas em laboratório. Além disso, em um caso real a presença da fase gasosa e o aumento da pressão dos poros causam um decréscimo adicional em VP. No caso especifico daquele campo (reservatório a 350C), variações de 15% na velocidade seriam obtidas a temperaturas de 1000C, mostrando ser teoricamente possível o monitoramento sísmico de um processo de injeção de vapor. As equações de Gassman fornecem uma relação teórica entre alterações nas velocidades de propagação de ondas sísmicas ao se ocorrer substituição de fluidos, sendo fundamentais em análises de sísmica 4D – por isso, têm recebido muita atenção. A aplicação mais usada é a relação entre os módulos de compressibilidade para a rocha seca e saturada com fluidos. Apesar de seu uso muito vasto, as premissas básicas de como essas expressões foram obtidas são algumas vezes esquecidas segundo Berryman (1999), que apresenta um tutorial sintético sobre o assunto e mostra que a idéia algumas vezes considerada de que Gassman assume que o módulo de cisalhamento é constante não é correta. No tutorial, Berryman diz que as equações de Gassman relacionam os módulos de compressibilidade e cisalhamento quando um meio mono-minerálico, isotrópico e poroso está saturado e seco. As equações também mostram que µ tem que ser independente da presença de fluido – mas não usam isto como premissa, ao contrário do que é algumas vezes considerado. Uma premissa importante é que não ocorre interação química entre a rocha e os fluidos. Outro fator fundamental é que as expressões de Gassman se aplicam às baixas freqüências, pois realizam uma análise quase-estática dos módulos elásticos. Stovas e Landro (2005) consideram que, ainda que seja usada com freqüência, a equação de Gassmann ainda necessita de verificação por dados sísmicos. Os autores dizem que estudos recentes de time-lapse indicam que Gassmann é aceitável, mas como 156
existem grandes incertezas associadas com os dados sísmicos, não é possível se ter uma conclusão definitiva. Concluindo, é considerado que é muito importante trabalhar com vários tipos de incertezas e tentar reduzi-las o máximo possível – os autores sugerem a aquisição de perfis de saturação e medidas de pressão antes da produção e durante o levantamento do 3D de monitoramento. No mesmo artigo, é citada a incerteza da validade de medidas de testemunhos, não sendo completamente entendidos efeitos de dano à rocha durante testemunhagem (por ex., Nes et al , 2000, encontraram diferenças significativas entre uma amostra sintética manufaturada com tensões in-situ e a mesma amostra após a aplicação de pressão seguida de alívio de pressão) nem a questão do upscaling . Análises e interpretação 4D são geralmente qualitativas. Um exemplo comum é a identificação de óleo ‘deixado para trás’ (by-passed oil ), que tem fornecido resultados úteis para um melhor gerenciamento de reservatórios (por ex., Landro et al ., 1999, e Koster et al ., 2000). Estes estudos qualitativos costumam serem mais bem sucedidos quando um efeito (saturação ou pressão) relacionado à produção domina sobre o outro. Se os dois efeitos forem da mesma importância, é necessária uma análise quantitativa, o que nos leva a um problema atual da sísmica 4D, que é diferenciar as mudanças devidas a variações de pressão daquelas causadas por variações de saturação. Alguns artigos que discutem esse assunto são citados a seguir. Lumley e Tura (1999) propõem um método de inversão baseado em time-lapse AVO, com uma primeira etapa sendo uma inversão para mudanças relativas em AVO e uma segunda etapa (opcional) é o uso de perfis para obter valores absolutos de IP e IS, com a fase final sendo a relação entre as mudanças de impedância com variações de propriedades do reservatório através de crossplots de impedâncias. Landro (1999, 2001) derivou equações explícitas, relacionando diretamente mudanças em SW e P a mudanças de amplitude em dados empilhados near e far , sendo necessárias equações petrofísicas empíricas relacionando variações de VP, VS e densidade com mudanças em pressão de poros e saturação. O autor sugere, para saturação, o uso de Gassmann, e para pressão, medidas ultra-sônicas em plugs ou modelos geomecânicos. Na Petrobras, o grupo de física de rochas do Cenpes – geof. Guilherme Vasquez – fornece essas equações. Segundo Landro et al . (1999), medidas de diferenças no tempo de reflexão podem ser usadas como informação quantitativa para estimar mudanças em pay thickness ou pressão de poros. Bertrand e Bannister (2005) analisam alguns dos problemas presentes no processamento ao se usar legacy data (dado ‘herdado’, termo usado para designar dados antigos, geralmente adquiridos com objetivos distintos dos atuais, mas que ainda assim são usados em comparação com dados novos, como por ex. em sísmica para monitoramento de reservatório). Os autores descrevem metodologias para contornar esses problemas e apresentam resultados no campo de Troll West (Mar do Norte), concluindo que mesmo nesse tipo de dado – cujo objetivo inicial não era 4D – é possível trabalhos quantitativos, monitorando-se a variação do contato gás-óleo (no entanto, os resultados não são comparados com dados de poços). A situação estudada é complicada, porque tanto o base survey (1ª aquisição, que será usada para comparação com sísmicas futuras) quanto o primeiro levantamento para monitoramento são 3Ds agrupados (merge data ). Os autores desenvolveram um fluxo de processamento ‘dependente’ da aquisição, de forma a diminuir os fatores de nãorepetibilidade: condições da água do mar (marés e temperaturas), cobertura irregular da aquisição, dados de navegação (posicionamento de pontos de tiro) pobres e consistência 157
de tiros e receptores. Foi usado um algoritmo que separa as variações de tempo das variações de amplitude para análise 4D, através de critérios de reconhecimento da forma do pulso sísmico, e redes neurais. Wagner et al. (2006) mostra como a ausência de baixas freqüências em streamer produz artefatos no resultado de inversão acústica, em comparação com
dados dados OBC (que são mais ricos em amplitudes na faixa 2,5 a 8 Hz), no campo de Foinaven (Mar do Norte). Analisando os dois tipos de levantamentos de 1995 e 1998, eles também observam como a ausência das baixas freqüências afeta o possível monitoramento. Para a analise 4D foi usado um modelo que considera saturações uniformes quando estas são altas ou elevadas e não uniformes em saturações intermediárias, que mostrou que a previsão de SGÁS é mais confiável e realista usando OBC. MacBeth et al. (2006) fazem estudo de viabilidade do monitoramento da depleção em arenito fechado com baixa porosidade (arenito Rotliegendes) com gás no sul do Mar do Norte através de análise petro-elástica e modelagem sísmica. Concluem que um dado sísmico adquirido e processado com maior cuidado pode mostrar diferenças de tempo na base do reservatório associadas à sensibilidade às tensões da parte superior do reservatório (fraturado), mas que as mudanças devido à produção não devem ser detectadas no arenito não-fraturado. A mesma área e reservatório são analisados por Hall et al. (2006), mas, em vez de modelagens, usando-se dados reais (adquiridos em 1992 e 1999). Aplicaram-se algoritmos para ajuste e procedimentos de warping (mudanças de parâmetros de processamento e apresentação em diferentes partes da visualização para obter uma melhor semelhança entre dados antigos e novos, segundo Sheriff, 2002) para compensar diferentes aquisições e processamentos, analisando os atributos do warping e de amplitude. Os autores concluem que, apesar de terem sido encontradas diferenças atribuíveis a efeitos de produção, é necessário uma aquisição cuidadosa para informações confiáveis neste tipo de reservatório, o que corrobora a principal conclusão de MacBeth et al. (2006). Hornby et al . (2005) apresentam testes do uso de sensores permanentes de fibra ótica em poços. O objetivo é melhorar a repetibilidade, principalmente quando efeitos de fluido e saturação não são facilmente separados. O uso de poços (através de VSPs) já tem uma vantagem, pois a repetibilidade é geralmente melhor que em sísmica de superfície. Outra vantagem é quando se deseja verificar variações de fluido e pressão nas proximidades do poço – no entanto, quando isto não é prioritário, o uso de VSP para 4D se torna bem menos atraente. Trabalhos anteriores mostram que dados adquiridos com fibra ótica são similares aos de geofones. Os autores consideram, entre outras vantagens, a maior sensibilidade e melhor resposta nas freqüências de VSP e o fato de diferentes tipos de sensores (temperatura, pressão, sísmica) podem ser combinados em fibras únicas. Os problemas do uso da fibra ótica são a pequena quantidade de dados adquiridos, o custo dos instrumentos e que certas fibras não protegidas de hidrogênio podem ‘escurecer’ (diminuindo a propagação da luz, que é a base do sistema). Nos campos de Jubarte e Roncador existe atualmente um projeto conjunto CGG/Petrobras para a utilização de sensores permanentes (na forma de cabos de fundo oceânico, talvez enterrados em uma trincheira com profundidade entre 0,5 e 1,0 m). O maior problema deste projeto é o custo extremamente elevado, pois para se imagear uma área em torno de 25 km2 o custo total envolvido é superior a US$ 35.106.
158
Parr e Marsh (2000) apresentam um caso bem interessante e raro (único, talvez), de visualização em time-slices de cubos de coerência de uma possível ruptura em uma barreira de transmissibilidade (confirmada por balanço de materiais) entre um par de poços produtores após processos de produção e injeção no campo marítimo de Schiehallion (Shetlands) (fig. 9.3). Esta mudança do comportamento de falhas talvez não seja tão rara assim, pois ocorre em outros campos do Mar do Norte e ocorreu no campo de Roncador.
Fig. 9.3 – Time-slice em cubos de coerências sugerindo forte redução de transmissibilidade (confirmada por balanço de materiais) em parte de uma falha entre poços horizontais produtores C e D (extraída de Parr e Marsh, 2000).
Stovas e Landro (2005) investigaram – usando modelos de petrofísica e medidas de testemunho – como anisotropia pode afetar análises de 4D, avaliando variações em refletividades PP e PS. Foram estudados folhelhos isotrópicos e com anisotropia fraca e forte e também a presença de anisotropia nos arenitos. Os autores concluíram que no caso VTI uma anisotropia fraca nos folhelhos sobrepostos não é muito importante, mas que alterações na anisotropia do próprio reservatório (causadas, por exemplo, por fraturamento) podem ser detectadas por 4D.
159
10 – TÓPICOS ESPECIAIS 10.1 Introdução à sísmica multicomponente e anisotropia O termo ‘multicomponente’ tem origem no uso de receptores (geofones) com três componentes (geralmente, mas nem sempre, ortogonais entre si), em comparação com a sísmica ‘convencional’, em que é usado um geofone de somente um componente. O principal objetivo dos dois componentes adicionais é o registro de ondas cisalhantes (ondas S). O interesse no estudo das ondas-S é que elas muitas vezes auxiliam na definição litológica e/ou de fluidos, pois rochas distintas costumam apresentar diferentes razões VP /VS (ou Poisson) – como exemplo, esta razão geralmente varia com o conteúdo de argila em um arenito, podendo assim ser usada como um indicador de VSH – e os fluidos costumam afetar VS de forma negligenciável (ou seja, um arenito com água e um arenito com gás geralmente tem VS próxima, já que como as ondas S não se propagam em fluidos, o que define VS é a matriz, não o que preenche os poros). Esta última propriedade permite concluir que, caso uma forte anomalia presente em dados de ondas P (‘convencionais’) não ocorra em dados de ondas S, é provável que esta anomalia esteja associada a fluidos. Por outro lado, caso a anomalia também ocorra em dados de ondas S, então a causa principal deve ser litológica, e não o material que preenche o poro – obviamente, neste caso a anomalia deixa de ser interessante. Na verdade, esta propriedade das ondas S (serem insensíveis ao fluido) é usada indiretamente em estudos de AVO e diretamente em trabalhos de inversão elástica. A onda S pode ser vantajosa em alguns reservatórios em que o topo tenha um baixo contraste de impedância acústica mas possui um elevado contraste de impedância cisalhantes, com o caso mais famoso sendo o campo de Alba no Mar do Norte – em menor escala, algo parecido ocorre em alguns reservatórios de Roncador, na Bacia de Campos. Outro grande interesse na análise de ondas S é nos estudos de anisotropia (propriedade de um meio em que o valor de uma grandeza depende e varia da direção em que a mesma é medida), pois em vários meios anisotrópicos as ondas S apresentam a característica de birrefringência (splitting ), em que uma onda S se propagando no meio gera duas ondas S (quase sempre, ortogonais entre si), uma ‘rápida’ (S1) e outra ‘lenta’ (S2). Assim, esta polarização (que pode ser demonstrada teoricamente, mas em um nível bem acima dos objetivos deste curso) gera duas ondas, com velocidades e (geralmente, de forma secundária) amplitudes distintas. Este fenômeno é similar ao que ocorre com a luz ao atravessar um cristal de calcita. Um exemplo famoso é mostrado na fig. 10.1.1, em a onda mais devagar (S2) tem também menor amplitude. O interesse prático da birrefringência é, principalmente, na análise de reservatórios fraturados. Isto porque uma das principais causas do splitting na natureza são fraturas, e, muito importante, a magnitude da diferença de velocidade entre S1 e S2 costuma ser diretamente proporcional à quantidade (magnitude e densidade) de fraturas – ou seja, quanto mais fraturada for uma rocha, maior tende a ser a diferença no tempo de trânsito entre as duas ondas S que se propagam naquele meio. A separação entre S1 e S2 ocorre porque as partículas afetadas pela onda que se propaga paralelamente às fraturas têm deslocamento mais rápido (por serem partículas constituídas somente da ‘rocha sã’), enquanto que a onda que se propaga perpendicularmente às fraturas terá propagação mais lenta porque a vibração das partículas é retardada pela presença das fraturas, que atuam como ‘freio’. Naturalmente, a premissa nesta análise é o caso mais comum e de interesse na indústria de hidrocarbonetos, de que as fraturas estejam preenchidas com fluido. Caso o material que 160
preencha as fraturas ‘ajude’ a propagação (por ex., fraturas em arenitos preenchidas por carbonatos), S1 pode se propagar ortogonalmente às fraturas.
Fig. 10.1.1 – À esquerda, exemplo de seção vertical das ondas (a) S2 (mais lenta e c om qualidade ligeiramente pior) e (b) S1 (mais rápida) de reservatório fraturado e à direita dado sintético de modelo com cinco camadas mostrando pior qualidade e maior tempo de trânsito na (c) polarização perpendicular às fraturas que (d) na polarização paralela (extraído de Tatham e McCormack,1993).
Existem vários exemplos publicados sobre o uso da sísmica multicomponente, sendo citado aqui um que pode ser considerado representativo. Arestad et al . (1995) reportam seu uso para caracterização de reservatórios (dolomitos com espessura de 20 a 25 m) em que a onda P tem baixo contraste de impedância. Outro tipo de estudo relativamente comum é analise de dados multicomponentes e anisotropia por VSP. Winterstein e Meadows (1991) apresentam, analisando dados de campo terrestres da Califórnia e Texas, um método para se obter a direção de máximo stress horizontal (ou a orientação de fraturas alinhadas) e a variação desses parâmetros com profundidade através de VSP adquirido com fontes de ondas S, analisando direções de polarização e primeiras quebras de S1 e S2 com trajetórias próximas a verticais. Outros exemplos estão disponíveis em Tatham e McCormack (1993), que também apresentam princípios básicos, medidas de rochas, aquisição e processamento de dados multicomponentes. Então, em um levantamento verdadeiramente 3D (ou seja, em um que ocorra registro de vários azimutes distintos, e não somente de vários offsets ), é possível, usando-se geofones (ou acelerômetros) de três componentes se ter uma medida
161
(algumas vezes, razoavelmente precisa) tanto da direção das fraturas quanto da intensidade das mesmas. Naturalmente, existem problemas (alguns, quase incontornáveis na prática) com a sísmica multicomponente e o registro e uso das ondas S. Alguns são discutidos a seguir: 1) as ondas S quase sempre são mais ruidosas (às vezes, muito mais ruidosas) que as ondas P; ruídos ambientais (vento, etc) e ondas superficiais afetam mais os receptores horizontais que verticais; naturalmente, uma razão sinal/ruído mais baixa significa pior qualidade; é possível uma melhora neste aspecto com o uso de acelerômetros como receptores; 2) a absorção (item 2.7) costuma ser maior em ondas S; este fenômeno não é totalmente compreendido, mas deve estar associado à própria vibração das partículas, que no caso de esforços cisalhantes significa maior atrito – e, consequentemente, maior perda da energia mecânica de propagação para calor – que ondas compressionais; assim, o conteúdo de altas freqüências costuma ser menor que nas ondas P; em termos de resolução, este problema é geralmente ‘compensado’ pelo fato da onda S ter velocidade menor que a P, fazendo com que na prática o comprimento de onda λ (definido por V/f , V velocidade intervalar e f freqüência dominante) seja próximo nos dados de ondas P e S; 3) as fontes de ondas S (vibradores, geralmente) costumam ser muito problemáticas do ponto de vista ambiental, além de serem pouco eficientes (grande parte da energia é emitida como onda P, em vez de S) – naturalmente, isto se refere ao caso terrestre, pois no mar (em que a fonte e receptor tem que ficar no fundo do mar, já que as ondas S não se propagam em fluidos) a situação é muito mais complicada, não existindo – apesar de algumas pesquisas recentes – na prática um vibrador marítimo; 4) devido ao problema da fonte, e também porque a imensa maioria das aquisições objetiva prioritariamente a aquisição de ondas P, as ondas S registradas na sísmica multicomponente são, na prática, geralmente geradas por conversão de modo (item 2.7) de ondas P incidentes em interfaces; estas ondas – as PS, algumas vezes chamadas de ondas C (de ‘convertidas’, ou ‘converted ’) – tem um grande inconveniente no processamento, que é a não-validade da técnica CDP, já que não existe mais simetria entre o ponto de reflexão (de conversão, neste caso) e o ponto médio fonte-receptor (mesmo para camadas homogêneas e horizontais); este fenômeno, mostrado na fig. 11.1.2, cria um complicador e vários problemas (alguns, ainda não satisfatoriamente resolvidos) para o processamento de dados da sísmica multicomponente; 5) na aquisição terrestre, é necessário não só um alinhamento com a vertical, mas também com a horizontal, além de uma orientação mais precisa (para definição correta da direção de propagação); este fato, que causam mais demora (ou seja, maiores custos) na aquisição, tem sido atenuado recentemente com o uso de acelerômetros (em vez de geofones); 6) na aquisição marítima, é necessária a colocação dos receptores no fundo do mar, o que gera um custo muito superior à aquisição convencional (streamer ); os receptores são colocados em cabos (cabos de fundo oceânico, ou OBC de ocean bottom cable ) ou em unidades individuais (nodes ); por outro lado, a presença de grandes obstáculos (FPSO, plataformas fixas, etc), que prejudica bastante e pode até impedir a aquisição por streamer , é bem menos problemática no caso de OBC ou nodes . Na prática, o maior problema da sísmica multicomponente é o custo, principalmente no mar. Este investimento elevado gera a discussão se o custo vale a pena o beneficio esperado, principalmente considerando-se que informações indiretas de 162
ondas S podem ser (e são) obtidas por análises de dados de ondas P. Para ajudar esta discussão, Guenther Schwedersky (Cenpes) está realizando inversão elástica em dados de streamer e de cabo de fundo no campo de Roncador, para comparação dos resultados, e avaliação do ganho real em se dispor de medidas diretas de ondas S (a vantagem da informação direta de amplitudes de ondas S é existirem mais termos a serem usados nas equações de Zoepprittz, que também são válidas para ondas S, da mesma forma que para P).
Fig. 10.1.2 – Esquema mostrando que ponto de conversão de onda P (descendente) para onda S varia lateralmente em profundidade, impedindo o uso do conceito CDP para ondas convertidas. A aproximação assintótica é usada em processamentos preliminares (extraído de Rodriguez, 2000).
Uma discussão bastante sucinta sobre anisotropia (restrita somente a velocidades) é realizada a seguir. As rochas são afetadas por cinco tipos de anisotropia de interesse. O sistema mais simples é o hexagonal (que gera a anisotropia polar – também chamada de VTI – em que não ocorre variação azimutal de velocidade), comum em folhelhos e criado também por uma seqüência de camadas pouco espessas. O próximo sistema mais complexo é o referente a fraturas verticais com um azimute dominante. Este situação costuma ser a mais indicada para o uso de ondas S, devido à birrefringência – no entanto, em algumas situações também ocorre variação da velocidade da onda P de acordo com a direção de propagação. Assim, apesar da ‘vantagem’ teórica das ondas S (devido à criação de duas ondas distintas, existe maior informação a ser usada), a vantagem prática principal da onda P é sua menor complexidade. Em qualquer caso, é necessária a aquisição em vários azimutes diferentes, o que significa que dados de streamer não são apropriados, geralmente, para estas análises. Deve ser registrado que levantamentos com objetivo de definição de direção de fraturas podem ser muito caros, pois é necessária uma boa cobertura também em offsets para obtenção de velocidades e obtenção de boa razão sinal/ruído. Sistemas mais complexos de anisotropia são causados geralmente quando ocorrem mais de uma direção de fraturas verticais e/ou as fraturas não são verticais. Traub e Li (2006), sabendo que elevados gradientes de velocidade na parte rasa (causado geralmente por compactação) tem efeito similar à anisotropia, usam dados sintéticos e reais (multicomponente, campo de Alba) para investigar a confiabilidade de medidas de anisotropia nas camadas rasas a partir de move-out de ondas PP e PS. Os autores concluem que a anisotropia da onda PP é mais bem estimada usando-se ambas informações (PP e PS) do que PP isoladamente. Bourbiaux et al (2005) fazem um resumo sobre os desafios na modelagem de reservatórios fraturados, e como a sísmica pode auxiliar. Os autores sugerem o uso integrado de informações geológicas (incluindo afloramentos análogos) e sísmicas, e consideram que a sísmica 3D fornece informações mais confiáveis para definição de falhas, incluindo métodos de coerência. Consideram também muito importante o uso de
163
anisotropia, que deve ser corroborada com informações de poços, pois pode indicar direção e intensidade de fraturas. O estudo de fraturas, apesar de até o momento ter pouco impacto econômico no Brasil, pode ser muito importante – por ex., segundo Luo et al (2005) sete dos dez maiores reservatórios do mundo são carbonatos freqüentemente com baixa permeabilidade, que produzem por fraturas. Estes autores também citam que vários trabalhos têm demonstrado a viabilidade de detecção de fraturas muito menores que o comprimento de onda. Esta breve análise de anisotropia será finalizada com alguns comentários sobre o efeito da anisotropia em perfis de poços, aparentemente pouco considerado dentro e fora da Petrobras, e que pode ser um efeito importante ao se trabalhar com muitos poços direcionais (principalmente de alto ângulo) na geração de sismogramas sintéticos e em processos de inversão elástica. Rowbotham et al. (2003) mostram a importância deste efeito em processos de inversão. O mesmo assunto é tratado por Tsuneyama e Mavko (2005) para modelagens de AVO (fig. 10.1.3) (neste artigo os autores – para explorar relações heurísticas entre parâmetros anisotrópicos e perfis – realizam uma compilação de dados de testemunhos, dizendo ter encontrando correlação entre valores de anisotropia e porosidade; no entanto, são usadas muitas equações obtidas por correlação, com vários parâmetros pouco confiáveis). Fig. 10.1.3 – Diferenças de refletividades modeladas a partir de perfis de poço desviado quando se considera (vermelho) e não se considera (azul) efeitos de anisotropia devido ao desvio do poço (extraído de Tsuneyama e Mavko, 2005).
Hornby et al (2003) acreditam que diferenças de velocidades em perfis sônicos entre poços desviados (maiores velocidades) e verticais no campo Niakuk (offshore Alaska) seja causada por anisotropia de folhelhos. Os autores que, apresentam um método de inversão iterativo (minimizando erro RMS ) em uma equação que usa perfis de poços em diferentes ângulos para quantificar anisotropia, obtiveram resultados de ε ≈ 40% e δ ≈ 10%, o que afeta imageamento, AVO e conversão tempo/profundidade. Para correção dos efeitos de anisotropia, foram usados desvios de poço, perfis, VSH (ou raiosgama) e parâmetros anisotrópicos para rochas com 100% de argila. Após as correções, as diferenças entre os sônicos diminuíram bastante, e ocorreu um ajuste bem melhor entre sismogramas sintéticos dos poços desviados e a sísmica. Os autores concluíram também que os perfis sônicos medem velocidades de grupo, não de fase. 10.2 Noções de sísmica passiva Como o nome sugere, significa o registro de eventos sem a geração artificial de energia. O objetivo principal tem sido o monitoramento de produção e/ou injeção –
164
incluindo comportamento de falhas (reativação, por ex.) – e, secundariamente, problemas de subsidência. Existem dois tipos principais: colocação de receptores em poços ou em superfície. A primeira opção tem a vantagem do ambiente menos ruidoso e mais próximo à ‘fonte’ (i.e., o reservatório); a desvantagem é a reduzida amostragem espacial. A segunda opção amostra uma área maior, torna mais fácil a substituição de receptores e equipamentos com problemas, mas costuma ser mais (às vezes, muito mais) ruidosa que a primeira. Esta metodologia deve ser considerada como ainda em fase de análises, com resultados positivos e negativos sendo algumas vezes apresentado. Na prática, o maior interesse por seu uso é no caso de sensores permanentes, em que se devem avaliar possíveis vantagens do registro contínuo. Como exemplo do potencial da técnica, a companhia Paulsson registrou, durante duas semanas em maio/2005, mais de mil terremotos fracos e cem mais intensos, associados à falha de San Andréas (P/GSI, 2005). Oitenta receptores 3C foram colocados em um poço usando uma tecnologia desenvolvida para a indústria do petróleo. Os terremotos fracos não foram captados por geofones na superfície, devido a sua baixa amplitude, mostrando a vantagem da técnica para detectar pequenas variações de tensão em sub-superfície, em relação à sísmica de superfície. Deve ser lembrado que esta é uma área de intensa atividade tectônica. 10.3 Introdução ao s ea-bed logging e outros métodos elétricos O método sea-bed logging (SBL, ainda sem ‘tradução’ na comunidade geofísica) é baseado na geração de um campo eletromagnético controlado (dipolo elétrico horizontal) 30 a 40 m acima do fundo do mar. Este campo, de freqüência ultrabaixa (≈ 0,1 a 5 Hz), mas poderoso (fazendo com que a profundidade de penetração possa se estender a vários quilômetros em sub-superfície), gera uma energia que se propaga na água do mar, nível do mar (interface ar-água) – as ondas aéreas – e em sub-superfície, onde é modificado principalmente pela presença de camadas resistivas (reservatórios com hidrocarbonetos, domos de sal, rochas vulcânicas). Finalmente, os sinais são captados por receptores (geralmente dois conjuntos de sensores elétricos e um magnético, todos com componentes x e y ortogonais), também colocados no fundo marinho, e processados (geralmente, com uso intensivo de modelagem). Eidesmo et al. (2002) e Kong et al. (2002) descrevem em detalhe o método. Os resultados – existentes desde 2000 (Ellingsrud et al., 2002) – têm indicado a presença de HC, mas o método é pobre para definir geometrias e bastante deficiente em prever a profundidade e espessura de reservatórios – o método ‘enxerga’ o reservatório como um resistor muito fino comparado com sua extensão horizontal. Por isso, é sempre usado junto com a sísmica de forma integrada, diminuindo incertezas. O uso já pode ser considerado de eficácia comprovada em várias situações, mas ainda não completamente rotineiro, e com vários melhoramentos por realizar – por ex., a maior parte dos relatos são de levantamentos 2D. Ao incorporar o terceiro navio para esse tipo de operação, a companhia emgs afirmou ter realizado, até o final de 2005, mais de 100 levantamentos em três anos de operação (emgs , 2005). O método funciona melhor em águas profundas a ultraprofundas, porque é gerada na interface água-ar uma onda de amplitude muito elevada, que, se for captada pelos receptores, obscurece o sinal de interesse. Estudos atuais procuram viabilizar o método para águas rasas e pouco profundas e, mais importante, para geometrias 3D.
165
Fig. 10.3.1 – Esquema de como o método sea-bed logging diferencia entre reservatórios com água (acima) e com hidrocarboneto (extraído de Hesthammer e Boulaenko, 2005).
Tem sido usado em locais muito variados, como Malásia (McBarnet, 2005). Bhuiyan et al. (2006) apresentam um dos poucos casos em que o SBL foi usado na detecção de litologias (e não hidrocarbonetos) altamente resistivas. A aquisição (do tipo especulativa), de 2003, usou 31 receptores distribuídos ao longo de duas linhas sísmicas sobre o arco de Modgunn (Noruega). Segundo os autores, foi possível detectar sills altamente resistivos profundamente enterrados.
Fig. 10.3.2 – Resultado (não confirmado por poço) de SBL sobre seção sísmica. A anomalia à direita deve estar associada a gás, mas a da esquerda é inconclusiva (extraído de Hesthammer e Boulaenko, 2005).
Oldengurg et al. (2005) comentam que um dos grandes impedimentos ao uso de levantamentos eletromagnéticos é a complexidade dos dados, que, diferentemente de informações gravimétricas ou magnéticas, podem não estar relacionados à geologia de uma maneira simples. De acordo com os autores, sedimentos marinhos preenchidos com água são bem condutivos (1 a 5 Ω.m), enquanto que reservatórios com HC são pelo menos uma ordem de grandeza mais resistivos.
166
A Petrobrás tem um projeto, sob coordenação do geof. Marco Polo, basicamente em áreas exploratórias. Até o momento não tem sido reportados estudos importantes sobre o uso de sea-bed logging em estudos de caracterização de reservatórios, principalmente devido a pouca precisão do método. Existe uma discussão judicial ainda não resolvida sobre a patente do método entre a Statoil (que cedeu a tecnologia para a cia norueguesa emgs ) e a University of Southampton (a partir de onda foi criada a companhia inglesa OHM). A decisão deve ser favorável à Statoil, pois Southampton aparentemente apenas auxiliou nas etapas finais de desenvolvimento da técnica. Além destas duas, somente a Schlumberger (que comprou uma empresa pequena que usa esta tecnologia) oferecem serviços com este método. Para procurar determinar a extensão de reservatórios com óleo, He et al (2005) (2005) apresentam um método eletromagnético transiente (TEM) – em que uma corrente contínua é enviada intermitentemente e mede-se o transiente (que pode ser definido como um pulso não repetitivo de curta duração) gerado – associado à polarização espectral induzida (SIP, que é a medida do decaimento da voltagem induzida após a corrente de excitação ser desligada). O método é baseado na geração de potencial induzido e ‘espalhamento’ de freqüências em uma interface sólido-liquído. Uma corrente alternada é emitida do poço (acima e abaixo do reservatório) e medida em superfície, com variações de resistividade e fase para diferentes freqüências indicando precisamente limite do reservatório e também litologia (fig. 10.3.3) O método foi testado e usado na Rússia e China (terra). Segundo os autores, é mais barato que a sísmica, podendo também dar resultados em algumas situações que o método sísmico não funciona.
Fig. 10.3.3 – Comparação entre seção sísmica (acima, com presença de óleo em azul escuro) e resultado de método eletromagnético transiente (extraído de He et al , 2005).
167
REFERÊNCIAS Aki, K. and Richards, P.G., 1980, Quantitative Seismology, Theory and Methods . Alkhalifah, T. e Tsvankin, I., 1995, Velocity analysis for transversely isotropic media , Geophysics, 60(?):1550-1566. 60(?):1550-1566. Allen, J.L.. e Peddy, C.P., 1992, Some case histories of AVO failures in the Texas Gulf Coast , 62nd SEG Mtg, p. 848-851. Angeleri, G.P. e Carpi, R., 1982, Porosity prediction from seismic data , GP, 30(??):58030(??):580607. Anstey, N.A., 1973, The significance of color displays in the direct detection of hydrocarbons , 430 Congresso da SEG. Anstey, N.A., 1977, Seismic Interpretation – the physical aspects , IHRDC, Boston. Aquino, C.G.S., 1993, Abordagem estocástica para estimativa de volume de hidrocarbonetos usando dados sísmicos , V Seminário de GDR, Rio, p.151-168. Araktingi, U.G., Bashores, W.M., Tran, T.T.B. e Hewett, T.AA., 1990, Integration of seismic and well log data in reservoir modeling , 3rd Annual Conf. NIPER on Reserv. Charac. Arestad, J.F., Mattocks, B.W., Davis, T.L. e Benson, R.D., 1995, How 3D, 3C seisimic characterized a carbonate reservoir , World Oil, abril, p.99-104. Backus, G.E., 1962, Long-wave elastic anisotropy produced by horizontal layering , Journal of Geophysical Research, 67(?):4427-4439. 67(?):4427-4439. Baechle G.T., Weger, R.J., Eberli, G.P., Massaferro, J.L. e Sun, Y.F., 2005, Changes of shear moduli in carbonate rocks implications for Gassman applicability , TLE, 24(5):507510. Bahorich, M.S. e Farmer, S.L., 1995, 3-D seismic discontinuity for faults and stratigraphic and stratigraphic features , TLE, 14(?):1053-1058. 14(?):1053-1058. Bailey et al .,., 2005, ??? , SPE 95909. Ball, V.L. e Corrigan, D., 1996, Dual sensor summation of noisy ocean-bottom data , 66th Int. SEG Mtg., p.28-31. Banik, N.C., 1984, Velocity anisotropy of shales and depth estimation in the North Sea basin , Geophysics, 49(?):1411-1419. 49(?):1411-1419. Barnes, A.E., 1998, The complex seismic trace made simple , TLE, 17(?):473-476. 17(?):473-476. Barr, F.J. e Sanders, J.I., 1989, Attenuation of water-column reverberations using pressure and velocity detectors in a water-bottom cable : 59 th Annual Meeting SEG Expanded Abstracts , paper SA 2.6, page 653.
168
Batzle, M. e Wang, Z., 1992, Seismic properties of pore fluids , Geophysics, 57:1396-1408. Berg, E., Svenning, B. e Martin, J., 1994, SUMIC: multicomponent sea-bottom seismic surveying in the North Sea – data interpretation and applications , 64 th Annual Meeting SEG Expanded Abstracts , paper IM 1.6, p. 477-480. Berkhout, A.J., 1973, On the minimum length property of one-sided signals , Geophysics, 38(?):657-672. Berkhout, R.A., 1984, Seismic Resolution , Geophysical Press Berryman, J.G., 1999, Origin of Gassmann’s equations , Geophysics, 65(5):1627-1629. Berryman, J.G., 2005, Fluid effects on shear waves in finely layered porous media , Geophysics, 70(2):N1-N15. Bertrand, A. e Bannister, D., 2005, Enhanced 4D processing and quantitative analysis on Troll West using multiple vintages of legacy data , FB 23(9):49-55. Best, A.I., 1993, Predicting reservoir properties of sedimentary rocks from seismic measurements , The Petroleum Science and Technology Institute, Edinburgh, RF 93/03. Bevk, D. e Biondi, B., 2005, Which depth imaging method should you use? A road map through the maze of possibilities , TLE 24(6):602-606. Bhuiyan, A., Wicklund, T e Johansen, S., 2006, High-resistivity anomalies at Modgunn arch in the Norwegian Sea , FB, 24(1):39-44. Biot, M.A., 1956, Theory of propagation of elastic waves in a fluid saturated porous solid. II Higher-frequency range , Journal of Acoustic Socitety of America, 28(?):168-178. Blauth, M., Oliveira, R.M. e Silva, J.M., 1994, Metodologia para mapeamento sísmico da capacidade de estocagem de fluido de reservatórios de petróleo , Petrobras/Desud, Informativo Geológico 05/94. Bodine, J.H., 1984, Waveform analysis with seismic attributes , 540 Congresso da SEG, seçao S9.1. Bodine, J.H., 1986, Waveform analysis with seismic attributes , Oil and Gas Journal, 84(23):59-63. Bortfeld, R., 1961, Approximation to the reflection and transmission coefficeintes of plane longitudinal and transverse waves, GP, 9(?):485-503. Bourbiaux, B., Basquet, R., Daniel, J.M., Hu, L.Y., Jenni, S., Lange, A. and Rasolofosaon, P., 2005, Fractured reservoirs modelling: a review of the challenges and some recent solutions , FB 23(9):33-40. Bowden, E.A. e Prior, M.J., 1983, Ocean Bottom Seismometer: An Engineering Perspective : 53rd Annual Internat. Mtg., SEG., Expanded Abstracts, Session:S15.5.
169
Brown, A.R., 1991, Interpretation of thee-dimensional seismic data , 3 rd ed., AAPG Memoir 42. _____, 1992, The technologies of reservoir geophysics , in Sheriff, R.E. (ed.), Reservoir Geophysics, SEG Investigations in Geophysics, vol. 7. Brown, A.R., 2005, Pitfalls in 3D seismic interpretation , TLE, ??(7):716-717. Brzostowski, M. e Ratcliff, D., 1995, Seismic depth-imaging of complex geology , SBGf IV Congress Courses. Bube, K.P., Langan, R.T. e Nemeth, T., 2005, Analysis of the spectral hole in velocity versus depth resolution for reflection traveltimes with limited aperture , Geophysics, 70(3):U37-U45. Cafarelli, B., Randazoo, S., Campbell, S., Sobreira, J.F., Guimaraes, M.A.G., Rodriguez, C., Johann, P. E Theodoro, C., 2006, Ultra-deepwater 4-C offshore Brazil , TLE, 25(?):474478. Cagniard, L., 1953, Basic theory of the magnetic-telluric method of geophysical prospecting , Geophysics, 18(?):605-635. Campbell, A., Fryer, A. and Wakeman, S., 2005, Vertical seismic profiles—more than just a corridor stack , TLE 24(7):694-697. Canales, L. e Bell, M.L., 1996, Ghost attenuation using dual sensor cable data , 66th Int. SEG Mtg., p.1591-1594. Carcione, J.M., Helle, H.B., Santos, J.E. e Ravazzoli, C.L., 2005, A constitutive equation and generalized Gassmann modulus for multimineral porous media , Geophysics, 70(2):N17-N26. Carvalho, R.D. e Amorin, W.N., 1991, Sísmica de alta resolução , Boletim de Geociências da Petrobras, 5(1-4):89-107. Cary, P.W., 2001, Seismic signal processing – a new millenium perspective , Geophysics, 66(?):18-20. Castagna, J.P., Sung, S. e Siegfried, R.W., 2003, Instantaneous spectral analysis: Detection of low-frequency shadows associated with hydrocarbons , TLE, 22(?):120-127. Cerveny, V. e Ravindra, R., 1971, Theory of seismic head waves , Univ. of Toronto Press. Chopra, S., Chemingui, N. e Miller, R.D., 2005, An introduction to this special section – carbonates , TLE, ??(5):488-489. Chopra, S. e Marfurt, K.J., 2005, Seismic attributes – a historical perspective , Geophysics, 70(5):3SO-28SO. Churlin, V.V. e Sergeyev, L.A., 1963, Application of seismic surveying to recognition of productive part of gas-oil strata , Geologiya Nefti I Gaza, 7(11):363. 170
Connolly, P., 1999, Elastic impedance , TLE, 18(??):438-452. Contreras, A, Torres-Verdín, C. and Fasnacht, T., 2005, More vertical resolution and accuracy with less uncertainty in reservoir characterization , FB 23(10):75-78. Cooley, J.W. e Tukey, J.W., 1965, An algorithm for the machine calculation of complex Fourier series , Mathematical Computation, 19(?):297-313. Cooke, D.A. e Schneider, W.A., 1983, Generalized linear inversion of reflection seismic data , Geophysics, 48(??):665-676. Cunha Filho, C., Rodriguez, C. e Cavalcanti, V.L.B. 200?, aumento de resolução – nova seqüência
De Buyl, M., 1989, Optimum field development with seismic reflection data , TLE, 8(4):1420. DeLaughter, J., Meltz, B., Smith, S., Yun, J. and Murat, M., 2005, Use of z-score to rescale amplitudes , TLE 24(7):698-701. Denham, L.R. e Sheriff, R.E., 1980, What is horizontal resolution , 50th SEG Meeting. Dequirez, P.H. e Richard, V., 1990, Application of inversion to integrated stratigraphic interpretation , Revue de l’IFP, 45(3):397-416. Dillon, L.D. e Vasquez, G.F., 1993, Velocidade acústica em função da temperatura em arenitos sob diferentes regimes de saturação parcial de óleo e água , V Sem. Geof. Petrobras, p.52-57. Dix, C.H., 1955, Seismic velocities from seismic measurements, Geophysics, 20(1):68-86. Dobrin, M.B. e Savit, C.H., 1988, Introduction to Geophysical Prospecting , 4th ed., McGraw-Hill, 867 p. Domenico, S.N., 1974, Effect of water saturation on seismic reflectivity on sand reservoirs encased in shale , Geophysics, 39(??):759-769. Doyen, P.M., 1988, Porosity from seismic data: a geostatistical approach , Geophysics, 53(10):25-37. Doyen, P.M., Guidish, T.M. e de Buyl, M.H., 1989, Monte Carlo simulation of lithology from seismic data in a channel-sand reservoir , SPE 64 th Ann. Tech. Conf., #19588. Dragoset, W.H., 1990, Air-guns array specs: A tutorial , TLE, 9(1):24-32. Dragoset, B. e Barr, F.J., 1994, Ocean-bottom cable dual-sensor scaling , 64th SEG Int. Mtg, p.857-860. Duarte, O.O., 2003, Dicionário enciclopédico inglês-português de geofísica e geologia , SBGf, 2ª ed.
171
Duff, B.A. e Mason, D.J., 1989, The instantaneous-phase time slice: a crucial display for enhancing 3D intepretation , ASEG 7 th Conference, 20:213-217. Duncan, P.M., 2006, Micro-seismic monitoring: the other 4-D , Hart E&P, Março, p. 43-45. Eastwood, J., Lebel, P., Dilay, A. e Blakeslee, S., 1994, Seismic monitoring of steam- based recover of bitumen , TLE,13(4):242-251. Eidesmo, T., Ellingsrud, S., MacGregor, L.M., Constable, S., Sinha, M.C., Johanses, S.E., Kong, F.N. e Westerdahl, H., 2002, Sea Bed Logging (SBL), a new method for remote and direct identification of hydrocarbon filled layers in deepwater areas , FB, 20(3):144-152. Ellingsrud, S., Sinha, M.C., Constable, S., MacGregor, L.M., Eidesmo, T. e Johanse, S.E., 2002, Remote sensing of hydrocarbon layers by Sea Bed Logging (SBL): results from a cruise offshore Angola , TLE, 21(?):972-982. emgs , 2005, Extra vessel ordered for EM operations , FB 23(12):35.
Evans, B.J., 1997, A handbook for seismic data acquisition , SEG Geophysical Monograph Series num. 7, 305 p. Faust, L.T., 1951, Seismic velocity as a function of depth and geological time , Geophysics, 16(?):192-206. Figueiredo, F.A. e Rambo, L., 1994, Conversão tempo x profundidade , Informe Geofísico 110, Petrobras/Depex. Forrest, M., 2000, “Bright” investments paid off , AAPG Explorer, julho: 18-21. Freire, S.L., Santos, W.L.B., Vieira, A.C. e Fernandes, S.M., 1993, Aplicações da relação entre resistividade e tempo de transito na Bacia do Recôncavo , V Sem. Geofísica, Petrobras/Depex, p. 369-377. Freitas, L.C.S, Rodriguez, C., Iatchuck, S.P., Pinto, A C.C., 1996, Campo de Marlim: mapeamento sísmico de heterogeneidades no reservatório , I Seminário de Reservas e Reservatórios, Petrobrás, E&P/GERER, Rio de Janeiro, p. 253-259. Freitas, M.G. e Souza, M.M., 1992, Uso de simulação Monte Carlo na conversão em profundidade , Informe Geofísico 95, Petrobras/Depex. French, W.S., 1974, Two-dimensional and three-dimensional migration of model- experiment reflection profiles , Geophysics, 39(3):265-277. Fuchs, K., 1968, The reflection of spherical waves from transition zones with arbitrary depth-dependent elastic moduli and density , Journal of Physical Earth, 16(?):27-42. Futterman, W.I., 1962, Dispersive body waves , Journal of Geophysical Research, 67(?):5279-5291. Ganley, D.C., 1979, The measurements of Q from seismic data , PhD thesis, Univ. of Alberta, Canada. 172
Gardner, G.H.F., Gardner, L.W. e Gregory, A.R., 1974, Formation velocity and density – the diagnostic basis for stratigrapic traps , Geophysics, 39(?):770-780. Gassmann, F., 1951, Elastic waves through a packing of spheres , Geophysics, 16(?):673685. Gazdag, J., 1978, Wave equation migration with the phase shift method , Geophysics, 43(?):1342-1351. Geerstma, J., 1961, Velocity-log interpretation the effect of rock compressibility . SPE Journal, 1:235-248. Gibson,J., Burnett, R., Ronen, S. and Watt, H2005, MEMS sensors: Some issues for consideration , TLE, 24(8):786-790. Gochioco, L.M. e Brzostowski, M., 2005, An introduction to this special section – migration , TLE, 24(6):601. Grant, F.S. e West, G.F., 1965, Interpretation theory in applied geophysics , McGraw Hill. Grau, G., 1990, Foreword , Revue de l’IFP, 45(3):295-300. Gray, S.H., 2001, Seismic imaging , Geophysics, 66(?):15-17. Greaves, R.J. e Fulp, T.J., 1987, Three-dimensional seismic monitoring of an enhanced oil recovery process , Geophysics, 52(9):1175-1187. Grochau, M.H. e Freitas, J.T.R., 1993, Potencialidade da utilização de altas freqüências na região amazônica , Informe Geofísico 109, Petrobras/Depex. Guimaraes, M.A.G., Sekharam, K.K., Sukup, D. e Krail, P.M., 1998, 3D pre-stack depth migration of vertical cable data over SEG/EAGE physical model , 68th SEG Mtg, p.11821186. Hall, A., MacBeth, C., Stammeijer , J. e Omerod, M., 2006, Time-lapse seismic analysis of pressure depletion in the Southern Gas Basin , GP, 54(?):63-73. Hall, M.A., 1990, A popperian evaluation of a stratigraphic inversion methodology , Revue de l’IFP, 45(3):357-382. Han, D.H., Nur, A. e Morgan, D., 1986, Effects of porosity and clay content on wave velocities in sandstones , Geophysics, 51(??):2093-2107. Hardage, B.A., Levey, R.A., Pendleton, V., Simmons, J. e Edson, R., 1994, A 3D seismic case history evaluating fluvially deposited thin-bed reservoirs in a gas-producing property , Geophysics, 59(11):1650-1665. Harris, J.M., 1994, Crosswell seismic profiling: a new tool of reservoir geophysics , Apostila de curso no PPPG/UFBA.
173
Hatton, L., Larner, K e Gibson, B.S., 1981, Migration of seismic data from inhomogeneous media , Geophysics, 46(5):751-787. He, Z., Liu,X., Qiu, W. and Zhou,H., 2005, Mapping reservoir boundary by borehole- surface TFEM:Two case studies , TLE 24(9):896-900. Heath, T., 1921, A history of Greek Mathematics , Oxford at the Clarendon Press. Hesthammer, J. e Boulaenko, M., The offshore EM challenge , FB, 23(11):59-66. Hornby, B. E., Howie, J. M. and Ince, D.W., 2003 , Anisotropy correction for deviated-well sonic logs: Application to seismic well tie , Geophysics, 68:464-471. Hornby, B.E., Bostick, F.X., Williams, B.A., Lewis, K.A. e Garossino, P.G., 2005, Field test of a permanent in-well fiber-optic seismic system , Geophysics, 70(4):E11-E19. Hubral, P. e Krey, T., 1980, Interval velocities from seismic relfection time measurements , SEG, 203 p. Huck, A., Rooij, M., Groot, P., Henke, C. and Rauer, S., 2005, Populating a PSDM created earth model with PSTM predicted seismic properties , FB 23(10):87-91. Hughes, S., Barton, P., Harrsion, D. e Johnson, M., 1995, Exploration in the Faeroe- Shetland Basin Using Densely Space Arrays of Ocean Bottom Seismometers : 57th Mtg. EAEG., Abstracts,Session:C002. Hwang, L. e McCorkindale, D., 1994, Troll field depth conversion using geostatically derived average velocities , TLE, 13(4):262-269. Justice, J.H., Mathisen, M.E., Vassilou, A.A., Shiao, I., Alameddine, B.R. e Guinzy, N.J., 1993, Crosswell seismic tomography in improved oil recovery , FB, 11(6):229-239. Kalkomey, C.T., 1997, Potential risks when using seismic attributes as predictors of reservoir properties , TLE, 16(?):247-251. Kallweit, R.S. e Wood, L.C., 1982, The limits of resolution of zero-phase wavelets , Geophysics, 47(7):1035-1046. Kjartansson, E., 1979, Constant Q-wave propagation and attenuation , Journal of Geophysical Research, 84(?):4737-4748. Klimentos, T. e McCann, 1990, Relationships between compressional wave attenuation, porosity, clay content, and permeability of sandstones , Geophysics, 55(??):998-1014. Kong, F.N., Westerdahl, H., Ellingsrud, S., Eidesmo, T. e Johansen, S.E., 2002, SeaBed Logging: A possible direct hydrocarbon indicator for deep sea prospects using EM energy , Oil & Gas Journal, May 13. Koster, K., Gabriels, P., Hartung, M., Verbeek, J., Deinum, G. e Staples, R., 2000, Time- lapse seismic surveys in the North Sea and their business impact , TLE, 19(?):286-293.
174
Krail, P.M., 1991, Case history: Vertical cable 3-D acquisition : 53 rd Mtg. EAEG, Abstracts, 206. Krail, P.M., 1994, Vertical cable as a subsalt imaging tool : TLE, 13(8): 885-887. Krail, P.M., 1997, Vertical-cable marine seismic acquisition : Offshore Technology Conference, OTC 8315, p. 347-355. Krebes, E.S., 1989, Seismic theory and methods , Geophysics 551 Course Notes, Univ. of Calgary. Kunetz, G., 1963, Quelques exemples d’analyse d’enregistrements sismiques , GP, 11(4):409-422. Journel, A.G., Xu, W. e Tran, T., 1992, Integrating seismic data in reservoir modeling : the collocated cokriging alternative , SCRF, Stanford Univesity, Report 5, p. 1-34. Landro, M., 1999, Repeatability issues of 3-D VSP , Geophysics, 64(?):1673-1679. Landro, M., Solheim, O.A., Hilde, E., Ekren, B.O. e Stronen, L.K., 1999, The Gulfaks 4D seismic study , Petroleum Geoscience, 5(?):213-226. Landro, M., 2001, Discrimination between pressure and fluid saturation changes from time-lapse seismic data , Geophysics, 66:836-844. Lavergne, M., 1975, Pseudo-diagraphics de vitesse en offshore profonde , GP, 23(?):695711. Levin, F.K., 1984, The unreasonable success of reflection seismology , TLE, 3(1):16-18. Lindseth, R.O., 1979, Synthetic sonic logs – a process for stratigraphic interpretation, Geophysics, 44(1):3-26. Lindseth, R.O., 1982, Digital processing of geophysical data – a review. SEG. Lindseth, R.O., 2005, Seismic attributes – some recollections , Canadian SEG Recorder, 30(3):16-17. Lindsey, J.P., 1989, The Fresnel zone and its interpretative significance , TLE, 8(?):33-39. Liner, C., Li, C.F., Gersztenkorn, A. e Smythe, J., 2004, SPICE: A new general seismic attribute , 720 Congresso da SEG:433-436. Loewnthal, D., Lee, S.S. and Gardner, G.H.F. 1985, Deterministic Estimation of a Wavelet Using Impedance Type Technique , GP, 33(7):956-969. Lu, W., Li, Y., Zhang, S., Xiao, H. e Li, Y., 2005, Higher-order-statistics and supertrace- based coherence-estimation algorithm , Geophysics, 70(3):P13-P18. Lumley, D.E. e Tura, A., 1999, Estimating pressure and saturation changes from time- lapse AVO data , 69th SEG Meeting, p. 1655-1658. 175
Luo, M., Takahashi, I., Takanashi, M. e Tamura, Y., 2005, Study reservoir flow anomaly through mapping a fracture network , FB, 23(7)35-38. MacBeth, C., Stammeijer, J. e Omerod, M., 2006, Seismic monitoring of pressure depletion evaluated for a United Kingdom continental-shelf gas reservoir , GP,54(?):??-??. Macrides, C.B., Kanasewich, E.R. e Bharatha, S., 1988, Multiborehole seismic imaging in steam injection heavy oil recovery projects , Geophysics, 53(?):227-237. Maia, W., Rubio, R., Junior, F., Haldorsen, J., Guerra, R. e Dominguez, C., 2006, First borehole acoustic reflection survey mapping a deepwater turbidite sand , 76th SEG Mtg. Makris, J. e Thiessen, J., 1983, Offshore seismic investigations of sedimentary basins with a newly developed ocean bottom seismograph : 53rd Annual Internat. Mtg., SEG, Expanded Abstracts, Session:S15.7. Margrave, G.F., 1996, Applied 2-D and 3-D seismic analysis , Course lecture notes, Crewes, University of Calgary. Martini, F., Hobbs, R.W., Bean, C.J. e Single, R., 2005, A complex 3D volume for sub- basalt imaging , FB, 23(7):41-51. Mayne, W.H., 1962, Common reflection point horizontal data stacking techniques , Geophysics, 27(6):927-938. McBarnet, A., 2005, OHM to work offshore Sarawak , FB, 23(8):26. McCann, C., 1994, Estimating the permeability of reservoir rocks from P-wave velocity and quality factor , 56th EAGE Mtg, session P172. McQuillin, R., Bacon, M. And Barclay, W., 1984, An Introduction to Seismic Interpretation , Reflection seismics inpetroleum exdploration. Graham&Trtam, 2nd ed., Oxford, 287 p. Mjelde, R., Berg, E.W., Strom, A., Riise, O., Shimamura,H., Shiobara, H., Kodaira, S. e Kanazawa, T., 1995, Three-component ocean bottom seismographs used in prospecting in the Voring Basin, N. Norway : 65th Annual Internat. Mtg., SEG., Expanded Abstracts, 537-540. Moinard, L., 1987, Application of kriging to the mapping of a reef from wireline logs and seismic data: a case history , Geostatistical Case Studies, eds. G. Matheron e M. Armstrong, p.93-103. Moldoveanu, N., van Baaren, P., Addessi, D., Stubbington, L. e Combee, L., 1996, Repeatability of the seismic experiments for 4D seismic in transiton zone surveys , 66th SEG Mtg, p.5-8. Neff, D.B., 1993, Amplitude map analysis using forward modeling in sandstone and carbonate reservoir , Geophysics, 58(10):1428-1441. Neidell, N.S. e Poggiagliolmi, E., 1977, Stratigraphic modeling and interpretation – geophysical principles and techniques , AAPG Memoir 26, p. 389-416. 176
Nelson Hr. H.R., Mastoris, S. e Hoxohi, C., 1991, Visualization of map and seismic attributes , 53rd EAEG Meeting, Florença, A044, p. 86-87. Nes, O.M., Holt, R.M., Fjaer, E., 2000, The reliability of core data as input to seismic reservoir monitoring studiesI , SPE 65180. Newman, P., 1973, Divergence effects in a layered earth , Geophysics, 38:481-488. Ng, H.T., Bentley, L.R. e Krebes, E.S., 2005, Monitoring fluid injection in a carbonate pool using time-lapse analysis: Rainbow Lake case study , TLE, 24(5): 530-534 . Nur, A., 1993, Rock Physics short course , apostila de curso Unicamp. O’Doherty, R.F. e Anstey, N.A., 1971, Reflection on amplitudes , GP, 19(?):430-458. Oldenburg, D.W., Scheuer, T. e Levy, S., 1983, Recovery of the acoustic impedance from reflection seismograms , Geophysics, 48(?):1318-1337. Oldenburg, D, Eso, R., Napier, S. e Haber, E., 2005, Controlled source eletromagnetic inversion for resource exploration , FB, 23(7):67-73. Oliveira, A.S., Rodriguez, C. e Braga, V.L.O., 2005, Sobre a aplicação da compensação-Q com SVD e posterior aplicação do Iterdec em Roncador , Comunidade Técnica de Sísmica da Petrobras, 27/maio. Ostrander, W.J., 1984, Plane-wave reflection coefficients for gas sands at nonnormal angles of incidence , Geophysics, 49(10)1637-1648. Paffenholz, J. e Barr, F.J., 1995, Ann improved method for deriving water-bottom reflectivities for processing dual-sensor ocean-bottom cable data , 65th Int. SEG Mtg., p.987-990. Parr, R.S. e Marsh, M., 2000, Development of 4-D reservoir management West of Shetland , World Oil, setembro:39-47. Partyka, G., Gridley, J. e Lopez, J., 1999, Interpretational applications of spectral decompositions in reservoir characterization , TLE, 18(?):353-360. Paulsson, B.N.P., Smith, M.E., Tucker, K.E. e Faibon, J.W., 1992, Characterization of a steamed oil reservoir using cross-well seismology , TLE, 14(7):24-32. Pennebaker Jr., E.S, 1968, Seismic data indicate depth, magnitude of abnormal pressures , World Oil, Junho, p.73-77. PGS, 2006, PGS Data Processing, Preliminary Seismic Processing Report, Campos Basin Albacora-Roncador HD3D, PGS Job No. 2004095 , 74 p. P/GSI, 2005, Borehole seismic records 1000 earthquakes during San Andreas Fault research , FB, 23(9):17.
177
Pharez, S.J., Jones, N., Dirks, V., Zimine, S. Pringent, H., Ibbotson e Gruffeille, J.-P., 2005, Prestack wave-equation migration as a routine production tool , TLE, 24(6):608-613. Pon, S. e Lines, L.R., 2005, Sensitivity analysis of seismic depth migrations , Geophysics, 70(2):S39-S42. Puckett, M., 1991, Offset VSP: a tool for development drilling , TLE,13(8):18-24. Raymer, ?, 1980, An improved sonic transit time-to-porosity transform , SPWLA Annual Meeting, Paper P. Ribeiro, N., Formiga, L., Sansonowski, R. e Jaeger, M., 2006, First deepwater 3-VSP in Brazil minimizes drilling risk in the Marlim field , 76th SEG Mtg. Richards, P.G. e Frasier, C.W., 1976, Scattering of elastic waves from depth dependent inhomogeneities , Geophsycis, 41(?):441-458. Richards, P.G. e Menke, W., 1983, The apparent attenuation of a scattering medium, Bull. Seism. Soc. of America, 73(?):1005-1021. Rijks, E.J.H. e Jauffred, J.C.E.M., 1991, Attribute extraction: an important application in any detailed 3D interpretation study , TLE, 11(9):11-19. Robertson, J.D. e Nogami, 1984, Complex seismic trace analysis of thin beds , Geophysics, 49(?):344-352. Robertson, J.D. e Fisher, D.A., 1988, Complex seismic trace attributes , TLE, 7(6):22-26. Rodriguez, C., 1993, AVO – debate técnico , Petrobras/Depex, doc. interno. Rodriguez, C., Aguiar, L.A.M., Souza, R.S., Fonseca, R.C.S. e Maia, F.J., 1995, Delimitação de depósitos de leques aluviais e fluviais através de sísmica 3D – um caso histórico , IV Cong. SBGf, p.827-830.
Rodriguez, C., Stewart, R.R., Li, X. e Bancroft, J.C., 1998, Imaging of the Valhall field Norway using 4-C seismic data , AAPG Intern. Conf., Rio de Janeiro, p.120-1. Rodriguez, C. and Stewart, R.R., 1999, Survey design for vertical cable seismic acquisition , 61st EAGE Mtg, session 6007. Rodriguez, C., 2000, Advanced Marine Seismic Methods: Ocean-Bottom and Vertical Cable Analyses , Tese de Doutorado, Univ. of Calgary. Rodriguez, C.,Stewart, R.R., and Margrave, G., 2000, Where does S-wave energy on OBC recordings come from? , 70th SEG Mtg, p.1170-1173. Rodriguez, C., 2002, Seismic interpretation of an ultra-deepwater field – a case study from Roncador, Brazil, 64th EAGE Mtg, G031. Rodriguez, C., 2004, Análise do uso de atributos sísmicos na caracterização de reservatórios , Proposta de CTO. 178
Rodriguez, C., Souza, J.A.B., Sarzenski, D.J., Ida, M. e Elias, V.L.G., 2004, Reservoir characterization of an ultra-deepwater giant oil fiel offshore Brazil , 66th EAGE Mtg, A009. Rodriguez, C., Costa, F., Mihaguti, M. e Carvalho, F., 2006a, Aquisição e processamento sísmico HD3D em Roncador – um estudo de caso , I Simp. Geof. Reservatorio Petrobras. Rodriguez, C., Costa, F., Sarzenski, D. e Carvalho, F., 2006b, O uso de atributos sísmicos para caracterização geológica em Roncador , X Simpósio de Geof. da Petrobras. Rosa, A.L.R. e Tassini, J., 1990, Introdução à Inversão do Traço Sísmico , Apostila de curso interno, Petrobrás. Rosa, A.L.R. e Tassini, J., 1995, Introdução à Inversão do Traço Sísmico , Apostila de curso interno, Petrobrás. Rosa, A.L.R., 2002, Análise do Sinal Sísmico , Apostila de curso interno, Petrobrás, 500 p.. Rosa, A.L.R., Cunha Filho, C.A., Rodriguez, C. e Cavalcanti, V.L.O.B, Estratégia de processamento para aumento de resolução sísmica baseada na deconvolução iterativa , III Enc. Lições Aprend. Geof. Reserv., Aracaju. Ross, C.P., Carlson, .DH. e Starr, J.G., 1996 , Comparison of AVO using ocean bottom seismic and marine streamer data , 66th SEG Mtg, p.1755-1758.. Rowbotham, M., Williamson, E. e Swaby, L., 2003, The implication of anisotropy for seismic impedance inversion , First Break, 21(?):53-58. RSI (Rock Solid Images), 2002 (?), Calculation, classification and calibration of seismic attributes to well log attributes, A non-linear Kohonen self-organized mapping approach, Campos Basin, Brasil , Cenpes-UN-Rio/Atp-BrC/Res, 57 p.
Russel, B., 1990, Introduction to seismic inversion methods , SEG Course Notes Series, vol. 2. Russel, B. e Hampson, D., 1991, Comparison of poststack seismic inversion methods , SEG, paper SI1.1, p.876-878. Saltzer, R., Finn, C. e Burtz, O., 2005, Predicting V shale and porosity using cascade seismic and rock physics inversion , TLE, ??(7):732-736. Schlumberger, 1985, Avaliação de Formações no Brasil . Schmidt, J. e Santos, M.S., 1995, Caracterização de reservatórios via rede neural , IV Congresso SBGf, Rio. Schoenberger, M., 1974, Resolution comparison of minimum-phase and zero-phase signals , Geophysicis, 39(6):826-833. Schoenberger, M. e Levin, K., 1974, Apparent attenuation due to intrabed multiples , Geophysics, 39(?):278-291.
179
Schultz, P.S., Ronen, S., Hattori, M. e Corbett, C., 1994, Seismic-guided estimation of log properties , TLE, 13(5):305-315. Schwedersky , G., Siqueira, A.G., Becker, M.R., Rosa, A.L.R., Bettini, C., Menezes, S.X. e Alegre, L., 1992, Geofísica de Reservatório , IV Sem. Geof. Petrobrás, p.535-539. Schwedersky, G., Almeida, A.S. e Bettini, C., 1995, Diferentes abordagens na utilização de dados sísmicos na geração de modelos de porosidade , IV Cong. SBGf, Rio. Shapiro, S.A., Hubral, P. e Zien, H., 1994, Frequency-dependent anisotropy of scalar waves in a multilayered medium , Journal of Seismic Exploration, 3(?):37-52. Sheriff, R.E., 1978, A first course in geophysical exploration and interpretation , IHRDC, Boston, 313 pg. Sheriff R.E., 1980, Nomogram for Fresnel zone calculation , Geophysics, ??(??):?? Sheriff, R.E., 1985, Aspects of seismic resolution , AAPG Memoir 39, p.1-10. Sheriff, R.E., 1992, Petrophysical and geophysical background , in Sheriff R.E. (ed.), Reservoir Geophysics , SEG Investigations in Geophysics, vol. 7. Sheriff, R.E., 1991, Encyclopedic Dictionary of Applied Geophysics , 3rd ed., SEG. Sheriff, R.E., 2002, Encyclopedic Dictionary of Applied Geophysics , 4th ed., SEG, Geophysical Reference Series 13. Sheriff, R.E. e Geldart, L.P., 1995, Exploration Seismology , Cambridge, 2a ed, 592 p. Sherwood, J.R., 1993, 3D seismic and geostatistical methods provide more accurate reesrvoir models , Petr. Engineer Internat., dezembro, p.15-19. Shuey, R.T., 1985, A simplification of Zoeppritz equations, Geophysics, 50(?):609-614. Sonneland, L., Navrestad, T. e Roed, 1995, Sub-sea seismic: Acquisition and data analysis procedures , 65th SEG Mtg, p.963-965. Souza, J.A., 1985, Alguns fatores que influenciam ou afetam as previsões de profundidades nos prospectos de poços , Petrobras/Dexnor/Dirgef, Relatório Interno. Souza Jr., O.G. e Sousa, M.T.A., 1993, Aplicação de análise de regressão para geração de perfis sônicos sintéticos , ?? Informe Geofísico 105 // Relatório interno DEBAR. Spencer, T.W., Sonnad, J.R. e Butler, T.M., 1982, Seismic Q – Stratigraphy or dissipation , Geophysics, 47(1):16-24. Spikes, K.T. e Dvorkin, J.P., 2005, Gassmann-consistency of velocity-porosity transforms , TLE, 24(6):581-583. Stewart, R.R., 1992, Exploration seismic tomography: fundamentals , SEG Course Notes Series, vol. 3. 180
Stolt, R.H., 1978, Migration by Fourier transform , Geophysics, 43(?):23-48. Stovas, A. e Landro, M., 2005, Fluid-pressure discrimination in anisotropic reservoir rocks – A sensitive study , Geophysics, 70(3):O1-O11. Taner, M.T. e Koehler, F., 1969, Velocity spectra – digital computer derivation and applications of velocity functions , Geophysics, 34,(?):859-881. Taner, M.T., Koehler, F. e Sheriff, R.E., 1979, Complex seismic trace analysis , Geophysics, 44(?):1041-1063. Taner, M.T., 2001, Seismic attributes , Canadian SEG Recorder, 26(9):48-56. Tatham, R.H. e Stoffa, P.L., 1976, V P /V A potential hydrocarbon indicator : Geophysics, S – 41:837-849. Tatham, R.H. e McCormack, M.D., 1993, Multicomponent seismology in petroleum exploration , SEG Investigations in Geophysics Series, vol. 6, 248 p. Tenghanm, R. e Long, A., 2006, PGS shows off electrical marine vibrator to capture ‘alternative’ seismic source market , FB, 24(1):33-36. Tessmer, G. e Behle, 1988, Common refleciton point data-stacking technique for converted waves , GP, 36(?):671-688. Thomas, J.E., 2003, Velocidades sísmicas , Universidade Petrobras, 132 p. Thomsen, L., 1986, Weak elastic anisotropy , Geophysics, 51(?):1954-1966. Thomsen, L., 1990, Poisson was not a geophysicist , TLE, 19(12):27-29. Toverud, T. e Ursin, B., Comparison of seismic attenuation models using zero-offset vertical seismic profiling (VSP) data , Geophysics, 70(20):F17-F25. Traub, B. e Li, X.-Y, 2006, The effects of near-surface conditions on anisotropy parameter estimations from 4C seismic data , GP,54(?):15-28. Tsuneyama, F. and Mavko, G. 2005, Velocity anisotropy estimation for brine-saturated sandstone and shale , TLE, 24(9):882-888. Varela, C.L. e Esteves, F.R., 1990, Mapeamento de amplitude na delimitação dos Campos de Corvina e Malhado , Bol. Geociências da Petrobras, 4(3):263-274. Varela, C.L., Rosa, A.L.R. e Ulrich, T.J., 1993, Modeling of attenuation and dispersion , Geophysics, 58(?):1167-1173. Vasquez, G.F. e Carvalho, R.D., 1993, Sísmica de muito alta resolução na Bacia Potiguar , V Sem. de Geofísica da Petrobras, p.184-189. Vernik, L., 1994, Predicting lithology and transport properties from acoustic velocities based on petrohysical classification of siliciclastics . Geophysics, 59(3):420-427. 181