UNICENTRO - Apostila de FOTOGRAMETRIA Profª. Drª. Deise Regina Lazzarotto
2010
“A mente que se abre a uma nova idéia, jamais voltará ao tamanho original” (Albert Einstein) UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 1
Planejamento
"Um planejamento cuidadoso é capaz de vencer quase todas as dificuldades." (Amiano Marcelino)
"A maioria das pessoas não planeja fracassar, fracassa por não planejar." (John L. Beckley)
UNICENTRO – IRATI – PR. FOTOGRAMETRIA E FOTOINTERPRETAÇÃO FOTOINTERPRETAÇÃO (010-DEF/I) – C/H 51 Introdução. Histórico. Conceitos e elementos de fotogrametria. Processo fotográfico. Geometria da fotografia aérea vertical e inclinada. Recobrimento aerofotogramétrico. aerofotogramétrico. Estereofotogrametria. Restituição. Mosaicos. Softwares aplicativos. Elementos e equipamentos de fotointerpretação. fotointerpretação. Aplicações na área Ambiental. Amostragem em fotografias aéreas. Custos em fotointerpretação. fotointerpretação. CONTEÚDO
*FONTES: 1- Fotogrametria. Autor: J. Bittencourt de Andrade, Ph.D. Curitiba; SBEE, 2ªEdição. 274p. 2003. 2- www.esteio.com.br/imagens/so_captacao_02.jpg. www.esteio.com.br/imagens/so_captacao_02.jpg. Acessado Acessado em Fev/2010. 3- Noções Básicas de Fotogrametria e Fotointerpretação. Fotointerpretação . Apostila do CEFETES – Curso Técnico de Geomática. 2002. 4- Introdução a Cor. Cor. Autor: Marcelo Gattass. 2006. Estudos em Computação Gráfica. 5- Fotogrametria Digital: Digital: Autores: Luiz Coelho & Jorge Nunes Brito. UERJ. Rio de Janeiro. 2007. 6- Câmeras Digitais: Digitais: http://educar.s http://educar.sc.usp.br/licencia c.usp.br/licenciatura/trabalhos/came tura/trabalhos/camera.htm ra.htm Acessado em Mar/2010. 7- Câmeras Digitais: Digitais: http://www.novacon.com.br/digicam.htm , Acessado em Mar/2010. 8- Fotointerpretação e Sensoriamento Remoto – Professor: Ricardo T. Zaidan. LGA – Laboratório de Geoprocessamento Aplicado. Dep. de Geociências – Instituto de Ciências Humanas (ICH) – Universidade Federal do Juiz de Fora (UFJF). Acessado da Internet em mar/2010.
JENSEN, JOHN R. Sensoriamento Remoto do Ambiente – Uma perspectiva em recursos terrestres. terrestres . Tradução: José Carlos Neves Epiphanio, et al. (Pesquisadores do INPE). São José dos Campos. SP. Ed. Parêntese. Segunda edição. 2009.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 2
Planejamento
"Um planejamento cuidadoso é capaz de vencer quase todas as dificuldades." (Amiano Marcelino)
"A maioria das pessoas não planeja fracassar, fracassa por não planejar." (John L. Beckley)
UNICENTRO – IRATI – PR. FOTOGRAMETRIA E FOTOINTERPRETAÇÃO FOTOINTERPRETAÇÃO (010-DEF/I) – C/H 51 Introdução. Histórico. Conceitos e elementos de fotogrametria. Processo fotográfico. Geometria da fotografia aérea vertical e inclinada. Recobrimento aerofotogramétrico. aerofotogramétrico. Estereofotogrametria. Restituição. Mosaicos. Softwares aplicativos. Elementos e equipamentos de fotointerpretação. fotointerpretação. Aplicações na área Ambiental. Amostragem em fotografias aéreas. Custos em fotointerpretação. fotointerpretação. CONTEÚDO
*FONTES: 1- Fotogrametria. Autor: J. Bittencourt de Andrade, Ph.D. Curitiba; SBEE, 2ªEdição. 274p. 2003. 2- www.esteio.com.br/imagens/so_captacao_02.jpg. www.esteio.com.br/imagens/so_captacao_02.jpg. Acessado Acessado em Fev/2010. 3- Noções Básicas de Fotogrametria e Fotointerpretação. Fotointerpretação . Apostila do CEFETES – Curso Técnico de Geomática. 2002. 4- Introdução a Cor. Cor. Autor: Marcelo Gattass. 2006. Estudos em Computação Gráfica. 5- Fotogrametria Digital: Digital: Autores: Luiz Coelho & Jorge Nunes Brito. UERJ. Rio de Janeiro. 2007. 6- Câmeras Digitais: Digitais: http://educar.s http://educar.sc.usp.br/licencia c.usp.br/licenciatura/trabalhos/came tura/trabalhos/camera.htm ra.htm Acessado em Mar/2010. 7- Câmeras Digitais: Digitais: http://www.novacon.com.br/digicam.htm , Acessado em Mar/2010. 8- Fotointerpretação e Sensoriamento Remoto – Professor: Ricardo T. Zaidan. LGA – Laboratório de Geoprocessamento Aplicado. Dep. de Geociências – Instituto de Ciências Humanas (ICH) – Universidade Federal do Juiz de Fora (UFJF). Acessado da Internet em mar/2010.
JENSEN, JOHN R. Sensoriamento Remoto do Ambiente – Uma perspectiva em recursos terrestres. terrestres . Tradução: José Carlos Neves Epiphanio, et al. (Pesquisadores do INPE). São José dos Campos. SP. Ed. Parêntese. Segunda edição. 2009.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 2
INTRODUÇÃO (1)* Fotogrametria Fotogrametria é a ciência e tecnologia de obter informações confiáveis através de processos de registro, interpretação e mensuração de imagens. Pode-se entender ainda que Fotogrametria é a ciência e tecnologia de se reconstruir o espaço tridimensional, ou parte do mesmo(espaço-objeto), a partir de imagens bidimensionais, advindas da gravação de padrões de ondas eletromagnéticas (espaço-imagem), sem contato físico direto entre o sensor e o objeto ou alvo al vo de interesse. (5)* As principais aplicações da Fotogrametria encontram-se na elaboração de mapas e na contribuição de ciências como Geodésia, Sensoriamento Remoto, Cartografia e até em Topografia. As imagens fotográficas são utilizadas para o posicionamento de pontos da superfície terrestre, ou mesmo de outros astros, e para reconhecer e mapear temas do objeto fotografado, tais como: rede de drenagem, florestas, culturas, redes viárias, feições geológicas, tipos de solo, etc.. O posicionamento de pontos é realizado através de métodos da Triangulação Fotogramétrica ou Fototriangulação, Fototriangulação, ou ainda conhecido por Aerotriangulação. Aerotriangulação. A transferência de informações temáticas para o mapa é feita segundo os métodos de Restituição, Restituição, ou Compilação Fotogramétrica. Fotogramétrica. A parte da Fotogrametria que trata das fotografias aéreas é conhecida como Aerofotogrametria e Aerofotogrametria e engloba o maior número de aplicações da área. Fotogrametria a Curta Distância (terrestre Distância (terrestre ou aérea) tem encontrado aplicações em problemas de laboratório e principalmente no controle genérico de processos industriais. A Microfotogrametria Microfotogrametria oferece um potencial mais amplo às técnicas de microscopia, permitindo a medida precisa e o mapeamento de objetos microscópicos. RESUMO HISTÓRICO (1; 2)* Antes do advento do desenvolvimento das técnicas de fotogrametria, era necessária a realização de uma série excessiva de mensurações de campo a fim de determinar a posição dos acidentes geográficos que se desejava representar. Era também fundamental preparar uma enorme quantidade de desenhos, feitos da observação direta do terreno, a fim de completar as informações necessárias para a confecção do mapa. Renascença – muito antes do advento da fotografia surgiram as primeiras idéias sobre perspectivas gráficas concebidas pelo gênio de Leonardo da Vinci e Vinci e outros. 1726 – Carpeller se Carpeller se utilizava de perspectivas centrais, feitas à mão, a partir de dois pontos cuja distância ele media. Desta forma, valendose do método das intersecções, podia determinar a posição dos acidentes geográficos que desejava representar. 1759 – Livro intitulado: Freie Perspektive, por J. H. Lambert, Lambert, discute pela primeira vez o problema da ressecção espacial espacial (reconstrução dos raios luminosos que formaram a imagem para a obtenção da terceira coordenada ‘z’).
Instrumento para Desenho de Perspectiva.
1838 – O inglês Wheatstone Wheatstone inventou o estereoscópio, estereoscópio, uma das ferramentas mais importantes usadas em Fotogrametria UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 3
A fotografia - Em 1727 o médico alemão Johann Schulze descobriu o fenômeno do escurecimento dos sais de prata quando expostos à luz. Baseados nesses conhecimentos, o francês Joseph Nicéphore Nièpce, em 1826, conseguiu registrar uma imagem numa chapa de estanho polida e revestida com betume da Judéia pulverizado numa solução com petróleo branco. Em 1837, Louis-Jacques Daguerre consegue imprimir imagens sobre papel, muito nítidas, utilizando sais de prata, vapor de mercúrio e hipossulfito de sódio. No ano de 1839, o inventor da fotografia foi divulgado. Na Cartografia – Com a fotografia tornou-se possível registrar instantaneamente, em perspectiva, um conjunto de feições do terreno. Quem aplicou as fotografias em levantamentos cartográficos pela primeira vez foi o oficial francês chamado Laussedat, valendo-se do método das intersecções, como fazia Carpeller com as perspectivas feitas à mão. 1901 – Carl Pulfrich, baseando-se em princípios estabelecidos por Stolze, introduziu a marca estereoscópica, que permite mensurações num modelo
Imagem aérea oblíqua – não vertical.
estereoscópico formado por um par de imagens homólogas observadas através e um estereoscópio. Pulfrich pertencia ao grupo Zeiss e apresentou o seu invento denominado – estereocomparador – na 73ª Conferencia de Cientistas Naturais e Físicos, em Hamburgo. Carl Pulfrich
Apesar dos desenvolvimentos já conquistados, a fotografia ainda não oferecia grandes possibilidades devido aos chamados ângulos motos, a impedirem que todas as feições do terreno fossem imageadas, por falta da verticalidade na tomada das fotos. A solução seria elevar a câmera fotográfica. Com esse objetivo foram utilizados o pombo e o balão.
Tomada de aerofotos
Alberto Santos Dumont, inventor do avião, participa da história da Fotogrametria, pois o seu invento tornou-se a plataforma mais utilizada no transporte da câmera fotográfica para a tomada de
através de pombos. Tomada de aerofotos em balão.
fotografias verticais. O uso do avião na Fotogrametria teve início na Primeira Guerra Mundial, quando foram construídas câmeras fotográficas especiais para a tomada de vistas aéreas.
Aeronave adaptada para a tomada de fotos aéreas..
A década de 1930 foi marcada pelos desenvolvimentos teóricos conhecidos por Otto Von Grüber, que trabalhou no problema da resseção espacial e no desenvolvimento
de fórmulas diferenciais para a orientação relativa.
Câmara aerofotogramétrica antiga.
Earl Church, da Universidade de Syracuse, nos Estados Unidos da América, publicou inúmeros trabalhos nas décadas de 1930 e 1940, fazendo importantes contribuições nas áreas da ressecção, orientação e intersecção. Nas mesmas décadas, Max Zeller e seus associados desenvolveram muitos aspectos teóricos e práticos que
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 4
resultaram numa sistematização dos conhecimentos da Fotogrametria apresentada numa primorosa obra denominada Traité de Photogrammétrie editada pela “Société de vente H. Wild”, H. Wild, Heerbrugg em 1948. 1899 e 1932 – Sebastian Finsterwalder, numa série de trabalhos, estabeleceu os fundamentos da Fotogrametria Analítica. Seus trabalhos versaram sobre ressecção e orientação relativa e absoluta de pares de fotografias. Anos 50 – O “Ordenance Survey Organization ” do Reino Unido desenvolveu o primeiro sistema de aerotriangulação analítica, usando uma câmera com “reseau” para o controle da deformação do filme. No mesmo período, G. H. Schut, do “National Research Council” do Canadá, usou, pela primeira vez, a condição de coplanaridade em Fotogrametria. O primeiro livro de Fotogrametria Analítica foi publicado em 1958 por Everett Merrit. A contribuição mais notável da década de 50 foi a de Helmut Schmid que, utilizando a condição de colinearidade, estabeleceu o “ Bundle Method”, aplicando o princípio de mínimos quadrados para ajustar observações de um bloco de fotografias e propagar as suas variâncias para os parâmetros incógnitos. Seus trabalhos foram escritos em notação matricial, que hoje é considerada padrão em Fotogrametria. Duane C. Brown, desde a década de 50, tem emprestado importantíssimas colaborações para o desenvolvimento da Fotogrametria Analítica. Seus trabalhos cobriram a área dos erros sistemáticos, dados auxiliares, calibração de câmeras e resolução de grandes sistemas de equações e, ainda, o desenvolvimento de instrumentos fotogramétricos. O ano de 1957 marca a invenção do restituidor analítico por U. Helava.
Curiosidade: Restituição Fotogramétrica - É aoperação
que visa obter o mapa através de fotografias. Consiste em, através de instrumentos e técnicas específicas, transformar a projeção cônica do fotograma (par fotográfico) em uma projeção ortogonal (mapa), onde serão desenhados os pormenores planialtimétricos do terreno, após ter sido restabelecida a equivalência geométrica entre as fotografias aéreas, no instante em que foram tomadas, e o par de diapositivos que se encontra no projetor. Esta transformação pode ser: Gráfica / Analógica / Analítica ou numérica / Digital. Restituidor Analógico - As transformações analógicas e analíticas envolvem as seguintes etapas de operação do aparelho restituidor: Orientação interior: este é o momento em que os pontos principais do fotograma são determinados, através das marcas fiduciais, e, em que é realizado o ajuste da distância focal do projetor (que deve ser proporcional à da câmara utilizada). Orientação exterior ou relativa: é o momento em que são determinados os principais movimentos (num total de seis) que afetaram a fotografia no instante de sua tomada. Três destes, são movimentos de translação e os outros três, movimentos de rotação. É nesta fase, também, que se elimina a paralaxe (distorções) dos pontos fotografados. Orientação absoluta: é o momento em que se determina a escala do modelo estereoscópico (imagem 3D), formado pelas duas imagens projetadas, e, em que se determina a altura deste modelo, segundo o nível de referência pretendido. Aparelho Restituidor Analógico de Restituição.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 5
Em 1974, Dean C. Merchant publicou os resultados de experiência prática com “ Mixed Range Method”, que desenvolveu para calibrar câmeras dentro do conceito moderno de calibração de instrumentos. No Brasil – A Fotogrametria foi introduzida em 1922, na elaboração da carta do então Distrito Federal – Rio de Janeiro – na escala de 1: 50.000. Esses trabalhos tiveram a supervisão do austríaco Emílio Wolf , que construiu um aparelho restituidor para o Exército Brasileiro – o estereógrafo. Pioneiro no Brasil e entusiasta da Fotogrametria, o Professor Placidino Machado Fagundes exerceu todas as funções na área da Aerofotogrametria e divulgou, com o maior empenho, esta Ciência em inúmeros estabelecimentos brasileiros. Estação Fotogramétrica Analítica.
O primeiro curso universitário formal de Fotogrametria e Fotointerpretação foi oferecido em 1965 como parte do currículo de Engenharia Florestal na Universidade Federal do Paraná, o qual foi implantado pelo renomado paranaense e mundialmente reconhecido, Professor Ph.D., José Bittencourt de Andrade, cujo trabalho gerou duas apostilas para este curso: Andrade (1965 e 1968). Ainda autor de diversos outros trabalhos, principalmente, nas áreas de Fotogrametria e Geodésia. Em 1971, foi criado o Curso de Pós-Graduação em Ciências Geodésicas, incluindo a opção Fotogrametria, pelo eminente brasileiro, Professor Camil Gemael. Esse curso viria a se transformar no maior centro de pesquisa nas áreas da Geodésia e da Fotogrametria em território brasileiro. Em 1977 foi criado o curso de Engenharia Cartográfica.
Estação Fotogramétrica Digital.
SÍNTESE DA EVOLUÇÃO DO MAPEAMENTO (1)* Antes da Fotogrametria os mapas apresentavam suas informações visuais, ainda sem rigor geométrico, exigindo intensos levantamentos geodésicos para melhorar a qualidade dos m apas. A entrada da Fotogrametria no processo veio substituir as informações visuais com evidentes vantagens. Apesar das qualidades geométricas oferecidas pelas fotografias, o desconhecimento das transformações entre a Fotogrametria e a Cartografia impediam a qualidade geométrica deseja para os mapas. Em 1961, Hugo Bartorelli desenvolveu um trabalho bem elaborado, visando a solução desse problema. Bartorelli (1961) desenvolveu as transformações entre um referencial fotogramétrico de máquina (restituidor) para o sistema de projeção Gauss-Boaga, em ambos os sentidos. Contudo ainda assim, era necessário trabalho idêntico para cada um dos sistemas de projeção cartográfica existentes. Andrade (1973), convenientemente, demonstrou ser possível uma solução diferente – trabalhar com transformações entre referenciais geodésicos e fotogramétricos ao invés de desenvolver transformações entre um referencial fotogramétrico e centenas de sistemas de projeção cartográfica. Como a posição de pontos pode ser expressa, tanto em Fotogrametria como em Geodésia, com coordenadas tridimensionais, basta utilizar as transformações entre referenciais tridimensionais, conhecidas e simples, para estabelecer a comunicação completa entre Fotogrametria, Geodésia e Cartografia, no s dois sentidos. UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 6
NOÇÕES BÁSICAS DE FOTOGRAMETRIA (3)* OBJETIVO – a Fotogrametria tem como objetivo realizar medições sobre fotografias para a elaboração de mapas topográficos/geodésicos planialtimétricos. DIVISÃO - Fotogrametria Métrica - realiza medidas precisas e computações para a determinação da forma e tamanho dos objetos fotografados. Fotogrametria Interpretativa - lida com o reconhecimento e a identificação destes mesmos objetos. A capacidade de reconhecer e identificar elementos de uma imagem fotográfica é, com freqüência, tão importante quanto a capacidade de deduzir a sua posição a partir de fotografias. É neste aspecto que a fotogrametria passa a atender, não apenas, aos profissionais da área de geomática, mas a uma extensa série de técnicos ou especialistas, no amplo campo da fotointerpretação, dentro do qual, o engenheiro, o urbanista, o geólogo, o geógrafo, o oceanógrafo, o meteorologista, o agrônomo, o militar, o economista, etc. CLASSIFICAÇÃO - A classificação da fotogrametria se faz segundo o tipo e posição espacial da câmara e segundo a sua finalidade: Fotogrametria Terrestre - Utiliza-se de fotografias obtidas de estações fixas sobre a superfície do terreno, com eixo ótico da câmara na horizontal. Topográfica: utilizada no mapeamento topográfico de regiões de difícil acesso. Não topográfica: utilizada em atividades policiais, na solução de crimes e de problemas de trânsito, na medicina, na industria, na construção de plataformas e navios ou no estudo das deformações de uma estrutura. Fotogrametria aérea - Utiliza-se de fotografias obtidas de estações móveis na atmosfera (avião ou balão), com o eixo ótico da câmara na vertical (ou quase). Fotogrametria espacial - Utiliza-se de fotografias obtidas de estações móveis fora da atmosfera da Terra (extraterrestres) e das medições feitas com câmaras fixas (também chamadas Câmaras balísticas) na superfície da Terra e/ou da lua. Quando a Fotogrametria (aérea, terrestre ou espacial) utiliza-se do computador para a elaboração de mapas, ou seja, todo o processo de transformação da imagem fotográfica em mapa é realizado matematicamente pelo computador, diz-se que ela é Numérica. Atualmente, além do processo de transformação da imagem fotográfica em mapa ser realizado pelo computador, o produto que gerou o mapa, no caso a fotografia, e o próprio mapa gerado, podem estar armazenados em meio magnético na forma de imagem. Neste caso, a Fotogrametria passa a ser denominada Digital. Camadas de Informações Gráficas Digitais.
“O maior avanço já ocorrido na Fotogrametria é o aparecimento da Fotogrametria Digital .... O avanço que ora se iniciou é tão fantástico e de potencial tão ilimitado que eu não estou preocupado com os futuros desenvolvimentos .... O resultado irá ultrapassar qualquer expectativa que nós podíamos ter sonhado, simplesmente devido ao poder da tecnologia digital.”
Entrevista do Prof. Friedrich Ackermann para a revista Geomatics Info Magazine, 1995.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 7
Aula 2 - PROCESSO FOTOGRÁFICO (1; 4)* A LUZ Na Interpretação de imagens são importantes os conhecimentos sobre as propriedades da luz assim como sua geração, e processo. Dentro deste estudo, as cores são um elemento fundamental, portanto devem ser vistas antes de qualquer outro assunto. Apesar disto muitos autores preferem não iniciar o estudo de Interpretação das Imagens por cores porque ele é um assunto complexo. Entretanto, a referência às cores é inevitável. As cores são normalmente apresentadas como um vetor de três componentes: vermelha, azul e verde. A principal explicação dada à formação de cores, principalmente, em trabalhos feitos através de computador, é que ‘é assim que os monitores emitem’ e ‘é assim que os nossos olhos percebem a luz‘. Apesar de verdadeiros, estes fatos, porém, merecem ser melhor apresentados. As impressoras, por exemplo, não funcionam nas mesmas bases dos monitores e a reprodução de cor envolve muitas variáveis. As cores são sensações que temos em resposta à luz que incide nos nossos olhos. Por isso, para se entender as cores, é preciso antes conhecer algumas propriedades da luz e um pouco de como os olhos e cérebro humanos funcionam. A Física estuda a luz segundo modelos como o de partículas ou e de ondas. Para o propósito introdutório deste assunto a luz pode ser modelada como uma onda eletromagnética que viaja no vácuo a uma velocidade c, de aproximadamente 300.000 km/seg. No ar a velocidade é reduzida em cerca de 0,3% e na água em aproximadamente 25%. Ou seja, mesmo na água a luz viaja centenas de quilômetros em um milésimo de segundo, portanto para fins práticos ela é instantânea. Uma das propriedades da luz mais importantes na formação de imagens é a de que ela viaja em linha reta. Uma comprovação experimental desta propriedade pode ser observada na chamada Câmara Escura. Os chineses descobriram V séculos antes de Cristo que num quarto escuro com um pequeno orifício na janela a imagem do exterior aparece invertida na parede oposta à janela. Na ausência de outra fonte de luz a parede oposta recebe apenas a luz que atravessa o orifício. A Figura abaixo ilustra que a posição de cada ponto da imagem da parede corresponde a radiância externa com a luz viajando em linha reta.
Demonstração da Propagação da Luz em Linha Reta.
Analisando a luz como uma onda, pode-se relacionar o comprimento de onda λ e a freqüência f com a velocidade v , através de: v = λ f
como ilustra a figura abaixo. Nesta figura, o comprimento de onda λ é a distância percorrida pela onda em um ciclo. Como a f é medida em ciclos por segundo (Hertz), a distância percorrida pela onda em um segundo é λ f , daí a equação acima.
Relação entre comprimento, velocidade e freqüência da Luz.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 8
As ondas ainda são classificadas pela freqüência ou pelo comprimento de onda. É interessante nota a pequena largura do espectro de freqüências que excitam os olhos humanos, o chamado espectro visível. Ele vai do vermelho (4.3x1014 Hz), passando pelo laranja, amarelo, verde e azul, até chegar ao violeta (7.5x 1014 Hz). Este espectro de cores é o mesmo que se observa no arco-íris.
Espectroeletromagnetico
Newton, no século XVII, observou o fenômeno da decomposição da luz branca, que é composta de todas as outras cores, através de um prisma de vidro colocado em uma janela. A propriedade física que permite decompor a luz branca está relacionada com a refração diferenciada de cada componente, ou seja, no vidro de um prisma as componentes de menor comprimento de onda refratam mais. A figura a seguir ilustra o caso da luz branca decomposta por um prisma, e ao lado uma tabela com as sensações de cores produzidas nos seres humanos por fontes que emitem luzes de comprimentos de onda específicos escritos em nanômetros ( 10−9m) e em milimicrons aproximados.
Prisma da decomposição da Luz Branca – Comprimento de ondas
A luz, integrando-se com a matéria, gera fenômenos tais como: a absorção, a emissão, a transmissão, a difusão, e a reflexão de fótons. O conhecimento de tais fenômenos é importantíssimo para boa compreensão do processo fotográfico. Entre outras conseqüências dos fenômenos citados, temos as diferentes cores com as quais os objetos se apresentam. A sensação de cor é determinada pelo comprimento de onda que atinge a retina dos olhos.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
a
Página 9
Essas cores podem ser reproduzidas a partir de dois conceitos muito interessantes: o modelo de cores subtrativas e o modelo de cores aditivas. O modelo de cores subtrativas é baseado em três cores chamadas de subtrativas primárias – amarelo, magenta e ciano. Da luz branca, retirando a luz azul, resulta a amarela. As cores aditivas primárias – vermelha, verde e azul.
Fica fácil visualizar esse conceito colocando-se; as cores aditivas primárias no vértice de um triângulo; e as cores subtrativas primárias nos lados do triângulo, conforme mostra a figura a seguir: Vermelho
Amarelo
Magenta
Verde
Azul Ciano Triângulo das cores
A obtenção de cores a partir do triângulo das cores: Obtenção da Cor por Subtração:
Vermelha Azul Verde Magenta Ciano Amarela Preta
= branca – verde – azul = branca – verde – vermelha = branca – vermelha – azul = branca – verde = branca – vermelha = branca – azul = branca – verde – azul – vermelha (ausência de luz)
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 10
As cores dos pigmentos funcionam com o processo subtrativo – com as cores magenta, ciano e amarelo, é possível reproduzir o verde, o vermelho e o azul, por subtração. Assim, para reproduzir o verde, por exemplo, o pigmento amarelo 9menos azul) é misturado com pigmento ciano (menos vermelho). Tais pigmentos absorvem juntos as componentes azul e vermelha da luz branca, refletindo apenas a componente verde. Exatamente o mesmo raciocínio é aplicável para os filtros: fazendo a luz branca incidir sobre um filtro amarelo e outro ciano, o primeiro segura a luz azul e o segundo a luz vermelha, deixando, o conjunto, passar apenas a componente verde. Obtenção da Cor por Adição: Projetando numa tela as cores aditivas primárias e sobrepondo as projeções, resulta:
Ciano Magenta Amarela Branca
= verde + azul = vermelha + azul = verde + vermelha = verde + azul + vermelha.
CARACTERÍSTICAS FÍSICAS DE UMA FONTE LUMINOSA (4)* As três características básicas do espectro de uma fonte de luz, matiz, brilho e saturação, podem ser determinadas a partir do seu espectro. A figura a seguir procura ilustrar a relação dos espectros de diversas fontes luminosas com estas grandezas. A matiz (hue em inglês) é definida pelo comprimento de onda predominante no espectro visível. A primeira figura (a) mostra os espectros luminosos de duas fontes de luz i dealizadas com mesma distribuição e diferentes matizes. Nos espectros mais complexos como os da Figura (c) esta caracterização é um pouco mais difícil. O brilho, exemplificado nos dois gráficos da (b), representa a intensidade da fonte, que pode ser medida pelas áreas de cada um dos gráficos. Espectros com maior área tem mais brilho. Finalmente, a saturação ou pureza é definida pela predominância da componente da matiz (Figura c). Quanto mais concentrado o gráfico do espectro da fonte, maior a saturação. Inversamente, quando a luz se aproxima da luz branca, ela tem baixa saturação. As cores pastéis, usadas em quartos de bebês, são exemplos de cores pouco saturadas.
Característica de Espectros Luminosos
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 11
Aula 3 - PERCEPÇÃO VISUAL (4)* Apesar dos animais serem providos de percepção de cores, as cores estudadas neste capítulo são sensações humanas em resposta à luz que incide em nossos olhos. Ou seja, não trata apenas das medidas físicas da luz, mas sim de como a luz é percebida pelos seres humanos. O nosso olho recebe, através de um sistema de lentes, os raios de luz que incidem diretamente sobre ele, como ilustra a Figura a seguir
Esquema do Olho Humano
Um modelo simples para os olhos humanos. Na retina dos olhos existem duas classes de sensores que captam luz. Devido à sua forma geométrica, estes sensores recebem os nome de cones e bastonetes. Os bastonetes nos permitem enxergar em ambientes muito pouco iluminados, como numa noite com apenas luz de estrelas, e não transmitem sensação de cor, ou seja, são cegos para as cores. Com toda a iluminação artificial que nos cerca este tipo de visão é, atualmente, muito pouco utilizada. Este fenômeno também pode ser observado ao estudarmos os olhos dos animais. Os pombos, por exemplo, não possuem bastonetes e por isso só enxergam com bastante luz. As corujas, por outro lado, possuem apenas bastonetes e têm uma excelente visão noturna. Os cones, por outro lado, são fundamentais para a sensação de cor. Existem três tipos diferentes de cones, cada um respondendo melhor a uma determinada faixa de freqüência da luz como ilustra a Figura a seguir. Esta figura mostra resultados experimentais de sensibilidade de cada um destes cones denominados de s, m el que respondem mais ou menos em função do comprimento de onda predominante ser curto( s -short), médio (m), ou longo (l). Cada um destes cones possui um pigmento que consiste de uma proteína que muda de forma quando é atingida pela luz. Mais precisamente quando fótons de uma determinada freqüência incidem sobre ela. Esta mudança dispara uma seqüência de eventos em nível celular que ativam neurônios da retina que disparam impulsos no nervo óptico para o cérebro.
Absorção de Energia Luminosa no Olho Humano pelos cones RGB em função de λ
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 12
O fato de termos apenas três tipos de sensores cromáticos explica por que normalmente definimos as cores através de um modelo tri-cromático, ou seja, definindo cada cor através de três números. Dadas as curvas s( λ), m( λ) e l( λ), e a distribuição espectral de uma fonte luminosa, E( λ), podemos criar uma medida da sensação de cor que ela produz através de um modelo matemático simples, dos três vetores, que procura modelar a absorção de fótons pelos neurônios e os pulsos emitidos pelos nervos ópticos para o cérebro: s = , m = , l = onde (, , ) seria uma medida da sensação da cor. LUMINOSIDADE (4)* Observando as diferentes capacidades de absorção de luz dos três cones podemos notar que o médio, m( λ ), tem melhor absorção, seguido pelo curto, s( λ ), e por último o longo, l( λ). Assim, por exemplo, mesmo que uma fonte azul emita a mesma quantidade de energia luminosa que uma fonte verde, vamos perceber a luz verde como sendo mais intensa. Isto porque a fonte azul tem uma distribuição mais próxima da sensibilidade do cone l( λ), enquanto que a verde se aproxima mais de, m( λ). Esta percepção humana do brilho de uma fonte é denominada de luminosidade. A luminosidade, Y, da combinação de três fontes das fontes de luz: vermelha, verde e azul, pode ser estimada pela equação: Y = 0.30R + 0.59G + 0.11B Dependendo da caracterização mais precisa do que sejam as fontes de luz vermelha verde e azul que estamos utilizando como podemos encontrar na literatura valores levemente diferentes para os coeficientes da equação acima. Nos monitores de tubos de raios catódicos modernos, por exemplo, os coeficientes são: Y = 0.2126R + 0.7152G + 0.0722B Note a diferença entre luminosidade e brilho: o brilho é uma propriedade física da fonte de luz e a luminosidade depende da percepção humana. Ou seja, o brilho é uma intensidade de energia emitida pela fonte e medida através de aparelhos em Watts, enquanto a luminosidade é a parcela desta energia que um ser humano normal percebe e é medida em candelas ou em lumens. Pelas equações anteriores podemos notar que a luminosidade depende da freqüência da fonte. Uma luz verde, por exemplo, produz mais lumens que outra azul de mesmo brilho. As equações acima relacionam o brilho das fontes vermelha, verde e azul com a luminosidade percebida por um ser humano. Para fontes luminosas puras de outras matizes a próxima Figura mostra outra curva experimental que relaciona a capacidade relativa do olho humano de perceber a luz em função do seu comprimento de onda da fonte. Devemos notar que esta curva é compatível com as curvas dos cones, nas quais o cone azul está numa ponta do espectro e tem menor sensibilidade que o cone verde, que fica na região central. Um outro ponto interessante é que a sensibilidade do olho humano varia suavemente com a freqüência começando em zero, chegando a um máximo no meio do espectro e depois retornando a zero.
Sensibilidade do Olho Humano aos Diferentes Comprimentos de Onda ( λ )
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 13
A conversão de brilho para lumens se faz através da multiplicação do espectro luminoso da fonte por uma curva do tipo da ilustrada na Figura anterior. Outro aspecto importante do olho humano é sua capacidade de se adaptar a diferentes níveis de luminosidade do ambiente que nos cerca. A Tabela abaixo mostra a quantidade de lumens por metro quadrado que incide nas superfícies que nos rodeiam. Para entendermos melhor como nosso sistema de visão funciona, consideremos duas situações cotidianas: entrar num túnel e observar o céu de dia e de noite. Quando entramos num túnel em um dia ensolarado, por exemplo, a quantidade de luz que penetra nos nossos olhos cai em mais de cem vezes. Por alguns instantes não vemos nenhuma luz, mas logo em seguida nossos olhos se adaptam e passamos a enxergar dentro do túnel. É como se tivéssemos trocado nossos olhos por outros mais sensíveis à luz. O mesmo fenômeno ocorre quando estamos olhando para o céu. No período noturno enxergamos a Lua e as estrelas, mas no período diurno não conseguimos mais vê-las, apesar delas estarem lá. É como se à noite tivéssemos olhos mais sensíveis, capazes de perceber intensidades mais baixas. O que ocorre é que a quantidade de luz que penetra nos nossos olhos é administrada pela nossa retina sem um controle consciente. Ou seja, ela se abre e se fecha de forma a manter o fluxo de luz constante. Como não controlamos nem sentimos este processo de abrir e fechar, a intensidade luminosa é para nós uma grandeza relativa. Num ambiente com diversas superfícies brancas, por exemplo, percebemos a superfície de maior luminosidade como branca e as outras como cinza. Se introduzirmos uma superfície mais brilhante na cena, ela se torna a branca e anterior vira cinza. Isto também pode ser observado se numa sala escura com uma tela branca iluminamos um círculo, como mostra a próxima Figura. Se em seguida acrescentarmos outra luz no centro do círculo, gerando um espectro mais brilhante, vamos interpretar este como sendo o branco e o anterior se torna cinza. Podemos continuar este processo. Sempre que um círculo mais brilhante for acrescentado, para nós ele se torna o branco e dos demais ficam cinza. Ou seja, a nossa percepção de luminosidade é relativa.
Percepção Relativa da Luminosidade
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 14
Além de ser ajustável a quantidade de luz que o olho humano recebe tem uma outra característica importante. Observando uma cena com áreas emitindo diferentes luminosidades não percebemos esta luminosidade de forma proporcional com a energia emitida. Esta relação não linear com de nossa percepção da luminosidade relativa é ilustrada na Figura a seguir. Na Figura a vemos retângulos com intensidades luminosas que variam linearmente, mas que percebemos como se fosse uma escala não uniforme. Na Figura b vemos o mesmo conjunto de retângulos variando de forma logarítmica e nele, normalmente, percebemos como sendo uma escala linear.
Escala Logarítmica da Visão
Outro experimento que ilustra esta percepção relativa é mostrado na próxima Figura. A impressão que temos é que o quadrado central da esquerda é mais claro que o da direita, quando na verdade eles são da mesma cor. O contexto de cada um faz com que o cérebro. O contexto de cada um faz com que o cérebro deduza a diferença erroneamente.
Contrastes Simultâneos
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 15
PROCESSOS DE FORMAÇÃO DE CORES (4)* Em nossa discussão até agora estamos entendendo que a luz vem de uma fonte com uma determinada distribuição espectral. Ocorre, entretanto, que normalmente os raios de luz que nossos olhos recebem vêm de diversos processos de interação com os meios pelos quais eles passam. Quando a luz sai de um meio para outro, parte dela é refletida na superfície de interface, parte é absorvida pelo novo material e parte refrata e continua. Podemos dizer, por exemplo, que a luz solar, que predomina durante o dia, refrata na atmosfera terrestre e reflete na superfície de pisos, paredes e da natureza que nos cerca antes de atingir nossos olhos. Apesar de nosso olho só captar os raios de luz que incidem diretamente sobre ele, somos capazes de ver a luz solar mesmo quando não estamos olhando diretamente para o Sol. As superfícies à nossa volta refletem a luz de acordo com as propriedades de seus materiais e, conseqüentemente, a luz normalmente chega até nós bastante modificada depois de muitas reflexões e refrações. Grande parte dos trabalhos de síntese de imagens realistas lida com o desenvolvimento de modelos e algoritmos para simular estas interações. Existem diversos processos de formação de cores mas, neste trabalho, abordaremos os dois mais importantes para a os trabalhos baseados em Computador: o processo aditivo e o processo subtrativo. O primeiro é usado em monitores e projetores e o segundo em impressoras. PROCESSO ADITIVO A Figura a seguir ilustra a idéia básica do processo aditivo de cores com duas lanternas de luz com espectros diferentes e incidindo sobre uma parede branca. A região comum à reflexão de ambas as lanternas tem um espectro correspondente à soma dos espectros de cada lanterna. Ou seja:
+ ( λ ) = ( λ ) + ( λ ) como seria de se esperar. Acontece que nossos olhos não são capazes de identificar que o espectro resultante veio de uma soma de duas componentes. Ao contrário do que ocorre com a audição, que é capaz de identificar a combinação de duas vozes como sendo um conjunto de dois, a nossa percepção visual “vê” a luz resultante como sendo uma nova luz. É neste princípio que se baseiam os projetores de três canhões (RGB). Cada canhão projeta numa tela uma imagem em uma das suas três cores primárias e nós percebemos a imagem como colorida. A menos que os canhões estejam desalinhados, não conseguimos notar a separação de cores.
Processo Aditivo de cores – Soma de Espectros
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 16
Os monitores também são baseados em um processo aditivo de cores, mas para compreendê-lo precisamos ver mais uma característica do olho humano. Se a superfície de um determinado objeto possui diversas cores e este objeto é continuamente reduzido ou afastado de nossos olhos, a partir de um certo tamanho percebido não somos capazes de diferenciar as cores individualmente, mas vemos um ponto com uma nova cor correspondente à soma dos espectros de cada cor original. Isto permite que, na tela de um monitor, possamos ter pequenas células, denominadas pixels (picture elements), compostas de partes vermelhas, verdes e azuis. A próxima Figura ilustra este processo.
Formação de Cores em Monitores
Considerando as cores RGB (vermelha, verde, azul) como primárias, podemos combiná-las aditivamente produzindo outras cores. A soma de vermelho e verde, por exemplo, produz o amarelo (Y para Yellow), a soma de verde e azul o ciano (C para Cyan) e a soma de vermelho com azul o magenta (M para Magenta). Se somarmos todas as componentes básicas teremos o branco (W para White) e se não somarmos nada teremos o preto (K para Black). Uma maneira mais organizada de apresentarmos este processo é o cubo RGB mostrado na Figura a seguir. Note que neste cubo arbitramos os valores de cada componente para variar de 0 a 1 (0% e 100%). Devido a aspectos de implementação é comum termos dispositivos em que as componentes variam de 0 a 255 (0% e 100%). Assim elas ocupam apenas um byte de memória cada.
Cubo RGB
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 17
PROCESSO SUBTRATIVO O processo subtrativo funciona como ilustra a próxima Figura 15: um facho de luz branca de uma lanterna passa por um filtro verde (um papel celofane verde, por exemplo) e projeta uma luz verde. O que ocorre neste processo é que a luz que atravessa o filtro tem cada uma de suas componentes espectrais reduzida pela transparência do filtro. Ou seja:
= Note que o próprio fato de vermos o filtro como verde já é uma demonstração deste fenômeno. Se levarmos este filtro para um ambiente iluminado apenas com luzes vermelhas e verdes, veremos o filtro como sendo preto (opaco). É claro que para esta experiência funcionar perfeitamente são necessários luzes e filtros com propriedades garantidas. Provavelmente o celofane da papelaria não vai atender a este requisito, mas mesmo assim podemos observar o fenômeno.
Uso de Filtro para Exemplificar o Processo Subtrativo de Cores
Se colocarmos um filtro ciano sobre um papel branco também vamos perceber a cor ciano. Isto porque, como ilustra a próxima Figura, os raios de luz branca que normalmente temos no nosso ambiente atravessam o filtro duas vezes, uma vez atingindo o papel e outra sendo refletidos por ele. Imaginando que a luz branca seja produzida por três projetores RGB, na primeira passada a componente vermelha é absorvida e a reflexão na superfície do papel já é ciano. Este tipo de reflexão, denominado reflexão Lambertiana ou difusa, é muito importante não só para a impressão em papel, mas para praticamente todas as reflexões que ocorrem no nosso cotidiano.
Reflexão Difusa com Filtro
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 18
O modelo matemático mais simples adotado na Computação Gráfica para calcular as componentes ( , , ) da luz refletida é:
= = = onde ( , , ) são os coeficientes de reflexão difusa do material da superfície onde a luz reflete e ( ) são as componentes da luz incidente. O ângulo é o ângulo entre a luz incidente e a normal à superfície no ponto em que ela incide. Como cos é sempre menor que 1, este fator corresponde a uma atenuação para levar em conta a direção em que a luz incide. Portanto, as componentes RGB da luz incidente são reduzidas (filtradas) pela superfície. Continuando nosso experimento com o papel, podemos agora colocar um filtro amarelo entre o filtro ciano e o papel branco da Figura anterior. Assim como o ciano retirou a componente vermelha da luz branca, o filtro amarelo vai retirar a componente azul do ciano, restando apenas a cor verde. A proxima Figura ilustra este processo subtrativo através de três círculos, um ciano, um magenta e outro amarelo (CMY). A interseção do amarelo com o ciano produz o verde; a interseção do ciano com o magenta o azul e a interseção do amarelo com o magenta o vermelho. Na interseção dos três temos o preto e a ausência dos três filtros mantém o papel branco.
Processo Subtrativo - CMY
Um problema tecnológico deste processo de geração de preto para impressão em papel é a qualidade e o custo do preto produzido. O preto resultante gasta muita tinta e fica meio amarronzado. Para agravar ainda mais este problema, muitos são os trabalhos impressos em preto e branco. A solução adotada para a maioria das impressoras de jato de tinta atuais foi acrescentar um cartucho de tinta preta e tratar a reprodução de cores como uma combinação subtrativa de ciano, magenta, amarelo e preto (CMYK).
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 19
Aula 4 - CÂMERAS DIGITAL (*6 e 7) Premissa: A Fotografia, Fotograf ia, junto com a Escrita são as mais m ais importantes de todas as invenções humanas. A fotografia como c omo imagem, vale mais que mil palavras, segundo os antigos chineses. Mais importante que a roda, o parafuso e alavanca, foi o primeiro modo que utilizando a energia latente em determinado momento, a dirigiu para um registro permanente. Este registro é relacionado com a visão, o mais importante dos sentidos humanos. Antecedeu-se ao registro do som e serviu de base para estudo dos fenômenos físico-químicos físico-quím icos que nos cercam. A Escrita e a Fotografia, influenciaram a mudança na forma de testemunho, permitindo a perpetuação e o registro da História. Fotografia: A palavra FOTOGRAFIA é composta de FOTO-Luz FOTO -Luz e GRAFIA-desenho.- impressão. É fato sabido que desde a mais remota antiguidade o homem sempre quis registrar a imagem de um acontecimento qualquer que lhe fosse importante. Por isto, através da pintura, e do desenho ele registrou os eventos desde as mais remotas civilizações (pinturas rupestres), mas foi somente na primeira metade do século XIX que se conseguiu um processo de auto-registro. Na verdade os pesquisadores procuravam inicialmente um processo gráfico mais simples, e isto pode-se ver tanto nas pesquisas de Hercules Florence como as de Nicephore Nièpce. Finalmente Daguerre conseguiu o grande tento, o registro direto da imagem pela luz. O primeiro trabalho fotográfico publicado por Fox Talbot chamava-se “The Pencil of the Nature”, com uma clara ênfase ao desenho. Desenvolvimento: O processo de Daguerre caiu em domínio publico e dede então foi largamente utilizado. As casas de óptica não davam vazão aos pedidos. A introdução dos primeiros processos alternativos, com posterior simplificação e diminuição das perigosas químicas, difundiram-se para mais pessoas o processo fotográfico, sendo o Daguerre óptico substituído pelos processos do Ambrótipo ou Talbótipo o Ferrótipo, Panótipo e o Processo de Albumina ou Colódio Úmido e outros, que se sucederam até a comercialização das placas fotográficas de gelatino brometo em 1875. Difusão: Finalmente a introdução do filme flexível (roll-film) na última década do século XIX, alcançou uma nova faixa de usuários, e gerou o Amador de fotografia (snapshooter). Até então, a Fotografia era coisa de Profissionais, e alguns apaixonados, pois o operador fazia sua própria emulsão superfície sensível, revelação e cópia. A entrada dos amadores que desejavam algo mais simples e acessível no campo fotográfico ampliou largamente o mercado, encorajando muitas empresas a se lançarem no mercado de produtos fotográficos. No final do século XIX, milhares de empresas em todo o mundo produziam e comercializavam produtos fotográficos. A partir do filme e com a difusão alcançada e com os estudos e experimentações levadas a efeito chegou-se a uma imensa variedade de proposições e métodos para se obterem o registro da imagem. Acreditamos já ser do conhecimento do leitor, o principio básico da fotografia fotogr afia em película (2), portanto, port anto, a partir de agora, vamos discutir e conhecer o principio da formação da imagem digital, também conhecida como imagem numérica. O Principio Digital: Todas as câmaras fotográficas não passam de câmaras escuras. Nas câmaras de película o registro de imagem se efetua, controlando-se pelo diafragma e velocidade de obturação a quantidade de energia luminosa externa, para que, a que atinja o filme, tenha sempre um valor constante, unicamente dependente da sensibilidade do filme. A maioria das câmaras digitais não possuem obturador. Somente diafragma, (não há especificações de velocidade de obturação nas especificações destas câmaras. A alta velocidade é apenas a do pulso do flash. Aqui se modifica a técnica de fotografar. Como praticamente a totalidade das câmaras digitais possuem um programa de toma de cena, o operador não se apercebe deste fato, uma vez que sua função se limita apenas apertar um botão e ver se cena saiu a contento. Porem quando se usam “backs” digitais em câmaras profissionai s a historia é totalmente outra, pois aqui temos o obturador da câmara, que deverá ser usado quase sempre em 1/30 de segundo, e a tomada de sincronização de flash, será usada para ligar a excitação no substrato sensível. O obturador não influenciará na exposição da foto. UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 20
Sobre a Origem da Fotografia Eletrônica A idéia de fotografia sem filme não é nova. Desde 1908 Alan Archibald Campbell Swinton propôs uma forma de se capturar imagens de forma eletrônica. Em sua época a tecnologia não se mostrou suficiente para materializar seu projeto, que só pôde se tornar realidade após a Segunda Guerra Mundial. O sistema que Campbell Swinton criou é basicamente o mesmo que ainda hoje se usa nas televisões, que é um meio eficiente de captura de imagens estáticas e em movimento (inclusive com som sincronizado) sem filme. A tecnologia de vídeo foi a primeira alternativa quando se pensou em criar um sistema que substituísse as câmeras fotográficas tradicionais. No início dos anos 80 a Sony lançou uma câmera fotográfica que não usava filme e armazenava as imagens em disquetes de 2 polegadas, bem parecido com aqueles usados nos computadores. Na verdade era uma câmera de vídeo que gravava apenas um quadro de cada vez - a tecnologia é chamada de Still Video. O sinal de vídeo era gravado no disquete em formato analógico e necessitava de acessórios de conversão Analógico/Digital para que as imagens fossem utilizadas em computadores. Esta tecnologia produziu alguns modelos e acessórios de saída que ainda hoje estão no mercado. Vamos agora detalhar o princípio e funcionamento do digital; Iniciaremos explicando a câmara digital integrada, que é o equipamento mais comum que se encontra no comércio. No lugar do filme, estas câmaras, sempre em construção unificada, possuem uma unidade foto sensível, que na tecnologia atual é compartilhada por dois sistemas: o CCD (Charge “Coupled Device”) e o CMOS (“Complementary Metal Oxide Semiconductor”). Estes princípios são herdados das câmaras de vídeo portáteis e das de amadores e são técnica comum desde os anos ’70.
Ambos recebem sinais de luz existente na parte interna da câmara, (depois do diafragma) e somente se tornam sensíveis quando são eletricamente ativados por um pulso que será tanto mais forte ou mais fraco de acordo com a necessidade de sensibilização, ajustando-se automaticamente à quantidade de luz interna (dentro da câmara formadora de imagem) que banha a superfície eletricamente sensibilizada que formará a imagem eletro-fotográfica. Daí numa mesma “chapa”, que tecnicamente denomina-se de substrato, pode-se ter uma variedade de
sensibilidades fotográficas. Paradoxalmente, quanto mais luz, menor a sensibilidade (lógico) e quanto menos luz, maior a sensibilidade, (também lógico); mas se a luz for muito pouca e a grande sensibilidade não for suficiente, nenhum traço da imagem será registrado. Este fenômeno se deve à existência de um patamar energético a ser rompido entre o ponto sensível (pic) e a “chapa” (substrato), e esta propriedade é inerente a todos os elementos semicondutores (silício) usados para a fabricação das unidades sensíveis. A câmara digital, portanto, somente faz fotografias em instantâneo e a luz nela não exerce o famoso efeito cumulativo, sendo descartada as possibilidades de fotografias noturnas e astronômicas. Este processo de preparação da “chapa” para tomada de cena, através do um sistema de carga anteriormente
descrito, também demora uma fração de segundo, mas esta não ultrapassa o 1/50 de segundo, tornando inviável a fotografia em grande velocidade, e usando-se flash, alguns ainda reclamam a borrosidade das fotos (pela luz ambiente em primeiro plano) e o excesso de enegrecimento do fundo.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 21
O Funcionamento das Unidades Sensíveis: Nenhum dos dois sistemas vigentes, CCD e CMOS pode ser considerado superior. Na verdade cada um deles possui melhor desempenho em campos diferentes. Ambos no primeiro instante transformam a luz em sinais eletrônicos Analógicos (não digital). No CCD, cada pic (ponto), transfere um sinal de luz, transformado em um sinal elétrico (pixel), que seriado, é armazenado num sistema (chip) de memória digital. No CMOS, cada pic, se confunde com um pixel, pois possui sua própria conversão carga-voltagem e este sensor produz sinais Digitais. NOTA: Pic -vem a ser o sinal elétrico gerado no ponto da “placa” sensível (substrato) pela excitação de um fóton advindo da luz ambiente que forma a imagem. Este apenas varia em amplitude, dimensão, (intensidade, altura do pulso). Pixel – vem a ser o sinal elétrico gerado pelo “pic” quando processado pelo circuito integrado - CI digitalizador. Este tem sempre a mesma amplitude e apenas varia em duração, largura (período, pulso de tempo maior ou menor). O que é 1 bit: informação única, 0 ou 1, ligado ou desligado, banco ou preto, sim ou não. O que é byte: 2 bits = 256 x 256 x 256 = 16,7 milhões de cores. A analogia para os conhecedores do principio do radio: O “pic” seria semelhante à amplitude modulada, o “pixel”, à freqüência modulada. Os “pixels” se assemelham aos “di”, “da” da telegrafia. (respectivamente pontos
e traços - sinais longos e curtos). O sinal digital é na verdade uma modalidade de sinal telegráfico. Esta formatação é escolhida, para que haja diminuição do ruído natural que é gerado em todos os componentes eletrônicos. Peca pela perda de possibilidades de transmitir sinais sutis (muito débeis) porque para que haja sinal, é preciso haver um inicio de patamar de excitação. Os sinais mais fracos que o patamar mínimo são simplesmente eliminados. Esta é a razão pela qual os músicos, por exemplo, preferem o LP com um pouco de chiado, ao CD sem ruído de fundo, mas também, sem a coloracão exata que o músico quis transmitir, ou deseja ouvir. Comparativamente, o CCD exige um chip extra para digitalização enquanto isto não é necessário para o CMOS, pois o substrato do mesmo é constituído do mesmo material que os circuitos integrados (chips), sendo a decodificação inclusive mais fácil, pois, o sinal já sai digital no primeiro estagio: porém o primeiro (CCD) produz imagens mais uniformes, ainda que com mais consumo de energia, enquanto o segundo (CMOS) proporciona construção de aparelhos mais compactos e com mais economia de consumo de energia. O ruído e os custos finais de ambos são intercompetitivos. Uma outra diferença é que o CCD por ser de mais simples execução torna-se apto a ser fabricado em formatos maiores, enquanto o CMOS por sua complexidade inicial limita o número de pontos possíveis, pois os pontos que se tornarem defeituosos no processo de fabricação, inutilizaram toda a “chapa” (transdutor). Quanto aos custos de produção, estes crescem exponencialmente proporcionais à área do transdutor, com perdas e rejeitos também exponencialmente maiores para áreas maiores. Cumpre aqui observar algo bem interessante: Na fotografia convencional vamos para formatos maiores quando necessitamos de grandes detalhes e definição. Na fotografia digital, devido aos custos de fabricação o número de pontos (pics) quase sempre o mesmo em máquinas de formatos miniatura, médio ou grande, não trazendo essencialmente a melhoria pronunciada de qualidade da foto em si, que nos proporciona o sistema analógico. Só se utilizam adaptações às câmaras de formatos maiores devido a manobrabilidade que estas câmaras oferecem; Troca de objetivas, rebatimentos etc, o aumento de pontos eletro-sensíveis nas chapas maiores não é significativamente proporcional ao aumento da área da “chapa”.
A regra geral é que câmaras para uso médico, científico e industrial, costumam usar CCD; e câmaras de segurança, de PC, e periféricos, utilizam CMOS. Todo o processo de fabricação destas unidades utiliza um processo alternativo da Fotografia, onde se depositam e evaporam através de raios Laser os materiais na placa de substrato.(?)
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 22
Dois tipos de CCD Existem dois tipos de CCD que podem ser utilizados em função da aplicação da câmera: O primeiro tipo é o CCD linear , que é nada mais que uma fileira com milhares de elementos fotossensíveis que varrem a área onde a imagem se forma na câmera, desta forma, captura uma coleção de linhas que formam a foto. As câmeras que usam este tipo de CCD são usadas, em geral, em estúdios fotográficos para fotos estáticas de alta definição. Não são câmeras indicadas para objetos em movimento, e podem apresentar resultados ruins quando se utiliza iluminação piscante, como lâmpadas fluorescentes. Este tipo de CCD captura 7.000 X 7.000 pontos. O segundo tipo é o CCD do tipo Array que é uma matriz com milhares de elementos fotossensíveis que capturam os pontos da imagem na câmera de uma vez só. Esta técnica é quase equivalente a foto comum no tempo captura, mas normalmente produz imagens de qualidade inferior às conseguidas com o CCD linear ( em geral, capturam 1.000 X 1.000 pontos ). As câmeras que utilizam este tipo de CCD são as mais populares do mercado porque são mais acessíveis, de fácil uso e portabilidade. Podemos destacar também que, até o momento, não se produziu nenhum CCD que reproduza a qualidade ou resoluções de imagem da fotografia comum.
Outro tipo de sensor – Super CCD A principal diferença entre um Super CCD e CCD padrão é a orientação dos fotosites. Em um Super CCD eles são orientados em uma formação octogonal ou em favo de mel, como a Fujifilm gosta de denominar. Para gerar os resultados em pixels, em imagem quadrada, requer um processo que gera uma quantidade maior de pixels. Uma câmera profissional da fujifilm com um Super CCD de 3.4 megapixel gera uma imagem de 6.13 megapixel. Isto significa que sistemas internos destas máquinas fotográficas estão processando esses pixels diagonalmente orientados para gerar a imagem maior, através da interpolação. Resolução Resolução é a quantidade de pontos que formam a imagem e a sua distribuição no espaço por ela ocupado, normalmente medida em pixels por polegada ( ppi ). Quanto maior a resolução, mais informação a imagem possui. A resolução das câmeras atuais varia de acordo com os modelos. Nas mais simples podemos ter uma resolução, por exemplo, de 320x240 pixels por polegada. Em modelos médios esses valores são de 640x480 à UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 23
1280x960 pixels/pol. E nos modelos profissionais podem chegar a mais de 4096x4096 pixels/pol. Quanto maior o número de pixels, maior o tamanho da imagem e melhor a sua qualidade. Aula 5 - A Técnica: Conforme vimos, a formação da imagem digital inicia-se com uma série de pontos dispostos na superfície do substrato sensível e ali é gerada a imagem em pixels. A sucessão de sinais, em linha, tal como se forma a imagem na tela de televisão, (varredura) é então armazenada num circuito de memória para posterior decodificação e impressão de algo que possa ser visto como uma imagem fotográfica. No sistema, a cena é subdividida em três imagens similares formadas pelas três cores básicas: o azul, o verde e o vermelho (através de filtros coloridos), que numa sucessão organizada nos dão a composição final da imagem. É importante que o número de pixels especificados para cada aparelho, nos dê o nível de qualidade do equipamento, e logicamente da foto em si: 2 Megapixels, 6 Megapixels, etc. As melhores e caríssimas câmaras atingem 14 Megapixels, está-se estudando 16 megapixels e aparentemente está cada vez mais difícil alcançar números maiores com a tecnologia que é hoje utilizada. As adaptações de backs digitais em médio formato alcançam atualmente um máximo de 22 Megapixels. Como termo de comparação, um filme de 35mm moderno a cores, com ISO 400 possui não menos que 28 Megapixels em linguagem digital. O filme preto e branco, também de ISO 400 possui algo em torno de 88 Megapixels. Quando vamos para o médio formato (6X7) temos algo em torno de 110 Megapixels para o filme a cores e 280 Megapixels para o filme P/B (se usar ISO 25, por exemplo, terá 1000 Megas, ou 1 Gigapixel !). Da mesma forma quando usamos um 4X5 polegadas, mais que dobramos estes valores, chegando aos 240 e 600 Mega respectivamente (sempre ISO 400), que correspondem a Milhões de pontos na imagem, Giga, significa Bilhões de pontos. Portanto, com a técnica usual, dificilmente ultrapassaremos em 20 ou 30 anos a qualidade da fotografia químico-analógica que hoje temos. Aqui ressaltamos o fato que há apenas pontos de cores na formação da imagem digital. A saturação cromática nos proporciona imagens agradáveis, apesar das cores distorcidas, também o ruído, interfere no detalhe fino e na sutileza de variações tonais. Ao se fazer imagens preto e branco, lá estarão as três cores para a formação do preto. O preto nunca é formado em sua plenitude, usa-se então o recurso do sépia ou algo similar, porém a “chapa” digital possui apenas a capacidade de registro de sete níveis de preto contra onze do filme analógico. A imagem P/B ficará sempre pobre no sistema digital. Este é outro problema, que não poderemos fotografar um noivo de preto e uma noiva de branco juntos, nem um gato preto numa mina de carvão ou um urso polar num banco de gelo, isto, porque o equilíbrio do branco que a câmara proporciona automaticamente fica sem referência, exigindo grandes manipulações posteriores. Convém lembrar uma vez mais, que a quantidade de pontos no sistema digital não é proporcionalmente dependente da superfície da “chapa” (substrato), conforme explicamos anteriormente, tampouco dependem da sensibilidade a que é imposta à “chapa”. Em lingua gem fotográfica, diríamos que o “grão” é sempre o mesmo.
Armazenamento
Os meios de armazenamento das imagens captadas pela câmeras digitais estão como para os filmes nas câmeras convencionais. Imediatamente após a sensibilização do CCD os impulsos analógicos são convertidos para digitais e transferidos para a memória interna do equipamento, que na seqüência, são transferidos para um dos meios de armazenamento utilizados pelo mesmo. Ou seja, a memória interna trata-se apenas de um dispositivo de transição para os meios de armazenamento, visto que sozinha não possui a habilidade para armazenar dados. UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 24
Na linguagem popular tais meios vêm sendo chamados de filme digital. Como tais dispositivos não possuem partes móveis, dificilmente ocorrem problemas de perda de dados quando caem ou sofrem algum impacto. Por força da existência de inúmeros fabricantes de câmeras digitais, existem no mercado diversos tipos de meios de armazenamento. Com a disseminação do uso dos mesmos surgiu naturalmente uma predominância de alguns em detrimentos de outros. Obviamente, quanto maior a capacidade do meio (medida em Megabytes - Mb ), maior o número de imagens que conseguimos armazenar. Deve-se levar ainda em conta que os meios utilizados não são voláteis, ou seja, não perdem as informações armazenadas quando desconectados da fonte de energia que os alimentou no instante da captura. MEIOS: FLASH CARDS
Com a introdução do padrão PCMCIA (Personal Computer Memory Card International Association) há alguns anos, a maior parte dos computadores portáteis passaram a contar com tal interface e consequentemente ler os flash cards ou PC cards. Originalmente existiam três tipos de PC Cards, todos com o mesmo comprimento: 85,6 mm e largura: 54 mm, variando apenas em sua espessura: Tipo I com 3,3 mm, Tipo II com 5 mm e Tipo III com 10,5 mm. Atualmente o Tipo II lidera o mercado com diferentes capacidades de armazenamento, indo de 128 a 400 Mb. Mas infelizmente poucas câmeras digitais aceitam tal padrão atualmente, sendo que prevalece o uso dos CompactFlash (CF). COMPACT FLASH CARDS
Os Compact Flash Cards usam os mesmos princípios de armazenamento dos PC cards, apenas são menores, com: 36,4 mm de comprimento e 42,8 mm de largura. São disponíveis em dois tipos: Tipo I, com 3,3 mm de espessura e capacidades de 2 , 4 , 8 , 16 , 20 , 24 , 48 , 64 , 128 , 192 e 224 Mb . Tipo II, com 5,0 mm de espessura e capacidades de 4 a 512 Mb .
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 25
Smart Media
Tratam-se de pequenos cartões, com dimensões menores e com espessura de apenas 0,7 mm, utilizados normalmente em câmeras de pequeno porte, face seu reduzido tamanho. Possuem capacidade de armazenamento de 2 , 4 , 8 , 16 , 32 , 64 e 128 Mb . Para transferir os dados dos smart medias para os computadores existe um dispositivo da forma de um disquete com um espaço para encaixá-lo . Em seguida o " disquete " pode ser introduzido no computador e os arquivos baixados para o disco rígido . Outra forma de transferência é a de encaixá-los e um card reader ou conectar a câmera por um cabo especial na porta serial ou USB do computador. Micro Drive
Trata-se de um minúsculo HD produzido pela IBM, compatível com os slots Tipo II dos CFs e capacidades de 512 Mb e 1 Gb.
SONY MEMORY STICK
Trata-se de um Compact Flash exclusivo para câmeras Sony com 21,5 mm de largura , 50,0 mm de comprimento e 2,8 mm de espessura . Disponível nas capacidades de 4 a 512 Mb .
Saídas – Modos de compactação O modo como salvamos os arquivos de imagem determina o grau de compactação da informação. Alguns formatos mais utilizados são os seguintes: RAW – formato sem compressão utilizado em algumas câmeras digitais para gravação, ao transferir imagens neste formato para o computador deve-se optar por um dos formatos abaixo: TIFF – Formato sem compactação, ou seja, gera arquivos grandes sem perda de qualidade ou informação. FPEG – formato capaz de compactar ao máximo um arquivo de imagem, mantendo seu aspecto visual satisfatório. O JPEG de compactação mínima e resolução alta é utilizado pelos ampliadores fotográficos digitais. O JPEG de compactação média ou máxima e resolução baixa é utilizado em páginas na internet.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 26
BITMAP – formato que cria um mapa de bits, gerando um arquivo de tamanho médio e também média qualidade. TARGA – uma variação do BITMAP, de média compactação utilizado especialmente em televisão, onde se quer alta qualidade visual e menor tamanho de arquivo. GIF – formato de alta compactação, mais utilizado em desenhos em que a cor é chapada, em imagens sem gradação tonal. Utilização dos diferentes formatos de arquivo: De acordo com a aplicação final da imagem, determina-se o formato de arquivo em que deve ser gravada.
Internet – JPEG para fotos, e GIF para desenhos de cores chapadas. Impressão fotográfica – TIFF ou JPEG (mais utilizado). Televisão – TARGA ou BITMAP.
Impressão: De acordo com o trabalho final desejado, a resolução da imagem pode ser maior ou menor:
Internet e televisão – 72 dpi. Jornal – 100 dpi. Impressora jato de tinta e laser: 300 dpi. Impressão fotográfica: 400 dpi.
Com essas informações pode-se scanear a imagem com maior ou menor resolução, facilitando ou dificultando o trabalho no computador, pois quanto maior o tamanho físico da imagem e a resolução definida, maior será o arquivo, ou seja, mais “pesado” para o computad or. Modos de cor Ao tratar uma imagem é necessário pensar, prioritariamente, em como será a sua saída final. Aliás, mesmo na hora de se obter a imagem digital é necessário pensar nisso. Há duas maneiras de se tratar a cor: a cor da luz e a cor da tinta, ou seja, o sistema RGB e o sistema CMYK. Para saídas com fontes de luz (televisão, internet e papel fotográfico, deve-se manter as fotos em formato RGB. Para saídas impressas como jornais, revistas, impressoras domésticas e em gráficas, utiliza-se o formato CMYK. As imagens podem ser convertidas de um formato para o outro se utilizando programas de tratamento de imagens. O Futuro: Recentemente, avanços no sistema têm sido realizados, todos visando á melhoria na qualidade final da imagem. São eles: o “Afinamento de grão” (Fine -pix) e o processo X3. Fala- se também do “Filme de Silício”. O “Afinamento de grão” é realizado por um circuito que gera novos pontos intermediários entre os pontos existentes na “chapa” . Este sistema é realizado por um micro-processa dor que “inventa” pontos similares à média do anterior e posterior, cobrindo o ruído dos semicondutores, na verdade colocando pontos que não existem na cena real. Este processo nos dá uma agradável visualização da imagem, todavia gera sombras e brilhos inexistentes em cenas que possuam superfícies quadriculadas (em xadrez) ou que contenham linhas paralelas (em listas) ou em detalhes finos. Estas características deturpam a cena original porque as sombras de interferência (e brilhos) são aleatórias e sempre diferentes a cada cópia que tomamos do mesmo original. Aqui surge uma interessantíssima peculiaridade: Todos os conhecimentos sobre resolução e qualidade das UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 27
objetivas que conhecíamos, sobre resolução e qualidade das ópticas caem por terra. O que interessa é o conjunto “óptica-substrato”. Eis que este conjunto com a capacidade de processamento do “chip” digitalizador, é que formará a qualidade
visual final da imagem. Esta propriedade uniformiza o centro e as bordas da imagem que na da câmara analógica convencional é facilmente visível. Obviamente, isto significa na câmara digital a “perda de definição” no centro da imagem, e “falsificação” da imagem a medida que ela vai para os cantos.
O processo X3 é realmente muito interessante, pois se eliminam os filtros e a necessidade de três sensores. Numa mesma “placa” são realizados três tipos de micro cavidades cilíndricas ao longo de todos os pics
existentes, em profundidades diferentes equivalentes a ¼ do comprimento de onda do azul, do verde e do vermelho. Este processo cria o sinal elétrico, por ressonância nas cavidades e além de oferecer cores mais naturais, sem problemas de ajuste de superposição, torna de imediato, o equipamento mais miniaturizado. Para o próximo futuro espera-se a introdução do filme de silicon (contínuo) sobre cerâmica, substituindo o principio de disposição discreta de pontos. Neste processo, os pics e pixels serão gerados nas micro moléculas do filme. Com a viabilização do sistema, se possível, voltaremos ao principio da fotografia física, semelhante ao primitivo Daguerre óptico em que se formava uma imagem a partir das reações nos átomos de prata, e não se falava em grão. Tínhamos uma definição total até o máximo da resolução das objetivas de então. O Equipamento: Conforme vimos, a quase totalidade dos aparelhos digitais são integrados, isto é, possuem a unidade sensível já embutida no aparelho, e poucos possuem ópticas cambiáveis. Isto se deve ao fato que a unidade sensível é extremamente sujeita a atrair poeira, (pelas suas características eletrostáticas) e a poeira lhe é destrutiva. Na tentativa de limpa-la, pode o usuário danificar-la irremediavelmente, esta que é a parte mais cara do conjunto. Outro detalhe é que a maioria destes equipamentos possui uma unidade sensível comparável a área existente nas antigas câmaras filmadoras de 8 mm, as melhores, com áreas próximas ao 16 mm, e conseqüentemente ópticas equivalentes às mesmas, como é sabido, a resolução destas é sempre bastante limitada, mormente também pela não intercambiabilidade das óticas, teremos sempre presente uma distorção nas fotos de close e de detalhes, por exigirem outros aditamentos ópticos complementares. Durante anos os fabricantes sempre atraíram os compradores com inovações e mais inovações, aumentando a gama e o escopo das câmaras analógicas, destinando-as inclusive a objetivos que talvez jamais usaríamos com a intenção de oferecer algo que “estivesse” preparado para as mais difíceis ou raras situações. Subitamente com a introdução da “novidade” digital, são oferecidas câmaras bem limitadas. Nesta premissa, estão também
incluídas as câmaras ditas profissionais que desceram de nível tanto na qualidade construtiva do produto final, como quanto á versatilidade de uso. Outras limitações são verificadas: Uma das mais importantes, todas as fotos com grande angular vinhetam enfaticamente. Isto se agrava na técnica X3. Como as unidades sensíveis são produzidas em cilindros ressonantes a ¼ de comprimento de onda, espalhados na placa, na grande angular os raios molham a placa perpendicularmente no seu centro e com fortes ângulos nos cantos. Como as unidades sensíveis ficam no fundo dos cilindros eles recebem pouca ou nenhuma excitação luminosa. Outra propriedade inerente aos CCD ou CMOS é a total insensibilidade às radiações atômicas, sendo inútil sua utilização em registros de trajetória de ionização de partículas alfa e beta. Outras características peculiares são: A não prontidão de disparo, pois uma vez que o equipamento tem que ler e interpretar a situação da cena, esta demora um tempo. A carga e descarga da unidade sensível para formatar o sistema digital para o armazenamento na memória também consomem um tempo que dependendo UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 28
dos modelos existentes, pode ser de 2 a 9 segundos inviabilizando cenas “cândidas” e a seqüência fotográfica , sendo esta uma das razões pela qual a fotografia digital tem dificuldades em ser aceita em perícias judiciais ou policiais como prova documental definitiva. As Limitações: Conforme vimos no texto, apesar das qualidades alardeadas, existem limitações no sistema digital. Estas limitações inclusive estão presentes nas câmaras profissionais e se a ssemelham às existentes nas câmaras point and shoot para amadores, que mesmo assim, possuem um espectro mais amplo na fotografia em geral. No sistema digital, estas limitações estão no âmago da sua co ncepção, restringindo seriamente a fotografia técnica e cientifica. Sem enunciarmos as sucessivas alterações de processos de formação da imagem nos últimos 20 anos (softs e hards). Atualmente temos limites que não permitem sua aplicação em vários usos. Citamos aqui 25 casos mais comuns: a) b) c) d) e) f) g) h) i) j) k) l) m) n) o) p) q) r) s) t) u) v) w) x) y)
Fotografia noturna (em B). Fotografia em baixas luzes. Fotografia astronômica. Fotografia de registro atômico (insensibilidade a radiação). Fotografia de micro detalhes (pelo ruído inerente ao principio). Fotografia em tempo real (há uma demora variável entre a ativação e o disparo). Fotografia rápida e ultra rápida. (paralisação de movimentos). Fotografia seqüencial e burst. (esportiva e de movimentos). Fotografia estroboscópica (com flash seqüencial). Fotografia estereoscópica (com câmaras sincronizadas). Fotografia em grande angular (devido a vinhetaçâo). Fotografia panorâmica por varredura. Fotografia P/B (com riqueza de tons). Fotografia a cores com meios tons. Fotografia em pôster. (com alta definição). Fotografia pontual. (Dot photo). Fotografia pericial. (jurídicas e periciais). Fotografia de reconhecimento. (para uso militar). Fotografia de mapeamento geodésico (aerofotografia). Fotografia de modas (pela dificuldade em reproduzir padrões finos). Falta de lógica evidente para quem está acostumado a fotografia convencional. Eterna dependência de baterias ou pilhas. Falhas causadas por “tilts e jammings” (emperramento eletrônico eventual). Durabilidade limitada do equipamento. Incerteza na permanência dos cards, soft, e hards necessários para perpetuação do registro.
Vantagens da Fotografia Digital: a) As câmeras digitais não necessitam de filmes e revelação dos mesmos. b) Nós mesmos podemos fazer todo o processo fotográfico: tirar as fotos descarregá-las no computador e se necessário imprimi-las na sua impressora doméstica. Todo este processo é muitíssimo mais rápido do que o convencional que utiliza filmes de base química. Sem contar a poluição ambiental causada pelos mesmos no seu processamento. c) É possível ver as fotos da câmera digital em uma TV comum, bastando para isto ligá-la com um cabo na mesma. d) As câmeras digitais são capazes de tirar de dezenas a milhares de fotos, dependendo de sua memória. Muitos modelos atualmente são capazes de também gravar som durante alguns segundos ou até mais de uma hora. e) Também podem capturar seqüências de imagens por até quase um minuto, caracterizando-se aí um pequeno “clip”.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 29
f)
Para aqueles que não gostam ou não querem utilizar o computador, já existem câmeras digitais que dispensam o seu uso e imprimem as suas fotos ligadas diretamente numa impressora. Ou co nectadas diretamente a um telefone celular enviam suas fotos via e-mail na Internet para qualquer lugar do planeta. Como se vê as potencialidades das câmaras digitais parecem não ter fim. g) Depois do investimento inicial - computador e câmera - , as fotos terão um custo bem reduzido.
11- Conjecturas: A fotografia digital iniciou-se em 1970 e a partir de então ela foi sempre sendo re-estudada e aperfeiçoada. Em 1980 já havia certa maturidade técnica, e equipamentos deste tipo passaram a ser utilizados inicialmente em aparelhos médicos, onde não se exigia elevada qualidade do produto final. Assim como o Vídeo, nos últimos trinta anos, a mesma passou por varias modificações e as fotos armazenadas em “chips” de 1970 e 1980 não podem mais ser decodificadas pelos equipamentos atuais, perdendo-se o arquivo eletrônico então formado. Por isto, as entidades que passaram a ter arquivos digitais, têm como norma básica, em cada cinco anos migrálo para não perdê-lo. Apesar das perdas econômicas e de memória propriamente dita que o processo acarreta. O grande consumidor, incentivador e financista das pesquisas no campo digital, é a NASA que os desenvolve para utilização nas naves sonda para pesquisa do espaço exterior. Estas se caracterizam por serem naturalmente caras e descartáveis, e estas propriedades, são também repassadas ao consumidor comum. No inicio da fotografia, este problema de alteração da tecnologia também era comum, mas as técnicas novas, como as anteriores estavam sempre ao alcance de laboratoristas experientes e ainda hoje existem muitos aficionados amadores e profissionais que seguem operando com estes Processos Alternativos. Hoje porém as técnicas de utilização fabricação e reparo, quando existem, estão muito além do cidadão, mesmo dos mais experientes e conhecedores, exigindo grande quantidade de equipamentos. Outro problema que se evidenciou a partir das câmaras tipo point and shoot (apontar e disparar), é a vida extremamente limitada do equipamento, propositalmente feito para que o usuário em pouco tempo o troque por um novo. Neste ponto, os Ecologistas já iniciaram um sério movimento contra a obsolescência e vida limitada destes produtos que além de se criarem um lixo não reciclável, agredindo a natureza, voltam a agredila com retirada de matérias primas, com a poluição e o proporcional grande consumo de energia presentes no processo produtivo. Outro ponto de vista importante que deve ser abordado é lembrar que quando a fotografia digital começou, a fotografia analógica já contava com 179 anos de muita pesquisa e desenvolvimento! E a fotografia analógica que produz de imediato? - Uma FOTO! - Enquanto a imagem digital é intrinsecamente bem mais complexa que a televisão! Pois não há o “in time” do momento em que se expõe o filme ou se toma a cena de televisão. - Na foto digital, o sensor é ativado, em seguida “varrido” (escaneado), os dados são organizados e armazenados,
somente depois são salvos e imigram para um novo sistema que os coleta, ordena e imprime ou sejam, oito operações para cada quadro! No mínimo, pois com sistemas extraordinários de afinamento de grão etc, aumentam ainda mais a quantidade de operações! Para os lojistas e laboratórios fotográficos, vemos a necessidade de investirem de uma só vez grandes fortunas em equipamentos, com retorno bastante lento e até duvidoso. Comparando-se uma mesma faixa de preço: Uma moderníssima maquina de revelação de filmes (1 HORA) produz de 2000 até 5000 copias por hora; as reprodutoras digitais neste mesmo espaço de tempo não produzem mais do que 30 copias no mesmo espaço de tempo (em Laser). Se usarem papel fotográfico, podem fazer neste mesmo espaço de tempo algo em torno de 1000 copias apenas. Esta peculiaridade do processo acarreta invariável perda da memória fotográfica das
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 30
famílias, perda do prazer em fotografar e perda de clientes na área de serviços fotográficos. O cliente se afasta do serviço de reprodução e copias. O que se vê na verdade é uma maciça propaganda em torno do digital, omitindo-se suas limitações que não são poucas. Lembro que no primeiro ano de lançamento do produto nos Estados Unidos, 1996, 80% das câmaras digitais compradas foram devolvidas aos lojistas! A partir de então o investimento em propaganda de câmaras digitais em relação às de filme esteve num patamar de 38.000% ! (380X) a favor das primeiras! O que acontece? O comprador fica sem opção! O verdadeiro conhecedor esmagado! O lojista sem saber o que fazer! O mercado mundial encolhe, se retrai! A indústria e o comércio têm prejuízos! Aumenta o desemprego etc. etc. Em termos de faturamento global, o mercado fotográfico internacional se retraiu. Diminuiu seu faturamento global. Quando voltar a se equilibrar, ele será menor, porque o consumidor vai sentir que foi enganado. Assim como vieram e desapareceram em relativamente pouco tempo, os formatos 126, 110, super 8, disc, APS, os quatro primeiros já desaparecidos e o último, com anunciada aposentadoria para o final deste ano, o sistema digital, que a nosso ver é apenas mais um processo alternativo, o que garantirá sua presença no mercado, está atualmente na “crista da onda” mas deverá achar seu nicho num futuro de acomodação de mercado. As tecnologias na verdade não tem obsolescência, mas aplicações específicas em determinadas áreas. A propaganda e a desinformação gerada por aqueles que dizem saber, provocam grande confusão e obsolescência comercial. Sempre foi comum na área fotográfica espalhar falsas verdades e erros de conceito. Aqui podemos citar uma serie de técnicas que não se obsoletaram. Entre elas: A roda, o parafuso e a alavanca já citados, a engrenagem, o motor a pistão, o tear o fósforo e o palito não foram substituídos. Os talheres com que se come são sempre iguais. Assim também o foguete interplanetário e o primitivo busca-pé tiveram a mesma origem. O ultraleve e o dirigível continuam em uso, No campo da eletrônica, o diodo semicondutor de 1903 continua com o mesmo principio, e construção semelhante, e hoje está sendo largamente usado. O lápis, a bússola, o compasso, o telescópio e os óculos seguem os mesmos princípios há séculos. Os amplificadores a válvula continuam insuperáveis tanto para som, como transmissão de rádio freqüência e até na tela da imensa maioria dos monitores e aparelhos de televisão. Sem nenhuma dúvida, a fotografia digital tem suas origens na antiga “ Radiofoto” usada a partir da 2ª Guerra Mundial, para informação aos correspondentes de imprensa. Utiliza exatamente o mesmo principio de varredura, modulação e transmissão, só que hoje é realizada via Internet (que naquela época não existia). Compartilha dos mesmos princípios de modulação da onda portadora, hoje viajando em linha reta (por usar retransmissão dos satélites), não ficando a mercê das condições de reflexão das camadas da atmosfera e estratosfera. Hoje o processo de modulação é em freqüência modulada (FM) em bandas de freqüência mais elevada, em lugar das antigas transmissões em amplitude modulada AM. É a evolução, mas sem mudanças de princípios. O que vemos? O que hoje se usa como “fotografia digital” é apenas parte de uma tecnologia maior onde os conhecimentos se entrelaçam. E como a parte não pode nunca ser maior que o todo, também a foto digital não poderá tecnicamente superar a analógica. É o principio natural. Veja a natureza. - As plantas, os animais e o homem têm a mesma estrutura básica desde o inicio dos tempos. Como na verdade não existem a técnica, a certeza e a verdade absoluta, haverá sempre uma complementação entre elas. A busca do equilíbrio e das boas idéias é o que realmente nos faz progredir. As bases não podem ser destruídas. (Fonte: http://www.novacon.com.br/digicam.htm , Acessado em Mar/2010.)
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 31
Um comparativo das Câmeras do Mercado. Apresentamos um quadro comparativo das principais câmeras fotográficas digitais do mercado internacional. O quadro está dividido em 3 categorias distintas:
Portáteis- Câmeras que podem ser levadas a qualquer lugar Camera Backs & Sistemas - Câmeras que não podem ser levadas a qualquer lugar Still Video - Câmeras baseadas em sinal de vídeo
A verdadeira posição do estado da arte (data?) na tecnologia digital e desmistificar a maciça propaganda que gira em torno desta “novidade” tecnológica, e as “invenções” desinformativas em torno do tema es clarecendo ao fotografo, ao potencial usuário, e aos lojistas, o verdadeiro “estado da arte” nas tecnologias e concepção,
orientando-se na correta utilização e destino destes equipamentos. Aqui não citaremos marcas, mas apenas princípios técnicos, sem fazer alusão a nomes ou propagandas. Usamos a linguagem técnica corrente com subseqüentes explicações e definições no próprio texto, com intuito de tornar acessível e claro tanto para os que se iniciam, quanto aos já usuários do sistema. xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 32
Aula 6 - Câmaras Aerofotogramétricas Figura da câmera Digital Aerofotogramétrica - Leica ADS80
(Fonte: http://www.aeroimagem.com.br/v2/component/content/article/77.html)
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 33
Câmeras Fotogramétricas (*8)
CÂMERAS As câmeras fotogramétricas diferem das câmeras convencionais por gerarem imagens fotográficas com estabilidade geométrica, através de um processo de tomada passível de calibração para um melhor resultado. As câmeras fotogramétricas baseiam-se no princípio da câmera escura, onde há uma caixa em forma de paralelepípedo oco com as paredes internas pretas. Uma das paredes possui um orifício, onde passa a luz da imagem capturada. A parede oposta ao orifício é branca para refletir qualquer comprimento de onda e formar a imagem da realidade o mais fiel possível, figura abaixo.
Representação da Câmara Escura de uma Câmera Fotográfica. No entanto, a imagem projetada é fraca, exigindo o auxílio de uma lente convergente para concentrar a luz e formar uma imagem muito mais luminosa e definida. Observem que a concentração da luminosidade é realizada através da utilização de uma lente convergente. Figura abaixo.
Representação da utilização de lentes convergentes na câmara escura de uma câmera fotográfica. Observa-se que, quando um filme é colocado junto à parede branca da caixa onde a imagem é formada, e este é exposto á luz por um determinado período de tempo, esta imagem poderá ser registrada no filme. Observa-se também que, existem algumas características que vão influenciar na formação desta imagem na parede branca da câmara escura. Dentre estas características podemos destacar a distância entre o orifício e o alvo a ser fotografado. Quanto maior esta distância, maior o espalhamento da luz na parede branca, maior será a imagem e menos luminosa será a imagem (Fator de Brilho). Isto se corrige com a aplicação de lentes convergentes específicas. UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 34
Outra característica importante é o diâmetro da(s) lente(s) que ocupa o orifício da câmera escura, ou seja, o melhor ajuste entre seu diâmetro e a distância a ser fotografada (Profundidade de Campo) poderá gerar imagens mais nítidas. Observa-se então que a “profundidade de campo” é inversamente proporcional ao “fator de brilho”, gerando maior contraste e maior dificuldade de se distinguir objetos na superfície. Devido a grande profundidade de campo, pequenas alterações provocam alterações insignificantes no foco e no ajuste do diâmetro da lente. Figura abaixo.
Representação da Distância Focal de uma Câmera Fotográfica e a Profundidade de Campo.
Por isso, nestes tipos de câmeras o diâmetro do orifício da caixa escura é fixo e pode ser regulado por uma peça que se chama “diafragma”. Além do diafragma, as câmeras fotogramétricas possuem um dispositivo regulador do tempo de exposição, chamado obturador, para regular a luminosidade da imagem formada na câmera escura. Portanto, o fluxo luminoso que atinge o filme depende:
Da iluminação da superfície a ser fotografada; Da distância da câmera (altura do vôo); Da abertura do diafragma;
Estas características juntas determinarão o tempo de exposição para permitir a formação de uma imagem com “densidade normal”.
Outra característica importante é o ângulo de abertura da lente (relativo à convexidade). Quanto maior o ângulo, maior a área fotografada. Daí, a altura do vôo poderá ser menor para fotografar a mesma área (grandes oculares). O projeto de construção das lentes é muito complicado. Devido às dificuldades para se projetar e construir lentes perfeitas, os fabricantes optam por associá-las para diminuir seus defeitos, criando assim as chamadas “objetivas”.
Para finalizar, as partes que compõem uma câmara aerofotogramétrica são o magazine e o cone. Figura abaixo. UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 35
Representação das partes componentes de uma câmera aerofotogramétrica. No cone estão:
A objetiva (lentes); O diafragma (abertura); O obturador (tempo); O suporte de filtros; A esquadria de registros (data, número, etc.).
No magazine estão:
O porta filme; A placa do plano focal; A câmara de vácuo; O servo-motor.
TIPOS DE FOTOGRAFIAS AÉREAS - Geometria da Foto. As fotografias aéreas são classificadas segundo diversos critérios. Para os objetivos aqui propostos, só será utilizada a classificação quanto à geometria, ou seja, orientação do eixo da câmera. Nesta classificação apontam-se as fotografias verticais e oblíquas. FOTOS AÉREAS VERTICAIS Nesta fotografia, o eixo ótico da câmera coincide com a vertical do lugar fotografado, no momento da tomada da foto. As fotografias verticais são largamente usadas na confecção de bases de dados digitais para Geoprocessamento.
Representação da tomada de uma fotografia aérea vertical.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 36
Suas vantagens sobre as fotos obliquas são a obtenção de medidas facilmente através das relações geométricas e a detecção e o reconhecimento de objetos facilitados pelo fato de a forma da imagem estar mais próxima do real. A desvantagem é que as fotos não apresentam uma perspectiva ortogonal, como no caso das cartas topográficas.
Coordenadas Fotográficas - Fotos Verticais e Oblíquas As coordenadas de fotografias aéreas tomadas com câmeras cartográficas e determinadas com boa precisão através de aparelhos tipo monocomparadores produzem resultados altamente confiáveis se se determinar a inclinação do eixo-ótico destas fotos (“tilt – t”), bem como a direção desta inclinação (“swing – s”). Hoje, com o uso de GPS determina-se as coordenadas de 3 pontos do campo e, com as coordenadas destes 3 pontos na foto, através de processos como o de “Church” calcula-se o t e o s. Se a fotografia for vertical ( t < 3o ) suas coordenadas podem ser tratadas por equações mais simples em aplicações rurais onde não se exige alta precisão.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 37
FOTOGRAFIAS AÉREAS OBLÍQUAS São aquelas feitas com o eixo da câmera intencionalmente direcionado entre a horizontal e a vertical. O ângulo normalmente oscila entre 90º e 270º para as fotografias aéreas, podendo ser maior nas fotografias ou imagens tomadas por satélites. As fotografias oblíquas admitem uma subclassificação em oblíqua alta e oblíqua baixa. Observa-se que os termos alta (Figura 39) e baixa (Figura 40) não se referem à elevação do avião sobre o terreno, mas apenas ao ângulo de inclinação do eixo ótico da câmera com relação à vertical.
Representação da tomada de uma fotografia aérea oblíqua alta.
Representação da tomada de uma fotografia aérea oblíqua baixa.
As fotografias obliquas tem o mesmo aspecto que de uma foto panorâmica tomada do alto de uma elevação. O importante é que nesse tipo de foto tem que se observar que a escala aumenta progressivamente dos primeiros aos últimos planos. Figuras abaixo.
Representação de uma fotografia oblíqua.
Representação do aumento progressivo de escala em direção aos últimos planos numa fotografia oblíqua.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 38
Consequentemente, quanto mais longe estiverem os objetos fotografados, menor será a definição das respectivas imagens fotografadas. Figura abaixo.
Representação da perda de definição em direção aos últimos planos numa fotografia oblíqua. Por esses aspectos, este tipo de fotografia não é adequado para medições cartográficas, sendo utilizadas para fins panorâmicos. Desta forma, a tomada de fotografias requer um planejamento bem elaborado a fim de que os objetivos sejam alcançados. TOMADA DAS FOTOGRAFIAS A tomada de fotografias requer um planejamento bem elaborado a fim de que os objetivos sejam alcançados. É importante estabelecer informações sobre: A Câmera; Aeronave e sua autonomia de vôo; Altura e altitude de vôo, de acordo com a escala; Número de aerofotos em cada faixa; Número de faixas; Quantidade e tipo de filme; Tempo de exposição; Abertura do diafragma; Filtros; Intervalo de tempo entre duas fotos; Elementos para a navegação; Etc.
ALTURA E ALTITUDE DE VÔO Este tema esbarra em áreas como: a escala das aerofotos, o limite de precisão e a ordem econômica, ou seja, custos. Para fins cartográficos, a relação entre a escala do mapa e a escala das fotografias deve equilibrar os requisitos econômicos com os de precisão. A partir da precisão necessária é possível calcular a escala das aerofotos. Vejamos um exemplo. Se as aerofotos se destinam ao traçado de curvas de nível com eqüidistância de 1m, a precisão do aerolevantamento deverá ser a metade deste valor, ou seja, 50cm de equidistância e o cálculo da escala será baseado não na altitude do terreno e sim no desvio padrão das altitudes do terreno a ser fotografado. O que seria mais interessante para nós engenheiros florestais/ambientais no momento? Seria a tomada de aerofotos com finalidade específica de fotointerpretação de um tema particular. Neste caso a escala deverá obedecer outros critérios. Vejamos! Uma vez definida a escala necessária das aerofotos, a altura do vôo poderá ser calculada através da seguinte equação.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 39
Esquema representado a fórmula de cálculo da escala de vôo. Onde: E – escala; d – tamanho da fotografia; D – extensão fotografada; c – distância focal da câmera; H – altura do vôo (profundidade de campo). Lembrando que este valor de altura será calculado a partir da média entre a menor e a maior altitude do terreno a ser fotografado. No caso de levantamentos para fins de fotointerpretação é claro. Vamos ver na prática. Se temos uma câmera com 150mm de distância focal e precisamos de fotografias com escala de 1:10.000, qual a altura do vôo necessário?
E quando se tem as fotografias e precisa-se calcular a escala? Se tivermos um vôo realizado com câmera de distância focal de 150mm a uma altura de 6.000m, qual seria a escala da fotografia?
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 40
RECOBRIMENTO E INTERVALO DE TEMPO ENTRE DUAS EXPOSIÇÕES As fotografias aéreas devem ser tomadas sempre com elevação do sol superior a 30º, em dias claros, nos quais as condições climáticas sejam tais que permitam fazerem-se negativos fotográficos claros e bem nítidos, isto é, bem contrastados. O recobrimento é feito em exposições sucessivas ao longo de uma direção de vôo. Essa sucessão é feita em intervalos de tempo tal que, entre duas fotografias haja uma superposição longitudinal e outra transversal. Vejamos:
As fotografias são tomadas em faixas que se superpõem em cerca de 30% - recobrimento ou superposição lateral.
Entre as fotografias da mesma faixa a superposição deve ser em torno de 60% de recobrimento (ou superposição longitudinal).
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 41
Plano de Voo Observa-se que a superposição longitudinal das aerofotos é necessário para garantir o exame estereoscópico. Como se calcula isso tudo? O cálculo do número de faixas ou linhas de vôo a fim de recobrir toda a área de estudo é necessário e é feito através de um número de faixas com um número exato de fotografias por faixa. Vejamos como calcular o número de faixas e a quantidade de fotos requeridas para cobrir uma área de 20km de largura, no sentido leste-oeste, por 33km de comprimento, no sentido norte-sul?
Dados:
a escala das fotos serão de 1:30.000; o formato das fotos serão de 23 x 23cm; o recobrimento lateral será de 30%; o recobrimento longitudinal será de 60%; a linha de vôo será no sentido leste-oeste.
20km
A área abrangida por cada foto com 23 x 23cm, na escala de 1:30.000, calculada através da regra de três é:
1cm (na foto) = 30.000cm (no terreno) 23cm (na foto) = x cm (no terreno) X = 690.000cm = 6.900m = 6,9km
33km
Portanto, cada foto de 23 x 23 cm abrangerá 6,9 x 6,9 km no terreno. Para se calcular a quantidade de faixas a serem percorridas pelo avião, considera-se que cada foto dentro de uma faixa de vôo deverá ser recoberta pela adjacente, da outra faixa, em 30%. Restará então 70% de cada foto de 6,9 x 6,9km. Desta forma, se o recobrimento de 100% é de 6,9km, o recobrimento dos 70% restantes será 4,83km. Número de faixas Considerando uma distância de 33 km no sentido norte-sul e que o vôo será realizado no sentido leste-oeste, tem-se que o número de faixas ou linhas de vôo será dado pelo quociente 33km / 4,83km. Então, o número de faixas será 6,83, como não se trabalha com números quebrados, arredonda-se para 7 e acrescentam-se duas faixa em cada extremidade para que as faixas extremas tenham garantia de recobrimento, ou seja, mais 4 faixas, totalizando 11 faixas. E o número de fotografias por faixa longitudinal? Número de fotos Para se calcular o número de fotos por faixa de 20 km de extensão, no sentido leste-oeste, e levando-se em consideração uma sobreposição, para efeito de estereoscopia, de 60% entre cada foto, conclui-se que restará somente 40% efetivo por foto a ser avaliado. Assim sendo, tem-se:
Recobrimento de 100% = 6,9km Recobrimento de 40% = xkm x = 2,76km realmente cobertos pela foto.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 42
Desta forma, o número de fotos será dado através do quociente entre a distância total da faixa no sentido leste-oeste pela área efetiva recoberta pela foto:
20km / 2,76km = 7,24 fotos por faixa. Arredonda-se para 8 fotos por faixa.
Porém, por medida de segurança, acrescenta-se, ainda mais uma foto por faixa (8+1=9 fotos) tendo em vista que a primeira não é recoberta por nenhuma outra. Isto ocorre em função da necessidade de haver sobreposição para que possibilite a realização da estereoscopia na primeira fotografia de cada faixa também. Observa-se que o total de fotos para cobrir uma área de 20km por 33km será o número de faixas vezes o número de fotos, ou seja, 11 faixas x 9 fotos por faixa = 99 fotos. Contudo, não podemos deixar de considerar que o recobrimento longitudinal depende também do intervalo de tempo de cada disparo da máquina fotográfica. De uma maneira simplificada para se medir este tempo, adota-se a equação;
Onde:
é o intervalo de tempo; B é a distância percorrida pela aeronave entre a tomada de duas fotos; V é a velocidade da aeronave. ΔT
ARRASTAMENTO DA IMAGEM Outra característica importante a ser considerada é o Arrastamento da Imagem. O efeito de arrastamento na fotografia decorre do movimento da aeronave durante o tempo de exposição do filme. É claro que nos dias de hoje com a modernização dos equipamentos, já existem dispositivos que tentam equilibrar o máximo possível o equipamento para que este efeito seja minimizado ao máximo. Alguns outros fatores também influenciarão neste arrastamento, como:
A altura da aeronave sobre o ponto considerado no terreno; Terrenos com alterações agudas de altitude sempre ocorrerá arrastamento das porções mais altas da imagem; Condições de turbulência aérea também ocasionarão arrastamento da imagem.
Observa-se que sempre ocorrerá arrastamento, mesmo que mínimo. O que interessa é que este arrastamento não fuja ao padrão aceitável pelas normas cartográficas.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 43
CONDIÇÕES ATMOSFÉRICAS O planejamento para um levantamento fotogramétrico completo de uma área, deve levar em consideração diversos fatores a fim de que se possa realmente cobrir a totalidade do terreno sem perdas nem grandes sombras. Para isso, também torna-se necessário algumas informações referentes à localização e às características geográficas da área a ser levantada. Deve-se observar as condições meteorológicas e climatológicas a fim de evitar nebulosidade. Geralmente o número de dias impróprios se agrupam numa determinada parte do ano. Se possível lançar mão do uso de Cartas Meteorológicas locais. Nos dias ensolarados, sem nuvens, é importante a hora para a obtenção de boas fotos. Observar também o horário para a tomada das fotos, em geral entre 9h e 15h para que sejam evitados efeitos desagradáveis de sombreamento. A presença de sombras compridas pode obscurecer muito algumas feições. Por outro lado, pequenas sombras podem gerar efeitos desejáveis aumentando a quantidade de informações na imagem. Observa-se que fora das regiões tropicais sempre haverá sombras. Porém, nas regiões tropicais poderá haver reflexão da luz solar nas camadas atmosféricas diminuindo o contraste das fotografias. Este fenômeno será diretamente proporcional à quantidade de umidade suspensa no ar, limitando o horário de vôo aos que o Sol não esteja em posição zenital. Em regiões de baixa umidade este horário poderá ser ampliado, desde que se respeite a altitude das montanhas para não se gerar sombras muito extensas e também, dependendo da altura do avião, a geração da sombra da própria aeronave. NAVEGAÇÃO A ferramenta básica para a navegação é o projeto de vôo. O projeto de vôo é constituído por um mapa com as linhas de vôo. Este mapa pode ser acoplado à câmera fotográfica que geralmente possui um dispositivo para projetar a imagem da superfície. Em câmeras mais antigas esta projeção era feita em um visor de vidro opaco na parte superior da câmera. Em câmeras mais modernas existe um visor digital ou notebook onde é projetada a imagem da superfície. Em ambos os visores existem uma reta d enominada “linha de fé” para que o operador possa fazer o ajuste com o eixo da faixa a ser fotografada. Figura abaixo.
Representação da Linha de Fé em um plano de vôo. UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 44
Além da linha de fé, existem linhas paralelas perpendiculares à linha de fé que se deslocam na velocidade programada para o vôo e que podem ser comparadas com o deslocamento da imagem para o ajuste da velocidade do avião. Isto para que o recobrimento seja correto. Além do mais, junto ao mecanismo que desloca essas linhas paralelas existe um intevalômetro, para disparar a câmera no tempo de recobrimento exato. Nos equipamentos aéreos mais novos, como sensores digitais existem mecanismos que controlam isso automaticamente. Figuras abaixo.
Exemplos de equipamentos de aerofotogrametria mais novos e seus produtos.
Exemplo de dispositivos que compensam a deriva.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 45
Vejamos o efeito da compensação. Figura abaixo.
Esquema comparativo do efeito da compensação para deriva no sobrevôo.
Nos equipamentos mais modernos utiliza-se um mapa digital, onde o acoplamento de um GPS auxilia a navegação sobre as faixas e o instante da tomada da fotografia ou imagem através do seu relógio. Figura abaixo.
Exemplo de equipamento para realização de sobrevôo apoiado com GPS.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 46
Adaptado de: FONTES: 1) http://www.cartografia.eng.br/artigos/naerog.asp 2) NOÇÕES BÁSICAS DE DETECÇÃO REMOTA FOTOGRAMETRIA E FOTO-INTERPRETAÇÃO EM PEDOLOGIA Autor: Elsa Sampaio –
[email protected] - Departamento de Geociências - Universidade de Évora – 2007 3) FOTOINTERPRETAÇÃO E SENSORIAMENTO REMOTO. Autor: RICARDO T. ZAIDAN. LGA – Univ. Federal do Juiz de Fora (UFJF).
Visão estereoscópica direta e indireta e seus princípios fundamentais Estereoscopia é o nome dado ao fenômeno natural, em que uma pessoa observa simultaneamente duas fotos de um objeto, tomadas de dois pontos de vista diferentes (distintos). Vendo cada foto com um olho, verá o objeto em três dimensões. Para que isto se viabilize, devem ser cumpridos os seguintes requisitos: 1) no instante da observação os eixos óticos devem estar aproximadamente no mesmo plano. 2) a razão B/H deve ser tal que 0,02 < B/H' < 2, onde B é a aerobase (distância entre os pontos de vista) e, H', a altura da aeronave (distância do objeto em relação ao observador), que obteve as fotos. É oportuno distinguir estereoscopia de visão estereoscópica. Visão estereoscópica significa visão tridimensional e estereoscopia é um dos processos de obtenção desta visão tridimensional. O olho humano
O olho humano é a principal condição ou a principal ferramenta para a estereoscopia. Para obtenção da visão estereoscópica, através de fotos, é necessário que tenhamos dois olhos e com a mesma capacidade de visão. A visão monocular permite examinar a posição e direção dos objetos, dentro do campo da visão humana, num único plano. Permite reconhecer nos objetos, a forma, as cores e o tamanho. O olho humano é o órgão mais importante, na comunicação com o ambiente em nossa volta. Através dele, conseguimos registrar e levar ao cérebro as imagens dos objetos, com todas as suas características.
Noção de profundidade
A sensação de profundidade baseia-se em dois fenômenos: a experiência e a estereoscopia. Experiência: aqui aparecem os exemplos de desenho perspectivo como: 1- uma fila de postes. Notamos que a sua altura diminui com o afastamento dos postes. 2- olhando uma estrada, as suas margens parecem convergir para um ponto. 3- as montanhas distantes apresentam uma cor azulada, enquanto que as próximas apresentam cor verde. Visão estereoscópica direta e indireta
Existe visão estereoscópica direta, quando o olho recebe os raios luminosos refletidos diretamente pelo objeto, ao invés de observar fotografias (diapositivos), processo este chamado de visão estereoscópica indireta. A estereoscopia depende muito da acomodação do olho, que nada mais é do que adaptar a distância focal do olho à distância em que está o objeto, que estamos observando. Assim, podemos ver a diferença do olho com a câmara fotográfica, pois esta tem distância focal fixa, exceto pequenos ajustes de calibração. Hoje esta técnica é bastante utilizada em tomadas aéreas, de modo que o avião vá fazendo as tomadas verticais, como ele viajando em linha reta na altitude constante. Como os pontos de vista "são geralmente muito distante, o exagero do relevo é muito grande, e você pode ver muitas coisas que sem o estereoscópio não se poderia. UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 47
Na verdade, quando os pontos de vista daqueles que tirar as fotos com a intencionando a imagem estereoscópica são muito distantes, falamos de Hiperestereoscopia. A distância interocular média dos olhos humanos é de cerca de 65 mm, e, portanto, esta é a distância que normalmente é tomado para fotografias estereoscópicas. Mas no Hiperestereoscopia, aumentando significativamente a distância para aumentar a sensação do relevo.Segundo o sentimento do relevo que se deseja obter aumenta-se ou diminui-se a distância, por exemplo, em aplicações topográficas muitas vezes se tomam distâncias que nos permitem a sensação de ver o objeto como se fosse a três metros do mesmo, pois onde L é a distância do objeto a ser fotografado, d a distância entre as tomadas, 0,065 distância interocular, a distância virtual em que você quer ver 3m, em seguida, é dada pela equação:
E, portanto, d = 0.021667 × L. Aproximando-se pode-se tomar: Portanto, se estamos a 6 km de altura, a separação é de 120 m. Assim, considerando a velocidade constante do avião, você pode facilmente obter o intervalo de tempo entre uma foto e outra. Além disso, a Hiperestereoscopia podem ser aplicadas à topografia, fotogrametria especificamente, ou seja, à medição de distâncias por meio de fotografias. No entanto, quando os pontos de vista estão muito perto de capturar o objeto, se a distância interocular é usado, possivelmente, a cena estará fora do quadro da fotografia. Portanto, você tem que fazer é reduzir proporcionalmente a distância. Isso é chamado Hipoestereoscopia. Esta distância é muitas vezes considerado como a distância de leitura normal de uma pessoa, ou cerca de 25 cm, assim, se aplicarmos a mesma equação como antes:
Teremos que d = 0,25 L ( para L= 6km) = 1.500m.
Imagem estereoscópica é o resultado da superposição longitudinal entre duas aerofotos consecutivas. A superposição conhecida como Recobrimento Longitudinal é o percentual que uma determinada fotografia superpõe em relação a uma fotografia consecutiva em uma faixa de vôo. Para visualizar a imagem em 3D, aproxime-se do monitor. Faça com que os raios óticos de seus olhos focalizem cada uma das imagens separadamente (Imagem esquerda para o olho esquerdo e Imagem direita para o olho direito). Afaste-se lentamente sem perder o paralelismo dos eixos óticos e aguarde a acomodação da imagem. Após algumas tentativas, a visão tridimensional é obtida (Figura 13).
Figura 13. Par estereoscópico
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 48
ESTEREOSCOPIA – PRINCÍPIOS FÍSICOS Uma das características dos seres humanos, entre outros, é terem a possibilidade de ver aquilo que os rodeia em três dimensões. A terceira dimensão ou percepção de profundidade, resulta do fato de se captarem imagens do mesmo objeto, simultaneamente de dois ângulos diferentes. De fato, através dos nossos dois olhos, captam-se duas imagens ligeiramente diferentes de cada objeto e essas imagens fundem-se no cérebro numa imagem tridimensional. Ora, é fácil de compreender que também se podem obter imagens a três dimensões se, a partir de duas imagens sucessivas, recolhidas a partir de pontos diferentes, com cerca de 60% de sobreposição longitudinal entre si. Quando observadas simultaneamente, e cada uma por um dos olhos do observador, geram paralaxe estereoscópica que transmite a noção de profundidade entre pontos de observação e proporciona a percepção das três dimensões do terreno (relevo), permitindo deste modo fazer medições rigorosas. Estas duas imagens constituem o que se chama um “estereopar” e, através de
equipamento especial (estereoscópio), que leva cada um dos nossos olhos a observar uma imagem em separado, é então possível reconstruir a terceira dimensão no nosso cérebro. Estes conceitos podem ser mais facilmente compreendidos ao observar o esquema da Figura ao lado.
Requisitos para visão estereoscópica A fim de se conseguir tirar partido da visão estereoscópica é necessário cumprir certas condições nas imagens observadas. Assim, consideram-se como requisitos para a visão estereoscópica:
A relação B/Z de ser próxima de 0,25; O estereopar tem de ter a mesma escala; O eixo óptico da câmara, no decorrer dos disparos sucessivos, tem de estar no mesmo plano vertical e ser perpendicular ao plano horizontal de referência do terreno.
VISÃO ESTEREOSCÓPICA A estereoscopia é, de uma maneira simplista, a visualização de uma imagem em 3D. Há pessoas que conseguem fazer isso de maneira direta ou natural, porém, o mais comum, é através da visão binocular, com a utilização de lentes ou de polarizadores. Na visão binocular utiliza-se um par de fotografias aéreas com área de recobrimento. O fato é que um mesmo objeto em fotografias diferentes não possui o mesmo centro de perspectiva. E quando cada uma destas fotografias é vista por um olho diferente do observador, faz com que o cérebro humano interprete as diferenças de perspectiva das fotos como profundidade do objeto. Esta iferença de perspectiva do objeto registrado denomina-se paralaxe. Assim, os objetos situados a uma mesma distância do observador possuem a mesma paralaxe, porém, para objetos co m distâncias diferentes do observador a paralaxe, possivelmente será diferente. UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 49
Observa-se que a paralaxe é maior para objetos mais próximos do observador.
A inclinação, ou paralaxe, pode ser medida por um instrumento chamado barra de paralaxe, contida em alguns estereoscópios. Um exercício para a observação deste deslocamento pode ser realizado da seguinte forma:
Estica-se um braço à frente, com o polegar levantado; Observa-se o dedo primeiramente com um dos olhos; Feixe este olho e abra o outro; Faça isso alternadamente; Seu dedo parece deslocar-se da direita para a esquerda. Este é o efeito da paralaxe.
Para reproduzir o efeito da visão estereoscópica, torna-se necessário fazer projetar na retina de cada um dos olhos do observador a imagem que lhe corresponderia se observasse o próprio objeto, ou seja, o objeto tiradas em pontos diferentes, utilizando um estereoscópio binocular. Observa-se que a visão estereoscópica é responsável por medir altitudes com elevado grau de exatidão para fins de mapeamento. Dentre os métodos de estereoscopia podemos destacar dois:
MÉTODO DO ESTEREOSCÓPIO DE LENTES Este método consiste na utilização de um par de lentes convergentes de distância focal igual ao comprimento de seu suporte. Este conjunto de lentes provoca a visão dos dois olhos do observador em paralelismo tendendo ao infinito. Isto possibilita a visualização de um mesmo ponto fotografado em duas fotografias diferentes, porém, sobre ângulos diferentes, fazendo com que o cérebro humano interprete a diferença angular como um efeito de profundidade.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 50
MÉTODO DO ESTEREOSCÓPIO DE ESPELHO Este instrumento segue o mesmo princípio do estereoscópio de lentes. A diferença é que possui um par de espelhos e um par de prismas, que permite um maior afastamento entre o par de fotografias facilitando o manuseio do observador para efetuar as medidas.
Outras técnica para se obter a visão estereoscópica indireta
a) Anaglifo: Este processo estabelece a separação das duas imagens distintas a serem percebidas, usando projeções ou impressão nas cores complementares vermelho e azul e usando óculos com filtros nestas cores. Se a foto da esquerda é projetadas ou impressa em vermelho e a direita em azul, o filtro do olho esquerdo é azul e o do direto é vermelho, de tal forma que o olho esquerdo só perceba a foto da esquerda e o direto, a foto da direta. Apesar da projeção colorida, a imagem tridimensional é percebida em preto e branco.
b) Cintilamento: Sabemos que as imagens formadas na retina do olho humano persistem por cerca de 0,1 segundo, após a ocultação do objeto. Este processo explora este fato, para estabelecer a separação dos campos visuais dos dois olhos do seguinte modo: Projeta, alternadamente, as imagens da foto da esquerda e da direita, durante cerca de 1/60 de segundo. Sicronizadamente, veda o campo visual do olho direito, enquanto a imagem da foto da esquerda é projetada. Veda o campo visual do olho esquerdo, enquanto a imagem da foto da direita é projetada. Como a freqüência de projeções sucessivas é alta, os olhos vêem, continuamente, as imagens correspondentes e, assim, se obtém a visão tridimensional.
c) Polarização: Usando filtros polarizadores, faz-se, com que as imagens de um par estereoscópico projetadas sejam polarizadas em planos ortogonais. O observador utiliza filtros polaróides ortogonais correspondentes aos planos de projeção. Assim, verá com um olho apenas a imagem projetada por um dos projetores. Da fusão, no cérebro, das duas imagens, resultará a visão tridimensional.
d) Método do estereoscópio: Podemos obter a visão tridimensional por estereoscopia, utilizando o instrumento denominado estereoscópio. O estereoscópio elimina a dificuldade criada pelo nosso condicionamento. Essencialmente, ele é constituído de um par de lentes convexas montadas sobre um suporte. A distância focal destas lentes é um pouco maior que as pernas do suporte, de modo que, quando colocamos o par fotográfico sob o instrumento, os raios luminosos emanados da foto, situadas quase no plano focal das lentes, saem, aproximadamente, paralelos. O cristalino acomodado, para observar a imagem, formada no infinito, obtém a visão tridimensional. Existem estereoscópios de espelhos e estereoscópios de bolso. O estereoscópio de espelhos nos dá condições de analisar uma região maior da UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 51
fotografia. Isto é importante, na implantação de grandes projetos. Exemplo: na implantação de uma rodovia ou ferrovia, precisamos ter várias opções para depois escolher a melhor. Para tanto, é necessário ver, de uma vez, todas as opções ou, pelo menos, algumas delas. Com o estereoscópio de espelhos é possível usar alguns acessórios como: a barra de paralaxe e o amplificador de detalhes, o qual concentra o campo visual a uma micro-região da foto. O estereoscópio de bolso amplia mais o relevo do que o de espelho. Além disso, ele tem a vantagem de transporte, pois é pequeno e não exige lugar mais sofisticado para o seu uso. É possível, levá-lo em trabalhos de campo e obtermos medidas estereoscópicas no campo. Curiosidade: A HMD estereoscópico é um capacete que carrega dois ecrãs e sistemas ópticos para cada olho, de modo que a imagem é gerada no próprio dispositivo. A sua principal utilização tem sido até agora a Realidade Virtual, a um custo proibitivo e experimentalmente, embora a queda nos preços são outras aplicações recreativas, como jogos de vídeo. Estão sendo desenvolvidos protótipos de telas que não exigem óculos especiais para visualização. Todos eles utilizam o sistema lenticular, ou seja, microlentes dispostas em paralelo e verticalmente na tela do monitor, o que gera um desvio determinados a partir de duas ou mais imagens (geralmente 2 a 8). Fatores que afetam a estereoscopia
Orientação do estereomodelo; Capacidade de visão do fotointérprete ou fotogrametrista; Iluminação do ambiente; Diferença notável de escala no estereomodelo; Tonalidade fotográfica uniforme; Mudanças de posições de objetos no intervalo de tempo decorrido, entre duas tomadas de fotografias.
ESTEREFOTOGRAMETRIA - Definição de paralaxe Paralaxe é o deslocamento aparente de um referencial, causado pelo deslocamento do observador. Um exemplo de paralaxe pode ser obtido quando uma câmara que está acoplada a um receptor em movimento, obtém uma imagem e segundos depois volta a obtê-la em posição diferente. Haverá deslocamentos das posições das imagens de uma foto para a outra, e estes serão, diretamente proporcionais à altura do terreno. Estes deslocamentos nas imagens apresentam-se paralelos à linha de voo e são conhecidos como paralaxe estereoscópica. Assim, o termo paralaxe refere-se à mudança aparente das posições relativas de imagens de objetos, causada por uma mudança do ponto de vista. Um exemplo simples é a observação de diferentes objetos através da janela de um veículo. Aqueles que estão distantes, como montanhas aparentam deslocar-se menos em relação ao referencial (janela). Objetos mais próximos da janela aparentam mover-se mais rapidamente. Outro exemplo: tomamos como referencial uma parede e colocamos uma baliza parada entre nossos olhos e a mesma. Deslocamo-nos lateralmente, teremos a impressão de deslocamento da baliza. Este deslocamento é exemplo de paralaxe.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 52
A câmara aérea que está acoplada ao avião em movimento, é uma aproximação do olho humano que obtém uma cena, num dado momento, e volta a obtê-lo alguns segundos depois de uma posição diferente. É fácil perceber pelo exposto acima, que a área comum imageada por duas fotos consecutivas não será, em ambas as fotos, semelhante. Haverá deslocamentos das posições das imagens de uma foto para outra, e estes serão, diretamente, proporcionais à altura dos objetos ou altura do terreno (distância entre observador e objeto observado). Estes deslocamento, nas imagens, apresentam-se paralelos à direção da linha de vôo e são conhecidos como paralaxe estereoscópica. Paralaxe parcial (x) - É a abscissa do ponto, considerando a origem do sistema de coordenadas, o centro da
cada foto. exemplo: xA´ = paralaxe parcial do ponto A, em relação a foto 1. xA´´ = paralaxe parcial do ponto A, em relação a foto 2. xB´ = paralaxe parcial do ponto B, em relação a foto 1. xB´´ = paralaxe parcial do ponto B, em relação a foto 2. Sentido positivo da paralaxe parcial: O sentido positivo na medida das paralaxe de um ponto coincide com o sentido positivo das coordenadas cartesianas de um ponto. Exemplo: xA´ terá um valor positivo. xA´´ terá um valor negativo.
Paralaxe Absoluta (P)
A paralaxe absoluta ou paralaxe horizontal total de um ponto é a diferença algébrica das suas paralaxes parciais obtidas de duas fotos sucessivas (ou seja, um par estereoscópio). A paralaxe absoluta é representada pela letra maiúscula "P" como índice igual ao nome de interesse. exemplo:
PA = xA´ - xA´ PB = xB´ - xB´´
Propriedades das paralaxes
Pontos com igual paralaxe total tem a mesma cota Pontos com maiores paralaxes totais terão cotas maiore. Pontos com menores paralaxes totais terão cotas menores
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 53
Deformações contidas nas imagens.
Qualquer fotografia é uma imagem perspectiva dos objetos fotografados. Isto porque, ela é o resultado do registro ou impressão da reflexão da luz solar que incidiu nos vários pontos do terreno ou objetos, após a passagem de todos os raios pelo centro do sistema de lentes, que se comporta como centro dessa perspectiva (Projecção cônica). O objetivo da fotogrametria é reconstituir esses feixes de raios que ficaram registrados, de forma a passar novamente da imagem para o objeto. Para tal é necessário conhecer uma série de parâmetros relacionados com as condições do ato de fotografar e/ou os equipamentos utilizados, tais como: a altura do voo; a distância focal; entre outros. Assim, de acordo com os esquemas e respectivos dados e fórmulas apresentados abaixo, pode-se compreender muitas inter-relações entre vários destes parâmetros, de forma a co nseguir efetuar a referida reconstituição. Na Figura da esquerda, o esquema representa uma linha de voo ou de obtenção de imagens consecutivas, enquanto que a Figura da direita representa 2 linhas adjacentes, de obtenção de imagens.
Das Figuras:
Foto da Esquerda: m1 e m2 – largura da foto; f1 – distância focal; o1 e o2 – centro óptico; M1 e M2 – largura da área fotografada; S – área a fotografar no terreno; B – base aérea (0,4 M1); Z – altura do vôo (sobreposição longitudinal = 60%). Foto da direita: X – distância entre duas linhas de vôo adjacentes (0,8 M1), sobreposição lateral = 20%
Assim podem calcular-se os seguintes parâmetros fundamentais na reconstituição do real.
Escala = 1/D = m1/M1 = f/Z Comprimento do voo (L) = S/X Área Útil (Au) = B x X Nº de fotos = S/Au ou L/B
Deformações Dado o caráter cônico destas projeções, bem como a irregularidade da superfície dos objetos e/ou superfície terrestre, e ainda, sabendo que os raios refletidos dos diversos objetos sofrem desvios ao atravessar as lentes, é inevitável compreender que há algumas distorções nas imagens que têm de ser consideradas. Assim, pode haver distorções de dois tipos, fundamentalmente:
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 54
Variações de Escala Este tipo de deformação pode facilmente ser compreendido ao entender que a superfície da Terra é irregular, apresentando lugares com diferentes altitudes. Observam-se diferenças significativas das distâncias entre pontos diferentes. Deformações Radiais Este tipo de deformação se verifica na diferença existente entre as dimensões dos objetos dependendo da posição em que se encontram no enquadramento da imagem. Quanto mais próximo da borda, maior a deformação. Dificuldade em ligar duas fotos vizinhas - Como o mesmo objeto é visto segundo dois ângulos diferentes resultam duas imagens diferentes. Contudo, as deformações ligadas a uma projeção cônica (semelhante à do olho humano), vão permitir observar simultaneamente duas imagens do mesmo objeto segundo duas perspectivas diferentes, o que leva à percepção real do relevo – ESTEREOSCOPIA
FOTO – INTERPRETAÇÃO A interpretação da paisagem, através da correlação entre a realidade de campo e a fotografia aérea ou a imagem de satélite permite uma delimitação prévia das unidades taxonômicas de pedologia, por exemplo, que permite um melhor planejamento do trabalho de campo. Contudo, a foto-interpretação é uma técnica indispensável ao sucesso final dos trabalhos quer de levantamento ou cartografia temática (pedológica), quer de delimitação de unidades homogêneas de terra para posteriores interpretações e decisões ao nível do planejamento do uso da terra. Assim, pode definir-se a foto-interpretação como, o ato de examinar imagens com o fim de identificar objetos, áreas ou fenômenos e deduzir o seu significado. Quando a foto-interpretação é efetuada com o objetivo de elaborar cartografia temática (pedológica), ela torna-se num exame dos elementos dos padrões fotográficos, quantitativos e qualitativos, que permitem diagnosticar as prováveis unidades de solos existentes em determinado local. O ato de foto-interpretar desenvolve-se através das seguintes actividades:
Identificar Medir (áreas, perímetros, alturas, etc) – Por exemplo a Altura de um objeto é medida através da aplicação da seguinte fórmula h = (Z x d) / r
Onde: h – altura do abjeto; Z – altura do vôo; o d – distância entre o topo e a base do objeto; o r – distância radial ao topo do objeto. o Resolver questões o
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 55
PROCEDIMENTOS DA FOTO-INTERPRETAÇÃO As diversas atividades desenvolvem-se ao longo da seguinte sequência de procedimentos:
Reconhecimento e Identificação - Consiste na integração de observações dispersas numa apreciação global da paisagem. Análise - Consiste no exame de conjunto para dele separar os elementos constituintes e estabelecer as relações com o todo. Dedução – Objetos não diretamente perceptíveis. Dependem de um raciocínio. É particularmente perigoso, pois requer sólidos conhecimentos do meio e suas correlações com a foto-imagem. Interpretação - Após a individualização, segue-se a identificação e a descrição. Classificação e Idealização - Ainda que condicionada pelo trabalho de campo esta fase pode ser considerada como a parte final do trabalho de gabinete.
TÉCNICAS OU MÉTODOS DE FOTO-INTERPRETAÇÃO As técnicas ou métodos de foto-interpretação utilizados para levantamento de solos são: análise de padrões, análise fisiográfica, chaves de identificação e análise de elementos. Análise de padrões Os elementos padrões são indicativos de condições superficiais e sub-superficiais (forma do terreno, drenagem, aspectos erosivos, vegetação, tonalidade fotográfica e aspectos culturais). Cada elemento padrão sugere certas condições de solo. Análise fisiográfica Segundo GOOSEN (1968), o termo Fisiografia tem origem no grego physis – natureza juntamente com graphos – descrição. Assim, identificar unidades fisiográficas é associar diferentes formas de relevo e posições dos solos nesse relevo determinando a sua delimitação provável. Chaves de identificação As chaves de interpretação são descrições de relações entre o aspecto dos registros que se observam e os objetos que lhes correspondem. Estas chaves podem ser desenvolvidas para auxiliar qualquer interpretador de qualquer imagem e podem ser de diversos tipos. Assim, podem ser uma espécie de chaves dicotômicas descritivas ou, desenhos ou com referências aos objetos que correspondem àqueles aspectos visuais, etc. Análise de elementos Ainda segundo Goosen (1968), as características da superfície da terra, estão de alguma maneira, relacionadas com o solo. A análise dos elementos ou parâmetros fotográficos, numa imagem, é feita separadamente em diversos elementos como por exemplo: a dimensão, a forma, as sombras; os tons ou c ores; a textura; o padrão; a localização; a associação e a resolução. Assim:
A dimensão – Numa imagem com uma escala conhecida, algumas medições e aplicações dos conceitos de fotogrametria, permitem determinar a dimensão dos objetos em análise e ao comparar uns com os outros consegue-se mais facilmente identificar cada um; A forma – este é um elemento importante pois alguns objetos têm formatos muito próprios o que lhes permite uma identificação rápida e fácil; As sombras – Este é um elemento que tanto pode ajudar como complicar a fotointerpretação. Por um lado as sombras permitem revelar silhuetas mas, por outro lado, escondem detalhes como por exemplo nas zonas ensombradas da parede de um edifício de grande porte ou de uma ravina, ou ainda, de uma encosta com declive elevado e arborização exuberante;
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 56
Os tons ou cores – Por comparação com aquilo que se está habituado a observar e identificar, este elemento torna-se muito acessível ao foto-interpretador. Por exemplo: quanto maior a umidade do solo, mais escura é a tonalidade na imagem; solos arenosos refletem mais e solos argilosos menos, donde se pode deduzir a sua textura; quanto maior o teor de ferro e matéria orgânica, mais escura a tonalidade. Contudo, se a imagem for de falsa-cor, é necessário ter experiência da relação entre as cores ou tons que ficam registradas e aquelas os nossos olhos vêm. Frequentemente é necessário um período de aprendizagem e treino para se conseguir alcançar uma boa foto-interpretação de falsa-cor. Não obstante estas aparentes dificuldades, este elemento é um dos mais importantes pois conseguemse registros de objetos ou fenômenos que os nossos olhos não captam, como por exemplo, o estado de saúde da vegetação; A textura – A impressão de rugosidade lisura, criada pela observação de alguns objetos é a chamada textura do objeto. Por vezes a textura é criada pela repetição de tons em grupos de objetos pequenos e difíceis de identificar por si só; O padrão – quando uma imagem registra uma característica de forma repetitiva, cria-se um padrão. É o caso de usos da terra com recurso a terraços, ou culturas feitas segundo curvas de nível; A localização – é um elemento ligado à posição dos objetos em relação ao terreno ou outros objetos, como por exemplo uma linha de vegetação identificada numa posição lateral em relação a uma linha de água, pode levar à interpretação de que será vegetação ripícola (termo usado em Portugal); A associação - alguns objetos surgem muito frequentemente associados com outros como por exemplo a presença de sulcos ao longo de toda uma encosta, indicam que aquela região está ou esteve sujeita a fortes enxurradas e tem problemas de erosão; A resolução – é um elemento que limita ou ajuda o foto-interpretador, de acordo com as suas necessidades de pormenorizar o estudo.
Todos estes elementos em conjunto permitem ao foto-interpretador interpretar uma série de fenômenos que ocorrem na paisagem e assim, deduzir acerca dos solos e outros fatores importantes (destrutivos ou benéficos) para a cartografar e auxiliar o planejamento. Desta forma, por exemplo:
O relevo é diretamente visível na fotografia aérea (melhor ainda se observada em estereoscopia) e é um fator de formação do solo. Assim, uma mudança de relevo significa, regra geral, mudança de solo. Por esse motivo ele é o principal elemento utilizado na foto-interpretação pedológica; A rede de drenagem natural é, depois do relevo, um ótimo indicador das condições do terreno, sendo o elemento mais consistente e confiável. A sua fácil visualização nas fotografias aéreas ou imagens digitais, favorece a utilização de correlações com os tipos de solos. A erosão é um elemento que possibilita estudar e relacionar as formas e dimensões da rede de drenagem natural com solos de diferentes texturas; A vegetação natural é um elemento de fácil visualização em fotografias aérea e imagens digitais, podendo ser associada ao solo. Assim, uma grande concentração de vegetação de grande porte pode indicar solos mais profundos. O grande problema que ocorre é que grande parte da vegetação natural, na maioria dos terrenos, já foi removida; O uso atual pode ser um indicativo que possibilitará fazer correlações com os solos. Contudo, o tipo de dedução, interpretação e classificação, são completamente diferentes das utilizadas para a vegetação natural.
MÉTODOS DE ANÁLISE ESPACIAL POR FOTO-INTERPRETAÇÃO Os métodos que a foto-interpretação utiliza na análise espacial para efetuar cartografia de solos podem ser diretos ou indiretos. Segundo Carmo et al. (1990), uma unidade de solo é uma área i ndivisível com características próprias em termos de produtividade, sendo reflexo, em última análise, da inter-relação de todas as variáveis biológicas e ambientais que afetam o crescimento.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 57
Métodos diretos Baseiam-se em medições da capacidade produtiva.
Método comparativo - Utilizam a comparação e confrontação entre os vestígios ou estruturas encontradas com elementos do mesmo tipo já conhecidos. Apresentam muitas limitações, pois, as estruturas são, quase sempre, complexas e atípicas
Métodos indiretos As estruturas existentes na paisagem têm duas grandes origens:
Causas de origem física – condicionam a atividade humana (montanhas e rios funcionam como barreiras); Causas que decorrem da atividade humana: Desenvolvimento da expansão natural da exploração do solo (formas radiais ou estreladas); Imposição de limites nos campos (colonizações internas); Trabalhos que condicionam a paisagem (barragens, auto-estradas ). o
o o
Decomposição de uma paisagem
Para decompor uma paisagem em estruturas/tipo identificam-se LIMITES Identificação de estruturas / tipo que se associam aos limites: Limites de extremo a extremo - Regra geral, são significado de:
Estradas; Fósseis de estrada; Ribeiras; Estrada de ferro.
Parcelamentos regulares quadriculados - Regra geral são significado de:
Cadastros antigos; Loteamentos; Planos de quadras e bairros.
Estruturas não quadriculadas - Regra geral são significado de:
Estruturas radiais; Drenagens; Planos de quadras e bairros.
Parcelamentos curvilíneos - Regra geral são significado de:
Rios e lagos; Curvas e estradas Núcleos ou perímetros envolventes de núcleos urbanos.
Contudo, na paisagem, a maioria dos limites não está no estado “puro”, ou seja, não se encontram isoladamente. Verifica-se a existência simultânea de várias associações de UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 58
estruturas / tipo. O mais comum é, os cadastros encontrarem-se ligados a uma estrada e relacionados com um núcleo de importância variável, não obstante serem dependentes e indicadores de tipos de solos diferentes. Índices hidrográficos - Prospecção Pedológica Resultam de alterações ou anomalias no teor de umidade do solo. Ex: A neve que cobre uma área no Inverno derrete primeiro, em locais que se encontrem sobre fossas. Índices de sombra - Prospecção Pedológica As sombras projetadas por micro-relevo são invisíveis no solo e resultam da acumulação de neve / água ou de depressões do próprio solo sobre estruturas subterrâneas. Estas sombras só são descobertas pela luz rasante e por isso é no início ou no final do dia que se podem analisar estes índices. Análise cronológica Determinar se os limites das parcelas são dependentes ou independentes da via ou vias que lhe são contíguas. Assim, se os limites das parcelas atravessam o caminho como se ele não existisse, significa uma relação de independência, ou seja, o loteamento (parcelamento) é anterior ao caminho. Contudo, se o loteamento existe apoiado nos limites do caminho e é com ele ou a partir dele que se articula, significa que existe uma relação de dependência, ou seja, o caminho é anterior ao parcelamento. A CHAVE DA FOTOINTERPRETAÇÃO A chave da fotointepretação é o uso de um guia, o qual ajuda os fotointérpretes a identificar rapidamente as características fotográficas. Essas chaves são baseadas em descrições e ilustrações tópicas de objetos de uma determinada categoria; por exemplo: indústrias. São organizadas para um estudo comparativo; o intérprete seleciona os diferentes exemplos que mais coincidem com a característica que precisa ser identificada. O procedimento é lento e deve ser feito cuidadosamente, seguindo passo a passo a seqüência correta de trabalho, partindo do geral para o específico. A determinação do tipo de chave e o método de apreciação a ser usado dependem:
Do número de objetos, as condições para o reconhecimento; Da variabilidade normalmente encontrada dentro de cada classificação.
De uma maneira geral as chaves são mais facilmente construídas quando as características da superfície terrestre foram idealizadas pelo homem (exemplo: casas residenciais, edifícios, estradas, pontes, etc.). São de difíceis confecção quando se deve estudar as características para vegetação natural e as formas da Terra. Para a interpretação das características naturais, é essencial treinamento e trabalho de campo, para a obtenção da experiência necessária, podendo assim o profissional produzir trabalhos c onsistentes.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 59
Fotointerpretação básica A habilidade em fotointerpretar é desenvolvida pelo estudo e dedução, para aumentar hábitos de observação de objetos familiares, da terra ou de pontos elevados. Muitos de nós tivemos a oportunidade de observar a Terra através do vôo de um avião. Nessa oportunidade todos procuram reconhecer os objetos da superfície terrestre. Vejamos as diferenças entre a leitura numa simples fotografia aérea e a fotointerpretação estereoscópica da mesma. A leitura fotográfica é um assunto para determinações gerais, tais como escala, orientação geográfica, estação do ano, identificação das linhas correspondentes ao perímetro, estradas de rodagem, estradas de ferro, importantes cursos d'água e classificação das principais formas topográficas. A fotointepretação é um assunto que diz respeito à fotoanálise de curso d'água, de áreas cultivadas, da cobertura vegetal, de florestas para obtenção de madeira de lei, de formações geológicas, dos solos, de construções e trabalhos gerais feitos pelo homem. Na interpretação geológica e na de solos, precisamos rebuscar e gravar todas as informações a respeito do tipo de solo, dos lençóis de água, da erosão, das falhas geológicas, etc.. Para se obterem melhores resultados na leitura das fotografias aéreas, elas devem ser anotadas de tal maneira que as sombras fiquem voltadas para a direção do observador; como se tivessem uma luz iluminando a fotografia do lado esquerdo, acima do observador. Assim todos os objetos que tiverem projetados suas sombras na fotografia são elevações e os que não tiverem sombras são depressões. No caso de uma montanha de forma arredondada, a tonalidade na fotografia sofrerá uma mudança gradual, mas um prédio terá uma sombra com tonalidade igual, representando perfeitamente a forma do mesmo. As fotografias que representam uma superfície ondulada ou montanhosa são caracterizadas pela g rande quantidade de sombras. A fotointerpretação é facilitada em áreas cultivadas devido às formas das características que nelas prevalecem. Culturas, pomares, pastos, etc., são geralmente limitados por áreas ou rios, o que facilita a interpretação. Essas áreas são também caracterizadas pelas estradas, trilha de gado, represas para irrigação e drenagem e pelo conjunto de construções típicas de áreas rurais. Nas áreas cultivadas as sombras aparecem com diversas tonalidades de cinza, predominando as tonalidades claras. Assim toda vegetação baixa, como a grama, bem como o milho no início de seu desenvolvimento aparece com tonalidade cinza claro e textura fina. o milho quando totalmente desenvolvido aparece na fotografia com tonalidade escura e textura grosseira. Áreas com pastagem, áreas gramadas e campos aparecem com tonalidade clara e textura suave. Florestas densas aparecem com tonalidade escura enquanto que uma floresta em início de desenvolvimento aparece com tonalidade clara. O aparecimento de diferentes formas indica a presença de uma floresta mista. Rios, ribeirões e riachos são identificados pela sinuosidade, uniformidade de tom e pelas características topográficas. Lagos, reservatórios, tanques e pântanos são identificados pela sua uniformidade e tonalidade escura das águas, exceto nos pontos onde há reflexão do sol. Os pântanos têm como principal característica um excesso de umidade, e a tonalidade da terra é bem escura. As estradas de ferro aparecem como linhas finas, retas, mudando de direção através de curvas suaves. As estradas de rodagem são facilmente distinguidas nas fotografias aéreas. O que é difícil de se identificar é o tipo de pavimentação. Essa identificação só é possível em fotografias de escala grande. Estradas sinuosas indicam que a região é montanhosa. Linhas de transmissão são identificadas pelas características de que, ao atravessar certas regiões, é observada uma área limpa, sem árvores, mostrando a passagem da linha de transmissão. Cemitérios são identificados pela aparência esquemática das árvores, arbustos e caminhos. A identificação de escolas depende principalmente da forma geométrica da mesma e das características que se encontram nas vizinhanças. As igrejas são identificadas principalmente devido a sua estrutura de construção, seu tamanho, formato e pela torre com cruz no topo.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 60
Medidas de Paralaxe (FONTE: adaptado de:
http://people.ufpr.br/~felipe/foto3.pdf - maio/2010)
Estereoscopia - Como já visto anteriormente , A percepção de profundidade é facilmente realizada com a utilização simultânea do dois olhos, quando se obtém a visão da terceira dimensão; A percepção de profundidade monoscópica permite apenas uma sensação de desnível, enquanto a percepção binocular possibilita um grau de acurácia muito maior. A FOTOGRAMETRIA & FOTOINTERPRETAÇÃO é de importância fundamental para permitir a criação de modelos em 3D e a sua respectiva interpretação.
O intervalo médio para visão de profundidade varia de 25 cm a 600 metros; A visão tridimensional pode também ser obtida a partir de duas imagens de um mesmo objeto, tomadas de pontos de vista distintos (posição da câmara Diferente). Se cada uma das fotografias for simultaneamente observada por apenas Um dos olhos, suas imagens serão enviadas ao cérebro, produzindo a visão estereoscópica.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 61
Visão estereoscópica de IMAGENS
Par estereoscópico: duas aerofotos ou imagem que recubram a mesma área Estereoscópio: permite a manutenção de eixos óticos paralelos a fim de obter imagem 3D.
Estereopar: visão tridimensional
Para que haja visão estereocópica muito importante à fotogrametria e fotointerpretação é necessário que uma mesma porção do terreno seja fotografada de dois diferentes ângulos de visada. Em geral num vôo fotogramétrico um estereopar possui um recobrimento longitudinal de 60%. Um estereograma pode ser definido como um par estereoscópico de fotografias corretamente montados e orientados para observação em 3D.
Linha de vôo - Pode ser definida em cada foto do estereopar pela linha que passa pelo centro fiducial (O1) desta foto pelo homólogo na outra foto (O1’) e vice e versa.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 62
Exercício 1: determinação da Linha de vôo a)Determine a sua base instrumental: coloque uma folha A4 com uma reta desenhada a lápis com um ponto A do lado esquerdo, sob um estereoscópico de espelho, com a ocular direita fechada. Agora com as duas oculares, tente determinar o homologo do ponto A, sob o estetoscópio e marque o homologo A’. b)Determine a distancia entre A e A’, base instrumental, que permite ver em 3D co nfortavelmente.
Paralaxe e suas medidas
A paralaxe é definida como o deslocamento aparente da posição de um objeto causada pela mudança do ponto de observação, tendo como referencia uma linha ou a um ponto. A paralaxe é medida ao longo do eixo X nas aerofotos de recobrimento; A Paralaxe é tanto maior quanto mais próximo estiver o objeto do observador móvel (avião).
Exemplo: Ao se observar o peso de um objeto através da fiel de uma balança poderá ter uma leitura diferente conforme o observador se mova para esquerda e/ou para direita. UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 63
Equação Geral da Paralaxe A equação da paralaxe é bastante utilizada na fotointerpretação pois permite determinar desníveis entre pontos na aerofoto.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 64
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 65
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 66
Métodos de determinação da paralaxe Método das foto-coordenadas (monoscópico) Exemplo: foram medidas as coordenadas de dois pontos num aeroparsendo:
xa= 90,51 mm xa’= 15,40mm xb= 05,32mm
xb’= - 62,47 mm
Dados H= 3800m, f = 152 mm e B= base aérea 1320 m. Determinar ΔHab.
Cálculo da paralaxe:
Pa= xa-xa’= 90,51 – 15,40 = 75,11mm Pb = xb - xb’= 05,32 + 62,47= 67,79 mm
= −
= −
ΔHab= Hb - Ha
Assim:
= − = − ΔHab = Hb -
( )
, ( )
,
= ,
= ,
Ha = 840,27m – 1128,72m = - 288,45 m
Usando uma outra expressão:
Δ =
Δ ( + Δ )
Δpab= 67,79 –75,11= -7,32 mm
Δ =
1.320.000 152 −7,32
,(,−,)
ΔHab= -288,45 m
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 67
ATENÇÃO! Quando utilizamos a Barra de Paralaxe o valor de B, é a distância entre os centros fiduciais (centro da foto 1 - C1; e centro da foto 2 - C2). Porém, quando utilizamos apenas a régua para efetuar as medidas de Paralaxe, o valor de B é a distância entre o centro fiducial de uma foto e o ponto homólogo do centro fiducial da outra foto. Isto é: B = distância de C 1 até C2’. 1) Paralaxe de um ponto (A): XA = coordenada X do ponto A (foto da esquerda): Exemplo Xa = 35mm XA’ = coordenada X do ponto A’ (ponto homólogo de A – o mesmo detalhe na foto subseqüente – foto da direita): Exemplo Xa’ = 42mm PA = XA - XA’ B = C1C2’ = 9,8cm = 98mm Escala das fotos: 1:12.000 Altitude de vôo: 3.200m Distância focal: f = 152mm
Solução: Pa = Xa – Xa’ = 35 + 42 = 77 mm B = 9,8*120 = 1176 m (na escala da foto) Ha = 3.200m – (1176m*152mm)/77mm Ha = 878,54 m
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 68
Através da equação simplificada da paralaxe determine o desnível entre dois pontos da fotografia aérea na escala 1: 10.000 dada a variação de paralaxe igual a 1,67mm. Dados: Base aérea 1100 metros e f= 152,4mm. Equação simplificada da paralaxe ΔHab =
Δ pab H’
determinação de: H’= 1:10.000 ---- 152,4mm: X
X=1.524 m
b= B/E= 1100/10.000 = 110mm ΔHab =
1,67mm x 1524m 110
= 23,1
Método Estereoscópico de determinação da paralaxe
Barra de Paralaxe Revisando:
PARALAXE - se observarmos um objeto, alternativamente, com o olho esquerdo e direito, tem-se a impressão que o mesmo muda de posição. Esse aparente deslocamento causado pela mudança do ponto de observação. A aparente elevação de um objeto é devido as diferenças no deslocamento da imagem em duas fotografias adjacentes (estereopar). A barra de paralaxe é baseada no princípio da marca flutuante. A marca deve tangenciar o terreno e o observador deve vê-la fundida.
UNICENTRO – FOTOGRAMETRIA – Elaboração: Deise R. Lazzarotto – 2010.
Página 69