domingo, 8 de outubro de 2023

As medalhas do Nobel e os nazistas

Em plena Segunda Guerra Mundial, quando os nazis assumiram o controle de Copenhaguen, ocorreu uma situação peculiar no Instituto de Física Teórica, liderado pelo físico Niels Bohr. Dois ganhadores do Prêmio Nobel, Max von Laue e James Franck, temendo o confisco de suas medalhas de ouro do Prêmio Nobel pelos nazistas, enviaram as medalhas para Bohr guardá-las. 

No dia em que os nazistas chegaram a Copenhaguen, o químico húngaro Georgy de Hevesy, que trabalhava no laboratório de Bohr, elaborou um plano para evitar a descoberta das medalhas. Considerando inicialmente enterrar as medalhas, eles rapidamente rmudaram de ideia, temendo as buscas minuciosas que os nazistas realizariam. Em vez disso, de Hevesy propôs uma solução química – literalmente. Utilizando uma mistura conhecida como "água régia" (uma mistura de ácidos clorídrico e nítrico), ele começou a dissolver as medalhas de ouro. Esta mistura é uma das poucas substâncias capazes de dissolver o ouro, um elemento notavelmente não reativo. Enquanto os nazistas marchavam pelo lado de fora, de Hevesy dissolveu as preciosas medalhas, reduzindo-as a uma solução incolor que acabou ficando laranja brilhante. O líquido contendo o ouro dissolvido foi então colocado numa prateleira alta do laboratório, onde permaneceu despercebido durante a ocupação nazista.


Após a Segunda Guerra Mundial, ao retornar ao laboratório, de Hevesy encontrou o béquer intacto na prateleira. O ouro foi recuperado da solução e devolvido ao comitê do Prêmio Nobel, que então reeditou as medalhas e as devolveu a Laue e Franck em uma cerimônia em 1952.


Fonte: fermatslibrary 

terça-feira, 5 de maio de 2020

Quantos gramas? (2018)

Ao longo da história das ciências vemos que as unidades de medida que prevaleceram são as das nações dominantes ou as que advieram dos acordos entre elas. O sistema métrico foi mais adotado na Europa continental, tendo os franceses os seus maiores defensores, e o sistema imperial foi mais adotado pelos britânicos, tendo prevalecido também nos Estados Unidos. Todo americano sabe que 1 milha são 5280 pés e que 1 pé são 12 polegadas. Ou se está fazendo calor ou frio a uma temperatura de 70 fahrenheits. Mas quando começamos a achar que entendemos as distâncias em milhas ou as temperaturas em fahrenheits, um garçom nos informa o volume do copo de cerveja em onças!
Na verdade, o quilograma é derivado de sua milésima parte, o grama (g), definido originalmente como a massa de 1 centímetro cúbico de água a 0 ºC. Este foi um conceito proposto originalmente pelo filósofo inglês John Wilkins, em 1668, mas somente adotado como padrão na França, por força do “Decreto relativo a pesos e medidas”, de 7 de abril de 1785, que continha várias definições de unidades de medidas. Posteriormente, em 1799, o químico francês Louis Lefrève-Gineau e o naturalista italiano Giovanni Fabbroni, propuseram uma alteração na definição, mudando a temperatura da água de 0 ºC para 4 ºC, por ser esta a temperatura onde a água atinge a sua máxima densidade e encontra-se mais estável. Neste mesmo ano, foi produzido um protótipo de platina com exatamente a massa de 1 decímetro cúbico (ou 1 litro) de água a 4 ºC, que foi aceito como padrão pelos noventa anos seguintes. E foi após a assinatura de um tratado, em 1875, em que dezessete países adotaram o mesmo sistema de medidas para massas e comprimentos, que decidiu-se por produzir um novo artefato, “Le Grand K”, adotado formalmente como o quilograma-padrão na primeira reunião do CIPM, de 1889.
Mas qual é o problema com “Le Grand K”? Por que o padrão está sendo alterado? Bem, o grande problema é que um padrão de medida na física deve-se manter constante, imutável por um longo período de tempo – de preferência, para sempre! Se o padrão de medida mudar, serão alteradas com ele, consequentemente, todas as medidas que o utilizam. E é exatamente isto que tem ocorrido com “Le Grand K” e suas réplicas: medidas de precisão da diferença relativa entre as massas dos objetos após um século de suas existências indicaram que eles, em geral, ganham massa, ao lentamente absorverem moléculas contaminantes do ar. Mesmo quando cuidadosamente acondicionados em campânulas. O aumento de massa gira em torno de 50 a 75 µg por século, para a maioria das réplicas (há um caso com aumento de 130 µg por século). Algumas poucas amostras, por outro lado, apresentam pequenas diferenças de massa, flutuando até para valores negativos. Nestes casos, não houve uma diminuição da massa, mas um aumento menor que o do IPK. Fica evidente então a dificuldade em definir-se um padrão baseado num objeto físico; qualquer alteração no objeto, mesmo que pequena e lenta, implica em alteração no processo de medida. Mais ainda se pensarmos em processos de medida na escala atômica, para a qual estas diferenças de massa não são sequer pequenas.
Várias propostas foram feitas para uma definição mais elegante do quilograma, em geral, dadas em termos de alguma grandeza física fundamental, analogamente ao que foi feito com o metro. Na 17ª reunião do CIPM, de 1983, ficou estabelecido que 1 metro é a distância percorrida pela luz em c-1 segundos, sendo a velocidade da luz fixada exatamente em c = 299.792.458 m/s. Assim, o metro foi redefinido em termos de uma constante universal, a velocidade da luz. Foi sugerido que o quilograma fosse o correspondente a 1,097769238499215084016780676223 x 1030 me, sendo me = 9,1093826 x 10-31 kg a massa do elétron, um valor exato. Foi sugerido também (Projeto Avogadro) que o quilograma fosse a massa de NA/0,012 átomos de carbono 12, com o número de Avogadro fixado em NA = 6,02214076 x 1023 mol-1. E foi sugerido que o quilograma fosse a massa correspondente a um comprimento de onda de Compton λ=h/c, sendo a velocidade da luz fixada como acima e a constante de Planck fixada em h = 6,62607015 x 10-34 J⋅s. Neste caso, a definição do quilograma fica dada em termos da constante de Planck, uma vez que o valor de c já é exato.
ℏ = h/2π
Na 26ª reunião do CIPM, de novembro de 2018, será votada a Resolução A, onde se lê:
“O quilograma, símbolo kg, é a unidade de massa do SI. É definido tomando o valor numérico fixo da constante de Planck h como sendo 6,62607015×10-34 quando expresso na unidade J⋅s, que é igual a kg⋅m2⋅s-1, onde o metro e o segundo são definidos em termos de c e fCs.”
Faltou só eu dizer para vocês o que é fCs: a frequência emitida pelos níveis hiperfinos do estado fundamental não-perturbado do césio 133, cuja frequência é fixada no valor 9192631770 Hz. O inverso desta frequência é a definição de 1 segundo (s).
A alteração na definição do quilograma trará um avanço muito significativo para os cientistas no estabelecimento de um padrão internacional para as medidas de massa, mas o leitor pode ficar tranquilo que a mudança lhe passará imperceptível. E não teremos, por conta disso, um “quilinho a menos” neste verão.
Fontes:
Fonte da imagem destacada: Wikimedia.
Para saber mais:


quarta-feira, 22 de abril de 2020

O voo de Ícaro (2018)


On your way, like an eagle, fly and touch the Sun”
Flight of Icarus, Iron Maiden (1983)
No labirinto de Creta encarcerava-se o Minotauro, um monstro mitológico metade homem e metade touro. A pedido do rei Minos, um labirinto fora construído por Dédalo e seu filho, Ícaro, onde a criatura devorava a quem por lá se perdesse. Entretanto, o herói ateniense Teseu matou o Minotauro após usar um novelo de lã que o auxiliou no caminho pelo labirinto. Devido à morte do Minotauro, Dédalo e Ícaro foram presos no labirinto e decidiram construir asas artificiais com penas de pássaros e cera de abelha para escaparem voando. Dédalo advertiu seu filho para não voar muito próximo ao Sol, evitando assim que a cera das asas derretesse. No entanto, Ícaro não deu ouvidos aos conselhos do pai e voou alto em direção ao Sol; suas asas derreteram e ele despencou, afogando-se no Mar Icariano.
Para realizar parte do sonho de Ícaro, na madrugada deste domingo (12/8/2018), foi lançada a Parker Solar Probe, da NASA, em sua histórica missão rumo ao Sol. A sonda foi ao espaço a bordo de um foguete Delta IV Heavy da empresa United Launch Alliance. Ela viaja agora na direção do planeta Vênus, pois vai usá-lo como estilingue gravitacional e ser então direcionada para órbitas heliocêntricas gradativamente mais próximas do Sol, chegando até 6,2 milhões de quilômetros da fotosfera (a superfície do Sol), cuja temperatura é cerca de 5.770 kelvins. Entretanto, as condições mudam drasticamente acima dela, na atmosfera solar: a temperatura sobe aos 20 mil kelvins no topo da cromosfera e ultrapassa os 5 milhões de kelvins na coroa (ou corona) solar. É para lá que a Parker Solar Probe está se dirigindo, ela voará pela coroa solar, realizando a maior aproximação do Sol (ou de qualquer estrela) feita por qualquer espaçonave da Terra, produzindo dados sem precedentes. Incluindo-se acerca da camada superior: a heliosfera, cavidade sob a influência do Sol que se estende desde 20 raios solares até os confins do Sistema Solar e onde vivemos. A heliosfera é preenchida basicamente por plasma do vento solar, um vento de partículas emitidas constantemente pelo Sol.
De tempos em tempos, ocorrem erupções solares que formam tempestades destas partículas. Sabe-se, por um lado, que elas podem gerar os belos espetáculos naturais das auroras, mas, por outro, causar danos, tais como interferências nas telecomunicações ou em sistemas de distribuição de energia elétrica. Sabe-se também que Sol possui um ciclo de 11 anos, durante o qual aumenta e diminui a sua atividade. Nos períodos de maior atividade solar, a quantidade de manchas solares aumenta, bem como a intensidade dos campos magnéticos e do vento solar. Nestes períodos, raios cósmicos galácticos são melhor defletidos, chegando um fluxo menor deles à atmosfera da Terra. Por conseguinte, há menos ionizações das moléculas do ar e a cobertura de nuvens diminui. Ou seja, estamos sujeitos não somente à meteorologia terrestre, mas também à meteorologia solar.
A Parker Solar Probe foi inicialmente chamada de Solar Probe (ou Solar Probe Plus), mas foi renomeada em homenagem a Eugene Newman Parker, astrofísico americano que desenvolveu nos anos 1950 a teoria do vento solar supersônico e previu a espiral de Parker nos campos magnéticos solares. Creio que a NASA evitou chamar a sonda de Ícaro para que ela não tivesse o mesmo fim trágico do nosso herói mitológico. E afinal torcemos mesmo para que a Parker Solar Probe esteja em seu caminho, voe e toque o Sol.

Para saber mais:
Outros divulgadores:


segunda-feira, 31 de agosto de 2015

A óptica adaptativa

Leonora Christine é uma nave espacial, cuja tripulação (de 25 homens e 25 mulheres) tem a missão de colonizar uma estrela distante. A nave é movida por propulsão Bussard, um método proposto em 1960 pelo físico americano Robert Bussard (1928-2007), pelo qual a nave coleta hidrogênio do meio interestelar e o comprime até que uma reação de fusão nuclear ocorra. Em conformidade com a teoria da relatividade, a nave não é capaz de ultrapassar a velocidade da luz e sua tripulação está sujeita ao efeito de dilatação temporal: enquanto ela gasta 5 anos a bordo, 33 anos se passam na Terra, até a nave chegar ao seu destino. Mas, ao passar por uma nebulosa, antes da metade da viagem, a nave tem seu módulo de desaceleração danificado e a tripulação não pode repará-lo, pois teria que desligar concomitantemente o escudo anti-radiação.  Esta é a trama do romance de ficção científicaTau Zero (1970) de Poul Anderson (1926-2001). O nome vem da definição pelo autor de um fator tau que se aproxima de zero quanto mais a nave se aproxima da velocidade da luz, isto é, o inverso do fator de Lorentz: , onde v é a velocidade da nave e c a velocidade da luz.

Contudo, na minha postagem do mês sobre o Ano Internacional da Luz, não vim falar de relatividade, mas de uma outra previsão considerada pelo autor desta obra ficcional: a da óptica adaptativa. Esta, por sua vez, proposta pelo astrônomo americano Horace Welcome Babcock (1912-2003), em 1953. O astrônomo estava labutando com os problemas causados pela atmosfera da Terra nas observações astronômicas. A luz pode vir dos confins do cosmos, de bilhões de anos-luz de distância, e tornar-se incrivelmente confusa nas últimas dezenas de quilômetros, ao atravessar os gases turbulentos da atmosfera da Terra. Então, ele veio com a idéia da óptica adaptativa: descobrir o quanto a atmosfera embaralha a luz para, rapidamente, mudar as formas dos elementos ópticos, como espelhos, e, com isso, desfazer os efeitos da turbulência atmosférica.

Sistema de óptica adaptativa do ESO, com laser apontando
para o centro da Via-Láctea. Fonte: Wikipedia.

Entretanto, na época de sua proposta, não havia a tecnologia necessária para se pôr a ideia de Babcok em prática. Posteriormente, durante as décadas de 1970 e 1980, em tempos de Guerra Fria, os militares americanos investiram pelo menos US$ 1 bilhão em métodos para viabilizá-la. Eles procuravam, por um lado, melhorar as imagens de satélite e, por outro, rastrear os satélites soviéticos. Finalmente, o uso comum deu-se apenas durante a década de 1990 com os avanços das tecnologias computacionais.

A técnica


Correção da frente de onda com o uso de um 
espelho deformável. Fonte: Wikipedia.

A óptica adaptativa é utilizada para melhorar o desempenho de sistemas ópticos, reduzindo efeitos de distorções nas frentes das ondas incidentes – por exemplo, causadas pelas turbulências da atmosfera. A técnica destina-se à correção de aberrações e basea-se na medição dessas distorções e na utilização de métodos para compensá-las. Um dispositivo, tal como um espelho deformável ou uma matriz de cristal líquido são empregados. Telescópios, microscópios, sistemas de imagem de retina e alguns elementos ópticos são os principais objetos a fazerem uso da óptica adaptativa. Mas, cuidado! Ela não deve ser confundida com a óptica ativa, aplicada numa escala de tempo mais longa, servindo para corrigir imperfeições causadas na geometria de espelhos primários pela exposição ao estresse mecânico, vento ou temperatura. 

Exemplo de implementação da técnica da óptica adaptativa 
com o uso de um espelho deformável. 


Espelhos deformáveis em Sistemas MicroEletroMecânicos (MEMS) são atualmente a tecnologia mais amplamente empregada. São usados para moldar as frentes de onda nas aplicações de óptica adaptativa dadas suas versatilidade e maturidade tecnológica, que permitem correções de alta resolução. A forma mais simples é a correção "tip-tilt", que corresponde a inclinações da frente de onda em duas dimensões: um espelho move-se rapidamente, fazendo pequenas rotações em torno de dois dos seus eixos, efetuando, desta forma, as correções. No caso de telescópios, uma fração significativa da aberração introduzida pela atmosfera pode ser assim removida. Em vez de ter uma matriz de segmentos que poderiam fazê-lo de forma independente, os espelhos tip-tilt são efetivamente espelhos segmentados em que apenas um deles pode inclinar-se. Devido à relativa simplicidade de tais espelhos, eles são usados, em primeiro lugar, para corrigir aberrações de baixa ordem.

Espelho adaptativo de 1,12 m de diâmetro e 2 mm de espessura
utilizado no Observatório Europeu do Sul (ESO). Crédito: ESO.

A atmosfera, apesar de ser uma fina camada de gases que envolve o nosso planeta, é um sistema relativamente complexo: sua estrutura de camadas, com diferentes perfis de temperatura, e seu fluxo energético faz com que haja diferenças de pressão que, por sua vez, geram ventos de diferentes velocidades; ventos estes que ocasionam as turbulências. Agora, quando a luz de uma estrela, ou um outro astro celeste, penetra na atmosfera, as turbulências podem distorcer e mover a imagem de várias maneiras – efeito que cresce com a abertura do telescópio – e as imagens produzidas por qualquer telescópio maior do que a poucos metros são alteradas por estas distorções. Assista ao video abaixo, feito com um telescópio Celestron NexStar 12SLT e uma webcam instalada na ocular. Nele, pode-se perceber bem o efeito da turbulência da atmosfera na captação das imagens da Lua. Aliás, como bem lembrado pelo autor do video, esta é a mesma razão pela qual vemos as estrelas – por vezes, até os planetas – piscarem.



Um sistema de óptica adaptativa tenta corrigir as distorções introduzidas pela atmosfera turbulenta. Usando um sensor de frente de onda que recebe uma parte da luz astronômica, um espelho deformável que se encontra no caminho óptico e um sistema de controle que recebe os dados do detector. O sensor de frente de onda mede as distorções que a atmosfera introduziu, numa escala de tempo de alguns milissegundos, e o computador calcula a forma ótima do espelho para corrigir as distorções obseradas. A superfície do espelho deformável é, então, remodelada em conformidade. Por exemplo, um telescópio entre 8 e 10 m (como o VLT ou Keck) pode produzir imagens corrigidas por óptica adaptativa com uma resolução angular entre 30 e 60 milissegundo de arco (ou milliarcsecondmas) em comprimentos de onda infravermelhos, enquanto a resolução sem correção é da ordem de 1 segundo de arco. Veja as figuras abaixo, obtidas sem e com o uso de óptica adaptativa.

Imagem de uma galáxia sem (à esquerda) e com
(à direita) as correções da óptica adaptativa. 
Imagem de Urano sem (à esquerda) e com 
(à direita) as correções da óptica adaptativa. 

Inicialmente, para efetuar as correções necessárias da óptica adaptativa, a forma das frentes de onda de entrada é medida como função da posição no plano de abertura telescópio. Então, divide-se a abertura circular do telescópio numa matriz de pixels de um sensor de frente de onda. Os sensores mais utilizados são o de Shack-Hartmann, feitos a partir de uma matriz de pequenas lentes (vide figura abaixo). O mapa das perturbações da frente de onda média de cada pixel é calculado e utilizado para alimentar as correções do espelho deformável. Assim, os erros introduzidos na frente de onda pela atmosfera são corrigidos. O espelho deformável corrige a luz de entrada e as imagens aparecem nítidas.

Sensor de Shack-Hartmann.

Estrelas-guia


Entretanto, para realizar a óptica adaptativa há sempre a necessidade de se tomar uma fonte de luz como referência. Por conseguinte, o sistema não pode trabalhar em qualquer região do céu, mas apenas onde há uma estrela guia com luminosidade suficiente – nos sistemas atuais, com magnitude de até 15. Isto limita severamente a aplicação da técnica nas observações astronómicas. Outra grande limitação é o pequeno campo de visão sobre o qual a correção da óptica adaptativa é boa. À medida que a distância angular a partir da estrela guia aumenta, a qualidade da imagem se degrada. Para se atingir um maior campo de visão, pode-se usar a técnica conhecida como óptica adaptativa multiconjugada, que faz uso de vários espelhos deformáveis.

Uma alternativa é o uso de um feixe de laser para gerar a fonte de luz de referência na atmosfera, a Estrela-Guia de Laser (LGS). LGSs vêm em dois tipos: estrelas-guia de Rayleigh e estrelas-guia de sódio. O LGS de Rayleigh trabalha com a propagação de um laser, normalmente em comprimentos de onda no ultravioleta próximo, para detectar a retropropagação do laser no ar em altitudes entre 15 e 25 km. O LGS de sódio faz uso da luz de um laser de 589 nm para excitar os átomos de sódio presentes na mesosfera e termosfera, que, em seguida, cintilam. Desta forma, a LGS pode ser usada como referência para a forma da frente de onda, ou seja, como uma estrela-guia natural - exceto que muito mais fracas.


(...)

sexta-feira, 31 de julho de 2015

Luz Amplificada por emiSsão Estimulada de Radiação


Lentamente uma corcova subiu para fora da cabine, e o fantasma 
de um feixe de luz pareceu centelhar dali. Imediatamente, 
lampejos de fogo real, um clarão luminoso pulando de um para 
outro, surgiu de um grupo disperso de homens. Era como se um 
jato incidisse sobre eles brilhando numa chama branca. Era 
como se cada homem repentina e momentaneamente pegasse fogo 
(...) Um quase sem ruído e cegante brilho de luz, e um homem 
caiu de cabeça e ficou imóvel; e conforme o dardo invisível de 
calor passou sobre eles, pinheiros exploridam em fogo, e cada 
arbusto tojo seco tornou-se com um baque surdo uma massa de 
chamas (...) Era uma rápida e constante varredura redonda, esta 
morte flamejante, esta invisível, inevitável espada de calor. 
 

Os trechos acima - com livre tradução minha - são do romance de ficção científica A Guerra dos Mundos (1898), do escritor britânico Herbert George Wells (1866-1946). Neste capítulo do livro, intitulado O Raio-Calor, o autor descreve em tudo, com exceção do nome, ficcionais laseres infravermelhos de alta potência que os marcianos, durante uma invasão à Terra, usariam para fritar os terráqueos. Wells havia feito, pioneiramente, a previsão de uma arma baseada em luz, muito antes da invenção do laser. E este artefato para sempre marcaria presença nas estórias de ficção científica: de Buck Rogers (1928) a Guerra nas Estrelas (1977).

Concepção artística de A Guerra dos Mundos (fonte: dealspwn).

Aliás, o raio da morte é um conceito bem antigo e que atravessou séculos. Numa postagem anterior, descrevi como Arquimedes teria usado a ideia para queimar navios da frota romana. E ainda escreverei sobre o brilhante inventor Nikola Tesla. Há rumores de que ele tivera sua própria versão para o raio da morte: em 1934, Tesla teria apresentado aos militares americanos um dispositivo chamado Teleforce, capaz de dizimar exércitos a 400 km de distância. E, apesar das lendas de que até mesmo testes teriam sido feitos no Ártico, não há evidências de que o protótipo tenha sido desenvolvido e, ademais, as autoridades negam seu envolvimento com a estória.

Seguindo nossas homenagens ao Ano Internacional da Luz, vamos explorar neste mês, esta fundamental tecnologia do nosso tempo: o laser, cujas aplicações não estão motivadas somente pela destruição, mas, também, por diversas finalidades benéficas nas mais diversas áreas.

Laser sendo utilizado em um laboratório
de pesquisa (fonte: pixabay).

Apesar da ideia fundamental ter surgido com Einstein, em 1917, levou cerca de 40 anos até a primeira versão bem-sucedida do dispositivo ser desenvolvida. Primeiramente, na faixa das micro-ondas, foi montado o maser, depois, na da luz, o laser. Os laseres são dispositivos que produzem intensos feixes de luz monocromática, coerente e altamente colimada. Sua capacidade de concentrar o feixe numa região muito pequena com quase nenhuma dispersão é a que proporciona a vasta gama de aplicações práticas para o laser.

Terminologia 


O termo laser é uma sigla de "light amplification by stimulated emission of radiation". O termo foi cunhado no título de um artigo publicado por Gordon Gould, em 1959. Na terminologia moderna, "luz" aplica-se às diversas formas de radiação eletromagnética, não somente à luz visível. Desta forma, bastando projetar um dispositivo nas diferentes faixas do espectro eletromagnético, teremos: o "laser de micro-ondas", o "laser infravermelho", o "laser visível", o "laser ultravioleta" e o "laser de raios-X". Historicamente, o "laser de micro-ondas" precedeu o "laser visível" e o termo maser, ainda hoje, é empregado para os aparatos que operam nas faixas das micro-ondas e das ondas de rádio. Gould, generalizando, introduziu o sufixo "-aser" em todas as faixas do espectro, assim, respectivamente, são designados: maser, iraser, laser, uvaser, Xaser. Mas, como veremos, o aparato que produz o laser é um oscilador óptico, porém a sigla de "light oscillation by stimulated emission of radiation" (loser) foi evitada.


Emissão estimulada de radiação


A física do processo fundamental para o desenvolvimento do laser foi proposta em um artigo de Einstein: "Sobre a teoria quântica da radiação" (1917). Nele, Einstein faz uma re-determinação da lei de radiação de Planck baseando-se em coeficientes probabilísticos, os coeficientes de Einstein. Ele introduziu um coeficiente de absorção, um de emissão espontânea e um de emissão estimulada.

Emissão estimulada de radiação (fonte: Wikipedia).

Quando um elétron absorve energia de algum processo de excitação (luz, calor, eletricidade, etc.), ele recebe a energia correspondente do quantum de energia. As transições são permitidas somente entre níveis discretos de energia e a separação entre estes níveis é proporcional à frequência da radiação absorvida (vide modelo atômico de Bohr em "O quantum de luz"). Se o elétron for excitado a um nível de energia mais alto, ele não pode permanecer ali para sempre. O nível livre abaixo é reocupado após um tempo particular, característico da transição. Se esta transição ocorrer sem influência externa, é chamada de espontânea. Um material com uma grande quantidade de átomos excitados dessa forma, emitem os fótons isotropicamente, com frequências distribuídas em torno de um valor central e sem nenhuma relação de fase entre si. Os fenômenos da fluorescência e da emissão térmica são exemplos desse mecanismo.

Agora, se um agente externo (como um campo eletromagnético, por exemplo) possuir a frequência associada à transição entre os dois níveis, ele a favorece altamente. A emissão é dita estimulada, produzindo, neste caso, um fóton adicional, que é uma cópia exata do fóton incidente. Assim, a luz gerada por emissão estimulada é similar à do pulso de estímulo, reproduzindo seus comprimento de onda (ou frequência), fase e polarização. Essas características conferem coerência à luz emitida. O laser é a implementação tecnológica do mecanismo da emissão estimulada.

O aparato


Para se construir um laser são necessários um meio de ganho, um mecanismo de alimentação (ou bombeamento) e um retorno óptico – ou de outros tipos de onda.  Usualmente, o meio de ganho é um material de tamanho, forma, pureza e concentração controlados, podendo ser de qualquer estado físico: sólido, líquido, gás ou plasma. O material absorve a energia bombeada, promovendo os elétrons para um nível de energia excitado. Quando o número dos elétrons excitados excede a quantidade dos do nível mais baixo, tem-se a chamada inversão de população – fundamental para a manutenção do processo. Neste caso, a quantidade de luz produzida devido à emissão estimulada é maior que a quantidade de luz absorvida e a luz é amplificada.

Laser de He-Ne do Laboratório Kastler-Brossel da Universidade de Paris.
O plasma brilhante na cavidade do aparato não é o laser. Essa luz corresponde
a emissões incoerentes pelo meio de ganho (a mistura de gases) causada
pela descarga elétrica que alimenta o processo (fonte: Wikipedia)   

Se este amplificador for posto dentro de uma cavidade óptica ressonante, obtém-se o laser – ou, no caso do maser, uma cavidade ressonante de micro-ondas. A cavidade óptica mais comum é formada por dois espelhos, um em cada extremidade do meio de ganho. A luz é refletida por esses espelhos, indo e voltando várias vezes, até ser amplificada. Tipicamente, um desses espelhos é semitransparente e parte da luz escapa através dele, provendo a saída do laser. Dependendo do desenho da cavidade e do acoplamento óptico que vier em seguida (um conjunto de lentes, por exemplo), o laser pode ser emitido de forma espalhada, concentrada ou formando um feixe estreito.

Componentes típicos de um laser: 1- meio de ganho,
2- bombeamento de energia, 3- espelho, 4- espelho
semitransparente, 5- saída do feixe. (fonte: Wikipedia)

A luz emitida pelo processo de emissão estimulada é muito similar ao sinal de entrada. Seu comprimento de onda, fase e polarização são muito próximos do pulso de estímulo. Isto permite que se mantenha a monocromaticidade, a coerência e a polarização uniforme dos campos eletromagnéticos.  Se o feixe emitido viajar pelo espaço livre, ele pode ser aproximado por uma distribuição gaussiana em torno do eixo óptico, exibindo mínima divergência. Próximo da região focal, o feixe é altamente colimado, quase sem diveregência e as frentes de onda são praticamente planas e normais à direção de propagação. No entanto, sabe-se que o feixe gaussiano sofrerá o efeito da difração, e, de acordo com a teoria, o feixe diverge por um ângulo que varia inversamente com o seu diâmetro. Por exemplo, o feixe gerado diretamente por um laser de He-Ne se espalha por cerca de 500 km se apontado e incidir na superfície da Lua, partindo da Terra. Por outro lado, feixe de um material semicondutor de um laser pointer tem grande divergência: de até 50º; mas pode ser apropriadamente colimado por um conjunto de lentes.

Os precursores


Einstein previu o fenômeno em 1917, quando teorizou que há, na verdade, duas maneiras de um átomo emitir fótons: através das emissões espontânea e estimulada. E que para a emissão estimulada, um fóton com a exata energia de uma emissão, provoca a transição e o átomo emite uma cópia exata do fóton incidente.

Rudolf Ladenburg (à esquerda) e Alfred Kastler (à direita).
Em 1928, Rudolf Ladenburg (1882-1952) confirmou a existência do fenômeno da emissão estimulada. Em 1950, Alfred Kastler (1902-1984) propôs o bombeamento óptico, processo no qual luz é usada para promover elétrons para níveis mais altos de energia. E Kastler, dois anos depois, em colaboração com Jean Brossel (1918-2003), demonstrou experimentalmente o processo. Kastler recebeu o Prêmio Nobel de Física do ano de 1966.



Charles Townes e o maser.
Em 1953,  Charles Hard Townes (1915-2015) e seus estudantes James Gordon e Hebert Zeiger produziram um dispositivo para gerar a primeira micro-onda amplificada. Dispositivo que ficou conhecido como maser. Entretanto, o maser de Townes era incapaz de produzir uma saída contínua.

Nikolay Basov (à esquerda) e Alexander Prokhorov (à direita).
Enquanto isso, na União Soviética, Nikolay Basov (1922-2001) e Alexander Prokhorov (1916-2002) trabalhando com osciladores quânticos resolveram o problema da saída contínua. Em 1955, os cientistas russos sugeriram o bombeamento óptico em um sistema de múltiplos níveis, facilitando assim a inversão de população. Eles promoveram o preenchimento de um nível intermediário de energia, próximo ao nível superior, com uma grande quantidade de elétrons. Neste nível, os elétrons permanecem com uma população meta-estável por um tempo suficiente para que seja gerado o pulso incidente que dispara a transição estimulada. Em 1964, Townes, Basov e Prokhorov dividiram o Prêmio Nobel de Física "por trabalhos fundamentais no campo da eletrônica quântica, que levaram à construção de osciladores e de amplificadores baseados nos princípios do maser e do laser".

Theodore Maiman e o primeiro laser funcional.
Em 1960, Theodore Harold Maiman montou o primeiro laser funcional, utilizando um cristal de rubi como meio ativo. O laser de rubi produz luz vermelha (λ = 694,3 nm) pulsada com duração de milissegundos.

Aplicações


Desde sua invenção na década de 1960, foram encontradas centenas de aplicações para os laseres nas mais variadas seções da sociedade moderna, como: a pesquisa científica, a tecnologia da informação, a eletrônica, a medicina, a indústria, além dos usos militar, para a aplicação da lei a para o entretenimento, etc.

Aplicações para os laseres.

Alguns usos comuns dos laseres:
  • Medicina: cirurgias ou tratamentos a laser, remoção de pedras (dos rins, por exemplo), oftalmologia, ortodontia, etc.;
  • Indústria: cortes, soldas tratamento térmico, medidas à distância, etc.;
  • Forças armadas: marcação de alvos, munições teleguiadas, defesa contra mísseis, blindagem de tropas, etc.;
  • Aplicação da lei: identificação de digitais, "radares" rodoviários, etc.;
  • Comunicações: transmissão de dados via fibras ópticas, monitores a laser, holografias, etc.;
  • Pesquisa: espectroscopia, espalhamento, interferometria, recozimento a laser,  desbaste de materiais microscópicos – ou, até mesmo, nanoscópicos –, lidar (o análogo óptico do radar), etc.; 
O primeiro uso do laser no dia-a-dia veio com o leitor de código de barras, em 1974. O tocador de laserdisc foi o primeiro produto contendo um laser a chegar no mercado (1978), mas foi o tocador de Compact Disc (CD) o primeiro a tornar-se popular (1982) – seguido de perto pelas impressoras laser. Outro uso bastante popular para o laser pode ser visto em quase todas as conferências: o laser pointer.

São verdadeiramente infindáveis as aplicações do laser nas ciências em geral. E sempre serão. Mas tem uma que eu gostaria de citar: a de um time de pesquisadores da Universidade de Osaka que este ano (2015) conseguiu disparar um laser de 2 petawatts (2 x 1015 W), o mais potente do mundo, estabelecendo um novo recorde de potência. O laser gigante, de 100 m de comprimento, tem consumo equivalente a 1000 vezes o mundial. 

Show de laser display (fonte: Daily Mail).
Atualmente, os laseres estão sempre presentes em shows musicais ou nas danceterias. Os chamados laser displays consistem de um conjunto de feixes de várias cores realizando performances visuais, tipicamente acompanhando as músicas e divertindo a audiência. Mas, em 2008, pelo menos uma dúzia de participantes de uma festa rave, nas proximidades de Moscou, foram cegados pelo laser display da festa. O evento seria a céu aberto, mas chuvas pesadas fizeram os organizadores transferi-lo para um galpão. Os laseres, projetados para serem lançados ao ar livre, refletiram intensamente na cobertura do galpão, causando queimaduras permanentes nas retinas de várias pessoas.

Nunca devemos olhar diretamente para um feixe de laser – para esses russos bastaram suas reflexões. Mesmo os pouco potentes podem causar danos à retina. Fica a dica. Como toda arma, a de luz pode ser perigosa. Então, divirta-se, mas com moderação! Até a próxima ... 

terça-feira, 30 de junho de 2015

Luz, câmera e ação!

Mês de julho chegando e, com ele, as férias para a maioria dos estudantes - com a importante exceção dos meus alunos da UFABC que estarão estudando normalmente no meio do segundo quadrimestre. De qualquer maneira, durante este período, será grande a quantidade fotografias divulgadas nas redes sociais. Assim, para a postagem deste mês, em comemoração ao Ano Internacional da Luz, vamos nos entreter com um tema mais leve. Vamos aprender um pouco sobre como a luz das imagens que vemos pode ser capturada e transposta para diferentes meios. Ou seja, tirar fotografias.

Imagem adaptada do site pixabay.

A palavra fotografia vem do grego (photo = luz; graphé = desenho), significando "desenho com luz". Várias pessoas podem ter cunhado o termo independentemente, mas o primeiro registro conhecido é do francês Antoine Hercules Romuald Florence (1804-1879) que, quando vivia no Brasil (na cidade de Campinas/SP), usou o termo em francês photographie numa comunicação privada, que data do ano de 1834.

A técnica da fotografia consiste, essencialmente, em expor um material fotossensível à luz da imagem a ser capturada, fixando-a posteriormente. As fotografias são utilizadas em nosso cotidiano - por exemplo, capturando as imagens da nossa família durante as férias -, no fotojornalismo, nas fotos oficiais de personalidades, nas campanhas publicitárias, nas artes e na investigação científica. A propósito, as fotografias sempre exerceram um importante papel em ciências como a astronomia, a biologia ou as nanociências. Sempre que precisamos expandir o campo de visão para objetos muito longínquos ou muito pequenos. Quando precisamos estar com a visão além do alcance.

Mas, um dia desses, minha filha me perguntou: "Papai, quem foi o inventor da fotografia?". Ao perceber que não vinha, imediatamente, um nome à minha cabeça, fui pesquisar. E descobri uma razão: está ligada ao fato de não existir "o inventor" da fotografia, mas, sim, vários. Cada um contribuindo à sua maneira. Com efeito, a conquista da técnica foi obtida somente através dos esforços de diversos interessados, dentre eles, cientistas, filósofos e artistas.

A câmara escura


Princípio de funcionamento da câmara escura (à esquerda); artista copiando 
a imagem de uma torre com o auxílio de uma câmara escura (à direita).
Já conhecida desde a Antiguidade, a câmara escura é um recipiente fechado no qual a luz incide por um pequeno orifício, projetando a imagem (invertida) dos objetos à sua frente na parede oposta. No século V a.C., o filósofo chinês moísta Mo Ti, ou Mo Di, ou Mozi (470-391 a.C.) descreveu o efeito de inverter-se uma imagem através de um orifício. E Aristóteles (385-322 a.C.) faz as primeiras reflexões sobre a câmara escura em Problemata Physica, após notar que a imagem de um eclipse era projetada no chão quando sua luz passava por pequenas frestas entre as folhas.


Alhazen utilizando uma câmara escura.
Crédito: FamousPsychologists.org
(acessado em 30/6/2015).
Posteriormente, a câmara escura foi disseminada entre os árabes, com os quais teve, então, grande desenvolvimento. E foram nos trabalhos de - ninguém menos que um dos maiores homenageados no Ano Internacional da Luz - Ibn al-Haytham, ou Alhazen, onde, há um milênio atrás, os princípios físicos da câmara escura foram descritos em detalhes. Alhazen utilizou-a para demonstrar que a luz incide sobre os olhos e não é emanada por eles - ao contrário do que Empédocles propôs no século V a.C. Alhazen descreveu na sua obra, Livro sobre Óptica (1011-1021), o mecanismo da visão, aproveitando-se dos princípios da câmara escura. Combinando provas geométricas com demonstrações experimentais, sua obra influenciou vários pensadores que o sucederam, como Kepler, Descartes e Newton.

Leonardo da Vinci (à esquerda), Girolamo Cardano (ao centro) e Daniel Barbaro (à direita).

Na Renascença,  Leonardo da Vinci (1452-1519) fez uso sistemático de câmaras escuras. Nessa época - vimos que -, Roger Bacon introduziu lentes no auxílio à visão, inventado os óculos. Porém, foi um professor de matemática e médico italiano, Girolamo Cardano (1501-1571), quem pôs uma lente convexa no orifício de uma câmara escura, permitindo um aumento no diâmetro do orifício e, por conseguinte, da quantidade de luz coletada, melhorando a qualidade da imagem. Em 1568, Daniel Babaro (1514-1570) adaptou um diafragma à câmara escura e sugeriu que o aparato poderia ser utilizado para auxiliar os desenhistas. E no século XVII, a câmara escura tona-se uma caixa portátil, adaptada ao trabalho artístico. Foi durante este século também que Newton fez uso de uma câmara escura para realizar seus experimentos com a luz (como o da dispersão da luz branca nas cores básicas do espectro visível). Em sua obra Optiks (1704), Newton escreveu: "Os raios solares penetram a câmara escura através de um orifício redondo, e sua luz foi ali refratada por um prisma, que lançou, sobre a parede oposta, sua imagem".

Frontispício do livro Giphantie
(1760), de Charles François
Tiphaigne de la Roche.
Pouco mais de meio século depois, surge, em uma obra de ficção, uma interessante previsão para o processo fotográfico. Foi feita pelo escritor francês Charles François Tiphaigne de la Roche, em seu livro Giphantie (1760). No livro, o protagonista é levado a uma estranha ilha, chamada Giphantie, onde os nativos lhe explicam o processo para a fixação de imagens: "Você sabe que os raios de luz refletidos a partir de diferentes corpos formam imagens, pintam a imagem refletida em todas as superfícies polidas, por exemplo, sobre a retina do olho, sobre a água, e sobre o vidro ... cubra com um pedaço de tela numa moldura e coloque-a em frente do objeto a ser tirado. O primeiro efeito deste pano é semelhante ao de um espelho, mas por meio de sua natureza viscosa a lona preparada ... retém uma cópia da imagem ... A tela é então removida e levada a um local escuro. Uma hora depois, a impressão está seca e você tem uma imagem".

A fixação química


Johann Schulze (à esquerda) e Carl Scheele (à direita).
A câmara escura não bastava. Faltava, ainda, o método químico para a fixação das imagens. Em 1663, Robert Boyle observou escurecimento de sais de prata, mas atribuiu o fenômeno à ação do ar. O primeiro a perceber que tal escurecimento dava-se por causa da luz foi o alemão Johann Heinrich Schulze (1687-1744). Em 1727, ele tratou gesso com ácido nítrico e traços de nitrato de prata e o expôs à ação da luz, obtendo, com o preparado, imagens simples. (Alguns autores consideram-no, por este feito, o pai da fotografia.) Cerca de meio século mais tarde, o químico sueco Carl Scheele (1742-1786), na tentativa de investigar se o flogístico - suposta substância portadora do calor, conforme acreditava-se na época - estava presente na luz, expôs cloreto de prata em pó à ação da luz solar por duas semanas e, depois, adicionou à parte obscurecida uma solução de amônia que eliminava os cristais de cloreto de prata não sensibilizados. Mas Scheele não estava interessado na fixação de imagens, apenas conjecturou que os cristais de prata retinham o flogístico - supostamente - presente na luz.

Thomas Wedgwood.
Por volta de 1800, o artista britânico Thomas Wedgwood - filho de Josiah Wedgwood, famoso ceramista da época - foi o primeiro a tentar imprimir as imagens capturadas numa câmera escura pelo meio de uma substância sensível à luz. Ele usou papel e couro tratados com nitrato de prata. Apesar de ele ter conseguido capturar as sombras de objetos expostos diretamente à luz do Sol, as imagens eram muito fracas e ele não conseguiu dar um tratamento às partes não atingidas originalmente pela luz, evitando que a imagem se escurecesse por completo - ou seja, evitando de "queimar o filme". O químico britânico Humphry Davy  interessou-se pelos seus resultados e publicou um artigo,  amplamente difundido, relatando a técnica. Nele, apesar de Davy citar Scheele, não faz referência à amônia, que poderia ter sido usada na fixação da imagem, principal dificuldade de Wedgwood.

A primeira fotografia, feita por Joseph N. Niépce (1826).
Apesar de termos dito que não há "o inventor" da fotografia, existe quase um consenso entre os historiadores de que a primeira fotografia foi obtida, em 1826, pelo inventor francês Joseph Nicéphore Niépce (1765-1833) - a qual reproduzimos (melhorada) ao lado. A imagem, conhecida como Vista pela janela em Les Gras, foi feita a partir de uma placa de peltre, impregnada com nitrato de prata e recoberta com betume branco da Judeia, exposta por oito horas, com o auxílio de uma câmara escura, à luz solar. Posteriormente, a imagem foi fixada com essência de alfazema, a qual retirava as partes não afetadas pela luz. Devido à exposição à luz solar, o inventor denominou a técnica de heliografia. Apesar da pouca nitidez da imagem, o impressionante nela foi sua durabilidade, já que durou até os dias de hoje. Uma década antes, Niépce já havia experimentado com cloretos de prata, recobrindo uma folha de papel com estes sais e expondo-a, também com o auxílio de uma câmara escura, à luz solar. Ele produziu imagens fracas, em negativo, mas não conseguiu suas fixações por um tempo razoavelmente grande.

Daguerre e o daguerreótipo.
Em colaboração com Niépce, o gráfico - e seu conterrâneo - Louis-Jacques Mandé Daguerre (1787-1851) refinou o processo de produção do betume e o tratamento pós-exposição, culminando em imagens de melhor qualidade. Os experimentos de Daguerre levaram-no à invenção do daguerreótipo, o primeiro equipamento fotográfico a ser comercializado. Seu invento foi anunciado com pompas em sessão da Academia de Ciências de Paris, em 7 de janeiro de 1839, pelo físico, astrônomo e matemático francês François Jean Dominique Arago (1786-1853). O daguerreótipo popularizou-se mundo afora, especialmente devido ao fato das pessoas menos abastadas poderem pagar pelos retratos da família e de amigos. Em 1850, os Estados Unidos viveram o auge da chamada "daguerreomania". O processo físico-químico do daguerreótipo consistia em recobrir uma placa de cobre com uma fina camada de prata polida que, quando submetida a vapores de iodo, reagia formando iodeto de prata. O iodeto de prata, quando sensibilizado pela luz, produzia imagens em questão de - apenas - minutos. A imagem latente era, então, tornada visível por meio de sua exposição a vapores de mercúrio.

William H. F. Talbot.
A invenção de Daguerre foi posteriormente aperfeiçoada. O inglês William Henry Fox Talbot conseguiu, em 1835, desenvolver seu próprio processo e estabilizar negativos fotográficos em papel. Em 1839, o astrônomo John Herschel - que, como vimos, descobriu a luz infravermelha - mostrou que o hipossulfito de sódio dissolve sais de prata. Daguerre, por sua vez, substituiu-o por um tratamento de água salgada quente. Então, em 1840, Talbot usou um papel sensível de cloreto de prata, introduzindo o calótipo, ou talbótipo: um negativo em papel sensibilizado com nitrato de prata e ácido gálico, que, posteriormente, é fixado na solução de hipossulfito de sódio. O procedimento de Talbot já era muito parecido com o moderno processo de revelação fotográfica, pois produzia a imagem em negativo, que podia ser positivada e copiada quantas vezes fossem necessárias.

Joseph Niépce (à esquerda) e seu sobrinho
Claude Niépce Saint-Victor (à direita).
O procedimento de Talbot resolveu o anseio dos fotógrafos da época de produzir cópias de seus retratos. Porém, seu método enfrentava ainda um problema: a baixa definição das imagens, devido à qualidade do papel. Então, o vidro foi introduzido como meio para produção de negativos. Em 1839, John Herschel fez os primeiros negativos em vidro, mas através de um processo de difícil reprodução. Em 1847, o médico e químico francês Claude Félix Abel Niépce de Saint-Victor (1805-1870) - sobrinho de Niépce - publicou sua invenção: placas de vidro com emulsões de albumina (clara de ovo). Por ter boa transparência, a albumina permitia uma maior passagem da luz, entretanto, era difícil de lidar sem ser danificada.

Frederick Scott Archer.
Em pouco tempo, um outro método começou a suplantar os existentes até então: o colódio úmido, desenvolvido, em 1851, pelo britânico Frederick Scott Archer (1813-1857). Trata-se da mistura de um brometo, cloreto ou iodeto - ou seja, um haleto -  com colódio (uma solução de piroxilina com álcool e éter) depositada sobre uma placa de vidro limpa até virar um gel. Então, uma solução de nitrato de prata é inoculada até reagir, formando um haleto de prata. Uma vez que a reação estivesse completa, a placa ainda úmida era posta na câmera para ser exposta à luz, pois perdia a sensibilidade ao secar-se. A placa tinha que ser imediatamente revelada (ainda úmida) numa solução de sulfato de ferro, ácido acético e álcool em água. O colódio apresentava uma logística complicada, mas, apesar disso, dava ótimos resultados, sendo capaz de registrar detalhes finos nas imagens. Foi a técnica predominante nas décadas seguintes.

Richard L. Marddox.
A partir daí, outros métodos foram surgindo com o objetivo de superar as desvantagens dos predecessores. Um digno de nota é o emprego da gelatina - ou emulsão -  como substrato para os sais de prata. Seu uso, teve início na década de 1851, com o químico inglês Robert Bingham (1824-1870). Mas o uso das emulsões não obteve muito destaque, pois acabou obscurecido pelo emprego do colódio. Foi somente a partir de 1871 que a gelatina como substrato para os haletos de prata evidenciou-se. A divulgação deu-se no British Journal of Photography, em artigo publicado pelo seu fundador, o médico inglês Richard Leach Marddox (1816-1902), neste mesmo ano. Por isso, é muito comum encontrar citações atribuindo a ele a introdução do método. No artigo, Marddox relata a obtenção da emulsão através da adição de nitrato de prata e bromo. Vale ressaltar que a gelatina era utilizada até recentemente nos filmes fotográficos comerciais - e que alguns artistas e fotógrafos amadores ainda preservam tais técnicas tradicionais, apesar da revolução digital da atualidade.

Desenhando e pintando com luz


Tartan Ribbon, a primeira fotografia colorida,
obtida em 1861 por Thomas Sutton.
As fotografias produzidas até então eram todas em preto e branco, contudo, as fotografias coloridas eram objeto de várias tentativas. A primeira bem sucedida data de 1848, produzida por Alexandre-Edmond Becquerel (1820-1891) - pai de Henri Becquerel - por um método interferométrico, aperfeiçoado posteriormente por Gabriel de Lippman (1845-1921) e hoje conhecido como método de Lippman. Mas as exposições de Becquerel eram demasiadamente grandes e as imagens não se fixavam por muito tempo, tendo que permanecer na escuridão. Em 1855, surge uma proposta dada por - também ninguém menos que um dos grandes homenageados no Ano Internacional da Luz - James Clerk Maxwell. Vimos, na postagem do mês passado, que Maxwell estudou com atenção a estrutura e as propriedades das cores, lançando as bases da colorimetria. Assim, ele propôs que as cores básicas pudessem ser superpostas na captação de imagens coloridas. Em 1861, Thomas Sutton superpôs três fotos em preto e branco, tomadas, cada uma, através de filtros vermelho, verde e azul e obteve a primeira fotografia colorida da história - reproduzida ao lado. A foto, batizada de Fita Tartana, foi dada a Maxwell para ser usada durante uma apresentação.

George Eastman (à esquerda) e uma Kodak Brownie (à direita).
O processo  fotográfico passou depois por diversos refinamentos. Em 1884, o americano George Eastman (1854-1932) desenvolveu o método de gel seco em papel, o filme, substituindo as placas fotográficas e evitando que os fotógrafos carregassem consigo um mini-laboratório químico com diversos produtos tóxicos. Em 1888, ele fundou a empresa Eastman Kodak com a qual popularizou o uso do filme de rolo. A compacta e versátil câmera Kodak Brownie (vide imagem) foi lançada em 1900; seu slogan era: "Você aperta o botão, nós fazemos o resto". O filme de rolo foi também a base da película cinematográfica, basicamente um rolo de filme maior que permite fotografar uma sequência de imagens. As imagens, ao serem reveladas e projetadas em sequência, criam a ilusão do movimento - nascia o cinema. Os primeiros cineastas foram Eadweard Muybridge (1830-1904) e Louis Le Prince (1841-1890), seguidos por León Bouly (1872-1932), Thomas Edison (1847-1931), os irmãos Lumiére e Geórges Méliès (1861-1938) - não vou entrar em mais detalhes, pois na história do cinema há, tranquilamente, material para uma nova postagem.

Os irmãos Lumiére (à esquerda) e um autocromo da
Primeira Guerra Mundial (c. 1917).
"Nieuport 23 C.1". via Wikimedia Commons 
Aliás, os iluminados irmãos, Auguste Marie Louis Nicolas Lumiére (1862-1954) e Louis Jean Lumiére (1864-1948), deram o próximo passo em direção às fotografias coloridas. Seu processo era baseado nas ideias do inventor francês, Louis Arthur Ducos du Hauron (1837-1920), que, em 1868, patenteara o princípio e, no ano seguinte, as publicara em Les couleurs en photographie, solution du problème (1869).  Em vez de tirar três fotografias separadas por filtros de cores, como Maxwell sugeriu, no processo autocromo - introduzido pelos irmãos Lumiére em 1903 -, a fotografia era tirada sobre um mosaico de pequeníssimos filtros depositados numa emulsão. Os três filtros das três cores básicas estavam presentes, porém, na forma de minúsculos grãos. Ao se fazer a revelação as cores misturam-se nos olhos produzindo a sensação de que a imagem é colorida. Uma nova fase para as fotografias coloridas viria após o ano de 1935, quando foi introduzido o filme kodacromo, pela Eastman Kodak. A diferença estava no uso de um filme em que a superposição de cores se dava de maneira subtrativa, ao contrário do método aditivo adotado no autocromo - para mais detalhes sobre superposição de aditiva ou subtrativa de cores, consulte minha postagem Desvendando o arco-íris.

A revolução digital


Um dispositivo de carga acoplada (CCD).
Em 1957, um grupo do National Institute of Standards and Technology, liderado pelo cientista da computação Russel Kirsch (1929-), desenvolveu um scanner capaz de transferir imagens, gráficos, etc. para código binário, armazenando-os na memória de um computador. Uma das primeiras imagens escaneadas por Kirsch foi de seu filho Walden, com resolução de 176 x 176 pixels e apenas 1 bit por pixel, em preto e branco. Em 1969, os cientistas do AT&T Bell Labs, Willard Boyle (1924-2011) e George Elwood Smith (1930-) desenvolveram o dispositivo de carga acoplada, ou Charge-Coupled Device (CCD), um dispositivo semicondutor que contém uma matriz de capacitores que acumula cargas proporcionalmente à intensidade de luz incidente. Quando ligados a controladores digitais, estas voltagens são lidas e armazenadas nas memórias dos computadores. As CCDs tornaram-se a base da tecnologia digital de captação de imagens digitais, estando, hoje, presentes em todos os aparelhos como câmeras digitais, filmadoras digitais, celulares, etc.

Com a popularização das fotografias digitais, surgiram sites na internet especializados em armazená-las. Em sites ou aplicativos como Flickr, Picasa, Instagram, PhotoBucket ou Facebook, pessoas do mundo inteiro podem ver as imagens postadas. Então, divirtam-se desenhando com a luz!