A história

Quando os cientistas postularam pela primeira vez que a atmosfera da Terra pode ter um limite superior?


Em muitos mitos e histórias da história antiga (e não tão antiga), as pessoas são capazes de voar ou escalar até a "cúpula do céu", respirando o tempo todo. Mas mesmo depois de a ciência ter se desenvolvido o suficiente para deixar claro que não havia "cúpula" e que os objetos astronômicos estavam a uma distância incrível, as pessoas não estavam nem perto do nível de tecnologia para alcançar a atmosfera superior e ver como eram as condições em grandes altitudes .

Em certo ponto, as medições da pressão do ar podem indicar que quanto mais alto você sobe na montanha, mais rarefeito fica o ar. Tal medição poderia facilmente levar à dedução de que, em certa altitude, o ar desapareceria por completo, mas essa conexão já foi feita?

Quando foi a primeira vez que cientistas (ou filósofos, etc.) sugeriram que o ar ao redor do mundo poderia subir até certo ponto e que além dele haveria um vazio ou vazio sem ar? E, quando aconteceu, qual foi a descoberta ou dedução que os levou a acreditar que era esse o caso?


Ao contrário das afirmações acima, o cálculo correto do tamanho da atmosfera é anterior ao Kepler em cinco séculos. Às vezes, é alegado que este cálculo foi realizado (com uma resposta correta) por Al Hazen em Mizan al-Hikmah (Balanço de Sabedoria) por volta da virada do Milênio, mas não consegui encontrar fontes confiáveis ​​para esta afirmação. Na verdade, a evidência mais antiga que encontrei para o cálculo foi encontrada em um manuscrito de Ibn Mu'adh (de meados do século XI), uma única cópia hebraica do qual pode ser encontrada na Biblioteca Nacional Francesa (Fonte).

No entanto, um ponto importante a se notar é que a ideia de que a atmosfera era finita era clássica: Aristóteles a sustentava em parte por razões filosóficas, mas Ptolomeu deu evidências físicas sólidas para a afirmação. Antes de explicá-los, ressaltarei que pelo menos até a obra de Pascal, o consenso era que o éter se encontrava além da atmosfera, não vazio como a pergunta pressupõe (1600 anos se passaram entre a primeira prova física de que a atmosfera era finita e a primeira prova física esse vazio foi encontrado além).

O argumento de Ptolomeu (que na verdade não é o mais antigo registrado, Hiparco conhecia alguns deles 200 anos antes) é simples: quando as estrelas aparecem perto do horizonte, elas não aparecem onde deveriam, mas mais acima, e sua posição parece oscilar. Esse efeito não é discernível quando as estrelas estão perto de seu zênite. Da mesma forma, a luz do Sol brilha no céu antes do Sol aparecer e permanece depois de ter desaparecido. Ptolomeu entendeu corretamente que este é o efeito da refração da luz na atmosfera.

Ibn Mu'adh calculou o tamanho da atmosfera presumindo que era um material refratário homogêneo e que o éter além dele não era refratário. Juntamente com a observação de que nenhuma luz remanescente é visível depois que o Sol afundou mais profundamente do que cerca de 18 °, isso resulta em uma profundidade da atmosfera de 80 km.

O artigo aqui mostra claramente que o conhecimento do fato de que a atmosfera era finita foi bem preservado durante o final da meia-idade europeia e o Renascimento.

Em conclusão, a opinião cientificamente muito bem fundamentada de que a atmosfera é finita é pelo menos tão antiga quanto Ptolomeu, e a primeira computação cientificamente sólida pelo menos tão antiga quanto Ibn Mu'adh.


DESTE

É uma noção simples e aparentemente óbvia: o ar tem peso; a atmosfera nos pressiona com uma força real. No entanto, os humanos não sentem esse peso. Você não está ciente disso porque sempre fez parte do seu mundo. O mesmo aconteceu com os primeiros cientistas, que nunca pensaram em considerar o peso do ar e da atmosfera.

A descoberta de Evangelista Torricelli deu início a um estudo sério do tempo e da atmosfera. Isso lançou nossa compreensão da atmosfera. Essa descoberta ajudou a lançar a base para Newton e outros desenvolverem uma compreensão da gravidade.

Essa mesma revelação também levou Torricelli a descobrir o conceito de vácuo e a inventar o barômetro, o instrumento mais básico e fundamental do estudo do tempo.

Em um dia claro de outubro de 1640, Galileu conduziu um experimento com bomba de sucção em um poço público próximo à praça do mercado em Florença, Itália. O famoso cientista italiano baixou um longo tubo na água turva do poço. Do poço, o tubo de Galileu pendia sobre uma viga transversal de madeira três metros acima da parede do poço e descia até uma bomba manual mantida por dois assistentes: Evangelista Torricelli, de 32 anos, filho de um rico comerciante e um aspirante a cientista, e Giovanni Baliani, outro físico italiano.

Torricelli e Baliani bombearam o guidão de madeira da bomba, sugando lentamente o ar do tubo de Galileu, puxando a água para dentro do tubo. Eles bombearam até que o tubo se achatasse como um canudo atropelado. Mas por mais que trabalhassem, a água não subiria mais de 9,7 metros acima do nível do poço. Foi o mesmo em todos os testes.

Galileu propôs que, de alguma forma, o peso da coluna d'água a fez desabar de volta àquela altura.

Em 1643, Torricelli voltou ao mistério da bomba de sucção. Se Galileu estivesse correto, um líquido mais pesado deveria atingir o mesmo peso crítico e colapsar em uma altura mais baixa. O mercúrio líquido pesava 13,5 vezes mais que a água. Assim, uma coluna de mercúrio nunca deve subir mais do que 1 / 13,5 da altura de uma coluna de água, ou cerca de 30 polegadas.

Torricelli encheu um tubo de vidro de quase dois metros com mercúrio líquido e colocou uma rolha na extremidade aberta. Em seguida, ele inverteu o tubo e submergiu a extremidade rolhada em um tubo de mercúrio líquido antes de puxar a rolha. Como ele esperava, o mercúrio saiu do tubo e entrou na banheira. Mas nem todo o mercúrio acabou.

Torricelli mediu a altura da coluna de mercúrio restante, 30 polegadas, como esperado. Ainda assim, Torricelli suspeitou que a verdadeira resposta do mistério tinha algo a ver com o vácuo que ele havia criado acima de sua coluna de mercúrio.

No dia seguinte, com vento e chuva fria batendo nas janelas, Torricelli repetiu sua experiência, planejando estudar o vácuo acima do mercúrio. No entanto, neste dia, a coluna de mercúrio atingiu apenas 29 polegadas de altura.

Torricelli estava perplexo. Ele esperava que o mercúrio atingisse a mesma altura de ontem. O que foi diferente? A chuva batia nas janelas enquanto Torricelli refletia sobre essa nova ruga.

O que era diferente era a atmosfera, o clima. A mente de Torricelli se agarrou a uma ideia nova e revolucionária. O próprio ar tinha peso. A verdadeira resposta para o mistério da bomba de sucção não estava no peso do líquido, nem no vácuo acima dele, mas no peso da atmosfera empurrando para baixo em torno dele.

Torricelli percebeu que o peso do ar na atmosfera empurrava o mercúrio na banheira. Essa pressão forçou o mercúrio para dentro do tubo. O peso do mercúrio no tubo tinha que ser exatamente igual ao peso da atmosfera empurrando para baixo o mercúrio no tubo.

Quando o peso da atmosfera mudava, ela empurrava um pouco mais ou um pouco menos o mercúrio na banheira e empurrava a coluna de mercúrio no tubo um pouco mais para cima ou um pouco mais para baixo. A mudança do tempo deve alterar o peso da atmosfera. Torricelli havia descoberto a pressão atmosférica e uma maneira de medi-la e estudá-la.

Barômetros domésticos raramente deixam cair mais de 0,5 polegada de mercúrio quando o tempo muda de bom para tempestuoso. A maior queda de pressão já registrada foi de 2.963 polegadas de mercúrio, medida dentro de um tornado na Dakota do Sul em junho de 2003.

Assim, uma vez que você sabe que a atmosfera tem peso finito e variável em qualquer ponto, todos os outros itens se tornam acompanhamentos necessários. Como o próprio T escreveu:

Noi viviamo sommersi nel fondo d'un pelago d'aria. (Vivemos submersos no fundo de um oceano de ar.)


Isso remonta muito antes de Torricelli ou Kepler. Aristóteles ensinou que o mundo tangível é formado a partir dos quatro elementos sub-lunares: terra, água, ar e fogo. Estes ocupam o espaço entre o centro do cosmos (isto é: o centro da terra) e a esfera da lua. Os corpos celestes são feitos do quinto elemento: éter. Portanto, não há ar além da esfera da lua. Esta permaneceu a teoria padrão ao longo da Antiguidade e da Idade Média.


Foi o Kepler quem primeiro calculou a altura da atmosfera entre 40 e 50 milhas com base na refração da luz do sol no crepúsculo. Um estudo correlato também foi feito por ele sobre a magnitude da sombra da Terra na lua durante um eclipse lunar. Esses cálculos foram elaborados posteriormente por Philippe de la Hire e eram mais ou menos corretos. Mais tarde, o Dr. Francis Wollaston abordou o assunto usando os poderes recém-descobertos do barômetro e confirmou que as estimativas de Kepler estavam essencialmente corretas. Foi Wollaston o responsável por divulgar a descoberta e, por fim, conscientizar os alunos e o público em geral de que havia um limite para a atmosfera.


Quando os cientistas postularam pela primeira vez que a atmosfera da Terra pode ter um limite superior? - História

PESSOAS em todo o mundo falam da & quot Era do Espaço & quot como começando com o lançamento do Sputnik russo em 4 de outubro de 1957. No entanto, os americanos podem muito bem definir a data hackeada pelo menos para julho de 1955, quando a Casa Branca, através do secretário de imprensa do presidente Eisenhower, anunciou que o Os Estados Unidos planejaram lançar um satélite terrestre feito pelo homem como uma contribuição americana para o Ano Geofísico Internacional. Se a empreitada parecia bizarra para grande parte do público americano na época, para astrofísicos e alguns militares, a decisão do governo foi uma fonte de euforia: após anos de espera, eles haviam conquistado o apoio oficial para um projeto que prometia fornecer uma ferramenta inestimável para pesquisa básica nas regiões além da alta atmosfera. Seis semanas depois, após uma declaração do Pentágono de que a Marinha deveria assumir o comando do programa de lançamento, a maioria dos americanos aparentemente se esqueceu disso. Não voltaria a assumir grande importância até outubro de 1957.

Todo grande avanço científico dependeu de dois elementos básicos, primeiro. percepção imaginativa e, em segundo lugar, ferramentas continuamente refinadas para observar, medir. e registrar fenômenos que apóiam, alteram ou demolem uma hipótese provisória. Este processo de pesquisa básica muitas vezes parece não ter utilidade imediata, mas, como um cientista apontou em 1957, foram necessários experimentos de aerodinâmica dos irmãos Wright e Samuel Langley para tornar o vôo humano possível, e os cálculos obscuros de Hans Bethe sobre a natureza do a energia do sol levou ao nascimento da bomba de hidrogênio. assim como as leis da gravidade, do movimento e da termodinâmica de Isaac Newton forneceram os princípios sobre os quais a exploração do espaço sideral começou e está prosseguindo. Na exploração espacial, os dados enviados aos cientistas por satélites instrumentados foram de extrema importância. O aprimoramento contínuo de tais ferramentas de pesquisa abre a perspectiva de ampliar muito o conhecimento do mundo em que vivemos e de fazer novas aplicações desse conhecimento.

Na década anterior ao Sputnik. entretanto, os leigos tendiam a ridicularizar a ideia de colocar um objeto feito pelo homem em órbita ao redor da Terra. Mesmo se o feito fosse possível, a que propósito serviria, exceto para mostrar que poderia ser feito? Já em 1903, com certeza. Konstantin Tsiolkovskiy, um cientista russo, provou matematicamente a viabilidade de usar a força reativa que levanta um foguete para ejetar um veículo para o espaço acima da força da gravidade da Terra. Vinte anos depois, Hermann Oberth, nascido na Romênia, elaborou fórmulas semelhantes de forma independente, mas antes dos anos 1950, fora de um círculo muito pequeno de aficionados por foguetes, os estudos de ambos permaneceram virtualmente desconhecidos no mundo anglófono. Nenhum deles havia construído um foguete utilizável para demonstrar a validade de suas teorias e, preocupado como cada um estava com os planos de viagens humanas à lua e aos planetas, nenhum dos dois havia sequer mencionado um satélite artificial não tripulado. 1 De fato, até que a comunicação por meio de ondas de rádio tivesse se desenvolvido muito além das técnicas dos anos 1930 e início dos anos 1940, o lançamento de um corpo inanimado para o céu teria pouco apelo para o cientista ou para o sonhador romântico. E, em meados do século, apenas um punhado de homens tinha plena consciência das potencialidades da telemetria. 2

De maior importância para o futuro da exploração espacial do que os estudos teóricos dos dois matemáticos europeus foi o trabalho do físico americano Robert Goddard. Enquanto fazia pós-graduação na Universidade de Princeton antes da Primeira Guerra Mundial, Goddard demonstrou em laboratório que a propulsão de foguetes funcionaria no vácuo e, em 1917, recebeu uma bolsa de US $ 5.000 da Smithsonian Institution para continuar seus experimentos. Sob esta concessão, o Smithsonian publicou seu relatório de sua teoria e primeiros experimentos, Método de Alcançar Altitudes Extremos. Em 1918, ele desenvolveu com sucesso um foguete balístico de combustível sólido no qual, no entanto, até o Exército dos Estados Unidos perdeu o interesse após o Armistício. Convencido de que os foguetes eventualmente permitiriam viajar para o espaço sideral, Goddard, após a guerra, continuou suas pesquisas na Clark University, buscando desenvolver veículos que pudessem penetrar na ionosfera. Em contraste com Tsiolkovskiy e Oberth, ele se dedicou a conceber meios práticos de atingir o objetivo que os três aspiravam. Em 1926, ele lançou com sucesso um foguete movido a gasolina e oxigênio líquido, um "primeiro" que ficou famoso com os voos Kitty Hawk dos irmãos Wright em 1903. Com a ajuda de Charles Lindbergh após seu dramático voo transatlântico solo. Goddard obteve uma bolsa de $ 5.000 de Daniel Guggenheim e equipou um pequeno laboratório no Novo México, onde construiu vários foguetes. Em 1937, auxiliado por doações da Daniel and Florence Guggenheim Foundation, ele lançou um foguete que atingiu uma altitude de 9.000 pés. Embora poucas pessoas nos Estados Unidos soubessem muito sobre seu trabalho, alguns o seguiram tão de perto quanto seu sigilo permitia, entre eles estavam os membros da American Interplanetary Space Society, organizada em 1930 e posteriormente rebatizada de American Rocket Society. Com o advento da Segunda Guerra Mundial Goddard abandonou seus experimentos de campo, mas a Marinha o contratou para ajudar no desenvolvimento de propelentes líquidos para o JATO, ou seja, decolagem de aeronaves a jato assistida. Quando as bombas & quotbuzz & quot nazistas de 1943 e o míssil supersônico & quotVengeance & quot - o & quotV-2s & quot que choveu em Londres durante 1944 e início de 1945 - despertaram o mundo inteiro para as potencialidades dos foguetes como armas, muitos físicos e militares estudaram suas descobertas com atenção. Por uma reviravolta do destino, Goddard, que estava ainda mais interessado em astronáutica do que em armamento, morreu em 1945, quatorze anos antes de a maioria de seus compatriotas reconhecer a exploração espacial tripulada como viável e reconhecer sua contribuição básica para ela ao nomear o novo multi- estação experimental de um milhão de dólares em Beltsville, Maryland, & quotThe Goddard Space Flight Center & quot. 3


Robert H. Goddard e colegas examinam os componentes do foguete após o voo do foguete de 19 de maio de 1937.
(Foto cortesia da Sra. Robert H. Goddard)

Durante 1943 e início de 1944, o comandante Harvey Hall, Lloyd Berkner e vários outros cientistas a serviço da Marinha examinaram as chances de os nazistas fazerem tais avanços em foguetes que pudessem colocar satélites terrestres em órbita para reconhecimento ou para retransmitir as peças assustadoras em a imprensa chamou de "raios da morte". Enquanto os investigadores previram muito antes de o primeiro V-2 atingir a Grã-Bretanha que os especialistas alemães poderiam construir foguetes capazes de atingir alvos a algumas centenas de quilômetros de distância, o estudo mostrou que o estado da arte ainda não estava em um estágio para superar as dificuldades de engenharia de disparar um foguete a uma altitude suficiente para lançar um corpo na ionosfera. a região entre 50 e 250 milhas acima da superfície da terra. No processo de chegar a essa conclusão, membros da equipe de inteligência, como Tsiolkovskiy e Oberth antes deles, elaboraram as fórmulas matemáticas das velocidades necessárias. Assim que a tecnologia progredisse ainda mais, esses homens sabiam, um satélite artificial girando em torno da Terra seria inteiramente viável. Mais importante, se fosse equipado com um transmissor e dispositivos de gravação, seria um meio inestimável de obter informações sobre o espaço sideral. 4

No final da guerra, quando a maioria dos americanos queria esquecer os foguetes e tudo o que era militar, esses homens estavam ansiosos para prosseguir com o desenvolvimento de foguetes para continuar a pesquisa científica. Em 1888 Simon Newcomb, o mais eminente astrônomo americano de sua época, declarou: - & quotEstamos provavelmente nos aproximando do limite de tudo o que podemos saber sobre astronomia. & Quot Em 1945, apesar de novos telescópios poderosos e avanços notáveis ​​nas técnicas de rádio, esse pronunciamento apareceu ainda verdadeiro, a menos que as observações feitas acima da atmosfera terrestre se tornassem possíveis. Apenas um poderoso foguete poderia ultrapassar o manto da atmosfera terrestre e, nos Estados Unidos, apenas as forças armadas possuíam os meios de adquirir foguetes com impulso suficiente para atingir a altitude necessária. Ao mesmo tempo, vários oficiais queriam fazer experiências com o aprimoramento de foguetes como armas. Cada grupo seguiu um curso um tanto diferente durante os anos seguintes, mas cada um pensou em lançar uma "nave espacial em volta da terra", visto que, independentemente do propósito final, os requisitos para o lançamento e controle de vôo eram semelhantes. O caráter desses planos iniciais provisórios deve ser examinado, mesmo que apenas por causa das consequências de sua rejeição.

& quotOperation Paperclip. & quot, o primeiro projeto oficial do Exército com o objetivo de adquirir know-how alemão sobre foguetes e tecnologia, surgiu da captura de uma centena dos notórios V-2s e dos interrogatórios de cientistas e engenheiros importantes que haviam trabalhado na casa dos nazistas base de pesquisa e desenvolvimento de foguetes em Peenemuende. Daí a decisão de trazer aos Estados Unidos cerca de cento e vinte dos especialistas alemães junto com os mísseis capturados e peças sobressalentes. Antes da chegada dos alemães, o general Donald Putt das Forças Aéreas do Exército descreveu aos oficiais em Wright Field alguns dos esquemas nazistas para colocar plataformas espaciais na ionosfera quando seus ouvintes riram do que parecia ser uma história exagerada, ele assegurou-lhes que estes estavam longe de ser vaporizações tolas e provavelmente se materializariam antes do final do século.Mesmo assim, a arrogância dos alemães que desembarcaram em Wright Field no outono de 1945 não foi cativante para os americanos que tiveram de trabalhar com eles. A Marinha não queria nenhum deles, quaisquer que fossem suas habilidades. Durante um interrogatório minucioso antes de o grupo deixar a Alemanha, um ex-general alemão comentou irritadamente que, se Hitler não tivesse sido tão teimoso, a equipe nazista poderia agora estar dando ordens aos engenheiros americanos, às quais o cientista americano que conduziu o interrogatório rosnou em resposta que os americanos iriam nunca permitiu que um Hitler subisse ao poder. 5

No Campo de Provas de Artilharia do Exército em White Sands, no deserto do sul do Novo México, técnicos alemães, entretanto, trabalharam junto com oficiais americanos e equipes de campo para colocar V-2s remontados para uso em pesquisas. Já que a substituição do explosivo na ogiva por instrumentos científicos e lastro permitiria observar e registrar dados na atmosfera superior. o Exército convidou outras agências governamentais e universidades para participar da realização de medições de alta altitude por esse meio. Assistida pelos foguetes alemães chefiados por Wernher von Braun, a General Electric Company, sob um contrato com o Exército, se encarregou dos lançamentos. Cientistas das cinco universidades participantes e de laboratórios das Forças Armadas projetaram e construíram os instrumentos colocados no nariz dos foguetes. No decorrer dos cinco anos seguintes, as equipes de cada uma das três Forças Armadas e das universidades reuniram informações sobre os lançamentos bem-sucedidos de quarenta V-2 equipados com instrumentos. Em junho de 1946, um V-2, a primeira sonda usando instrumentos concebidos por membros da recém-organizada Seção de Pesquisa de Sonda de Foguete do Laboratório de Pesquisa Naval, carregou a uma altitude de sessenta e sete milhas um telescópio contador Geiger para detectar raios cósmicos, pressão e medidores de temperatura, um espectrógrafo e transmissores de rádio. Durante janeiro e fevereiro de 1946, os cientistas do NRL investigaram a possibilidade de lançar um satélite terrestre instrumentado dessa maneira, apenas para concluir com relutância que as técnicas de engenharia ainda eram muito pouco sofisticadas para torná-las práticas por enquanto, o Laboratório ganharia mais aperfeiçoando instrumentos para ser colocado e recuperado de V-2s. À medida que disparos sucessivos estabelecem recordes de altitudes mais elevadas, o novo equipamento espectroscópico desenvolvido pela Divisão de Ondas Micron da Divisão Óptica do Laboratório produziu uma série de excelentes espectros de raios-x e ultravioleta, mediu o brilho do ar noturno e determinou a concentração de ozônio. 6 Nesse ínterim, o projeto & quotBumper & quot do Exército produziu e voou com sucesso um foguete de dois estágios consistindo de um míssil & quotWAC Corporal & quot sobreposto a um V-2.

Após cada lançamento, um painel não oficial de cientistas e técnicos, logo conhecido como Upper Atmosphere Rocket Research Panel, discutia as descobertas. Na verdade, o painel coordenou e orientou a pesquisa que acumulou um corpo considerável de dados sobre a natureza da atmosfera superior. No entanto, como o suprimento de V-2s não duraria indefinidamente, e como um foguete construído exclusivamente para pesquisa teria vantagens distintas, a equipe do NRL logo decidiu elaborar especificações para um novo foguete de sondagem. Embora o Laboratório de Física Aplicada da Universidade Johns Hopkins. sob contrato com o Bureau of Ordnance da Marinha e o Office of Naval Research, estava modificando o & quotWAC Corporal & quot para desenvolver o foguete de pesquisa Aerobee estabilizado com barbatana, NRL queria um modelo com um mecanismo de direção sensível e controles giroscópicos. Em agosto de 1946, a Glenn L. Martin Company ganhou o contrato para projetar e construir um veículo que atendesse aos requisitos da NRL. 7

Quatro meses antes de o Departamento de Artilharia do Exército começar a trabalhar nos V-2 capturados, o Bureau of Aeronautics da Marinha iniciou um esquema de pesquisa mais ambicioso com a nomeação de um Comitê para Avaliação da Viabilidade de Foguetes Espaciais. Inconfundivelmente inspirado pelas idéias de membros da equipe de inteligência da Marinha que haviam investigado as capacidades nazistas em foguetes durante a guerra e, como aquele grupo anterior, dirigido pelo brilhante Harvey Hall, o comitê embarcou em um estudo intensivo dos requisitos físicos e recursos técnicos disponíveis para lançar uma nave em órbita ao redor da Terra. Em 22 de outubro de 1945, o comitê havia elaborado recomendações instando o Bureau of Aeronautics a patrocinar um programa experimental para criar uma nave orbital & quotspace & quot lançada por um foguete de estágio único, impulsionado por hidrogênio líquido e oxigênio líquido, e carregando equipamento eletrônico que pudesse coletar e transmitir de volta à terra informações científicas sobre a alta atmosfera. Aqui estava uma proposta revolucionária. Se baseado no pensamento especulativo dos cientistas da Marinha em 1944, agora era fortificado por cálculos cuidadosos. Projetado exclusivamente para pesquisas, o satélite não tripulado pesa cerca de duas mil libras e é colocado em órbita por um motor de foguete que queima um novo tipo de combustível, caso seja capaz de permanecer no ar por dias, em vez dos segundos possíveis com foguetes de sondagem vertical. Os especialistas nazistas em Peenemuende, apesar de todas as suas idéias sofisticadas sobre futuros voos espaciais, nunca pensaram em construir algo comparável.8

As recomendações ao Bureau of Aeronautics rapidamente levaram a contratos exploratórios com o Jet Propulsion Laboratory do California Institute of Technology e a Aerojet General Corporation, uma empresa da Califórnia com experiência em tempos de guerra na produção de combustíveis para foguetes. O relatório da Cal Tech, preparado por Homer J. Stewart e vários associados e apresentado em dezembro de 1945, verificou os cálculos do comitê sobre as inter-relações da órbita, o motor do foguete e o desempenho do combustível, as características estruturais do veículo e a carga útil. A confirmação da Aerojet dos cálculos do comitê da energia obtida do hidrogênio líquido e do oxigênio líquido logo se seguiu. Assim encorajado, BuAer assinou contratos com a North American Aviation, Incorporated, e a Glenn L. Martin Company para o projeto estrutural preliminar do & quotESV & quot, o veículo do satélite terrestre, e empreendeu o estudo de dispositivos movidos a energia solar para recarregar as baterias do satélite e assim aumentar a vida deles. Mas como as estimativas colocam o custo de levar o programa além dos estágios preliminares em bem mais de US $ 5 milhões, uma quantia que dificilmente será aprovada pelo alto escalão da Marinha, os proponentes do ESV buscaram a colaboração das Forças Aéreas do Exército. 9 Curiosamente, com a compartimentação muitas vezes característica das forças armadas, a BuAer aparentemente não tentou vincular seus planos aos do Laboratório de Pesquisa Naval. 10

Em março de 1946, logo após os cientistas do NRL terem decidido que um satélite era um projeto muito difícil de tentar até agora, representantes da BuAer e das Forças Aéreas do Exército concordaram que as vantagens gerais derivadas da busca pelo desenvolvimento do satélite parecem ser suficientes para justificar um grande programa, apesar do fato de que as aplicações militares óbvias, ou puramente navais em si mesmas, podem não aparecer neste momento para justificar os gastos. ”O general Curtis E. LeMay, do Estado-Maior da Aeronáutica, não concordou. Certamente ele não estava disposto a endossar um programa conjunto Marinha-Exército. Pelo contrário. O Comandante Hall observou que o general estava ressentido com a invasão da Marinha em um campo "que tão obviamente, ele sustentava, era a província da AAF." Em vez disso, em maio de 1946, as Forças Aéreas do Exército apresentaram sua própria proposta na forma de um estudo de viabilidade pelo Projeto Rand, uma unidade da Douglas Aircraft Company e precursora da RAND Corporation of California. 11 Como os cientistas do comitê do Bureau of Aeronautics, os matemáticos e engenheiros do Projeto Rand declararam que a tecnologia já está à altura da tarefa de lançar uma nave espacial. O navio poderia estar circulando a Terra, eles afirmaram, dentro de cinco anos, ou seja, em meados de 1951. Eles admitiram que não poderia ser usado como portador de uma bomba atômica e não teria função direta como arma, mas enfatizaram as vantagens que, no entanto, adviriam de colocar um satélite artificial em órbita: & quotPara visualizar o impacto no mundo, pode-se imaginar a consternação e admiração que sentiríamos aqui se os Estados Unidos descobrissem repentinamente que alguma outra nação já instalou um satélite de sucesso. & quot 12

Funcionários do Pentágono não ficaram impressionados. Theodore von K & aacuterm & aacuten, mentor chefe das Forças Aéreas do Exército e principal autor do relatório que se tornou a bíblia de pesquisa e desenvolvimento da Força, defendeu a pesquisa na alta atmosfera, mas não falou sobre o uso de um satélite artificial. Nem Vannevar Bush tinha fé em tal empreendimento. O cientista mais influente na América de sua época e em 1946 presidente do Conselho Conjunto de Pesquisa e Desenvolvimento do Exército e da Marinha. Bush estava até mesmo cético quanto à possibilidade de desenvolver em um futuro previsível as habilidades de engenharia necessárias para construir mísseis guiados intercontinentais. Suas dúvidas, juntamente com o desrespeito de von K & aacuterm & aacuten aos esquemas de satélite, inevitavelmente jogaram água fria nas propostas e ajudaram a explicar a recepção morna há muito tempo concedida a elas. 13

Ainda assim, o veto de um programa combinado das Forças Aéreas da Marinha e do Exército não matou as esperanças dos defensores de um navio & quotspace. & Quot. Enquanto a Marinha e seus contratados continuaram o desenvolvimento de um motor de impulso de 3.000 libras em escala movido a hidrogênio líquido e líquido oxigênio, o Projeto Rand concluiu um segundo estudo para as Forças Aéreas do Exército. Mas depois de meados de 1947, quando a Força Aérea se tornou uma força separada dentro do recém-criado Departamento de Defesa, a reorganização preocupou seus oficiais por um ano ou mais, e muitos deles, acreditavam cientistas acadêmicos, compartilhavam da indiferença do General LeMay por pesquisas não imediatamente aplicáveis. para problemas de defesa. Na BuAer, por outro lado, vários homens continuaram a pressionar por dinheiro para traduzir estudos de satélite em experimentos reais. Infelizmente para eles, um Grupo de Avaliação Técnica de cientistas civis servindo no Comitê de Mísseis Guiados do Conselho de Pesquisa e Desenvolvimento do Departamento de Defesa declarou em março de 1948 que "nem a Marinha nem a USAF ainda estabeleceram uma utilidade militar ou científica compatível com a custo atualmente esperado. & quot 14 Em vão, Louis Ridenour do Projeto Rand explicou, como Hall havia enfatizado em 1945 e 1946, que & quotthe o desenvolvimento de um satélite será diretamente aplicável ao desenvolvimento de um míssil de foguete intercontinental & quot, desde a velocidade inicial necessária para o lançamento, o último seria & quot4,4 milhas por segundo, enquanto um satélite requer 5,4. & quot 15

Na esperança de resgatar algo do descarte, a Marinha neste ponto mudou sua abordagem. Apoiado por um projeto de engenharia detalhado preparado sob contrato pela Glenn L. Martin Company, a BuAer propôs construir um foguete capaz de subir a uma altitude recorde de mais de quatrocentos quilômetros, desde um poderoso veículo de teste de alta altitude, HATV, pode servir ao duplo propósito de fornecer dados científicos até então inatingíveis da atmosfera superior extrema e ao mesmo tempo dramatizar a eficiência do sistema de propulsão de hidrogênio. Assim, pode angariar apoio financeiro para a ESV. Mas quando o Primeiro Relatório Anual do Secretário de Defesa apareceu em dezembro de 1948, um breve parágrafo afirmando que cada um dos três serviços estava realizando estudos e projetos de componentes para o & quotthe Earth Satellite Vehicle Program & quot evocou um clamor público pelo desperdício de contribuintes 'dinheiro, um escritor de cartas indignado declarou o programa um desafio profano à vontade de Deus para a humanidade. Esse tipo de resposta não encorajou um afrouxamento dos cordões da bolsa militar para a exploração espacial. Estudos de papel, sim hardware, não. A Marinha se sentiu obrigada a abandonar o desenvolvimento do HATV em um estágio que, de acordo com testemunhos posteriores, está vários anos à frente dos projetos soviéticos em seu sistema de propulsão proposto e engenharia estrutural. 16

Ao buscar um motor para um míssil balístico de alcance intermediário, o Corpo de Artilharia do Exército, no entanto, foi capaz de lucrar com a experiência da Aviação Norte-Americana com a HATV projetando um contrato da Força Aérea para o míssil Navaho que acabou produzindo o motor que movia o Júpiter C do Exército, o lançador do primeiro satélite americano de sucesso. Assim, o dinheiro negado à Marinha para pesquisas científicas foi colocado à disposição do Exército para um foguete militar. 17 No início de 1949, a Força Aérea solicitou à RAND Corporation, a recentemente organizada sucessora do Projeto Rand, que preparasse outros estudos de utilidade. O artigo apresentado em 1951 concentrou-se na análise do valor de um satélite como um "instrumento de estratégia política" e, novamente, ofereceu um argumento convincente para apoiar um projeto que poderia ter efeitos psicológicos tão importantes na opinião mundial como um satélite terrestre americano. 18 Só em outubro de 1957 a maioria dos funcionários que leram o texto reconheceria a validade desse ponto.

Nesse ínterim, a pesquisa na atmosfera superior continuou a avançar lentamente em White Sands e no Laboratório de Pesquisa Naval em Washington, apesar da transferência de cerca de vinte "pessoas de primeira linha" da Seção de Pesquisa de Sonda de Foguete do NRL para um programa de impacto de armas nucleares. Enquanto a equipe da Marinha em White Sands realizava sondagens com o Aerobee, então conhecido como & quotthe burro de carga da pesquisa de alta altitude & quot 19 um Bumper-Wac sob a égide do Exército-um V-2 com um foguete Wac-Corporal anexado como um segundo estágio -fez um vôo recorde a uma altitude de 250 milhas em fevereiro de 1949. Pouco depois, os testes começaram no novo foguete construído para NRL pela Glenn L. Martin Company. Chamado de & quotNeptune & quot inicialmente e depois renomeado de & quotViking & quot, o primeiro modelo incorporou várias inovações importantes: um motor oscilante para direção, alumínio como o principal material estrutural e jatos de gás intermitentes para estabilizar o veículo após o corte de energia principal. A Reaction Motors Incorporated forneceu o motor, uma das três primeiras grandes usinas de foguetes de propulsão líquida produzidas nos Estados Unidos. O Viking No. 1, disparado na primavera de 1949, atingiu uma altitude de 50 milhas. O Viking No. 4, lançado de um navio em maio de 1950, atingiu 104 milhas. Modesto em comparação com a potência exibida pelo Bumper-Wac, o impulso do relativamente pequeno Viking de estágio único, no entanto, foi notável. 20



O Veículo de Teste de Alta Altitude da Marinha (HATV).
Foi proposto em 1946 e deveria ter lançado um satélite em 1951.

Embora as modificações em cada Viking trouxessem um melhor desempenho, a Divisão de Óptica Eletrônica em NRL estava elaborando um método de usar câmaras de íons e contadores de fótons para comprimentos de onda de raios-x e ultravioleta, equipamento que mais tarde forneceria respostas a perguntas sobre a composição nuclear de radiação solar. Igualmente valioso foi o desenvolvimento de um dispositivo de rastreamento eletrônico conhecido como & quotSingle-Axis Phase-Comparison Angle-Tracking Unit & quot, o antecedente de & quotMinitrack & quot, que permitiria o rastreamento contínuo de um pequeno corpo instrumentado no espaço. Quando o penúltimo Viking, nº 11, subiu a uma altitude de 158 milhas em maio de 1954, o sistema de rádio telemetria transmitiu dados sobre as emissões de raios cósmicos, assim como o Viking 10, disparado cerca de duas semanas antes, havia fornecido aos cientistas o primeira medição da composição de íons positivos a uma altitude de 136 milhas. 21 Essa notável série de sucessos alcançados em cinco anos a um custo total de menos de US $ 6 milhões encorajou a NRL em 1955 a acreditar que, com um motor mais potente e a adição de estágios superiores, aqui estava um veículo capaz de lançar um satélite terrestre.



Proposta da RAND Corporation para lançamento de foguete
um "Earth Circling Satellite", 1951.

Embora esse trabalho fosse essencial para programas subsequentes, o Laboratório de Pesquisa Naval no final dos anos 1940 e nos anos 50 foi prejudicado por não ter o que John P. Hagen chamou de "financiamento estável" para seus projetos. Hagen, chefe da Divisão de Atmosfera e Astrofísica, considerou o sistema orçamentário singularmente insatisfatório. O NRL foi fundado em 1923, mas uma reorganização dentro da Marinha após a Segunda Guerra Mundial trouxe o Office of Naval Research à existência e deu a ele o controle administrativo das finanças do Laboratório. O ONR destinava ao Laboratório uma modesta quantia fixa anualmente, mas outros escritórios da Marinha e agências federais freqüentemente contratavam os talentos do Laboratório e pagavam por empregos específicos. O arranjo se assemelhava ao de um homem que recebe um pequeno pagamento de seu empregador, mas depende, para a maior parte de seu sustento, de taxas pagas por sua própria clientela por serviços especiais. Todos os contratos da NRL, fosse para estudos de projeto ou hardware, tinham de ser negociados e administrados pelo ONR ou por um dos escritórios permanentes da Marinha - em pesquisas atmosféricas, era o Bureau of Aeronautics da Marinha. O cancelamento de um contrato poderia interromper gravemente o funcionamento do NRL, como os anos 1950 a 1954 ilustraram. 22

Com a eclosão da Guerra da Coréia, o ritmo da pesquisa de mísseis aumentou no Departamento de Defesa. Enquanto a Marinha estava trabalhando em um míssil guiado que pode ser lançado de um navio e um grupo da NRL em interferômetros de rádio para rastreá-lo, os foguetes do Arsenal de Redstone, no Alabama, estavam empenhados em tirar os "bugs" de um motor da aviação norte-americana para um míssil balístico com um 200 -mile range, e a RAND estava conduzindo estudos secretos de um satélite de reconhecimento militar para a Força Aérea. Em junho de 1952, o NRL obteve a aprovação para a construção de quatro Vikings adicionais semelhantes ao Viking No. 10 para uso na pesquisa de mísseis balísticos, mas onze meses depois a BuAer retirou seu apoio e cancelou o contrato de desenvolvimento de um motor de oxigênio-amônia de alto desempenho que era por ter substituído o motor Viking menos potente, esse cancelamento adiou por mais de três anos a disponibilidade de uma usina de força adequada para o primeiro estágio do futuro foguete Vanguard. Da mesma forma, em 1954, a falta de fundos restringiu um programa NRL para projetar e desenvolver um novo foguete de sondagem Aerobee-Hi de propulsão líquida. A pedido da Divisão de Desenvolvimento Ocidental da Força Aérea em julho de 1954, o Laboratório investigou o possível uso de um Viking melhorado como veículo de teste para mísseis balísticos intercontinentais, ICBMs. O estudo, envolvendo a solução do "problema de reentrada", isto é, como permitir que a ogiva de um míssil retorne à atmosfera sem se desintegrar antes de atingir seu alvo, produziu o projeto de um M-I0 e um M-15 Viking, cujas designações referem-se às velocidades, medidas pelo número de Mach, nas quais cada um entraria novamente na atmosfera. Mas a Força Aérea posteriormente cedeu os contratos de desenvolvimento à indústria privada.23 Nesses anos, o Departamento de Defesa não estava disposto a gastar mais do que somas simbólicas em pesquisas que pareciam ter apenas uma conexão remota com equipamentos de combate.

A criação da National Science Foundation, em maio de 1950, tendia a justificar essa posição, pois uma das principais funções da nova agência era estimular e apoiar a pesquisa básica, principalmente por meio de doações a universidades americanas. A missão do Exército, da Marinha e da Força Aérea era a defesa nacional, a da Fundação o fomento à descoberta científica. Era responsabilidade da Fundação decidir quais linhas de pesquisa fundamental mais mereciam ajuda financeira pública por direito próprio, enquanto outras agências federais devem, por lei, limitar sua pesquisa básica a campos intimamente relacionados com suas missões práticas. Embora os estatutos da Fundação a proibissem de fazer doações para pesquisa aplicada e desenvolvimento - a mesma área em que os militares muitas vezes gostariam de receber assistência -, qualquer departamento do governo poderia pedir ajuda à Academia Nacional de Ciências para resolver problemas científicos. A Academia, fundada em 1863 como um órgão autoperpetuante, consultor mas independente do governo, incluía homens ilustres em todos os campos científicos. Quando sua unidade executiva, o Conselho Nacional de Pesquisa, concordou em patrocinar estudos para agências federais, os estudos às vezes envolviam mais pesquisa aplicada do que pura. O Conselho de Pesquisa da Academia e a Fundação Científica, no entanto, frequentemente trabalharam juntos na escolha dos problemas a serem investigados 24.



Aerobee-Hi Viking 10 na plataforma de lançamento em White Sands Bumper-Wac

Certamente, a composição da ionosfera, a região que começa cerca de cinquenta milhas acima da superfície da Terra e a natureza do espaço sideral eram menos importantes para o Pentágono do que para a Academia Nacional, a Fundação de Ciência e o mundo científico acadêmico. De fato, o painel de voluntários que analisou os resultados de cada tiro V-2 instrumentado e posteriormente avaliou os resultados dos voos do Aerobee, Viking e Aerobee-Hi continha desde o primeiro alguns futuros membros da Academia. Entre os participantes ao longo dos anos estavam Homer J. Stewart e William H. Pickering do Laboratório de Propulsão a Jato da Cal Tech, Milton W. Rosen, Homer E. Newell, Jr. e John W. Townsend, Jr., da NRL, e James A. Van Allen do Laboratório de Física Aplicada da Universidade Johns Hopkins e mais tarde professor da Universidade Estadual de Iowa. Sob a presidência de Van Allen, o Painel sobre Pesquisa de Foguetes da Alta Atmosfera passou a ser um elo forte entre os físicos universitários e o Departamento de Defesa, um elo mais direto em vários aspectos do que aquele proporcionado por cientistas civis que serviram em comitês consultivos do Departamento de Pesquisa e Quadro de desenvolvimento. 25

Embora as forças armadas estivessem forçosamente confinando seus programas de pesquisa e desenvolvimento principalmente a objetivos militares, nenhuma força militar queria desencorajar as discussões sobre possibilidades futuras. No outono de 1951, vários médicos da Força Aérea e um grupo de físicos reunidos por Joseph Kaplan, da Universidade da Califórnia, em Los Angeles, se reuniram em San Antonio, Texas, para um simpósio sobre Física e Medicina da Alta Atmosfera. Os participantes resumiram o conhecimento existente da região chamada de & quotaeropause & quot, onde o vôo tripulado ainda não era possível, e examinaram os problemas de penetração do homem naquela área ainda inexplorada. Os artigos publicados em livro um ano depois foram diretamente instrumentais, acreditava Kaplan, em despertar entusiasmo para estudos intensivos da ionosfera. 26

Poucos meses antes das sessões de San Antonio, o Planetário Hayden de Nova York realizou um primeiro simpósio anual sobre exploração espacial, e quase ao mesmo tempo a American Rocket Society criou um Comitê ad hoc sobre vôo espacial para procurar outras maneiras de despertar o público interesse e ganhando apoio do governo para a exploração interplanetária. De algumas dezenas de homens que seguiram o desenvolvimento de foguetes no início da década de 1930, a sociedade havia crescido para cerca de dois mil membros, alguns deles ligados à indústria aeronáutica, alguns deles no serviço público e alguns que eram puramente entusiastas apanhados pelo possibilidades imaginativas de alcançar o desconhecido. O comitê se reuniu em intervalos durante os próximos dois anos na sede da Sociedade em Nova York ou no escritório de Andrew Haley em Washington. o consultor jurídico da Sociedade, mas só depois que Richard W. Porter, da General Electric Company, procurou Alan T. Waterman, diretor da National Science Foundation, e obteve dele uma garantia de que a Fundação consideraria uma proposta, fez uma declaração formal detalhada do credo do comitê aparecem. Milton Rosen, o presidente do comitê e um dos principais engenheiros que dirigiu o desenvolvimento e os testes do foguete de sondagem Viking, concebeu e escreveu o relatório defendendo um estudo completo dos benefícios que poderiam derivar do lançamento de um satélite terrestre. Concluído em 27 de novembro de 1954, o documento foi para a Fundação no início do ano seguinte. 27

Sem tentar descrever o tipo de veículo de lançamento de que ele precisaria, o jornal expôs as razões pelas quais a exploração espacial traria grandes recompensas. Seis apêndices, cada um escrito por um cientista lidando com seu próprio campo especial, apontaram para lacunas existentes no conhecimento que um satélite instrumentado pode preencher. Ira S. Bowen, diretor do Observatório Palomar em Mt. Wilson, explicou como a visibilidade mais nítida e a exposição mais longa possível na varredura fotoeletrônica de fenômenos celestes de um corpo a duzentas milhas acima da Terra ajudaria os astrônomos. Howard Schaeffer, da Naval School of Aviation Medicine, escreveu sobre os benefícios de se obter observações sobre os efeitos da radiação do espaço sideral sobre as células vivas. Em comunicações, John R. Pierce, cuja proposta de 1952 deu origem ao Telstar uma década depois, 28 discutiu a utilidade de um retransmissor para transmissões de rádio e televisão. Dados obtidos no domínio da geodésia. de acordo com o Major John O'Keefe do Serviço de Mapas do Exército, lançaria luz sobre o tamanho e a forma da Terra e a intensidade de seus campos gravitacionais, informações que seriam inestimáveis ​​para navegadores e cartógrafos. O meteorologista Eugene Bollay, da North American Weather Consultants, falou dos ganhos previsíveis na precisão da previsão do tempo. Talvez o mais esclarecedor para o leitor não treinado em ciência seja a análise de Homer E. Newell das incógnitas da ionosfera, que os dados acumulados ao longo de um período de dias poderiam esclarecer.

Acontecimentos confusos e complexos na atmosfera, escreveu Newell, foram uma manifestação cota de um influxo de energia do espaço sideral. Qual era a natureza e magnitude dessa energia? Grande parte da energia recebida foi absorvida na atmosfera em grandes altitudes. A partir de dados transmitidos de um satélite espacial a quinhentas milhas acima da Terra, o cientista que trabalha com a Terra pode avaliar a natureza e a intensidade da radiação que emana do Sol, o principal produtor dessa energia. Raios cósmicos. meteoros e micrometeores também trouxeram energia. Embora provavelmente tenham pouco efeito na atmosfera superior, os raios cósmicos, com suas energias extremamente altas, produziram ionização na atmosfera inferior. Acreditava-se que as partículas de baixa energia do sol causavam a aurora e desempenhavam um papel significativo na formação da ionosfera. Foguetes de sondagem permitiam pouco mais do que medições momentâneas das várias radiações em várias alturas, mas com um satélite circulando a Terra em um plano meridiano geomagnético, deveria ser possível estudar em detalhes a extremidade de baixa energia do espectro de raios cósmicos, uma região inacessível para dirigir a observação dentro da atmosfera e melhor estudada acima dos pólos geomagnéticos. As baterias carregadas pelo sol devem ser capazes de fornecer energia para transmitir informações por semanas ou meses.

Ao contrário do que um público indiferente poderia esperar de foguetes & quotcrackpots & quot, o documento observou que & quotcriar um satélite apenas com o propósito de dizer que foi feito não justificaria o custo. Em vez disso, o satélite deve servir a propósitos úteis que podem inspirar o respeito dos funcionários que o patrocinam, dos cientistas e engenheiros que o produzem e da comunidade que paga por ele. & Quot O apelo foi principalmente para a comunidade científica, mas o leigo inteligente poderia compreendê-lo. e sua publicação em um jornal de engenharia em fevereiro de 1955 deu ao relatório um público diversificado. 29

Enquanto isso, vários homens dentro e fora do serviço governamental continuaram a perseguir a ideia do satélite. Em fevereiro de 1952, Aristid V. Grosse, da Temple University, uma figura-chave do Projeto Manhattan em seus primeiros dias, persuadiu o presidente Truman a aprovar um estudo sobre a utilidade de um satélite na forma de um balão inflável visível a olho nu por a superfície da terra. Ciente de que Wernher von Braun, um dos especialistas nascidos na Alemanha de Peenemuende, estava interessado, o físico aconselhou-se com ele e seus associados no Redstone Arsenal em Huntsville, Alabama. Quinze meses depois, Grosse apresentou ao Secretário da Força Aérea uma descrição do & quotAmerican Star & quot, que poderia surgir no Ocidente. Presumivelmente, porque o satélite proposto seria apenas um show piece sem outro utilitário, nada mais se ouviu falar dele. 30

Uma série de artigos em três edições da Collier's, no entanto, chamou grande atenção durante 1952. Agitados por um relato do simpósio de San Antonio, conforme Kaplan o descreveu na mesa do almoço, os editores da revista contrataram Wernher von Braun para escrever as peças principais e obteve contribuições mais curtas de Kaplan, Fred L. Whipple, presidente do Departamento de Astronomia da Universidade de Harvard, Heinz Haber da Divisão de Medicina Espacial da Força Aérea, o jornalista Willy Ley e outros. O comentário dos editores foi: & quotO que estamos esperando? & Quot, uma expressão de alarme de que uma nação comunista se aproprie do espaço sideral antes que os Estados Unidos agissem e, assim, controlassem a Terra a partir de plataformas espaciais tripuladas equipadas com bombas atômicas. Por outro lado, os artigos de von Braun enfatizaram principalmente as emocionantes descobertas possíveis dentro de 25 anos se a América imediatamente começasse a construir "foguetes de carga" e uma estação espacial em forma de roda em torno da Terra da qual foguetes americanos poderiam partir para outros planetas e retornar. Talvez por causa da edição severa para adaptar o material ao consumo popular, o texto continha poucos ou nenhum dado técnico sobre como essas maravilhas deveriam ser realizadas. O termo & quottelemetria & quot não apareceu em lugar nenhum. Mas os artigos, repletos de ilustrações coloridas, e um filme subsequente de Walt Disney, despertaram o interesse do público e levaram a uma troca de cartas entre von Braun e S. Fred Singer, um jovem físico brilhante da Universidade de Maryland. 31

No quarto Congresso da Federação Internacional de Astronáutica em Zurique, Suíça, no verão de 1953, Singer propôs um Satélite Orbital Mínimo Não Tripulado da Terra, MOUSE, com base em um estudo preparado dois anos antes por membros da Sociedade Interplanetária Britânica que haviam predicado sua esquema sobre o uso de um foguete V-2. O Upper Atmosphere Rocket Research Panel em White Sands, por sua vez, discutiu o plano em abril de 1954 e, em maio, Singer apresentou novamente sua proposta para o MOUSE no quarto Simpósio de Viagem Espacial do Planetário Hayden. Naquela ocasião, Harry Wexler, do United States Weather Bureau, deu uma palestra intitulada, & quotObserving the Weather from a Satellite Vehicle. & Quot. 32 O público americano estava, portanto, sendo exposto ao conceito de um satélite artificial como algo mais do que ficção científica.

A essa altura, o comandante George Hoover e Alexander Satin, do Departamento Aéreo do Office of Naval Research, haviam chegado à conclusão de que os recentes avanços tecnológicos em foguetes haviam melhorado tanto a arte que a viabilidade de lançar um satélite não estava mais em dúvida. Hoover, portanto, colocou à prova os especialistas da Agência de Mísseis Balísticos do Exército em Huntsville. Lá, von Braun, tendo descartado temporariamente sua plataforma espacial como impraticável, estava pensando em usar o foguete Redstone para colocar um pequeno satélite em órbita. Redstone, um descendente direto do V-2, era, como um homem o descreveu, uma enorme peça de "placa de caldeira" com sessenta e nove pés de comprimento, 70 polegadas de diâmetro e pesando 61.000 libras, sua usina de energia usando oxigênio líquido como oxidante e uma mistura de álcool-água como combustível. Um novo motor Redstone construído pela Divisão Rocketdyne da North American Aviation, Inc. e testado em 1953 era trinta por cento mais leve e trinta e quatro por cento mais potente do que o V-2. 33 Se o comandante Hoover sabia dos esforços inúteis da BuAer em 1947 para obter a colaboração das Forças Aéreas do Exército em um programa espacial não totalmente diferente, essa decepção anterior não o desencorajou. E como tinha motivos para acreditar que agora poderia obter fundos da Marinha para um projeto de satélite, não teve dificuldade em atrair o interesse de von Braun. Em uma reunião em Washington organizada por Frederick C. Durant, III, ex-presidente da American Rocket Society, Hoover, Satin, von Braun e David Young de Huntsville discutiram possibilidades com Durant, Singer. e Fred Whipple, a maior autoridade americana em rastrear corpos celestes. O consenso dos conferencistas foi de que um foguete Redstone ligeiramente modificado com grupos de trinta e um foguetes de propelente sólido Loki para estágios superiores poderia colocar um satélite de cinco libras em órbita a uma altitude mínima de 200 milhas. Se isso tivesse sucesso, um satélite maior equipado com instrumentos poderia vir logo depois. O julgamento de Whipple de que o rastreamento óptico seria suficiente para rastrear um satélite tão pequeno a uma distância de 320 quilômetros levou o grupo a concluir que o rastreamento por rádio seria desnecessário. 34

Whipple então abordou a National Science Foundation implorando para financiar uma conferência sobre os ganhos técnicos esperados de um satélite e da & quotthe instrumentação que deveria ser projetada bem antes do advento de um veículo de satélite ativo. & Quot A Fundação, ele observou alguns meses depois, foi favorável à ideia, mas em 1954 não tomou nenhuma atitude a respeito. O comandante Hoover se saiu melhor. Ele levou a proposta ao almirante Frederick R. Furth do Office of Naval Research e, com a aprovação do almirante, discutiu a divisão do trabalho com o general H. T. Toftoy e von Braun no Arsenal de Redstone. O resultado foi um acordo de que o Exército deveria projetar e construir o sistema propulsor, e a Marinha assumir a responsabilidade pelo satélite, pelas instalações de rastreamento e pela aquisição e análise de dados. Ninguém no ONR havia consultado o Laboratório de Pesquisa Naval sobre o plano. Em novembro de 1954, uma descrição completa do recém-nomeado Orbiter do Projeto foi enviada para exame crítico e comentários a Emmanuel R. Piore, cientista-chefe da ONR, e ao Laboratório de Propulsão a Jato do governo em Pasadena, que lidou com grande parte da Agência de Mísseis Balísticos do Exército pesquisar. Antes do final do ano, o Office of Naval Research havia fechado três contratos, totalizando US $ 60.000, para análises de viabilidade ou projeto de componentes para subsistemas. Chamado de "satélite sem custo", o Orbiter deveria ser construído em grande parte com o hardware existente. 36



Um foguete Redstone no posto de disparo estático no
Agência de Mísseis Balísticos do Exército, Huntsville, Alabama.

Nesse ponto, é necessário examinar o curso que o pensamento científico vinha tomando entre os físicos da National Academy e das universidades americanas, pois, no longo prazo, seriam suas recomendações que afetariam mais imediatamente as decisões governamentais sobre um programa de satélite. Esta fase da história começa na primavera de 1950, em uma reunião informal na casa de James Van Allen em Silver Spring, Maryland. O grupo convidado por Van Allen para se encontrar com o eminente geofísico britânico Sydney Chapman consistia em Lloyd Berkner, chefe do novo Laboratório Nacional de Brookhaven em Long Island, S. Fred Singer, J. Wallace Joyce, um geofísico do Navy BuAer e conselheiro da o Departamento de Estado e Ernest H. Vestine do Departamento de Magnetismo Terrestre da Instituição Carnegie. Enquanto conversavam sobre como obter medições e observações simultâneas da Terra e da alta atmosfera de uma distância acima da Terra, Berkner sugeriu que talvez organizar outro Ano Polar Internacional fosse a melhor maneira. Seus companheiros imediatamente responderam com entusiasmo. Berkner e Chapman desenvolveram a ideia ainda mais e a colocaram em forma para apresentá-la ao Conselho Internacional de Uniões Científicas. O primeiro Ano Polar Internacional estabeleceu o precedente da cooperação científica internacional em 1882, quando cientistas de várias nações concordaram em unir seus esforços por um ano no estudo das condições polares. Um segundo Ano Polar Internacional ocorreu, em 1932. A proposta de Berkner de encurtar o intervalo para 25 anos foi oportuna porque 1957-1958, os astrônomos sabiam, seria um período de atividade solar máxima. 37 cientistas europeus subscreveram o plano. Em 1952, o Conselho Internacional de Uniões Científicas nomeou um comitê para tomar providências, estendeu o escopo do estudo a toda a Terra, não apenas às regiões polares, fixou a duração em dezoito meses e, em seguida, renomeou o empreendimento como Ano Geofísico Internacional, encurtado em discurso popular para IGY. Eventualmente, ele abrangeu sessenta e sete nações. 38



Reunião sobre o Projeto Orbiter, 17 de março de 1955 em Washington, D.C.

No Conselho Internacional de Uniões Científicas, a Academia Nacional de Ciências sempre foi o órgão aderente dos Estados Unidos. O próprio Conselho, geralmente denominado ICSU, foi e é a unidade-sede de uma associação internacional não governamental de grupos científicos, como a União Internacional de Geodésia e Geofísica. a União Internacional de Física Pura e Aplicada, a União Científica Internacional de Rádio e outras. Quando os planos estavam em andamento para programas científicos internacionais que precisavam de apoio governamental, os americanos da National Academy naturalmente procuraram a National Science Foundation para obter fundos federais. As relações entre as duas organizações sempre foram cordiais, a Fundação freqüentemente solicitando conselhos à Academia e seu secretariado, ao Conselho Nacional de Pesquisa e à Academia freqüentemente buscando financiamento para projetos da Fundação. No final de 1952, a Academia nomeou um Comitê Nacional dos Estados Unidos para o IGY, liderado por Joseph Kaplan, para planejar a participação americana. A escolha de Kaplan como presidente fortaleceu a posição dos homens interessados ​​na atmosfera superior e no espaço sideral.

Durante a primavera de 1953, o Comitê Nacional dos Estados Unidos redigiu uma declaração que o Conselho Internacional posteriormente adotou, listando os campos de investigação que os programas IGY deveriam abranger - fenômenos oceanográficos, geografia polar e sismologia, por exemplo, e, na área celestial, assuntos como atividade solar, fontes de radiações ionizantes, raios cósmicos e seus efeitos sobre a atmosfera. 39 No decorrer do ano, a Science Foundation concedeu $ 27.000 ao comitê IGY para planejamento, mas em dezembro, quando Hugh Odishaw deixou seu posto de assistente do diretor do Bureau of Standards para se tornar secretário do Comitê Nacional, ainda era incerto quanto mais apoio o governo daria aos programas IGY. Os recursos da Fundação eram limitados. Embora em agosto o Congresso tenha removido o teto de US $ 15 milhões que a lei original impôs ao orçamento anual da Fundação, a dotação votada para o ano fiscal de 1954 totalizou apenas US $ 8 milhões. Tendo em vista os outros compromissos da Fundação, essa soma parecia improvável para permitir uma ampla participação no IGY. Em janeiro de 1954, o Comitê Nacional solicitou um total de US $ 13 milhões. As esperanças dos cientistas aumentaram em março, quando o presidente Eisenhower anunciou que, em contraste com os US $ 100 milhões gastos em 1940 em apoio federal à pesquisa e desenvolvimento, ele estava enviando um orçamento de US $ 2 bilhões para pesquisa e desenvolvimento ao Congresso para o ano fiscal de 1955. A esperança se voltou para a gratificação em junho, quando o Congresso autorizou para o IGY uma despesa total de US $ 13 milhões, conforme solicitado, e em agosto votou a favor do ano fiscal de 1955 uma dotação de US $ 2 milhões para a Fundação Nacional de Ciência para os preparativos do IGY. 40

Assim tranquilizados, os representantes da Academia Nacional partiram no final do verão para a Europa e as sessões da International Scientific Radio Union, conhecida como URSI, e da International Union of Geodesy and Geophysics, IUGG. Até o momento, nenhuma das nações que se comprometeram a participar do IGY havia se comprometido com projetos definitivos. Os EUA não aderiram, embora delegados russos tenham participado das reuniões. Antes da abertura das reuniões, Lloyd V. Berkner, presidente da Radio Union e vice-presidente da Comit & eacute Sp & eacuteciale de l'Ann & eacutee G & eacuteophysique Internationale (CSAGI) criou dois pequenos comitês informais sob a presidência de Fred Singer e Homes E. Newell, Jr., respectivamente, para considerar a utilidade científica de um satélite. A lista anterior dos objetivos do IGY pela Academia Nacional indicava problemas que exigiam exploração, mas não sugeria meios específicos para resolvê-los. Durante anos, físicos e geodesistas falaram melancolicamente em observar a Terra e seu ambiente celestial de cima da atmosfera. Agora, concluiu Berkner, era o momento de examinar a possibilidade de agir de acordo com a ideia. Singer era um entusiasta que tendia a deixar de lado os obstáculos técnicos. Tendo apresentado o MOUSE no ano anterior e participado do planejamento do Projeto Orbiter, ele foi um defensor persuasivo de um programa de satélites IGY. Newell, da NRL, foi mais conservador, mas enfatize demais para a IUGG os benefícios que podem ser esperados de um lançamento bem-sucedido de um "pássaro" instrumentado, o tema que ele incorporou em seu ensaio posterior para a American Rocket Society. URSI e IUGG aprovaram resoluções favorecendo o esquema. Mas CSAGI ainda teve que aprovar. E havia dificuldades potenciais.

Portanto, na véspera da reunião do CSAGI em Roma, Berkner convidou dez de seus associados para seu quarto no Hotel Majestic para revisar os prós e os contras, para ter certeza, como disse um homem. que a proposta ao CSAGI não era apenas uma "resolução cotidiana", como Newton poderia ter apresentado à Royal Society. O grupo incluiu Joseph Kaplan, presidente do Comitê Nacional dos EUA, Hugh Odishaw, secretário do comitê, Athelstan Spilhaus, Reitor do Instituto de Tecnologia da Universidade de Minnesota. Alan H. Shapley do National Bureau of Standards, Harry Wexler do Weather Bureau, Wallace Joyce, Newell e Singer. A sessão durou até tarde da noite. Singer descreveu o problema científico e técnico - a determinação das órbitas, os efeitos dos erros de lançamento, a vida provável do satélite, a telemedição e a orientação do satélite, as estações de recepção, as fontes de alimentação e as aplicações geofísicas e astrofísicas dos dados. Newell, mais experiente do que alguns dos outros nas dificuldades técnicas a serem superadas, destacou que as baterias dos satélites podem borbulhar no ambiente sem peso do espaço, ao que Spilhaus bateu com o punho e gritou: “Então vamos pegar baterias que não vão! & quot A apresentação de Singer foi empolgante, mas permanecia a questão de saber se um corpo artificial de tamanho e peso limitados que um foguete ainda poderia colocar em órbita poderia carregar instrumentação confiável o suficiente para provar ter valor científico suficiente para garantir o custo, dinheiro e esforço investidos nesse projeto não estaria disponível para outras pesquisas, e tentar construir um grande satélite pode ser um convite à derrota.

Tanto Berkner quanto Spilhaus falaram do prestígio político e psicológico que acumularia para a nação que primeiro lançou um satélite feito pelo homem. Como todos os presentes sabiam, A. N. Nesmeyanov, da Academia Soviética de Ciências, disse em novembro de 1953 que o lançamento de satélites e tiros da lua já eram viáveis ​​e com o trabalho de Tsiolkovskiy agora reconhecido pelos físicos ocidentais, os americanos tinham motivos para acreditar nas capacidades científicas e tecnológicas russas. Em março de 1954, a Rádio Moscou exortou a juventude soviética a se preparar para a exploração espacial e, em abril, o Aeroclube de Moscou anunciou que os estudos em voos interplanetários estavam começando. Muito recentemente, o U.S.R. comprometeu-se a participar da IGY. Enquanto os cientistas americanos em setembro de 1954 não descartaram o possível desafio russo, alguns deles insistiram que um experimento de satélite não deve assumir tal ênfase a ponto de paralisar ou paralisar a pesquisa da atmosfera superior por meio de foguetes de sondagem. Esta última era uma técnica útil estabelecida que podia fornecer, como um satélite em órbita não podia, medições em uma sucessão de altitudes dentro e acima da atmosfera superior, medições ao longo do plano vertical em vez do horizontal. No entanto, no final da sessão de seis horas, o grupo concordou unanimemente em instar CSAGI a endossar um projeto de satélite IGY. 41

Durante a reunião do CSAGI que se seguiu, os representantes soviéticos ouviram a discussão, mas não objetaram, nem ofereceram comentários, nem fizeram perguntas. Em 4 de outubro, o CSAGI adotou a proposta americana: & quot Em vista, & quot afirmou que o órgão,

da grande importância das observações durante longos períodos de tempo de radiações extraterrestres e fenômenos geofísicos na alta atmosfera, e em vista do estado avançado das técnicas atuais de foguetes, o CSAGI recomenda que se pense no lançamento de pequenos veículos satélites, à sua instrumentação científica e aos novos problemas associados aos experimentos de satélite, como fornecimento de energia, telemetria e orientação do veículo. 42

O que há muito parecia para a maioria do público americano uma pura fantasia de Júlio Verne e Buck Rogers agora tinha o apoio formal dos cientistas mais eminentes do mundo.

Assim, no momento em que o Comitê dos Estados Unidos para o IGY nomeou um Painel de Viabilidade na Pesquisa da Atmosfera Superior, três grupos separados, embora inter-relacionados, de americanos estavam preocupados com um possível projeto de satélite terrestre: físicos, geodesistas e astrônomos interessados ​​em oficiais de pesquisa básica de as três forças armadas em busca de meios científicos para fins militares e engenheiros industriais, incluindo membros da American Rocket Society, que estavam ansiosos para ver um papel em expansão para suas empresas. Os três não eram de forma alguma mutuamente exclusivos. O cientista dedicado, por exemplo, de acordo com o exemplo de Theodore von K & aacuterm & aacuten como fundador e oficial da Aerojet General Corporation, também pode ser acionista de uma empresa de eletrônicos ou aeronaves orientada para a pesquisa, assim como o industrial pode ter um interesse apaixonado em ciência pura assim como ciência aplicada, e o militar pode compartilhar os interesses intelectuais e práticos de ambos os outros. Certamente, os três queriam melhorias no equipamento de defesa nacional. Ainda assim, o objetivo principal de cada grupo diferia dos outros dois. Essas diferenças teriam efeitos sutis no desenvolvimento do Vanguard. Embora para algumas pessoas o papel da Academia Nacional parecesse ser o de um Johnny-come-ultimamente, a força impulsionadora por trás do projeto do satélite era o cientista falando por meio de órgãos governamentais e quase-governamentais.


O Instituto de Pesquisa Criativa

Depois de revisar as especulações dos evolucionistas sobre a origem da vida, Clemmey e Badham dizem, & quot. surgiu o dogma de que a atmosfera primitiva da Terra era anóxica. & quot 1 Por & quotanóxico & quot, eles significam uma atmosfera sem gás oxigênio livre (O2), muito diferente da mistura oxidante que respiramos. O modelo geralmente aceito para a evolução da atmosfera 2 supõe que antes de cerca de 1,9 bilhões de anos atrás, a atmosfera da Terra era uma mistura redutora de nitrogênio (N2), metano (CH4), vapor de água (H2O), e possivelmente amônia (NH3) O consenso dos evolucionistas acredita que a radiação solar e as descargas elétricas na mistura de gases redutores tenham produzido compostos orgânicos naturais e, eventualmente, a própria vida. A razão pela qual os evolucionistas postulam uma atmosfera anóxica e redutora é mencionada por Miller e Orgel, "Acreditamos que deve ter havido um período em que a atmosfera terrestre estava se reduzindo, porque a síntese de compostos de interesse biológico ocorre apenas em condições redutoras."

Se o dogma da atmosfera redutora pré-cambriana for verdadeiro, esperaríamos encontrar evidências geológicas nos estratos arqueano e no Proterozóico inferior (que os evolucionistas acreditam ter mais de 1,9 bilhão de anos). Embora alteradas por diagênese e metamorfismo, as rochas sedimentares mais antigas devem possuir composição química distinta e associações minerais incomuns.

COLOCAÇÕES DE MINERAIS METÁLICOS INSTÁVEIS

Depósitos de cascalho e areia de idade arqueana superior e Proterozóico inferior ocorrem no sul do Canadá, África do Sul, sul da Índia e Brasil. Alguns deles são conhecidos por serem cimentados por uma matriz contendo grãos minerais de pirita (FeS2) e uraninita (UO2) A pirita tem o estado reduzido do ferro (sem oxigênio, mas com enxofre) que é instável como grãos sedimentares na presença de oxigênio. A uraninita tem o estado parcialmente oxidado de urânio, que é oxidado a UO3 na presença da atmosfera moderna. Esses grãos minerais instáveis ​​em concentrados de cascalho e areia foram reivindicados por alguns geólogos para indicar uma atmosfera redutora no momento da deposição.

Embora antigos placers de minerais metálicos instáveis ​​ocorram em vários lugares, estes não são de forma alguma os únicos tipos de concentrados de minerais pesados ​​conhecidos dos estratos arqueanos e do Proterozóico inferior. Davidson 4 estudou concentrados de minerais pesados ​​de aspecto completamente moderno em estratos quase contemporâneos aos concentrados instáveis. Se a deposição ocorrer sob uma atmosfera redutora, espera-se que todos os sedimentos contenham pirita. Os concentrados normalmente oxidados poderiam ser mais bem usados ​​para argumentar a favor da atmosfera oxidante com os conjuntos instáveis ​​sendo acumulados sob condições localmente redutoras.

Clemmey e Badham 5 são ousados ​​o suficiente para propor que os minerais instáveis ​​foram desagregados por intemperismo mecânico, com intemperismo químico e biológico limitado, sob uma atmosfera oxidante. O apoio vem de Zeschke 6, que mostrou que a uraninita é transportada pela água oxidante do moderno rio Indo, no Paquistão. Grandstaff 7 mostrou que os antigos placers de uraninita contêm a forma de uraninita rica em tório, que é mais estável sob as condições oxidantes modernas. A pirita também foi relatada em sedimentos aluviais modernos, especialmente em climas frios. 8 Vale ressaltar que a magnetita, um óxido de ferro instável nas condições atmosféricas modernas, é o constituinte mineral mais comum dos concentrados de areia preta nas praias modernas. Evidentemente, breves exposições a condições especiais de oxidação não são suficientes para oxidar muitos minerais instáveis. Assim, esses placers de minerais metálicos não requerem uma atmosfera redutora.

DEPÓSITOS DE FERRO

Outra evidência freqüentemente citada de uma redução precoce da atmosfera vem de antigos depósitos de minério de ferro chamados "formações de ferro em faixas". Essas são comuns nos estratos arqueano e proterozóico, sendo os mais conhecidos os minérios da região do Lago Superior. Os depósitos de ferro consistem tipicamente em lâminas finas de sílica finamente cristalina alternando com lâminas finas de minerais de ferro. Magnetita (Fe3O4), um mineral de ferro não completamente oxidado e hematita (Fe2O3), um mineral de ferro completamente oxidado, são comuns nas formações de ferro em faixas. A magnetita pode ser considerada uma mistura de partes iguais de FeO (ferro no estado ferroso menos oxidado) e Fe2O3 (ferro no estado férrico oxidado). Como a magnetita seria mais estável em uma atmosfera com pressão de oxigênio mais baixa, alguns evolucionistas argumentaram que o ferro em faixas se acumulou durante a transição de uma atmosfera redutora para uma atmosfera totalmente oxidante há cerca de 1,9 bilhão de anos. O ferro ferroso solúvel, abundante no mar redutor inicial, eles supõem, foi precipitado quando o oxigênio produziu o ferro férrico insolúvel do mar oxidante moderno.

Três problemas confrontam a hipótese de transição. Primeiro, o ferro em faixas não é direto evidência de uma atmosfera redutora apenas sugere que uma atmosfera redutora anterior pode ter existido. Outras opções são certamente possíveis. As formações de ferro contêm oxidado ferro e exigiria um oxidante atmosfera ou outra fonte abundante de oxigênio!

Um segundo problema é que as formações de ferro não registram um evento simultâneo de precipitação mundial, mas são conhecidas por ocorrerem em camadas mais antigas, quando a atmosfera deveria estar se reduzindo, e em camadas mais jovens, quando a atmosfera estava indubitavelmente oxidando. Dimroth e Kimberley 9 comparam as formações de ferro arqueano (que se acredita terem sido depositadas ao mesmo tempo que placers de minerais metálicos instáveis ​​há mais de 2,3 bilhões de anos) com as formações de ferro paleozóicas (que se acredita terem sido depositadas em uma atmosfera oxidante há menos de 0,6 bilhão de anos ) As semelhanças podem ser usadas para argumentar que a atmosfera arqueana estava se oxidando.

Um terceiro problema é que rochas sedimentares vermelhas, arenosas, chamadas de "leitos cotados", são encontradas em associação com formações ferríferas bandadas. A cor vermelha na rocha é transmitida pelo mineral de ferro totalmente oxidado hematita e as rochas são caracteristicamente deficientes em minerais de ferro não oxidados ou parcialmente oxidados (por exemplo, pirita e magnetita). Leitos vermelhos são conhecidos por ocorrer abaixo uma das maiores formações de ferro do Proterozóico do mundo e foram relatados em rochas arqueanas e do Proterozóico inferior. 10 Por sua associação com formações de ferro, leitos vermelhos também indicam condições oxidantes.

DEPÓSITOS DE SULFATO

Quando o enxofre se combina com metais em condições redutoras, o resultado são minerais de sulfeto, como a pirita (FeS2), galena (PbS) e esfalerita (ZnS). Quando o enxofre se combina com os metais em condições oxidantes, o resultado são minerais de sulfato, como a barita (BaSO4), celestita (SrSO4), anidrita (CaSO4) e gesso (CaSO42h2O). Se a Terra tivesse uma atmosfera redutora, poderíamos esperar extensos precipitados de sulfeto estratificados nas rochas sedimentares arqueanas. Eles não teriam se formado por processos de exalação vulcânica (como alguns minerais de sulfeto ainda hoje), mas diretamente da água do mar (impossível em nosso moderno oceano oxidante). Nenhum depósito deste tipo foi encontrado. Em vez disso, cama arqueana sulfato foi relatado no oeste da Austrália, África do Sul e sul da Índia. 11 A barita parece ter substituído o gesso, que era o mineral original depositado como um precipitado químico. Isso fornece evidências de antigas condições de oxidação da superfície e da oxidação das águas subterrâneas. A extensão do ambiente de sulfato oxidante e sua relação com a composição atmosférica antiga são especulações, mas, novamente, vemos evidências do oxigênio arqueano.

CRUZES DE TEMPERATURA OXIDADA

Quando um fragmento de rocha é depositado, sua superfície está em contato com o ambiente externo e pode ser alterada quimicamente. Assim, os seixos e os fluxos de lava na atmosfera moderna se modificam para formar minerais de óxido em suas superfícies. Mesmo no oceano ocorre esse desgaste. De forma semelhante, Dimroth e Kimberley 12 relatam intemperismo oxidativo de seixos ocorrendo abaixo de uma formação de ferro em faixas e descrevem crostas de intemperismo de hematita no travesseiro de basalto arqueano (que se acredita representar um fluxo de lava submarino). Novamente, o oxigênio arqueano é indicado.

Muito mais poderia ser escrito sobre a atmosfera antiga. Minerais metálicos instáveis ​​concentrados em água não são diagnósticos de condições redutoras. As muitas formas minerais de ferro ferroso e férrico nas rochas arqueanas e no Proterozóico inferior são as mais sugestivas de condições ricas em oxigênio. O sulfato nas rochas mais antigas indica oxigênio na água. Crostas desgastadas em rochas antigas parecem exigir oxigênio tanto no ar quanto na água. À pergunta, "A Terra primitiva tinha uma atmosfera redutora?", Podemos dizer que as evidências de redução não foram documentadas nas rochas. Um evolucionista pode sustentar que uma atmosfera redutora existia antes de quaisquer rochas disponíveis para estudo serem formadas, mas tal crença é simplesmente uma questão de fé. A afirmação de Walker é verdadeira, “A evidência mais forte é fornecida pelas condições para a origem da vida. Uma atmosfera redutora é necessária. ”13 A prova da evolução repousa diretamente na suposição da evolução!


A busca por vida extraterrestre: uma breve história

Se (ou, como alguns diriam, _quando_) os humanos fizerem contato com a inteligência alienígena, os cientistas que dedicam suas carreiras à pesquisa serão nosso primeiro ponto de contato. Aqui, olhamos para a história de uma das fascinações mais persistentes da humanidade

Desde que os humanos olharam para o céu noturno em busca de um significado divino e um lugar no universo, permitimos que nossas mentes vagassem em pensamentos de mundos distantes povoados por seres diferentes de nós. Os antigos gregos foram os primeiros pensadores ocidentais a considerar formalmente a possibilidade de um universo infinito abrigar um número infinito de civilizações.Muito mais tarde, no século 16, o modelo copernicano de um sistema solar heliocêntrico abriu a porta para todos os tipos de meditações extraterrestres (uma vez que a Terra não estava mais no centro da criação e era apenas um corpo em uma vasta nuvem de objetos celestes, quem diria que Deus não colocou em movimento outros mundos que sustentam a vida?) Embora essa linha de pensamento nunca tenha agradado à igreja, a especulação sobre a vida alienígena acompanhou a investigação científica durante o Iluminismo e até o século XX.

Mas foi só no final da década de 1950 que alguém propôs uma maneira confiável de procurar esses vizinhos distantes e hipotéticos. A era espacial havia surgido e a ciência estava ansiosa para saber o que estava à espreita além dos confins de nossa atmosfera tênue e isolante. Os russos haviam, em 1957 e 1958, lançado os três primeiros Sputnik satélites em órbita terrestre que os Estados Unidos estavam prestes a lançar em 1960 o sucesso Pioneer 5 sonda interplanetária em direção a Vênus. Estávamos preparando máquinas para viajar mais longe do que a maioria de nós poderia imaginar, mas no contexto das vastas extensões do espaço sideral, não chegaríamos mais perto de sistemas planetários desconhecidos do que se nunca tivéssemos deixado a Terra.

Nossa única estratégia era esperar que a vida inteligente tivesse se enraizado em outro lugar e evoluído muito além de nossas capacidades tecnológicas - a ponto de elas poderia ligar nós através das planícies vazias do espaço. Nosso desafio era descobrir qual telefone poderia estar tocando e como atendê-lo exatamente. E então foi em meados de setembro de 1959 que dois jovens físicos da Universidade Cornell escreveram um artigo de duas páginas em Natureza revista intitulada & # 8220Searching for Interstellar Communications. & # 8221 Com isso, a busca moderna por vida extraterrestre nasceu, e a vida na Terra nunca mais seria a mesma.

_Abra a galeria para ver como a busca começou e aonde ela nos levará a seguir._

O Nascimento do SETI

Giuseppe Cocconi e Philip Morrison - dois físicos da Cornell - começaram seu artigo de 1959 em Natureza para ser franco: não podemos estimar com segurança a probabilidade de vida inteligente no universo, mas também não podemos descartar a possibilidade disso. Nós evoluímos e somos inteligentes, então não seria lógico que civilizações alienígenas pudessem surgir em planetas ao redor de outras estrelas semelhantes ao sol? Com toda a probabilidade, algumas dessas civilizações seriam mais antigas e mais avançadas do que a nossa e reconheceriam nosso Sol como uma estrela que poderia ser hospedeira de vida, com a qual eles gostariam de fazer contato. A questão central do jornal era então: como os seres enviariam sua mensagem? As ondas eletromagnéticas foram a escolha mais lógica. Eles viajam na velocidade da luz e não se dispersam nas tremendas distâncias entre as estrelas. Mas com que frequência? O espectro eletromagnético é muito amplo para ser varrido em sua totalidade, então eles fizeram uma suposição que permaneceu central para a pesquisa SETI desde então. Eles escutariam a 1420 MHz, que é a frequência de emissão do hidrogênio, o elemento mais abundante no universo. Eles raciocinaram que era a única semelhança astronômica óbvia que compartilharíamos com uma civilização desconhecida e que eles também a reconheceriam.

A Equação de Drake

Apenas alguns anos depois, em 1961, as suposições nebulosas que Cocconi e Morrison desenvolveram em seu artigo obtiveram uma equação matemática genuína. Frank Drake [com a equação, à esquerda], junto com um punhado de outros astrônomos e cientistas (incluindo Carl Sagan) se reuniram em Green Bank, Virgínia Ocidental, para descobrir a fórmula e as variáveis ​​necessárias para fazer uma estimativa fundamentada de quantas civilizações inteligentes pode estar vivendo em nossa galáxia. Acontece que atribuir números a suposições nebulosas fornece uma resposta com variância suficiente para fazer você se perguntar se você estava realmente esclarecendo essas suposições em primeiro lugar. O grupo chegou a uma faixa de menos de mil a quase um bilhão. Você pode pensar que a fórmula teria sido aprimorada ao longo dos anos, mas não é o caso. Ela se manteve surpreendentemente bem (embora, para uma equação tão nebulosa, & # 8220 erguida & # 8221 seja uma frase relativa). Os dados coletados desde 1960, que podem ser usados ​​para apoiar as estimativas originais de quantidades mensuráveis, como a frequência com que estrelas semelhantes ao Sol se formam e quantas dessas estrelas têm planetas, provaram que essas estimativas são relativamente precisas. O resto das variáveis ​​nunca serão quantificadas, como que fração da vida evolui para se tornar inteligente e qual é a média de vida de uma civilização inteligente. Ainda assim, a equação tem servido como um ponto focal para as investigações do SETI ao longo dos anos e continua a ser uma estrutura valiosa, embora controversa.

Astrobiologia

Quando não estamos procurando por faróis de formas de vida inteligentes no espaço profundo, nossos estudos no reino da vida extraterrestre se voltam para dentro. Como se originou a vida na Terra? Como se originou a vida inteligente na Terra? Essas são duas das questões-chave no cerne do campo interdisciplinar conhecido como astrobiologia. Embora muito do trabalho dos astrobiólogos possa ser especulativo - extrapolando o que pode estar em outro lugar do que sabemos ser na Terra - essa especulação deve primeiro vir de uma pesquisa sólida sobre o que vemos ao nosso redor. Pelo que sabemos da vida, geralmente presume-se que os extraterrestres serão baseados em carbono, precisarão da presença de água líquida e existirão em um planeta ao redor de uma estrela parecida com o sol. Os astrobiólogos usam essas diretrizes como ponto de partida para olhar para fora. Claro, a disciplina inclui astronomia e geologia tradicionais também. Esses são campos necessários para entender onde devemos procurar vida fora da Terra e quais propriedades devemos buscar ao estudar as estrelas e seus planetas. Enquanto os astrobiólogos procuram profundamente no espaço em busca de evidências de todas essas coisas, o maior objeto de estudo está atualmente bem em nosso quintal literal: Marte.

Vida em Marte

Podemos presumir com segurança que não encontraremos nenhum homenzinho verde em Marte. Provavelmente, também, não encontraremos nenhum ser humanoide cinza com olhos de ônix preto em forma de amêndoa e crânios alongados. Mas as chances são boas de que possamos encontrar vida alienígena na forma de bactérias ou extremófilos, que são organismos semelhantes a bactérias que podem viver em ambientes aparentemente inóspitos. Enviamos uma variedade de sondas, sondas e orbitadores a Marte, do Mariner 4 em 1965 à missão Phoenix, que pousou na região polar do planeta & # 8217 em maio passado e continua a enviar uma tremenda quantidade de dados. O que estamos procurando antes de mais nada é água, seja líquida ou gelo, uma das três chaves para a vida extraterrestre. & # 8220Acho que é & # 8217s provavelmente a melhor aposta para a vida nas proximidades & # 8221 diz o Dr. Seth Shostak, Astrônomo Sênior do Instituto SETI. & # 8220Você pode argumentar que algumas das luas de Júpiter - Europa, Ganimedes, Calisto - ou Titã e Enceladus, essas luas de Saturno, podem ter vida. Mesmo Vênus pode ter vida na atmosfera superior. Tudo isso é possível porque todos esses são mundos que podem ter água líquida. Marte você pode ver coisas no chão, você pode cavar na terra, então temos muitas pessoas que se preocupam com Marte. Eles estão procurando por vida e esperamos que seja um dos lugares certos. & # 8221 Mesmo sem visitar o planeta vermelho, os cientistas têm examinado meteoritos de Marte, traçando linhas finas nas rochas que teorizaram terem sido deixadas por bactérias. As trilhas não contêm DNA, entretanto, a teoria permanece sem comprovação.

Projeto Ciclope

Cocconi e Morrison & # 8217s artigo de 1959 sobre uma busca sistemática por vida inteligente levou mais de uma década para filtrar as várias artérias dos programas exploratórios florescentes da NASA antes de tomar a forma de uma equipe de pesquisa formalizada. Conhecido como Projeto Ciclope, a equipe e seu documento de relatório resultante foram a primeira investigação em larga escala em SETI prático. Ele delineou muitas das mesmas conclusões que Cocconi e Morrison chegaram: que o SETI era um empreendimento científico legítimo e que deveria ser feito na extremidade de baixa frequência do espectro de microondas. O que não foi vantajoso para o empreendimento foi o escopo de custo, escala e cronograma do relatório. Ele exigia um orçamento de 6 a 10 bilhões de dólares para construir e manter um grande conjunto de radiotelescópios por 10 a 15 anos. Também observou o fato de que a busca provavelmente levaria décadas para ser bem-sucedida, exigindo & # 8220 um compromisso de financiamento de longo prazo. & # 8221 Certamente esse foi o toque de morte do projeto & # 8217 e, de fato, o financiamento para o Projeto Ciclope foi encerrado em breve após a emissão do relatório. Demoraria 21 anos até que a NASA finalmente implementasse um programa SETI funcional, chamado High Resolution Microwave Survey Targeted Search (HRMS). Mas, como seu antecessor, teria vida excepcionalmente curta, perdendo financiamento operacional quase um ano depois do dia seguinte, em outubro de 1993.

Pioneer Plaques (Pioneers 10 e 11)

Como a busca por sinais de vida inteligente estava ganhando credibilidade no final dos anos 60 e início dos 70, planos estavam em andamento para enviar nossas próprias mensagens. A missão do Pioneer 10 e 11 as naves espaciais em 1973 deveriam explorar o Cinturão de Asteróides, Júpiter e Saturno após esse ponto, eles continuariam suas trajetórias passando por Plutão e no meio interestelar. Com esse curso distante em mente, Carl Sagan foi abordado para projetar uma mensagem que uma raça alienígena pudesse decifrar se qualquer uma das naves fosse um dia interceptada. Junto com Frank Drake, Sagan projetou uma placa [à esquerda] que mostra as figuras de um homem e uma mulher em escala com uma imagem da espaçonave, um diagrama do comprimento de onda e frequência do hidrogênio e uma série de mapas detalhando a localização do nosso Sol, sistema solar e o caminho do Pioneiro assumiu seu caminho para fora. Era um pictograma projetado para amontoar o máximo de informações possível no menor espaço e, ao mesmo tempo, ser legível, mas foi criticado por ser muito difícil de decodificar. Enquanto o Pioneer 10 tornou-se o primeiro objeto feito pelo homem a deixar o sistema solar em 1983, levará pelo menos dois milhões de anos antes que qualquer um deles alcance outra estrela.

Mensagem de Arecibo

Desde o advento de poderosas antenas de transmissão de rádio e televisão, a Terra tem sido um lugar relativamente barulhento. Sinais de notícias e entretenimento durante décadas foram lançados nas camadas superiores de nossa atmosfera, com muitos vazando de todas as maneiras para o espaço. Quem não for atraído por nossas TVs poderá um dia alcançar estrelas distantes, em uma espécie de boletim disperso anunciando nossa presença por meio de Eu amo Lucy e Seinfeld. (Uma consequência não intencional das transmissões por satélite e cabo é o fim gradual dos sinais de rádio de alta potência, tornando a Terra um lugar muito mais difícil de & # 8220ouvir & # 8221 para quem está ouvindo.) Em 1974, no entanto, uma mensagem formalizada foi transmitida do telescópio Arecibo recentemente renovado em Porto Rico. Novamente projetado por Drake e Sagan, o sinal de rádio binário [à esquerda] continha informações sobre a composição de nosso DNA e pictogramas de um homem, o sistema solar e o telescópio de Arecibo. A transmissão foi, em última análise, mais uma demonstração simbólica do poder do novo equipamento Arecibo do que uma tentativa sistemática de fazer contato com ET. O aglomerado de estrelas para o qual o sinal foi enviado foi escolhido em grande parte porque estaria no céu durante a cerimônia de remodelação em que a transmissão ocorreria. Além do mais, o aglomerado terá se movido para fora do alcance do feixe durante os 25.000 anos em que a mensagem levará para chegar lá. Foi uma indicação de que provavelmente não estaríamos no negócio de enviar mensagens, pois era muito mais barato e fácil usar radiotelescópios para ouvir, em vez de falar. Mas Sagan e Drake teriam mais uma chance de comunicação no espaço profundo em 1977 com o lançamento do Viajante sondas.

Voyager Golden Records (Voyagers 1 e 2)

Enquanto as Placas Pioneer foram concebidas durante uma linha do tempo compactada de três semanas e a Mensagem de Arecibo foi enviada de acordo com o cronograma de um coquetel, os Registros de Ouro da Voyager foram concebidos para ser um breve compêndio da experiência humana na Terra e assim receberam o tempo e recursos do comitê da NASA para torná-los excepcionais. Os discos de ouro contêm 115 imagens de vídeo, saudações faladas em 55 idiomas, 90 minutos de música de todo o mundo, bem como uma seleção de sons naturais como canto de pássaros, surf e trovão. Mais uma vez, o hidrogênio é a chave para desbloquear as mensagens; o mesmo diagrama de estados mais baixos que apareceu nas Placas Pioneer está aqui descrevendo o mapa que localiza o Sol na Via Láctea. Informa ao descobridor como reproduzir o registro, em que velocidade e o que esperar ao procurar as imagens de vídeo. Ele até mesmo foi eletrodepositado com uma amostra de urânio para que sua meia-vida fosse datada em um futuro distante. Desde o Viajante as sondas estão se movendo muito mais devagar do que as ondas de rádio, o que levará quase o dobro do tempo da Mensagem de Arecibo para alcançar suas estrelas-alvo. Mesmo assim, depois de 40.000 anos, eles só chegarão a um ano-luz e meio de distância. Isso equivale a cerca de 130 vezes a distância de Plutão do nosso sol. É um eufemismo dizer que qualquer um desses faróis que enviamos tem uma chance muito remota de alcançar uma civilização inteligente, se uma existir e por acaso existir na direção geral em que estão viajando. É um lembrete de quão desumanas as escalas se tornam quando medimos as distâncias no espaço sideral e tentamos encontrar maneiras de superá-las em nossa busca por outros como nós.

Meteoritos

Enquanto os astrobiólogos contemplam a origem da vida em nosso planeta, eles freqüentemente procuram fontes externas para os ingredientes. Asteróides, cometas e meteoritos são as antigas relíquias do nascimento de nosso sistema solar. Eles são as partes geladas e rochosas voando ao redor, chocando-se umas com as outras e em luas e planetas, entregando minerais, água e, como se constatou, aminoácidos. São os aminoácidos - vinte em particular - que são a base para a formação de proteínas, que por sua vez são a base para a vida. Até agora, descobrimos apenas oito desses vinte em meteoritos. Onde os outros se formaram pode ser um dos segredos da vida na Terra e possivelmente da vida em outros planetas. No histórico experimento Miller-Urey de 1953, uma mistura de água e os elementos de uma atmosfera primordial foram misturados e eletrificados para simular a sopa da Terra primitiva. No final de uma semana, os aminoácidos foram formados. Claro, há uma miríade de outros processos desconhecidos que precisam ocorrer para nos levar dos aminoácidos à vida. Como disse o Dr. Seth Shostak do SETI Institute, & # 8220 só porque você tem uma olaria em seu quintal não significa que você & # 8217 verá um arranha-céu aparecer um dia. & # 8221

Extremófilos

Estudar extremófilos pode ser o mais próximo que chegamos de estudar alienígenas antes de realmente encontrarmos vida extraterrestre. Extremófilos são organismos que vivem em ambientes inóspitos para todas as outras formas de vida como as conhecemos. Alguns podem até exigir fisicamente esses extremos de temperatura, pressão e acidez para sobreviver. Eles foram encontrados quilômetros abaixo da superfície do oceano e no topo do Himalaia, dos pólos ao equador, em temperaturas que variam de quase zero absoluto a mais de 300 graus Fahrenheit. A maioria dos extremófilos são microrganismos unicelulares, como o domínio Archea, cujos membros podem representar 20 por cento da biomassa da Terra. Esse é o tipo de criatura que esperaríamos encontrar em Marte. Mas talvez os mais extraterrestres de todos os extremófilos conhecidos pelo homem sejam os tardígrados de um milímetro de comprimento, ou ursos d'água [à esquerda], assim chamados porque têm a capacidade de sofrer criptobiose. É uma forma extrema de hibernação durante a qual toda a atividade metabólica chega a uma paralisação quase completa e permite que os animais sobrevivam a tudo, desde doses massivamente fatais de radiação (para humanos) ao vácuo do espaço. Alguns argumentam que este estado suspenso não qualifica tecnicamente os tardígrados como extremófilos porque eles não estão prosperando nesses ambientes, eles estão apenas se protegendo da morte. No entanto, quanto mais entendemos sobre a capacidade desses organismos & # 8217 de resistir a ambientes considerados inóspitos à vida, mais perto podemos chegar de descobri-los fora de nosso planeta.

O Wow! Sinal

Embora a NASA tenha matado o Projeto Ciclope antes de começar, isso não significava que ninguém estava ouvindo o cosmos durante os anos 1970. Vários projetos SETI de pequena escala existiam em todo o país e em todo o mundo, muitos deles operando com equipamentos universitários. Um dos mais proeminentes - e mais antigos no trabalho do SETI - foi o radiotelescópio Big Ear operado pela Ohio State University. O Big Ear tinha o tamanho de três campos de futebol e parecia um enorme estacionamento prateado com andaimes para enormes telas de cinema drive-in em cada extremidade. Em 15 de agosto de 1977, o Big Ear recebeu um sinal por 72 segundos que saiu tão longe das cartas que o astrônomo monitorando as impressões do sinal circulou a sequência alfanumérica e escreveu & # 8220Wow! & # 8221 na margem. O padrão do sinal aumentava e diminuía perfeitamente em sincronia com a maneira como o telescópio se movia através de seu feixe de foco. À medida que aparecia, ficava cada vez mais forte. Se o sinal fosse terrestre, teria chegado com força total. Foi o melhor que alguém já tinha visto. Infelizmente, dois outros atributos do Wow! sinal funcionou contra ele ser um farol ET legítimo. O primeiro tinha a ver com como o Big Ear coletava as ondas de rádio. Ele usava dois coletores, com espaçamento de três minutos, lado a lado. Qualquer sinal captado pelo primeiro teria que ser captado pelo segundo três minutos depois, mas esse não foi o caso com o Wow! sinal. Apenas o primeiro chifre o pegou. Ainda mais desanimador, não foi visto desde então. Muitas operações tentaram, usando equipamentos mais sensíveis e concentrando-se por muito mais tempo na suposta fonte, sem sucesso.

Projeto Phoenix e o Instituto SETI

NASA & # 8217s High Resolution Microwave Survey A busca direcionada realmente nunca teve uma chance. Assim que começou em 1992, os membros do Congresso começaram a considerá-lo um desperdício do dinheiro do contribuinte e considerá-lo frívolo (embora representasse menos de 0,1% do orçamento operacional anual da NASA). Quando foi cancelado no outono de 1993, o Instituto SETI mudou-se para salvar a equipe central de ciência e engenharia e continuar o trabalho sob seus auspícios. Ele foi renomeado como Projeto Phoenix e funcionou por uma década, de 1994 a 2004, inteiramente com financiamento de doações privadas.O projeto usou uma variedade de grandes telescópios de todo o mundo para conduzir suas pesquisas, observando cerca de 800 estrelas em uma vizinhança de até 240 anos-luz de distância. Depois de varrer um bilhão de canais de frequência para cada uma das 800 estrelas ao longo de 11.000 horas de observação, o programa terminou sem ter detectado um sinal ET viável.

SETI @ home na UC Berkeley

Se você sabe alguma coisa sobre o SETI e tem uma certa idade, é provável que saiba por causa do projeto SETI @ home da Universidade da Califórnia, Berkeley. SETI @ home foi um dos primeiros projetos de computação distribuída de sucesso. O conceito por trás desses projetos funciona assim: pesquisadores que têm enormes quantidades de dados brutos e nenhuma maneira possível de processá-los por conta própria, dividem-nos em pequenos pedaços e os terceirizam. Quando você se inscreve em um projeto distribuído, seu computador pega um desses pedaços e trabalha nele quando não está ocupado, por exemplo, quando você sai de sua mesa para tomar um café ou almoçar. Quando o computador termina, ele envia aquele pedaço de volta e pede outro. Como um todo, os projetos de computação distribuída são capazes de aproveitar uma quantidade de capacidade de processamento que de outra forma seria impossível. O projeto SETI @ home atualmente obtém todos os seus dados do radiotelescópio de Arecibo. Ele pega carona em outras pesquisas astronômicas, coletando sinais de onde quer que o telescópio esteja apontado durante os breves momentos em que não está sendo usado. Embora o projeto ainda não tenha detectado um sinal ET, foi tremendamente benéfico ao provar que as soluções de computação distribuída funcionam e funcionam bem, tendo registrado mais de dois milhões de anos de tempo de computação agregado.

Observatório do Vaticano

Galileu não foi o único astrônomo a ter sido acusado pela Igreja Católica de heresia por suas crenças em um universo heliocêntrico. Giordano Bruno foi queimado na fogueira no século 16 por argumentar que cada estrela tinha seu próprio sistema planetário. Quão longe a Igreja avançou, então, com o anúncio no início deste ano do Observatório do Vaticano de que você pode acreditar em Deus e nos estrangeiros e não é uma contradição na fé. O reverendo Joes Gabriel Funes, diretor do Observatório, afirma que o tamanho do universo aponta para a possibilidade de vida extraterrestre. Como um ET faria parte da criação, eles seriam considerados criaturas de Deus.

Planetas Extrassolares

Se pudesse ser dito que uma única descoberta deu o pontapé inicial na busca por planetas extrasolares, seria a de 51 Pegasi b [esquerda], em 1995. Foi o primeiro planeta extrasolar a ser encontrado orbitando uma estrela normal e foi descoberto usando o mesmo efeito Doppler que experimentamos todos os dias quando uma sirene passa por nós em alta velocidade. Era uma notícia popular na época - finalmente tivemos a confirmação de que apenas pode ser nosso sistema solar não era único. Desde aquele dia, aprendemos o quão comum, de fato, nosso sistema pode ser. No início de junho de 2008, o número de planetas extra-solares confirmados era de quase 300; ele sobe exponencialmente a cada ano à medida que nossas tecnologias de detecção ficam mais sofisticadas. Para ter certeza, a grande maioria desses planetas são gigantes gasosos em órbitas próximas e curtas em torno de suas estrelas - não o tipo de corpo celeste no qual esperamos encontrar vida. Isso não quer dizer que planetas terrestres semelhantes à Terra também não existam. É apenas que os gigantes gasosos são muito mais fáceis de & # 8220 ver & # 8221 quando procuramos, porque eles tendem a girar em torno de suas estrelas-mãe em questão de dias. Observamos essas estrelas em busca de variações na forma como emitem luz, mas não identificamos realmente os planetas porque eles têm magnitudes muito mais fracas do que suas estrelas-mãe. Os gigantes gasosos são grandes o suficiente e se movem rapidamente para produzir um efeito perceptível em suas estrelas daqui da Terra, mas para um planeta semelhante ao tamanho da Terra, esse não é o caso. Para encontrar um planeta do tamanho da Terra, precisaríamos observar uma estrela sem parar por anos a fio e ser capazes de detectar a mais leve mudança no brilho à medida que o planeta passasse na frente dela (conhecido como trânsito). Felizmente para os entusiastas do SETI, a NASA tem exatamente essa missão em sua programação para lançamento no próximo ano.

A missão Kepler

Procurar planetas é necessariamente um trabalho árduo. No esquema astronômico das coisas, a maioria dos planetas são muito pequenos e os planetas semelhantes à Terra são tremendamente, até mesmo imperceptivelmente pequenos. É difícil o suficiente para os astrônomos detectar planetas na escala de Júpiter, quase impossível encontrar uma Terra, cerca de 1.000 vezes menor. A missão Kepler da NASA e # 8217s é a solução para esse problema. É um telescópio espacial [à esquerda] projetado para apontar para um campo de estrelas em nossa galáxia por quase quatro anos, nunca oscilando daquele único ponto de foco, monitorando continuamente o brilho de mais de 100.000 estrelas. A ideia por trás da missão é usar o método de trânsito de descoberta para encontrar planetas extrasolares como a Terra. Um trânsito ocorre quando um planeta passa entre sua estrela e o observador (o telescópio Kepler), durante o qual a estrela parece momentaneamente escurecer, durando de 2 a 16 horas. É claro que a órbita do planeta deve ser alinhada ao nosso plano de visão, as chances de que são 0,5 por cento para qualquer estrela semelhante ao sol. Mas com o rastreamento de 100.000 estrelas, a NASA espera no mínimo detectar 50 planetas do tamanho da Terra até que a missão seja concluída, mais se os planetas observáveis ​​provarem ser até duas vezes maiores que a Terra.

Conteúdo

Proposta de Pauli Editar

O neutrino [a] foi postulado pela primeira vez por Wolfgang Pauli em 1930 para explicar como o decaimento beta poderia conservar energia, momento e momento angular (spin). Em contraste com Niels Bohr, que propôs uma versão estatística das leis de conservação para explicar os espectros de energia contínua observados no decaimento beta, Pauli hipotetizou uma partícula não detectada que ele chamou de "nêutron", usando o mesmo -sobre terminação empregada para nomear o próton e o elétron. Ele considerou que a nova partícula foi emitida do núcleo junto com o elétron ou partícula beta no processo de decaimento beta. [16] [b]

James Chadwick descobriu uma partícula nuclear neutra muito mais massiva em 1932 e a chamou de nêutron também, deixando dois tipos de partículas com o mesmo nome. Anteriormente (em 1930), Pauli havia usado o termo "nêutron" tanto para a partícula neutra que conservava energia no decaimento beta quanto para uma partícula suposta neutra no núcleo, inicialmente, ele não considerou essas duas partículas neutras como distintas uma da outra. [16] A palavra "neutrino" entrou no vocabulário científico através de Enrico Fermi, que a usou durante uma conferência em Paris em julho de 1932 e na Conferência Solvay em outubro de 1933, onde Pauli também a empregou. O nome (o equivalente italiano de "pequeno neutro") foi cunhado de brincadeira por Edoardo Amaldi durante uma conversa com Fermi no Instituto de Física de via Panisperna em Roma, a fim de distinguir esta partícula neutra leve do nêutron pesado de Chadwick. [17]

Na teoria do decaimento beta de Fermi, a grande partícula neutra de Chadwick poderia decair para um próton, elétron e a partícula neutra menor (agora chamada de elétron antineutrino):

O artigo de Fermi, escrito em 1934, unificou o neutrino de Pauli com o pósitron de Paul Dirac e o modelo nêutron-próton de Werner Heisenberg e deu uma base teórica sólida para futuros trabalhos experimentais. O jornal Natureza rejeitou o artigo de Fermi, dizendo que a teoria era "muito distante da realidade". Ele submeteu o artigo a um jornal italiano, que o aceitou, mas a falta geral de interesse em sua teoria naquela época o levou a mudar para a física experimental. [18]: 24 [19]

Em 1934, havia evidências experimentais contra a ideia de Bohr de que a conservação de energia é inválida para o decaimento beta: Na conferência Solvay daquele ano, as medições dos espectros de energia das partículas beta (elétrons) foram relatadas, mostrando que há um limite estrito no energia dos elétrons de cada tipo de decaimento beta. Esse limite não é esperado se a conservação de energia for inválida, caso em que qualquer quantidade de energia estaria estatisticamente disponível em pelo menos alguns decaimentos. A explicação natural do espectro de decaimento beta medido pela primeira vez em 1934 era que apenas uma quantidade limitada (e conservada) de energia estava disponível, e uma nova partícula às vezes tomava uma fração variável desta energia limitada, deixando o resto para a partícula beta . Pauli aproveitou a ocasião para enfatizar publicamente que o "neutrino" ainda não detectado deve ser uma partícula real. [18]: 25 A primeira evidência da realidade dos neutrinos veio em 1938 por meio de medições simultâneas do elétron na câmara de nuvens e do recuo do núcleo. [20]

Detecção direta Editar

Em 1942, Wang Ganchang propôs pela primeira vez o uso de captura beta para detectar neutrinos experimentalmente. [21] Na edição de 20 de julho de 1956 da Ciência, Clyde Cowan, Frederick Reines, Francis B. "Kiko" Harrison, Herald W. Kruse e Austin D. McGuire publicaram a confirmação de que haviam detectado o neutrino, [22] [23] um resultado que foi recompensado quase quarenta anos depois com o Prêmio Nobel de 1995. [24]

Neste experimento, agora conhecido como experimento de neutrino de Cowan-Reines, os antineutrinos criados em um reator nuclear por decaimento beta reagiram com prótons para produzir nêutrons e pósitrons:

O pósitron encontra rapidamente um elétron e eles se aniquilam. Os dois raios gama resultantes (γ) são detectáveis. O nêutron pode ser detectado por sua captura em um núcleo apropriado, liberando um raio gama. A coincidência de ambos os eventos - aniquilação de pósitrons e captura de nêutrons - dá uma assinatura única de uma interação antineutrino.

Em fevereiro de 1965, o primeiro neutrino encontrado na natureza foi identificado por um grupo que incluía Jacques Pierre Friederich (Friedel) Sellschop. [25] O experimento foi realizado em uma câmara especialmente preparada a uma profundidade de 3 km na mina de ouro East Rand ("ERPM") perto de Boksburg, África do Sul. Uma placa no prédio principal comemora a descoberta. Os experimentos também implementaram uma astronomia de neutrinos primitiva e examinaram questões de física de neutrinos e interações fracas. [26]

Edição de sabor de neutrino

O antineutrino descoberto por Cowan e Reines é a antipartícula do neutrino do elétron.

Em 1962, Leon M. Lederman, Melvin Schwartz e Jack Steinberger mostraram que mais de um tipo de neutrino existe detectando primeiro as interações do neutrino do múon (já hipotetizado com o nome neutretto), [27] que lhes valeu o Prêmio Nobel de Física em 1988.

Quando o terceiro tipo de leptão, o tau, foi descoberto em 1975 no Stanford Linear Accelerator Center, também se esperava que tivesse um neutrino associado (o neutrino do tau). A primeira evidência para este terceiro tipo de neutrino veio da observação da falta de energia e momento em decaimentos tau análogos ao decaimento beta que leva à descoberta do neutrino do elétron. A primeira detecção de interações de neutrino tau foi anunciada em 2000 pela colaboração DONUT no Fermilab e sua existência já havia sido inferida tanto pela consistência teórica quanto pelos dados experimentais do Grande Colisor Eletron-Pósitron. [28]

Neutrino solar problema Editar

Na década de 1960, o agora famoso experimento Homestake fez a primeira medição do fluxo de neutrinos de elétrons vindos do núcleo do Sol e encontrou um valor que estava entre um terço e metade do número previsto pelo Modelo Solar Padrão. Esta discrepância, que ficou conhecida como o problema do neutrino solar, permaneceu sem solução por cerca de trinta anos, enquanto possíveis problemas com o experimento e o modelo solar foram investigados, mas nenhum foi encontrado. Eventualmente, percebeu-se que ambos estavam realmente corretos e que a discrepância entre eles se devia ao fato de os neutrinos serem mais complexos do que se supunha anteriormente. Postulou-se que os três neutrinos tinham massas diferentes de zero e ligeiramente diferentes e, portanto, podiam oscilar em sabores indetectáveis ​​em seu voo para a Terra. Essa hipótese foi investigada por uma nova série de experimentos, abrindo assim um novo campo importante de pesquisa que ainda continua. A confirmação eventual do fenômeno da oscilação do neutrino levou a dois prêmios Nobel, a Raymond Davis, Jr., que concebeu e liderou o experimento Homestake, e a Art McDonald, que liderou o experimento SNO, que pôde detectar todos os sabores de neutrino e encontrar sem déficit. [29]

Oscilação Editar

Um método prático para investigar as oscilações de neutrinos foi sugerido pela primeira vez por Bruno Pontecorvo em 1957 usando uma analogia com as oscilações de Kaon ao longo dos 10 anos subsequentes. Ele desenvolveu o formalismo matemático e a formulação moderna das oscilações de vácuo. Em 1985, Stanislav Mikheyev e Alexei Smirnov (expandindo o trabalho de Lincoln Wolfenstein em 1978) notaram que as oscilações do sabor podem ser modificadas quando os neutrinos se propagam através da matéria. É importante entender o chamado efeito Mikheyev-Smirnov-Wolfenstein (efeito MSW) porque muitos neutrinos emitidos pela fusão no Sol passam pela matéria densa no núcleo solar (onde essencialmente toda a fusão solar ocorre) em seu caminho para os detectores na terra.

A partir de 1998, experimentos começaram a mostrar que os neutrinos solares e atmosféricos mudam os sabores (ver Super-Kamiokande e Sudbury Neutrino Observatory). Isso resolveu o problema do neutrino solar: os neutrinos de elétrons produzidos no Sol haviam se transformado parcialmente em outros sabores que os experimentos não puderam detectar.

Embora experimentos individuais, como o conjunto de experimentos de neutrinos solares, sejam consistentes com mecanismos não oscilatórios de conversão do sabor de neutrino, tomados em conjunto, os experimentos de neutrino implicam na existência de oscilações de neutrino. Especialmente relevantes neste contexto são os experimentos com reator KamLAND e os experimentos com aceleradores como o MINOS. O experimento KamLAND de fato identificou as oscilações como o mecanismo de conversão do sabor do neutrino envolvido nos neutrinos do elétron solar. Da mesma forma, o MINOS confirma a oscilação dos neutrinos atmosféricos e dá uma melhor determinação da divisão da massa ao quadrado. [30] Takaaki Kajita do Japão, e Arthur B. McDonald do Canadá, receberam o Prêmio Nobel de Física de 2015 por sua descoberta histórica, teórica e experimental, de que os neutrinos podem mudar os sabores.

Neutrinos cósmicos Editar

Além de fontes específicas, espera-se que um nível geral de fundo de neutrinos permeie o universo, teoricamente ocorrendo devido a duas fontes principais.

Fundo de neutrino cósmico (originado do Big Bang)

Cerca de 1 segundo após o Big Bang, os neutrinos se desacoplaram, dando origem a um nível de fundo de neutrinos conhecido como fundo de neutrino cósmico (CNB).

Fundo difuso de neutrino de supernova (originado de supernova)

Raymond Davis, Jr. e Masatoshi Koshiba foram agraciados com o Prêmio Nobel de Física de 2002. Ambos conduziram um trabalho pioneiro na detecção de neutrinos solares, e o trabalho de Koshiba também resultou na primeira observação em tempo real de neutrinos da supernova SN 1987A na vizinha Grande Nuvem de Magalhães. Esses esforços marcaram o início da astronomia de neutrinos. [31]

SN 1987A representa a única detecção verificada de neutrinos de uma supernova. No entanto, muitas estrelas transformaram-se em supernovas no universo, deixando um fundo de neutrino de supernova difuso teorizado.

Sabor, massa e sua mistura Editar

As interações fracas criam neutrinos em um dos três sabores leptônicos: neutrinos de elétrons (
ν
e ), neutrinos do múon (
ν
µ ), ou neutrinos tau (
ν
τ ), associado aos léptons carregados correspondentes, o elétron (
e -
), múon (
μ -
), e tau (
τ -
), respectivamente. [32]

Embora por muito tempo se acreditasse que os neutrinos não tinham massa, agora se sabe que existem três massas discretas de neutrinos, cada estado de sabor de neutrino é uma combinação linear dos três autoestados discretos de massa. Embora apenas diferenças de quadrados dos três valores de massa sejam conhecidas em 2016, [8] experimentos mostraram que essas massas são minúsculas em magnitude. A partir de medições cosmológicas, foi calculado que a soma das três massas de neutrinos deve ser inferior a um milionésimo da do elétron. [1] [9]

Mais formalmente, os estados próprios de sabor de neutrino (combinações de criação e aniquilação) não são os mesmos que os estados próprios de massa de neutrino (simplesmente rotulados como "1", "2" e "3"). A partir de 2016, não se sabe qual dos três é o mais pesado. Em analogia com a hierarquia de massa dos léptons carregados, a configuração com a massa 2 sendo mais leve do que a massa 3 é convencionalmente chamada de "hierarquia normal", enquanto na "hierarquia invertida", o oposto seria válido. Vários grandes esforços experimentais estão em andamento para ajudar a estabelecer o que é correto. [33]

Um neutrino criado em um estado próprio de sabor específico está em uma superposição quântica específica associada de todos os três estados próprios de massa. Isso é possível porque as três massas diferem tão pouco que não podem ser distinguidas experimentalmente em nenhuma trajetória de vôo prática, devido ao princípio da incerteza. Verificou-se que a proporção de cada estado de massa no estado de sabor puro produzido depende profundamente desse sabor. A relação entre o sabor e os auto-estados de massa é codificada na matriz PMNS. Experimentos estabeleceram valores para os elementos desta matriz. [8]

Uma massa diferente de zero permite aos neutrinos possivelmente ter um minúsculo momento magnético. Se assim for, os neutrinos interagiriam eletromagneticamente, embora nenhuma interação desse tipo tenha sido observada. [34]

Editar oscilações de sabor

Os neutrinos oscilam entre diferentes sabores durante o voo. Por exemplo, um neutrino de elétron produzido em uma reação de decaimento beta pode interagir em um detector distante como um neutrino de muon ou tau, conforme definido pelo sabor do leptão carregado produzido no detector. Essa oscilação ocorre porque os três componentes do estado de massa do sabor produzido viajam em velocidades ligeiramente diferentes, de modo que seus pacotes de ondas da mecânica quântica desenvolvem mudanças de fase relativas que mudam como eles se combinam para produzir uma superposição variável de três sabores. Cada componente de sabor, portanto, oscila conforme o neutrino viaja, com os sabores variando em intensidades relativas. As proporções relativas do sabor quando o neutrino interage representam as probabilidades relativas desse sabor de interação para produzir o sabor correspondente do leptão carregado. [6] [7]

Existem outras possibilidades nas quais os neutrinos poderiam oscilar mesmo se não tivessem massa: Se a simetria de Lorentz não fosse uma simetria exata, os neutrinos poderiam experimentar oscilações violadoras de Lorentz. [35]

Efeito Mikheyev – Smirnov – Wolfenstein Editar

Os neutrinos que viajam pela matéria, em geral, passam por um processo análogo ao da luz que viaja por um material transparente. Este processo não é diretamente observável porque não produz radiação ionizante, mas dá origem ao efeito RSU. Apenas uma pequena fração da energia do neutrino é transferida para o material. [36]

Antineutrinos Editar

Para cada neutrino, também existe uma antipartícula correspondente, chamada de antineutrino, que também não tem carga elétrica e spin de meio inteiro. Eles se distinguem dos neutrinos por terem sinais opostos de número de leptões e quiralidade oposta. Em 2016, nenhuma evidência foi encontrada para qualquer outra diferença. Em todas as observações até agora de processos leptônicos (apesar de pesquisas extensas e contínuas por exceções), nunca há qualquer mudança no número leptônico geral, por exemplo, se o número leptônico total for zero no estado inicial, os neutrinos do elétron aparecem no estado final juntos com apenas pósitrons (anti-elétrons) ou antineutrinos de elétrons, e antineutrinos de elétrons com elétrons ou neutrinos de elétrons. [10] [11]

Os antineutrinos são produzidos no decaimento beta nuclear junto com uma partícula beta, na qual, por exemplo, um nêutron decai em um próton, elétron e antineutrino. Todos os antineutrinos observados até agora possuem helicidade para a mão direita (ou seja, apenas um dos dois possíveis estados de spin já foi visto), enquanto os neutrinos são canhotos. No entanto, como os neutrinos têm massa, sua helicidade depende do quadro, por isso é a propriedade independente de quadro relacionada da quiralidade que é relevante aqui.

Antineutrinos foram detectados pela primeira vez como resultado de sua interação com prótons em um grande tanque de água. Este foi instalado próximo a um reator nuclear como uma fonte controlável de antineutrinos (ver: experimento de neutrino de Cowan-Reines). Pesquisadores de todo o mundo começaram a investigar a possibilidade do uso de antineutrinos para monitoramento de reatores no contexto de prevenção da proliferação de armas nucleares. [37] [38] [39]

Edição de massa de Majorana

Como os antineutrinos e os neutrinos são partículas neutras, é possível que sejam a mesma partícula. As partículas que têm essa propriedade são conhecidas como partículas de Majorana, em homenagem ao físico italiano Ettore Majorana que propôs o conceito pela primeira vez. No caso dos neutrinos, essa teoria ganhou popularidade, pois pode ser usada, em combinação com o mecanismo de gangorra, para explicar por que as massas dos neutrinos são tão pequenas em comparação com as de outras partículas elementares, como elétrons ou quarks. Os neutrinos de Majorana teriam a propriedade de que o neutrino e o antineutrino pudessem ser distinguidos apenas pela quiralidade, o que os experimentos observam como uma diferença entre o neutrino e o antineutrino poderia ser simplesmente devido a uma partícula com duas possíveis quiralidades.

Em 2019 [atualização], não se sabe se os neutrinos são partículas de Majorana ou de Dirac. É possível testar esta propriedade experimentalmente. Por exemplo, se os neutrinos são realmente partículas de Majorana, então os processos que violam o número do leptão, como o decaimento beta duplo sem neutrinos, seriam permitidos, o que não aconteceria se os neutrinos fossem partículas de Dirac. Vários experimentos foram e estão sendo conduzidos para pesquisar este processo, por ex. GERDA, [40] EXO, [41] e SNO +, [42] e CUORE. [43] O fundo do neutrino cósmico também é uma investigação para saber se os neutrinos são partículas de Majorana, uma vez que deve haver um número diferente de neutrinos cósmicos detectados no caso de Dirac ou Majorana. [44]

Reações nucleares Editar

Neutrinos podem interagir com um núcleo, mudando-o para outro núcleo. Este processo é usado em detectores de neutrino radioquímicos. Nesse caso, os níveis de energia e os estados de spin dentro do núcleo alvo devem ser levados em consideração para estimar a probabilidade de uma interação. Em geral, a probabilidade de interação aumenta com o número de nêutrons e prótons dentro de um núcleo. [29] [45]

É muito difícil identificar com exclusividade as interações dos neutrinos entre o fundo natural da radioatividade. Por esta razão, nos primeiros experimentos, um canal de reação especial foi escolhido para facilitar a identificação: a interação de um antineutrino com um dos núcleos de hidrogênio nas moléculas de água. Um núcleo de hidrogênio é um único próton, portanto, as interações nucleares simultâneas, que ocorreriam dentro de um núcleo mais pesado, não precisam ser consideradas para o experimento de detecção. Dentro de um metro cúbico de água colocado fora de um reator nuclear, apenas relativamente poucas dessas interações podem ser registradas, mas a configuração agora é usada para medir a taxa de produção de plutônio do reator.

Edição de fissão induzida

Muito parecido com os nêutrons em reatores nucleares, os neutrinos podem induzir reações de fissão dentro de núcleos pesados. [46] Até agora, esta reação não foi medida em um laboratório, mas está prevista para acontecer dentro de estrelas e supernovas. O processo afeta a abundância de isótopos vistos no universo. [45] A fissão de neutrinos dos núcleos de deutério foi observada no Sudbury Neutrino Observatory, que usa um detector de água pesada.

Edição de Tipos

Neutrinos no modelo padrão de partículas elementares
Fermion Símbolo
Geração 1
Neutrino de elétron
ν
e
Antineutrino eletrônico
ν
e
Geração 2
Neutrino de muon
ν
µ
Muon antineutrino
ν
µ
Geração 3
Neutrino tau
ν
τ
Tau antineutrino
ν
τ

Existem três tipos conhecidos (sabores) de neutrinos: neutrino de elétron
ν
e , muon neutrino
ν
µ , e neutrino tau
ν
τ , com o nome de seus léptons parceiros no modelo padrão (consulte a tabela à direita). A melhor medição atual do número de tipos de neutrinos vem da observação do decaimento do bóson Z. Essa partícula pode se decompor em qualquer neutrino de luz e seu antineutrino, e quanto mais tipos de neutrinos de luz disponíveis, menor será o tempo de vida do bóson Z. As medições do tempo de vida Z mostraram que três sabores de neutrinos leves se acoplam ao Z. [32] A correspondência entre os seis quarks no Modelo Padrão e os seis léptons, entre eles os três neutrinos, sugere à intuição dos físicos que deveria haver exatamente três tipos de neutrino.

Existem várias áreas de pesquisa ativas envolvendo o neutrino. Alguns estão preocupados em testar as previsões do comportamento dos neutrinos. Outras pesquisas estão focadas na medição de propriedades desconhecidas de neutrinos, havendo especial interesse em experimentos que determinem suas massas e taxas de violação de CP, que não podem ser previstas a partir da teoria atual.

Detectores perto de fontes de neutrinos artificiais Editar

Colaborações científicas internacionais instalam grandes detectores de neutrino perto de reatores nucleares ou em feixes de neutrino de aceleradores de partículas para melhor restringir as massas de neutrinos e os valores para a magnitude e as taxas de oscilações entre os sabores de neutrinos. Esses experimentos buscam, portanto, a existência de violação de CP no setor de neutrinos, isto é, se as leis da física tratam neutrinos e antineutrinos de maneira diferente ou não. [8]

O experimento KATRIN na Alemanha começou a adquirir dados em junho de 2018 [47] para determinar o valor da massa do neutrino do elétron, com outras abordagens para este problema nas fases de planejamento. [1]

Efeitos gravitacionais Editar

Apesar de suas pequenas massas, os neutrinos são tão numerosos que sua força gravitacional pode influenciar outras matérias no universo.

Os três sabores de neutrino conhecidos são os únicos candidatos a partícula elementar estabelecidos para matéria escura, especificamente matéria escura quente, embora os neutrinos convencionais pareçam ser essencialmente descartados como proporção substancial de matéria escura com base em observações do fundo de microondas cósmico. Ainda parece plausível que neutrinos mais pesados ​​e estéreis possam compor matéria escura quente, se eles existirem. [48]

Procuras de neutrinos estéreis Editar

Outros esforços buscam evidências de um neutrino estéril - um quarto sabor de neutrino que não interage com a matéria como os três sabores de neutrino conhecidos. [49] [50] [51] [52] A possibilidade de estéril os neutrinos não são afetados pelas medições de decaimento do bóson Z descritas acima: Se sua massa for maior que a metade da massa do bóson Z, eles não poderiam ser um produto do decaimento. Portanto, os neutrinos estéreis pesados ​​teriam uma massa de pelo menos 45,6 GeV.

A existência de tais partículas é de fato sugerida por dados experimentais do experimento LSND. Por outro lado, o experimento MiniBooNE atualmente em execução sugeriu que os neutrinos estéreis não são necessários para explicar os dados experimentais, [53] embora as pesquisas mais recentes nesta área estejam em andamento e anomalias nos dados MiniBooNE possam permitir tipos de neutrinos exóticos, incluindo neutrinos estéreis. [54] Uma recente reanálise de dados de espectros de elétrons de referência do Institut Laue-Langevin [55] também sugeriu um quarto neutrino estéril. [56]

De acordo com uma análise publicada em 2010, os dados da Wilkinson Microwave Anisotropy Probe da radiação cósmica de fundo são compatíveis com três ou quatro tipos de neutrinos. [57]

Pesquisas de decaimento beta duplo sem neutrinos Editar

Outra hipótese diz respeito ao "decaimento beta duplo sem neutrinos", que, se existir, violaria a conservação do número de leptões. Pesquisas por esse mecanismo estão em andamento, mas ainda não foram encontradas evidências disso. Se fossem, os que hoje são chamados de antineutrinos não poderiam ser verdadeiras antipartículas.

Neutrinos de raios cósmicos Editar

Experimentos com neutrinos de raios cósmicos detectam neutrinos do espaço para estudar tanto a natureza dos neutrinos quanto as fontes cósmicas que os produzem. [58]

Editar velocidade

Antes que os neutrinos oscilassem, geralmente se supunha que eles não tinham massa, propagando-se à velocidade da luz. De acordo com a teoria da relatividade especial, a questão da velocidade dos neutrinos está intimamente relacionada à sua massa: se os neutrinos não têm massa, eles devem viajar à velocidade da luz e, se têm massa, não podem atingir a velocidade da luz. Devido à sua pequena massa, a velocidade prevista é extremamente próxima da velocidade da luz em todos os experimentos, e os detectores de corrente não são sensíveis à diferença esperada.

Além disso, algumas variantes da gravidade quântica que violam Lorentz podem permitir neutrinos mais rápidos do que a luz. Uma estrutura abrangente para violações de Lorentz é a Extensão do Modelo Padrão (SME).

As primeiras medições da velocidade do neutrino foram feitas no início dos anos 1980, usando feixes de píons pulsados ​​(produzidos por feixes de prótons pulsados ​​que atingem um alvo). Os píons decaíram produzindo neutrinos, e as interações de neutrinos observadas dentro de uma janela de tempo em um detector à distância eram consistentes com a velocidade da luz. Esta medição foi repetida em 2007 usando os detectores MINOS, que encontraram a velocidade de 3 neutrinos GeV, no nível de confiança de 99%, na faixa entre 0,999 976 c e 1,000 126 c . O valor central de 1,000 051 c é maior do que a velocidade da luz, mas, com a incerteza levada em consideração, também é consistente com uma velocidade de exatamente c ou um pouco menos. Esta medição estabeleceu um limite superior na massa do neutrino do múon em 50 MeV com 99% de confiança. [59] [60] Depois que os detectores para o projeto foram atualizados em 2012, MINOS refinou seu resultado inicial e encontrou concordância com a velocidade da luz, com a diferença no tempo de chegada de neutrinos e luz de -0,0006% (± 0,0012% ) [61]

Uma observação semelhante foi feita, em uma escala muito maior, com a supernova 1987A (SN 1987A). Antineutrinos de 10 MeV da supernova foram detectados dentro de uma janela de tempo que era consistente com a velocidade da luz para os neutrinos. Até agora, todas as medições da velocidade do neutrino foram consistentes com a velocidade da luz. [62] [63]

Glitch superluminal do neutrino Editar

Em setembro de 2011, a colaboração do OPERA divulgou cálculos mostrando velocidades de neutrinos de 17 GeV e 28 GeV excedendo a velocidade da luz em seus experimentos. Em novembro de 2011, o OPERA repetiu sua experiência com mudanças para que a velocidade pudesse ser determinada individualmente para cada neutrino detectado. Os resultados mostraram a mesma velocidade mais rápida do que a luz. Em fevereiro de 2012, surgiram relatórios de que os resultados podem ter sido causados ​​por um cabo de fibra óptica solto ligado a um dos relógios atômicos que mediam os tempos de partida e chegada dos neutrinos. Uma recriação independente do experimento no mesmo laboratório por ICARUS não encontrou nenhuma diferença discernível entre a velocidade de um neutrino e a velocidade da luz. [64]

Em junho de 2012, o CERN anunciou que novas medições realizadas por todos os quatro experimentos Gran Sasso (OPERA, ICARUS, Borexino e LVD) encontraram acordo entre a velocidade da luz e a velocidade dos neutrinos, finalmente refutando a alegação inicial do OPERA. [65]

Edição em massa

Podemos medir as massas de neutrinos? Os neutrinos seguem as estatísticas de Dirac ou Majorana?

O modelo padrão da física de partículas pressupõe que os neutrinos não têm massa. [ citação necessária O fenômeno experimentalmente estabelecido de oscilação de neutrino, que mistura estados de sabor de neutrino com estados de massa de neutrino (analogamente à mistura de CKM), requer que os neutrinos tenham massas diferentes de zero. [66] Neutrinos massivos foram originalmente concebidos por Bruno Pontecorvo na década de 1950. Melhorar a estrutura básica para acomodar sua massa é simples adicionando um Lagrangiano destro.

O fornecimento de massa de neutrino pode ser feito de duas maneiras, e algumas propostas usam ambas:

  • Se, como outras partículas fundamentais do Modelo Padrão, a massa for gerada pelo mecanismo de Dirac, então a estrutura exigiria um singuleto SU (2). Esta partícula teria as interações Yukawa com o componente neutro do Higgsdoublet, mas caso contrário não teria nenhuma interação com as partículas do Modelo Padrão, por isso é chamada de neutrino "estéril". [esclarecimento necessário]
  • Ou a massa pode ser gerada pelo mecanismo de Majorana, que exigiria que o neutrino e o antineutrino fossem a mesma partícula.

O limite superior mais forte nas massas dos neutrinos vem da cosmologia: o modelo do Big Bang prevê que há uma razão fixa entre o número de neutrinos e o número de fótons no fundo de microondas cósmico. Se a energia total de todos os três tipos de neutrinos ultrapassasse a média de 50 eV por neutrino, haveria tanta massa no universo que ele entraria em colapso. [67] Este limite pode ser contornado assumindo que o neutrino é instável, mas existem limites dentro do Modelo Padrão que tornam isso difícil. Uma restrição muito mais rígida vem de uma análise cuidadosa de dados cosmológicos, como a radiação cósmica de fundo em micro-ondas, pesquisas de galáxias e a floresta Lyman-alfa. Isso indica que a soma das massas dos três neutrinos deve ser inferior a 0,3 eV. [68]

O prêmio Nobel de Física 2015 foi concedido a Takaaki Kajita e Arthur B. McDonald por sua descoberta experimental de oscilações de neutrinos, o que demonstra que os neutrinos têm massa. [69] [70]

Em 1998, os resultados da pesquisa no detector de neutrinos Super-Kamiokande determinaram que os neutrinos podem oscilar de um sabor para outro, o que requer que eles tenham uma massa diferente de zero. [71] Embora isso mostre que os neutrinos têm massa, a escala de massa absoluta dos neutrinos ainda não é conhecida. Isso ocorre porque as oscilações dos neutrinos são sensíveis apenas à diferença nos quadrados das massas. [72] Em 2020, [73] o valor de melhor ajuste da diferença dos quadrados das massas dos auto-estados de massa 1 e 2 é | Δm 2
21 | = 0,000 074 eV 2, enquanto para os próprios estados 2 e 3 é | Δm 2
32 | = 0,002 51 eV 2. Uma vez que | Δm 2
32 | é a diferença de duas massas quadradas, pelo menos uma delas deve ter um valor que seja pelo menos a raiz quadrada desse valor. Assim, existe pelo menos um autoestado de massa de neutrino com uma massa de pelo menos 0,05 eV. [74]

Em 2009, dados de lente de um aglomerado de galáxias foram analisados ​​para prever uma massa de neutrino de cerca de 1,5 eV. [75] Este valor surpreendentemente alto requer que as três massas de neutrinos sejam quase iguais, com oscilações de neutrinos da ordem de mili-elétron-volts. Em 2016, isso foi atualizado para uma massa de 1,85 eV. [76] Prevê 3 estéreis [ esclarecimento necessário ] neutrinos da mesma massa, originam-se da fração de matéria escura de Planck e a não observação do decaimento beta duplo sem neutrinos. As massas estão abaixo do limite superior de Mainz-Troitsk de 2,2 eV para o antineutrino do elétron. [77] Este último está sendo testado desde junho de 2018 no experimento KATRIN, que busca uma massa entre 0,2 eV e 2 eV. [47]

Vários esforços estão em andamento para determinar diretamente a escala de massa absoluta dos neutrinos em experimentos de laboratório. Os métodos aplicados envolvem decaimento beta nuclear (KATRIN e MARE).

Em 31 de maio de 2010, os pesquisadores do OPERA observaram o primeiro evento candidato a neutrino tau em um feixe de neutrino do múon, a primeira vez que essa transformação em neutrinos foi observada, fornecendo mais evidências de que eles têm massa. [78]

Em julho de 2010, a pesquisa de galáxias 3-D MegaZ DR7 relatou que eles mediram um limite da massa combinada das três variedades de neutrinos como sendo inferior a 0,28 eV. [79] Um limite superior mais estreito para esta soma de massas, 0,23 eV, foi relatado em março de 2013 pela colaboração de Planck, [80] enquanto um resultado de fevereiro de 2014 estima a soma como 0,320 ± 0,081 eV com base nas discrepâncias entre as consequências cosmológicas implícito nas medições detalhadas de Planck da radiação cósmica de fundo e nas previsões decorrentes da observação de outros fenômenos, combinados com a suposição de que os neutrinos são responsáveis ​​pelas lentes gravitacionais mais fracas observadas do que seria esperado de neutrinos sem massa. [81]

Se o neutrino é uma partícula de Majorana, a massa pode ser calculada encontrando a meia-vida do decaimento beta duplo sem neutrino de certos núcleos. O limite superior mais baixo atual na massa de Majorana do neutrino foi definido por KamLAND-Zen: 0,060–0,161 eV. [82]

Edição de tamanho

Os neutrinos do modelo padrão são partículas semelhantes a pontos fundamentais, sem qualquer largura ou volume. Uma vez que o neutrino é uma partícula elementar, ele não tem um tamanho no mesmo sentido que os objetos do dia-a-dia. [83] Propriedades associadas ao "tamanho" convencional estão ausentes: não há distância mínima entre eles e os neutrinos não podem ser condensados ​​em uma substância uniforme separada que ocupa um volume finito.

Edição de quiralidade

Os resultados experimentais mostram que, dentro da margem de erro, todos os neutrinos produzidos e observados têm helicidades para a mão esquerda (spins antiparalelos aos momentos), e todos os antineutrinos têm helicidades para a mão direita. [84] No limite sem massa, isso significa que apenas uma das duas quiralidades possíveis é observada para cada partícula. Essas são as únicas quiralidades incluídas no modelo padrão de interações de partículas.

É possível que suas contrapartes (neutrinos destros e antineutrinos canhotos) simplesmente não existam. Se eles Faz existem, suas propriedades são substancialmente diferentes dos neutrinos e antineutrinos observáveis. É teorizado que eles são muito pesados ​​(na ordem da escala GUT - veja Mecanismo de gangorra), não participam de interação fraca (os chamados neutrinos estéreis), ou ambos.

A existência de massas de neutrinos diferentes de zero complica um pouco a situação. Neutrinos são produzidos em interações fracas como autoestados de quiralidade. A quiralidade de uma partícula massiva não é uma constante da helicidade de movimento, mas o operador quiralidade não compartilha estados próprios com o operador de helicidade. Os neutrinos livres se propagam como misturas de estados de helicidade canhota e direita, com amplitudes de mistura da ordem de mνE . Isso não afeta significativamente os experimentos, porque os neutrinos envolvidos são quase sempre ultrarelativísticos e, portanto, as amplitudes de mistura são incrivelmente pequenas. Efetivamente, eles viajam tão rapidamente e o tempo passa tão devagar em seus quadros de repouso que eles não têm tempo suficiente para mudar em qualquer caminho observável. Por exemplo, a maioria dos neutrinos solares tem energias da ordem de 0,100 MeV - 1 MeV, então a fração de neutrinos com helicidade "errada" entre eles não pode exceder 10 -10. [85] [86]

Edição de anomalia GSI

Uma série inesperada de resultados experimentais para a taxa de decomposição de íons radioativos pesados ​​e altamente carregados que circulam em um anel de armazenamento provocou atividade teórica em um esforço para encontrar uma explicação convincente. O fenômeno observado é conhecido como anomalia GSI, pois o anel de armazenamento é uma instalação do Centro GSI Helmholtz para Pesquisa de Íons Pesados ​​em Darmstadt, Alemanha.

As taxas de decaimento fraco de duas espécies radioativas com meia-vida de cerca de 40 segundos e 200 segundos apresentaram uma modulação oscilatória significativa, com um período de cerca de 7 segundos. [87] Como o processo de decaimento produz um neutrino de elétron, algumas das explicações sugeridas para a taxa de oscilação observada propõem propriedades de neutrino novas ou alteradas. As ideias relacionadas à oscilação de sabor foram recebidas com ceticismo. [88] Uma proposta posterior é baseada nas diferenças entre os auto-estados de massa do neutrino. [89]

Edição Artificial

Neutrinos do reator Editar

Os reatores nucleares são a principal fonte de neutrinos gerados pelo homem. A maior parte da energia em um reator nuclear é gerada por fissão (os quatro principais isótopos físseis em reatores nucleares são 235
você
, 238
você
, 239
Pu
e 241
Pu
), os nuclídeos filhos ricos em nêutrons resultantes rapidamente sofrem decaimentos beta adicionais, cada um convertendo um nêutron em um próton e um elétron e liberando um antineutrino de elétron (
n

p
+
e -
+
ν
e ) Incluindo esses decaimentos subsequentes, a fissão nuclear média libera cerca de 200 MeV de energia, da qual cerca de 95,5% é retida no núcleo como calor, e cerca de 4,5% (ou cerca de 9 MeV) [90] é irradiada como antineutrinos. Para um reator nuclear típico com uma potência térmica de 4000 MW, [d] a produção total de energia dos átomos em fissão é na verdade 4185 MW, dos quais 185 MW são irradiados como radiação antineutrino e nunca aparece na engenharia. Ou seja, 185 MW de energia de fissão é perdido deste reator e não aparece como calor disponível para fazer funcionar as turbinas, uma vez que os antineutrinos penetram em todos os materiais de construção praticamente sem interação.

O espectro de energia antineutrino depende do grau em que o combustível é queimado (os antineutrinos da fissão do plutônio-239 em média têm um pouco mais de energia do que os da fissão do urânio-235), mas, em geral, o detectável os antineutrinos da fissão têm um pico de energia entre cerca de 3,5 e 4 MeV, com uma energia máxima de cerca de 10 MeV. [91] Não existe um método experimental estabelecido para medir o fluxo de antineutrinos de baixa energia. Apenas os antineutrinos com uma energia acima do limite de 1,8 MeV podem desencadear o decaimento beta inverso e, portanto, ser identificados de forma inequívoca (ver § Detecção abaixo). Estima-se que 3% de todos os antineutrinos de um reator nuclear carreguem uma energia acima desse limite. Assim, uma usina nuclear média pode gerar mais de 10 20 antineutrinos por segundo acima desse limite, mas também um número muito maior (97% / 3% ≈ 30 vezes esse número) abaixo do limite de energia, o que não pode ser visto com a tecnologia de detector atual .

Neutrinos do acelerador Editar

Alguns aceleradores de partículas têm sido usados ​​para fazer feixes de neutrino. A técnica consiste em colidir prótons com um alvo fixo, produzindo píons ou kaons carregados. Essas partículas instáveis ​​são então focadas magneticamente em um longo túnel, onde decaem durante o vôo. Por causa do aumento relativístico da partícula em decomposição, os neutrinos são produzidos como um feixe, em vez de isotropicamente. Esforços para projetar uma instalação aceleradora onde os neutrinos são produzidos por meio de decaimentos de múons estão em andamento. [92] Tal configuração é geralmente conhecida como uma "fábrica de neutrinos".

Armas nucleares Editar

As armas nucleares também produzem grandes quantidades de neutrinos. Fred Reines e Clyde Cowan consideraram a detecção de neutrinos de uma bomba antes de sua busca por neutrinos do reator. Um reator de fissão foi recomendado como uma alternativa melhor pelo líder da divisão de física de Los Alamos, J. M. B. Kellogg. [93] As armas de fissão produzem antineutrinos (do processo de fissão), e as armas de fusão produzem tanto neutrinos (do processo de fusão) quanto antineutrinos (da explosão inicial da fissão).

Edição Geológica

Os neutrinos são produzidos junto com a radiação natural de fundo. Em particular, as cadeias de decaimento de 238
você
e 232
º
isótopos, bem como 40
K
, incluem decaimentos beta que emitem antineutrinos. Esses chamados geoneutrinos podem fornecer informações valiosas sobre o interior da Terra. Uma primeira indicação para geoneutrinos foi encontrada pelo experimento KamLAND em 2005, resultados atualizados foram apresentados por KamLAND [94] e Borexino. [95] O principal pano de fundo nas medições de geoneutrino são os antineutrinos provenientes de reatores.

Edição Atmosférica

Os neutrinos atmosféricos resultam da interação dos raios cósmicos com os núcleos atômicos da atmosfera terrestre, criando chuvas de partículas, muitas das quais são instáveis ​​e produzem neutrinos quando se decompõem. Uma colaboração de físicos de partículas do Tata Institute of Fundamental Research (Índia), Osaka City University (Japão) e Durham University (UK) registrou a primeira interação de neutrinos de raios cósmicos em um laboratório subterrâneo em Kolar Gold Fields na Índia em 1965. [96]

Solar Edit

Os neutrinos solares se originam da fusão nuclear que alimenta o Sol e outras estrelas. Os detalhes da operação do Sol são explicados pelo Modelo Solar Padrão. Resumindo: quando quatro prótons se fundem para se tornarem um núcleo de hélio, dois deles precisam se converter em nêutrons, e cada uma dessas conversões libera um neutrino de elétron.

O Sol envia uma enorme quantidade de neutrinos em todas as direções. A cada segundo, cerca de 65 bilhões (6,5 × 10 10) de neutrinos solares passam por cada centímetro quadrado na parte da Terra ortogonal à direção do sol. [13] Como os neutrinos são insignificantemente absorvidos pela massa da Terra, a área da superfície do lado da Terra oposto ao Sol recebe aproximadamente o mesmo número de neutrinos que o lado voltado para o Sol. [13]

Supernovae Edit

Em 1966, Stirling A. Colgate e Richard H. White [97] calcularam que os neutrinos carregam a maior parte da energia gravitacional liberada pelo colapso de estrelas massivas, eventos agora classificados como Tipo Ib e Ic e supernovas Tipo II. Quando essas estrelas colapsam, as densidades de matéria no núcleo tornam-se tão altas (10 17 kg / m 3) que a degeneração dos elétrons não é suficiente para impedir que prótons e elétrons se combinem para formar um nêutron e um neutrino de elétron. Uma segunda e mais abundante fonte de neutrino é a energia térmica (100 bilhões de kelvins) do núcleo de nêutron recém-formado, que é dissipado pela formação de pares neutrino-antineutrino de todos os sabores. [98]

A teoria de Colgate e White sobre a produção de neutrinos da supernova foi confirmada em 1987, quando os neutrinos da Supernova 1987A foram detectados. Os detectores à base de água Kamiokande II e IMB detectaram 11 e 8 antineutrinos (número de leptões = -1) de origem térmica, [98] respectivamente, enquanto o detector Baksan baseado em cintilador encontrou 5 neutrinos (número de leptões = +1) de ambos os térmicos ou origem de captura de elétrons, em uma explosão com menos de 13 segundos de duração. O sinal de neutrino da supernova chegou à Terra várias horas antes da chegada da primeira radiação eletromagnética, como era de se esperar pelo fato evidente de que esta surge junto com a onda de choque. A interação excepcionalmente fraca com a matéria normal permitiu que os neutrinos passassem pela massa agitada da estrela em explosão, enquanto os fótons eletromagnéticos eram retardados.

Como os neutrinos interagem tão pouco com a matéria, acredita-se que as emissões de neutrinos de uma supernova carreguem informações sobre as regiões mais internas da explosão. Muito dos visível a luz vem da decadência de elementos radioativos produzidos pela onda de choque da supernova, e até mesmo a luz da própria explosão é espalhada por gases densos e turbulentos e, portanto, atrasada. Espera-se que a explosão de neutrinos alcance a Terra antes de quaisquer ondas eletromagnéticas, incluindo luz visível, raios gama ou ondas de rádio. O atraso de tempo exato da chegada das ondas eletromagnéticas depende da velocidade da onda de choque e da espessura da camada externa da estrela. Para uma supernova Tipo II, os astrônomos esperam que a inundação de neutrinos seja liberada segundos após o colapso do núcleo estelar, enquanto o primeiro sinal eletromagnético pode surgir horas mais tarde, após a onda de choque da explosão ter tido tempo de atingir a superfície da estrela. O projeto Supernova Early Warning System usa uma rede de detectores de neutrino para monitorar o céu em busca de eventos de supernova. O sinal de neutrino fornecerá um aviso prévio útil de uma estrela explodindo na Via Láctea.

Embora os neutrinos passem pelos gases externos de uma supernova sem se espalhar, eles fornecem informações sobre o núcleo mais profundo da supernova com evidências de que aqui, até mesmo os neutrinos se espalham em uma extensão significativa. Em um núcleo de supernova, as densidades são as de uma estrela de nêutrons (que se espera que seja formada neste tipo de supernova), [99] tornando-se grande o suficiente para influenciar a duração do sinal do neutrino, atrasando alguns neutrinos. O sinal de neutrino de 13 segundos do SN 1987A durou muito mais do que levaria para neutrinos desimpedidos atravessar o núcleo gerador de neutrinos de uma supernova, que deve ter apenas 3.200 quilômetros de diâmetro para o SN 1987A.

O número de neutrinos contados também era consistente com uma energia total de neutrino de 2,2 × 10 46 joules, que foi estimada como quase toda a energia total da supernova. [31]

Para uma supernova média, aproximadamente 10 57 (um octodecilhão) neutrinos são liberados, mas o número real detectado em um detector terrestre N < displaystyle N> será muito menor, no nível de

onde M < displaystyle M> é a massa do detector (por exemplo, Super Kamiokande tendo uma massa de 50 kton) e d < displaystyle d> é a distância até a supernova. [100] Portanto, na prática, só será possível detectar rajadas de neutrinos de supernovas dentro ou nas proximidades da Via Láctea (nossa própria galáxia). Além da detecção de neutrinos de supernovas individuais, também deve ser possível detectar o fundo difuso de neutrinos da supernova, que se origina de todas as supernovas do Universo. [101]

Editar remanescentes de supernova

A energia dos neutrinos da supernova varia de algumas a várias dezenas de MeV. Espera-se que os locais onde os raios cósmicos são acelerados produzam neutrinos que são pelo menos um milhão de vezes mais energéticos, produzidos a partir de ambientes gasosos turbulentos deixados por explosões de supernovas: os restos das supernovas. A origem dos raios cósmicos foi atribuída a supernovas por Walter Baade e Fritz Zwicky. Essa hipótese foi refinada por Vitaly L. Ginzburg e Sergei I. Syrovatsky, que atribuíram a origem aos remanescentes de supernovas, e apoiaram sua afirmação pela observação crucial de que o universo cósmico as perdas de raios da Via Láctea são compensadas se a eficiência da aceleração nos remanescentes de supernovas for de cerca de 10 por cento. A hipótese de Ginzburg e Syrovatskii é apoiada pelo mecanismo específico de "aceleração de ondas de choque" ocorrendo em remanescentes de supernovas, que é consistente com o quadro teórico original desenhado por Enrico Fermi, e está recebendo suporte de dados observacionais. Os neutrinos de altíssima energia ainda estão para ser vistos, mas este ramo da astronomia de neutrinos está apenas em sua infância. Os principais experimentos existentes ou futuros que visam observar neutrinos de altíssima energia de nossa galáxia são Baikal, AMANDA, IceCube, ANTARES, NEMO e Nestor. Informações relacionadas são fornecidas por observatórios de raios gama de altíssima energia, como VERITAS, HESS e MAGIC. Na verdade, supõe-se que as colisões de raios cósmicos produzem píons carregados, cuja decadência dá aos neutrinos, píons neutros e raios gama o ambiente de um remanescente de supernova, que é transparente para ambos os tipos de radiação.

Neutrinos de energia ainda mais alta, resultantes das interações de raios cósmicos extragalácticos, poderiam ser observados com o Observatório Pierre Auger ou com o experimento dedicado denominado ANITA.

Big Bang Edit

Pensa-se que, tal como a radiação cósmica de fundo em micro-ondas que sobrou do Big Bang, existe um fundo de neutrinos de baixa energia no nosso Universo. Na década de 1980, foi proposto que essas podem ser a explicação para a suposta existência de matéria escura no universo. Os neutrinos têm uma vantagem importante sobre a maioria dos outros candidatos à matéria escura: sabe-se que eles existem. Essa ideia também tem sérios problemas.

Por experimentos com partículas, sabe-se que os neutrinos são muito leves. Isso significa que eles se movem facilmente a velocidades próximas à velocidade da luz. Por esta razão, a matéria escura produzida a partir de neutrinos é denominada "matéria escura quente". O problema é que, por se moverem rapidamente, os neutrinos tenderiam a se espalhar uniformemente pelo universo antes que a expansão cosmológica os tornasse frios o suficiente para se reunir em grupos. Isso faria com que a parte da matéria escura feita de neutrinos fosse espalhada e seria incapaz de causar as grandes estruturas galácticas que vemos.

Essas mesmas galáxias e grupos de galáxias parecem estar rodeados por matéria escura que não é rápida o suficiente para escapar dessas galáxias. Presumivelmente, essa matéria forneceu o núcleo gravitacional para a formação. Isso implica que os neutrinos não podem constituir uma parte significativa da quantidade total de matéria escura.

A partir de argumentos cosmológicos, os neutrinos de fundo de relíquia são estimados como tendo densidade de 56 de cada tipo por centímetro cúbico e temperatura de 1,9 K (1,7 × 10 −4 eV) se não tiverem massa, muito mais frios se sua massa exceder 0,001 eV. Embora sua densidade seja bastante alta, eles ainda não foram observados em laboratório, pois sua energia está abaixo dos limites da maioria dos métodos de detecção e devido a seções transversais de interação de neutrino extremamente baixas em energias sub-eV. Em contraste, os neutrinos solares de boro-8 - que são emitidos com uma energia mais alta - foram detectados definitivamente, apesar de terem uma densidade espacial inferior à dos neutrinos relíquias em cerca de 6 ordens de magnitude.

Os neutrinos não podem ser detectados diretamente porque não carregam carga elétrica, o que significa que não ionizam os materiais pelos quais passam. Outras maneiras pelas quais os neutrinos podem afetar seu ambiente, como o efeito RSU, não produzem radiação rastreável. Uma reação única para identificar antineutrinos, às vezes referido como decaimento beta inverso, conforme aplicado por Reines e Cowan (veja abaixo), requer um detector muito grande para detectar um número significativo de neutrinos. Todos os métodos de detecção requerem que os neutrinos carreguem um limite mínimo de energia. Até o momento, não há método de detecção para neutrinos de baixa energia, no sentido de que as interações potenciais de neutrinos (por exemplo, pelo efeito MSW) não podem ser distinguidas exclusivamente de outras causas. Os detectores de neutrino são freqüentemente construídos no subsolo para isolar o detector de raios cósmicos e outras radiações de fundo.

Os antineutrinos foram detectados pela primeira vez na década de 1950 perto de um reator nuclear. Reines e Cowan usaram dois alvos contendo uma solução de cloreto de cádmio em água. Dois detectores de cintilação foram colocados próximos aos alvos de cádmio. Antineutrinos com uma energia acima do limite de 1,8 MeV causaram interações de corrente carregada com os prótons na água, produzindo pósitrons e nêutrons. Isso é muito parecido com
β +
decadência, onde a energia é usada para converter um próton em um nêutron, um pósitron (
e +
) e um neutrino de elétron (
ν
e ) é emitido:

No experimento de Cowan e Reines, em vez de um neutrino de saída, você tem um antineutrino de entrada (
ν
e ) de um reator nuclear:

A aniquilação de pósitrons resultante com elétrons no material detector criou fótons com uma energia de cerca de 0,5 MeV. Pares de fótons em coincidência podem ser detectados pelos dois detectores de cintilação acima e abaixo do alvo. Os nêutrons foram capturados por núcleos de cádmio resultando em raios gama de cerca de 8 MeV que foram detectados alguns microssegundos após os fótons de um evento de aniquilação de pósitrons.

Desde então, vários métodos de detecção têm sido usados. Super Kamiokande é um grande volume de água cercado por tubos fotomultiplicadores que observam a radiação Cherenkov emitida quando um neutrino que chega cria um elétron ou múon na água. O Sudbury Neutrino Observatory é semelhante, mas usou água pesada como meio de detecção, que usa os mesmos efeitos, mas também permite a reação adicional de neutrino de qualquer sabor fotodissociação do deutério, resultando em um nêutron livre que é então detectado pela radiação gama após a captura do cloro. Outros detectores consistem em grandes volumes de cloro ou gálio que são periodicamente verificados quanto a excessos de argônio ou germânio, respectivamente, que são criados por neutrinos de elétrons interagindo com a substância original. O MINOS usou um cintilador de plástico sólido acoplado a tubos fotomultiplicadores, enquanto o Borexino usa um cintilador de pseudocumênio líquido também monitorado por tubos fotomultiplicadores e o detector NOνA usa cintilador líquido monitorado por fotodiodos de avalanche. O Observatório de Neutrinos IceCube usa 1 km 3 do manto de gelo da Antártica próximo ao pólo sul com tubos fotomultiplicadores distribuídos por todo o volume.

A baixa massa e carga neutra dos neutrinos significam que eles interagem extremamente fracamente com outras partículas e campos.Esta característica de interação fraca interessa aos cientistas porque significa que os neutrinos podem ser usados ​​para sondar ambientes que outras radiações (como luz ou ondas de rádio) não conseguem penetrar.

O uso de neutrinos como uma sonda foi proposto pela primeira vez em meados do século 20 como uma forma de detectar as condições no centro do Sol. O núcleo solar não pode ser visualizado diretamente porque a radiação eletromagnética (como a luz) é difundida pela grande quantidade e densidade de matéria ao redor do núcleo. Por outro lado, os neutrinos passam pelo Sol com poucas interações. Enquanto os fótons emitidos do núcleo solar podem levar 40.000 anos para se difundir para as camadas externas do Sol, os neutrinos gerados em reações de fusão estelar no núcleo cruzam essa distância praticamente desimpedidos, quase na velocidade da luz. [102] [103]

Neutrinos também são úteis para sondar fontes astrofísicas além do Sistema Solar porque são as únicas partículas conhecidas que não são significativamente atenuadas por sua viagem através do meio interestelar. Os fótons ópticos podem ser obscurecidos ou difundidos por poeira, gás e radiação de fundo. Os raios cósmicos de alta energia, na forma de prótons rápidos e núcleos atômicos, são incapazes de viajar mais do que cerca de 100 megaparsecs devido ao limite de Greisen-Zatsepin-Kuzmin (corte GZK). Os neutrinos, ao contrário, podem viajar distâncias ainda maiores, quase sem atenuação.

O núcleo galáctico da Via Láctea está totalmente obscurecido por gás denso e vários objetos brilhantes. Neutrinos produzidos no núcleo galáctico podem ser medidos por telescópios de neutrinos baseados na Terra. [18]

Outro uso importante do neutrino é na observação de supernovas, as explosões que acabam com a vida de estrelas de grande massa. A fase de colapso do núcleo de uma supernova é um evento extremamente denso e energético. É tão denso que nenhuma partícula conhecida é capaz de escapar da frente do núcleo em avanço, exceto os neutrinos. Conseqüentemente, as supernovas são conhecidas por liberar aproximadamente 99% de sua energia radiante em uma explosão curta (10 segundos) de neutrinos. [104] Esses neutrinos são uma sonda muito útil para estudos de colapso do núcleo.

A massa restante do neutrino é um importante teste de teorias cosmológicas e astrofísicas (ver Matéria escura) A importância do neutrino na sondagem dos fenômenos cosmológicos é tão grande quanto qualquer outro método e, portanto, é um importante foco de estudo nas comunidades astrofísicas. [105]

O estudo dos neutrinos é importante na física de partículas porque os neutrinos normalmente têm a massa mais baixa e, portanto, são exemplos das partículas de energia mais baixa teorizadas em extensões do modelo padrão da física de partículas.

Em novembro de 2012, cientistas americanos usaram um acelerador de partículas para enviar uma mensagem de neutrino coerente através de 780 pés de rocha. Isso marca o primeiro uso de neutrinos para comunicação, e pesquisas futuras podem permitir que mensagens binárias de neutrinos sejam enviadas a distâncias imensas até mesmo pelos materiais mais densos, como o núcleo da Terra. [106]

Em julho de 2018, o Observatório de Neutrinos IceCube anunciou que rastreou um neutrino de energia extremamente alta que atingiu sua estação de pesquisa baseada na Antártica em setembro de 2017 de volta ao seu ponto de origem no blazar TXS 0506 +056 localizado 3,7 bilhões de anos-luz longe na direção da constelação de Orion. Esta é a primeira vez que um detector de neutrinos foi usado para localizar um objeto no espaço e que uma fonte de raios cósmicos foi identificada. [107] [108] [109]


Conteúdo

A velocidade da luz no vácuo é geralmente indicada por uma letra minúscula c , para "constante" ou o latim celeritas (significando "rapidez, celeridade"). Em 1856, Wilhelm Eduard Weber e Rudolf Kohlrausch usaram c para uma constante diferente que mais tarde foi mostrado ser igual a √ 2 vezes a velocidade da luz no vácuo. Historicamente, o símbolo V foi usado como um símbolo alternativo para a velocidade da luz, introduzido por James Clerk Maxwell em 1865. Em 1894, Paul Drude redefiniu c com seu significado moderno. Einstein usou V em seus artigos originais em alemão sobre relatividade especial em 1905, mas em 1907 ele mudou para c , que então se tornou o símbolo padrão para a velocidade da luz. [7] [8]

As vezes c é usado para a velocidade das ondas em algum meio material, e c 0 para a velocidade da luz no vácuo. [9] Esta notação subscrita, que é endossada na literatura oficial de SI, [10] tem a mesma forma que outras constantes relacionadas: a saber, µ0 para a permeabilidade a vácuo ou constante magnética, ε0 para a permissividade de vácuo ou constante elétrica, e Z0 para a impedância do espaço livre. Este artigo usa c exclusivamente para a velocidade da luz no vácuo.

A velocidade com que as ondas de luz se propagam no vácuo é independente tanto do movimento da fonte da onda quanto do referencial inercial do observador. [Nota 5] Esta invariância da velocidade da luz foi postulada por Einstein em 1905, [6] depois de ser motivada pela teoria do eletromagnetismo de Maxwell e a falta de evidência para o éter luminífero [16], desde então foi consistentemente confirmado por muitos experimentos . [Nota 6] Só é possível verificar experimentalmente que a velocidade bidirecional da luz (por exemplo, de uma fonte para um espelho e vice-versa) é independente de quadro, porque é impossível medir a velocidade unidirecional de luz (por exemplo, de uma fonte para um detector distante) sem alguma convenção sobre como os relógios na fonte e no detector devem ser sincronizados. No entanto, ao adotar a sincronização de Einstein para os relógios, a velocidade unilateral da luz torna-se igual à velocidade bidirecional da luz por definição. [17] [18] A teoria da relatividade especial explora as consequências desta invariância de c com a suposição de que as leis da física são as mesmas em todos os referenciais inerciais. [19] [20] Uma consequência é que c é a velocidade com que todas as partículas e ondas sem massa, incluindo a luz, devem viajar no vácuo.

A relatividade especial tem muitas implicações contra-intuitivas e experimentalmente verificadas. [21] Estes incluem a equivalência de massa e energia (E = mc 2), contração de comprimento (objetos em movimento encurtam), [Nota 7] e dilatação do tempo (relógios em movimento funcionam mais devagar). O fator γ pelo qual os comprimentos se contraem e os tempos dilatam é conhecido como o fator de Lorentz e é dado por γ = (1 − v 2 /c 2) -1/2, onde v é a velocidade do objeto. A diferença de γ de 1 é insignificante para velocidades muito mais lentas do que c, como a maioria das velocidades do dia-a-dia - caso em que a relatividade especial é muito próxima da relatividade galileana - mas aumenta nas velocidades relativísticas e diverge até o infinito à medida que v aproximações c. Por exemplo, um fator de dilatação do tempo de γ = 2 ocorre a uma velocidade relativa de 86,6% da velocidade da luz (v = 0.866 c) Da mesma forma, um fator de dilatação do tempo de γ = 10 ocorre em v = 99.5% c.

Os resultados da relatividade especial podem ser resumidos tratando o espaço e o tempo como uma estrutura unificada conhecida como espaço-tempo (com c relacionando as unidades de espaço e tempo), e exigindo que as teorias físicas satisfaçam uma simetria especial chamada invariância de Lorentz, cuja formulação matemática contém o parâmetro c. [24] A invariância de Lorentz é uma suposição quase universal para teorias físicas modernas, como eletrodinâmica quântica, cromodinâmica quântica, o modelo padrão da física de partículas e relatividade geral. Como tal, o parâmetro c é onipresente na física moderna, aparecendo em muitos contextos não relacionados à luz. Por exemplo, a relatividade geral prevê que c é também a velocidade da gravidade e das ondas gravitacionais. [25] [Nota 8] Em referenciais não inerciais (espaço-tempo curvado gravitacionalmente ou referenciais acelerados), o local a velocidade da luz é constante e igual a c, mas a velocidade da luz ao longo de uma trajetória de comprimento finito pode ser diferente de c, dependendo de como as distâncias e os tempos são definidos. [27]

É geralmente assumido que constantes fundamentais, como c têm o mesmo valor em todo o espaço-tempo, o que significa que não dependem da localização e não variam com o tempo. No entanto, tem sido sugerido em várias teorias que a velocidade da luz pode ter mudado com o tempo. [28] [29] Nenhuma evidência conclusiva para essas mudanças foi encontrada, mas elas permanecem o assunto de pesquisas em andamento. [30] [31]

Também é geralmente assumido que a velocidade da luz é isotrópica, o que significa que tem o mesmo valor, independentemente da direção em que é medida. As observações das emissões dos níveis de energia nuclear em função da orientação dos núcleos emissores em um campo magnético (veja o experimento de Hughes-Drever), e de ressonadores ópticos rotativos (veja os experimentos do Ressonador) colocaram limites estritos nas duas vias possíveis anisotropia. [32] [33]

Limite superior de velocidades

De acordo com a relatividade especial, a energia de um objeto com massa de repouso m e velocidade v É dado por γmc 2, onde γ é o fator de Lorentz definido acima. Quando v é zero, γ é igual a um, dando origem ao famoso E = mc 2 fórmula para equivalência massa-energia. o γ fator se aproxima do infinito conforme v aproximações c, e seria necessária uma quantidade infinita de energia para acelerar um objeto com massa à velocidade da luz. A velocidade da luz é o limite superior para as velocidades de objetos com massa de repouso positiva, e os fótons individuais não podem viajar mais rápido do que a velocidade da luz. [34] [35] [36] Isso é estabelecido experimentalmente em muitos testes de energia relativística e momento. [37]

De modo mais geral, é impossível que sinais ou energia viajem mais rápido do que c. Um argumento para isso segue da implicação contra-intuitiva da relatividade especial conhecida como relatividade da simultaneidade. Se a distância espacial entre dois eventos A e B for maior que o intervalo de tempo entre eles multiplicado por c então, há quadros de referência em que A precede B, outros em que B precede A e outros em que são simultâneos. Como resultado, se algo estivesse viajando mais rápido do que c em relação a um referencial inercial, estaria viajando para trás no tempo em relação a outro referencial, e a causalidade seria violada. [Nota 9] [39] Em tal quadro de referência, um "efeito" poderia ser observado antes de sua "causa". Tal violação de causalidade nunca foi registrada, [18] e levaria a paradoxos como o antitelefone taquiônico. [40]

Existem situações em que pode parecer que matéria, energia ou sinal portador de informação viaja a velocidades maiores do que c, mas eles não o fazem. Por exemplo, como é discutido na propagação da luz em uma seção média abaixo, muitas velocidades de onda podem exceder c. Por exemplo, a velocidade de fase dos raios-X através da maioria dos vidros pode exceder rotineiramente c, [41] mas a velocidade de fase não determina a velocidade na qual as ondas transmitem informações. [42]

Se um feixe de laser é varrido rapidamente por um objeto distante, o ponto de luz pode se mover mais rápido do que c, embora o movimento inicial do ponto seja atrasado por causa do tempo que leva a luz para chegar ao objeto distante na velocidade c. No entanto, as únicas entidades físicas que se movem são o laser e sua luz emitida, que viaja na velocidade c do laser para as várias posições do ponto. Da mesma forma, uma sombra projetada em um objeto distante pode ser movida mais rápido do que c, após um atraso no tempo. [43] Em nenhum dos casos qualquer matéria, energia ou informação viaja mais rápido que a luz. [44]

A taxa de mudança na distância entre dois objetos em um quadro de referência em relação ao qual ambos estão se movendo (sua velocidade de fechamento) pode ter um valor superior a c. No entanto, isso não representa a velocidade de qualquer objeto único medida em um único referencial inercial. [44]

Certos efeitos quânticos parecem ser transmitidos instantaneamente e, portanto, mais rápido do que c, como no paradoxo EPR. Um exemplo envolve os estados quânticos de duas partículas que podem ser emaranhadas. Até que qualquer uma das partículas seja observada, elas existem em uma superposição de dois estados quânticos. Se as partículas são separadas e o estado quântico de uma partícula é observado, o estado quântico da outra partícula é determinado instantaneamente. No entanto, é impossível controlar qual estado quântico a primeira partícula assumirá quando for observada, então a informação não pode ser transmitida dessa maneira. [44] [45]

Outro efeito quântico que prevê a ocorrência de velocidades mais rápidas que a da luz é chamado de efeito Hartman: sob certas condições, o tempo necessário para uma partícula virtual fazer um túnel através de uma barreira é constante, independentemente da espessura da barreira. [46] [47] Isso pode resultar em uma partícula virtual cruzando uma grande lacuna mais rápido do que a luz. No entanto, nenhuma informação pode ser enviada usando este efeito. [48]

O chamado movimento superluminal é visto em certos objetos astronômicos, [49] como os jatos relativísticos de rádio-galáxias e quasares. No entanto, esses jatos não estão se movendo a velocidades superiores à velocidade da luz: o movimento superluminal aparente é um efeito de projeção causado por objetos que se movem perto da velocidade da luz e se aproximam da Terra em um pequeno ângulo com a linha de visão: uma vez que a luz que foi emitido quando o jato estava mais longe demorou mais para chegar à Terra, o tempo entre duas observações sucessivas corresponde a um tempo maior entre os instantes em que os raios de luz foram emitidos. [50]

Em modelos do universo em expansão, quanto mais distantes as galáxias estão umas das outras, mais rápido elas se afastam. Este recuo não é devido ao movimento Através dos espaço, mas sim à expansão do próprio espaço. [44] Por exemplo, galáxias distantes da Terra parecem estar se afastando da Terra com uma velocidade proporcional às suas distâncias. Além de uma fronteira chamada esfera de Hubble, a taxa na qual a distância da Terra aumenta torna-se maior do que a velocidade da luz. [51]

Na física clássica, a luz é descrita como um tipo de onda eletromagnética. O comportamento clássico do campo eletromagnético é descrito pelas equações de Maxwell, que prevêem que a velocidade c com a qual as ondas eletromagnéticas (como a luz) se propagam no vácuo está relacionada à capacitância distribuída e à indutância do vácuo, também conhecida, respectivamente, como a constante elétrica ε0 e a constante magnética µ0, pela equação [52]

Na física quântica moderna, o campo eletromagnético é descrito pela teoria da eletrodinâmica quântica (QED). Nessa teoria, a luz é descrita pelas excitações fundamentais (ou quanta) do campo eletromagnético, chamadas de fótons. No QED, os fótons são partículas sem massa e, portanto, de acordo com a relatividade especial, eles viajam à velocidade da luz no vácuo.

Extensões do QED em que o fóton tem uma massa foram consideradas. Em tal teoria, sua velocidade dependeria de sua frequência, e a velocidade invariável c da relatividade especial seria então o limite superior da velocidade da luz no vácuo. [27] Nenhuma variação da velocidade da luz com a frequência foi observada em testes rigorosos, [53] [54] [55] colocando limites estritos na massa do fóton. O limite obtido depende do modelo usado: se o fóton massivo é descrito pela teoria de Proca, [56] o limite superior experimental para sua massa é de cerca de 10 -57 gramas [57] se a massa do fóton é gerada por um mecanismo de Higgs, o experimental o limite superior é menos nítido, m ≤ 10 −14 eV /c 2 [56] (aproximadamente 2 × 10 −47 g).

Outra razão para a velocidade da luz variar com sua frequência seria o fracasso da relatividade especial em se aplicar a escalas arbitrariamente pequenas, como previsto por algumas teorias propostas da gravidade quântica. Em 2009, a observação da explosão de raios gama GRB 090510 não encontrou evidências de uma dependência da velocidade do fóton na energia, apoiando fortes restrições em modelos específicos de quantização do espaço-tempo sobre como essa velocidade é afetada pela energia do fóton para energias que se aproximam da escala de Planck. [58]

Em um meio

Em um meio, a luz geralmente não se propaga a uma velocidade igual a c além disso, diferentes tipos de ondas de luz viajarão em velocidades diferentes. A velocidade na qual as cristas e vales individuais de uma onda plana (uma onda preenchendo todo o espaço, com apenas uma frequência) se propagam é chamada de velocidade de fase vp. Um sinal físico com extensão finita (um pulso de luz) viaja a uma velocidade diferente. A maior parte do pulso viaja na velocidade do grupo vg, e sua parte mais antiga viaja na velocidade frontal vf.

A velocidade de fase é importante para determinar como uma onda de luz viaja através de um material ou de um material para outro. Muitas vezes é representado em termos de um índice de refração. O índice de refração de um material é definido como a razão de c para a velocidade de fase vp no material: índices maiores de refração indicam velocidades mais baixas. O índice de refração de um material pode depender da frequência, intensidade, polarização ou direção de propagação da luz em muitos casos, embora possa ser tratado como uma constante dependente do material. O índice de refração do ar é de aproximadamente 1,0003. [59] Meios mais densos, como água, [60] vidro, [61] e diamante, [62] têm índices de refração de cerca de 1,3, 1,5 e 2,4, respectivamente, para a luz visível. Em materiais exóticos como condensados ​​de Bose-Einstein próximos do zero absoluto, a velocidade efetiva da luz pode ser de apenas alguns metros por segundo. No entanto, isso representa o atraso de absorção e re-radiação entre os átomos, assim como todos os mais lentos quec velocidades em substâncias materiais. Como um exemplo extremo de luz "desacelerando" na matéria, duas equipes independentes de físicos afirmaram trazer a luz a uma "completa paralisação", passando-a por um condensado de Bose-Einstein do elemento rubídio. No entanto, a descrição popular de luz sendo "interrompida" nesses experimentos refere-se apenas à luz sendo armazenada nos estados excitados dos átomos, e então reemitida em um momento arbitrariamente posterior, conforme estimulada por um segundo pulso de laser. Durante o tempo em que "parou", deixou de ser claro. Esse tipo de comportamento é geralmente microscopicamente verdadeiro para todos os meios transparentes que "reduzem" a velocidade da luz. [63]

Em materiais transparentes, o índice de refração geralmente é maior que 1, o que significa que a velocidade de fase é menor que c. Em outros materiais, é possível que o índice de refração se torne menor que 1 para algumas frequências em alguns materiais exóticos, é até possível que o índice de refração se torne negativo.[64] O requisito de que a causalidade não seja violada implica que as partes reais e imaginárias da constante dielétrica de qualquer material, correspondendo respectivamente ao índice de refração e ao coeficiente de atenuação, estão ligadas pelas relações de Kramers-Kronig. [65] Em termos práticos, isso significa que em um material com índice de refração inferior a 1, a absorção da onda é tão rápida que nenhum sinal pode ser enviado mais rápido do que c.

Um pulso com diferentes velocidades de grupo e fase (que ocorre se a velocidade da fase não for a mesma para todas as frequências do pulso) se espalha com o tempo, um processo conhecido como dispersão. Certos materiais têm uma velocidade de grupo excepcionalmente baixa (ou mesmo zero) para ondas de luz, um fenômeno chamado luz lenta, que foi confirmado em vários experimentos. [66] [67] [68] [69] O oposto, velocidades de grupo excedendo c, também foi mostrado em experimentos. [70] Deveria até ser possível que a velocidade do grupo se tornasse infinita ou negativa, com pulsos viajando instantaneamente ou retrocedendo no tempo. [71]

Nenhuma dessas opções, no entanto, permite que as informações sejam transmitidas mais rapidamente do que c. É impossível transmitir informações com um pulso de luz mais rápido do que a velocidade da primeira parte do pulso (a velocidade frontal). Pode ser mostrado que isto é (sob certas suposições) sempre igual a c. [71]

É possível que uma partícula viaje através de um meio mais rápido do que a velocidade de fase da luz nesse meio (mas ainda mais lento do que c) Quando uma partícula carregada faz isso em um material dielétrico, o equivalente eletromagnético de uma onda de choque, conhecido como radiação Cherenkov, é emitido. [72]

A velocidade da luz é relevante para as comunicações: o tempo de retardo de ida e volta é maior que zero. Isso se aplica desde escalas pequenas até escalas astronômicas. Por outro lado, algumas técnicas dependem da velocidade finita da luz, por exemplo, em medições de distância.

Escalas pequenas

Em supercomputadores, a velocidade da luz impõe um limite na rapidez com que os dados podem ser enviados entre os processadores. Se um processador opera a 1 gigahertz, um sinal pode viajar apenas um máximo de cerca de 30 centímetros (1 pé) em um único ciclo. Os processadores devem, portanto, ser colocados próximos uns dos outros para minimizar as latências de comunicação, o que pode causar dificuldade de resfriamento. Se as frequências de clock continuarem a aumentar, a velocidade da luz acabará se tornando um fator limitante para o design interno de chips individuais. [73] [74]

Grandes distâncias na Terra

Dado que a circunferência equatorial da Terra é de cerca de 40 075 km e que c é cerca de 300 000 km / s, o tempo teórico mais curto para uma informação viajar metade do globo ao longo da superfície é de cerca de 67 milissegundos. Quando a luz está viajando ao redor do globo em uma fibra óptica, o tempo de trânsito real é maior, em parte porque a velocidade da luz é mais lenta em cerca de 35% em uma fibra óptica, dependendo de seu índice de refração n. [Nota 10] Além disso, linhas retas raramente ocorrem em situações de comunicação global, e atrasos são criados quando o sinal passa por uma chave eletrônica ou regenerador de sinal. [76]

Vôos espaciais e astronomia

Da mesma forma, as comunicações entre a Terra e a espaçonave não são instantâneas. Há um breve atraso da fonte ao receptor, que se torna mais perceptível à medida que as distâncias aumentam. Este atraso foi significativo para as comunicações entre o controle terrestre e a Apollo 8 quando ela se tornou a primeira espaçonave tripulada a orbitar a Lua: para cada pergunta, a estação de controle terrestre teve que esperar pelo menos três segundos para a resposta chegar. [77] O atraso nas comunicações entre a Terra e Marte pode variar entre cinco e vinte minutos, dependendo das posições relativas dos dois planetas. [78] Como consequência disso, se um robô na superfície de Marte encontrasse um problema, seus controladores humanos não perceberiam até pelo menos cinco minutos depois, e possivelmente até vinte minutos depois, demoraria mais cinco a vinte minutos para obter instruções para viajar da Terra a Marte.

Receber luz e outros sinais de fontes astronômicas distantes pode demorar muito mais. Por exemplo, levou 13 bilhões (13 × 10 9) anos para a luz viajar para a Terra das galáxias distantes vistas nas imagens do Hubble Ultra Deep Field. [79] [80] Essas fotos, tiradas hoje, capturam imagens das galáxias como elas apareciam há 13 bilhões de anos, quando o universo tinha menos de um bilhão de anos. [79] O fato de objetos mais distantes parecerem mais jovens, devido à velocidade finita da luz, permite aos astrônomos inferir a evolução das estrelas, das galáxias e do próprio universo.

As distâncias astronômicas às vezes são expressas em anos-luz, especialmente em publicações e mídia populares de ciência. [81] Um ano-luz é a distância que a luz percorre em um ano, cerca de 9.461 bilhões de quilômetros, 5879 bilhões de milhas ou 0,3066 parsecs. Em números redondos, um ano-luz tem quase 10 trilhões de quilômetros ou quase 6 trilhões de milhas. Proxima Centauri, a estrela mais próxima da Terra depois do Sol, está a cerca de 4,2 anos-luz de distância. [82]

Medição de distância

Os sistemas de radar medem a distância até um alvo pelo tempo que leva um pulso de onda de rádio para retornar à antena do radar depois de ser refletido pelo alvo: a distância até o alvo é a metade do tempo de trânsito de ida e volta multiplicado pela velocidade da luz . Um receptor de Sistema de Posicionamento Global (GPS) mede sua distância aos satélites GPS com base em quanto tempo leva para um sinal de rádio chegar de cada satélite e, a partir dessas distâncias, calcula a posição do receptor. Como a luz viaja cerca de 300.000 quilômetros (186.000 mi) em um segundo, essas medições de pequenas frações de segundo devem ser muito precisas. O Lunar Laser Ranging Experiment, a astronomia de radar e a Deep Space Network determinam as distâncias até a Lua, [83] planetas [84] e espaçonaves [85], respectivamente, medindo os tempos de trânsito de ida e volta.

Negociação de alta frequência

A velocidade da luz tornou-se importante nas negociações de alta frequência, onde os negociadores buscam obter vantagens de minuto, entregando suas negociações às bolsas por frações de segundo antes de outros negociadores. Por exemplo, os comerciantes têm mudado para comunicações de microondas entre centros de comércio, devido à vantagem que as microondas que viajam quase à velocidade da luz no ar têm sobre os sinais de fibra óptica, que viajam 30-40% mais devagar. [86] [87]

Existem diferentes maneiras de determinar o valor de c. Uma maneira é medir a velocidade real na qual as ondas de luz se propagam, o que pode ser feito em várias configurações astronômicas e terrestres. No entanto, também é possível determinar c de outras leis físicas onde aparece, por exemplo, determinando os valores das constantes eletromagnéticas ε0 e µ0 e usando sua relação com c. Historicamente, os resultados mais precisos foram obtidos determinando separadamente a frequência e o comprimento de onda de um feixe de luz, com seu produto igualando c. [ citação necessária ]

Medidas astronômicas

O espaço exterior é um ambiente conveniente para medir a velocidade da luz devido à sua grande escala e vácuo quase perfeito. Normalmente, mede-se o tempo necessário para a luz percorrer alguma distância de referência no sistema solar, como o raio da órbita da Terra. Historicamente, tais medições podem ser feitas com bastante precisão, em comparação com a precisão com que o comprimento da distância de referência é conhecido em unidades baseadas na Terra. É comum expressar os resultados em unidades astronômicas (UA) por dia.

Ole Christensen Rømer usou uma medição astronômica para fazer a primeira estimativa quantitativa da velocidade da luz no ano de 1676. [89] [90] Quando medido da Terra, os períodos de luas orbitando um planeta distante são mais curtos quando a Terra está se aproximando do planeta do que quando a Terra está se afastando dele. A distância percorrida pela luz do planeta (ou sua lua) até a Terra é menor quando a Terra está no ponto de sua órbita mais próximo de seu planeta do que quando a Terra está no ponto mais distante de sua órbita, a diferença de distância sendo o diâmetro da órbita da Terra em torno do sol. A mudança observada no período orbital da lua é causada pela diferença no tempo que a luz leva para percorrer a distância mais curta ou mais longa. Rømer observou este efeito para a lua mais interna de Júpiter, Io, e deduziu que a luz leva 22 minutos para cruzar o diâmetro da órbita da Terra.

Outro método é usar a aberração da luz, descoberta e explicada por James Bradley no século XVIII. [91] Este efeito resulta da adição do vetor da velocidade da luz que chega de uma fonte distante (como uma estrela) e da velocidade de seu observador (veja o diagrama à direita). Um observador em movimento, portanto, vê a luz vindo de uma direção ligeiramente diferente e, conseqüentemente, vê a fonte em uma posição deslocada de sua posição original. Como a direção da velocidade da Terra muda continuamente à medida que a Terra orbita o Sol, esse efeito faz com que a posição aparente das estrelas se mova. A partir da diferença angular na posição das estrelas (máximo de 20,5 segundos de arco) [92] é possível expressar a velocidade da luz em termos da velocidade da Terra em torno do Sol, que com a duração conhecida de um ano pode ser convertida em tempo precisava viajar do Sol para a Terra. Em 1729, Bradley usou este método para derivar que a luz viajou 10.210 vezes mais rápido que a Terra em sua órbita (a figura moderna é 10.066 vezes mais rápida) ou, equivalentemente, que levaria a luz 8 minutos e 12 segundos para viajar do Sol para a Terra. [91]

Unidade astronômica

Uma unidade astronômica (UA) é aproximadamente a distância média entre a Terra e o sol. Foi redefinido em 2012 como exatamente 149 597 870 700 m. [93] [94] Anteriormente, a UA não se baseava no Sistema Internacional de Unidades, mas em termos da força gravitacional exercida pelo Sol no quadro da mecânica clássica. [Nota 11] A definição atual usa o valor recomendado em metros para a definição anterior da unidade astronômica, que foi determinada por medição. [93] Esta redefinição é análoga à do metro e da mesma forma tem o efeito de fixar a velocidade da luz em um valor exato em unidades astronômicas por segundo (por meio da velocidade exata da luz em metros por segundo).

Anteriormente, o inverso de c expresso em segundos por unidade astronômica foi medido comparando o tempo para os sinais de rádio chegarem a diferentes espaçonaves no Sistema Solar, com sua posição calculada a partir dos efeitos gravitacionais do Sol e de vários planetas. Combinando muitas dessas medições, um valor de melhor ajuste para o tempo de luz por unidade de distância pode ser obtido. Por exemplo, em 2009, a melhor estimativa, conforme aprovado pela União Astronômica Internacional (IAU), foi: [96] [97] [98]

tempo de luz por unidade de distância: tau = 499,004 783 836 (10) s c = 0,002 003 988 804 10 (4) AU / s = 173,144 632 674 (3) AU / dia.

A incerteza relativa nessas medições é de 0,02 partes por bilhão (2 × 10-11), equivalente à incerteza em medições baseadas na Terra de comprimento por interferometria. [99] Uma vez que o metro é definido como o comprimento percorrido pela luz em um determinado intervalo de tempo, a medição do tempo de luz em termos da definição anterior da unidade astronômica também pode ser interpretada como medir o comprimento de uma UA (antiga definição) em metros. [Nota 12]

Tempo de técnicas de vôo

Um método para medir a velocidade da luz é medir o tempo necessário para a luz viajar até um espelho a uma distância conhecida e voltar. Este é o princípio de funcionamento do aparato Fizeau-Foucault desenvolvido por Hippolyte Fizeau e Léon Foucault. [ citação necessária ]

A configuração usada por Fizeau consiste em um feixe de luz direcionado a um espelho a 8 quilômetros de distância. No caminho da fonte ao espelho, o feixe passa por uma roda dentada giratória. A uma certa taxa de rotação, a viga passa por uma lacuna na saída e outra na volta, mas com taxas um pouco mais altas ou mais baixas, a viga atinge um dente e não passa pela roda. Conhecendo a distância entre a roda e o espelho, o número de dentes na roda e a taxa de rotação, a velocidade da luz pode ser calculada. [100]

O método de Foucault substitui a roda dentada por um espelho giratório. Como o espelho continua girando enquanto a luz viaja para o espelho distante e vice-versa, a luz é refletida do espelho giratório em um ângulo diferente ao sair e ao voltar. A partir dessa diferença de ângulo, a velocidade de rotação conhecida e a distância até o espelho distante da velocidade da luz podem ser calculadas. [101]

Hoje em dia, usando osciloscópios com resolução de tempo de menos de um nanossegundo, a velocidade da luz pode ser medida diretamente cronometrando o atraso de um pulso de luz de um laser ou de um LED refletido de um espelho. Este método é menos preciso (com erros da ordem de 1%) do que outras técnicas modernas, mas às vezes é usado como um experimento de laboratório nas aulas de física da faculdade. [102] [103] [104]

Constantes eletromagnéticas

Uma opção para derivar c que não depende diretamente de uma medição da propagação de ondas eletromagnéticas é usar a relação entre c e a permissividade do vácuo ε0 e permeabilidade a vácuo µ0 estabelecido pela teoria de Maxwell: c 2 = 1/(ε0µ0) A permissividade do vácuo pode ser determinada medindo a capacitância e as dimensões de um capacitor, enquanto o valor da permeabilidade do vácuo é fixado em exatamente 4π × 10 −7 H⋅m −1 através da definição do ampere. Rosa e Dorsey usaram esse método em 1907 para encontrar um valor de 299 710 ± 22 km / s. [105] [106]

Ressonância de cavidade

Outra forma de medir a velocidade da luz é medir de forma independente a frequência f e comprimento de onda λ de uma onda eletromagnética no vácuo. O valor de c pode então ser encontrado usando a relação c = . Uma opção é medir a frequência de ressonância de um ressonador de cavidade. Se as dimensões da cavidade de ressonância também forem conhecidas, elas podem ser usadas para determinar o comprimento de onda da onda. Em 1946, Louis Essen e A.C. Gordon-Smith estabeleceram a frequência para uma variedade de modos normais de microondas de uma cavidade de microondas de dimensões precisamente conhecidas. As dimensões foram estabelecidas com uma precisão de cerca de ± 0,8 μm usando medidores calibrados por interferometria. [105] Como o comprimento de onda dos modos era conhecido a partir da geometria da cavidade e da teoria eletromagnética, o conhecimento das frequências associadas permitia o cálculo da velocidade da luz. [105] [107]

O resultado de Essen-Gordon-Smith, 299 792 ± 9 km / s, foi substancialmente mais preciso do que aqueles encontrados por técnicas ópticas. [105] Em 1950, medições repetidas por Essen estabeleceram um resultado de 299 792,5 ± 3,0 km / s. [108]

Uma demonstração doméstica dessa técnica é possível, usando um forno de micro-ondas e alimentos como marshmallows ou margarina: se o prato giratório for retirado para que o alimento não se mova, ele cozinhará mais rápido nos antinodos (pontos em que a amplitude da onda é o maior), onde começará a derreter. A distância entre dois desses pontos é a metade do comprimento de onda das microondas medindo essa distância e multiplicando o comprimento de onda pela frequência de microondas (geralmente exibida na parte de trás do forno, normalmente 2450 MHz), o valor de c pode ser calculado, "frequentemente com menos de 5% de erro". [109] [110]

Interferometria

A interferometria é outro método para encontrar o comprimento de onda da radiação eletromagnética para determinar a velocidade da luz. [Nota 13] Um feixe de luz coerente (por exemplo, de um laser), com uma frequência conhecida (f), é dividido para seguir dois caminhos e, em seguida, recombinado. Ajustando o comprimento do caminho enquanto observa o padrão de interferência e medindo cuidadosamente a mudança no comprimento do caminho, o comprimento de onda da luz (λ) pode ser determinado. A velocidade da luz é então calculada usando a equação c = λf.

Antes do advento da tecnologia laser, fontes de rádio coerentes eram usadas para medições de interferometria da velocidade da luz. [112] No entanto, a determinação interferométrica do comprimento de onda torna-se menos precisa com o comprimento de onda e os experimentos foram, portanto, limitados em precisão pelo comprimento de onda longo (

4 mm (0,16 in)) das ondas de rádio. A precisão pode ser melhorada usando luz com um comprimento de onda mais curto, mas torna-se difícil medir diretamente a frequência da luz. Uma maneira de contornar esse problema é começar com um sinal de baixa frequência cuja frequência pode ser medida com precisão e, a partir desse sinal, sintetizar progressivamente os sinais de alta frequência, cuja frequência pode então ser vinculada ao sinal original. Um laser pode então ser travado na frequência e seu comprimento de onda pode ser determinado usando interferometria. [113] Esta técnica foi devido a um grupo do National Bureau of Standards (NBS) (que mais tarde se tornou NIST). Eles o usaram em 1972 para medir a velocidade da luz no vácuo com uma incerteza fracionária de 3,5 × 10 -9. [113] [114]

História de medições de c (em km / s)
& lt1638 Galileo, lanternas cobertas inconclusivo [115] [116] [117]: 1252 [Nota 14]
& lt1667 Accademia del Cimento, lanternas cobertas inconclusivo [117]: 1253 [118]
1675 Rømer e Huygens, luas de Júpiter 220 000 [90] [119] ‒27% de erro
1729 James Bradley, aberração de luz 301 000 [100] + 0,40% de erro
1849 Hippolyte Fizeau, roda dentada 315 000 [100] + 5,1% de erro
1862 Léon Foucault, espelho giratório 298 000 ± 500 [100] ‒0,60% de erro
1907 Rosa e Dorsey, constantes EM 299 710 ± 30 [105] [106] Erro de ‒280 ppm
1926 Albert A. Michelson, espelho giratório 299 796 ± 4 [120] Erro de +12 ppm
1950 Essen e Gordon-Smith, ressonador de cavidade 299 792 .5 ± 3.0 [108] +0,14 ppm de erro
1958 K.D. Froome, radio interferometria 299 792 .50 ± 0.10 [112] +0,14 ppm de erro
1972 Evenson et al., interferometria a laser 299 792 .4562 ± 0.0011 [114] Erro ‒0,006 ppm
1983 17ª CGPM, definição do medidor 299 792,458 (exato) [88] exato, conforme definido

Até o início do período moderno, não se sabia se a luz viajava instantaneamente ou a uma velocidade finita muito rápida. O primeiro exame registrado deste assunto foi na Grécia antiga. Os antigos gregos, estudiosos muçulmanos e cientistas clássicos europeus debateram isso por muito tempo, até que Rømer forneceu o primeiro cálculo da velocidade da luz. A Teoria da Relatividade Especial de Einstein concluiu que a velocidade da luz é constante, independentemente do referencial. Desde então, os cientistas têm fornecido medições cada vez mais precisas.

História antiga

Empédocles (c. 490–430 aC) foi o primeiro a propor uma teoria da luz [121] e afirmou que a luz tem uma velocidade finita. [122] Ele afirmou que a luz era algo em movimento e, portanto, deveria levar algum tempo para viajar. Aristóteles argumentou, ao contrário, que “a luz se deve à presença de algo, mas não é um movimento”.[123] Euclides e Ptolomeu desenvolveram a teoria de emissão da visão de Empédocles, onde a luz é emitida do olho, permitindo assim a visão. Com base nessa teoria, Heron de Alexandria argumentou que a velocidade da luz deve ser infinita porque objetos distantes, como estrelas, aparecem imediatamente ao abrir os olhos. [124] Os primeiros filósofos islâmicos inicialmente concordaram com a visão aristotélica de que a luz não tinha velocidade de viagem. Em 1021, Alhazen (Ibn al-Haytham) publicou o Livro de Óptica, no qual ele apresentou uma série de argumentos rejeitando a teoria da emissão da visão em favor da agora aceita teoria da intromissão, na qual a luz se move de um objeto para o olho. [125] Isso levou Alhazen a propor que a luz deve ter uma velocidade finita, [123] [126] [127] e que a velocidade da luz é variável, diminuindo em corpos mais densos. [127] [128] Ele argumentou que a luz é matéria substancial, cuja propagação requer tempo, mesmo que esteja oculto de nossos sentidos. [129] Também no século 11, Abū Rayhān al-Bīrūnī concordou que a luz tem uma velocidade finita e observou que a velocidade da luz é muito mais rápida do que a velocidade do som. [130]

No século 13, Roger Bacon argumentou que a velocidade da luz no ar não era infinita, usando argumentos filosóficos apoiados pelos escritos de Alhazen e Aristóteles. [131] [132] Na década de 1270, Witelo considerou a possibilidade da luz viajar em velocidade infinita no vácuo, mas desacelerar em corpos mais densos. [133]

No início do século 17, Johannes Kepler acreditava que a velocidade da luz era infinita, pois o espaço vazio não apresenta nenhum obstáculo para ela. René Descartes argumentou que se a velocidade da luz fosse finita, o Sol, a Terra e a Lua estariam visivelmente fora de alinhamento durante um eclipse lunar. Como esse desalinhamento não foi observado, Descartes concluiu que a velocidade da luz era infinita. Descartes especulou que se a velocidade da luz fosse considerada finita, todo o seu sistema de filosofia poderia ser demolido. [123] Na derivação de Descartes da lei de Snell, ele presumiu que, embora a velocidade da luz fosse instantânea, quanto mais denso o meio, mais rápida era a velocidade da luz. [134] Pierre de Fermat derivou a lei de Snell usando a suposição oposta, quanto mais denso o meio, mais lenta a luz viaja. Fermat também defendeu uma velocidade finita da luz. [135]

Primeiras tentativas de medição

Em 1629, Isaac Beeckman propôs um experimento no qual uma pessoa observa o flash de um canhão refletindo em um espelho a cerca de 1,6 km de distância. Em 1638, Galileo Galilei propôs um experimento, com a aparente alegação de tê-lo realizado alguns anos antes, para medir a velocidade da luz observando o atraso entre a descoberta de uma lanterna e sua percepção a alguma distância. Ele não foi capaz de distinguir se a viagem da luz era instantânea ou não, mas concluiu que, se não fosse, deveria ser extraordinariamente rápida. [115] [116] Em 1667, a Accademia del Cimento de Florença relatou que havia realizado o experimento de Galileu, com as lanternas separadas por cerca de uma milha, mas nenhum atraso foi observado. O atraso real neste experimento teria sido de cerca de 11 microssegundos.

A primeira estimativa quantitativa da velocidade da luz foi feita em 1676 por Rømer. [89] [90] A partir da observação de que os períodos da lua mais interna de Júpiter, Io, pareciam mais curtos quando a Terra se aproximava de Júpiter do que quando se afastava dela, ele concluiu que a luz viaja a uma velocidade finita e estimou que leva luz 22 minutos para cruzar o diâmetro da órbita da Terra. Christiaan Huygens combinou esta estimativa com uma estimativa do diâmetro da órbita da Terra para obter uma estimativa da velocidade da luz de 220 000 km / s, 26% menor do que o valor real. [119]

Em seu livro de 1704 Óticas, Isaac Newton relatou os cálculos de Rømer da velocidade finita da luz e deu um valor de "sete ou oito minutos" para o tempo que a luz leva para viajar do Sol à Terra (o valor moderno é 8 minutos e 19 segundos). [136] Newton questionou se as sombras do eclipse de Rømer eram coloridas ao ouvir que não, ele concluiu que as diferentes cores viajavam na mesma velocidade. Em 1729, James Bradley descobriu a aberração estelar. [91] A partir deste efeito, ele determinou que a luz deve viajar 10.210 vezes mais rápido do que a Terra em sua órbita (a figura moderna é 10.066 vezes mais rápida) ou, equivalentemente, que levaria luz 8 minutos e 12 segundos para viajar do Sol para a Terra. [91]

Conexões com eletromagnetismo

No século 19, Hippolyte Fizeau desenvolveu um método para determinar a velocidade da luz com base em medições de tempo de vôo na Terra e relatou um valor de 315.000 km / s. [137] Seu método foi aprimorado por Léon Foucault, que obteve um valor de 298 000 km / s em 1862. [100] No ano de 1856, Wilhelm Eduard Weber e Rudolf Kohlrausch mediram a razão das unidades eletromagnéticas e eletrostáticas de carga, 1 / √ ε0µ0 , descarregando uma jarra de Leyden, e descobriu que seu valor numérico estava muito próximo da velocidade da luz medida diretamente por Fizeau. No ano seguinte, Gustav Kirchhoff calculou que um sinal elétrico em um fio sem resistência viaja ao longo do fio nessa velocidade. [138] No início da década de 1860, Maxwell mostrou que, de acordo com a teoria do eletromagnetismo em que estava trabalhando, as ondas eletromagnéticas se propagam no espaço vazio [139] [140] [141] a uma velocidade igual à razão Weber / Kohlrausch acima, e chamando a atenção para a proximidade numérica desse valor à velocidade da luz medida por Fizeau, ele propôs que a luz é de fato uma onda eletromagnética. [142]

"Éter luminífero"

Na época, pensava-se que o espaço vazio era preenchido com um meio de fundo chamado éter luminífero, no qual existia o campo eletromagnético. Alguns físicos pensaram que este éter atuou como um referencial preferido para a propagação da luz e, portanto, deveria ser possível medir o movimento da Terra em relação a este meio, medindo a isotropia da velocidade da luz. Começando na década de 1880, vários experimentos foram realizados para tentar detectar esse movimento, o mais famoso deles é o experimento realizado por Albert A. Michelson e Edward W. Morley em 1887. [143] [144] O movimento detectado foi sempre menor que o erro de observação. Experimentos modernos indicam que a velocidade bidirecional da luz é isotrópica (a mesma em todas as direções) dentro de 6 nanômetros por segundo. [145] Por causa deste experimento, Hendrik Lorentz propôs que o movimento do aparelho através do éter pode fazer com que o aparelho se contraia ao longo de seu comprimento na direção do movimento, e ele assumiu ainda que a variável de tempo para sistemas móveis também deve ser alterada consequentemente ("hora local"), o que levou à formulação da transformação de Lorentz. Com base na teoria do éter de Lorentz, Henri Poincaré (1900) mostrou que esta hora local (de primeira ordem em v / c) é indicada por relógios que se movem no éter, que são sincronizados sob a suposição de velocidade constante da luz. Em 1904, ele especulou que a velocidade da luz poderia ser uma velocidade limitante na dinâmica, desde que os pressupostos da teoria de Lorentz fossem todos confirmados. Em 1905, Poincaré trouxe a teoria do éter de Lorentz em total concordância observacional com o princípio da relatividade. [146] [147]

Relatividade especial

Em 1905, Einstein postulou desde o início que a velocidade da luz no vácuo, medida por um observador sem aceleração, é independente do movimento da fonte ou do observador. Usando isso e o princípio da relatividade como base, ele derivou a teoria da relatividade especial, na qual a velocidade da luz no vácuo c caracterizado como uma constante fundamental, aparecendo também em contextos não relacionados à luz. Isso tornou o conceito de éter estacionário (ao qual Lorentz e Poincaré ainda aderiam) inútil e revolucionou os conceitos de espaço e tempo. [148] [149]

Maior precisão de c e redefinição do medidor e segundo

Na segunda metade do século 20, muito progresso foi feito no aumento da precisão das medidas da velocidade da luz, primeiro por técnicas de ressonância de cavidade e depois por técnicas de interferômetro a laser. Estas foram auxiliadas por novas e mais precisas definições de metro e segundo. Em 1950, Louis Essen determinou a velocidade como 299.792,5 ± 3,0 km / s, usando ressonância de cavidade. [108] Este valor foi adotado pela 12ª Assembleia Geral da União Radiocientífica em 1957. Em 1960, o medidor foi redefinido em termos do comprimento de onda de uma linha espectral particular do criptônio-86 e, em 1967, o segundo foi redefinido em termos da frequência de transição hiperfina do estado fundamental do césio-133. [150]

Em 1972, usando o método do interferômetro de laser e as novas definições, um grupo do US National Bureau of Standards em Boulder, Colorado determinou que a velocidade da luz no vácuo era c = 299 792 456,2 ± 1,1 m / s. Isso era 100 vezes menos incerto do que o valor aceito anteriormente. A incerteza restante estava principalmente relacionada à definição do medidor. [Nota 15] [114] Como experimentos semelhantes encontraram resultados comparáveis ​​para c, a 15ª Conferência Geral sobre Pesos e Medidas em 1975 recomendou o uso do valor 299 792 458 m / s para a velocidade da luz. [153]

Definindo a velocidade da luz como uma constante explícita

Em 1983, a 17ª reunião da Conferência Geral de Pesos e Medidas (CGPM) descobriu que os comprimentos de onda das medições de frequência e um determinado valor para a velocidade da luz são mais reproduzíveis do que o padrão anterior. Eles mantiveram a definição de segundo de 1967, de modo que a frequência hiperfina de césio determinaria agora tanto o segundo quanto o metro. Para fazer isso, eles redefiniram o metro como: "O metro é o comprimento do caminho percorrido pela luz no vácuo durante um intervalo de tempo de 1/299 792 458 de segundo." [88] Como resultado desta definição, o valor da velocidade da luz no vácuo é exatamente 299 792 458 m / s [154] [155] e tornou-se uma constante definida no sistema SI de unidades. [13] Técnicas experimentais aprimoradas que, antes de 1983, teriam medido a velocidade da luz não afetam mais o valor conhecido da velocidade da luz em unidades SI, mas permitem uma realização mais precisa do medidor medindo com mais precisão o comprimento de onda de Krypton-86 e outras fontes de luz. [156] [157]

Em 2011, a CGPM declarou sua intenção de redefinir todas as sete unidades de base do SI usando o que chama de "a formulação da constante explícita", onde cada "unidade é definida indiretamente, especificando explicitamente um valor exato para uma constante fundamental bem reconhecida", como foi feito para a velocidade da luz. Ele propôs uma nova, mas completamente equivalente, formulação da definição do metro: "O metro, símbolo m, é a unidade de comprimento, sua magnitude é definida fixando o valor numérico da velocidade da luz no vácuo para ser exatamente igual a 299 792 458 quando é expresso na unidade SI ms -1. " [158] Esta foi uma das mudanças que foi incorporada na redefinição das unidades de base do SI em 2019, também denominada de Novo SI.


5. Exosfera

Ao contrário de outras camadas, que são principalmente distinguíveis umas das outras, é difícil dizer a que distância a exosfera está da superfície do planeta.

Ao contrário de outras camadas, que são principalmente distinguíveis umas das outras, é difícil dizer a que distância a exosfera está da superfície do planeta. Em algum lugar, tem cerca de 100.000 km, mas pode se expandir até 190.000 km acima do nível do mar. O ar aqui é extremamente rarefeito e as condições aqui são mais semelhantes às que encontramos quando deixamos totalmente a atmosfera da Terra.


Arrhenius & # 8211 Earth To Boil

E 115 anos depois, Stephen Hawking repetia o mesmo absurdo.

Arrhenius cometeu um erro fundamental ao não reconhecer que H2O é um gás de efeito estufa. Knut Angstrom apontou isso em 1901 e mostrou experimentalmente que a adição de CO2 tem muito pouco impacto no clima.

Rasool e Schneider confirmaram isso em 1971.

Eu gerei este gráfico usando o modelo RRTM-LW, que mostra como o CO2 e o CH4 têm pouco impacto no equilíbrio radiativo da Terra & # 8217s. Mesmo um grande aumento de CO2 ou CH4 tem impacto mínimo no clima. H2O é, de longe, o gás de efeito estufa dominante na Terra.

48 respostas para Arrhenius & # 8211 Earth To Boil

Como a Terra pode esquentar até ferver como Vênus com uma pressão atmosférica de 14,7 psi e um nível de CO2 de apenas 0,04%? Vênus é mais quente do que Mecúrio porque tem uma atmosfera, uma atmosfera densa. Portanto, você não pode dizer que Vênus é mais quente porque está mais perto do sol. A física básica nos diz que a alta pressão do ar em Vênus gera o calor.

O calor em Vênus é totalmente contabilizado pelas leis dos gases e não por qualquer efeito de GEE.
Sim 100bar e # 8211 450C! O IR que atinge a superfície de Vênus (albedo muito alto, conforme apontado) é muito pequeno, embora esteja mais próximo do Sol. Mercúrio não tem atmosfera, portanto, sua temperatura de superfície não tem sentido em termos de gases.

Então, por que o nitrogênio nos cilindros do meu laboratório (2.000 psi) não está quente?
Perto da superfície de Vênus, a atmosfera certamente não obedece a nenhuma lei dos gases (nem mesmo as leis dos gases não ideais), uma vez que o CO2 é supercrítico.

Porque o calor gerado para colocar o nitrogênio no cilindro foi dissipado durante o trabalho gasto para colocá-lo lá. Além disso, seu cilindro de gás não é um corpo gravitacional maciço, girando continuamente no espaço & # 8211orvindo perto de um Sol incandescente & # 8211 que atua como uma bomba de força contínua. Deixe o nitrogênio sair rapidamente do cilindro e veja o frio congelante (reação igual e oposta) que é gerado. Você entende a dinâmica dos fluidos e a pressão da cabeça? Pela sua lógica, cilindros cheios de CO2, expostos a uma fonte de calor, seriam mais quentes do que aqueles cheios de nitrogênio ou outros gases.

Exatamente meu ponto, RealUniverse, a quem eu estava respondendo, afirmou que a temperatura em Vênus é & # 8220totalmente contabilizada pelas leis dos gases & # 8221, e que & # 8220100bar-450ºC & # 8221. Como você, eu sei que isso é incorreto.

Ainda não estou claro sobre como a alta pressão sozinha pode ser responsável pelo calor, já que após a compressão ela esfria. A atmosfera não age mais como um cobertor isolante, mantendo o calor dentro?

Quando eu encho os pneus do meu carro, eu os encho a cerca de 40 PSI. O atrito causado adiciona um pouco de calor e, sim, esse calor escapa.

A pressão atmosférica em Vênus é

1330 PSI, ou cerca de 90 vezes maior do que a pressão ao nível do mar aqui em Mama Gaia, que é cerca de 14,5 PSI.

Não há nenhum cobertor alto na estratosfera, nem no topo da troposfera, onde o previsto & # 8220 ponto quente & # 8221 causado pelo dióxido de carbono no equador deveria ser a prova do & # 8220 efeito estufa. & # 8221 não existe. O calor está se dissipando [escapando] para o espaço como sempre.

CAGW é uma falha enorme. Já passou da hora de jogá-lo no topo da montanha de hipóteses científicas fracassadas.

Não é o aumento da pressão em si que o faz & # 8212, ele & # 8217s o aumento da & # 8220 espessura óptica & # 8221 que o acompanha. Ou seja, para uma determinada composição atmosférica, duas vezes a quantidade & # 8220 & # 8221 da atmosfera resulta em duas vezes a pressão superficial e também duas vezes a absorção da radiação superficial.

Quando uma atmosfera é mais opaca para a radiação de ondas longas do que para a radiação solar de ondas curtas (e este é o caso de todas as atmosferas planetárias que conhecemos), geralmente ganha energia perto (ou no) fundo e a perde perto o topo. Isso é o que cria a taxa de lapso negativa (temperatura diminuindo com a altura) que geralmente vemos.

Mas a física básica nos diz que se a magnitude da taxa de lapso negativa exceder a adiabática, a convecção ocorrerá, levando rapidamente o ar mais quente de alturas inferiores para alturas superiores, de onde pode irradiar para o espaço muito mais prontamente. Taxas de lapso maiores que adiabáticas são, portanto, chamadas de & # 8220unstable & # 8221.

Este fenômeno define um limite superior firme de quanto o & # 8220 aquecimento da estufa & # 8221 pode ocorrer em uma determinada atmosfera. Fundamentalmente, é o produto da taxa de lapso adiabática e a & # 8220 altura de emissão & # 8221 da atmosfera.

Embora seja certamente possível que o aumento da concentração de gases absorventes como o CO2 possa aumentar ligeiramente a altura das emissões, este é um efeito marginal. Vênus tem muito mais atmosfera do que a Terra, e sua altura de emissão é dezenas de vezes maior do que na Terra. Portanto, não é possível obter um aquecimento & # 8220 fugaz & # 8221 com o tipo de aumento de CO2 que estamos observando.

Pessoas que afirmam que podemos enfrentar um aquecimento descontrolado simplesmente não entendem os mecanismos físicos subjacentes.

Ed Bo,
Boa explicação.
Eu acrescentaria que, se olharmos para a atmosfera de Vênus de 1 bar de altitude, a temperatura e o perfil de temperatura parecem notavelmente semelhantes aos da Terra & # 8217s do nível do mar para cima. Para mim, isso é uma indicação de que a temperatura da superfície quente é amplamente governada pela densidade da atmosfera venusiana e a alta concentração de CO2 é irrelevante. A atmosfera venusiana com uma massa equivalente de nitrogênio substituindo o CO2 seria igualmente quente.

Eu não concordo totalmente. Você realmente precisa que a absorção da radiação da superfície de ondas longas seja maior do que a da radiação solar de ondas curtas para configurar a taxa de lapso negativa em primeiro lugar. O nitrogênio não fornece isso.

Mas o fato de que uma taxa de lapso maior do que o adiabático não pode persistir coloca um limite superior firme no efeito de aquecimento. Muitos alarmistas não entendem isso.

Archie, O calor da superfície é virtualmente constante em cerca de 460 C, noite e dia, pesquisa para o equador. No ponto mais alto de Vênus, a temperatura é de cerca de 380 C, então é uma resposta semelhante à da Terra. Certamente não tem um aquecimento global descontrolado, como afirmado, uma vez que o calor é constante. Em Vênus, você tem que chegar a uma altitude de pelo menos 50 km para se aproximar de uma pressão do tipo Terra.

Portanto, se o CO2 está prendendo o calor, por que não está aumentando?

O teste empírico / refutação do CAGW (aquecimento global antropogênico catastrófico) é essencial, é claro.

Foram produzidos resultados empíricos muito importantes que refutam o CAGW, amplamente descoberto registrado pela Real Climate Science.

No entanto, existe um outro ângulo pelo qual o assunto precisa ser abordado: a química e a física do CO2.

Critiquei meus colegas céticos por não prestarem atenção suficiente à física e à química do CO2, que contém a chave para a refutação direta do CAGW.

Não sou um cientista natural o suficiente para me envolver, muito menos para liderar, tais esforços; em vez disso, estou muito lentamente acumulando percepções dessa frente - que na verdade parece depender em grande parte de um conhecimento de longa data. É de se perguntar por que essas descobertas científicas não agiram como disjuntores mortais para o CAGW.

Ei Georg! Os fatos não refutam as crenças políticas e emocionais. CAGW nunca foi sobre ciência.

Alguns países ainda têm um canal de notícias decente sobrando.

O geólogo e cientista da Terra Ian Plimer diz que o globo não está enfrentando uma emergência climática, dizendo à Sky News que “na verdade ainda vivemos em uma era do gelo”.

Obrigado Robertv. Eu recebo um grande sorriso no rosto toda vez que vejo o Sr. Plimer. Os conservadores conhecem os dados. Alarmunistas conhecem apenas os pontos de discussão da propaganda. CAGW é uma hipóteses ambulante morta.

O apresentador da Sky News, Chris Kenny.

De certa forma, simpatizo com sua opinião. As pessoas aqui na Alemanha estão presas em um estado de condicionamento emocional tal que basta alegar que algo está prejudicando o meio ambiente, e elas aceitarão isso sem verificar. Na verdade, eles aceitarão qualquer absurdo pseudoecológico.

Desta forma, os Verdes conseguiram destruir a consciência / discernimento / competência / preocupação ambiental na Alemanha e substituíram-na por uma religião totalmente antiecológica.

No entanto, é uma sorte que ainda existam pessoas como Tony que se preocupam com os fatos ecológicos - e o método científico por trás deles.

A disseminação implacável do método correto de lidar com as questões ambientais é um fator importante na reversão ao respeito adequado pela ciência.

O alarmismo está cheio de contradições e começa a prejudicar as pessoas em suas vidas reais.

A maioria das pessoas experimenta o & # 8220catastrófico aquecimento global & # 8221 de maneira indireta. Mas mesmo aqui na Alemanha, suas convicções alarmistas se mostram muito tênues, no momento em que o alarmismo se torna um acontecimento palpável: eles rapidamente se voltam contra ele, quando de repente ouve-se o ruído de uma turbina eólica em sua sala de estar.

Para a maioria, acreditar na CGW é uma maneira conveniente de ser como todo mundo, o que por si só torna a vida mais fácil (você não pode chegar mais perto da verdade absoluta do que acreditar no que todos os outros acreditam, e você economiza o esforço de pensar por si mesmo).

O alarmismo prejudicará cada vez mais as pessoas, e essa dor crescente provará como as convicções alarmistas são superficiais. Surgirão forças políticas que assumirão e reforçarão essa tendência e o dominó começará a ruir.

Manabe & amp Möller fizeram um ótimo artigo sobre gases ativos no espectro infravermelho e o equilíbrio de calor da atmosfera:

Veja também Kondratyev & # 8211 Radiação na atmosfera & # 8211 cap. 11, Variação da temperatura na atmosfera devido à troca de calor por radiação.

Todos esses estudos concluíram que o CO2 resfria a atmosfera (veja o capítulo sobre balanço de calor no artigo Manabe & amp Möller p.525).
A única área em que alguns poderiam discordar (Plass, Goody, por exemplo) foi na tropopausa em latitudes tropicais (ver artigo de Manabe & amp Möller).

Posteriormente, os inquilinos dos modelos GCM nos disseram que o efeito de aquecimento do CO2 deveria ser muito importante nesta mesma área e que isso deveria ser observado com o aumento da concentração de CO2 na atmosfera.

Apesar do aumento da concentração de CO2 observado nos últimos 40 anos, 40 anos de dados de satélite (da UAH) não mostraram esse aquecimento na área da tropopausa tropical.

Sim! O perpétuo ponto quente na alta troposfera sobre os trópicos que nunca foi demonstrado pelas suposições e pela física que os modelos climáticos que projetam fora de controle exigem o aquecimento. E ainda assim eles continuam como se as projeções desses modelos estivessem corretas.

O problema não é que o vapor d'água seja um GEE e absorva muito, o problema é que o albedo é modulado pela condensação da água. Albedo não é um valor fixo de 0,305, varia durante o dia para refletir a energia solar conforme necessário. O planeta inteiro é controlado por albedo, e o gás NENHUM vai fazer nada a respeito. Mais aquecimento dá exponencialmente mais evaporação, o que resulta em maior cobertura média de nuvens e maior rotação de precipitação.

O sombreamento é o primeiro controle, o calor latente é o segundo. O calor latente pode ultrapassar 1 milhão de watts / m ^ 2 (na taxa de chuva mais alta) (e não pode ser irradiado nessa taxa, então o calor se move para as & # 8220 células de grade & # 8221 adjacentes). O tamanho total explica a área total da nuvem de chuva em comparação com a área de chuva (cerca de 500x a área a 1 & # 8243 por hora)

Outro cientista que concorda com a história de Arrhenius foi Albert Einstein.
Albert Einstein, em seu artigo de 1917:

diz o seguinte sobre o aquecimento radiativo de um gás:

Durante a absorção e emissão de radiação também está presente uma transferência de momento para as moléculas. Isso significa que apenas a interação da radiação e das moléculas leva a uma distribuição de velocidade das últimas. Esta deve ser certamente a mesma que a distribuição de velocidade que as moléculas adquirem como resultado de sua interação mútua por colisões, ou seja, deve coincidir com a distribuição de Maxwell. Devemos exigir que a energia cinética média que uma molécula
por grau de liberdade adquire em um campo de radiação de Plank de temperatura T ser

isso deve ser válido independentemente da natureza das moléculas e independente das frequências que as moléculas absorvem e emitem.

“Independentemente da natureza das moléculas e independente das frequências nas quais as moléculas absorvem e emitem.”

Só agora as pessoas estão começando a entender o que Einstein quis dizer & # 8211 que os fenômenos de absorção-emissão no cerne da conjectura de aquecimento do CO2 são responsáveis ​​por uma pequena fração apenas da dinâmica do calor atmosférico. A maior parte do movimento de calor é por interações de transferência de momento Maxwellianas, bem como convecção e evaporação.

Na verdade, um artigo fundamental de Einstein.

Você certamente quis dizer & # 8220 que discordou & # 8221 & # 8230

A molécula que absorve um fóton torna-se excitada e pode então irradiar novamente algum tempo depois. Isso é elástico na medida em que nenhuma energia é perdida e toda a energia sai da mesma forma em que entrou. No entanto, a entropia aumenta porque a nova radiação segue em alguma direção aleatória, e o nome geral para isso é & # 8220 espalhamento & # 8221.

Se você tiver um radiador infravermelho (ou seja, a Terra) em um vácuo puro, toda a radiação irá viajar para longe do radiador. Se o mesmo radiador infravermelho estiver rodeado por uma cobertura de dispersão & # 8220 & # 8221 da atmosfera, então ele irá irradiar um pouco menos eficientemente porque a dispersão muda a direção de alguma radiação de volta para o radiador original. NOTA: o radiador ainda esfria, a termodinâmica faz o que diz na caixa e o calor se move do radiador quente para o espaço fresco ao redor. No entanto, ele simplesmente esfria com menos eficiência.

No entanto, se a molécula que absorve o fóton (a molécula excitada) colide com outra molécula antes de poder irradiar novamente, ela pode transferir essa energia em calor dentro do gás e nunca irradiar para fora do fóton. Esta é a energia do fóton sendo convertida em energia cinética que então se dispersa em sua distribuição padrão de energia entre os graus de liberdade mecânicos. O processo inverso também pode acontecer: o gás irradia levemente, pois por acaso o conjunto exato de colisões consegue atingir a excitação em uma molécula (conversão de energia reversa). Este processo é inelástico e também aumenta a entropia. Portanto, em conjunto, a Terra irradiará em um comprimento de onda um pouco mais longo do que faria de outra forma. O quão significativo esse efeito se torna depende de se a molécula excitada tem mais probabilidade de ter uma colisão ou mais probabilidade de irradiar novamente. Em baixa densidade atmosférica, as colisões são raras, então a maior parte do espalhamento é elástica.

Todos esses efeitos são muito pequenos e amplamente irrelevantes. A parte do leão do calor da superfície da Terra é movida pela convecção da água, que carrega o calor latente da evaporação. Isso tem uma série de efeitos, elevando o calor da superfície até a tropopausa (aumentando assim a área de superfície do radiador, permitindo que ele resfrie com mais eficiência) e também desviando o calor do local onde o sol está brilhando e lateralmente para regiões mais frias ( aumentando assim também a área de superfície do radiador e redistribuindo o calor para criar uma parte muito maior da superfície da Terra (confortável para a vida).

Já temos um teste experimental de como seria a temperatura na superfície da Terra e # 8217 sem qualquer atmosfera. Você pode se surpreender, mas não é nada parecido com o que os chamados & # 8220 cientistas do clima & # 8221 dizem que seria. A parte quente seria 400 K (muito quente) e as regiões frias abaixo em torno de 120 K (frio congelante), com quase zero por cento da superfície sendo confortável para a vida. Este é um resultado empírico sólido medido a partir da superfície da lua.

Assim, em termos de vida na Terra, o que importa quase inteiramente é o transporte de calor e o efeito estabilizador da temperatura da convecção da água. O efeito de espalhamento infravermelho (enquanto real) é dois décimos de droga, tudo no esquema das coisas. A água é altamente não linear, portanto, um aumento muito pequeno na temperatura da superfície do mar, tem um aumento maciço na evaporação. Por esta razão, a temperatura da superfície dos oceanos da Terra e # 8217s não pode ficar significativamente mais quente do que 303K e temos excelentes dados empíricos medidos para isso também, vindos das bóias Argo.

A molécula que absorve um fóton torna-se excitada e pode então irradiar novamente algum tempo depois. Isso é elástico na medida em que nenhuma energia é perdida e toda a energia sai da mesma forma em que entrou.

Não é verdade, é inelástica, no caso da fluorescência a energia do fóton que é emitido é menor do que a energia do fóton excitante.


Depósitos de cavernas revelam permafrost descongelado há 400.000 anos, quando as temperaturas não eram muito mais altas do que hoje

Pesquisadores dos Estados Unidos e do Canadá encontraram evidências em depósitos minerais de cavernas no Canadá de que o degelo do permafrost ocorreu há 400 mil anos, em temperaturas não muito mais altas do que hoje. Mas eles não encontraram evidências de que o degelo causou a liberação dos níveis previstos de dióxido de carbono armazenado no terreno congelado. Crédito: Jeremy Shakun, Boston College

Os depósitos da caverna revelam o degelo do permafrost do Pleistoceno, sem níveis previstos de liberação de CO2.

O vasto terreno congelado do permafrost ártico derreteu várias vezes na América do Norte nos últimos 1 milhão de anos, quando o clima do mundo & # 8217s não era muito mais quente do que hoje, relatam pesquisadores dos Estados Unidos e Canadá na edição de hoje & # 8217s de Avanços da Ciência.

O permafrost ártico contém duas vezes mais carbono do que a atmosfera. Mas os pesquisadores descobriram que o degelo - que expele estoques de dióxido de carbono sequestrado nas profundezas da vegetação congelada - não foi acompanhado por níveis elevados de CO2 na atmosfera. A descoberta surpreendente vai contra as previsões de que, à medida que o planeta se aquece, o volume desses estoques naturais de carbono pode aumentar significativamente o CO2 produzido pela atividade humana, uma combinação que pode aumentar o número de gases de efeito estufa climatológicos.

A equipe de pesquisadores explorou cavernas no Canadá em busca de pistas deixadas nos espeleotemas - depósitos minerais acumulados ao longo de milhares de anos - que podem ajudar a responder quando no passado o permafrost canadense degelou e quanto mais quente era o clima, disse o professor associado do Boston College. Ciências da Terra e Ambientais Jeremy Shakun, co-autor do estudo.

A equipe estava acompanhando um estudo de 2020 que datou amostras de cavernas na Sibéria. Essa pesquisa encontrou registros de degelo do permafrost até cerca de 400.000 anos atrás, mas pouco desde então. Como o estudo se concentrou em apenas uma região, os pesquisadores buscaram ampliar a busca por uma visão mais representativa da região ártica, disse Shakun, paleoclimatologista.

Durante o curso de dois anos, os pesquisadores dataram 73 depósitos de cavernas de várias cavernas agora congeladas no Canadá. Os depósitos oferecem pistas reveladoras da história climatológica porque eles só se formam quando o solo é descongelado e a água goteja em uma caverna. Ao datar a idade dos espeleotemas, os cientistas foram capazes de determinar quando, no passado, as regiões haviam degelado.

Shakun disse que os resultados são muito semelhantes aos do estudo siberiano anterior, sugerindo que o permafrost ártico se tornou mais estável ao longo dos ciclos da idade do gelo dos últimos dois milhões de anos.

Mas ele disse que a equipe ficou surpresa ao descobrir que muitos dos espeleotemas do alto Ártico eram muito mais jovens do que o esperado. Suas idades relativamente jovens significam que os depósitos minerais formados pelo degelo do permafrost quando o mundo não era muito mais quente do que é hoje.

Núcleos de sedimentos do Oceano Ártico dão uma dica do que poderia estar acontecendo naquela época.

& # 8220Os verões eram sem gelo antes de 400.000 anos atrás, & # 8221 Shakun disse. & # 8220Isso teria aquecido mais a terra durante o verão e isolado de nevascas mais profundas no inverno, fazendo com que o solo degelasse. & # 8221

Essa teoria é motivo de preocupação se estiver correta, acrescentou. & # 8220Metade do gelo do mar Ártico desapareceu desde que nasci, então isso pode estar tornando o permafrost mais vulnerável novamente. & # 8221

Em segundo lugar, os registros da atmosfera antiga mostram que os níveis de gases do efeito estufa não eram mais altos durante os últimos intervalos de degelo do permafrost que identificamos - isso é surpreendente porque a visão padrão é que grandes quantidades de carbono devem ser liberadas para a atmosfera quando o permafrost degela.

Shakun disse que as descobertas exigem mais pesquisas para entender o que permitiu o degelo do permafrost às vezes no passado, quando não era muito mais quente, e por que há poucas evidências de uma grande liberação de carbono nesses momentos.

& # 8220Estas descobertas não se encaixam facilmente com as previsões típicas de aquecimento global para o futuro & # 8221 disse Shakun. & # 8220Eles podem significar que os cientistas negligenciaram os processos que impedirão o degelo do permafrost de causar um grande aumento no CO2 daqui para frente. Por outro lado, pode ser apenas que os eventos de degelo gradual no passado foram lentos o suficiente para que o CO2 que eles liberaram pudesse ser absorvido pelos oceanos ou plantas em outros lugares & # 8211 uma situação que pode não se aplicar ao aquecimento muito mais rápido hoje. & # 8221

Referência: & # 8220Aumento da persistência do permafrost do Pleistoceno e enigmas do ciclo do carbono inferidos dos espeleotemas canadenses & # 8221 por Nicole Biller-Celander, Jeremy D. Shakun, David McGee, Corinne I. Wong, Alberto V. Reyes, Ben Hardt, Irit Tal, Derek C . Ford e Bernard Lauriol, 28 de abril de 2021, Avanços da Ciência.
DOI: 10.1126 / sciadv.abe5799

Além de Shakun, co-autores do relatório incluíram David McGee, Ben Hardt e Irit Tal, do MIT, Alberto Reys, da Universidade de Alberta, Derek Ford, da Universidade McMaster, Bernard Lauriol, da Universidade de Ottawa, ex- Nicole Biller-Celander, estudante de graduação em BC, e a geóloga Corinne Wong, ex-BC.


Tópicos da Atmosfera

O aquecimento da estufa é aumentado durante as noites, quando o céu está nublado. A energia térmica da terra pode ser capturada por nuvens, levando a temperaturas mais altas, em comparação com noites com céu limpo. O ar não pode esfriar tanto com céu nublado. Sob céu parcialmente nublado, algum calor pode escapar e parte permanece presa. O céu limpo permite que ocorra o resfriamento máximo.


Assista o vídeo: Como o oxigênio surgiu na atmosfera da Terra (Novembro 2021).