During the 7th century, the Hispanic peninsula was conquered by the Arabs. While Europe was still immersed in the shadows of the medieval times, Al-Ándalus became one of the cultural and scientific centers of the world. The Arabs introduced our present numeration, trigonometry and geometry in Europe through Hispania. Astronomy was much studied at the time. Azarquiel (1029-1087), astronomer based in Toledo, started manufacturing astronomic instruments like astrolabes and finished elaborating the Astronomic Tables of Toledo, which were used to predict the position of the orbs in the sky at any moment. His greatest invention was the Azafea, a modified astrolabe that could be used on any latitude.
Until the creation of the first universities (Palencia and Salamanca) in the 13th century, Spanish science was isolated from the rest of the world and was giving only limited contributions. After the Reconquista and the discovery of America, the geographical expeditions oriented the scientific research towards navigation. That is one of the reasons why there was much interest in practical astronomy. Abraham Zacut (1452-1510), a Jew based in Salamanca, is known for his works in astronomy and mathematics until 1492, when he was expelled from the Hispanic peninsula and died in Tunez. As a curiosity, Joan Roget was a Catalan who many people believe to have invented the first telescope before the official inventor, Hans Lippershey. In 1582, Felipe II ordered the creation of the Academy of Mathematics of Madrid. The mathematicians Vicente Tosca and Vicente Mut tried to introduce modern European knowledge in Spain. Mut used Galileo’s mechanics to study projectiles and studied the 1665 comet of 1665, anticipated by Newton.
In the 18th century, known as the century of lights, Spanish science started to reactivate. The Borbones dynasty tried to impulse science as a way to modernize a country deeply sunk, which was a way back from European research. Having many difficulties in renovating the universities, they created academies protected by the court. We should name Tomas Vicente Tosca, author of a compendium for learning Descartes and Newton; Benito Vails, who introduced infinitesimal calculus, Jose Chaix, with worked on differential calculus; Agustin de Predrayes, who represented Spain in Paris in the establishment of the decimal metric system; and Jorge Juan de Santacilia and Antonio de Ulloa, who participated in a expedition to Ecuador to measure the length of one degree of meridian along the equator, trying to resolve the controversies on the Earth’s shape.
In the 19th century, Spain was very unstable and convulsed. Wars, crisis and political revolts explain why almost till the end of that century the political situation never normalized. In 1875 the Institución de Libre Enseñanza was created, where scientific research had an important role. Even so, the physics investigation was still huge leaps back of the European level. We have to add the extremely deficient industrialization of the country.
Already in the 20th century, the Junta de Ampliación de Estudios (JAE) was created in 1907. Until then there was no ministry dedicated to education. In this institution the best Spanish physicists of the time were active, like Blas Cabrera, Julio Rey Pastor, Julio Palacios, Arturo Duperier, etc. One of the objectives of the JAE was to impulse Spanish scientists to move abroad to break the isolation and acquire international practice. In 1910 Manuel Martinez-Risco travelled to Amsterdam to study with Pieter Zeeman, in 1912 Blas Cabrera went to Zurich, where Enrique Moes was already working with Pierre Weiss on the magneton and magneto-chemistry of the ferric components, an area where Cabrera became renown internationally. After the first world war travels by Spanish physicists allowed them to make contacts with the most prestigious physics centers in the world. In Spain, the National Physics and Chemistry Institute opened in 1932, with the financial support of the Rockefeller Foundation. This looked like the final touch to a brighter time.
But this modest but constant resurgence crashed against the Spanish civil which took place from 1936 until 1939. Apart from the material destruction, many scientists were killed, politically expelled or thrown in exile. In 1939 the JAE changed to become the actual Consejo Superior de Investigaciones Científicas (CSIC) During the Franco regime, physics started to regain importance but, in 1950, the situation was still very much as before the civil war. In Madrid, Garcia-Santesmases built a big computer. In Valencia, Catalá de Alemany started the study of nuclear reactions with emulsions. In Zaragoza, Cases investigated mass spectroscopy and termodiffusion. An experimental nuclear reactor and a particle accelerator were constructed in the Junta de Energía Nuclear in Madrid. There, many scientists gained knowledge in nuclear physics, like fusion, fission, and detectors.
In the 1970's, being the dictatorship over, Spain had 14 universities, in which only three Physics courses were offered. Today it can be studied in almost half of the 49 universities.
Alejandro Pazó de la Sota
quinta-feira, 16 de junho de 2011
Chile, um acordar tardio para a Física
Tendo sido povoado pelos Incas ao longo de vários séculos, o Chile foi conquistado pelos espanhóis em 1536, tendo estes construído a actual capital, Santiago, em 1545. O Chile foi uma das colónias mais valiosas de Espanha, pelas suas riquezas e posição estratégica. Assim, sob o domínio espanhol, o progresso notou-se somente nas técnicas de extracção de minérios e na agricultura. Em Setembro de 1810, durante as invasões das tropas napoleónicas em Espanha, ocorreu a primeira tentativa de independência do povo chileno. Sendo a data oficial da independência do Chile 1818, em 1813 já uma junta militar governava o território.
Em 10 de Agosto de 1813 foi inaugurado o Instituto Nacional, que iniciou a sua actividade com 18 disciplinas, sendo uma destas a física experimental leccionada pelo Padre José Bezanilla. Era leccionada no curso de Ciências Naturais, juntamente com química, botânica, geografia, economia, política, matemática e línguas vivas. Com apenas 14 meses de funcionamento, a Reconquista (1814-1819) forçou o Instituto a fechar as portas até 1819, data da vitória de Maipú. A formação do Instituto Nacional teve como consequência directa o desejo do novo governo de educar o povo. Sendo este um marco histórico da ciência chilena, não era de todo o primeiro acto ligado à ciência nacional. Há relatos de actividades esporádicas, ligadas à física, anteriores à República do Chile. Na Academia de San Luis (uma academia militar), por exemplo, um engenheiro espanhol, Agustin Cavallero, tinha, em 1799, abordado vários tópicos (termodinâmica, projécteis, dinâmica, hidraulica, etc.) direccionando-os para problemas de teor militar. Esta física experimental difere em muitos aspectos da que conhecemos hoje. Quando o Instituto Nacional reabriu, a disciplina de Física Experimental continuou a ser leccionada, em latim, pelo Padre Bezanilla, o qual dividia o programa em duas partes: física geral, que abordava cosmografia, geografia física e história natural; e física particular, englobando fenómenos físicos e as suas causas (como eram tidas na época).
Em 1823 foi fundada a Academia Chilena, por um físico espanhol e por um engenheiro francês, Carlos A. Lozier, que leccionavam na secção de Ciências Matemáticas e Físicas. Lozier foi nomeado reitor do Instituto Nacional em 1826, impondo uma reforma radical que tinha como principal objectivo eliminar os vestígios residuais do ensino colonial, o que implicava mudar a quase totalidade dos professores. Tal levou a que o cargo lhe fosse retirado pouco tempo depois. Com a saída de Lozier, chegou ao Chile o engenheiro espanhol Andrés A. Gorbea, que estudou matemática e engenharia em Espanha, após o que rumou a França para aperfeiçoar os seus conhecimentos em física, tendo tido como colega Louis Gay-Lussac. Gorbea é responsável pelo primeiro livro de física publicado no Chile, tradução de uma obra de Jean-Baptiste Biot. Apesar de todos os esforços de Gorbea, não sendo a disciplina de Física Experimental obrigatória, eram muito poucos os alunos que a frequentavam. Gorbea ficou conhecido como o “pai” da engenharia e do ensino da matemática (no sentido de hoje) e ainda como o primeiro a leccionar física racional, em 1850, no Chile.
A 21 de Janeiro de 1832, o venezuelano Andrés Bello, primeiro reitor da Universidade do Chile, afirmou que as principais áreas de profissão no Chile (agricultura, extracção mineira, comércio e advocacia) necessitavam de conhecimentos de física, sendo necessário leccionar esta disciplina no ensino preparatório. Esta afirmação deu origem a um movimento de reformulação dos programas do ensino preparatório, começando a ser leccionada física experimental em vários colégios por todo o país. Em 1858, eram 14 as escolas que leccionavam física.
Foram vários os nomes que contribuíram para a evolução do ensino da ciência neste país, mas destaca-se o de José Zegers, discípulo de um físico polaco, que em 1857 foi nomeado responsável da disciplina de física experimental no Instituto Nacional. Zegers ficou conhecido por impor nas escolas do Chile o livro de física utilizado nas melhores universidades europeias e americanas (Traité Elémentaire de Physique Expérimental et Appliquée et Métérologie, de Adolphe Ganot). Além disso, Zegers publicou vários estudos sobre electricidade, novos barómetros, mecânica e ensino de ciências experimentais. Em 1889, foi fundado o Instituto Pedagógico, responsável pela formação de professores na área das ciências experimentais (com base nos estudos publicados por Zegers), uniformizando assim o ensino nesta área por todo o país.
No início do século XX, começou uma nova etapa do ensino e concepção da física, até então ligada a aspectos práticos dos sectores de actividade principais do Chile. Esta mudança iniciou-se em Maio de 1903, com a chegada ao Instituto Pedagógico do alemão Wilhem Ziegler, que pretendeu adaptar o ensino da física ao que era praticado na Alemanha. Foram construídos edifícios para o ensino da física e da química, contratados matemáticos e químicos alemães, com o fim de unir áreas até então como isoladas. De modo a ser perceptível a mudança que Ziegler provocou no ensino chileno, pode-se comparar a física no Chile (embora mais ligada a aspectos práticos) com a que se fazia em muitos sítios da Europa, onde pouco depois Einstein publicou o seu artigo sobre o efeito fotoeléctrico.
A melhoria do ensino no Chile conduziu à evolução da ciência nesse país, tendo sido publicados, em 1908, artigos sobre espectroscopia, electrólise, velocidade de moléculas de gases, electricidade, etc. No final dos anos 20, iniciaram-se vários projectos de investigação nas escolas de ensino superior. Em 1928, a Universidade do Chile recebeu o físico francês Paul Langevin, que proferiu numa palestra sobre a física quântica, sendo esta seguida de várias conferências sobre a estrutura da matéria e a teoria da relatividade. Os académicos chilenos encontravam-se finalmente aptos a acompanhar (e a contribuir para) os progressos alcançados na Europa e na América do Norte. Motivado por este crescimento da ciência, o governo forneceu bolsas de investigação e contratou professores e investigadores europeus (maioritariamente alemães). Um destes professores foi Karl Grandjot, doutorado em Göttingen, que estudou matemática com Lev Landau e David Hilbert, e física experimental e teórica com Peter Debye e Max Born. Em 1930, uma forte crise afectou o Chile. Foi seguida pela Segunda Guerra Mundial, que abrandou o progresso científico chileno. Em 1945, poucos dias após a detonação da primeira bomba atómica, teve lugar na Universidade do Chile um debate sobre a desintegração do núcleo, que foi a primeira discussão académica sobre física nuclear no Chile. Em 1954 foi fundado o Laboratório de Física Nuclear da Universidade do Chile, onde surgiu o primeiro grupo de académicos a proceder a investigações autónomas. Este laboratório foi a sede do Instituto da Física e da Matemática, cujos membros se tinham especializados na Europa e nos EUA e publicavam em revistas internacionais.
A década de 60 foi marcada pelo pico de novos grupos de investigação e sociedades científicas. Em 1960 foi fundada a Sociedad Chilena de Física, em 1964 a Comisión Chilena de Energia Nuclear e em 1967 a Comisión Nacional de Investigación Científica e Tecnológica. Ficou estabelecida a investigação científica em física teórica e experimental. A globalização e os programas de mobilidade actuais dificultam a distinção dos feitos chilenos mais recentes.
Sandra Fernandes,
Em 10 de Agosto de 1813 foi inaugurado o Instituto Nacional, que iniciou a sua actividade com 18 disciplinas, sendo uma destas a física experimental leccionada pelo Padre José Bezanilla. Era leccionada no curso de Ciências Naturais, juntamente com química, botânica, geografia, economia, política, matemática e línguas vivas. Com apenas 14 meses de funcionamento, a Reconquista (1814-1819) forçou o Instituto a fechar as portas até 1819, data da vitória de Maipú. A formação do Instituto Nacional teve como consequência directa o desejo do novo governo de educar o povo. Sendo este um marco histórico da ciência chilena, não era de todo o primeiro acto ligado à ciência nacional. Há relatos de actividades esporádicas, ligadas à física, anteriores à República do Chile. Na Academia de San Luis (uma academia militar), por exemplo, um engenheiro espanhol, Agustin Cavallero, tinha, em 1799, abordado vários tópicos (termodinâmica, projécteis, dinâmica, hidraulica, etc.) direccionando-os para problemas de teor militar. Esta física experimental difere em muitos aspectos da que conhecemos hoje. Quando o Instituto Nacional reabriu, a disciplina de Física Experimental continuou a ser leccionada, em latim, pelo Padre Bezanilla, o qual dividia o programa em duas partes: física geral, que abordava cosmografia, geografia física e história natural; e física particular, englobando fenómenos físicos e as suas causas (como eram tidas na época).
Em 1823 foi fundada a Academia Chilena, por um físico espanhol e por um engenheiro francês, Carlos A. Lozier, que leccionavam na secção de Ciências Matemáticas e Físicas. Lozier foi nomeado reitor do Instituto Nacional em 1826, impondo uma reforma radical que tinha como principal objectivo eliminar os vestígios residuais do ensino colonial, o que implicava mudar a quase totalidade dos professores. Tal levou a que o cargo lhe fosse retirado pouco tempo depois. Com a saída de Lozier, chegou ao Chile o engenheiro espanhol Andrés A. Gorbea, que estudou matemática e engenharia em Espanha, após o que rumou a França para aperfeiçoar os seus conhecimentos em física, tendo tido como colega Louis Gay-Lussac. Gorbea é responsável pelo primeiro livro de física publicado no Chile, tradução de uma obra de Jean-Baptiste Biot. Apesar de todos os esforços de Gorbea, não sendo a disciplina de Física Experimental obrigatória, eram muito poucos os alunos que a frequentavam. Gorbea ficou conhecido como o “pai” da engenharia e do ensino da matemática (no sentido de hoje) e ainda como o primeiro a leccionar física racional, em 1850, no Chile.
A 21 de Janeiro de 1832, o venezuelano Andrés Bello, primeiro reitor da Universidade do Chile, afirmou que as principais áreas de profissão no Chile (agricultura, extracção mineira, comércio e advocacia) necessitavam de conhecimentos de física, sendo necessário leccionar esta disciplina no ensino preparatório. Esta afirmação deu origem a um movimento de reformulação dos programas do ensino preparatório, começando a ser leccionada física experimental em vários colégios por todo o país. Em 1858, eram 14 as escolas que leccionavam física.
Foram vários os nomes que contribuíram para a evolução do ensino da ciência neste país, mas destaca-se o de José Zegers, discípulo de um físico polaco, que em 1857 foi nomeado responsável da disciplina de física experimental no Instituto Nacional. Zegers ficou conhecido por impor nas escolas do Chile o livro de física utilizado nas melhores universidades europeias e americanas (Traité Elémentaire de Physique Expérimental et Appliquée et Métérologie, de Adolphe Ganot). Além disso, Zegers publicou vários estudos sobre electricidade, novos barómetros, mecânica e ensino de ciências experimentais. Em 1889, foi fundado o Instituto Pedagógico, responsável pela formação de professores na área das ciências experimentais (com base nos estudos publicados por Zegers), uniformizando assim o ensino nesta área por todo o país.
No início do século XX, começou uma nova etapa do ensino e concepção da física, até então ligada a aspectos práticos dos sectores de actividade principais do Chile. Esta mudança iniciou-se em Maio de 1903, com a chegada ao Instituto Pedagógico do alemão Wilhem Ziegler, que pretendeu adaptar o ensino da física ao que era praticado na Alemanha. Foram construídos edifícios para o ensino da física e da química, contratados matemáticos e químicos alemães, com o fim de unir áreas até então como isoladas. De modo a ser perceptível a mudança que Ziegler provocou no ensino chileno, pode-se comparar a física no Chile (embora mais ligada a aspectos práticos) com a que se fazia em muitos sítios da Europa, onde pouco depois Einstein publicou o seu artigo sobre o efeito fotoeléctrico.
A melhoria do ensino no Chile conduziu à evolução da ciência nesse país, tendo sido publicados, em 1908, artigos sobre espectroscopia, electrólise, velocidade de moléculas de gases, electricidade, etc. No final dos anos 20, iniciaram-se vários projectos de investigação nas escolas de ensino superior. Em 1928, a Universidade do Chile recebeu o físico francês Paul Langevin, que proferiu numa palestra sobre a física quântica, sendo esta seguida de várias conferências sobre a estrutura da matéria e a teoria da relatividade. Os académicos chilenos encontravam-se finalmente aptos a acompanhar (e a contribuir para) os progressos alcançados na Europa e na América do Norte. Motivado por este crescimento da ciência, o governo forneceu bolsas de investigação e contratou professores e investigadores europeus (maioritariamente alemães). Um destes professores foi Karl Grandjot, doutorado em Göttingen, que estudou matemática com Lev Landau e David Hilbert, e física experimental e teórica com Peter Debye e Max Born. Em 1930, uma forte crise afectou o Chile. Foi seguida pela Segunda Guerra Mundial, que abrandou o progresso científico chileno. Em 1945, poucos dias após a detonação da primeira bomba atómica, teve lugar na Universidade do Chile um debate sobre a desintegração do núcleo, que foi a primeira discussão académica sobre física nuclear no Chile. Em 1954 foi fundado o Laboratório de Física Nuclear da Universidade do Chile, onde surgiu o primeiro grupo de académicos a proceder a investigações autónomas. Este laboratório foi a sede do Instituto da Física e da Matemática, cujos membros se tinham especializados na Europa e nos EUA e publicavam em revistas internacionais.
A década de 60 foi marcada pelo pico de novos grupos de investigação e sociedades científicas. Em 1960 foi fundada a Sociedad Chilena de Física, em 1964 a Comisión Chilena de Energia Nuclear e em 1967 a Comisión Nacional de Investigación Científica e Tecnológica. Ficou estabelecida a investigação científica em física teórica e experimental. A globalização e os programas de mobilidade actuais dificultam a distinção dos feitos chilenos mais recentes.
Sandra Fernandes,
A Física no Paquistão
País com menos de um século, o Paquistão ainda não teve muitas oportunidades de se manifestar no mundo da ciência, sendo, portanto, natural que os seus trabalhos na área da física sejam direccionados para tópicos modernos. Assim, neste país, a física divide-se, de um modo geral, em duas categorias: física teórica e física nuclear.
No âmbito da física teórica, há físicos paquistaneses de renome, com especial destaque para o laureado com o Nobel da Física em 1979, Abdus Salam (1926-1996), e o seu aluno Riazuddin (1930- ). Salam recebeu o Nobel pelo seu trabalho em Física das Partículas, em particular na unificação das forças electromagnética e nuclear fraca. Além dos trabalhos que o levaram ao Nobel, os seus feitos mais notáveis incluem o desenvolvimento do modelo Pati-Salam, o fotão magnético, o mesão vectorial, contribuições para a grande teoria da unificação e a simetria global. Juntamente com Riazuddim, Salam contribuiu ainda para a moderna teoria dos neutrinos e das estrelas de neutrões e buracos negros, além de ter modernizado a teoria quântica de campos. No ensino e promoção da ciência, Salam é lembrado como o fundador da matemática e física teórica no Paquistão, como conselheiro da ciência no seu país, tendo contribuído para o crescimento do mesmo na comunidade mundial da fisica. Por todos esses feitos ganhou numerosos prémios científicos a nível internacional. Em 1973, propôs à Comissão de Energia Atómica do Paquistão (PAEC) a fundação de uma academia anual com o objectivo de promover as actividades científcas do país, uma ideia que foi aceite de imediato. Isto levou à criação do International Nathiagali Summer College on Physics and Contemporary Needs (INSC), onde, todos os anos, desde 1976 para cá, cientistas de todo o mundo se reúnem. A primeira conferência anual do INSC foi sobre física nuclear e de partículas. Riazuddin é especialista em física nuclear e física de altas energias. É um dos pioneiros no programa paquistanês de pesquisa nuclear de dissuasão, sendo, por isso, conhecido como o Teller paquistanês. Trabalhou para o Centre for International Theoretical Physics (ICTP), outra criação de Salam, o PAEC, e a European Organization for Nuclear Research (CERN). Teve também um papel importante no ensino da física no Paquistão, sendo autor de 13 obras científicas em diversos tópicos da física, como física das partículas e mecânica quântica. Riazuddin fez pesquisas originais de alto nível em física teórica. Pertence ao quadro de governadores do Pakistan Institute of Engineering and Applied Sciences (PIEAS) desde 2004.
O desenvolvimento da física nuclear no Paquistão foi iniciado por Salam. Ele sabia a importância da tecnologia nuclear tanto para obtenção de energia como para armamento, e foi um guru no desenvolvimento do programa de armas nucleares do seu país. Dirigiu e organizou a pesquisa científica inicial do Projecto Kahuta, o equivalente paquistanês ao Projecto Manhattan. Em 1965, ajudou à fundação do Pakistan Institute of Nuclear Science and Technology. No mesmo ano, persuadiu o presidente Ayub Khan, contra as intenções do governo, a estabelecer o primeiro reactor de energia nuclear comercial, perto de Karachi. Conhecido como Central de Energia Nuclear de Karachi (KANUPP), consistia num pequeno reactor CANDU de 137 MW. O director do projecto foi o engenheiro nuclear Parvez Butt, da PAEC. O KANUPP entrou em funcionamento a 1972, e, respeitando as normas de segurança da International Atomic Energy Agency (IAEA), opera em potência reduzida. Em 1969, o Commissariat a l'Energie Atomique (CEA), de França, e a British Nuclear Fuels (BNFL) celebraram contratos com a PAEC para fornecer plutónio e centrais de reprocessamento nuclear ao Paquistão. O trabalho nestes projectos só começou em 1972, e como resultado da operação Smiling Buddha, da Índia (um teste nuclear surpresa realizado em 1974), a BNFL cancelou os projectos com a PAEC. Em 1977, devido a pressão exercida pela Secretaria de Estado dos EUA, a CEA também cancelou os projectos com a PAEC. Sem a ajuda do Reino Unido e da França, os engenheiros da PAEC construíram engenhosamente a central de reprocessamento nuclear New Labs, e o reactor de plutónio Khushab Nuclear Complex. Em 1989, a China assinou um acordo com o Paquistão para colaborar na manutenção da central nuclear CHASNUPP-I de 300 MW, e, em 1990, tanto a França como a União Soviética acolheram um pedido do Paquistão com o mesmo objectivo. No entanto, após o embaixador americano no Paquistão ter mostrado o descontentamento do seu país com os referidos acordos, estes foram cancelados. Até 2000, a China expandiu o seu contrato com a APEC 2, estando actualmente a colaborar na construção das centrais CHASNUPP-III e CHASNUPP-IV. A construção da CHASNUPP-II terminou em Abril de 2011.
Raimundo Martins
No âmbito da física teórica, há físicos paquistaneses de renome, com especial destaque para o laureado com o Nobel da Física em 1979, Abdus Salam (1926-1996), e o seu aluno Riazuddin (1930- ). Salam recebeu o Nobel pelo seu trabalho em Física das Partículas, em particular na unificação das forças electromagnética e nuclear fraca. Além dos trabalhos que o levaram ao Nobel, os seus feitos mais notáveis incluem o desenvolvimento do modelo Pati-Salam, o fotão magnético, o mesão vectorial, contribuições para a grande teoria da unificação e a simetria global. Juntamente com Riazuddim, Salam contribuiu ainda para a moderna teoria dos neutrinos e das estrelas de neutrões e buracos negros, além de ter modernizado a teoria quântica de campos. No ensino e promoção da ciência, Salam é lembrado como o fundador da matemática e física teórica no Paquistão, como conselheiro da ciência no seu país, tendo contribuído para o crescimento do mesmo na comunidade mundial da fisica. Por todos esses feitos ganhou numerosos prémios científicos a nível internacional. Em 1973, propôs à Comissão de Energia Atómica do Paquistão (PAEC) a fundação de uma academia anual com o objectivo de promover as actividades científcas do país, uma ideia que foi aceite de imediato. Isto levou à criação do International Nathiagali Summer College on Physics and Contemporary Needs (INSC), onde, todos os anos, desde 1976 para cá, cientistas de todo o mundo se reúnem. A primeira conferência anual do INSC foi sobre física nuclear e de partículas. Riazuddin é especialista em física nuclear e física de altas energias. É um dos pioneiros no programa paquistanês de pesquisa nuclear de dissuasão, sendo, por isso, conhecido como o Teller paquistanês. Trabalhou para o Centre for International Theoretical Physics (ICTP), outra criação de Salam, o PAEC, e a European Organization for Nuclear Research (CERN). Teve também um papel importante no ensino da física no Paquistão, sendo autor de 13 obras científicas em diversos tópicos da física, como física das partículas e mecânica quântica. Riazuddin fez pesquisas originais de alto nível em física teórica. Pertence ao quadro de governadores do Pakistan Institute of Engineering and Applied Sciences (PIEAS) desde 2004.
O desenvolvimento da física nuclear no Paquistão foi iniciado por Salam. Ele sabia a importância da tecnologia nuclear tanto para obtenção de energia como para armamento, e foi um guru no desenvolvimento do programa de armas nucleares do seu país. Dirigiu e organizou a pesquisa científica inicial do Projecto Kahuta, o equivalente paquistanês ao Projecto Manhattan. Em 1965, ajudou à fundação do Pakistan Institute of Nuclear Science and Technology. No mesmo ano, persuadiu o presidente Ayub Khan, contra as intenções do governo, a estabelecer o primeiro reactor de energia nuclear comercial, perto de Karachi. Conhecido como Central de Energia Nuclear de Karachi (KANUPP), consistia num pequeno reactor CANDU de 137 MW. O director do projecto foi o engenheiro nuclear Parvez Butt, da PAEC. O KANUPP entrou em funcionamento a 1972, e, respeitando as normas de segurança da International Atomic Energy Agency (IAEA), opera em potência reduzida. Em 1969, o Commissariat a l'Energie Atomique (CEA), de França, e a British Nuclear Fuels (BNFL) celebraram contratos com a PAEC para fornecer plutónio e centrais de reprocessamento nuclear ao Paquistão. O trabalho nestes projectos só começou em 1972, e como resultado da operação Smiling Buddha, da Índia (um teste nuclear surpresa realizado em 1974), a BNFL cancelou os projectos com a PAEC. Em 1977, devido a pressão exercida pela Secretaria de Estado dos EUA, a CEA também cancelou os projectos com a PAEC. Sem a ajuda do Reino Unido e da França, os engenheiros da PAEC construíram engenhosamente a central de reprocessamento nuclear New Labs, e o reactor de plutónio Khushab Nuclear Complex. Em 1989, a China assinou um acordo com o Paquistão para colaborar na manutenção da central nuclear CHASNUPP-I de 300 MW, e, em 1990, tanto a França como a União Soviética acolheram um pedido do Paquistão com o mesmo objectivo. No entanto, após o embaixador americano no Paquistão ter mostrado o descontentamento do seu país com os referidos acordos, estes foram cancelados. Até 2000, a China expandiu o seu contrato com a APEC 2, estando actualmente a colaborar na construção das centrais CHASNUPP-III e CHASNUPP-IV. A construção da CHASNUPP-II terminou em Abril de 2011.
Raimundo Martins
História da Física na Índia
As primeiras aplicações da filosofia natural na Índia deram-se na medicina, na metalurgia, na tecnologia da construção (cimento e tintas) e na produção têxtil. Com estes avanços aumentou o interesse em descrever a os elementos básicos da matéria e as suas interacções. Eram estudados fenómenos naturais como marés, chuva, Sol, Lua, constelações, padrões do tempo e agricultura, sendo por exemplo mencionada na literatura a condensação da água dos mares e oceanos causada pelo calor do Sol e a consequente formação de nuvens e chuva.
A ciência na Índia antiga não foi tão afectada por tabus religiosos como noutros locais do mundo. No entanto, a proliferação de rituais e superstições constituiu como noutros sítios um entrave ao progresso científico. Este progresso foi afectado pela influência dos mestres religiosos: foi difícil admitir que os rituais não produziam os resultados esperados e que a observação racional do mundo era de algum modo necessária.
Do século VI a.C. já se encontram textos científicos que tentam ainda que de forma rudimentar catalogar as propriedades de vários tipos de plantas e de substâncias naturais. Há também, nesta altura, um esforço para classificar as observações feitas acerca dos fenómenos naturais e de formular teorias intuitivas sobre a composição da matéria e o seu comportamento.
Quando surgiram as ideias atómicas, por volta do ano 500 a.C., já todas as escolas de filosofia racional hindu, budista e jain tinham algo a dizer sobre a natureza das partículas elementares e sobre o conceito indivisível e indestrutível de átomo, afirmando que os átomos se combinavam tanto em pares como em trios. Pensava-se que a matéria era corpuscular, estando essa composição por trás das propriedades físicas observadas. Os Jains chegaram a postular que as combinações de átomos obedeciam a regras intrínsecas à sua natureza.
Estas teorias atómico-moleculares foram também utilizadas para explicar, embora especulativamente, as alterações químicas causadas pelo calor, tendo sido proposto que este afectava os agrupamentos moleculares causando alterações químicas. Havia mesmo duas teorias concorrentes sobre este processo.
Um conhecimento intuitivo da energia cinética aparece também nos textos de Prasastapada e de Nyaya-Vaisesikas, nos quais se acreditava que todos os átomos estavam em constante movimento.
Ate ao primeiro século da era cristã poucos avanços houve na óptica acreditando-se nessa altura, tal como na Grécia, que olho era a fonte da luz. Foi então que Susruta postulou que a luz que que iluminava o nosso mundo era exterior a nós, tendo esta afirmação sido repetida no Aryabhatta, no século V.
Havia já nessa altura um antagonismo entre a teoria corpuscular e ondulatória (embora num nível muito rudimentar) estando os filósofos indianos divididos entre os Cakrapani, que sugeriam que a luz e o som eram como a água e se propagavam na forma de ondas, e os Mimamsakas, que acreditavam que a luz era formada por minúsculas partículas.
A astronomia começou por ser estudada com uma finalidade religiosa permitindo saber quando realizar certos rituais e sacrifícios e, embora as primeiras tentativas de descrever os diversos tipos de movimento tivessem sido feitas pelos Vaisesikas, foi apenas no século VII que Prasastapada foi mais além, partindo do seu estudo do movimento planetário, que descrevia os movimentos linear, curvilíneo, rotacional e vibratório. No entanto, um ponto fraco dos tratados indianos da época era a falta de quantificação.
No século V Arabista mencionou explicitamente, pela primeira vez, que a Terra roda à volta do seu eixo, causando o que parece ser o movimento das estrelas para oeste. Afirmou ainda que o brilho da Lua era causado pela reflexão da luz solar e foi um dos primeiros a considerar que o dia tinha inicio à meia-noite.
Até ao século XX poucos avanços houve na ciência indiana. Mas na Índia surgiram nesse século grandes nomes da física como Satyendra Bose, cujos trabalhos sobre a teoria quântica no início dos anos 20 foram fundamentais para a formulação da estatística de Bose-Einstein e a teoria do condensado de bosões (o nome bosão surgiu precisamente em honra de Bose); Narinder Singh Kapany, que, com base no resultado de Tyndall de que a luz podia descrever uma trajectória curva dentro de um material, realizou experiências conducentes à invenção da fibra óptica; Chandrasekhara Raman e o seu sobrinho Subrahmanyan Chandrasekhar, ambos Prémios Nobeis da Física, o primeiro em 1930 pelos seus trabalhos sobre o espalhamento da luz e o efeito de Raman, e o segundo em 1983 pelos seus estudos teóricos sobre a estrutura e a evolução das estrelas.
Marco Gui Alves Pinto
A ciência na Índia antiga não foi tão afectada por tabus religiosos como noutros locais do mundo. No entanto, a proliferação de rituais e superstições constituiu como noutros sítios um entrave ao progresso científico. Este progresso foi afectado pela influência dos mestres religiosos: foi difícil admitir que os rituais não produziam os resultados esperados e que a observação racional do mundo era de algum modo necessária.
Do século VI a.C. já se encontram textos científicos que tentam ainda que de forma rudimentar catalogar as propriedades de vários tipos de plantas e de substâncias naturais. Há também, nesta altura, um esforço para classificar as observações feitas acerca dos fenómenos naturais e de formular teorias intuitivas sobre a composição da matéria e o seu comportamento.
Quando surgiram as ideias atómicas, por volta do ano 500 a.C., já todas as escolas de filosofia racional hindu, budista e jain tinham algo a dizer sobre a natureza das partículas elementares e sobre o conceito indivisível e indestrutível de átomo, afirmando que os átomos se combinavam tanto em pares como em trios. Pensava-se que a matéria era corpuscular, estando essa composição por trás das propriedades físicas observadas. Os Jains chegaram a postular que as combinações de átomos obedeciam a regras intrínsecas à sua natureza.
Estas teorias atómico-moleculares foram também utilizadas para explicar, embora especulativamente, as alterações químicas causadas pelo calor, tendo sido proposto que este afectava os agrupamentos moleculares causando alterações químicas. Havia mesmo duas teorias concorrentes sobre este processo.
Um conhecimento intuitivo da energia cinética aparece também nos textos de Prasastapada e de Nyaya-Vaisesikas, nos quais se acreditava que todos os átomos estavam em constante movimento.
Ate ao primeiro século da era cristã poucos avanços houve na óptica acreditando-se nessa altura, tal como na Grécia, que olho era a fonte da luz. Foi então que Susruta postulou que a luz que que iluminava o nosso mundo era exterior a nós, tendo esta afirmação sido repetida no Aryabhatta, no século V.
Havia já nessa altura um antagonismo entre a teoria corpuscular e ondulatória (embora num nível muito rudimentar) estando os filósofos indianos divididos entre os Cakrapani, que sugeriam que a luz e o som eram como a água e se propagavam na forma de ondas, e os Mimamsakas, que acreditavam que a luz era formada por minúsculas partículas.
A astronomia começou por ser estudada com uma finalidade religiosa permitindo saber quando realizar certos rituais e sacrifícios e, embora as primeiras tentativas de descrever os diversos tipos de movimento tivessem sido feitas pelos Vaisesikas, foi apenas no século VII que Prasastapada foi mais além, partindo do seu estudo do movimento planetário, que descrevia os movimentos linear, curvilíneo, rotacional e vibratório. No entanto, um ponto fraco dos tratados indianos da época era a falta de quantificação.
No século V Arabista mencionou explicitamente, pela primeira vez, que a Terra roda à volta do seu eixo, causando o que parece ser o movimento das estrelas para oeste. Afirmou ainda que o brilho da Lua era causado pela reflexão da luz solar e foi um dos primeiros a considerar que o dia tinha inicio à meia-noite.
Até ao século XX poucos avanços houve na ciência indiana. Mas na Índia surgiram nesse século grandes nomes da física como Satyendra Bose, cujos trabalhos sobre a teoria quântica no início dos anos 20 foram fundamentais para a formulação da estatística de Bose-Einstein e a teoria do condensado de bosões (o nome bosão surgiu precisamente em honra de Bose); Narinder Singh Kapany, que, com base no resultado de Tyndall de que a luz podia descrever uma trajectória curva dentro de um material, realizou experiências conducentes à invenção da fibra óptica; Chandrasekhara Raman e o seu sobrinho Subrahmanyan Chandrasekhar, ambos Prémios Nobeis da Física, o primeiro em 1930 pelos seus trabalhos sobre o espalhamento da luz e o efeito de Raman, e o segundo em 1983 pelos seus estudos teóricos sobre a estrutura e a evolução das estrelas.
Marco Gui Alves Pinto
Teoria de Cordas
Um dos maiores sonhos dos físicos, para muitos deles mesmo o maior, consiste em encontrar as quatro forças fundamentais unificadas (forças gravítica, electromagnética, nuclear fraca e nuclear forte). Tal unificação é muitas vezes denominada de Theory of Everything, TOE. Pretende-se em última análise unificar a relatividade geral e a mecânica quântica, já que as outras forças já se encontram unificadas. Uma das teorias concorrentes mais conhecidas é a Teoria de cordas.
As tentativas de chegar à TOE começaram ainda na primeira metade do século XX. Em 1919, o polaco Theodor Kaluza partiu das equações da relatividade geral e, desprezando as massas e expandindo o problema a cinco dimensões (quatro espaciais e uma temporal), unificou os campos gravitacional e electromagnético. Porém, para chegar a este resultado, teve de anular arbitrariamente a dependência da quinta dimensão durante a demonstração. Ora, se uma quinta dimensão não observável já levantava questões, o desaparecimento dela no decorrer da demonstração foi o argumento final que levou a que esta teoria fosse ignorada pela comunidade científica.
Em 1926, Oskar Klein resolveu o problema de Kaluza, propondo que uma das cinco dimensões se dobrava sobre si própria, deixando de poder ser observada, sendo o raio de curvatura da ordem dos 10^−35 m. Apesar de resolver certas questões em aberto (como a quantificação da carga), esta rectificação previa a existência de novas partículas de massas tão grandes (da ordem da massa de Planck), que estava excluída a sua criação e, por isso, a sua observação.
Na década de 40, as diferenças significativas entre os momentos magnéticos dos protões ou neutrões e dos electrões levantaram algumas dúvidas sobre o carácter pontual das partículas positiva e neutra do núcleo. Em 1943, Werner Heisenberg propõe que os protões e os neutrões sejam objectos extensos.
Numa época em que a mecânica quântica estava em plena expansão, estas ideias caíram em (quase) total esquecimento. Em 1968, Gabriele Veneziano observou um estranho fenómeno: grande parte das propriedades da força nuclear forte eram descritas pela função beta de Euler, uma fórmula, pouco conhecida, que tinha sido escrita pelo matemático Leonhard Euler, 200 anos antes. Tal descoberta chamou a atenção da comunidade científica, destacando-se três físicos (Yoichiro Nambu, Holger Nielsen e Leonard Susskind) que demonstraram que as partículas elementares, consideradas como cordas, objectos a uma dimensão, e não como pontos, eram perfeitamente descritas pela função beta de Euler. Nasceu assim a Teoria de Cordas.
No início da década de 70, várias experiências levaram a resultados bastante díspares das previsões efectuadas pela nova teoria. O principal problema surgiu em padrões vibracionais que eram previstos pela teoria, mas não observados experimentalmente. Este problema foi rapidamente resolvido, tendo-se verificado que estes padrões em excesso correspondiam aos gravitões, que já tinham sido teoricamente previstos. Porém, esta descoberta não foi devidamente aceite pela comunidade científica, surgindo grande discórdia entre os apoiantes da Teoria de Cordas e os defensores das teorias das partículas pontuais. Assim, mais uma vez, a teoria caiu no esquecimento.
Foi também no início da década de 70 que surgiu a ideia da supersimetria, segundo a qual há simetria entre bosões e fermiões. Esta ideia surgiu em dois contextos: na Teoria de Campos que descerve partículas pontuais e na Teoria de Cordas, em consequência da introdução dos fermiões. Surgiu aqui uma ponte entre duas teorias tidas então como opostas.
Em 1980, Michael Green e John Schwarz ligaram melhor a Teoria de Cordas e a Mecânica Quântica, demonstrando que a Teoria de Cordas abrange as quatro forças fundamentais e toda a matéria existente. Nasceu então a Teoria das Supercordas, que junta a Teoria das Cordas e a Supersimetria. Iniciou-se a 1.ª Revolução das Supercordas, tendo sido, entre 1984 e 1986, publicados centenas de trabalhos sobre este tema. Segundo a nova teoria, as partículas passaram a ser vistas como pequenas cordas a vibrar em vez de serem pontos. Foi nesta altura que a Teoria de Cordas passou a ser aceite por numerosos físicos como uma teoria capaz de fazer a grande unificação. O problema principal associado à Teoria de Cordas, que ainda hoje é a razão de algum do seu descrédito, é a necessidade de espaços a 10 dimensões para os fermiões e a 26 dimensões para os bosões.
Havendo uma ligação entre a Mecânica Quântica e a Teoria de Cordas, redobravam-se os esforços para reforçar a teoria, em particular ligando a Teoria das Cordas com a Teoria dos Quarks. Pensou-se que os quarks podiam ser as extremidades das cordas, surgindo assim uma possível razão para que os quarks não fossem observados isoladamente: tal como acontece nos ímanes, ao quebrar uma corda ter-se-iam duas cordas, com dois quarks cada nas extremidades.
Em 1994 iniciou-se a 2.ª Revolução das Supercordas (que durou até 1997), que foi desencadeada pela descoberta de Edward Witten de que as várias versões da Teoria das Supercordas consistiam afinal de diferentes limites de uma nova teoria a 11 dimensões, a Teoria M. Joseph Polchinski descobriu que esta teoria requer objectos com mais dimensões, os chamados D-branes, que abriram caminho para a construção de novos modelos cosmológicos.
Nos dias de hoje, posseguem intensivamente os estudos sobre este tema. Estão mais direccionados para a verificação experimental, para a procura e rectificação de falhas na simetria e para o aperfeiçoamento de alguns aspectos geométricos da teoria. Tendo em conta a rapidez com que estes estudos têm surgido, poderá estar para breve uma Teoria de Grande Unificação. A acreditar nalguns especialistas o século XXI será o século da TOE.
Sandra Fernandes
As tentativas de chegar à TOE começaram ainda na primeira metade do século XX. Em 1919, o polaco Theodor Kaluza partiu das equações da relatividade geral e, desprezando as massas e expandindo o problema a cinco dimensões (quatro espaciais e uma temporal), unificou os campos gravitacional e electromagnético. Porém, para chegar a este resultado, teve de anular arbitrariamente a dependência da quinta dimensão durante a demonstração. Ora, se uma quinta dimensão não observável já levantava questões, o desaparecimento dela no decorrer da demonstração foi o argumento final que levou a que esta teoria fosse ignorada pela comunidade científica.
Em 1926, Oskar Klein resolveu o problema de Kaluza, propondo que uma das cinco dimensões se dobrava sobre si própria, deixando de poder ser observada, sendo o raio de curvatura da ordem dos 10^−35 m. Apesar de resolver certas questões em aberto (como a quantificação da carga), esta rectificação previa a existência de novas partículas de massas tão grandes (da ordem da massa de Planck), que estava excluída a sua criação e, por isso, a sua observação.
Na década de 40, as diferenças significativas entre os momentos magnéticos dos protões ou neutrões e dos electrões levantaram algumas dúvidas sobre o carácter pontual das partículas positiva e neutra do núcleo. Em 1943, Werner Heisenberg propõe que os protões e os neutrões sejam objectos extensos.
Numa época em que a mecânica quântica estava em plena expansão, estas ideias caíram em (quase) total esquecimento. Em 1968, Gabriele Veneziano observou um estranho fenómeno: grande parte das propriedades da força nuclear forte eram descritas pela função beta de Euler, uma fórmula, pouco conhecida, que tinha sido escrita pelo matemático Leonhard Euler, 200 anos antes. Tal descoberta chamou a atenção da comunidade científica, destacando-se três físicos (Yoichiro Nambu, Holger Nielsen e Leonard Susskind) que demonstraram que as partículas elementares, consideradas como cordas, objectos a uma dimensão, e não como pontos, eram perfeitamente descritas pela função beta de Euler. Nasceu assim a Teoria de Cordas.
No início da década de 70, várias experiências levaram a resultados bastante díspares das previsões efectuadas pela nova teoria. O principal problema surgiu em padrões vibracionais que eram previstos pela teoria, mas não observados experimentalmente. Este problema foi rapidamente resolvido, tendo-se verificado que estes padrões em excesso correspondiam aos gravitões, que já tinham sido teoricamente previstos. Porém, esta descoberta não foi devidamente aceite pela comunidade científica, surgindo grande discórdia entre os apoiantes da Teoria de Cordas e os defensores das teorias das partículas pontuais. Assim, mais uma vez, a teoria caiu no esquecimento.
Foi também no início da década de 70 que surgiu a ideia da supersimetria, segundo a qual há simetria entre bosões e fermiões. Esta ideia surgiu em dois contextos: na Teoria de Campos que descerve partículas pontuais e na Teoria de Cordas, em consequência da introdução dos fermiões. Surgiu aqui uma ponte entre duas teorias tidas então como opostas.
Em 1980, Michael Green e John Schwarz ligaram melhor a Teoria de Cordas e a Mecânica Quântica, demonstrando que a Teoria de Cordas abrange as quatro forças fundamentais e toda a matéria existente. Nasceu então a Teoria das Supercordas, que junta a Teoria das Cordas e a Supersimetria. Iniciou-se a 1.ª Revolução das Supercordas, tendo sido, entre 1984 e 1986, publicados centenas de trabalhos sobre este tema. Segundo a nova teoria, as partículas passaram a ser vistas como pequenas cordas a vibrar em vez de serem pontos. Foi nesta altura que a Teoria de Cordas passou a ser aceite por numerosos físicos como uma teoria capaz de fazer a grande unificação. O problema principal associado à Teoria de Cordas, que ainda hoje é a razão de algum do seu descrédito, é a necessidade de espaços a 10 dimensões para os fermiões e a 26 dimensões para os bosões.
Havendo uma ligação entre a Mecânica Quântica e a Teoria de Cordas, redobravam-se os esforços para reforçar a teoria, em particular ligando a Teoria das Cordas com a Teoria dos Quarks. Pensou-se que os quarks podiam ser as extremidades das cordas, surgindo assim uma possível razão para que os quarks não fossem observados isoladamente: tal como acontece nos ímanes, ao quebrar uma corda ter-se-iam duas cordas, com dois quarks cada nas extremidades.
Em 1994 iniciou-se a 2.ª Revolução das Supercordas (que durou até 1997), que foi desencadeada pela descoberta de Edward Witten de que as várias versões da Teoria das Supercordas consistiam afinal de diferentes limites de uma nova teoria a 11 dimensões, a Teoria M. Joseph Polchinski descobriu que esta teoria requer objectos com mais dimensões, os chamados D-branes, que abriram caminho para a construção de novos modelos cosmológicos.
Nos dias de hoje, posseguem intensivamente os estudos sobre este tema. Estão mais direccionados para a verificação experimental, para a procura e rectificação de falhas na simetria e para o aperfeiçoamento de alguns aspectos geométricos da teoria. Tendo em conta a rapidez com que estes estudos têm surgido, poderá estar para breve uma Teoria de Grande Unificação. A acreditar nalguns especialistas o século XXI será o século da TOE.
Sandra Fernandes
Cromodinâmica Quântica
Nos anos 50 do século XX, a Física de partículas, com a invenção das câmaras de bolhas e de faíscas, descobriu um incrível número de novas partículas. Os investigadores acharam que havia demasiadas partículas pesadas, os hadrões, para poderem ser todas elas fundamentais e começaram a agrupá-las, de acordo com as suas características. Em 1963, Murray Gell-Mann e George Zweig propuseram, com base numa ideia anterior de Shoichi Sakata, que as características visíveis dos hadrões se deviam a uma organização interna explicada pela existência de três "sabores" de partículas subatómicas, a que Gell-Mann chamou quarks, que constituiriam todos os hadrões.
O termo quark, sugerido por Gell-Mann e inspirado no romance Finnegans Wake de James Joyce, foi o que se tornou mais popular, em desfavor da proposta de Zweig de chamar ace a estas partículas. Os dois usaram combinações de quarks e antiquarks com os sabores up, down e strange para descrever os hadrões. Up e down de acordo com o seu isospin e strange porque este quark foi descoberto em partículas de raios cósmicas consideradas de início estranhas, devido ao seu tempo de vida particularmente longo. Mais tarde, o quark charm foi assim denominado pela fascinante simetria que conferiu ao domínio subnuclear e os quarks top e bottom, que tinham sido também designados truth e beauty, caindo depois estes termos em desuso, devem o nome ao facto de serem os parceiros lógicos dos up e down.
A partícula Omega- era composta por três quarks com spins paralelos, o que violava o princípio de exclusão de Pauli, uma vez que os quarks são fermiões. Os quarks precisariam então de um número quântico adicional. Em 1965, Moo-Young Han e Yoichiro Nambu, independentemente e ao mesmo tempo que Oscar Greenberg, propuseram que o barião ++, também composto por três quarks up de spins paralelos, possuísse um grau de liberdade adicional de gauge baseado no grupo SU(3), a que mais tarde se chamou carga de cor. É por esta razão que a teoria que descreve a interacção forte se chama Cromodinâmica Quântica. Han e Nambu afirmaram que o mediador da interacção dos quarks era um octeto de bosões de gauge que denominaram gluões.
Segundo a Cromodinâmica Quântica, os quarks podem ser verdes, vermelhos ou azuis e os antiquarks possuem uma anticor análoga - a cor complementar à do respectivo quark. Essas cores são apenas uma forma de designação não estando associadas a verdadeiras cores. Para se formar um hadrão é necessário obter o branco, ou seja, uma partícula neutra constituída por um quark e um antiquark, um mesão, ou constituída por três quarks ou antiquarks de cores diferentes, que formam um barião ou antibarião.
Gell-Mann acreditava que os quarks eram uma construção matemática e não partículas reais, uma vez que não se conseguiram detectar quarks livres e seria de esperar que partículas elementares pudessem ser isoladas e separadas e, portanto, acreditava que a teoria quântica de campos não os conseguiria descrever adequadamente. Além disso, a teoria da matriz S, que era a utilizada, previa que o espaço-tempo se rompia se os quarks estivessem localizados. Richard Feynman, por outro lado, acreditava que os quarks, aos quais chamou partões por serem as partes dos hadrões, fossem objectos elementares numa teoria de campos, possuindo trajectórias e distribuições de momento linear e posição como quaisquer outras partículas e podendo ser descritos pela teoria quântica de campos. James Bjorken referiu que partões pontuais implicariam a existência dispersão inelástica profunda na colisão de electrões e protões. Este fenómeno foi confirmado nas experiências do Stanford Linear Accelerator Center (SLAC) em 1969, o que levou os físicos a abandonar definitivamente a teoria da matriz S.
David Gross, David Politzer e Frank Wilczek descobriram que a interacção forte tinha a propriedade da "liberdade assimptótica", o que permitiu previsões precisas para os resultados de experiências de altas energias usando QCD num quadro perturbativo. O primeiro artigo sobre este tema, que foi publicado em 1973, valeu-lhes o Prémio Nobel da Física de 2004. À medida que as experiências se tornaram mais precisas, foram encontradas cada vez mais evidências da Cromodinâmica Quântica, como o gluão, num evento de três jactos, no Positron-Electron Tandem Ring Accelerator (PETRA), em 1979, e, finalmente, a verificação da teoria perturbativa da QCD no Large Electron-Positron Collider (LEP). Há, no entanto, alguns pontos por explicar nesta teoria, como a prova de que os quarks estão confinados aos hadrões e a investigação das fases da matéria de quarks-gluões, como o plasma de quarks-gluões. Esta teoria, que é uma parte essencial do Modelo Padrão, tem muitos resultados a seu favor. No limite das altas energias interagindo pouco os quarks e os gluões, a liberdade assimptótica é a propriedade que se destaca, enquanto a longas distâncias é o confinamento que importa, sendo necessário fornecer uma energia infinita para separar os quarks.
Natacha Violante Gomes Leite
Referências:
http://pt.wikipedia.org/wiki/Cromodinâmica_quântica
http://en.wikipedia.org/wiki/Quantum_chromodynamics
http://en.wikipedia.org/wiki/Quark
http://en.wikipedia.org/wiki/S-matrix_theory
http://en.wikipedia.org/wiki/Deep_inelastic_scattering
http://en.wikipedia.org/wiki/Eightfold_way_(physics)
http://en.wikipedia.org/wiki/Perturbative_QCD
O termo quark, sugerido por Gell-Mann e inspirado no romance Finnegans Wake de James Joyce, foi o que se tornou mais popular, em desfavor da proposta de Zweig de chamar ace a estas partículas. Os dois usaram combinações de quarks e antiquarks com os sabores up, down e strange para descrever os hadrões. Up e down de acordo com o seu isospin e strange porque este quark foi descoberto em partículas de raios cósmicas consideradas de início estranhas, devido ao seu tempo de vida particularmente longo. Mais tarde, o quark charm foi assim denominado pela fascinante simetria que conferiu ao domínio subnuclear e os quarks top e bottom, que tinham sido também designados truth e beauty, caindo depois estes termos em desuso, devem o nome ao facto de serem os parceiros lógicos dos up e down.
A partícula Omega- era composta por três quarks com spins paralelos, o que violava o princípio de exclusão de Pauli, uma vez que os quarks são fermiões. Os quarks precisariam então de um número quântico adicional. Em 1965, Moo-Young Han e Yoichiro Nambu, independentemente e ao mesmo tempo que Oscar Greenberg, propuseram que o barião ++, também composto por três quarks up de spins paralelos, possuísse um grau de liberdade adicional de gauge baseado no grupo SU(3), a que mais tarde se chamou carga de cor. É por esta razão que a teoria que descreve a interacção forte se chama Cromodinâmica Quântica. Han e Nambu afirmaram que o mediador da interacção dos quarks era um octeto de bosões de gauge que denominaram gluões.
Segundo a Cromodinâmica Quântica, os quarks podem ser verdes, vermelhos ou azuis e os antiquarks possuem uma anticor análoga - a cor complementar à do respectivo quark. Essas cores são apenas uma forma de designação não estando associadas a verdadeiras cores. Para se formar um hadrão é necessário obter o branco, ou seja, uma partícula neutra constituída por um quark e um antiquark, um mesão, ou constituída por três quarks ou antiquarks de cores diferentes, que formam um barião ou antibarião.
Gell-Mann acreditava que os quarks eram uma construção matemática e não partículas reais, uma vez que não se conseguiram detectar quarks livres e seria de esperar que partículas elementares pudessem ser isoladas e separadas e, portanto, acreditava que a teoria quântica de campos não os conseguiria descrever adequadamente. Além disso, a teoria da matriz S, que era a utilizada, previa que o espaço-tempo se rompia se os quarks estivessem localizados. Richard Feynman, por outro lado, acreditava que os quarks, aos quais chamou partões por serem as partes dos hadrões, fossem objectos elementares numa teoria de campos, possuindo trajectórias e distribuições de momento linear e posição como quaisquer outras partículas e podendo ser descritos pela teoria quântica de campos. James Bjorken referiu que partões pontuais implicariam a existência dispersão inelástica profunda na colisão de electrões e protões. Este fenómeno foi confirmado nas experiências do Stanford Linear Accelerator Center (SLAC) em 1969, o que levou os físicos a abandonar definitivamente a teoria da matriz S.
David Gross, David Politzer e Frank Wilczek descobriram que a interacção forte tinha a propriedade da "liberdade assimptótica", o que permitiu previsões precisas para os resultados de experiências de altas energias usando QCD num quadro perturbativo. O primeiro artigo sobre este tema, que foi publicado em 1973, valeu-lhes o Prémio Nobel da Física de 2004. À medida que as experiências se tornaram mais precisas, foram encontradas cada vez mais evidências da Cromodinâmica Quântica, como o gluão, num evento de três jactos, no Positron-Electron Tandem Ring Accelerator (PETRA), em 1979, e, finalmente, a verificação da teoria perturbativa da QCD no Large Electron-Positron Collider (LEP). Há, no entanto, alguns pontos por explicar nesta teoria, como a prova de que os quarks estão confinados aos hadrões e a investigação das fases da matéria de quarks-gluões, como o plasma de quarks-gluões. Esta teoria, que é uma parte essencial do Modelo Padrão, tem muitos resultados a seu favor. No limite das altas energias interagindo pouco os quarks e os gluões, a liberdade assimptótica é a propriedade que se destaca, enquanto a longas distâncias é o confinamento que importa, sendo necessário fornecer uma energia infinita para separar os quarks.
Natacha Violante Gomes Leite
Referências:
http://pt.wikipedia.org/wiki/Cromodinâmica_quântica
http://en.wikipedia.org/wiki/Quantum_chromodynamics
http://en.wikipedia.org/wiki/Quark
http://en.wikipedia.org/wiki/S-matrix_theory
http://en.wikipedia.org/wiki/Deep_inelastic_scattering
http://en.wikipedia.org/wiki/Eightfold_way_(physics)
http://en.wikipedia.org/wiki/Perturbative_QCD
A vida do LEP
A construção do LEP no CERN, perto de Genève, na Suíça. foi um projecto ambicioso, não apenas pela construção de um acelerador que excedia os padrões do seu tempo, tanto em tecnologia como em tamanho, e dos respectivos detectores, mas também pelos 27 km de túneis a cerca de 100 m de profundidade com quatro grandes cavernas para alojar os detectores.
A história do LEP começou no final dos anos 70, quando os físicos pertencentes aos estados-membros do CERN se juntaram para discutir o futuro a longo prazo da física das altas energias europeia. Um novo quadro de partículas e forças fundamentais emergia e o LEP era a máquina que o iria estudar.
Existindo uma tradição de aceleradores de protões, a ideia de um colisionador electrões-positrões era inovadora no CERN, mas, como os resultados destas colisões são muito mais simples de analisar do que os das colisões protões-antiprotões, a proposta de criação do LEP foi finalmente aceite e formalmente aprovada em 1981. Os trabalhos de engenharia civil começaram a 13 de Setembro de 1983. Os presidentes dos dois países anfitriões do CERN, François Mitterrand da França e Pierre Aubert da Suíça, colocaram uma placa comemorativa da inauguração. Embora muitas das infra-estruturas necessárias do novo acelerador já estivessem prontas (tal como o complexo do acelerador para pré-acelerar os electrões e os positrões para injectar no LEP), eram necessária outras. A maior de todas era o túnel de 27 km para alojar a máquina, assim como os espaços experimentais e os edifícios a superfície. Também eram necessários os túneis de transferência a ligar o Super Proton Synchrotron ao LEP, assim como os edifícios do acelerador linear, e os anéis de armazenamento para criar e acumular electrões e positrões. Apesar da dimensão da obra, o progresso foi impressionante. No final de 1984, os edifícios para o acelerador linear e para o acumulador electrão-positrão estavam completos, e 10 dos 18 acessos aos subterrâneos tinham sido escavados.
Todos os ímanes tinham sido fabricados e estavam prontos para a instalação em finais de 1987. Os dipolos magnéticos inovadores eram feitos de placas de aço intervaladas com cimento. O LEP também tinha ímans quadrupolares de focagem, e ímanes sextupolares para corrigir o momento dos feixes de partículas. O conjunto completo de ímanes do LEP era constitutuído por 3368 dipolos, 816 quadrupolos, 504 sextupolos, e outros 700 ímans para pequenas correcções das órbitas dos feixes.
A 8 de Fevereiro de 1988 teminou a escavação do túnel: as duas pontas do anel de 27 km juntaram-se com apenas 1 cm de erro. Um feixe foi injectado nos primeiros 2,5 km do anel no final do mesmo ano, e a 14 de Julho de 1989 circulou o primeiro feixe por todo o anel. As colisões surgiram um mês depois, a 13 de Agosto, apenas 5 anos e 11 meses após a cerimónia de inauguração.
Durante o seu tempo de vida o LEP teve vários upgrades. Na altura em que foi encerrado, a sua energia era mais do dobro daquela com que tinha começado. Mesmo quando o LEP estava a ser planeado, criou-se um programa de pesquisa e desenvolvimento em cavidades aceleradoras supercondutoras para permitir ao acelerador atingir energias mais altas. Novas cavidades foram instaladas de 1996 a 1998 um total de 272 cavidades supercondutoras que forneciam energia suficiente para produzir colisões com a energia máxima de 189 GeV. As últimas 16 cavidades foram instaladas em 1999, aumentando a energia total para 192 GeV. Mesmo assim, os engenheiros do LEP decidiram aumentar as cavidades supercondutoras além do limite recomendado. Em Setembro de 1999 a energia das colisões era de 202 GeV, tendo permanecido neste valor até ao final desse mesmo ano. Então os físicos do CERN quebraram todas as barreiras para aumentar a energia do acelerador ao máximo, a fim de maximizar as hipóteses de uma nova descoberta. Oito cavidades de cobre mais antigas foram postas ao serviço e os limites das cavidades supercondutoras foram novamente incrementados. Apesar de estarem previstas colisões electrão-positrão de energias até 200 GeV, o LEP atingiu um valor final de 209 GeV, dando as experiências uma última hipótese para explorar território desconhecido, antes do seu encerramento no final de 2000.
Foram notáveis as descobertas em Física de Partículas efectuadas graças ao LEP. Membros de governos de todo o mundo juntaram-se no CERN a 9 de Outubro de 2000 para celebrar as realizações do LEP e os seus 11 anos de vida operacional. Dois meses mais tarde, os engenheiros começaram a desmontar a máquina para dar espaço ao Grande Colisionador de Hadrões, LHC, o novo acelerador que devia para levar a física a outros domínios.
Raimundo Martins
A história do LEP começou no final dos anos 70, quando os físicos pertencentes aos estados-membros do CERN se juntaram para discutir o futuro a longo prazo da física das altas energias europeia. Um novo quadro de partículas e forças fundamentais emergia e o LEP era a máquina que o iria estudar.
Existindo uma tradição de aceleradores de protões, a ideia de um colisionador electrões-positrões era inovadora no CERN, mas, como os resultados destas colisões são muito mais simples de analisar do que os das colisões protões-antiprotões, a proposta de criação do LEP foi finalmente aceite e formalmente aprovada em 1981. Os trabalhos de engenharia civil começaram a 13 de Setembro de 1983. Os presidentes dos dois países anfitriões do CERN, François Mitterrand da França e Pierre Aubert da Suíça, colocaram uma placa comemorativa da inauguração. Embora muitas das infra-estruturas necessárias do novo acelerador já estivessem prontas (tal como o complexo do acelerador para pré-acelerar os electrões e os positrões para injectar no LEP), eram necessária outras. A maior de todas era o túnel de 27 km para alojar a máquina, assim como os espaços experimentais e os edifícios a superfície. Também eram necessários os túneis de transferência a ligar o Super Proton Synchrotron ao LEP, assim como os edifícios do acelerador linear, e os anéis de armazenamento para criar e acumular electrões e positrões. Apesar da dimensão da obra, o progresso foi impressionante. No final de 1984, os edifícios para o acelerador linear e para o acumulador electrão-positrão estavam completos, e 10 dos 18 acessos aos subterrâneos tinham sido escavados.
Todos os ímanes tinham sido fabricados e estavam prontos para a instalação em finais de 1987. Os dipolos magnéticos inovadores eram feitos de placas de aço intervaladas com cimento. O LEP também tinha ímans quadrupolares de focagem, e ímanes sextupolares para corrigir o momento dos feixes de partículas. O conjunto completo de ímanes do LEP era constitutuído por 3368 dipolos, 816 quadrupolos, 504 sextupolos, e outros 700 ímans para pequenas correcções das órbitas dos feixes.
A 8 de Fevereiro de 1988 teminou a escavação do túnel: as duas pontas do anel de 27 km juntaram-se com apenas 1 cm de erro. Um feixe foi injectado nos primeiros 2,5 km do anel no final do mesmo ano, e a 14 de Julho de 1989 circulou o primeiro feixe por todo o anel. As colisões surgiram um mês depois, a 13 de Agosto, apenas 5 anos e 11 meses após a cerimónia de inauguração.
Durante o seu tempo de vida o LEP teve vários upgrades. Na altura em que foi encerrado, a sua energia era mais do dobro daquela com que tinha começado. Mesmo quando o LEP estava a ser planeado, criou-se um programa de pesquisa e desenvolvimento em cavidades aceleradoras supercondutoras para permitir ao acelerador atingir energias mais altas. Novas cavidades foram instaladas de 1996 a 1998 um total de 272 cavidades supercondutoras que forneciam energia suficiente para produzir colisões com a energia máxima de 189 GeV. As últimas 16 cavidades foram instaladas em 1999, aumentando a energia total para 192 GeV. Mesmo assim, os engenheiros do LEP decidiram aumentar as cavidades supercondutoras além do limite recomendado. Em Setembro de 1999 a energia das colisões era de 202 GeV, tendo permanecido neste valor até ao final desse mesmo ano. Então os físicos do CERN quebraram todas as barreiras para aumentar a energia do acelerador ao máximo, a fim de maximizar as hipóteses de uma nova descoberta. Oito cavidades de cobre mais antigas foram postas ao serviço e os limites das cavidades supercondutoras foram novamente incrementados. Apesar de estarem previstas colisões electrão-positrão de energias até 200 GeV, o LEP atingiu um valor final de 209 GeV, dando as experiências uma última hipótese para explorar território desconhecido, antes do seu encerramento no final de 2000.
Foram notáveis as descobertas em Física de Partículas efectuadas graças ao LEP. Membros de governos de todo o mundo juntaram-se no CERN a 9 de Outubro de 2000 para celebrar as realizações do LEP e os seus 11 anos de vida operacional. Dois meses mais tarde, os engenheiros começaram a desmontar a máquina para dar espaço ao Grande Colisionador de Hadrões, LHC, o novo acelerador que devia para levar a física a outros domínios.
Raimundo Martins
Radiação cósmica de fundo
A radiação cósmica de fundo é uma radiação térmica que banha todo o Universo de um modo quase uniforme e que tem um espectro térmico de corpo negro à temperatura de 2,725 K, portanto com um pico na gama das microondas na frequência de 160,2 GHz. É também a mais conclusiva das evidências em abono do Big Bang, pois exclui os modelos de Universo estacionário. Arno Penzias e Robert Wilson foram os primeiros, em 1964, a detectar esta radiação usando uma antena em Nova Jérsia, Estados Unidos.
A radiação cósmica de fundo foi uma das primeiras previsões da teoria do Big Bang. Em 1934 o físico Richard Tolman mostrou teoricamente que um Universo em expansão deveria estar preenchido por uma radiação térmica caracterizada pelo espectro do corpo negro. Isto deve-se ao arrefecimento do Universo em expansão pois, a partir de dos 3000 K, os electrões e os núcleos atómicos começam a formar átomos deixando os fotões existentes da “sopa” inicial de interagir com estes. São estes fotões que hoje detectamos na radiação cósmica de fundo.
Alpher e Herman foram capazes de estimar a temperatura de 2,25 K para a radiação cósmica de fundo. Apesar de existirem diversas estimativas anteriores da temperatura do espaço, elas sofriam de diversos inconvenientes. Em primeiro lugar, eram medidas da temperatura ''efectiva'' do espaço, não sugerindo que o espaço fosse repleto por um espectro de Planck térmico, e em segundo lugar, elas dependiam da nossa posição específica na Via Láctea não sugerindo que a radiação fosse isotrópica. Além disso, elas levariam a previsões completamente diferentes se a Terra estivesse localizada noutro lugar do Universo.Os resultados alcançados por George Gamov não foram suficientemente discutidos. No entanto, eles foram redescobertos por Robert Dicke e Yakov Zeldovich no início da década de 60. Em 1964, isso incentivou David Todd Wilkinson e Peter Roll, colegas de Dicke na Universidade de Princeton, a começar a construir de um radiómetro de Dicke a fim de medir a radiação cósmica de fundo. Esse design básico de um radiómetro foi usado na maioria das experiências posteriores.
Em 1965, Arno Penzias e Robert Wilson, dos Bell Telephone Laboratories, perto de Holmdel, Nova Jérsia, construíram um radiómetro de Dicke para experiências de radioastronomia e comunicação via satélite. O instrumento tinha no entanto um ruído térmico excessivo de 2,5 K que não conseguiam explicar. Após diversos testes, Penzias percebeu que aquele ruído nada mais era do que a radiação cósmica de fundo prevista por Gamov, Alpher e Herman e, mais tarde, por Dicke. Uma reunião entre as equipas de Princeton e Holmdel permitou cobcluir que o ruído da antena era devido, efectivamente, à radiação cósmica de fundo. Penzias e Wilson receberam o Prémio Nobel de Física de 1978 pela sua descoberta. A interpretação da radiação cósmica de fundo foi um assunto controverso nos anos 60, com alguns defensores da teoria do estado estacionário a argumentar que a radiação de fundo era o resultado da difusão de luz estelar de outras galáxias. Usando esse modelo, e baseando-se no estudo de características da linha de absorção no espectro de estrelas, o astrónomo Andrew McKellar escreveu em 1941: "Pode-se calcular que a temperatura ''rotacional'' do espaço interestelar é de 2 K." No entanto, durante a década de 70, chegou-se ao consenso que a radiação cósmica de fundo é um vestígio do Big Bang. Isso ocorreu principalmente porque novas medidas em toda uma gama de frequências mostraram que o espectro era um espectro térmico, de corpo negro, um resultado que o modelo de estado estacionário era incapaz de reproduzir. Harrison, Peebles e Yu, e Zeldovich deram-se conta que o Universo primordial devia ter heterogeneidades da ordem de 10^-4 ou 10^-5. Rashid Sunyaev calculou, mais tarde, os traços observáveis que essas heterogeneidades teriam na radiação cósmica de fundo. Esta era a primeira publicação que discutia a marca observável das heterogeneidades de densidade como anisotropias na radiação cósmica de fundo, mas parte do trabalho baseava-se em Peebles e Yu. Limites crescentes na anisotropia da radiação cósmica de fundo foram estabelecidos através de experiências, mas a anisotropia foi detectada pela primeira vez pelo Differential Microwave Radiometer (Radiómetro de microondas diferencial) do satélite COBE. Inspiradas pelos resultados obtidos pelo COBE, uma série de experiências, quer no solo quer baseadas em balões, mediram as anisotropias da radiação cósmica de fundo em escalas angulares inferiores ao longo da década seguinte. O objectivo principal era medir a escala do primeiro pico acústico, que COBE não tinha resolução suficiente para resolver. O primeiro pico na anisotropia foi detectado pela experiência Toco, tendo o resultado sido confirmado pelas experiências Boomerang e Maxima. Essas medidas mostraram que o Universo é plano e sugeriram que a inflação cósmica é a teoria correcta de formação estrutural. O segundo pico foi detectado por tentativa e erro sendo necessárias diversas experiências antes de ser definitivamente detectado pelo WMAP, que também detectou do memso modo o terceiro pico. A polarização da radiação cósmica de fundo foi pela primeira vez descoberta pelo Degree Angular Scale Interferometer (DASI). Várias experiências conducentes à melhoria das medidas da polarização da radiação cósmica de fundo em pequenas escalas angulares estão hoje em curso. Estas incluem DASI, WMAP, Boomerang e o Cosmic Background Imager. Outras experiências incluem a sonda Planck, o Telescópio Cosmológico de Atacama e o Telescópio do Pólo Sul.
Marco Gui Alves Pinto
A radiação cósmica de fundo foi uma das primeiras previsões da teoria do Big Bang. Em 1934 o físico Richard Tolman mostrou teoricamente que um Universo em expansão deveria estar preenchido por uma radiação térmica caracterizada pelo espectro do corpo negro. Isto deve-se ao arrefecimento do Universo em expansão pois, a partir de dos 3000 K, os electrões e os núcleos atómicos começam a formar átomos deixando os fotões existentes da “sopa” inicial de interagir com estes. São estes fotões que hoje detectamos na radiação cósmica de fundo.
Alpher e Herman foram capazes de estimar a temperatura de 2,25 K para a radiação cósmica de fundo. Apesar de existirem diversas estimativas anteriores da temperatura do espaço, elas sofriam de diversos inconvenientes. Em primeiro lugar, eram medidas da temperatura ''efectiva'' do espaço, não sugerindo que o espaço fosse repleto por um espectro de Planck térmico, e em segundo lugar, elas dependiam da nossa posição específica na Via Láctea não sugerindo que a radiação fosse isotrópica. Além disso, elas levariam a previsões completamente diferentes se a Terra estivesse localizada noutro lugar do Universo.Os resultados alcançados por George Gamov não foram suficientemente discutidos. No entanto, eles foram redescobertos por Robert Dicke e Yakov Zeldovich no início da década de 60. Em 1964, isso incentivou David Todd Wilkinson e Peter Roll, colegas de Dicke na Universidade de Princeton, a começar a construir de um radiómetro de Dicke a fim de medir a radiação cósmica de fundo. Esse design básico de um radiómetro foi usado na maioria das experiências posteriores.
Em 1965, Arno Penzias e Robert Wilson, dos Bell Telephone Laboratories, perto de Holmdel, Nova Jérsia, construíram um radiómetro de Dicke para experiências de radioastronomia e comunicação via satélite. O instrumento tinha no entanto um ruído térmico excessivo de 2,5 K que não conseguiam explicar. Após diversos testes, Penzias percebeu que aquele ruído nada mais era do que a radiação cósmica de fundo prevista por Gamov, Alpher e Herman e, mais tarde, por Dicke. Uma reunião entre as equipas de Princeton e Holmdel permitou cobcluir que o ruído da antena era devido, efectivamente, à radiação cósmica de fundo. Penzias e Wilson receberam o Prémio Nobel de Física de 1978 pela sua descoberta. A interpretação da radiação cósmica de fundo foi um assunto controverso nos anos 60, com alguns defensores da teoria do estado estacionário a argumentar que a radiação de fundo era o resultado da difusão de luz estelar de outras galáxias. Usando esse modelo, e baseando-se no estudo de características da linha de absorção no espectro de estrelas, o astrónomo Andrew McKellar escreveu em 1941: "Pode-se calcular que a temperatura ''rotacional'' do espaço interestelar é de 2 K." No entanto, durante a década de 70, chegou-se ao consenso que a radiação cósmica de fundo é um vestígio do Big Bang. Isso ocorreu principalmente porque novas medidas em toda uma gama de frequências mostraram que o espectro era um espectro térmico, de corpo negro, um resultado que o modelo de estado estacionário era incapaz de reproduzir. Harrison, Peebles e Yu, e Zeldovich deram-se conta que o Universo primordial devia ter heterogeneidades da ordem de 10^-4 ou 10^-5. Rashid Sunyaev calculou, mais tarde, os traços observáveis que essas heterogeneidades teriam na radiação cósmica de fundo. Esta era a primeira publicação que discutia a marca observável das heterogeneidades de densidade como anisotropias na radiação cósmica de fundo, mas parte do trabalho baseava-se em Peebles e Yu. Limites crescentes na anisotropia da radiação cósmica de fundo foram estabelecidos através de experiências, mas a anisotropia foi detectada pela primeira vez pelo Differential Microwave Radiometer (Radiómetro de microondas diferencial) do satélite COBE. Inspiradas pelos resultados obtidos pelo COBE, uma série de experiências, quer no solo quer baseadas em balões, mediram as anisotropias da radiação cósmica de fundo em escalas angulares inferiores ao longo da década seguinte. O objectivo principal era medir a escala do primeiro pico acústico, que COBE não tinha resolução suficiente para resolver. O primeiro pico na anisotropia foi detectado pela experiência Toco, tendo o resultado sido confirmado pelas experiências Boomerang e Maxima. Essas medidas mostraram que o Universo é plano e sugeriram que a inflação cósmica é a teoria correcta de formação estrutural. O segundo pico foi detectado por tentativa e erro sendo necessárias diversas experiências antes de ser definitivamente detectado pelo WMAP, que também detectou do memso modo o terceiro pico. A polarização da radiação cósmica de fundo foi pela primeira vez descoberta pelo Degree Angular Scale Interferometer (DASI). Várias experiências conducentes à melhoria das medidas da polarização da radiação cósmica de fundo em pequenas escalas angulares estão hoje em curso. Estas incluem DASI, WMAP, Boomerang e o Cosmic Background Imager. Outras experiências incluem a sonda Planck, o Telescópio Cosmológico de Atacama e o Telescópio do Pólo Sul.
Marco Gui Alves Pinto
A EXPERIÊNCIA DE WU
“Now, after the first shock is over, I begin to collect myself. Yes, it was very dramatic.”
Wolfgang Pauli
A ideia de paridade de um sistema surge da analise das suas propriedades de simetria. Se, ao mudar as coordenadas de um sistema de r por –r, se obtiver um outro sistema que obedece às mesmas leis físicas do primeiro, diremos que é invariante em relação à paridade espacial ou paridade P (existem outros dois tipos de paridade, como a temporal T e a de carga C). Neste caso, o sistema original e o segundo são fisicamente indistinguíveis: ambos representam estados físicos possíveis e experiências efectuadas nos dois sistemas dão os mesmos resultados. Por exemplo, é fácil verificar que as interacções gravitacional e electromagnética são invariantes por paridade. O conceito de paridade e da sua conservação surgiu com o desenvolvimento da mecânica quântica. Nessa teoria a paridade de um sistema é definida como o produto das paridades (1 ou -1) de todas as suas componentes: se o valor for o mesmo antes e depois de uma interacção, a paridade diz-se conservada.
No século XX, com a investigação do núcleo atómico e das partículas subatómicas, outras duas interacções fundamentais foram descobertas: a interacção fraca e a forte. O que parecia natural era que também estas fossem invariantes e que a conservação da paridade fosse uma propriedade de todas as interacções fundamentais, o que se demonstrou estar errado, com a descoberta da violação de paridade nos decaimentos β, devidos a força fraca.
Em 1956, dois físicos chineses, T. D. Lee e C. N. Yang, observaram que não havia nenhuma experiência que provasse a conservação de paridade na força fraca. Estavam a trabalhar no que era conhecido como o puzzle θ-τ: era, de facto, conhecida a existência de duas partículas, chamadas θ e τ, que tinham igual spin, massa e tempo de vida médio (dentro das incertezas experimentais) e, portanto, suspeitava-se que fossem a mesma partícula. O facto é que elas, ao decaírem através de um processo semelhante ao decaimento β, davam origem a produtos diferentes: dois piões num caso, três no outro. Em 1953, o físico australiano R. H. Dalitz argumentou que, sendo a paridade de um pião -1, pela conservação da paridade a partícula θ devia ter paridade +1 e a partícula τ paridade -1, e, portanto, não podiam ser a mesma partícula. Ao avançarem com a ideia de violação de paridade, Lee e Yang propuseram também algumas experiências que pudessem testar a sua teoria: uma delas era observar a emissão de partículas β de uma fonte cujos spin estivessem todos alinhados por um campo magnético externo. Invertendo esse campo os spins alinham-se no sentido oposto, obtendo-se portanto uma reflexão das coordenadas. Se houvesse conservação de paridade, a emissão de electrões, que se dá ao longo dos pólos dos núcleos, seria observada nas duas direcções, no sentido do campo e no sentido oposto, com a mesma intensidade, de modo que seria impossível distinguir entre os dois sistemas. Pelo contrário, se houvesse uma direcção preferencial, revelar-se-ia a violação de paridade.
Aparentemente a proposta de Lee e Yang não suscitou muito interesse: a ideia da possibilidade da violação da paridade era contrária ao senso comum, não sendo por isso fácil de aceitar. Quem se interessou primeiro pelo assunto foi uma física chinesa, C. S. Wu, na altura professora na Universidade de Columbia, em Nova Iorque: ela tinha discutido a experiência com Lee e Yang, tendo começado a trabalhar nela mesmo antes do artigo deles ter sido publicado.
A experiência em si mesmo apresentava bastantes dificuldades técnicas: em primeiro lugar, para conseguir um alinhamento suficiente era preciso atingir temperaturas da ordem de 0,01 K, temperaturas essas que era preciso manter ao longo de um certo tempo por efectuar as medidas. Tais temperaturas só podiam ser atingidas através da desmagnetização adiabática: a amostra de cobalto foi misturada com um material paramagnético e o sistema submetido a acção de um campo magnético que o magnetizou, até se conseguir a polarização quase total da amostra. Retirando suavemente o campo magnético os átomos distribuíra-se entre os vários estados possíveis e, ao fazer isto, gastaram energia, retirada da agitação térmica. Consequentemente, a temperatura do sistema baixou.
Outro problema era que a amostra de cobalto tinha que estar em vazio, assim como os detectores. Depois de muitas tentativas a experiência deu finalmente resultados positivos: no início da medição era possivel ver uma clara assimetria que ia desaparecendo à medida que o sistema aquecia. Os dados obtidos são representados na figura de cima e representam a emissão de electrões em relação a direcção do campo magnético aplicado: no lado esquerdo da figura observa-se uma assimetria nas duas situações que não devia existir se não houvesse violação de paridade (as curvas deviam estar sobrepostas). Com o aquecimento da amostra e o consequente desalinhamento dos núcleos os electrões são emitidos em todas as direcções e a asimentria desaparece. Este resultado foi confirmado independentemente por experiências feitas logo a seguir sobre o decaimento de mesões μ e π.
Na altura, a descoberta da violação da paridade constituiu um grande choque no mundo da física. Mas só com a descoberta de propriedades inesperadas da Natureza se consegue compreendê-la mais a fundo.
Figura: Resultados da experiência de Wu.
Caterina Umiltà
Wolfgang Pauli
A ideia de paridade de um sistema surge da analise das suas propriedades de simetria. Se, ao mudar as coordenadas de um sistema de r por –r, se obtiver um outro sistema que obedece às mesmas leis físicas do primeiro, diremos que é invariante em relação à paridade espacial ou paridade P (existem outros dois tipos de paridade, como a temporal T e a de carga C). Neste caso, o sistema original e o segundo são fisicamente indistinguíveis: ambos representam estados físicos possíveis e experiências efectuadas nos dois sistemas dão os mesmos resultados. Por exemplo, é fácil verificar que as interacções gravitacional e electromagnética são invariantes por paridade. O conceito de paridade e da sua conservação surgiu com o desenvolvimento da mecânica quântica. Nessa teoria a paridade de um sistema é definida como o produto das paridades (1 ou -1) de todas as suas componentes: se o valor for o mesmo antes e depois de uma interacção, a paridade diz-se conservada.
No século XX, com a investigação do núcleo atómico e das partículas subatómicas, outras duas interacções fundamentais foram descobertas: a interacção fraca e a forte. O que parecia natural era que também estas fossem invariantes e que a conservação da paridade fosse uma propriedade de todas as interacções fundamentais, o que se demonstrou estar errado, com a descoberta da violação de paridade nos decaimentos β, devidos a força fraca.
Em 1956, dois físicos chineses, T. D. Lee e C. N. Yang, observaram que não havia nenhuma experiência que provasse a conservação de paridade na força fraca. Estavam a trabalhar no que era conhecido como o puzzle θ-τ: era, de facto, conhecida a existência de duas partículas, chamadas θ e τ, que tinham igual spin, massa e tempo de vida médio (dentro das incertezas experimentais) e, portanto, suspeitava-se que fossem a mesma partícula. O facto é que elas, ao decaírem através de um processo semelhante ao decaimento β, davam origem a produtos diferentes: dois piões num caso, três no outro. Em 1953, o físico australiano R. H. Dalitz argumentou que, sendo a paridade de um pião -1, pela conservação da paridade a partícula θ devia ter paridade +1 e a partícula τ paridade -1, e, portanto, não podiam ser a mesma partícula. Ao avançarem com a ideia de violação de paridade, Lee e Yang propuseram também algumas experiências que pudessem testar a sua teoria: uma delas era observar a emissão de partículas β de uma fonte cujos spin estivessem todos alinhados por um campo magnético externo. Invertendo esse campo os spins alinham-se no sentido oposto, obtendo-se portanto uma reflexão das coordenadas. Se houvesse conservação de paridade, a emissão de electrões, que se dá ao longo dos pólos dos núcleos, seria observada nas duas direcções, no sentido do campo e no sentido oposto, com a mesma intensidade, de modo que seria impossível distinguir entre os dois sistemas. Pelo contrário, se houvesse uma direcção preferencial, revelar-se-ia a violação de paridade.
Aparentemente a proposta de Lee e Yang não suscitou muito interesse: a ideia da possibilidade da violação da paridade era contrária ao senso comum, não sendo por isso fácil de aceitar. Quem se interessou primeiro pelo assunto foi uma física chinesa, C. S. Wu, na altura professora na Universidade de Columbia, em Nova Iorque: ela tinha discutido a experiência com Lee e Yang, tendo começado a trabalhar nela mesmo antes do artigo deles ter sido publicado.
A experiência em si mesmo apresentava bastantes dificuldades técnicas: em primeiro lugar, para conseguir um alinhamento suficiente era preciso atingir temperaturas da ordem de 0,01 K, temperaturas essas que era preciso manter ao longo de um certo tempo por efectuar as medidas. Tais temperaturas só podiam ser atingidas através da desmagnetização adiabática: a amostra de cobalto foi misturada com um material paramagnético e o sistema submetido a acção de um campo magnético que o magnetizou, até se conseguir a polarização quase total da amostra. Retirando suavemente o campo magnético os átomos distribuíra-se entre os vários estados possíveis e, ao fazer isto, gastaram energia, retirada da agitação térmica. Consequentemente, a temperatura do sistema baixou.
Outro problema era que a amostra de cobalto tinha que estar em vazio, assim como os detectores. Depois de muitas tentativas a experiência deu finalmente resultados positivos: no início da medição era possivel ver uma clara assimetria que ia desaparecendo à medida que o sistema aquecia. Os dados obtidos são representados na figura de cima e representam a emissão de electrões em relação a direcção do campo magnético aplicado: no lado esquerdo da figura observa-se uma assimetria nas duas situações que não devia existir se não houvesse violação de paridade (as curvas deviam estar sobrepostas). Com o aquecimento da amostra e o consequente desalinhamento dos núcleos os electrões são emitidos em todas as direcções e a asimentria desaparece. Este resultado foi confirmado independentemente por experiências feitas logo a seguir sobre o decaimento de mesões μ e π.
Na altura, a descoberta da violação da paridade constituiu um grande choque no mundo da física. Mas só com a descoberta de propriedades inesperadas da Natureza se consegue compreendê-la mais a fundo.
Figura: Resultados da experiência de Wu.
Caterina Umiltà
History of the Laser
The primitive idea of the laser started in 1916, when Albert Einstein was studying the behavior of electrons inside the atom. Electrons are capable of absorbing or emitting light spontaneously. Einstein saw the possibility of stimulating the electrons coherently so that several of them could emit light with a certain wavelength. Although this was recognized as true, no one really thought of constructing a device that worked with this theory until the 50’s.
Laser means Light Amplification by Stimulated Emission of Radiation. Einstein discovered stimulated emission but, to construct a laser, that emission should be amplified. In 1951, the physicist Charles H. Townes discovered the necessary conditions to amplify the stimulated emission of microwaves. These waves are not visible light, but it was an essential step towards the laser. Three years later, Townes and Herbert Zeiger had constructed at the University of Columbia, New York, the first maser (Microwave Amplification by Stimulated Emission of Radiation). Investigators wanted to go further and started studying the same idea using other wavelengths, especially those of visible and infrared light.
In 1957, Townes and his friend and brother in law Arthur Schawlow started making progresses in the development of a maser that would emit visible light. At the same time, Gordon Gould, a graduate student at the Physics Department of Columbia (where Townes was professor) started to think about the same idea using for the first time the term laser. He stated that, with this device, it would be possible to reach energy densities much higher than expected. He also stated that a laser working at room temperature could generate a beam capable of melting steel.
At this moment a fight for the originality of the discovery started. In 1958, Townes and Schawlow presented the patents and sent a detailed report to the Physical Review. Gould, on the other hand, waited until 1959 and made the error of not sending any papers to any scientific journal. He abandoned eventually the university and started to work in a government defense project to study possible military applications of the laser. This did not last long because of the McCarthy’s “witch hunt”: he was accused of being a Marxist and was denied a direct intervention in his own project.
Until then it was believed that the best substances for developing a laser were gases, but then another physicist, Theodore Maiman, appeared in scene. Working at the Hughes Laboratories, in a aeronautic company , he started using ruby prisms. In 1960 he communicated that he had constructed a device that could emit laser light for a fraction of a second. The device was so simple and small that the public relations of Hughes preferred that the journalists photographed another device, much bigger, much complicated and impressive, but useless as a laser. The report was turned down by Physical Review Letters but was published by Nature. Very soon many laboratories around the world were able to prove Maiman’s discovery.
In 1964 Townes, Basov and Prokhorov won the Nobel price of physics. Townes got the patent of the maser which also included the laser. The specific patent for the laser was given to Townes and Schawlow. Maiman got the patent for his rubi laser.
Alejandro Pazó de la Sota
Laser means Light Amplification by Stimulated Emission of Radiation. Einstein discovered stimulated emission but, to construct a laser, that emission should be amplified. In 1951, the physicist Charles H. Townes discovered the necessary conditions to amplify the stimulated emission of microwaves. These waves are not visible light, but it was an essential step towards the laser. Three years later, Townes and Herbert Zeiger had constructed at the University of Columbia, New York, the first maser (Microwave Amplification by Stimulated Emission of Radiation). Investigators wanted to go further and started studying the same idea using other wavelengths, especially those of visible and infrared light.
In 1957, Townes and his friend and brother in law Arthur Schawlow started making progresses in the development of a maser that would emit visible light. At the same time, Gordon Gould, a graduate student at the Physics Department of Columbia (where Townes was professor) started to think about the same idea using for the first time the term laser. He stated that, with this device, it would be possible to reach energy densities much higher than expected. He also stated that a laser working at room temperature could generate a beam capable of melting steel.
At this moment a fight for the originality of the discovery started. In 1958, Townes and Schawlow presented the patents and sent a detailed report to the Physical Review. Gould, on the other hand, waited until 1959 and made the error of not sending any papers to any scientific journal. He abandoned eventually the university and started to work in a government defense project to study possible military applications of the laser. This did not last long because of the McCarthy’s “witch hunt”: he was accused of being a Marxist and was denied a direct intervention in his own project.
Until then it was believed that the best substances for developing a laser were gases, but then another physicist, Theodore Maiman, appeared in scene. Working at the Hughes Laboratories, in a aeronautic company , he started using ruby prisms. In 1960 he communicated that he had constructed a device that could emit laser light for a fraction of a second. The device was so simple and small that the public relations of Hughes preferred that the journalists photographed another device, much bigger, much complicated and impressive, but useless as a laser. The report was turned down by Physical Review Letters but was published by Nature. Very soon many laboratories around the world were able to prove Maiman’s discovery.
In 1964 Townes, Basov and Prokhorov won the Nobel price of physics. Townes got the patent of the maser which also included the laser. The specific patent for the laser was given to Townes and Schawlow. Maiman got the patent for his rubi laser.
Alejandro Pazó de la Sota
César Lattes e o mesão pi
“O homem como cientista é amoral. Só é moral como homem, não se preocupa se o que descobre vai ser usado para o bem ou para o mal. Como toda descoberta científica dá mais poderes sobre a Natureza, ela pode aumentar o bem ou o mal."
César Lattes
Um dos brasileiros mais famosos na história da ciência é César Lattes (1924-2005), um físico que modificou o estudo da Física no seu país. De origem judaica, graduou-se em Matemática e Física na Universidade de São Paulo. O seu doutoramento foi obtido na mesma instituição. Com uma sólida formação teórica e reconhecido desempenho na pesquisa científica, teve oportunidade de trabalhar com os físicos Gleb Wataghin e Giuseppe Occhialini, com quem publicou artigos sobre a abundância de núcleos no Universo. O trabalho mais notável de Lattes foi a participação na descoberta do mesão pi, logo aos 23 anos de idade. A descrição de tal acontecimento está publicada [1], contando em pormenor o modo como ocorreu. Lattes trabalhava na Universidade de São Paulo, numa época posterior à Segunda Guerra Mundial. Através de uma câmara de nevoeiro (dispositivo que possibilita visualizar a trajectória de partículas pela condensação do vapor de líquidos supersaturados) com mesões lentos, construída juntamente com Ugo Camirini e Gleb Wataghin, Lattes conseguiu registar fotografias das suas trajectórias e analisá-las.
Mais tarde, foi trabalhar na Universidade de Bristol, no Reino Unido. Aí empenhou-se em obter o factor de encolhimento para uma emulsão nova, com concentração elevada. Fazendo pesquisas num acelerador, conseguiu testar este factor de encolhimento usando partículas de desintegração artificial. A análise dos traços permitiu estabelecer uma relação alcance-energia para os protões de, no máximo, 10 MeV. Este dado foi útil para experiências em que só era observada uma partícula. Teve também a ideia de colocar uma chapa fotográfica com boro na direcção do feixe de neutrões e estudar a energia e o momento linear destes. Começou, assim, a sua principal linha de pesquisa: os raios cósmicos. Lattes montou um laboratório a 5000 metros de altitude nos Andes bolivianos, onde usou chapas fotográficas com e sem boro para analisar os raios cósmicos.
A análise das chapas foi efectuada por Occhialini. As que tinham boro apresentavam mais eventos do que as outras. Ou seja, a tentativa de detectar a energia dos neutrões era secundária. Decidiu-se, portanto, que o laboratório se devia concentrar em raios cósmicos de baixa energia. Foi então que, com a ajuda de C. F. Powell, Lattes descobriu uma nova partícula atómica, baptizada de mesão-pi ou pião. Trata-se de um hadrão composto por um quark e por um antiquark. Tal descoberta teve um grande impacto na concepção do átomo. Isto porque a teoria aceite na época afirmava que os átomos eram formados por três tipos de partículas elementares: protões, neutrões e electrões. Lattes submeteu um artigo à revista Nature e, a partir daí, a física de partículas ficou estabelecida como um importante ramo de pesquisa. A descoberta gerou, porém, desconfiança não sendo admitida logo. Entretanto, Niels Bohr concordou com Lattes e deu-lhe total apoio, facto que facilitou a aprovação.
Em 1947, Lattes obteve uma bolsa de estudos com o objectivo de detectar piões produzidos de forma artificial num ciclotrão em Berkeley, Califórnia. Mesmo que o feixe de partículas alfa tivesse menor energia, não era supostamente o ideal para produzir piões. Lattes observou que eles eram, de facto, produzidos. Em dois artigos posteriores, descreveu o método de detecção de mesões pi positivos e negativos e conseguiu, ainda, identificar a massa da nova partícula, que era cerca de 300 vezes maior que a do electrão.
Na análise de chapas fotográficas feitas com raios gama num sincrotão, Lattes notou que havia piões positivos e negativos. Por outras palavras: era possível produzir piões artificialmente. Sobre isso, Lattes afirmou “[...] não há dúvidas de que estes foram os primeiros piões produzidos artificialmente a serem detectados.”[1]
A descoberta do pião foi de tal modo importante que valeu o Prémio Nobel de 1950 ao responsável do laboratório, Cecil Powell. Essa distinção causou alguma polémica, pois os críticos defenderam que o grande merecedor era Lattes. Contudo, a política da Academia Nobel na época só permitia premiar o líder do grupo de pesquisa, razão por que o brasileiro não foi contemplado. Niels Bohr, ao morrer, deixou uma carta intitulada “Por que César Lattes nunca ganhou o Prémio Nobel – abrir 50 anos após a minha morte”. Ou seja, se a não distinção de Lattes causa justa indignação, o verdadeiro motivo apenas será revelado em 2012, quando tiver passado meio século sobre a morte de Bohr. Até lá, só nos resta esperar.
Bianca de Quadros Cerbaro
Referências:
[1] BELLANDI FILHO, José & PEMMARAJU, Ammiraju (eds.). Topics in cosmic rays. 2 vols. Campinas: Editora da UNICAMP, 1984, vol. 1, pp. 1-5. Disponível em htttp://www.ifi.unicamp.br/~ghtc/clattesp.htm#Artigo_mésonAcesso em: 04 de jun. 2011.
[2] http://tiocesar.br.tripod.com/index-660c.html Acesso em: 04 de jun. 2011.
[3] http://pt/wikipedia.org/wiki/C%C3%A9sar_LattesAcesso em 04 de jun. 2011.
César Lattes
Um dos brasileiros mais famosos na história da ciência é César Lattes (1924-2005), um físico que modificou o estudo da Física no seu país. De origem judaica, graduou-se em Matemática e Física na Universidade de São Paulo. O seu doutoramento foi obtido na mesma instituição. Com uma sólida formação teórica e reconhecido desempenho na pesquisa científica, teve oportunidade de trabalhar com os físicos Gleb Wataghin e Giuseppe Occhialini, com quem publicou artigos sobre a abundância de núcleos no Universo. O trabalho mais notável de Lattes foi a participação na descoberta do mesão pi, logo aos 23 anos de idade. A descrição de tal acontecimento está publicada [1], contando em pormenor o modo como ocorreu. Lattes trabalhava na Universidade de São Paulo, numa época posterior à Segunda Guerra Mundial. Através de uma câmara de nevoeiro (dispositivo que possibilita visualizar a trajectória de partículas pela condensação do vapor de líquidos supersaturados) com mesões lentos, construída juntamente com Ugo Camirini e Gleb Wataghin, Lattes conseguiu registar fotografias das suas trajectórias e analisá-las.
Mais tarde, foi trabalhar na Universidade de Bristol, no Reino Unido. Aí empenhou-se em obter o factor de encolhimento para uma emulsão nova, com concentração elevada. Fazendo pesquisas num acelerador, conseguiu testar este factor de encolhimento usando partículas de desintegração artificial. A análise dos traços permitiu estabelecer uma relação alcance-energia para os protões de, no máximo, 10 MeV. Este dado foi útil para experiências em que só era observada uma partícula. Teve também a ideia de colocar uma chapa fotográfica com boro na direcção do feixe de neutrões e estudar a energia e o momento linear destes. Começou, assim, a sua principal linha de pesquisa: os raios cósmicos. Lattes montou um laboratório a 5000 metros de altitude nos Andes bolivianos, onde usou chapas fotográficas com e sem boro para analisar os raios cósmicos.
A análise das chapas foi efectuada por Occhialini. As que tinham boro apresentavam mais eventos do que as outras. Ou seja, a tentativa de detectar a energia dos neutrões era secundária. Decidiu-se, portanto, que o laboratório se devia concentrar em raios cósmicos de baixa energia. Foi então que, com a ajuda de C. F. Powell, Lattes descobriu uma nova partícula atómica, baptizada de mesão-pi ou pião. Trata-se de um hadrão composto por um quark e por um antiquark. Tal descoberta teve um grande impacto na concepção do átomo. Isto porque a teoria aceite na época afirmava que os átomos eram formados por três tipos de partículas elementares: protões, neutrões e electrões. Lattes submeteu um artigo à revista Nature e, a partir daí, a física de partículas ficou estabelecida como um importante ramo de pesquisa. A descoberta gerou, porém, desconfiança não sendo admitida logo. Entretanto, Niels Bohr concordou com Lattes e deu-lhe total apoio, facto que facilitou a aprovação.
Em 1947, Lattes obteve uma bolsa de estudos com o objectivo de detectar piões produzidos de forma artificial num ciclotrão em Berkeley, Califórnia. Mesmo que o feixe de partículas alfa tivesse menor energia, não era supostamente o ideal para produzir piões. Lattes observou que eles eram, de facto, produzidos. Em dois artigos posteriores, descreveu o método de detecção de mesões pi positivos e negativos e conseguiu, ainda, identificar a massa da nova partícula, que era cerca de 300 vezes maior que a do electrão.
Na análise de chapas fotográficas feitas com raios gama num sincrotão, Lattes notou que havia piões positivos e negativos. Por outras palavras: era possível produzir piões artificialmente. Sobre isso, Lattes afirmou “[...] não há dúvidas de que estes foram os primeiros piões produzidos artificialmente a serem detectados.”[1]
A descoberta do pião foi de tal modo importante que valeu o Prémio Nobel de 1950 ao responsável do laboratório, Cecil Powell. Essa distinção causou alguma polémica, pois os críticos defenderam que o grande merecedor era Lattes. Contudo, a política da Academia Nobel na época só permitia premiar o líder do grupo de pesquisa, razão por que o brasileiro não foi contemplado. Niels Bohr, ao morrer, deixou uma carta intitulada “Por que César Lattes nunca ganhou o Prémio Nobel – abrir 50 anos após a minha morte”. Ou seja, se a não distinção de Lattes causa justa indignação, o verdadeiro motivo apenas será revelado em 2012, quando tiver passado meio século sobre a morte de Bohr. Até lá, só nos resta esperar.
Bianca de Quadros Cerbaro
Referências:
[1] BELLANDI FILHO, José & PEMMARAJU, Ammiraju (eds.). Topics in cosmic rays. 2 vols. Campinas: Editora da UNICAMP, 1984, vol. 1, pp. 1-5. Disponível em htttp://www.ifi.unicamp.br/~ghtc/clattesp.htm#Artigo_méson
[2] http://tiocesar.br.tripod.com/index-660c.html Acesso em: 04 de jun. 2011.
[3] http://pt/wikipedia.org/wiki/C%C3%A9sar_Lattes
Câmara de Bolhas
O Nobel da Física de 1960 foi concedido ao físico norte-americano Donald Arthur Glaser, pela sua invenção da câmara de bolhas, feita em 1952. Glaser nasceu em Cleveland em 1926 e foi educado em escolas públicas do Ohio. Formou-se em física e em matemática em 1946. Chegou a ser professor da Universidade da Califórnia, fazendo pesquisas sobre partículas elementares da física e partículas estranhas. A sua curiosidade pela biologia molecular levou-o, porém, a mudar o rumo das suas pesquisas, tendo-se dedicado a estudos sobre o ADN. e à indústria biotecnológica.
Uma câmara de bolhas é constituída por um recipiente preenchido por um líquido transparente em alta temperatura. O líquido pode ser hidrogénio ou uma mistura de hidrogénio e néon, que atingem temperaturas da ordem de 30 K. O objectivo é detectar o movimento de partículas carregadas através da câmara. Isto é possível porque, quando as partículas penetram na câmara, interagem com os átomos do líquido ao longo da sua trajectória acabando por os ionizar. Liberta-se então energia e as partículas começam a “ferver”.
O funcionamento básico de uma câmara de bolhas é o seguinte: faz-se chegar à câmara um feixe de partículas através de um acelerador. O líquido é mantido a uma pressão de cerca de 2 atm para estar sobreaquecido. A chegada das partículas electricamente carregadas na câmara provoca a ionização dos átomos do líquido (já que depositam neles a sua energia) e a elevação na temperatura ao longo do percurso. As partículas também podem chocar com o núcleo dos átomos do líquido, originando a formação de caminhos de bolhas no líquido. Estas bolhas são os “objectos” de interesse na experiência. Ao formarem-se, crescem até atingirem um diâmetro da ordem de 1 mm. Quando isto acontece, são tiradas fotografias com flash de vários ângulos para que as interacções possam ser reconstruídas em três dimensões. Assim, dá-se um novo aumento na pressão do líquido e espera-se até o sistema voltar à situação de estabilidade para voltar a bombardeá-lo com um feixe de partículas carregadas. Dependendo do objectivo e das necessidades da experiência, o tempo de espera até que se possa “ligar” de novo o feixe pode variar entre 1 s e 1 min, o que pode ser muito tempo se forem precisos milhões de feixes para analisar as interacções.
A física das partículas tenta entender os blocos fundamentais e o modo como eles interagem entre si. Em muitas experiências, trabalha-se com um acelerador (um instrumento onde se obtêm feixes de partículas carregadas) e um alvo pré-definido, onde há colisões das partículas com os núcleos atómicos. Registam-se então os produtos da interacção partículas-núcleo através de um detector. A câmara de bolhas de Donald Glaser inovou no sentido em que funciona ao mesmo tempo como alvo e como detector. Neste sentido, os protões do núcleo são os alvos e os electrões permitem a detecção. É como o rasto de vapor deixado no ar pelos aviões: tem-se a posição e a trajectória das partículas registadas em cada instante a partir da análise das bolhas no líquido.
A análise das fotografias tiradas permite estabelecer valores bem definidos para a energia E e para o momento p (p_x, p_y, p_z) produzidos por cada partícula nas colisões com os átomos do líquido. Os cálculos são feitos em computadores. Algumas experiências permitem concluir que a energia e o momento final são menores do que no início das interacções, o que mostra que houve libertação de partículas neutras. O momento das partículas carregadas é obtido pela medida da curvatura das trajectórias em fotografias. Se as partículas carregadas pararem ainda dentro da câmara de bolhas, pode saber-se a energia cinética pela distância que percorreram. Os neutrões não podem ser detectados pelas câmaras de bolhas porque são electricamente neutros e não exercem nenhuma força nos electrões do líquido. A razão para o uso de hidrogénio líquido deve-se ao facto de esse elemento possuir o núcleo mais simples (se se utilizassem outros, não se teria a certeza se as partículas colidiam com um protão ou com um neutrão).
A câmara de bolhas foi fundamental na descoberta de partículas cuja existência ajudou a criar o modelo de quark. Entretanto, a tecnologia avançou significativamente nas últimas décadas e, actualmente, usam-se detectores mais modernos. O aprimoramento dos aparelhos que usam o princípio da câmara de bolhas permitiu transformá-la num detector de WIMPs, sigla em inglês para partículas massivas de interação fraca, que podem resolver o problema da matéria negra.
Um projecto importante relacionado com a câmara de bolhas foi realizado no CERN em 1970. Intitulado Big European Bubble Chamber (BEBC), o recipiente contendo o líquido tinha 3,7 m de diâmetro. Porém, esse instruumento já não está em funcionamento, sendo agora uma peça no museu de física das partículas do CERN.
Bianca de Quadros Cerbaro
Bibliografia
- http://teachers.web.cern.ch/teachers/archiv/HST2005/bubble_chambers/BCwebsite/index.htm Acesso em 18 de maio de 2011.
- http://nobelprize.org/nobel_prizes/physics/laureates/1960/glaser-bio.html Acesso em 18 de maio de 2011.
- http://en.wikipedia.org/wiki/Donald_A._Glaser Acesso em 18 de maio de 2011.
Uma câmara de bolhas é constituída por um recipiente preenchido por um líquido transparente em alta temperatura. O líquido pode ser hidrogénio ou uma mistura de hidrogénio e néon, que atingem temperaturas da ordem de 30 K. O objectivo é detectar o movimento de partículas carregadas através da câmara. Isto é possível porque, quando as partículas penetram na câmara, interagem com os átomos do líquido ao longo da sua trajectória acabando por os ionizar. Liberta-se então energia e as partículas começam a “ferver”.
O funcionamento básico de uma câmara de bolhas é o seguinte: faz-se chegar à câmara um feixe de partículas através de um acelerador. O líquido é mantido a uma pressão de cerca de 2 atm para estar sobreaquecido. A chegada das partículas electricamente carregadas na câmara provoca a ionização dos átomos do líquido (já que depositam neles a sua energia) e a elevação na temperatura ao longo do percurso. As partículas também podem chocar com o núcleo dos átomos do líquido, originando a formação de caminhos de bolhas no líquido. Estas bolhas são os “objectos” de interesse na experiência. Ao formarem-se, crescem até atingirem um diâmetro da ordem de 1 mm. Quando isto acontece, são tiradas fotografias com flash de vários ângulos para que as interacções possam ser reconstruídas em três dimensões. Assim, dá-se um novo aumento na pressão do líquido e espera-se até o sistema voltar à situação de estabilidade para voltar a bombardeá-lo com um feixe de partículas carregadas. Dependendo do objectivo e das necessidades da experiência, o tempo de espera até que se possa “ligar” de novo o feixe pode variar entre 1 s e 1 min, o que pode ser muito tempo se forem precisos milhões de feixes para analisar as interacções.
A física das partículas tenta entender os blocos fundamentais e o modo como eles interagem entre si. Em muitas experiências, trabalha-se com um acelerador (um instrumento onde se obtêm feixes de partículas carregadas) e um alvo pré-definido, onde há colisões das partículas com os núcleos atómicos. Registam-se então os produtos da interacção partículas-núcleo através de um detector. A câmara de bolhas de Donald Glaser inovou no sentido em que funciona ao mesmo tempo como alvo e como detector. Neste sentido, os protões do núcleo são os alvos e os electrões permitem a detecção. É como o rasto de vapor deixado no ar pelos aviões: tem-se a posição e a trajectória das partículas registadas em cada instante a partir da análise das bolhas no líquido.
A análise das fotografias tiradas permite estabelecer valores bem definidos para a energia E e para o momento p (p_x, p_y, p_z) produzidos por cada partícula nas colisões com os átomos do líquido. Os cálculos são feitos em computadores. Algumas experiências permitem concluir que a energia e o momento final são menores do que no início das interacções, o que mostra que houve libertação de partículas neutras. O momento das partículas carregadas é obtido pela medida da curvatura das trajectórias em fotografias. Se as partículas carregadas pararem ainda dentro da câmara de bolhas, pode saber-se a energia cinética pela distância que percorreram. Os neutrões não podem ser detectados pelas câmaras de bolhas porque são electricamente neutros e não exercem nenhuma força nos electrões do líquido. A razão para o uso de hidrogénio líquido deve-se ao facto de esse elemento possuir o núcleo mais simples (se se utilizassem outros, não se teria a certeza se as partículas colidiam com um protão ou com um neutrão).
A câmara de bolhas foi fundamental na descoberta de partículas cuja existência ajudou a criar o modelo de quark. Entretanto, a tecnologia avançou significativamente nas últimas décadas e, actualmente, usam-se detectores mais modernos. O aprimoramento dos aparelhos que usam o princípio da câmara de bolhas permitiu transformá-la num detector de WIMPs, sigla em inglês para partículas massivas de interação fraca, que podem resolver o problema da matéria negra.
Um projecto importante relacionado com a câmara de bolhas foi realizado no CERN em 1970. Intitulado Big European Bubble Chamber (BEBC), o recipiente contendo o líquido tinha 3,7 m de diâmetro. Porém, esse instruumento já não está em funcionamento, sendo agora uma peça no museu de física das partículas do CERN.
Bianca de Quadros Cerbaro
Bibliografia
- http://teachers.web.cern.ch/teachers/archiv/HST2005/bubble_chambers/BCwebsite/index.htm Acesso em 18 de maio de 2011.
- http://nobelprize.org/nobel_prizes/physics/laureates/1960/glaser-bio.html Acesso em 18 de maio de 2011.
- http://en.wikipedia.org/wiki/Donald_A._Glaser Acesso em 18 de maio de 2011.
O projecto Manhattan
O Projecto Manhattan foi um projecto liderado pelos Estados Unidos da América, com participação do Reino Unido e do Canadá, do qual resultou o desenvolvimento e criação das primeiras bombas atómicas, durante a 2.ª Guerra Mundial. A componente militar do projecto era designada por Manhattan District ou Manhattan Engineer District (MED), mas Manhattan passou gradualmente a ser usado como o nome de código do projecto. Começou por ser um pequeno programa de pesquisa, mas chegou a empregar mais de 130.000 pessoas, e teve um custo de cerca de 2.400.000.000$US, sendo mais de 90% dessa verba para construir centrais e produzir materiais cindíveis, e menos de 10% para a produção e desenvolvimento de bombas. A pesquisa e a produção foram realizadas em mais de 30 locais, alguns secretos, incluindo universidades dos três países participantes. Os três locais primários eram as instalações de produção de plutónio em Hanford, Washington, as instalações de enriquecimento de urânio em Oak Ridge, Tennessee, e o laboratório de pesquisa e design de armas em Los Alamos, Novo México. O Projecto Manhattan também estava encarregue de recolher informação do projecto de energia nuclear alemão, através da operação Alsos, capturando materiais nucleares e cientistas alemães. O MED manteve controlo sobre a produção de armas atómicas norte-americanas até à formação da United States Atomic Energy Commission, a 1 de Janeiro de 1947, que tomou conta do projecto.
A 2 de Agosto de 1939, o presidente dos Estados Unidos da América, Franklin Roosevelt, recebeu uma carta assinada por Albert Einstein, conhecida por carta de Einstein-Szilard por ter sido maioritariamente escrita por Leo Szilard, embora Edward Teller e Eugene Wigner também tivessem, sugerindo que os EUA deviam iniciar as suas próprias pesquisas sobre o urânio, como fonte de energia e eventualmente uma nova arma extremamente poderosa. Mais tarde, após os bombardeamentos de Hiroshima e Nagasaki, Einstein arrependeu-se de ter assinado tal carta. Devido à preocupação com a invasão da Polónia pelas tropas de Hitler, só a 11 de Outubro de 1939 Roosevelt prestou atenção à carta e autorizou a criação do Advisory Committee on Uranium, que entrou em funcionamento a 21 de Outubro, liderado por Lyman James Briggs, director do National Bureau of Standards. Dispunha de um orçamento de 6000$US para experiências baseadas em neutrões, que foram executadas por Enrico Fermi na Universidade de Chicago.
Em Novembro de 1939 o comité informou Roosevelt que o urânio era uma possível fonte de bombas com um poder de destruição largamente superior ao disponível na época. Briggs propôs que o National Defense Research Committee (NDRC) investisse 167.000$US em pesquisas no urânio e plutónio, em particular o isótopo urânio-235. Em Março de 1940, na Universidade de Birmingham, Otto Frisch e Rudolf Peierls escreveram o chamado memorando Frisch-Peierls, que continha novos cálculos sobre a massa crítica necessária para construir uma bomba atómica, que indicavam uma ordem de magnitude de 10 kg, sendo assim as bombas passíveis de transporte aéreo (as estimativas iniciais tinham apontado para os milhares de toneladas). Deste memorando resultou também a instalação do British Maud Committee.
Um dos membros dessa comissão, o físico australiano Marcus Oliphant, reuniu-se, nos finais de Agosto de 1941, com o Uranium Committee, para desviar o desenvolvimento da produção de energia para a produção de uma bomba. A 6 de Dezembro, Vannevar Bush preparou uma reunião para acelerar o projecto de pesquisa, designadamente o enriquecimento do urânio, e a 18 de Dezembro teve lugar a primeira reunião do projecto S-1 da OSRD, dedicada ao desenvolvimento de armas nucleares. Entre Julho e Setembro de 1942, o físico Robert Oppenheimer realizou uma conferência de Verão na Universidade da Califórnia, Berkeley, para discutir o desenho da bomba de cisão, na qual Edward Teller mencionou a possibilidade de se construir uma bomba de hidrogénio.
Foram produzidas durante a guerra dois tipos de bombas atómicas . Uma bomba de cisão de tipo balístico, feita de urânio-235, obtido por separação electromagnética, gasosa, ou termal, maioritariamente em Oak Ridge. Este método não era viável com o plutónio, pelo que se desenvolveu uma bomba de implosão em Los Alamos, com o nome de código The Gadget. O primeiro dispositivo nuclear detonado no teste Trinity perto de Alamogordo, Novo México, em 16 de Julho de 1945. A 6 de Agosto de 1945, uma bomba nuclear tipo balístico, denominada Little Boy, foi largada sobre a cidade de Hiroshima, e uma outra mais complexa, contendo plutónio, denominada Fat Man, foi largada em Nagasaki três dias mais tarde.
Raimundo Martins
A 2 de Agosto de 1939, o presidente dos Estados Unidos da América, Franklin Roosevelt, recebeu uma carta assinada por Albert Einstein, conhecida por carta de Einstein-Szilard por ter sido maioritariamente escrita por Leo Szilard, embora Edward Teller e Eugene Wigner também tivessem, sugerindo que os EUA deviam iniciar as suas próprias pesquisas sobre o urânio, como fonte de energia e eventualmente uma nova arma extremamente poderosa. Mais tarde, após os bombardeamentos de Hiroshima e Nagasaki, Einstein arrependeu-se de ter assinado tal carta. Devido à preocupação com a invasão da Polónia pelas tropas de Hitler, só a 11 de Outubro de 1939 Roosevelt prestou atenção à carta e autorizou a criação do Advisory Committee on Uranium, que entrou em funcionamento a 21 de Outubro, liderado por Lyman James Briggs, director do National Bureau of Standards. Dispunha de um orçamento de 6000$US para experiências baseadas em neutrões, que foram executadas por Enrico Fermi na Universidade de Chicago.
Em Novembro de 1939 o comité informou Roosevelt que o urânio era uma possível fonte de bombas com um poder de destruição largamente superior ao disponível na época. Briggs propôs que o National Defense Research Committee (NDRC) investisse 167.000$US em pesquisas no urânio e plutónio, em particular o isótopo urânio-235. Em Março de 1940, na Universidade de Birmingham, Otto Frisch e Rudolf Peierls escreveram o chamado memorando Frisch-Peierls, que continha novos cálculos sobre a massa crítica necessária para construir uma bomba atómica, que indicavam uma ordem de magnitude de 10 kg, sendo assim as bombas passíveis de transporte aéreo (as estimativas iniciais tinham apontado para os milhares de toneladas). Deste memorando resultou também a instalação do British Maud Committee.
Um dos membros dessa comissão, o físico australiano Marcus Oliphant, reuniu-se, nos finais de Agosto de 1941, com o Uranium Committee, para desviar o desenvolvimento da produção de energia para a produção de uma bomba. A 6 de Dezembro, Vannevar Bush preparou uma reunião para acelerar o projecto de pesquisa, designadamente o enriquecimento do urânio, e a 18 de Dezembro teve lugar a primeira reunião do projecto S-1 da OSRD, dedicada ao desenvolvimento de armas nucleares. Entre Julho e Setembro de 1942, o físico Robert Oppenheimer realizou uma conferência de Verão na Universidade da Califórnia, Berkeley, para discutir o desenho da bomba de cisão, na qual Edward Teller mencionou a possibilidade de se construir uma bomba de hidrogénio.
Foram produzidas durante a guerra dois tipos de bombas atómicas . Uma bomba de cisão de tipo balístico, feita de urânio-235, obtido por separação electromagnética, gasosa, ou termal, maioritariamente em Oak Ridge. Este método não era viável com o plutónio, pelo que se desenvolveu uma bomba de implosão em Los Alamos, com o nome de código The Gadget. O primeiro dispositivo nuclear detonado no teste Trinity perto de Alamogordo, Novo México, em 16 de Julho de 1945. A 6 de Agosto de 1945, uma bomba nuclear tipo balístico, denominada Little Boy, foi largada sobre a cidade de Hiroshima, e uma outra mais complexa, contendo plutónio, denominada Fat Man, foi largada em Nagasaki três dias mais tarde.
Raimundo Martins
ETTORE MAJORANA
Ettore Majorana é uma das figuras mais enigmáticas da física do século XX. Nasceu em 1906 no seio de uma abastada família da Sicília (Itália): desde pequeno mostrou as suas enormes capacidades de realizar cálculos matemáticos: muitas vezes deu prova da sua habilidade perante vizinhos e amigos de família calculando raízes cúbicas mentalmente.
Aos 15 anos mudou-se com a família para Roma, onde terminou o liceu e se inscreveu no curso de Engenharia. Mas nunca acabou este curso, por se ter mudado para Física. Esta decisão foi tomada depois de um encontro com o ainda jovem professor de Física Teórica Enrico Fermi, o qual estava a trabalhar no modelo estatístico do átomo, em particular no problema do chamado “potencial de Fermi”. Nesse encontro os dois discutiram as mais recentes pesquisas de Fermi, que mostrou a Majorana valores tabelados do potencial que tinha conseguido calcular (embora com bastante dificuldade), explicando-lhe os problemas que estava a enfrentar. No dia seguinte Majorana voltou ao gabinete de Fermi, pediu-lhe para ver a tabela do dia anterior e, comparando-a com uma que ele próprio tinha calculado num dia só, congratulou-se com os resultados obtidos. Majorana passou a frequentar o grupo de Fermi, dando provas das suas extraordinárias capacidades: foram anos de grande desenvolvimento para a física atómica e nuclear, sendo numerosas as questões em aberto com as quais o jovem físico discutiu com os colaboradores de Fermi. Não se ligou, porém, socialmente muito com os membros do grupo devido ao seu carácter tímido: era muito auto-crítico e mostrava-se constantemente insatisfeito com o seu trabalho. Ao encontrar a solução de um problema, por vezes, em vez de se alegrar, afirmava que ela era banal e lamentava-se de não a ter encontrada antes. Convencido de que tudo o que se consegue compreender é banal, raramente publicava as suas teorias: até ao seu desaparecimento só deixou dez publicações, embora existam muitos escritos inéditos, alguns dos quais com ideias que poderiam estimular as actuais pesquisa.
Contam-se muitos episódios da sua vida que testemunham o seu talento, por exemplo o da descoberta do neutrão: segundo Laura Fermi, esposa de Enrico Fermi e grande amiga de Majorana, ele intuiu primeiro o significado das experiências efectuadas pelo casal Joliot-Curie, ou seja, que tem de existir uma partícula neutra com uma massa aproximadamente igual à do protão. Mas não publicou a sua interpretação, não obstante as exortações de Fermi: a autoria da descoberta do neutrão é hoje atribuída a James Chadwick. Logo após a publicação de Chadwick, Majorana elaborou uma teoria das forças de troca entre nucleões que tornam o núcleo estável: mas não publicou nada até que Heisenberg escreveu um artigo sobre o mesmo assunto. Seguindo as recomendações de Fermi, Majorana foi para Leipzig, na Alemanha, onde encontrou Heisenberg, o qual o convenceu a publicar a sua teoria, que julgava conter considerações muito interessantes. Também trabalhou durante aquele período num outro assunto, o que o levou a publicar um artigo na revista italiana Nuovo Cimento, que, por mais de trinta anos, até à sua tradução em inglês, não foi considerado na comunidade cientifica internacional: o tema é a possibilidade de escrever equações quânticas compatíveis com a teoria da relatividade restrita para partículas com spins diferentes de zero ou 1/2. Na altura pensava-se que isso era impossível, mas Majorana descobriu que se podia escrever uma única equação que descreve um conjunto infinito de casos, para partículas de spin qualquer: esta é chamada equação a infinitas compoentes, sendo um dos seus maiores resultados, até pelos desenvolvimentos matemáticos nesse seu trabalho.
Quando voltou à Itália em 1933, começou para Majorana um período negro: raramente saía de casa, não tinha muitos contactos com amigos e passava muito tempo sozinho estudando assuntos vários de medicina, filosofia, literatura e provavelmente também de física teórica (mas não existem documentos comprovativos destes estudos). Em 1937 publicou a sua teoria simétrica do electrão e do positrão e obteve a cátedra de Física Teórica na Universidade de Nápoles. Segundo ele um fermião neutro coincidia com a sua antipartícula e sugeriu que os neutrinos pertenciam a esta categoria de partículas. A teoria de Majorana não foi muito considerada até aos anos 50, quando o neutrino foi descoberto: até hoje não existem provas da existência de fermiões de Majorana, mas estão em curso experiências para verificar tal hipótese, 70 anos depois da sua formulação!
Em 1938, num dia de Março, Majorana desapareceu. Alguns acham que ele se suicidou, outros que se retirou para um mosteiro, outros ainda que se exilou. Mas, dado que nada se sabe de concreto sobre o que lhe aconteceu, estas são apenas especulações. O facto é que o seu misterioso desaparecimento levantou na opinião pública mais curiosidade do que os seus trabalhos, e a sua contribuição para o progresso científico acabou por não ser suficientemente conhecida.
Caterina Umiltà
Aos 15 anos mudou-se com a família para Roma, onde terminou o liceu e se inscreveu no curso de Engenharia. Mas nunca acabou este curso, por se ter mudado para Física. Esta decisão foi tomada depois de um encontro com o ainda jovem professor de Física Teórica Enrico Fermi, o qual estava a trabalhar no modelo estatístico do átomo, em particular no problema do chamado “potencial de Fermi”. Nesse encontro os dois discutiram as mais recentes pesquisas de Fermi, que mostrou a Majorana valores tabelados do potencial que tinha conseguido calcular (embora com bastante dificuldade), explicando-lhe os problemas que estava a enfrentar. No dia seguinte Majorana voltou ao gabinete de Fermi, pediu-lhe para ver a tabela do dia anterior e, comparando-a com uma que ele próprio tinha calculado num dia só, congratulou-se com os resultados obtidos. Majorana passou a frequentar o grupo de Fermi, dando provas das suas extraordinárias capacidades: foram anos de grande desenvolvimento para a física atómica e nuclear, sendo numerosas as questões em aberto com as quais o jovem físico discutiu com os colaboradores de Fermi. Não se ligou, porém, socialmente muito com os membros do grupo devido ao seu carácter tímido: era muito auto-crítico e mostrava-se constantemente insatisfeito com o seu trabalho. Ao encontrar a solução de um problema, por vezes, em vez de se alegrar, afirmava que ela era banal e lamentava-se de não a ter encontrada antes. Convencido de que tudo o que se consegue compreender é banal, raramente publicava as suas teorias: até ao seu desaparecimento só deixou dez publicações, embora existam muitos escritos inéditos, alguns dos quais com ideias que poderiam estimular as actuais pesquisa.
Contam-se muitos episódios da sua vida que testemunham o seu talento, por exemplo o da descoberta do neutrão: segundo Laura Fermi, esposa de Enrico Fermi e grande amiga de Majorana, ele intuiu primeiro o significado das experiências efectuadas pelo casal Joliot-Curie, ou seja, que tem de existir uma partícula neutra com uma massa aproximadamente igual à do protão. Mas não publicou a sua interpretação, não obstante as exortações de Fermi: a autoria da descoberta do neutrão é hoje atribuída a James Chadwick. Logo após a publicação de Chadwick, Majorana elaborou uma teoria das forças de troca entre nucleões que tornam o núcleo estável: mas não publicou nada até que Heisenberg escreveu um artigo sobre o mesmo assunto. Seguindo as recomendações de Fermi, Majorana foi para Leipzig, na Alemanha, onde encontrou Heisenberg, o qual o convenceu a publicar a sua teoria, que julgava conter considerações muito interessantes. Também trabalhou durante aquele período num outro assunto, o que o levou a publicar um artigo na revista italiana Nuovo Cimento, que, por mais de trinta anos, até à sua tradução em inglês, não foi considerado na comunidade cientifica internacional: o tema é a possibilidade de escrever equações quânticas compatíveis com a teoria da relatividade restrita para partículas com spins diferentes de zero ou 1/2. Na altura pensava-se que isso era impossível, mas Majorana descobriu que se podia escrever uma única equação que descreve um conjunto infinito de casos, para partículas de spin qualquer: esta é chamada equação a infinitas compoentes, sendo um dos seus maiores resultados, até pelos desenvolvimentos matemáticos nesse seu trabalho.
Quando voltou à Itália em 1933, começou para Majorana um período negro: raramente saía de casa, não tinha muitos contactos com amigos e passava muito tempo sozinho estudando assuntos vários de medicina, filosofia, literatura e provavelmente também de física teórica (mas não existem documentos comprovativos destes estudos). Em 1937 publicou a sua teoria simétrica do electrão e do positrão e obteve a cátedra de Física Teórica na Universidade de Nápoles. Segundo ele um fermião neutro coincidia com a sua antipartícula e sugeriu que os neutrinos pertenciam a esta categoria de partículas. A teoria de Majorana não foi muito considerada até aos anos 50, quando o neutrino foi descoberto: até hoje não existem provas da existência de fermiões de Majorana, mas estão em curso experiências para verificar tal hipótese, 70 anos depois da sua formulação!
Em 1938, num dia de Março, Majorana desapareceu. Alguns acham que ele se suicidou, outros que se retirou para um mosteiro, outros ainda que se exilou. Mas, dado que nada se sabe de concreto sobre o que lhe aconteceu, estas são apenas especulações. O facto é que o seu misterioso desaparecimento levantou na opinião pública mais curiosidade do que os seus trabalhos, e a sua contribuição para o progresso científico acabou por não ser suficientemente conhecida.
Caterina Umiltà
quarta-feira, 15 de junho de 2011
À descoberta do neutrão
O neutrão é uma partícula subatómica de carga eléctrica nula e com massa ligeiramente superior à do protão, encontrando-se em todos os núcleos atómicos à excepção do de hidrogénio. O neutrão só foi descoberto em 1932, quando James Chadwick usou dados de scattering para calcular a respectiva massa.
A palavra neutrão apareceu pela primeira vez em duas teorias rivais sobre os raios X na primeira metade de 1912 da autoria de Stokes e de Bragg. Bragg, na sua teoria corpuscular, postulou que um electrão. ao colidir com um anti-cátodo num tubo de raios X, era carregado positivamente de modo que a sua carga se tornava neutra. Bragg chamou neutrão a esta partícula electricamente neutra mas com a mesma massa do electrão. A partícula da teoria de Bragg estava, no entanto, bem longe do actual neutrão.
Foi Ernest Rutherford, em 1920, quem primeiro concebeu a possibilidade de existência de uma partícula electricamente neutra e com massa próxima da do protão ao considerar que a disparidade encontrada entre o número atómico e a massa atómica podia ser explicada pela presença no núcleo atómico de uma partícula electricamente neutra. Chamou a esta partícula, tal como Bragg, neutrão, o termo ainda hoje utilizado.
Foram feitas experiências durante os anos seguintes por dois alunos de Rutherford, Glasson e Roberts, que tentaram encontrar o neutrão. Glasson fez experiências com tubos descarregados. Já Roberts supôs que, num tubo descarregado preenchido com hidrogénio, os electrões podiam combinar-se com protões de modo a formar neutrões, esperando detectar a energia libertada por métodos calorimétricos. Nenhum deles teve sucesso.
Foi por esta altura que Chadwick, que mais tarde viria a descobrir o neutrão, contactou Rutherford, apresentando-lhe um esquema que acreditava serviria para descobrir a partícula que até essa altura os iludira.
No entanto, até 1930, pensava-se que as partículas fundamentais do núcleo eram o protão e o electrão. Isso obrigava à existência de um dado número de electrões no núcleo atómico para anular a carga produzida pelos protões em excesso que originavam a massa do átomo, embora já se soubesse pelo Princípio da Incerteza e pelo confinamento do tipo “partícula numa caixa” que não havia energia suficiente para conter os electrões no núcleo. Foi neste ano que Bothe e Becker observaram que o bombardeamento do berílio com partículas alfa provenientes de uma fonte radioactiva produzia uma radiação neutra penetrante e não-ionizante. Pensou-se que o resultado eram raios gama até os Joliot-Curie mostrarem, em 1932, que a parafina ao ser bombardeada com esta radiação ejectava protões com energia de cerca de 5,3 MeV. Facilmente se provou, fazendo uma análise à energia e ao momento linear, que este resultado era inconsistente com raios gama.
Os 5,3 MeV de energia dos protões ejectados poderiam ser facilmente explicados se a partícula neutra tivesse uma massa comparável à do protão. Para colisões frontais, isso exigiria da partícula neutra apenas 5,3 MeV, um valor no intervalo observado para emissões de partículas nucleares.
Foi James Chadwick, após mais de dez anos de busca, quem foi capaz de provar que a partícula neutra não podia ser um fotão ao bombardear outros núcleos, como o azoto, o oxigénio, o hélio e o árgon. Não só os resultados destes eram inconsistentes a nível energético com a emissão de fotões como a secção eficaz para estas interacções era ordens de grandeza maior do que a do scattering de Compton de fotões.
Faltava determinar a massa da partícula neutra. Para isso, Chadwick bombardeou boro com partículas alfa e analisou a interacção das partículas neutras com o azoto. Esta escolha particular de alvos foi feita por a massa destes elementos ser bem conhecida na altura. Aplicando a conservação da energia a ambas as interacções e resolvendo em ordem à massa-energia do neutrão obteve uma fórmula que envolvia a massa e a velocidade do neutrão. Sendo desconhecida a velocidade do neutrão podia, no entanto, supor-se que a sua massa é próxima da do protão. Chadwick lançou os seus neutrões contra átomos de hidrogénio e calculou a velocidade dos protões depois das colisões. Substituiu então a velocidade do neutrão pela velocidade que tinha calculado para os protões e estimou a massa do neutrão em 938 +- 1,8 MeV, um valor de acordo com o actualmente aceite de 939,57 MeV.
A descoberta do neutrão permitiu resolver um problema relativo ao spin do núcleo azoto-14 para o qual tinha sido obtido experimentalmente o valor de 1. Era sabido que os núcleos atómicos tinham normalmente cerca de metade de cargas positivas do que caso fossem compostos apenas por protões. O facto era, nos modelos existentes, explicado pela presença de electrões no núcleo para neutralizar o excesso de carga. Com base nestes modelos o azoto-14 seria composto por 14 protões e 7 electrões conferindo-lhe uma carga de +7, mas uma massa de 14 unidades de massa atómica. No entanto, era também sabido que tanto os protões como os electrões possuíam um spin intrínseco de 1/2 e, sendo o número de partículas no azoto-14 ímpar, não existia nenhuma combinação possível de spins +/- 1/2 que desse 1. Após a descoberta de Chadwick, foi proposto um modelo de três pares de protões e neutrões com um protão e um neutrão adicionais, cada um contribuindo com spin 1/2 chegando ao resultado de 1 para este átomo. Este mesmo modelo foi usado para explicar o spin de outros nuclidos.
Marco Gui Alves Pinto
A palavra neutrão apareceu pela primeira vez em duas teorias rivais sobre os raios X na primeira metade de 1912 da autoria de Stokes e de Bragg. Bragg, na sua teoria corpuscular, postulou que um electrão. ao colidir com um anti-cátodo num tubo de raios X, era carregado positivamente de modo que a sua carga se tornava neutra. Bragg chamou neutrão a esta partícula electricamente neutra mas com a mesma massa do electrão. A partícula da teoria de Bragg estava, no entanto, bem longe do actual neutrão.
Foi Ernest Rutherford, em 1920, quem primeiro concebeu a possibilidade de existência de uma partícula electricamente neutra e com massa próxima da do protão ao considerar que a disparidade encontrada entre o número atómico e a massa atómica podia ser explicada pela presença no núcleo atómico de uma partícula electricamente neutra. Chamou a esta partícula, tal como Bragg, neutrão, o termo ainda hoje utilizado.
Foram feitas experiências durante os anos seguintes por dois alunos de Rutherford, Glasson e Roberts, que tentaram encontrar o neutrão. Glasson fez experiências com tubos descarregados. Já Roberts supôs que, num tubo descarregado preenchido com hidrogénio, os electrões podiam combinar-se com protões de modo a formar neutrões, esperando detectar a energia libertada por métodos calorimétricos. Nenhum deles teve sucesso.
Foi por esta altura que Chadwick, que mais tarde viria a descobrir o neutrão, contactou Rutherford, apresentando-lhe um esquema que acreditava serviria para descobrir a partícula que até essa altura os iludira.
No entanto, até 1930, pensava-se que as partículas fundamentais do núcleo eram o protão e o electrão. Isso obrigava à existência de um dado número de electrões no núcleo atómico para anular a carga produzida pelos protões em excesso que originavam a massa do átomo, embora já se soubesse pelo Princípio da Incerteza e pelo confinamento do tipo “partícula numa caixa” que não havia energia suficiente para conter os electrões no núcleo. Foi neste ano que Bothe e Becker observaram que o bombardeamento do berílio com partículas alfa provenientes de uma fonte radioactiva produzia uma radiação neutra penetrante e não-ionizante. Pensou-se que o resultado eram raios gama até os Joliot-Curie mostrarem, em 1932, que a parafina ao ser bombardeada com esta radiação ejectava protões com energia de cerca de 5,3 MeV. Facilmente se provou, fazendo uma análise à energia e ao momento linear, que este resultado era inconsistente com raios gama.
Os 5,3 MeV de energia dos protões ejectados poderiam ser facilmente explicados se a partícula neutra tivesse uma massa comparável à do protão. Para colisões frontais, isso exigiria da partícula neutra apenas 5,3 MeV, um valor no intervalo observado para emissões de partículas nucleares.
Foi James Chadwick, após mais de dez anos de busca, quem foi capaz de provar que a partícula neutra não podia ser um fotão ao bombardear outros núcleos, como o azoto, o oxigénio, o hélio e o árgon. Não só os resultados destes eram inconsistentes a nível energético com a emissão de fotões como a secção eficaz para estas interacções era ordens de grandeza maior do que a do scattering de Compton de fotões.
Faltava determinar a massa da partícula neutra. Para isso, Chadwick bombardeou boro com partículas alfa e analisou a interacção das partículas neutras com o azoto. Esta escolha particular de alvos foi feita por a massa destes elementos ser bem conhecida na altura. Aplicando a conservação da energia a ambas as interacções e resolvendo em ordem à massa-energia do neutrão obteve uma fórmula que envolvia a massa e a velocidade do neutrão. Sendo desconhecida a velocidade do neutrão podia, no entanto, supor-se que a sua massa é próxima da do protão. Chadwick lançou os seus neutrões contra átomos de hidrogénio e calculou a velocidade dos protões depois das colisões. Substituiu então a velocidade do neutrão pela velocidade que tinha calculado para os protões e estimou a massa do neutrão em 938 +- 1,8 MeV, um valor de acordo com o actualmente aceite de 939,57 MeV.
A descoberta do neutrão permitiu resolver um problema relativo ao spin do núcleo azoto-14 para o qual tinha sido obtido experimentalmente o valor de 1. Era sabido que os núcleos atómicos tinham normalmente cerca de metade de cargas positivas do que caso fossem compostos apenas por protões. O facto era, nos modelos existentes, explicado pela presença de electrões no núcleo para neutralizar o excesso de carga. Com base nestes modelos o azoto-14 seria composto por 14 protões e 7 electrões conferindo-lhe uma carga de +7, mas uma massa de 14 unidades de massa atómica. No entanto, era também sabido que tanto os protões como os electrões possuíam um spin intrínseco de 1/2 e, sendo o número de partículas no azoto-14 ímpar, não existia nenhuma combinação possível de spins +/- 1/2 que desse 1. Após a descoberta de Chadwick, foi proposto um modelo de três pares de protões e neutrões com um protão e um neutrão adicionais, cada um contribuindo com spin 1/2 chegando ao resultado de 1 para este átomo. Este mesmo modelo foi usado para explicar o spin de outros nuclidos.
Marco Gui Alves Pinto
Relatividade Geral
A teoria da relatividade geral, que constitui a actual descrição dos fenómenos gravitacionais e cosmológicos, foi desenvolvida por Albert Einstein, que a apresentou em 1915. Einstein, em 1905, tinha publicado a teoria da relatividade restrita, cujas consequências revolucionaram o nosso entendimento do espaço e do tempo, e começou pouco depois a pensar uma forma de a aplicar a sistemas sujeitos à força gravítica, uma vez que a relatividade restrita só é aplicável a sistemas observados em referenciais de inércia. A descrição da força gravítica aceite até ao início do século XX era a de Newton, que tinha reconhecido que a sua lei gravítica não se encontrava em forma final (ele desconhecia a natureza desta força!). Além disso, também já se conheciam efeitos inexplicáveis pela lei da gravitação universal, como pequenas diferenças no periélio de Mercúrio.
Einstein contou que foi em 1907, quando ainda trabalhava no escritório de patentes em Berna, na Suíça, que lhe surgiu a ideia de que um observador em queda livre tem, durante pouco tempo, um movimento inercial e, portanto, que as equações da relatividade restrita lhe poderão ser aplicadas, o que constitui a base do princípio da equivalência. Assim, o princípio da relatividade podia ser generalizado para campos gravitacionais. Publicou, em 1908, um artigo sobre essa equivalência e, em 1911, um outro sobre o caso em que duas caixas são indistinguíveis, tendo uma delas um movimento uniformemente acelerado e estando a outra em repouso num campo gravitacional constante. Imaginando relógios no topo e no fundo dessa caixa acelerada concluiu que eles marcariam tempos diferentes dependendo da posição no campo, diferença essa que em primeira aproximação era proporcional ao potencial gravítico. Outra experiência imaginada por Einstein foi a de um observador numa plataforma giratória que tentava medir o raio da plataforma com uma régua. Esperar-se-ia o valor euclidiano para o perímetro da plataforma, mas, pela relatividade restrita, a circunferência parecia maior porque a régua se encontrava contraída. Einstein, para quem as leis da física eram descritas por campos locais, concluiu que o espaço-tempo devia ser localmente curvado. Começou então a interessar-se pela geometria de Riemann.
Em 1912 voltou a Zurique, onde procurou um antigo seu colega, Marcel Grossmann, que o introduziu na geometria de Riemann e na geometria diferencial. Começou, por conselho do matemático Tullio Levi-Civita, a usar tensores na teoria que estava a desenvolver e passou a procurar uma explicação geométrica para a gravidade. Em 1917, quase no final da 1.ª Grande Guerra, alguns astrónomos decidiram aceitar o "desafio de Einstein", que tinha sido lançado em 1911 por Erwin Finlay-Freundlich. Este desafio consistia em observar a deflexão da luz prevista por Einstein em corpos celestes de grande massa: os resultados não deram, porém, qualquer desvio. Foi com a observação do eclipse solar total de 1919 que Arthur Eddington confirmou na ilha do Príncipe as previsões einsteinianas da deflexão da luz solar. Esses registos foram considerados pouco fiáveis devido a erros experimentais e só mais tarde observações mais precisas mostraram o efeito sem qualquer margem para dúvidas.
Einstein tinha abandonado uma aproximação covariante para a sua teoria gravitacional por ter encontrado inconsistências e começou a procurar equações de campo por outras vias. No final de 1915, voltou à teoria covariante e, desta vez, conseguiu compatibilizá-la com o determinismo em que acreditava. Foi rápido a deduzir, a partir daí, as equações finais da teoria da relatividade geral. Cometeu um famoso erro na sua primeira publicação, em Outubro de 1915 - a equação violava a conservação da energia e momento linear - mas corrigiu-o logo no mês seguinte.
A partir daí tentou resolver as equações de campo para vários casos e interpretar as suas soluções não triviais, bem como encontrar novas verificações observacionais ou experimentais para a sua teoria. Como as equações são não-lineares, Einstein supôs que elas eram insolúveis, mas, em 1916, Karl Schwarzschild descobriu uma solução para um espaço-tempo com simetria esférica nas vizinhanças de um objecto maciço, encontrando matematicamente o que mais tarde se reconheceu ser um buraco negro. Seguiram-se outras soluções exactas e também aproximações por métodos numéricos. Em 1922, descobriram-se soluções em que o Universo podia expandir-se ou contrair-se mas, como acreditava num Universo estático, Einstein introduziu uma constante cosmológica para tornar as soluções estacionárias, apesar de instáveis, já que o mínimo desvio deste estado resultaria num Universo dinâmico. Quando, em 1929, Edwin Hubble descobriu que o Universo parecia estar a expandir-se, Einstein retirou a constante cosmológica, tendo-a considerado o "maior erro" da sua vida, Contudo, a partir da década de 90, com a descoberta da aceleração da expansão cósmica, ressurgiu o interesse por esta constante.
A relatividade geral explica a distorção do espaço-tempo pela matéria-energia, fenómeno que afecta o movimento de outras massas. A precessão do periélio de Mercúrio passou a ter justificação e a deflexão da luz pelo Sol, as lentes gravíticas, os pulsares binários, a detecção indirecta de ondas gravitacionais, etc. têm comprovado uma teoria que, nas palavras de Paul Dirac, é "provavelmente a maior descoberta científica alguma vez feita".
Natacha Violante Gomes Leite
Referências:
http://en.wikipedia.org/wiki/General_relativity
http://pt.wikipedia.org/wiki/Relatividade_geral
http://en.wikipedia.org/wiki/History_of_general_relativity
http://en.wikipedia.org/wiki/Equivalence_principle
http://en.wikipedia.org/wiki/Ehrenfest_paradox
http://en.wikipedia.org/wiki/Hole_argument
http://en.wikipedia.org/wiki/Cosmological_constant
Einstein contou que foi em 1907, quando ainda trabalhava no escritório de patentes em Berna, na Suíça, que lhe surgiu a ideia de que um observador em queda livre tem, durante pouco tempo, um movimento inercial e, portanto, que as equações da relatividade restrita lhe poderão ser aplicadas, o que constitui a base do princípio da equivalência. Assim, o princípio da relatividade podia ser generalizado para campos gravitacionais. Publicou, em 1908, um artigo sobre essa equivalência e, em 1911, um outro sobre o caso em que duas caixas são indistinguíveis, tendo uma delas um movimento uniformemente acelerado e estando a outra em repouso num campo gravitacional constante. Imaginando relógios no topo e no fundo dessa caixa acelerada concluiu que eles marcariam tempos diferentes dependendo da posição no campo, diferença essa que em primeira aproximação era proporcional ao potencial gravítico. Outra experiência imaginada por Einstein foi a de um observador numa plataforma giratória que tentava medir o raio da plataforma com uma régua. Esperar-se-ia o valor euclidiano para o perímetro da plataforma, mas, pela relatividade restrita, a circunferência parecia maior porque a régua se encontrava contraída. Einstein, para quem as leis da física eram descritas por campos locais, concluiu que o espaço-tempo devia ser localmente curvado. Começou então a interessar-se pela geometria de Riemann.
Em 1912 voltou a Zurique, onde procurou um antigo seu colega, Marcel Grossmann, que o introduziu na geometria de Riemann e na geometria diferencial. Começou, por conselho do matemático Tullio Levi-Civita, a usar tensores na teoria que estava a desenvolver e passou a procurar uma explicação geométrica para a gravidade. Em 1917, quase no final da 1.ª Grande Guerra, alguns astrónomos decidiram aceitar o "desafio de Einstein", que tinha sido lançado em 1911 por Erwin Finlay-Freundlich. Este desafio consistia em observar a deflexão da luz prevista por Einstein em corpos celestes de grande massa: os resultados não deram, porém, qualquer desvio. Foi com a observação do eclipse solar total de 1919 que Arthur Eddington confirmou na ilha do Príncipe as previsões einsteinianas da deflexão da luz solar. Esses registos foram considerados pouco fiáveis devido a erros experimentais e só mais tarde observações mais precisas mostraram o efeito sem qualquer margem para dúvidas.
Einstein tinha abandonado uma aproximação covariante para a sua teoria gravitacional por ter encontrado inconsistências e começou a procurar equações de campo por outras vias. No final de 1915, voltou à teoria covariante e, desta vez, conseguiu compatibilizá-la com o determinismo em que acreditava. Foi rápido a deduzir, a partir daí, as equações finais da teoria da relatividade geral. Cometeu um famoso erro na sua primeira publicação, em Outubro de 1915 - a equação violava a conservação da energia e momento linear - mas corrigiu-o logo no mês seguinte.
A partir daí tentou resolver as equações de campo para vários casos e interpretar as suas soluções não triviais, bem como encontrar novas verificações observacionais ou experimentais para a sua teoria. Como as equações são não-lineares, Einstein supôs que elas eram insolúveis, mas, em 1916, Karl Schwarzschild descobriu uma solução para um espaço-tempo com simetria esférica nas vizinhanças de um objecto maciço, encontrando matematicamente o que mais tarde se reconheceu ser um buraco negro. Seguiram-se outras soluções exactas e também aproximações por métodos numéricos. Em 1922, descobriram-se soluções em que o Universo podia expandir-se ou contrair-se mas, como acreditava num Universo estático, Einstein introduziu uma constante cosmológica para tornar as soluções estacionárias, apesar de instáveis, já que o mínimo desvio deste estado resultaria num Universo dinâmico. Quando, em 1929, Edwin Hubble descobriu que o Universo parecia estar a expandir-se, Einstein retirou a constante cosmológica, tendo-a considerado o "maior erro" da sua vida, Contudo, a partir da década de 90, com a descoberta da aceleração da expansão cósmica, ressurgiu o interesse por esta constante.
A relatividade geral explica a distorção do espaço-tempo pela matéria-energia, fenómeno que afecta o movimento de outras massas. A precessão do periélio de Mercúrio passou a ter justificação e a deflexão da luz pelo Sol, as lentes gravíticas, os pulsares binários, a detecção indirecta de ondas gravitacionais, etc. têm comprovado uma teoria que, nas palavras de Paul Dirac, é "provavelmente a maior descoberta científica alguma vez feita".
Natacha Violante Gomes Leite
Referências:
http://en.wikipedia.org/wiki/General_relativity
http://pt.wikipedia.org/wiki/Relatividade_geral
http://en.wikipedia.org/wiki/History_of_general_relativity
http://en.wikipedia.org/wiki/Equivalence_principle
http://en.wikipedia.org/wiki/Ehrenfest_paradox
http://en.wikipedia.org/wiki/Hole_argument
http://en.wikipedia.org/wiki/Cosmological_constant
Descoberta da superconductividade
Em 1882, Heike Kamerlingh Onnes (1853-1926) foi nomeado professor em Física Experimental na Universidade de Leiden, na Holanda. Pretendia validar experimentalmente a teoria dos gases de van der Waals, explorando o comportamento de gases reais a temperaturas extremamente baixas.
Uma amostra de um gás, para atingir as temperaturas pretendidas por Onnes, tinha de ser mergulhada num gás liquefeito, que, ao entrar em ebulição, baixava a temperatura da amostra. O primeiro gás a ser liquefeito em Leiden foi o hidrogénio (em 1906), por um processo de compressão e arrefecimento do gás, com posterior expansão, levando a condensação. Porém, numa época em que o estudo dos metais a baixas temperaturas progredia muito, e dado que dispunha de hidrogénio líquido, o laboratório criogénico da Universidade de Leiden tomou este assunto como prioritário, levando Onnes a estudar a relação da resistividade eléctrica de fios de ouro e platina com a temperatura.
Eram então aceites duas hipóteses quanto à resistividade de um metal puro à temperatura de 0 K, já se sabendo que o movimento dos electrões era responsável pela condutividade eléctrica e que a resistividade era consequência da dispersão de electrões por iões do metal (puro). Uma das hipóteses propunha que a temperaturas suficientemente baixas havia diminuição da energia cinética dos electrões (levando a que a condutividade do metal tendesse para zero), ao psso que outra sugeria que, à medida que a temperatura baixasse, o ângulo de dispersão dos electrões ia diminuir, levando a que a resistividade tendesse para zero. Porém, Onnes terá seguido o modelo apresentado por Lord Kelvin, em 1902, segundo o qual: “a resistência eléctrica de um metal puro diminui rapidamente com o decréscimo da sua temperatura atingindo um mínimo e tendendo para infinito no zero absoluto”.
Em Julho de 1908, a equipa de Leiden obteve uma relação quase linear, sendo a temperatura mais baixa de 14 K. Pretendendo estender o estudo a temperaturas ainda mais baixas, Onnes retomou o seu projecto inicial, levando a cabo a primeira liquefacção do hélio. O seu laboratório tinha conseguido o acesso a quantidades elevadas de hélio de uma das maiores reservas mundiais deste gás, na Carolina do Norte (Estados Unidos da América). Com acesso exclusivo à tecnologia e à matéria-prima, não tinha que recear concorrência directa por parte de nenhum outro grupo.
Foi então que a equipa de Onnes deparou com um novo problema – a transferência do hélio líquido do liquidificador para um outro criostato, uma vez que o primeiro não possuía o espaço necessário para as experiências. Em Maio de 1910, o hélio líquido foi transferido para um criostato com paredes duplas e um contentor mais pequeno ligado a um complexo sistema de bombas de vácuo, as quais conseguiram diminuir, sequencialmente, a pressão no interior do contentor até 1,316 x 10^-4 atm. Neste novo criostato, conseguiu-se atingir os 1,1 K. Porém, posteriores experiências com platina (de modo a prosseguir o anterior estudo a partir dos 14 K) revelaram-se um fracasso. Foi projectado um novo criostato, que levou cerca de nove meses a ficar operacional. Uma vez que, por toda a Europa, começavam a ser efectuadas medições de calor específico, Onnes decidiu não esperar pela construção do novo criostato, expandido o liquidificador original para que pudesse acomodar um fio de platina. Assim, em Dezembro de 1910, reiniciou a experiência, observando que a resistividade eléctrica da platina ficava constante abaixo dos 4,25 K. Onnes concluiu de imediato que este valor residual de resistividade se devia a impurezas presentes no fio de platina, e que, num metal puro, a resistividade devia ser nula à temperatura de 0 K.
Foi com base nestas observações e conclusão que a equipa de Leiden decidiu usar mercúrio, devido à sua fácil purificação (por dupla destilação). A 8 de Abril de 1911, o novo criostato estava pronto para a sua primeira utilização. Apesar de esta experiência ter como principal finalidade o teste da transferência do hélio líquido para o criostato externo, a confiança dos técnicos era tal que o equipamento trazia já instalado o termómetro de hélio (gasoso) e as amostras de ouro e mercúrio (solidificado), para as medições de resistividade a várias temperaturas. Estando o novo equipamento operacional, em menos de 24 horas, a equipa de Onnes conseguiu finalizar as medições, observando pela primeira vez a transição superfluida do hélio líquido a 2,2 K (a qual resultou numa taxa de variação da temperatura bastante alta). Um mês depois, Onnes decidiu repetir a experiência, mas ao contrário, aumentando a temperatura do sistema, observando o “aparecimento” da resistividade do metal e prosseguindo até temperaturas mais altas, de modo a conseguir traçar a curva resistividade – temperatura.
Foi já nos finais de 1912 que os cientistas do laboratório de Leiden descobriram que estanho e chumbo eram igualmente supercondutores, com temperaturas de transição de 4 e 6 K, respectivamente. Com esta descoberta deixavam de ser necessários os procedimentos para um tão grande arrefecimento e purificação associados à utilização do mercúrio, ficando mais fácil a realização de experiências sobre supercondutividade.
Sandra Fernandes
Uma amostra de um gás, para atingir as temperaturas pretendidas por Onnes, tinha de ser mergulhada num gás liquefeito, que, ao entrar em ebulição, baixava a temperatura da amostra. O primeiro gás a ser liquefeito em Leiden foi o hidrogénio (em 1906), por um processo de compressão e arrefecimento do gás, com posterior expansão, levando a condensação. Porém, numa época em que o estudo dos metais a baixas temperaturas progredia muito, e dado que dispunha de hidrogénio líquido, o laboratório criogénico da Universidade de Leiden tomou este assunto como prioritário, levando Onnes a estudar a relação da resistividade eléctrica de fios de ouro e platina com a temperatura.
Eram então aceites duas hipóteses quanto à resistividade de um metal puro à temperatura de 0 K, já se sabendo que o movimento dos electrões era responsável pela condutividade eléctrica e que a resistividade era consequência da dispersão de electrões por iões do metal (puro). Uma das hipóteses propunha que a temperaturas suficientemente baixas havia diminuição da energia cinética dos electrões (levando a que a condutividade do metal tendesse para zero), ao psso que outra sugeria que, à medida que a temperatura baixasse, o ângulo de dispersão dos electrões ia diminuir, levando a que a resistividade tendesse para zero. Porém, Onnes terá seguido o modelo apresentado por Lord Kelvin, em 1902, segundo o qual: “a resistência eléctrica de um metal puro diminui rapidamente com o decréscimo da sua temperatura atingindo um mínimo e tendendo para infinito no zero absoluto”.
Em Julho de 1908, a equipa de Leiden obteve uma relação quase linear, sendo a temperatura mais baixa de 14 K. Pretendendo estender o estudo a temperaturas ainda mais baixas, Onnes retomou o seu projecto inicial, levando a cabo a primeira liquefacção do hélio. O seu laboratório tinha conseguido o acesso a quantidades elevadas de hélio de uma das maiores reservas mundiais deste gás, na Carolina do Norte (Estados Unidos da América). Com acesso exclusivo à tecnologia e à matéria-prima, não tinha que recear concorrência directa por parte de nenhum outro grupo.
Foi então que a equipa de Onnes deparou com um novo problema – a transferência do hélio líquido do liquidificador para um outro criostato, uma vez que o primeiro não possuía o espaço necessário para as experiências. Em Maio de 1910, o hélio líquido foi transferido para um criostato com paredes duplas e um contentor mais pequeno ligado a um complexo sistema de bombas de vácuo, as quais conseguiram diminuir, sequencialmente, a pressão no interior do contentor até 1,316 x 10^-4 atm. Neste novo criostato, conseguiu-se atingir os 1,1 K. Porém, posteriores experiências com platina (de modo a prosseguir o anterior estudo a partir dos 14 K) revelaram-se um fracasso. Foi projectado um novo criostato, que levou cerca de nove meses a ficar operacional. Uma vez que, por toda a Europa, começavam a ser efectuadas medições de calor específico, Onnes decidiu não esperar pela construção do novo criostato, expandido o liquidificador original para que pudesse acomodar um fio de platina. Assim, em Dezembro de 1910, reiniciou a experiência, observando que a resistividade eléctrica da platina ficava constante abaixo dos 4,25 K. Onnes concluiu de imediato que este valor residual de resistividade se devia a impurezas presentes no fio de platina, e que, num metal puro, a resistividade devia ser nula à temperatura de 0 K.
Foi com base nestas observações e conclusão que a equipa de Leiden decidiu usar mercúrio, devido à sua fácil purificação (por dupla destilação). A 8 de Abril de 1911, o novo criostato estava pronto para a sua primeira utilização. Apesar de esta experiência ter como principal finalidade o teste da transferência do hélio líquido para o criostato externo, a confiança dos técnicos era tal que o equipamento trazia já instalado o termómetro de hélio (gasoso) e as amostras de ouro e mercúrio (solidificado), para as medições de resistividade a várias temperaturas. Estando o novo equipamento operacional, em menos de 24 horas, a equipa de Onnes conseguiu finalizar as medições, observando pela primeira vez a transição superfluida do hélio líquido a 2,2 K (a qual resultou numa taxa de variação da temperatura bastante alta). Um mês depois, Onnes decidiu repetir a experiência, mas ao contrário, aumentando a temperatura do sistema, observando o “aparecimento” da resistividade do metal e prosseguindo até temperaturas mais altas, de modo a conseguir traçar a curva resistividade – temperatura.
Foi já nos finais de 1912 que os cientistas do laboratório de Leiden descobriram que estanho e chumbo eram igualmente supercondutores, com temperaturas de transição de 4 e 6 K, respectivamente. Com esta descoberta deixavam de ser necessários os procedimentos para um tão grande arrefecimento e purificação associados à utilização do mercúrio, ficando mais fácil a realização de experiências sobre supercondutividade.
Sandra Fernandes
A Experiência de Rutherford
Ernest Rutherford, famoso físico britânico nascido na Nova Zelândia, veio ao mundo em 1871. Filho de um mecânico e de uma professora, foi educado numa escola pública. Obteve o seu primeiro «grau em 1893 e foi para o Trinity College, em Cambridge, Inglaterra, para ser investigador no Laboratório Cavendish. O seu orientador era J. J. Thomson, o descobridor do electrão. Rutherford seria ainda professor em McGill, no Canadá, e em Manchester. Durante o seu percurso profissional, realizou trabalhos notáveis sobre a desintegração de elementos radioactivos, baseando-se nos estudos antes realizados por Henri Becquerel. Curiosamente, recebeu em 1908 o prémio Nobel da Química e não o da Física. Poucos anos mais tarde, em Cambridge, Rutherford empreendeu uma pesquisa, juntamente com o alemão Hans Geiger, na qual verificou que os raios alfa nada mais eram do que núcleos do átomo de hélio. Foi a partir daí que foi proposto um modelo para a estrutura do átomo.
Rutherford introduziu conceitos que hoje nos parecem triviais como, por exemplo, a ideia da existência do núcleo atómico, um caroço denso e com carga positiva, em torno do qual se movimentam partículas negativas. Foi em 1919 que Rutherford montou um experiência capaz de pôr à prova o modelo de Thomson para o átomo. Neste modelo, popularmente conhecido por “pudim de passas”, supunha-se que o átomo era composto por partículas negativas (a massa do bolo) e partículas positivas distribuídas por ele (as passas no bolo). Na experiência, utilizou o elemento polónio, um emissor espontâneo de partículas alfa. Sabia-se que estas partículas possuíam cargas positivas com massa superior à do electrão, sendo a sua velocidade de emissão da ordem de 20000 km/s. Na verdade, a ideia básica da experiência era usar a amostra de polónio como um lançador de projécteis (as partículas alfa) contra um alvo, que, no caso, era uma fina folha de ouro. Se o modelo estivesse correcto, esperava-se observar desvios mínimos ou nenhuma alteração na trajectória das partículas alfa.
Na montagem, o polónio foi colocado no interior de um bloco de chumbo com um orifício muito pequeno. Dali saía um feixe de partículas alfa em direcção ao alvo de ouro. Como as partículas alfa são invisíveis, não se pode detectar a sua trajectória sem o auxílio de aparelhos. Colocou-se ao redor do alvo uma placa circular coberta internamente com um material fluorescente (sulfeto de zinco, ZnS). Quando as partículas alfa colidiam com a placa, observavam-se cintilações, podendo assim analisar-se se havia ou não desvio na respectiva trajectória.
Curiosamente, Rutherford e os seus colaboradores verificaram que a maior parte das partículas alfa era capaz de atravessar a lâmina de ouro sem sofrer qualquer desvio, continuando a sua trajectória como se não houvesse nada no caminho. Foram, porém, detectadas algumas cintilações na placa fluorescente em pontos afastados da zona de incidência principal das partículas. Notou-se que, em pequena proporção, havia cintilações perto do emissor, mostrando que havia reflexão. Como as partículas alfa têm carga positiva, o desvio na trajectória seria o resultado do “choque” com uma outra carga positiva existente numa pequena região do átomo.
Assim, da análise dos resultados da experiência, Rutherford concluiu que o núcleo possui carga positiva e está localizado no centro da região do átomo onde os electrões orbitam (electrosfera) Este modelo atómico proposto por Rutherford e logo aperfeiçoado por Niels Bohr, que imaginou órbitas circulares para os electrões, é conhecido por modelo planetário do átomo. Bohr pensou que o movimento dos electrões em torno do núcleo deveria gerar uma perda de energia causada pela emissão de radiação. Os electrões, ao aproximarem-se cada vez mais do núcleo,levariam ao colapso do átomo. Para resolver este problema, Bohr afirmou que os electrões, para não perderem energia, deveriam orbitar em torno do núcleo em órbitas específicas e com energias bem definidas. Aplicou então a ideia de quantum de energia, sugerindo que a energia do electrão só pode ter determinando valores.
O modelo atómico aceite hoje difere, porém, do modelo proposto por Rutherford e Bohr: adveio da teoria quântica introduzida por Louis Victor de Broglie, Werner Heisenberg, Erwin Schroedinger e outros. Mas o estudo feito por Rutherford e Bohr representou um avanço significativo na sua época, tendo sido essencial para o desenvolvimento das teorias posteriores.
Bianca de Quadros Cerbaro
Referências
[1] Notas de aula de Mecânica Clássica. Profª Drª Constança Providência. Universidade de Coimbra
[2] http://www.infoescola.com/quimica/experiencia-de-rutherford Acesso em 14 de maio de 2011.
[3] http://pt.wikipedia.org/wiki/Modelo_at%C3%B4mico_de_Rutherford Acesso em: 14 de maio de 2011.
Rutherford introduziu conceitos que hoje nos parecem triviais como, por exemplo, a ideia da existência do núcleo atómico, um caroço denso e com carga positiva, em torno do qual se movimentam partículas negativas. Foi em 1919 que Rutherford montou um experiência capaz de pôr à prova o modelo de Thomson para o átomo. Neste modelo, popularmente conhecido por “pudim de passas”, supunha-se que o átomo era composto por partículas negativas (a massa do bolo) e partículas positivas distribuídas por ele (as passas no bolo). Na experiência, utilizou o elemento polónio, um emissor espontâneo de partículas alfa. Sabia-se que estas partículas possuíam cargas positivas com massa superior à do electrão, sendo a sua velocidade de emissão da ordem de 20000 km/s. Na verdade, a ideia básica da experiência era usar a amostra de polónio como um lançador de projécteis (as partículas alfa) contra um alvo, que, no caso, era uma fina folha de ouro. Se o modelo estivesse correcto, esperava-se observar desvios mínimos ou nenhuma alteração na trajectória das partículas alfa.
Na montagem, o polónio foi colocado no interior de um bloco de chumbo com um orifício muito pequeno. Dali saía um feixe de partículas alfa em direcção ao alvo de ouro. Como as partículas alfa são invisíveis, não se pode detectar a sua trajectória sem o auxílio de aparelhos. Colocou-se ao redor do alvo uma placa circular coberta internamente com um material fluorescente (sulfeto de zinco, ZnS). Quando as partículas alfa colidiam com a placa, observavam-se cintilações, podendo assim analisar-se se havia ou não desvio na respectiva trajectória.
Curiosamente, Rutherford e os seus colaboradores verificaram que a maior parte das partículas alfa era capaz de atravessar a lâmina de ouro sem sofrer qualquer desvio, continuando a sua trajectória como se não houvesse nada no caminho. Foram, porém, detectadas algumas cintilações na placa fluorescente em pontos afastados da zona de incidência principal das partículas. Notou-se que, em pequena proporção, havia cintilações perto do emissor, mostrando que havia reflexão. Como as partículas alfa têm carga positiva, o desvio na trajectória seria o resultado do “choque” com uma outra carga positiva existente numa pequena região do átomo.
Assim, da análise dos resultados da experiência, Rutherford concluiu que o núcleo possui carga positiva e está localizado no centro da região do átomo onde os electrões orbitam (electrosfera) Este modelo atómico proposto por Rutherford e logo aperfeiçoado por Niels Bohr, que imaginou órbitas circulares para os electrões, é conhecido por modelo planetário do átomo. Bohr pensou que o movimento dos electrões em torno do núcleo deveria gerar uma perda de energia causada pela emissão de radiação. Os electrões, ao aproximarem-se cada vez mais do núcleo,levariam ao colapso do átomo. Para resolver este problema, Bohr afirmou que os electrões, para não perderem energia, deveriam orbitar em torno do núcleo em órbitas específicas e com energias bem definidas. Aplicou então a ideia de quantum de energia, sugerindo que a energia do electrão só pode ter determinando valores.
O modelo atómico aceite hoje difere, porém, do modelo proposto por Rutherford e Bohr: adveio da teoria quântica introduzida por Louis Victor de Broglie, Werner Heisenberg, Erwin Schroedinger e outros. Mas o estudo feito por Rutherford e Bohr representou um avanço significativo na sua época, tendo sido essencial para o desenvolvimento das teorias posteriores.
Bianca de Quadros Cerbaro
Referências
[1] Notas de aula de Mecânica Clássica. Profª Drª Constança Providência. Universidade de Coimbra
[2] http://www.infoescola.com/quimica/experiencia-de-rutherford Acesso em 14 de maio de 2011.
[3] http://pt.wikipedia.org/wiki/Modelo_at%C3%B4mico_de_Rutherford Acesso em: 14 de maio de 2011.
AS EXPERIÊNCIAS DE PERRIN
No inicio do século XX o físico francês Jean Baptiste Perrin dedicou-se ao estudo do movimento browniano. Além de determinar o numero de Avogadro, conseguiu fornecer provas da existência de moléculas e, portanto, da estrutura descontínua da matéria, resultados esses pelos quais obteve o prémio Nobel em 1926.
A sua primeira experiência consistiu na determinação do número de Avogadro estudando partículas em suspensão num líquido. Estas movem-se como numa rápida dança irregular, mudando continuamente de direcção devido às colisões com as outras partículas da solução. O movimento aleatório depende de factores como temperatura do sistema, viscosidade do liquido e dimensão das partículas. Na base da experiência está a Lei de Avogadro: conhecida a razão entre as massas de duas moléculas diferentes, massas proporcionais a elas (que, portanto, contêm o mesmo número de moléculas) nas mesmas condições de temperatura e pressão ocupam o mesmo volume. A ideia do Perrin foi a de considerar que as partículas grandes, observáveis ao microscópio numa suspensão líquida, se comportam como moléculas de um gás perfeito. Para o objectivo da experiência é importante que as partículas tenham a mesma dimensão: Perrin demorou muito tempo a elaborar um método de separação que lhe permitisse obter objectos todos da mesma dimensão; conseguiu-o usando um extracto de seiva vegetal, a guta, que em água se dissolve em grãos pequenos de vários tamanhos, observáveis ao microscópio e separáveis por centrifugação. Ao fim de vários meses de trabalho Perrin conseguiu obter de um quilo de guta algumas dezenas de gramas de partículas com o tamanho desejado.
Numa coluna de gás as moléculas dispõem-se com densidades diferentes ao longo da coluna devido à acção da força de gravidade; e o mesmo acontece com as partículas em suspensão num fluido em equilíbrio de sedimentação. Pode demonstrar-se que a lei de variação da densidade de cada tipo de partícula com a altura é exponencial, dependendo da sua massa e da sua temperatura. Além disso, junta-se o efeito da força de impulsão de Arquimedes. Esta distribuição obtém-se considerando a diferença de pressão entre duas superfícies a diferente alturas. Para uma diferença de altura muito pequena (dh pequeno) vale a lei dp = n m dh, onde dp a variação de pressão entre os dois níveis e m é a massa das partículas. Desta equação vê-se que a rarefacção dp / p (para o mesmo dh) é inversamente proporcional à massa das moléculas: visto de outra forma, se para duplicar a rarefacção for preciso um desnível x vezes menor do que no caso do oxigénio, a partícula em questão terá uma massa x vezes maior do que a da molécula de oxigénio. Obtém-se, portanto, a razão entre as massas, e, sabendo a massa da partícula em emulsão, podem obter-se as massas das outras moléculas. Assim, determina-se o número de Avogadro, isto é, o número de moléculas contidas em 32 g de oxigénio (na definição da época). Repetindo a experiência várias vezes alterando o tamanho, a densidade, a natureza das partículas e o fluido da emulsão, Perrin obteve sempre o mesmo resultado para o número de Avogadro N_A = 6,8 x 10^23: o sucesso das suas experiências constituiu uma forte evidência em abono da existência de moléculas, porque ela se baseava na hipótese de equivalência entre partículas numa emulsão e moléculas num gás perfeito.
A segunda experiência permitiu novamente determinar o número de Avogadro além de verificar a teoria de Einstein e Smoluchovski do movimento browniano. Estes autores tinham obtido uma equação que relaciona o deslocamento quadrático médio com a temperatura, o N_A e a viscosidade, considerando que o movimento das moléculas é devido ao bombeamento da moléculas pelas outras moléculas do meio, e a resistência à viscosidade e à rotação das moléculas. Como sabis preparar grânulos de tamanho conhecido, Perrin conseguiu verificar esta equação. Observou o deslocamento ao microscópio de um mesmo grânulo e, a intervalos de tempo regulares, tomou nota das suas posições.
A medição foi efectuada várias vezes, mudando o intervalo de tempo, o fluido de suspensão e o tamanho das partículas, obtendo-se sempre valores muitos próximos: esse acordo entre os resultados constituiu a confirmação da teoria do movimento browniano.
Perrin efectuou várias outros experiências sobre as emulsões, obtendo outros valores para N_A, todos da ordem de grandeza de 6 x 10^23.
Caterina Umiltà
A sua primeira experiência consistiu na determinação do número de Avogadro estudando partículas em suspensão num líquido. Estas movem-se como numa rápida dança irregular, mudando continuamente de direcção devido às colisões com as outras partículas da solução. O movimento aleatório depende de factores como temperatura do sistema, viscosidade do liquido e dimensão das partículas. Na base da experiência está a Lei de Avogadro: conhecida a razão entre as massas de duas moléculas diferentes, massas proporcionais a elas (que, portanto, contêm o mesmo número de moléculas) nas mesmas condições de temperatura e pressão ocupam o mesmo volume. A ideia do Perrin foi a de considerar que as partículas grandes, observáveis ao microscópio numa suspensão líquida, se comportam como moléculas de um gás perfeito. Para o objectivo da experiência é importante que as partículas tenham a mesma dimensão: Perrin demorou muito tempo a elaborar um método de separação que lhe permitisse obter objectos todos da mesma dimensão; conseguiu-o usando um extracto de seiva vegetal, a guta, que em água se dissolve em grãos pequenos de vários tamanhos, observáveis ao microscópio e separáveis por centrifugação. Ao fim de vários meses de trabalho Perrin conseguiu obter de um quilo de guta algumas dezenas de gramas de partículas com o tamanho desejado.
Numa coluna de gás as moléculas dispõem-se com densidades diferentes ao longo da coluna devido à acção da força de gravidade; e o mesmo acontece com as partículas em suspensão num fluido em equilíbrio de sedimentação. Pode demonstrar-se que a lei de variação da densidade de cada tipo de partícula com a altura é exponencial, dependendo da sua massa e da sua temperatura. Além disso, junta-se o efeito da força de impulsão de Arquimedes. Esta distribuição obtém-se considerando a diferença de pressão entre duas superfícies a diferente alturas. Para uma diferença de altura muito pequena (dh pequeno) vale a lei dp = n m dh, onde dp a variação de pressão entre os dois níveis e m é a massa das partículas. Desta equação vê-se que a rarefacção dp / p (para o mesmo dh) é inversamente proporcional à massa das moléculas: visto de outra forma, se para duplicar a rarefacção for preciso um desnível x vezes menor do que no caso do oxigénio, a partícula em questão terá uma massa x vezes maior do que a da molécula de oxigénio. Obtém-se, portanto, a razão entre as massas, e, sabendo a massa da partícula em emulsão, podem obter-se as massas das outras moléculas. Assim, determina-se o número de Avogadro, isto é, o número de moléculas contidas em 32 g de oxigénio (na definição da época). Repetindo a experiência várias vezes alterando o tamanho, a densidade, a natureza das partículas e o fluido da emulsão, Perrin obteve sempre o mesmo resultado para o número de Avogadro N_A = 6,8 x 10^23: o sucesso das suas experiências constituiu uma forte evidência em abono da existência de moléculas, porque ela se baseava na hipótese de equivalência entre partículas numa emulsão e moléculas num gás perfeito.
A segunda experiência permitiu novamente determinar o número de Avogadro além de verificar a teoria de Einstein e Smoluchovski do movimento browniano. Estes autores tinham obtido uma equação que relaciona o deslocamento quadrático médio com a temperatura, o N_A e a viscosidade, considerando que o movimento das moléculas é devido ao bombeamento da moléculas pelas outras moléculas do meio, e a resistência à viscosidade e à rotação das moléculas. Como sabis preparar grânulos de tamanho conhecido, Perrin conseguiu verificar esta equação. Observou o deslocamento ao microscópio de um mesmo grânulo e, a intervalos de tempo regulares, tomou nota das suas posições.
A medição foi efectuada várias vezes, mudando o intervalo de tempo, o fluido de suspensão e o tamanho das partículas, obtendo-se sempre valores muitos próximos: esse acordo entre os resultados constituiu a confirmação da teoria do movimento browniano.
Perrin efectuou várias outros experiências sobre as emulsões, obtendo outros valores para N_A, todos da ordem de grandeza de 6 x 10^23.
Caterina Umiltà
Subscrever:
Mensagens (Atom)