Este fórum tem por objetivo discutir as questões obscuras da ciência, dar conhecimento a respeito de novas descobertas científicas e responder a medida do possível questionamentos científicos e é claro sempre que possível corrigir alguma afirmação equivocada que se faça.

Tags: da big luz geologia erros bang cosmologia deriva continental criacionismo
07/09/2007 11:01
De: César
IP: 200.102.118.230

Re: Re: Re: Falácia a respeito da cosmologia

As cefeidas são estrelas de gigantes ou supergigantes de brilho variável, aliás, a primeira característica notável é que o brilho delas se altera segundo ciclos constantes. Entre 1910-1920, estudando as cefeidas da Nuvem de Magalhães, Henrietta Leavitt notou que o brilho máximo da cefeida estava diretamente relacionado ao período entre dois máximos. Parece uma descoberta sem valor, mas pense no seguinte, se você vê uma lâmpada, e sabe qual o brilho absoluto dela, e mede o brilho aparente, a diferença entre os dois é diretamente relacionada ao quadrado da distância em que a lâmpada se encontra. As cefeidas são este tipo de lâmpada: você mede o brilho aparente da estrela, calcula o brilho absoluto dela a partir do período entre dois máximos, e então tem uma medida bastante exata da distância a que se encontra a estrela. Fazendo as medidas de distâncias a que se encontravam algumas cefeidas, Harlow Shapley completou o trabalho de Henrietta, enunciando a lei que relaciona o período e o brilho máximo da cefeida, e proporcionando à astronomia uma lâmpada-padrão para medida de distâncias. E você pode então verificar se as distâncias obtidas por "redshift" estão próximas das distâncias obtidas pela análise do brilho das cefeidas. O Hubble consegue resolver cefeidas que estejam a até 80 milhões de anos-luz.
http://pt.wikipedia.org/wiki/Cefeida
09/04/2008 11:46
De: REP (rubens@dectools.com.br)
IP: 189.12.78.193

Re: Deriva continental

Prezado João,
vc sabería me explicar sobre as extremidades das aguas dos oceanos ?
A terra é rodeada de água ? Existe algo que impede que as aguas por exemplo, entornem ?
Eu não consigo entender uma coisa,
se no centro da terra traçassessemos quatro flexas imaginarias, uma para cada lado, cima, baixo, esquerdo e direito, até iriam essas flexas ?
Desculpe pela ignorancia...!
Grato.
17/01/2007 11:47
De: João F. Rocha
IP: 200.142.140.173

Deriva continental

Extraí o texto a seguir de de um artigo criacionista por acreditar que valha a pena discorrer a respeito das placas tectônicas catastróficas, pois ao meu ver parece ser uma teoria plausível, além do mais eu insisto que é com o debate que se contrói um conhecimento verdadeiro:
Placas Tectônicas
Os princípios gerais da teoria da placa tectônica podem ser especificados como se segue.3 A superfície da terra consiste de um mosaico de placas rígidas, cada uma interagindo em relação às placas adjacentes. A deformação ocorre nas extremidades das placas por três tipos de movimentos horizontais: extensional (ou rompendo-se , movendo-se aparte), falhas transformantes deslizando-se junto a um falhamento, e a compressional, a maioria por subducção (uma placa mais pesada descendo sobre uma outra mais leve).
A extensional ocorre quando o fundo do mar empurra a placa rompendo-se nas fendas ou se parte.
As falhas transformantes ocorrem onde uma placa se desliza horizontalmente próxima à outra (e.g., a Falha de San Andreas na California).
A deformação da compressão ocorre quando uma placa se desliza embaixo de uma outra, e.g., a Placa do Pacífico abaixo do Japão e a Placa Cocos abaixo da América Central, ou quando duas placas continentais se colidem produzindo uma extensão montanhosa, e.g., a Placa India-Australiana colidindo com a Placa Eurasiana para formar as Montanhas Himalaias. Frequentemente ocorrem o aparecimento de vulcões nas regiões de subducção.
A Expansão do Leito do Oceano

Um argumento avançado para as placas tectônicas é o leito do mar se expandido. Na bacia oceânica ao longo das cordilheiras no meio dos oceanos (e.g., a Cordilheira do Meio-Atlântico e a Cordilheira do Pacífico Oriental), observações já interpretadas indicam que placas estão divergindo, com material derretido do manto(4), crescendo no vazio entre as placas e resfriando para formar uma nova crosta sob o oceano. A mais nova crosta está no eixo da cordilheira, enquanto que as antigas rochas se afastam progessivamente desse eixo. Atualmente, pelo mundo inteiro é estimado que aproximadamente 20 quilômetros cúbicos de magma derretido cresce a cada ano para criar nova crosta oceânica.(5)
No tempo do resfriamento, alguns dos minerais das rochas ganham magnetismo dos campos magnéticos da terra, registrando a direção do campo no tempo. Evidências indicam que o campo magnético da terra tem se virando muitas vezes em direção oposta, no passado. Assim, durante o resfriamento, algumas das crostas oceânicas estavam magnetizadas numa direção oposta. Se a expansão do leito oceânico é contínua, o solo oceânico poderia possuir um suave “gravador” magnético de reversões.
De fato, o modelo zebra-listrado das “anomalias magnéticas” lineares, paralelas às cordilheiras mid-oceânicas, tem sido registradas em muitas áreas.(6)
Problemas para as Placas Tectônicas “Lentas e Graduais”
Embora o padrão zebra-listrado tenha sido confirmado, perfurações feitas de ponta a ponta no basalto adjacente às cordilheiras oceânicas, têm mostrado que o modelo nítido registrado, através da introdução de um magnetômetro acima da cordilheira, não aparece quando a rocha é geralmente testada. A polaridade magnética muda nos trechos abaixo dos buracos, sem um padrão de consistência com a profundidade.(7) Isto poderia ser esperado com a rápida formação do basalto, combinado com a rápida reversão dos campos, mas não a formação “lenta e gradual” com lentas reversões, assumidas pelos uniformitarianos.

O físico Dr. Russell Humphreys predisse que evidências para essa rápida reversão dos campos poderia ser encontrada no fluxo da lava, fina o suficiente para se resfriar em poucas semanas.(8) Ele sugeriu que essas rápidas reversões poderiam ter ocorrido durante um Dilúvio Universal. Semelhante evidência para a rápida reversão foi mais tarde descoberta pelos renomados pesquisadores Coe and Prevot.(9) Um trabalho posterior(10) desenvolvido por eles confirmou essas descobertas e mostrou que as reversões magnéticas foram “supreendentemente rápidas”.
O Dr. John Baumgardner, trabalhando para os Laboratórios de Los Alamos no Novo México, tem usado supercomputadores para modelar processos do manto da terra, com o propósito de mostrar que o movimento das placas tectônicas poderia ocorrer rapidamente, e “espontaneamente”.12 Este conceito é conhecido como placas tectônicas catastróficas. Baumgardner, um cientista criacionista, é reconhecido por ter sido o criador do melhor modelo em 3-D de placas tectônicas do mundo, para supercomputadores.(13)
Placas Tectônicas Catastróficas
O modelo proposto por Baumgardner começa com um supercontinente antediluviano  e um espesso leito oceânico se agitando. O processo se inicia com o frio e denso fundo do oceano descendo para o macio e menos denso manto, abaixo. A fricção desse movimento gera calor, especialmente em volta das extremidades, que derrete o material adjacente, fazendo-o menos resistente para a submersão do leito oceânico.(14 )As extremidades submergem-se mais rápido, arrastando junto o resto do leito do oceano, numa espécie de correia transportadora. O movimento muito rápido cria mais atrito e esquenta o manto adjacente, reduzindo ainda mais a sua resistência e assim, o solo oceânico move-se mais e mais rápido. Nesse auge, essa instabilidade térmica em fuga poderia ter permitido a subducção nessa escala de metros por segundo. Esse conceito chave é conhecido como subducção fugitiva.
O solo do oceano afundando deslocaria material do manto, começando um movimento em larga escala através de todo o manto oceânico. De qualquer forma, como o solo oceânico desceu e rapidamente afundou-se adjacente às margens do super-continente pré-diluviano, em algum outro lugar, a crosta terrestre estaria debaixo de um estresse tensional tão forte que ela se romperia, entrando em colapso tanto o super-continente pré-diluviano como o leito oceânico.
Deste modo, as zonas de expansão da crosta se extenderia rapidamente ao longo das fendas no leito oceânico por aproximadamente 9.600 km onde a ruptura estava ocorrendo. O material de manto quente exposto pelas placas de subducção jorrariam para cima, elevando-se para a superfície ao longo dessas zonas de expansão. Sobre o leito oceânico, esse material quente vaporizaria copiosas quantidades de água oceânica, produzindo um gêiser de vapor super-quente ao longo do comprimento total dos centros de expansão . Esse vapor se dispersaria, condensando-se na atmosfera para depois cair como uma intensa chuva global .

O modelo das placas tectônicas catastróficas do dilúvio global para a história da terra(15) de Baumgardner é eficiente para explicar mais dados geológicos do que o modelo convencional de placas tectônicas com seus muitos milhões de anos. Por exemplo, a rápida subducção do leito oceânico antediluviano para dentro do manto resulta em um novo solo oceânico que é dramaticamente mais quente, especialmente 90 kms acima, não só nas cadeias expandidas, mas em todo lugar. Sendo mais quente, o novo leito oceânico é de menor densidade e consequentemente sobe de 987 a 1974 metros mais alto que antes e isso implica em um dramático aumento no nível global do mar.
O nível mais alto do mar inunda as superfícies continentais e torna possível a deposição de grande quantidade de sedimentos no topo dos normalmente altos continentes. O Grande Canyon provê uma janela espetacular para a característica de bolo de várias camadas desses depósitos de sedimentos que em muitos casos continuam ininterruptos por mais de 960 kms.16 As placas tectônicas uniformitarianas (“lenta e gradual”) simplesmente não podem ser explicar sequências continentais tão densas de sedimentos em vasta estensão horizontal.
Além disso, a rápida subducção do refrigerado leito oceânico antediluviano no manto teria resultado numa circulação crescente da viscosa rocha líquida (nota: plástico, não derretido) dentro do manto. Esse manto fluido (i.e., “jorrando” dentro do manto) repentinamente alterou as temperaturas no limite do manto do núcleo, como o manto próximo ao núcleo seria agora significantemente mais frio que o núcleo adjacente, e assim a propagação e perda de calor do núcleo seria grandemente acelerada. O modelo sugere que debaixo dessas condições de acelerada convecção no núcleo, rápidas reversões geomagnéticas teriam ocorrido. Essas por sua vez seriam expressadas sobre a superfície da terra e gravadas nas assim chamadas faixas magnéticas.(17) Entretanto, essas seriam erráticas e localmente cheia de remendos, laterais e em profundidade, como os dados indicam,(18) mesmo de acordo com os cientistas uniformitarianos citados anteriormente.
Esse modelo fornece um mecanismo que explica como as placas poderiam mover-se relativamente rápidas ( em uma questão de poucos meses) sobre o manto e afundar. E isso prevê que pouco ou nenhum movimento poderia ser medido entre as placas hoje, porque o movimento viria quase para um local onde todo o oceano antediluviano foi sugado. Disso nós poderíamos também esperar as trincheiras adjacentes às zonas de subducção serem hoje preenchidas com sedimentos anterior e posterior ao dilúvio, como observamos.

Aspectos do manto modelado por Baumgardner tem sido duplicados independentemente e assim verificado por outros.19 Além disso, o modelo de Baumgardner prevê que que, devido a essa subducção térmica fugitiva das lajes de cristal frias do solo oceânico ocorreram bem recentes, durante o dilúvio ( aproximadamente 5.000 anos atrás). Então, essas lajes não teriam tido suficiente tempo desde então para serem totalmente assimiladas dentro do manto circuncidante. Dessa forma, evidências das lajes acima do limite do núcleo do manto ( as quais afundaram) poderiam ainda ser encontradas hoje. Certamente, evidências para tais lajes, não assimiladas e relativamente frias têm sido encontradas em estudos sísmicos. 20

O modelo também fornece um mecanismo para o recuo das águas do dilúvio.  Implicando que os movimentos verticais da terra eram as forças dominantes tectônicas agindo no fim do dilúvio, em contraste com as forças horizontais dominantes durante a fase de expansão.
As colisões das placas teria empurrado as montanhas para cima, enquanto que o resfriamento do novo leito oceânico teria aumentado sua densidade, levando-o a afundar e aprofundar a bacia dos novos oceanos para receber o recuo das águas do dilúvio. Consequentemente, isso pode ser significante, que as “montanhas de Ararat”  estão em uma região tecnicamente ativa na qual se acredita ser a junção de três placas crostais.(22)
Se mais ou menos 2.54 centímetros por ano do movimento inferido hoje está extrapolado em relação ao passado como os uniformitarianos dizem, então seu modelo convencional de placas tectônicas tem limitado poder exploratório. Por exemplo, mesmo em uma escala de 10.16 centímetros por ano, é questionável se as forças da colisão entre as Placas Indiana-Australiana e a Eurasiana teriam sido suficiente para empurrar para cima a Cordilheira Himalaia. Por outro lado, as placas tectônicas catastróficas no contexto do dilúvio podem explicar, como elas superaram o viscoso arrasto do manto terrestre por um tempo curto, devido às enormes forças catastróficas trabalhando, seguida por um rápido retardamento até às presentes taxas.
A separação continental resolve aparentes enigmas geológicos. Por um momento, isso explica as tremendas similaridades entre as camadas de sedimentos do nordeste dos Estados Unidos com as da Grã-Bretanha. Isso também explica a ausência dessa mesma camada com as da bacia do Atlântico Norte, como também as similaridades existentes na constituição geológica de partes da Austrália com a África do Sul, Índia e Antártida.
Conclusão
A incredulidade primitiva sobre as placas tectônicas tem se evaporado quase que totalmente devido ao grande poder explanativo dessa estrutura de pensamento científico. O modelo das placas tectônicas catastróficas inclui não somente esses elementos explicatórios, mas também extensos relatos de evidências de grandes inundações e processos geológicos catastróficos sobre os continentes.
A Bíblia é silenciosa sobre as placas tectônicas. Muitos criacionistas crêem que esse conceito é útil na explicação da história da terra. Outros são mais cautelosos. A idéia é relativamente nova e radical e muito trabalho precisa ser feito para aclarar os detalhes. Pode ainda ocorrer importantes modificações na teoria que aumentarão seu poder argumentativo ou futuras descobertas causarão o abandono do modelo. Essa é a natureza do progresso científico. Modelos científicos aparecem e desaparecem, mas a “Palavra de Deus permanece para sempre” (1 Pedro 1:25).
Notas de Rodapé
1. A. Snider, Le Création et ses Mystéres Devoilés (Paris: Franck and Dentu, 1859).
2. Alguns geólogos são ainda cépticos acerca de vários aspectos das placas tectônicas.
3. D.R. Gish and D.H. Rohrer, editors, Up with Creation! “Continental Drift, Plate Tectonics, and the Bible,” S.E. Nevins [S.A. Austin] (San Diego, CA: Creation-Life Publishers, 1978), pp. 173-180. Veja também Longman Illustrated Dictionary of Geology (Essex, UK: Longman Group, 1982), pp. 137-172.
4. A zona dentro da terra que se estende desde abaixo da crosta para núcleo – i.e., para uma profundidade de 2.880 quilômetros.
5. J. Cann, “Subtle Minds and Mid-ocean Ridges,” Nature, 1998, 393:625,627.
6. A. Cox, editor, Plate Tectonics and Geomagnetic Reversals (San Francisco, CA: W.H. Freeman and Co., 1973), pp. 138-220.
7. J.M. Hall and P.T. Robinson, “Deep Crustal Drilling in the North Atlantic Ocean,” Science, 1979, 204:573-586.
8. D.R. Humphreys, “Reversals of the Earth’s Magnetic Field During the Gênesis Flood,” Proc. First ICC, Pittsburgh, PA, 1986, 2:113-126.
9. R.S. Coe e M. Prévot, “Evidence Suggesting Extremely Rapid Field Variation During a Geomagnetic Reversal,” Earth and Planetary Science Letters, 1989, 92:292-298.
Mais detalhes, veja A.A. Snelling, ““Fossil’ Magnetism Reveals Rapid Reversals of the Earth’s Magnetic Field,” Creation, 1991, 13(3):46-50.
10. R.S. Coe, M. Prévot, and P. Camps, “New Evidence for Extraordinary Rapid Change of the Geomagnetic Field During a Reversal,” Nature, 1995, 374:687-692. Maiores comentários veja A.A. Snelling, “The ‘Principle of Least Astonishment!’” CEN Technical Journal, 1995, 9(2):138-139.
11. Alguns têm sugerido que os continentes ( com suas cargas de depósito diluviano de extrato fóssil) se separaram para as suas presentes posições, por exemplo, no tempo da Torre de Babel, porque Gênesis 10:25 diz que “a terra foi dividida” nos dias de Pelegue. Entretanto, a palavra hebraica traduzida para “a terra” pode facilmente se referir às nações divididas por causa de Babel. Também, o curto espaço de tempo envolvido conduziria a enormes dificuldades na contabilização da energia do calor a ser dissipada, sem mencionar a destruição na superfície da terra em consequência do rápido movimento continental. Isso seria uma catástrofe global tão devastadora como foi o Dílúvio Noiaco.
12. J.R. Baumgardner, “Numerical Simulation of the Large-scale Tectonic Changes Accompanying the Flood,” Proc. First ICC, 1986, 2:17-30.
J.R. Baumgardner, “3-D Finite Element Simulation of the Global Tectonic Changes Accompanying Noah’s Flood,” Proc. Second ICC, 1990, 2:35-45.
J.R. Baumgardner, “Computer Modeling of the Large-scale Tectonics Associated with the Gênesis Flood,” Proc. Third ICC, 1994, pp. 49-62.
J. Beard, “How a Supercontinent Went to Pieces,” New Scientist, January 16, 1993, 137:19.
J.R. Baumgardner, “Runaway Subduction As the Driving Mechanism for the Gênesis Flood,” Proc. Third ICC, Pittsburgh, PA, 1994, pp.63-75.
13. Beard, “How a Supercontinent Went to Pieces.”
14. Baumgardner, “Runaway Subduction As the Driving Mechanism for the Gênesis Flood.”
15. S.A. Austin, J.R. Baumgardner, D.R. Humphreys, A.A. Snelling, L. Vardimann, and K.P. Wise, “Catastrophic Plate Tectonics: A Global Flood Model of Earth History,” Proc. Third ICC, Pittsburgh, PA, 1994, pp. 609-621.
16. S.A. Austin, editor, Grand Canyon: Monument to Catastrophe (Santee, CA: Institute for Creation Research, 1994).
17. D.R. Humphreys, “Has the Earth’s Magnetic Field Ever Flipped?” Creation Research Society Quarterly, 1988, 25(3):130-137.
18. Hall and Robinson, “Deep Crustal Drilling in the North Atlantic Ocean.”
19. S.A. Weinstein, “Catastrophic Overturn of the Earth’s Mantle Driven by Multiple Phase Changes and Internal Heat Generation,” Geophysical Research Letters, 1993, 20:101-104.
P.J. Tackley, D.J. Stevenson, G.A. Glatzmaier, and G. Schubert, “Effects of an Endothermic Phase Transition at 670 km Depth on Spherical Mantle Convection,” Nature, 1993, 361:699-704.
L. Moresi and V. Solomatov, “Mantle Convection with a Brittle Lithosphere: Thoughts on Global Tectonic Styles of the Earth and Venus,” Geophysical Journal International, 1998, 133:669-682.
20. S.P. Grand, “Mantle Shear Structure Beneath the Americas and Surrounding Oceans,” Journal of Geophysical Research, 1994, 99:11591-11621.
J.E. Vidale, “A Snapshot of Whole Mantle Flow,” Nature, 1994, 370:16-17.
S. Vogel, “Anti-matters,” Earth: The Science of Our Planet, August 1995, pp. 43-49.
21. Muitas traduções inglesas, seguindo a KJV (Versão do Rei Tiago), têm “as águas” no versículo 6 o sujeito dos verbos “elevaram” e “desceram” no versículo 8. De acordo com o liquista Dr. Charles Taylor. A forma natural e liteeral da leitura é ter as “montanhas” do versículo 8 se elevando e os “vales” (versículo 8) descendo. A versão Septuaginta (LXX), uma tradução grega feita aproximadamente em 250 A.D., a tradução alemã de Lutero, a francesa e a italiana também concordam. As traduções inglesas que cobrem esse significado incluem a ASV, RSV e NASB. Veja C.V.Taylor, “Did the Mountains Realy Rise According to Psalm 104:8?” CEN Technical Journal, 1998, 12(3):312-313.
22. J.F. Dewey, W.C. Pitman, W.B.F. Ryan, and J. Bonnin, “Plate Tectonics and the Evolution of the Alpine System,” Geological Society of America Bulletin, 1973, 84:3137-3180.
06/09/2007 23:58
De: João
IP: 189.0.120.185

Re: Re: Falácia a respeito da cosmologia

"assunto das estrelas variáveis, as cefeidas, e no seu texto não há nenhuma referência a elas! "
César, eu tinha pesquisado bastante a respeito das divergência, mas não tinha me deparado com este assunto proposto por você , poderia me falar um pouco mais?
16/01/2007 22:11
De: João F. Rocha
IP: 189.0.99.169

Falácia a respeito da cosmologia

Caro leitor, criei este fórum pela necessidade que vi diante da omissão dos meios de comunicação e educação em divulgar soluções alternaivas para os grandes problemas da ciência contemporânea .Gostaria de primiciar contribuindo com os grandes erros da cosmologia contemporânea:
==EQUÍVOCOS DA COSMOLOGIA PADRÃO==
Muitas das discrepâncias notadas quando se cruza as informações teóricas aceitas pela comunidade científica com fatos oserváveis no Universo acabam não chegando ao conhecimento público.E na maioria das vezes, fica valendo por muitos e muitos anos a teoria ultrapassada, ou ainda acabam por serem feitos tantos remendos na teoria antiga que se torna deveras difícil acreditar que se constitua realmente de uma verdade física.
==INTRODUÇÃO==
Há cem anos a ciência desconhecia a existência de galáxias e acreditava que o universo era estático. Tampouco se conhecia o mecanismo pelo qual a energia é gerada nas estrelas, e a idade do universo era estimada em apenas alguns milhões de anos. Hoje a ciência tradicional reza  que vivemos em um universo em expansão, com bilhões de galáxias dentro de nosso horizonte, que iniciaram seu processo de formação há mais de 10 bilhões de anos. Os avanços alcançados nesses últimos cem anos são enormes. Mas infelizmente apezar destes avanços no que se refere a as técnicas de observação tudo o que a Ciência afirma a respeito do Universo é baseada no chamado modelo padrão da cosmologia (MPC) que representa, sem dúvida alguma, um quadro cada vez mais hipotético do que real,de forma estremamente abrupta os conteúdos originais vem sendo alterados ante a cada nova descoberta da física atômica, quântica, nuclear, de partículas elementares e gravitacional. Se apoiando quase sempre em algoritmos forçadamente extraídos da Teoria da Relatividade Geral de Einstein, em combinação com física fundamental, para fazer afirmações a respeito da evolução do universo desde as primeiras frações de segundo até hoje, aproximadamente 14 bilhões de anos depois.
Posso por exemplo, me recordar dos seguintes casos que terão sua ênfase no momento oportuno no contexto deste artigo: a natureza da matéria escura fria, uma componente com pressão nula responsável pela formação de estruturas como galáxias e seus aglomerados, permanece um mistério. Não se sabe ainda, com grande precisão, sua densidade. Embora o chamado modelo de matéria escura fria seja muito bem sucedido em escala cosmológica, ele encontra dificuldades em escalas galácticas, prevendo, via simulações numéricas, um número significativamente maior de galáxias satélites do que o observado. Desconhece-se igualmente se a energia escura, uma componente uniformemente distribuída com pressão suficientemente negativa (e, portanto, gravitacionalmente repulsiva) é uma constante cosmológica ou um campo escalar dinâmico (quintessência). Há ainda a possibilidade teórica de que a aceleração cósmica seja conseqüência de uma teoria de gravitação alternativa ou da existência de dimensões extras. Na verdade, não estamos completamente seguros se a matéria e a energia escuras constituem, de fato, duas substâncias distintas: atualmente têm sido sugeridas propostas para sua unificação (quartessência).
==GRANDES PROBLEMAS COM O MODELO PARDÃO DE COSMOLOGIA==
Considere por Modelo Padrão de Cosmologia aquele que se embasa na Teoria do Big Bang.
O primeiro enigma do MPC é conhecido como o problema da chateza (ou problema da entropia) do universo. Ele foi apresentado pela primeira vez por R.H. Dicke e P.J.E. Peebles, ambos da Universidade de Princeton, em 1979.
Segundo o modelo padrão da cosmologia, o universo possui curvatura espacial constante, que pode ser nula, positiva ou negativa. Em cosmologia é comum expressarmos a densidade de energia de qualquer componente existente no universo em unidades de uma densidade crítica . A razão entre a densidade de energia de uma componente ("i") qualquer e a densidade crítica é chamada de parâmentro de densidade. Para denotar essa quantidade usamos a letra grega Ômega . Denotamos por parâmetro ômega de densidade TOTAL, a soma do parâmetro de densidade de todas as componentes existentes no universo. Temos um universo espacialmente chato (curvatura nula) se ômega TOTAL = 1. Em um universo com curvatura espacial positiva temos ômega TOTAL > 1, e a curvatura espacial é negativa se ômega TOTAL < 1.
Em geral, a quantidade ômega TOTAL é uma função do tempo. Por exemplo, se em um instante inicial arbitrário da evolução cósmica temos ômega TOTAL > 1, mostra-se que, com o passar do tempo, o valor de ômega TOTAL aumenta, ou seja, a diferença desta quantidade para a unidade é sempre positiva e cada vez maior. No caso em que o universo inicia com ômegaTOTAL < 1, temos a situação inversa, isto é, ômega TOTAL diminui com o passar do tempo tendendo ao valor zero assintoticamente. Somente no caso em que ômega TOTAL é exatamente igual a unidade, esta quantidade não varia com o tempo. Assim, ômega TOTAL = 1 representa um estado de equilíbrio instável, já que a existência de qualquer pequeno desvio do valor unitário tende a aumentar, em valor absoluto, com o tempo.  
Mas qual é o valor de ômegaTOTAL hoje? Sendo bastante conservadores, podemos dizer que o valor atual de ômegaTOTAL está compreendido entre 0,01 < ômegaTOTAL < 2. Considerando este intervalo, podemos então perguntar qual era o valor de ômegaTOTAL no início do universo? Um cálculo simples mostra que quando a temperatura do universo era, aproximadamente, igual a 1010 graus Kelvin (idade do universo da ordem de um segundo), ômegaTOTAL era igual a unidade com uma precisão de 15 casas decimais. Se formos mais para o início da evolução cósmica, por exemplo, quando consideramos uma idade para o universo de apenas 10-28 segundos, obtemos que ômega TOTAL era igual a unidade com uma precisão de 49 casas decimais! Entender porque o universo inciou sua evolução com um valor para ômegaTOTAL tão finamente ajustado à unidade é justamente resolver o problema da chateza do universo. Mostra-se ainda que resolver esse problema é equivalente a resolver o chamado problema da entropia do universo, que consiste em responder a pergunta de porque a entropia (S) do universo, que segundo o MPC é constante, é tão elevada (S > 10 elevado potência 87)!
O segundo problema do MPC é conhecido como o problema do horizonte, ou o problema da isotropia. O horizonte (de partícula) pode ser pensado como a máxima distância com a qual um observador, em um determinado instante, pode ter conexão causal.De acordo com a relatividade especial, sabemos que a máxima velocidade com que uma informação pode se propagar é a velocidade da luz. Suponhamos então que a idade do universo seja 14 bilhões de anos e admitamos também, para efeito de raciocínio, que ele seja estático. É claro que um fóton que tenha saído em t = 0, em nossa direção, de uma região do universo que diste da Terra mais do que 14 bilhões de anos luz, não terá tido tempo de chegar até nós. Neste exemplo, a distância de horizonte é igual a 14 bilhões de anos luz e significa que não podemos ter acesso a nenhum tipo de informação vinda de regiões mais distantes. Caso não trabalhássemos com a hipótese de um universo estático e tivéssemos levado em conta a expansão, o horizonte seria maior, pois enquanto o fóton viaja até nós, a distância que ele já percorreu, devido à expansão do espaço, aumenta. Contudo, mesmo considerando a expansão, a distância de horizonte não será muito maior do que o valor estimado no caso estático.
O MPC considera que a radiação cósmica de fundo sofreu seu último espalhamento quando a idade do universo era de aproximadamente 300.000 anos. Mostra-se que a distância de horizonte, nesta época, era da ordem de 600.000 anos luz. Considera-se que a radiação cósmica de fundo é altamente isotrópica, isto é, a menos de pequenas inomogeneidades, sua temperatura é da ordem de 3 graus Kelvin qualquer que seja a direção apontada pela antena que a detecta. Acontece que, dois fótons vindos de direções opostas, saíram de regiões, na superfície de último espalhamento, que estavam separadas por uma distância cem vezes maior que a distância de horizonte na época! Isto significa que, no quadro usual do MPC, essas regiões ainda não tinham tido tempo de se comunicar. O problema da isotropia ou do horizonte, é então entender como regiões sem conexão causal naquela época poderiam gerar o que hoje nos chega com o mesmo tipo de informação. Observe que os fótons foram emitidos a partir dessas regiões e seguiram livres, apenas esfriaram devido à expansão. Para ilustrar esse problema, suponhamos que em uma sala de aula cheia de estudantes um professor pedisse que cada aluno, sem se comunicar com nenhum outro colega, escrevesse um número qualquer em um papel. Após os papéis serem entregues, ele constata que todos os números são iguais. É difícil entender essa coincidência! É mais razoável pensar que os estudantes estabeleceram alguma forma de comunicação antes de entrarem na sala. De forma análoga, no âmbito do MPC não há uma explicação dinâmica para a isotropia da radiação cósmica de fundo.
O terceiro problema do MPC que abordaremos é sutil e envolve alguns aspectos mais técnicos. Uma antiga questão da cosmologia é entender como as galáxias (e outra estruturas, como aglomerados de galáxias) se formaram. Desejamos saber, por exemplo, qual é a origem das perturbações na matéria que posteriormente, por instabilidade gravitacional, cresceram e geraram essas estruturas. No âmbito do modelo padrão não há uma explicação para a origem dessas perturbações na densidade de energia. Esse problema torna-se mais agudo quando observamos que o espectro de flutuações de densidade precisa ter características especiais. Mas o que é exatamente esse espectro de flutuações de densidade? Para entender melhor o significado dessa quantidade, vamos denotar a densidade de energia em um ponto arbitrário do espaço pela soma da densidade média de energia (função apenas do tempo) com a densidade de uma pequena perturbação que varia de ponto a ponto. Tanto a densidade média de energia  como a densidade de uma pequena perturbação , decrescem com o tempo devido à expansão. Contudo, o contraste de densidade, que é a razão entre a  densidade da pequena perturbação com a densidade média de energia , em geral, cresce com o tempo. Da mesma forma que podemos decompor uma onda sonora (ou luminosa) em uma soma de ondas de forma conhecida, cada qual com um determinado comprimento de onda , podemos decompor o contraste de densidade em uma soma de ondas planas, cada onda possuindo um certo valor para o comprimento de onda. O que chamamos de espectro de flutuações de densidade é a intensidade com que cada componente, com comprimento de onda definido, contribui na soma que gera a perturbação. Na década de 70, antes do surgimento da idéia de inflação, Edward Harrison da Universidade de Massachusetts e o famoso físico russo Yakov B. Zeldovich, de forma independente, mostraram que o mais simples espectro de perturbações em acordo com as observações cosmológicas possui a característica de ser invariante de escala. Este é um termo técnico que signifca que a contribuição de cada escala é a mesma, ou de forma mais precisa, é a mesma quando a escala (comprimeto de onda) é do tamanho do raio de Hubble.
O quarto problema do MPC é o chamado problema da super-abundância de monopolos magnéticos. Esses monopolos são previstos surgir se certos tipos de transição de fase de grande unificação ocorreram no universo primitivo. Argumentos de causalidade impõem um limite inferior para a densidade numérica dessas partículas. Mesmo considerando a diluição desses objetos, devido ao processo de aniquilação monopolo-antimonopolo, o resultado obtido está muito distante do que seria aceitável pelas observações.Os defensores do MPC tem tentado nos últimos anos resolver este problema com o modelo infácionário para o Universo:
Alan Guth, no final da década de 70, observou que os problemas cosmológicos poderiam ser resolvidos se a hipótese de adiabaticidade da expansão do universo estivesse incorreta. Ele sugeriu um quadro no qual há uma grande produção de entropia logo após a transição de fase de grande unificação. Semelhante ao que observamos quando fervemos uma panela com água, essa transição de fase ocorreria pela nucleação e crescimento de bolhas da nova fase (fase de simetria quebrada) dentro da velha. Existe uma temperatura crítica (que corresponde a energias da ordem de 10 elevado a décima quarta potência de GeV) em que essa transição sucederia. Contudo, é preciso que este processo de transição de fase seja lento para que os problemas cosmológicos possam ser resolvidos. Segundo o modelo de Guth, antes da transição de fase, o universo entraria em uma fase de super-esfriamento e de expansão acelerada (inflação), na qual haveria um crescimento exponencial de todas as distâncias. Para resolver os problemas cosmológico é necessário um fator de crescimento das distâncias de pelo menos 28 ordens de magnitude (1. Nessa fase a temperatura do universo decresceria também exponencialmente, pelo mesmo fator, e toda a matéria existente seria diluida. Finalmente a transição de fase se completaria com uma rápida termalização do calor latente (energia do vácuo acumulada na parede das bolhas), e o universo seria reaquecido a uma temperatura próxima à temperatura crítica. Após a inflação o universo entraria na fase de expansão usual desacelerada. A geração de entropia ocorreria com o reaquecimento do universo e o problema da chateza seria também resolvido. Observamos que, com o crescimento exponencial das distâncias na fase inflacionária, qualquer curvatura existente seria tremendamente suprimida. O problema de horizonte (ou isotropia) seria também resolvido, pois a região que constituiria hoje o universo observável, adviria de uma região bem menor que o horizonte naquela época e, portanto, poderia estar causalmente conectada.
O cenário inflacionário como proposto por Guth depende para o seu sucesso de dois fatos. Em primeiro lugar é preciso que o universo infle por um intervalo de tempo de pelo menos 10 elevado a -32 segundos. Para isso, a taxa de nucleação de bolhas deve ser inicialmente pequena. Caso contrário, a transição de fase se completaria rapidamente e não daria tempo para que os problemas cosmológicos fossem resolvidos. Em segundo lugar, é necessário que após o universo ter inflado suficientemente, a transição de fase ocorra subitamente com uma rápida termalização da energia. Infelizmente essas duas condições são incompatíveis. Mostra-se que existe um valor assintótico para o raio da bolha da nova fase que depende do instante em que ela é formada. Quanto mais tarde ela se forma menor é esse raio. Assim, o intervalo de tempo necessário para resolver os problemas cosmológicos impede que a transição de fase complete-se adequadamente. Técnicamente diz-se que não há percolação, isto é, ao final do processo, não há uma região finita considerável na fase de simetria quebrada (nova fase), que pudesse constituir o que hoje é o universo observado.
O problema do cenário original descrito acima, de uma volta bem sucedida ao estágio de expansão desacelerada, levou Linde e posteriormente Steinhardt e Andreas Albrecht a sugerirem um novo cenário inflacionário. Esses autores observaram que, sob certas condições especiais, a inflação poderia acontecer após a transição de fase. Nesse novo quadro, o universo teria emergido de uma única bolha ou, mais exatamente, de uma única região de flutuação. Tanto no cenário original como no novo cenário inflacionário, o campo que dirige e gera a inflação é o campo de Higgs, que é também responsável pela transição de fase de grande unificação. Mostra-se, contudo, que para funcionar o novo cenário inflacionário necessita que esse campo tenha interações extremamente fracas, o que não é natural nessas teorias. Assim, a principal crítica a esses modelos, é que estariamos simplesmente transferindo um ajuste fino na cosmologia para um ajuste fino na física de partículas. Sem uma sólida motivação na física de partículas, os cenários inflacionários perdem grande parte de seu apelo. Os atuais modelos inflacionários, em geral, fazem uso de um campo escalar cuja única função é gerar a inflação. Embora não exista um modelo inflacionário que se possa chamar de "modelo inflacionário padrão", ele é amplamente divulgado pelos defensores do MPC pelo simples fato de que sem ele por mais que se torcese as leis físicas e se estrangulasse a matemática não se chegaria a um algoritimo que pudesse justificar o MPC.
O quinto problema para o MPC é a aceleração cósmica.Observações de supernovas distantes sugerem que a expansão está acelerando. Isso não significa contudo que a expansão do universo foi sempre acelerada. Na verdade o que as observações indicam é que o universo entrou em uma fase de aceleração mais recentemente e que no passado remoto a expansão era desacelerada.
Mas o que pode estar causando a aceleração da expansão do universo? Essa é uma questão crucial para a qual ainda o MPC não tem  resposta. Na verdade temos algumas respostas possíveis, mas as observações atuais ainda não permitem definir qual delas (ou quem sabe alguma outra) é a adequada. Podemos dividir as diversas possibilidades consideradas até agora em dois grandes grupos. A alternativa mais radical é admitir que a teoria de gravitação que usamos para analisar as observações cosmológicas está incorreta ou incompleta. Nesse grupo há ainda duas possibilidades. A primeira modifica a teoria da gravitação de Einstein, acrescentando um novo termo que só seria relevante quando a curvatura do espaço-tempo é suficientemente pequena, isto é, mais recentemente na evolução cósmica. A segunda possibilidade admite também uma modificação da gravitação, mas de uma forma mais extrema. Segundo essa teoria a aceleração cósmica é a manifestação da existência de uma dimensão espacial extra. Ambas possibilidades tem sido investigadas intensamente mas existem grandes dificuldades nessas teorias.
A alternativa mais conservadora é manter válida a relatividade geral de Einstein, mas admitir que exista uma componente exótica desconhecida no universo que causa a aceleração cósmica. A gravidade decorrente da matéria ordinária (prótons, elétrons, fótons etc) é atrativa e portanto ela desacelera a expansão. Assim, é preciso uma outra força ou alguma matéria com propriedades bem distintas da matéria usual para explicar esse fenômeno. A constante cosmológica (ad hoc), introduzida por Einstein em seu primeiro modelo cosmológico, é o candidato mais popular capaz de gerar essa repulsão cósmica. Como vimos, ela foi introduzida nas equações de campo da relatividade geral para compatibilizá-las com a idéia de um universo estático. Mas como ad hoc pode gerar uma expansão acelerada? Segundo a teoria Newtoniana da gravitação a massa é a fonte de gravidade, e como esta é positiva, a força gravitaçional é sempre atrativa. Para um fluido, por exemplo, o limite Newtoniano deixa de valer quando a pressão é relativamente alta. Isso ocorre para fluidos cuja pressão é da ordem da densidade de energia. Nesses casos é preciso usar a teoria da relatividade. Para a relatividade geral toda energia é fonte de gravitação. De uma forma mais precisa, a "massa efetiva" que gera gravitação é proporcional a densidade de energia mais três vezes a pressão. Assim, existindo uma matéria exótica com uma pressão suficientemente negativa, a "massa efetiva", que gera gravitação será negativa e teremos repulsão gravitacional. A constante cosmológica possui essa propriedade.
Várias vezes na história da cosmologia moderna ad hoc foi introduzida quando havia uma discrepância entre teoria e observações. Posteriormente, com a obtenção de melhores dados observacionais ou quando novas interpretações surgiam essa constante era descartada por uma questão de simplicidade. Não é impossível que isso ocorra novamente. Contudo há agora algo novo, que precisa ser explicado, e que torna a questão da constante cosmológica um dos problemas mais importantes (e complicados) da física de partículas e campos. Trata-se da questão da energia do vácuo.
O sexto problema do MPC,é como já foi citado é a energia do vácuo.Quando pensamos em vácuo, a maioria de nós associa essa idéia ao espaço vazio, isto é, a de um espaço desprovido de qualquer matéria. Contudo, para o físico de partículas a palavra "vácuo" possui um significado distinto. Para ele vácuo significa o estado de mínima energia de um sistema. Mas como pode o espaço vazio ter energia? Segundo a mecânica quântica, todas as quantidades físicas tendem a flutuar, particularmente isso ocorre também com o estado de vácuo. A teoria indica que, no estado de vácuo, partículas e antipartículas virtuais aparecem e desaparecem no espaço, contribuindo assim para a sua energia.
Em geral, fora da relatividade geral a energia do vácuo não é importante, pois podemos redefini-la através de uma constante aditiva. Contudo, isso não é possível quando lidamos com a gravitação. Segundo a relatividade geral a gravitação é sensível a toda forma de energia, inclusive a do vácuo. É apenas no contexto da gravitação descrita pela relatividade geral que podemos atribuir um valor ou significado absoluto à energia do vácuo. Pode-se mostrar que a condição de que o estado de vácuo seja independente do observador inercial, implica que a sua contribuição à gravidade tenha a mesma forma que a de uma constante cosmológica. Assim, a constante cosmológica efetiva, isto é o ad hoc que pode ser observado pelos testes cosmológicos, é a soma de dois termos. O primeiro termo é a chamada constante cosmológica nua, ou seja, um termo nas equações, como o introduzido por Einstein A segunda contribuição é a advinda da densidade de energia do vácuo. O problema é que essa contribuição é muito, mas muito maior que o limite observacional. Há uma discrepância entre as estimativas teóricas e as observações de um fator da ordem de 10 elevado a potência 120, ou na melhor das hipóteses de 10 elevado a potência de 50! Sem dúvida, essa é a maior divergência conhecida entre teoria e observação. Isso pode significar que: 1) Existe uma espécie de cancelamento (ou quase cancelamento) milagroso entre a constante cosmológica nua e a densidade de energia do vácuo. Esse extremo ajuste fino é inaceitável e precisaria ser explicado. 2)Existe alguma simetria ou mecanismo, que ainda não conhecemos, e que leva a um cancelamento da densidade de energia do vácuo. Nesse caso, como as observações indicam uma expansão acelerada, alguma outra componente desempenharia o papel de ad hoc. Essa componente é chamada, genericamente, de energia escura (ou quintessência) e sua característica principal é apresentar uma pressão efetiva negativa.
Quando admitimos a existência de uma componente exótica responsável pela aceleração cósmica (e que pode ou não depender do tempo), nos deparamos com mais duas questões que precisam ser explicadas. A primeira é conhecida como o problema da coincidência cósmica e consiste em entender porque o universo começou a se expandir de forma acelerada só mais recentemente. Dito de outra forma; porque a densidade de energia da matéria escura e a densidade de energia da energia escura são da mesma ordem de magnitude? Caso o valor de ad hoc fosse dez vezes maior que a sua estimativa atual, o universo já teria iniciado a aceleração há muito mais tempo atrás. Mostra-se, que nesse caso, não haveria tempo para formar estruturas como galáxias e seus aglomerados. Caso ad hoc fosse dez vezes menor, nós não observaríamos a aceleração cósmica e esta só poderia ser detectada em um futuro bem distante. No caso em que a componente exótica é uma constante cosmológica, o problema da coincidência cósmica confunde-se com o chamado problema das condições iniciais. Isto é, foram necessárias condições iniciais muito especiais no início do universo para que L começasse a dominar a dinâmica da expansão só mais recentemente. Mostra-se que em certos modelos em que a energia escura é dinâmica, há soluções atratoras (chamadas de "tracking") em que o problema das condições iniciais é reduzido. Contudo, isto só ocorre às custas de ajustes de parâmetros do modelo, o que não é o ideal. O problema da coincidência cósmica também pode ser aliviado admitindo-se uma interação entre a energia escura e a matéria escura ou, de uma forma mais radical, supondo que a matéria escura e energia escura são manifestações distintas de uma mesma componente (chamada de quartessência). Contudo para funcionar adequadamente, aqui também é necessário introduzir-se no modelo uma escala de massa (ou energia). Sendo que o correto seria que fosse formulada uma teoria fundamental a partir da qual essa escala surgisse naturalmente.
Tendo em vista que estas foram citados até então os maiores problemas com riqueza de detalhes cito agora outros problemas que valem a pena serem mencionados:
I.A causa do deslocamento para o vermelho não é necessariamente o afastamento das galáxias. Há outros fenômenos que podem causar um deslocamento para o vermelho. Entre estes, o assim-chamado “deslocamento gravitacional para o vermelho” implica em massas incrivelmente grandes para as galáxias mais distantes; e o assim-chamado “efeito Doppler transversal” exigiria uma revolução muito rápida ao redor de um centro. deveríamos admitir esta possibilidade, especialmente uma vez que a revolução em volta de um centro é uma caraterística geral de objetos cósmicos. Finalmente há também a idéia de que, por interação com a matéria, a luz perderia parte de sua energia durante a longa viagem de uma galáxia distante até a Terra: Fritz Zwicky, astrônomo suiço, nascido na Bulgária em 1898, propôs, ainda em 1929, após a publicação do trabalho de Hubble, um novo mecanismo de arrasto gravitacional, pelo qual fótons (partículas de luz), não seriam apenas defletidos mas também, perderiam energia e momentum para o meio material gerador do campo gravitacional. Zwicky sugeriu que o desvio para o vermelho da luz das galáxias não seria causado pela expansão do universo e sim, uma conseqüência desse arrasto, que geraria uma diminuição na frequência (ou aumento do comprimento de onda) dos fótons à medida que eles viajassem das galáxias distantes até nós. Quanto mais distante a galáxia maior a perda de energia, e portanto maior o desvio para o vermelho, de tal forma que, segundo ele, a lei distância vs. desvio para o vermelho poderia ser explicada através desse mecanismo. Uma conseqüência dessa teoria é que a variação da largura das linhas de emissão e absorção com a distância seriam bem distintas II.Na teoria do Big Bang, as partículas elementares como elétrons, prótons, neutrinos, nêutrons e outras, foram produzidas nos primeiros momentos do universo. De acordo com a melhor informação, bem apoiada por experiências de laboratório, tais partículas elementares são formadas em pares: com cada partícula aparece uma antipartícula, feita de antimatéria: pósitrons com elétrons, antiprótons com prótons, etc. Quando uma partícula encontra sua antipartícula, as duas desaparecem num fulgor de energia. No universo muito denso, justamente depois que partículas e antipartículas foram formadas, teria sido inevitável que toda partícula tivesse encontrado sua antipartícula. Como resultado, o universo estaria cheio de radiação e destituído de matéria, exceto partículas como os nêutrons, que não têm antipartículas. Todavia, há muita matéria normal no universo. Ou devia haver alguma assimetria na produção de partículas elementares — com mais partículas normais do que “antis”, ou então cerca da metade do universo devia consistir de antimatéria, cuidadosamente isolada da matéria normal. Mas não há indicação disso.
III. Einstein modificou as suas equações originais do campo gravitacional introduzindo um termo repulsivo, a chamada constante cosmológica (ad hoc). Einstein acreditava que seu modelo possuía as seguintes virtudes: 1) podia relacionar a massa do universo com a constante cosmológica, o que estava em acordo com o princípio de Mach; 2) mostrou ser possível construir um modelo cosmológico consistente com a relatividade geral; 3) acreditava ser este o único modelo com essas características. Mas ao ser evidenciado um universo em expansão a constante teve de ser abandonada, o próprio Einsten reconheceu que foi um de seus maiores fracassos , todavia por várias ocasiões esta constante tem sido utilizada para remendar o Conceito Cosmológico Padrão que ante a tantos evidencias contrárias propiciadas pela real observação está agonizando e precisa de remendos cada vez maiores.
IV.Modelos do universo estático  se ajustam  melhor aos dados observados do que modelos do universo em expansão.
Modelos do universo estático se adequam melhor a observações com parâmetros não ajustáveis. O Big Bang pode se ajustar com cada uma das observações criticas, mas apenas com parâmetros ajustáveis, um dos quais( o parâmetro da desaceleração cósmica) requere mutuamente valores exclusivos para se ajustar a diferentes testes[[2],[3]], sem a teoria da constante cosmológica , este ponto já invalida o big bang. Igualmente se a discrepância pode ser explicada, a razão de Occam favorece o modelo com  os parâmetros menos ajustáveis- o modelo do universo estático.
V. A microonda de fundo faz mais sentido com uma temperatura limite de um espaço aquecido pelas estrelas do que um remanescente de uma bola de fogo.
A expresão “a temperatura do espaço”é o título do capítulo 13 da famosa obra de 1926  do Sir Arthur Eddington, [[4]] Eddington calculou a temperatura mínima que qualquer corpo no espaço pode alcançar, sendo que se deve considerar o corpo estando imerso na radição de uma estrela distante. Com parâmetros não ajustáveis, ele obteve 3ºK(depois corrigido para 2,8ºK[[5]]), exatamente o mesmo resultado que foi observada, então a chamou de temperatura de fundo. Um cálculo similar, embora com menos exato, aplica-se  a temperatura limitada do espaço intergalático por causa da radiação da luz da galáxia. [ [ 6 ] ] assim a matéria intergaláctica é como uma "névoa", e forneceria conseqüentemente uma explanação mais simples para a radiação da microonda, incluindo seu espectro  em forma de corpo escuro.
Tal névoa explica também a relação de outra maneira incômoda do infravermelho às intensidades de radiação das galáxias de rádio. [ [ 7 ] ] a quantidade de radiação emitida por galáxias distantes cai com comprimento de ondas crescentes, como esperado se os comprimento de ondas mais longos forem dispersados pelo meio intergaláctico. Por exemplo, a relação da radiação  infravermelha das galáxias   e da radiação do comprimento de ondas muda com a distância de maneira que implique a absorção. Bàsicamente, isto significa que os comprimento de ondas mais longos são absorvidos mais fàcilmente pelo material entre as galáxias. Mas então a radiação da microonda (entre os dois comprimento de ondas) deve ser absorvida por esse meio também, e não tem nenhuma possibilidade alcançar-nos de tais distâncias grandes, ou remanescer perfeitamente uniforme ao fazê-lo. Deve preferivelmente resultar da radiação das microondas do meio intergaláctico. Este argumento sozinho implica que as microondas não poderiam nos vir diretamente de uma distância além de todas as galáxias, e conseqüentemente de que a teoria Big Bang  não pode estar correta.
Nenhuma das predições da temperatura de fundo baseada no big bang  eram próximas bastante para serem qualificadas como sucessos, sendo a pior estimativa aproximada de Gamow de 50°K feito em 1961, apenas dois anos antes da descoberta real. Claramente, sem uma predição quantitativa realística, a "bola de fogo hipotética" do Big Bang  torna-se indistinguível  da temperatura mínima natural de toda a matéria fria no espaço. Mas nenhumas das predições, que variaram entre 5°K e 50°K, combinaram observações. [ [ 8 ] ] e o big bang não oferece nenhuma explanação para o tipo de variações da intensidade com o comprimento de onda da radiação das galáxias visível.
VI.Previsões de elementos abundantes usando o Big Bang requere também muitos parâmetros ajustáveis para que se possa trabalhar.
A abundância universal da maioria dos elementos foi predita corretamente por Hoyle no contexto do modelo cosmológico original do estado constante.Este modelo se ajustou para todos os elementos mais pesados do que o lítio. O Big Bang  reuniu aqueles resultados e concentrou-os em predizer a abundância dos elementos leves. Cada  previsão de elemento requer ao menos um parâmetro ajustável original . Frequentemente,  uma pergunta que fica sem resposta é porque o elemento foi criado ou destruído  em algum grau que segue o Big Bang  . Quando você remove estes graus de liberdade, nenhuma predição genuína remanesce. O melhor que o Big Bang  pode reivindicar é consistência com observações usando vários modelos da constante cosmológica  para  explicar os dados para cada elemento leve. Exemplos: [ [ 9], [10 ] ] para hélio-3; [ [ 11 ] ] para lítio-7; [ [ 12 ] ] para o deutério; [ [ 13 ] ] para o berílio; e [ [ 14], [15 ] ] para vistas gerais. Para uma discussão cheia de uma origem alternativa dos elementos leves, veja [ [ 16 ] ].
VII.O universo  tem uma escala de estrutura muito grande (intercalando barreiras e vácuos) para ser formado em um tempo tão curto como 10-20 bilhões de anos.
A velocidade média das galáxias através do espaço é uma medida confiável. Naquelas velocidades, as galáxias precisariam aproximadamente da idade do universo para montar as estruturas  maiores (super aglomerados e paredes) que nós vemos no espaço [ [ 17 ] ], e ao espaço livre todos os vácuos entre as  barreiras  da galáxia. Mas isto supõe que os sentidos iniciais do movimento são especiais, por exemplo, dirigido afastado dos centros dos vácuos. Para começar em torno deste problema,  deve-se  propor que as velocidades da galáxia eram inicialmente muito mais elevadas e ter retardado devido a alguma sorte de "viscosidade" do espaço. Dar forma a estas estruturas construindo acima dos movimentos requereria apenas com a aceleração gravitacional   um excesso de 100 bilhões anos.
VIII.A luminosidade media dos quasares deve decrescer com o tempo apenas na maneira direita de modo que a sua média aparente de brilho é a mesma em todos os desvios da luz para o vermelho o que é extremamente improvável.
De acordo com a teoria big bang, um quasar em um desvio da luz para o vermelho de 1 está aproximadamente dez vezes tão distantes  quanto um em um desvio da luz para o vermelho de 0.1. (a relação entre o desvio da luz para o vermelho e a distância não é completamente linear, mas esta é uma aproximação justa.) Se os dois quasars fossem intrìnseca similares, o elevado desvio da luz para o vermelho  de um seria aproximadamente 100 vezes mais fraco por causa da lei do inverso do quadrado. Mas está, na média, do brilho aparente comparável. Isto deve ser explicado como os quasars "que evoluem" suas propriedades intrínsecas de modo que comecem menores e mais fracas enquanto o universo evolui. dessa maneira, o quasar no desvio da luz para o vermelho 1 pode ser intrìnseca 100 vezes mais brilhante do que essa em 0.1, explicando porque parecem (na média) ser comparàvel brilhante. Não é como se o big bang tem uma razão porque os quasars devem evoluir apenas nesta maneira mágica. Mas para isso é requerido explicar as observações usando a interpretação big bang do desvio da luz para o vermelho dos quasars como uma medida da distância cosmológica. Veja [ [ 19], [20 ] ]..

Em constraste a, relação entre aparente valor e distância para quasars é uma simples lei alternativa do, inverso do quadrado da  cosmologia. _ [ 20 ], Arp mostra grande quantidade de evidências que um quasar com grande  desvio da luz para o vermelho é um fator de combinação  cosmológica e também um fator intrínseco, com último dominante na maioria dos casos. _ o maior desvio da luz para o vermelho (por exemplo, z > _ 1) conseqüentemente tem uma pequena correlação com a distância. _ um grupo de  11 quasares perto de NGC 1068,tem um padrão nominal de ejeção em correlação com a rotação da galáxia ,o que  fornece a mais forte evidência de que o desvio da luz para o vermelho dos quasares é intrínseco. _ [ [ 21 ] ]
IX.as idades de conjuntos globulares parecem mais velhas do que o universo.
Mesmo que os dados sejam esticados no sentido para resolver isto desde que do "a lista Top dez" apareceu primeiramente, as barras do erro na idade estimada pelo Telescópio  Hubble do universo (12+/-2 Gyr) ainda não sobrepõem completamente as barras do erro nos conjuntos globular os mais velhos (16+/-2 Gyr). Os astrônomos estudaram este para a década passada, mas resistem "a explanação do erro observational" porque aquela empurraria quase certamente a idade estimada pelo telescópio Hubble mais antiga (enquanto Sandage tem discutido por anos), que cría diversos problemas novos para o Big Bang. Ou seja a cura é pior do que a doença para a teoria. De fato, uma técnica observational nova, relativamente polarização-livre foi a maneira oposta, abaixando a estimativa da idade pelo telescópio Hubble a 10 Gyr, fazendo a discrepância piorar outra vez. [ [ 22], [23 ] ]
X.a matéria escura invisível de uma natureza desconhecida mas não -barionica deve ser o ingrediente dominante do universo inteiro.
A teoria do big bang requer polvilhar galáxias, conjuntos, super aglomerados, e o universo com as quantidades crescentes desta "matéria escura invisível, ainda não detectada" para manter a teoria viável. Total, sobre 90% do universo deve ser feito de algo que nós nunca detectamos. Pelo contraste, o modelo de Milgrom (a alternativa "matéria escura") fornece uma explanação de um parâmetro que trabalhos em todas as escalas e não requer nenhuma "matéria escura" existir em nenhuma escala. (eu excluo a 50%-100% adicional da matéria ordinária invisível dedutível para existir perto, por exemplo, estudos MACHO.) Alguns físicos não gostam de modificar a lei da gravidade nesta maneira, mas numa escala finita para forças naturais é uma necessidade lógica (teoria nao justa) falada desde do século 17. [ [ 29], [30 ] ]
O modelo de Milgrom não requer nada disto. Milgrom é um modelo operacional melhor que é baseados em fundamentos sólidos. Mas é consistente com os modelos mais completos que invocam uma escala finita para a gravidade. Assim o modelo de Milgrom fornece uma base para eliminar a necessidade para "a matéria escura" no universo em toda a escala. Isto representa a não necessidade do big bang .
XI. as galáxias as mais distantes no campo profundo de Hubble mostram uma evidência insuficiente para a evolução, com o alguma deles que têm desvios para o vermelho mais elevados (z = 6-7) do que os quasars com o mais elevado desvio para o vermelho.
O big bang  requer que as estrelas, os quasars e as galáxias no universo adiantado sejam "primitivos", significando na maior parte metal-livre, porque requer muitas gerações de super novas para formar o elevado   índice de metal nas estrelas. Mas as últimas evidências  sugere lotes do metal nos quasars e nas galáxias " mais adiantados". [ [ 31], [32], [33 ] ] além disso, nós temos agora a evidência para numerosas galáxias ordinárias  em o que o big bang esperou alcançar "a idade escura" da evolução do universo, quando a luz de poucas galáxias primitivas na existência seria obstruída da vista por nuvens do hidrogênio. [ [ 34 ] ]
XII.se no universo que  nós vemos hoje representa as origens, a relação da densidade real da matéria no universo à densidade crítica deve diferir da unidade apenas por uma parte em 10 elevado a potência 59. Todo o desvio maior resultaria em um universo que já desmoronou  ou já se dissipou.

A inflação não conseguiu seu objetivo quando muitas observações foram de encontro a ela. Para manter a consistência e salvar a inflação, o big bang tem introduzido agora dois parâmetros ajustáveis novos: (1) a constante cosmológica, que tem um problema de ajuste fino  principal do seus próprios porque a teoria sugere que deva ser da ordem 10  elevado a potência 120, e observações sugere um valor mais menos de 1; e (2) "quintessence" ou "energia escura". [ [ 35], [36 ] ] esta última substância teórica resolve o problema de ajuste fino  introduzindo a energia invisível, indetectável polvilhada na vontade como necessitada durante todo o universo de forma a  manter a consistência entre a teoria e as observações. Pode conseqüentemente exatamente ser descrita como "o fator final do absurdo".
Qualquer um que duvida do big bang em seu formulário atual (que inclui a maioria dos pesquisadores auto didatas da astronomia, de acordo com um exame recente) teria uma boa causa para essa opinião e poderia fàcilmente defender tal posição. Esta é uma matéria fundamental diferente do que provar que o big bang não aconteceu, que estaria provando um negativo - algo que é normalmente impossível. (por exemplo, nós não podemos provar que Papai Noel não existe.) O big bang, parece muito com a hipótese de Papai Noel, nenhuma predições testáveis ao longo do tempo a podem confirmar a hipótese os pesquisadores concordam que há uma falha e  que a hipótese precisa ser mudada. Em vez disto , a teoria é emendada continuamente para esclarecer todas as descobertas novas, inesperadas. Certamente, muitos cientistas novos pensam agora deste como um processo normal na ciência! Esquecem-se ou estiveram ensinados nunca que um modelo tem o valor somente quando pode predizer as coisas novas que diferenciam o modelo da possibilidade e de outros modelos antes que as coisas novas estejam descobertas. As explanações de coisas novas são supostas para fluir da teoria básica própria com no a maioria um parâmetro ajustável ou dois, e não aos bocados adicionados em uma nova teoria.
Naturalmente, a literatura contem também o papel de revisão ocasional na sustentação do big bang    . [ [ 37 ] ] mas estes geralmente não contam algumas das falhas ou das surpresas da predição como falhas da teoria tão por muito tempo como alguns teoria contante cosmológica puderam as explicar. E da "os sucessos predição" em quase cada caso não distinguem o big bang de alguns dos quatro modelos principais do concorrente: Quasi-Constante-Estado [ 16, [38 ] ], cosmologia do plasma [ 18 ], modelo do meta [ 3 ], e cosmologia da Massa Variável [ 20 ].
Muitas pressuposições astronômicas são como um castelo de cartas. Por exemplo, a constante astronômica de Hubble, um ponto de referência nos cálculos uniformitarianos de distância, recentemente foi determinada ser consideravelmente diferente do que se pensava antes, resultando assim no "colapso" da noite para o dia do tamanho do universo em 50% do seu valor antigo.
==IDÉIAS ALTERNATIVAS==
Se a luz que transpõe 300.000 km/s, viaja trilhões do kmlano. A distância assim percorrida é chamada de um ano-luz. Existem galáxias que estão, segundo se alega. a bilhões de anos-luz distantes do nós no espaço. Isso significa que a luz que saiu das galáxias há 5 bilhões de anos, estaria agora nos alcançando. Isso pareceria indicar que o universo e a criação devem ter pelo menos, 5 bilhões de anos ou então não estaríamos vendo essa luz. Em outras palavras, se as estrelas tivessem apenas de 6 a 10.000 anos de idade por exemplo, a luz dessas distantes galáxias ainda não nos teria alcançado.Este é o chavão que impulsionou a astronomia a buscar caminhos alternativos aos defendidos pela igreja que defendia uma terra e um Universo de 6000 anos apenas.
PONTOS DE VISTA IGNORADOS PELA CIÊNCIA TRADICIONAL:
1) As distâncias espaciais não podem ser medidas de maneira exata. Obviamente não podemos estender um barbante no espaço cósmico ou medir tais distâncias com uma fita métrica, por isso as distâncias são calculadas e não medidas. Isso se faz através de uma técnica conhecida como triangulação, ou paralaxe. Topógrafos usam esse método com as leis da trigonometria que afirmam que, se a linha de base e dois ângulos de um triângulo são conhecidos, então a altura desse triângulo pode ser calculada.
Distâncias curtas de algumas poucas centenas de milhares de quilômetros podem ser medidas pala triangulação de observações simultâneas de observatórios em lados opostos da terra, mas, quando a proporção das distâncias entre o conhecido e o desconhecido aumentam, os ângulos da linha da base se tornam cada vez maiores de modo que além de uma proporção de 28,5 para 1 entre a altitude e a linha de base, o ângulo se torna maior que 89º e deve ser subdividido em minutos e segundos do arco. As limitações deste método são evidentes, até mesmo dentro do nosso próprio sistema solar, pois o ângulo vértice até o sol teria apenas 10 segundos do arco (1/360 de um grau). As distâncias até mesmo às estrelas mais próximas são tão grandes que se torna necessário uma linha de base triangulacional maior, de modo que se usa a órbita da terra ao redor do sol, permitindo uma linha de base de cerca de 300 milhões de quilômetros. As observações são feitas com seis meses de intervalo, os ângulos são comparados e a distância é computada com a trigonometria.
Considerando que as distâncias entre as estrelas são tão grandes, os lados do triângulo são praticamente perpendiculares e assim apenas as distancias até as estrelas mais próximas (até cerca de 200 anos-luz) podem ser medidas através desta técnica. Por exemplo, o nosso sol dista 8 minutos-luz de nós, portanto a linha de base do triângulo teria 16 minutos-luz. Mas a estrela mais próxima, Alfa Centauro, fica a 4 1/2 anos-luz ou 2.365.000 minutos-luz da terra, numa proporção aproximada de 148.000 para 1. Nessa proporção, uma linha do 215 mm, traçada numa página. A4 teria o vértice do seu ângulo a 322 km do distância!
Distâncias maiores são determinadas pelos tamanhos presumidos e pela intensidade das estrelas, pelo desvio para o vermelho.e muitos fatores questionáveis que talvez não tenham nada a ver com a distância.1 Na verdade, alguns astrônomos acham que é possível que todo o universo possa ser encaixado em uma área de 200 anos luz de raio a partir da terra! Portanto não temos nenhuma garantia de que as distâncias reais no espaço sejam tão grandes como as que têm sido divulgadas, e a luz vinda do ponto mais distante no universo, tenha nos alcançado em apenas algumas centenas de anos.
A causa do deslocamento para o vermelho(redshift) não é necessariamente o afastamento das galáxias. Há outros fenômenos que podem causar um deslocamento para o vermelho. Entre estes, o assim-chamado “deslocamento gravitacional para o vermelho” implica em massas incrivelmente grandes para as galáxias mais distantes; e o assim-chamado “efeito Doppler transversal” exigiria uma revolução muito rápida ao redor de um centro,e uma vez que a revolução em volta de um centro é uma caraterística geral de objetos cósmicos esta hipótese pode ser considerada . Finalmente há também a idéia de que, por interação com a matéria, a luz perderia parte de sua energia durante a longa viagem de uma galáxia distante até a Terra.
2) A luz pode tomar um "atalho" em sua viagem através do espaço. Isto é difícil de ilustrar mas basta dizer que há dois conceitos sobre a "forma" do espaço cósmico. Um diz que ele é em linha reta (Euclideano), e o outro, que ele é curvo (Riemanniano). Com base em observações de 27 sistemas binários de estrelas, parece que a luz no espaço profundo viaja em linhas curvas sobre superfícies riemannianas. (78)  
A fórmula para converter o espaço reto em curvo é S = 2R tan elevado a -1  (r/2R), onde r é a distância euclideana ou em linha reta, e R é o raio da curvatura do espaço riemanniano. Com esta fórmula, a um raio de curvatura de 5 anos-luz para o espaço riemanniano, o tempo que a luz leva para alcançar-nos de diversos pontos em nosso sistema solar é praticamente o mesmo, tanto nas distâncias euclideanas como nas riemannianas, e não há grande alteração, mesmo em relação à estrela mais próxima (41/2 anos-luz). Mas se nós inserirmos uma distância euclideana infinita para a estrela mais distante que possamos conceber, levaria apenas 15,71 anos para a luz chegar até nós vinda dessa distância. O quadro abaixo nos dá uma idéia da conversão distância-tempo:  
{| border=1
|-----
| Distância Euclideana, em anos Luz || Distância Riemanneana em tempo real
|-----
| 1 || 0,997 anos
|-----
| 4 || 3,81
|-----
| 30 || 12,5
|-----
| 100 || 14,7
|-----
| 1000|| 15,6
|-----
| 10.000|| 15,7
|-----
| infinito || 15,71
|-----
|}
Observe que pela natureza da fórmula, o limite máximo do tempo no espaço riemanniano tem sua definição, e mesmo quando o raio da curvatura é modificado através de novas descobertas, ele nunca fica muito grande.
Conclusão: Parece que a luz pode tomar um "atalho" ao viajar através do espaço profundo, e mesmo quando assumimos por certo que as distâncias uniformitarianas são válidas, o tempo que a luz leva para chegar aqui, vinda dos extremos do universo, seria de apenas 15 anos.
3)Talvez a expansão universal do espaço seja acompanhada por uma expansão universal do período de tempo no qual tudo isto acontece. Ou talvez a expansão espacial seja apenas uma ilusão causada pela expansão do tempo.O  que  sugere fortemente que em algum tempo finito no futuro a idade estimada do universo será infinita. Isto terá várias conseqüências importantes:
(1) Todas as perguntas relativas às circunstâncias tendo lugar na hora do começo do universo  serão relegadas à história.
(2) Toda especulação sobre o que havia antes da origem do universo será igualmente vista como obviamente sem sentido.
==REFERÊNCIAS==
[[1]] T. Van Flandern (1997), MetaRes.Bull. 6, 64; <http://metaresearch.org>, “Cosmology” tab, “Cosmology” sub-tab.
[[2]] T. Van Flandern, “Did the universe have a beginning?”, Apeiron 2, 20-24 (1995); MetaRes.Bull. 3, 25-35 (1994); http://metaresearch.org, “Cosmology” tab, “Cosmology” sub-tab.
[[3]] T. Van Flandern (1999), Dark Matter, Missing Planets and New Comets, North Atlantic Books, Berkeley (2nd ed.).
[[4]] Sir Arthur Eddington (1926), “The temperature of space”, Internal constitution of the stars, Cambridge University Press, reprinted 1988, chapter 13.
[[5]] Regener (1933), Zeitschrift fur Physiks; confirmed by Nerost (1937).
[[6]] Finlay-Freundlich (1954).
[[7]] E.J. Lerner, (1990), “Radio absorption by the intergalactic medium”, Astrophys.J. 361, 63-68.
[[8]] T. Van Flandern, “Is the microwave radiation really from the big bang 'fireball'?”, Reflector (Astronomical League) XLV, 4 (1993); and MetaRes.Bull. 1, 17-21 (1992).
[[9]] (2002), Nature 415, vii & 27-29 & 54-57.
[[10]] (1997), Astrophys.J. 489, L119-L122.
[[11]] (2000), Science 290, 1257.
[[12]] (2000), Nature 405, 1009-1011 & 1025-1027.
[[13]] (2000), Science 290, 1257.
[[14]] (2002), Astrophys.J. 566, 252-260.
[[15]] (2001), Astrophys.J. 552, L1-L5.
[[16]] C.F. Hoyle, G. Burbidge, J.V. Narlikar (2000), A different approach to cosmology, Cambridge University Press, Cambridge, Chapter 9: “The origin of the light elements”.
[[17]] (2001), Science 291, 579-581.
[[18]] E.J. Lerner (1991), The Big Bang Never Happened, Random House, New York, pp. 23 & 28.
[[19]] T. Van Flandern (1992), “Quasars: near vs. far”, MetaRes.Bull. 1, 28-32; <http://metaresearch.org>, “Cosmology” tab, “Cosmology” sub-tab.
[[20]] H.C. Arp (1998), Seeing Red, Apeiron, Montreal.
[[21]] (2002), Astrophys.J. 566, 705-711.
[[22]] (1999), Nature 399, 539-541.
[[23]] (1999); Sky&Tel. 98 (Oct.), 20.
[[24]] D.S. Mathewson, V.L. Ford, & M. Buchhorn (1992), Astrophys.J. 389, L5-L8.
[[25]] D. Lindley (1992), Nature 356, 657.
[[26]] (1999), Astrophys.J. 512, L79-L82.
[[27]] (1993), Science 257, 1208-1210.
[[28]] (1996), Astrophys.J. 470, 49-55.
[[29]] T. Van Flandern (1996), “Possible new properties of gravity”, Astrophys.&SpaceSci. 244, 249-261; MetaRes.Bull. 5, 23-29 & 38-50; <http://metaresearch.org>, “Cosmology” tab, “Gravity” sub-tab.
[[30]] T. Van Flandern (2001), “Physics has its principles”, Redshift and Gravitation in a Relativistic Universe, K. Rudnicki, ed., Apeiron, Montreal, 95-108; MetaRes.Bull. 9, 1-9 (2000).
[[31]] (2001), Astron.J. 122, 2833-2849.
[[32]] (2001), Astron.J. 122, 2850-2857.
[[33]] (2002), Astrophys.J. 565, 50-62.
[[34]] (2002), <http://www.ifa.hawaii.edu/users/cowie/z6/z6_press.html>.
[[35]] (2000), Astrophys.J. 530, 17-35.
[[36]] (1999), Nature 398, 25-26.
[[37]] (2000), Science 290, 1923.
[[38]] (1999), Phys.Today Sept, 13, 15, 78.
[[39]] E.L. Wright (2000), <http://www.astro.ucla.edu/~wright/errors.html>.
[[40]] (2001), Astron.J. 122, 1084-1103.
[[41]] H. Kurki-Suonio (1990), Sci.News 137, 287.
[[42]] C. Seife (2000), “Fly’s Eye spies highs in cosmic rays’ demise”, Science 288, 1147.
[[43]] (2000), Sci.News 158, 86.
[[44]] (1997),  Science 278, 226.
[[45]] (2000), Astrophys.J. 530, 1-16.
[[46]] (2002), <http://oposite.stsci.edu/pubinfo/PR/96/35/A.html>.
[[47]] (2000), Astrophys.J. 538, 1-10.
[[48]] B.R. Bligh (2000), The Big Bang Exploded!, .
[[49]] (2000), Astrophys.J. 541, 519-526.
[[50]] (1999), Nature 397, 225.
[[51]] (1998), Seeing Red, H. Arp, Apeiron, Montreal, 124-125.
[[52]] McGaugh (2001), Astronomy 29#3, 24-26.
[[53]] (1992), Astrophys.J. 393, 59-67.
[[54]] Guthrie & Napier (1991), Mon.Not.Roy.Astr.Soc. 12/1 issue.
[[55]] (2001), Astron.J. 121, 21-30.
[[56]] (1999), Astron.&Astrophys. 343, 697-704.
[[57]] (2001), Astron.J. 121, 54-65.
[[58]] (2001), Astrophys.J. 557, 519-526.
[[59]] (2001), Phys.Rev.Lett. 9/03 issue.
[[60]] (2001), Astrophys.J. 558, L1-L4.
[[61]] (2002), Astrophys.J. 565, 50-62.
[[62]] (2002), Astrophys.J. 565, 63-77.
[[63]] (2002), Astrophys.J. 566, 51-67.
[[64]] (2002), Astrophys.J. 566, 68-92.
[[65]] (2002), Astrophys.J. 566, 103-122.
[[66]] (2002), Astrophys.J. 566, L1-L4.
[[67]] (1992), Nature 355, 55-58.
[68] E.R. Harrisson, Cosmology: The Science of the Universe, second edition (Cambridge University Press, Cambridge, 2000).
[69] H. Kragh, Cosmology and Controversy: The Historical Development of Two Theories of the Universe (Princeton University Press, Princeton, 1996).
[70] S.V.D. Bergh, astro-ph/9904251.
[71] J. Berenstein, Introduction to Cosmology (Prentice Hall, Englewood Cliffs, 1985).
[72] B. Ryden, Introduction to Cosmology (Addison Wesley, San Francisco, 2003).
[73] T.F. Jordan, astro-ph/0309756.
[74] S. Weinberg, The First Three Minutes (Perseus Books, New York, 1993).
[75] C.J. Hogan, The Little Book of the Big Bang: A Cosmic Primer (Springer Verlag, New York, 1998).
[76] Cosmological Constants: Papers in Modern Cosmology, edited by Jeremy Bernstein and Gerald Feinberg (Columbia University Press, New York, 1986).
[77] A.S. Sharov and I.D. Novikov, Edwin Hubble the Discoverer of the Big Bang (Cambridge University Press, Cambridge, 2003).

78. Harold S. Slusher, "Travelling of Light in Space" ( Viagem da Luz no Espaço), em Age of the Cosmos (Idade do Cosmos), ( San Diego, CA, EUA; ICR 1980), págs. 25-37. Para analisar um outro ponto de vista sobre a geometria hiperbólica ou não euclideana do espaço, veja Mayne M. Zage, "The Geometry of Binocular Visual Space" ( A Geometria da Espaço Visual Binocular) Mathematics Magazine 53 (Nov. 1980), págs. 289-293.
Seu IP: 34.200.226.179 (os IP's são armazenados por questões de segurança)
Seu nome:
Seu e-mail:
Assunto:
Mensagem:
  Não quero que meu e-mail apareça na mensagem (apenas o nome)