segunda-feira, 28 de janeiro de 2013

Dilatação do tempo, o grande engano de Einstein.


Autor: Roberto das Neves

Dilatação do tempo, o grande engano de Einstein.

Como assim, grande engano?

Não é justamente a dilatação de tempo prevista por Einstein, que demonstra, por exemplo, o problema dos GPS's não funcionarem em sincronia entre os satélites em órbita e as estações de transmissão, e por isso, ele criou uma fórmula para corrigir esse tipo de problema?

Deem uma boa olhada, na fórmula abaixo, na verdade ela não foi criada por Einstein, mas sim, por Lorentz, e é usada entre outras coisas, para as devidas correções na sincronização da comunicação entre os satélites e as torres de retransmissão para manter os GPS's em sincronia:



A Fórmula está absolutamente...


CORRETA!

Bom, se a fórmula está correta, onde estaria então, o grande engano?

O grande engano de Einstein está na dedução feita sobre o resultado experimental da fórmula, dedução essa, que o levou a criar toda a estrutura de sua teoria sobre o espaço/tempo.

Einstein foi enganado pelos sentidos, e isso não é culpa dele, só que esse engano, causou um efeito em cascata sobre toda a formulação que originou a suas teorias da relatividade geral e restrita, e gravitação.

Para explicar detalhadamente onde está o erro, é necessário relembrar, o que levou Einstein a formular sua teoria da dilatação do tempo, baseando-se na Fórmula de Lorentz, então, vamos lá, o link abaixo o levará para um artigo bem detalhado e muito interessante:


Agora que você relembrou como e porque Einstein chegou às conclusões relativas à formulação da dilatação do tempo, vamos, através de experimentos imaginativos,  didaticamente, apontar o engano e explicar a causa correta.

Experimento 1:

Imagine que você está em uma enorme planície gramada e verdejante.

Imagine agora que existe, a uns 10 metros de distância, no lado direito dessa paisagem, uma árvore.

Imagine agora, no lado esquerdo da paisagem, a uns 100 metros de distância, outra árvore.

Agora, imagine bem no meio dessa paisagem, entre as duas árvores, uma terceira árvore, só que esta, está a um quilômetro de distância.

Finalmente, atrás dessa terceira árvore, imagine uma montanha que está a 10 quilômetros de distância.

Você não percebe, acredita que está vendo uma imagem completa e instantânea da paisagem, mas, na verdade, você está vendo uma imagem contendo vários objetos que se formaram em sua retina, em tempos diferentes, as imagens mais próximas, são mais recentes, as imagens mais afastadas, são mais antigas, isso acontece, porque cada imagem é formada pelo reflexo da luz que chega aos seus olhos, a luz não é instantânea, ela percorre distâncias diferentes, do objeto observado, ao observador, cada imagem de cada objeto, precisa percorrer distâncias diferentes, para chegarem à sua retina, e isto acontece, tanto em uma paisagem ao ar livre, quanto uma imagem do quarto em que você está, e mesmo, em uma imagem que você esteja observando pelo microscópio.

Tudo aquilo que vemos, acreditamos ser imagens instantâneas em tempo real, mas não são, uma imagem completa do que observamos, é composta por muitos objetos possuindo imagens mais recentes, ou mais antigas, dependendo da distância que a luz percorreu de cada objeto, para chegar até a sua retina.

É assim que observamos tudo o que acontece no nosso dia a dia, acreditamos que o que vemos é instantâneo e em tempo "real"..

Quase todos os objetos que existem no planeta, dependendo de seu tamanho, podem ser vistos, porque refletem a luz emitida ou refletida do nosso sol ou, através de luz artificial.

A questão é que a luz, não é instantânea, a luz viaja a uma velocidade determinada e é igual, em todas as direções.

E essa velocidade, como todos sabem, é extremamente grande, cerca de 300.000 km por segundo.

Só que, como você está, no caso da paisagem, em um ponto de referência fixo, a imagem gerada pela reflexão da luz de cada um dos objetos que você vê, chega aos seus olhos, em  tempos diferentes, pois esses objetos estão a distâncias diferentes do observador.

Logicamente, esses tempos têm diferenças quase imperceptíveis em microssegundos, mas você pode fazer um cálculo sobre distância e velocidade, tendo você como referencial para comprovar isso, cada um dos objetos contidos nessa paisagem imaginária, forma-se em sua retina por meio da luz, em um tempo diferente, pois cada objeto está a uma distância diferente, mas a construção completa da paisagem criada pelo nosso cérebro é sentida como sendo formada por imagens instantâneas.

A evolução adaptou nossos olhos e cérebros, para não percebermos essas micro diferenças entre velocidade e distância, acreditamos que tudo está sendo visto de forma instantânea, não importa as distâncias em que se encontrem os objetos do referencial, que no caso, são os nossos olhos.

Vamos esmiuçar ainda mais esse ponto, com um exemplo que você já está muito acostumado:

Quando você olha para o céu noturno, em uma região rural, longe das luzes de uma cidade, você vê algumas das estrelas que compõe a nossa galáxia, vê a lua, e com um pouco de sorte, alguns dos planetas do nosso sistema solar e até mesmo, algumas constelações.

Para você, tudo isso que você está vendo, você tem a sensação de que estão acontecendo instantaneamente, são imagens deste exato momento.

No entanto, cada um desses objetos estelares que você vê em conjunto, estão, cada um deles, à uma distância diferente de você, alguns objetos estão mais próximos e outros, estão muito, muito distantes.

No caso da lua, você a vê, pois ela está iluminada pelo sol,  e a luz do sol é refletida pela lua, compondo em sua retina, uma imagem da lua.

No entanto, essa imagem que você está vendo, demorou um certo tempo para sair da lua e chegar até os seus olhos, você acredita que esta imagem da lua é em tempo real, instantânea, mas na verdade, você está vendo uma imagem "antiga" da lua, você está vendo uma imagem da lua, formada a um segundo atrás, pois esse é o tempo que a luz por ela refletida, demorou para sair dela, até chegar aos seus olhos.

No caso das estrelas, você está vendo a luz que elas estão emitindo, diretamente em seus olhos, mas, cada uma das estrelas, está à uma distância diferente de você.

A luz que cada uma delas emitiu, demorou um tempo diferente, uma das outras, para chegar até a sua retina.

Mas você acredita que está vendo tudo isso, instantaneamente, independente do tempo que as luzes demoraram para percorrer as distâncias que as separam de você.

A luz de uma estrela que está a bilhões de anos luz distante de você, e que você está observando nesse exato momento, foi emitida à bilhões de anos atrás e demorou bilhões de anos para chegar até você, então, você está observando uma imagem antiga dessa estrela, mas acredita, supõe, que é uma imagem atual e instantânea dessa estrela.

Ver o céu noturno, é ver uma imagem composta por tempos diferentes, gerados pelas distâncias diferentes de cada objeto, mas, que você supõe, ser uma imagem instantânea em tempo real do conjunto.

E isso é verdade tanto para o macrocosmo, representado pelo universo que você vê à noite, quanto para o microcosmo, representado por tudo o que está à sua volta dentro de um quarto, por exemplo, ou, tudo o que você vê, ao observar uma imagem em um microscópio.

Começou a perceber o funcionamento da mecânica da "coisa"?

Agora, vamos complicar um pouco mais o experimento inicial, acrescentando mais detalhes na sua paisagem criada pelo pensamento:

Imagine que, entre a terceira árvore e a montanha, a cerca de cinco quilômetros de distância de você, exista uma linha de trem, e exatamente nesse momento, esteja passando um trem.

Em um dos vagões do trem, está instalado um grande relógio atômico, que está calibrado e exatamente em sintonia precisa, com um relógio atômico que está em seu pulso.

Você olha os dois relógios ao mesmo tempo, e percebe que o relógio do trem está alguns microssegundos atrasado.

Você automaticamente, pensa que existe uma dilatação do tempo, pois foi isso o que lhe ensinaram durante toda a sua vida acadêmica...

Na verdade, o que realmente acontece, é que a distância entre você e o trem, é que causa essa aparente dilatação do tempo, você está vendo uma imagem antiga do relógio, mas supõe que é uma imagem instantânea e em tempo real.

A imagem do relógio do trem que você está vendo, é uma imagem "antiga", pois a imagem é um reflexo da luz, e a luz não é instantânea, ela precisa percorrer cinco quilômetros de distância, até chegar aos seus olhos, enquanto que, a imagem do seu relógio de pulso, percorrerá a distância de 30 centímetros até chegar aos seus olhos.

Quando você olha ao mesmo tempo para os dois relógios, o que você imagina ser dilatação do tempo é nada mais do que distâncias diferentes entre os objetos e o referencial, no caso, você.

Experimento 2:

Vamos agora, imaginar uma sala retangular, com 10 metros de largura e 100 metros de comprimento.

Imagine, na área de largura, no canto do lado esquerdo da sala, um relógio atômico, posicionado na mesma altura dos seus olhos.

Agora, imagine outro relógio, no canto direito da sala, também posicionado na altura dos seus olhos.

Os dois relógios estão plenamente sincronizados.

Imagine agora, você posicionado no outro lado da sala, no canto direito da mesma.

Olhe para os dois relógios ao mesmo tempo.

Você perceberá que o relógio do lado esquerdo, estará alguns trilionésimos de segundo, atrasado em relação ao relógio do canto direito, que está diretamente à sua frente.

A lógica o levará a deduzir que os relógios não estão sincronizados corretamente ou que alguma coisa como a dilatação do tempo ou a gravidade estão interferindo na medida.

O que na verdade acontece, é que a distância entre os dois relógios é diferente, pois você está posicionado em um referencial mais próximo do relógio posicionado no lado direito.

Ou seja, a luz emitida pelo relógio direito, percorrerá uma distância menor até os seus olhos, diferentemente da luz do relógio da esquerda, pois a luz percorrerá uma distância maior por estar em diagonal ao referencial, no caso, você.

Ainda, dentro da sala, posicione o relógio do canto da esquerda, de modo que ele fique mais alto do que o relógio da direita, digamos, uma diferença de cinco metros de altura.

Posicione-se no canto direito do outro lado da sala.

Olhe para os dois relógios ao mesmo tempo.

A diferença em trilionésimos de segundo será ainda maior do que o vivenciado na experiência anterior, pois a luz emitida pelo relógio da esquerda percorrerá uma distância ainda maior até chegar ao referencial, no caso, você.

E se você usar como referencial em seu lugar, um aparelho de rádio que captará a sequência de tempo emitida pelos dois relógios?

Não fará diferença nenhuma, o aparelho, estando posicionado no mesmo referencial que você, captará as ondas de rádio ou de luz que viajam a mesma velocidade, da mesma forma que a sua visão, pois as distâncias entre os dois relógios e o aparelho, que é o referencial, continuarão sendo diferentes.

As ondas de rádio ou luz emitidas por cada um dos relógios percorrerá distancias diferentes até o ponto referencial, causando a sensação de dilatação do tempo.

Será que você está começando a perceber, que dilatação do tempo não existe e que a força gravitacional não afeta os relógios?

Experimento 3:

Vamos agora, repetir um experimento clássico, com algumas melhorias.

Imagine que você está em um aeroporto, posicionado em uma das pistas, você é o referencial.

Um avião está em voo, e está a 50 quilômetros de altura, viajando a velocidade de 1.000 quilômetros por hora.

Dentro do avião, está instalado um relógio atômico sincronizado com um relógio atômico em seu pulso.

Esse relógio de pulso que está com você é feito especialmente para esse experimento.

Ele possui dois mostradores, um deles, é o mostrador que captará as ondas de rádio enviadas pelo relógio a bordo do avião, e o outro, é o mostrador do seu próprio relógio e que está com você em seu ponto de referência.

Apesar dos dois relógios estarem sincronizados, ao olhar para os dois mostradores ao mesmo tempo, você verá uma perceptível diferença entre os dois.

Novamente, você concluirá que o relógio do avião, está andando mais lentamente, por causa da dilatação do tempo e da força gravitacional.

Quanto mais distante o avião viajar, mais o mostrador do relógio dele em seu pulso, andará devagar, em comparação com o seu próprio relógio.

Mas na verdade, o que acontece, é que a velocidade e a distância entre o avião e o referencial, que é você, é que causa esse efeito de suposta dilatação do tempo, nos ensinaram a apontar uma causa não correta e acreditamos de pés juntos que é correta.

Essa diferença entre os relógios, é causada pela distância que o sinal emitido pelo relógio do avião, demora para chegar até você, pois viaja à velocidade da luz, e essa velocidade não é instantânea.

Agora, a coisa começa a ficar mais interessante:

Vamos imaginar que o avião faça uma curva em direção ao aeroporto em que você está, ou seja, o avião está retornando ao ponto de partida.

Quanto mais próximo ele estiver, menor será a diferença em micro segundos no mostrador do relógio do avião, em comparação com o mostrador do seu relógio, pois o sinal emitido pelo relógio do avião, percorrerá uma distância cada vez menor para chegar até você.

O avião pousa, você sobe no avião, e compara os mostradores no seu pulso: Eles estão completamente sincronizados, você olha para o relógio instalado no avião, e ele está mostrando exatamente o que os dois mostradores em seu pulso mostram.

Não há então, uma dilatação do tempo, os relógios comprovam isso, pois se houvesse dilatação, ao serem comparados, eles demonstrariam visivelmente estar fora de sincronia...

Experimento 4:

Bom, vamos repetir a experiência do avião, só que agora, com uma diferença.

O mostrador do avião que está em seu pulso, tem dentro dele, um sistema computacional com a equação matemática criada por Lorentz, e que é usada para a sincronização dos satélites com as torres retransmissoras.

O outro mostrador, o do seu relógio, não tem a equação instalada para a sincronização.

O relógio instalado dentro do avião, também não tem instalado dentro dele a fórmula para a sincronização.

Entretanto, todos os relógios estão perfeitamente sincronizados um com o outro.

Você é o ponto referencial, e o avião está em voo, igualzinho a experiência anterior.

Você olha para os dois mostradores em seu pulso, e eles estão perfeitamente sincronizados, não existe nenhuma diferença entre eles, pois a fórmula matemática de Lorentz está fazendo as correções necessárias no mostrador do avião em seu relógio, que está recebendo as informações via rádio, do relógio instalado no avião, para que a sincronização seja perfeita entre os dois mostradores que estão em seu pulso e mostrem exatamente o mesmo tempo.

Agora, a coisa fica realmente engraçada:

O avião faz a volta e retorna para o aeroporto, quanto mais próximo ele fica de você, o mostrador do relógio do avião em seu pulso começará a apresentar uma diferença em relação ao mostrador do seu relógio.

O mostrador do avião indicará que o tempo medido pelo relógio instalado dentro do avião, começará a andar mais rápido do que o mostrador do seu relógio!

O avião pousa, você olha para o relógio em seu pulso, e os dois mostradores apresentam diferenças mínimas, mas, gritantes, o mostrador do avião, está mais rápido ainda, e o mostrador do seu relógio, está normal.

Você sobe no avião, e olha para o relógio instalado dentro dele e para o seu mostrador.

O seu mostrador está em perfeita sincronia com o relógio dentro do avião, mas, o mostrador do relógio do avião que está em seu pulso, mostra uma diferença, está adiantado em comparação ao seu relógio e ao relógio montado no avião, pois a fórmula de Lorentz, ainda está atuando no processamento da informação emitida por sinal de rádio, afetando a imagem de tempo do mostrador do avião, instalado em seu pulso.

Então, ainda acredita que exista dilatação do tempo?

Vamos então, voltar para o primeiro experimento da planície e vamos brincar um pouco.

Acrescente na paisagem, mais uma pessoa, ela será mais um referencial, ela estará posicionada, a cinco quilômetros de distância, atrás de você, e ela também, tem em seu pulso, um relógio perfeitamente sincronizado com o seu relógio e o relógio do trem.

Acrescente outra pessoa, que será outro referencial, esta pessoa estará no trem, ao lado do grande relógio instalado no vagão, e também possuirá um relógio de pulso, sincronizado com todos os outros relógios.

Brinque com essas e muitas outras possibilidades, quanto mais você brincar, mais rapidamente você perceberá que a dilatação do tempo não existe.

A natureza não tem mistérios, mas, digamos que a natureza é marota e pregou uma peça do tamanho de um trem em Einstein, e Einstein, vendeu gato por lebre, ao acreditar que essa peça era verdadeira.

Então, com esses experimentos, percebemos que Einstein, baseado numa fórmula correta criada por Lorentz, que atende a solução das diferenças entre as distancias entre objetos e o referencial, em relação a velocidade da luz, e que hoje é usada para fazer a calibração dos GPS's, tirou conclusões erradas sobre essa equação demonstrar a real existência da dilatação do tempo, talvez, Einstein deveria ter prestado um pouco mais de atenção, sobre o que Poincaré achava dessa interpretação... 


Para Poincaré, a invariância de c e suas "consequências" sobre o tempo, que ele entendeu muito bem, só seriam um aspecto secundário e sem interesse particular, totalmente sem relevância, não concebendo esses dois princípios como postulados. Para ele, uma quarta coordenada de tempo, seria apenas e tão somente, uma unidade imaginária, que deixariam invariante a quantidade da fórmula.

Einstein cometeu um erro ao interpretar uma observação, o mesmo tipo de erro que os pesquisadores cometeram, ao interpretar os resultados do experimento da dupla fenda, que exponho neste outro artigo que escrevi:

 http://gilghamesh.blogspot.com.br/2013/01/o-experimento-da-dupla-fenda-e-o.html


Mas, talvez, o que está faltando na Física hoje, é aquele antigo caráter de bom humor que o Einstein possuía,  que dá ao físico teórico a liberdade necessária para brincar com fórmulas consagradas, de pensar criativamente e filosoficamente para encontrar possíveis falhas nas deduções dessas fórmulas e a coragem necessária para corrigir as deduções prévias e criar novas deduções e teorias.

Enquanto isso, repense sobre todas as teorias formuladas por Einstein, relacionadas à relatividade, gravitação, quântica e “otras cositas mas”, e admita, não sabemos absolutamente nada de realmente concreto sobre o funcionamento do universo, somos insetos com mania de grandeza, constantemente enganados pelos nossos cinco sentidos, mas mesmo assim, precisamos, ainda que, com nossos parcos e limitadíssimos recursos intelectuais e sensitivos, pensar novas ideias e testar novas teorias urgentemente e não ficarmos atrelados a velhas teorias unanimemente tidas como "comprovadas" ...


Então, após o exposto, chegamos às seguintes conclusões:

A Fórmula de Lorentz funciona?

Sim. Funciona e é usada hoje, entre outras coisas, para o ajuste dos GPS's.

A Explicação de Einstein, sobre o porquê da Fórmula de Lorentz funcionar, está correta?

Não, está absolutamente incorreta, Einstein não leva em conta, a distância entre os referenciais,  para ele, a luz age de forma instantânea, não importando a distância que o objeto que reflete a luz esteja do observador ou referencial, mas, todos sabemos que a luz tem um limite de velocidade, ela não é instantânea  e os experimentos apontam para a explicação correta e lógica.
Estranhamente, Einstein deturpa a sua própria lei sobre a velocidade da luz, para introduzir o conceito de dilatação do tempo, conceito esse, necessário para validar sua teoria de tecido espaço/temporal.

E o tão "afamado" experimento de Hafele e Keating, será que realmente prova alguma coisa?

Leia a análise de Alphonsus G. Kelly sobre os resultados: 

http://www.worldsci.org/php/index.php?tab0=Abstracts&tab1=Display&id=351&tab=2

Outras análises sobre este e outros experimentos que "validariam" os resultados em outros experimentos, inclusive o Probe-B:

  http://document.mitrasites.com/hafele-keating-experiment.html


Para terminar, eu proponho um problema divertido para os matemáticos de plantão, para esquecermos um pouco da nossa pequenez e insignificância, frente ao universo:

Vamos imaginar que exista uma nave espacial, que saiu da Terra em direção ao Aglomerado Estelar de Andrômeda.

Essa hipotética nave espacial, viaja exatamente à velocidade da luz.

Quando ela atinge exatos cinco anos luz de distância da Terra, o capitão da nave envia uma mensagem para nosso planeta via rádio, com a duração de uma hora.

Quanto tempo essa mensagem irá demorar a chegar completa ao planeta Terra, sabendo-se que a nave não parou para enviar essa mensagem, ela continua viajando na velocidade da luz.

Dica: Se você responder que a mensagem demorará exatamente cinco anos luz mais uma hora luz, você está redondamente enganado...
.
.
.

sábado, 26 de janeiro de 2013

Teoria Padrão, os acobertamentos de um fracasso matemático.

Autor: Roberto das Neves



A teoria padrão, vulgarmente mais conhecida como Teoria do Big Bang, é uma teoria matemática, onde uma fórmula é o resultado de outra fórmula antecessora.

Para que você possa entender, apresento abaixo, a Fórmula completa:



A teoria padrão é o encadeamento sistemático de uma série de fórmulas iniciais, gerando outras fórmulas, com o intuito de se obter uma equação completa sobre o funcionamento do universo.

Muitos consideram essa equação, (pois foram ensinados e doutrinados a aceita-la), um triunfo do saber humano, o ápice da engenhosidade matemática que tudo pode explicar, usando-se a lógica e a razão, através da linguagem matemática.

Só que, a coisa não é bem por aí.

Pela lógica, se algo for encontrado através da observação, que não esteja de acordo com os resultados dessa formula, significa que a equação correspondente está errada em algum ponto do encadeamento de sua formulação.

Como a equação é o encadeamento de várias fórmulas que são resultado direto de uma equação antecessora, isso significa que a teoria, como um todo, pode estar completamente errada, apesar de confirmar algumas observações.

Você sempre ouve falar a seguinte máxima da ciência: “Se uma teoria não está de acordo com os resultados observados e obtidos, descarta-se a teoria e se formula uma nova e mais adequada teoria”.

Só que, não é isso o que temos visto em relação à teoria padrão.

Uma série de erros sistemáticos nela contidos tem sido acobertada, acrescentando-se afirmações “Ad hoc”, na tentativa de salva-la.

Mais abaixo, irei apontar esses erros, mas antes, é necessário entender-se, o porquê da tentativa desesperada, por trás do acobertamento sistemático das falhas, causadas por equações erradas contidas na teoria padrão.

São vários os motivos, e acredite, muitos dos motivos, tem o “imprimatur” das religiões.

Uma vez que a teoria padrão matematiza que, do nada, pode surgir tudo, as religiões utilizaram essa afirmação completamente “ad hoc”, para incluir o fator deus na equação, pois segundo as religiões, somente um deus ou deuses podem criar tudo a partir do nada.

E uma prova cabal disso, aconteceu em 1951, quando o Papa Pio XII, no dia 22 de Novembro, na Academia Pontifícia das Ciências, num discurso intitulado: "As provas da existência de Deus à luz das modernas ciências da Natureza" apoiou o modelo do Big Bang, entendido como interpretação científica do livro do génesis e argumento a favor da existência de deus.

Diz-se que a maioria dos cientistas que estudam o cosmos, são ateus, mas isso é uma inverdade, a grande maioria, ou é agnóstica ou é partidária de uma religião, apenas uma pequena parte dos pesquisadores é assumidamente ateia.

Ora, se assim o é, é grande o interesse dessa maioria, colocar as suas crenças, à frente da lógica e da razão, ao defender a teoria padrão.

Outro motivo, e esse é um motivo doutrinário, é que a grande maioria dos pesquisadores e professores atuais, foram ensinados nas escolas a não duvidarem da teoria padrão, lhes é ensinado que a teoria está correta e ponto final.

E o motivo último, é o motivo carreirista e egoísta. Um grande número de pesquisadores construiu sua carreira, e assim, manteve seu emprego e seu “status quo”, defendendo o “establishment” científico, baseado na defesa e pesquisa de resultados favoráveis, que apontem para o “sucesso dos acertos” para a comprovação da teoria padrão e relevando os resultados observacionais que refutam a teoria..

Mas, se você, enquanto jovem pesquisador, encontrar alguma coisa que não é prevista pela teoria, ou as suas observações de fenômenos astronômicos apontem para falhas contidas nas equações da teoria padrão, cuidado.

Sua pesquisa, ou será cancelada, ou então, você será “gentilmente” obrigado a mudar o foco de sua pesquisa inicial, de forma que não comprometa os “sacramentados” enunciados da teoria.

A teoria Padrão

A teoria padrão está assentada em quatro pilares principais: A teoria da relatividade de Einstein, onde nela, se formula a constante cosmológica, que matematiza e afirma que o universo é homogêneo, a teoria gravitacional de Einstein, que matematiza a forma como a gravidade atua, distorcendo o tecido espaço/temporal, a teoria de Lemaitré/Friedmann, que matematiza que todo o universo surgiu de um ponto extremamente compacto e extremamente quente, e finalmente, a teoria de Hubble, sobre a expansão cósmica, que matematiza que, o universo está em constante expansão, afastando as galáxias umas das outras, a partir do ponto inicial proposto por Lemaitré.

Todas as fórmulas restantes, constantes na teoria padrão, são desdobramentos decorrentes dessas quatro teorias matemáticas iniciais e o resultado dessas fórmulas, devem prever o funcionamento do universo observável.

Ok. Tá, bacaninha...

Só que...

Quanto mais os astrônomos observam o universo, mais o mesmo apresenta comportamentos anômalos, inconsistentes ou não previstos matematicamente pela teoria padrão...

E quando isso acontece, buscam-se explicações completamente filosóficas, explicações “ad hoc”, na tentativa de salvar a teoria e acobertar suas falhas, uma vez que carreiras profissionais inteiras, o “status quo” científico, e paralelamente e por baixo do pano, as religiões, defendem e dependem da manutenção desta, como a “teoria oficial”, ou, “a teoria mais completa e aceita”, pela sua “quantidade de acertos em suas previsões”...

Enfiando fundo o dedo nas feridas.

Existem interesses escusos na manutenção da teoria padrão, e você é constantemente bombardeado com informações selecionadas a dedo, para continuar acreditando que esta é realmente uma teoria válida e a mais precisa que existe, fruto do gênio humano que descobriu como o universo funciona.

Apresentando as evidências da falcatrua:

Todo mundo já está careca de ouvir e ler sobre matéria escura e energia escura, o que a maioria não sabe, é como surgiu essa teoria completamente “ad hoc”.

A formulação da teoria padrão predizia que existe uma quantidade X de matéria e energia que compõe o universo.

Ao se fazer as medições sobre esta quantidade de matéria e energia, constatou-se que ela é assustadoramente maior do que a teoria padrão propunha.

Em vez de se assumir que a teoria padrão estava incorreta em relação à quantidade de matéria e energia que de fato, realmente existe, para se salvar o restante das equações teóricas de seu fracasso, propôs-se uma alternativa “elegante”, mas puramente filosófica:

“Existe matéria e energia escura, que são responsáveis pela manutenção gravitacional do cosmos, essa matéria e energia, são não bariônicas, e por esse motivo, não podiam ser previstas pela teoria padrão”.

Oficialmente: “Na cosmologia, matéria escura (ou matéria negra) é uma forma postulada de matéria que só interage gravitacionalmente (ou interage muito pouco de outra forma). Sua presença pode ser inferida a partir de efeitos gravitacionais sobre a matéria visível, como estrelas e galáxias. No modelo cosmológico mais aceito, o ΛCDM, que tem obtido grande sucesso na descrição da formação da estrutura em larga escala do universo, a componente de matéria escura é fria, isto é, não-relativístiva. Nesse contexto, a matéria escura compõe cerca de 23% da densidade de energia do universo. O restante seria constituído de energia escura, 73% e a matéria bariônica, 4%.”.

Usa-se um jargão cientificista, para dar uma desculpa esfarrapada, para enrolar os leigos.

Mas, o que de fato seria essa matéria escura e essa energia escura?

Esse material não visível trata-se apenas de matéria que ainda está formando novas galáxias, estrelas, planetas, planetóides, asteroides e um grande número de escolho material.

Por não estarem ainda completamente formadas, essas novas estrelas ainda não entraram em fusão, para emitir luz visível que possa ser detectada, e mesmo que entrem em fusão, dependendo da distância em que se encontram, levarão milhares, milhões ou bilhões de anos para que, a luz que delas se irradiará, possa ser detectável por nossos equipamentos, contudo, a força gravitacional gerada por essa quantidade gigantesca de material, pode ser detectada, pois está sendo exercida já a milhões ou bilhões de anos de lenta formação.

Sem contar que existem evidências de planetas que estão vagando pelo cosmos, que não estão fazendo parte de um sistema estelar, esses planetas foram expulsos de suas órbitas devido à força gravitacional de outros planetas do seu sistema e tornaram-se planetas errantes, e eles, inclusive, tem um nome: são chamados de planetas órfãos e supõe-se que o seu número possa ser igual ou maior que o número de planetas orbitando normalmente uma estrela, fora isso, existem também evidências da existência de planetas, planetoides, asteróides, etc., que se formaram sem estarem necessariamente atrelados a órbita de uma estrela em formação.

Um interessante artigo sobre isso:


Ora, além desses planetas errantes expulsos e as estrelas ainda em formação, existe um sem número de escolho, ou seja, matéria de “pequenas proporções” que está transitando pelo universo livremente e que ainda não tem tamanho suficiente para ser detectado enquanto matéria, contudo a força gravitacional por eles emitida, também é detectável. Esse material será posteriormente capturado pela força gravitacional de uma estrela, e formará, juntamente com outros “cascalhos”, um planeta, um planetóide, uma lua, um asteroide ou um cometa.

Todo esse material, é responsável pela “matéria e energia escura”, ou seja, não existe matéria ou energia escura não bariônica, como foi proposta para salvar a teoria padrão, o que existe, é uma flagrante falha na teoria padrão, em relação ao seu resultado matemático sobre a quantidade de matéria e energia que efetivamente existe e o que ela prediz.

Para se acobertar essa falha, criou-se uma teoria bonitinha denominada: “matéria e energia escura”, que não se suporta, não se comprova pelas evidências observacionais, é uma hipótese fadada ao fracasso na tentativa de salvar mais um erro matemático grotesco.

No entanto, vende-se esse fracasso como uma vitória da teoria padrão, inverte-se o ponto de vista, para manter o “establishiment”.

Mas, a coisa não para por aí!

Outro flagrante erro contido na teoria padrão, cujas observações astronômicas a contradizem, refere-se ao efeito “redshift”, que comprovaria a teoria da expansão, nesta teoria matemática, afirma-se que a expansão existe e pode ser detectada pelo desvio de luz observado pelas galáxias.

As galáxias que estão se afastando mais rapidamente, apresentam um desvio de cor para o vermelho, as que estão se afastando mais vagarosamente apresentam um desvio para a cor azul.

Quanto maior o desvio para o vermelho, maior é a velocidade de expansão a que, esta galáxia está submetida.

Só que, a teoria padrão, não previa algo que está acontecendo e sendo constantemente observado por todo o universo, isso é mais um flagrante erro de sua matematização na proposta da expansão, e que a compromete totalmente: Milhares de galáxias estão em rota de colisão ou estão colidindo, ou ainda, já colidiram.

Em um universo que se propõe em perpétua expansão, onde, as galáxias afastam-se uma das outras, a partir de um ponto inicial, as colisões entre galáxias não poderiam ocorrer.

E, além disso, essas galáxias em colisão demonstraram outra falha teórica, uma anomalia em relação sobre a afirmação de que, o “redshift” demonstra e é prova da expansão do universo.

Ao se observar centenas dessas galáxias em colisão, observou-se que muitas delas, tinham um desvio para o vermelho, muito maior do que a outra galáxia com a qual ela esta colidindo, ora, isso significa que elas não poderiam estar colidindo, pois elas estariam milhares de anos luz, afastadas uma da outra.

No entanto, elas estão colidindo, numa flagrante comprovação em relação ao efeito matemático “redshift”, não poder ser usado como uma prova incontestável sobre a expansão do universo, e ainda mais, o efeito não é aquilo que a proposta matemática afirma ser!

Então, temos aqui, mais duas provas comprometedoras observacionais contra a teoria padrão: A colisão das galáxias, e o efeito “redshift” não correspondem com a matematização formal proposta, o efeito ”redshift”, não é correspondente com a proposta matemática teórica previsível.

As academias de ciências tentaram abafar o assunto e conseguiram, através de boletins jornalísticos (e não científicos). 
Afirmaram que tais galáxias não estavam em colisão, sendo isso, um mero erro de interpretação observacional.

Os astrônomos, profissionais pesquisadores, que relataram essas anomalias, ou foram afastados de seus cargos, ou tiveram suas pesquisas canceladas, ou ainda, foram marginalizados e estigmatizados, no entanto, as provas estão aí, para quem quiser se dispor a analisar.

Um vídeo interessante sobre esse controverso assunto, é este aqui:





E tem mais?

Pior é que tem sim...

Chegamos agora a Einstein, e sua Fórmula da “constante Cosmológica” que é parte integrante da teoria padrão e é um dos seus pilares.

A formulação matemática de Einstein, afirma que o universo é homogêneo e constante, ou seja, toda a matéria está distribuída de forma uniforme por todo o universo.

No entanto, astrônomos (sempre eles) têm observado anomalias no universo que comprometem terminantemente a “constante cosmológica”.

Trata-se de dois grandes atratores, que estão concentrando uma enorme quantidade de matéria em localizações distintas do universo e tornam o universo, não homogêneo.

Abaixo, os links sobre os dois atratores:



Em relação aos grandes atratores, o “establishment científico”, pouco ou nada tem ainda a dizer, devem estar procurando desesperadamente mais uma saída maquiada, hipotética e bonitinha, para mascarar novamente, a grande mentira que tem lhes dado o sustento e mantido suas carreiras bem sucedidas, guiadas pelo cabresto dogmático cientificista.

Provavelmente, tentarão mais uma vez, afastar a atenção do populacho leigo, com alguma “nova descoberta” que comprova a eficácia e o sucesso da teoria do big bang.

Outro detalhe que não é divulgado corretamente, é que o ruído de fundo, previsto pela teoria padrão, também é previsto em outras teorias sobre o surgimento do universo.

E se você for um leigo e discordar, sempre receberá aquelas respostas: “O que você entende da complexidade de uma fórmula matemática?”, ou ainda: “Você sabe ler uma fórmula matemática, para emitir uma opinião?”, ou ainda: “Vai estudar física antes de abrir a boca!”.

Mas, felizmente, esses são vômitos de alguns poucos chimpanzés, que acham que um diploma em física, os coloca em um patamar mais elevado da civilização, dando somente a eles, o aval e o direito, com os devidos paramentos sacrossantos do cientificismo, para tentar opinar sobre como funciona o universo.

Estamos vivendo um novo período do “Roma locuta, causa finita”, só que agora, na versão turbinada da ciência dogmática cientificista...

Além disso, alguns outros, nem chegarão ao final do texto, só com base no título, já darão a sua sentença: “Isso é apenas mais uma teoria da conspiração...”, e a unanimidade burra, acompanhará e apoiará a sentença, felizes da vida, por fazerem parte da “intelligentsia cientificista”, pois isso significa aparentemente, estar no topo da moda, onde, a “verdade” tem preço, é moldada e vendida ao bel prazer dos “formadores de opinião” e fartamente distribuída através de programas e entrevistas televisivas, enchendo os bolsos dos cientificistas, apoiados pelos mais diversos tipos de “gnósticos quânticos” que também lucram absurdamente com isso...

Palminhas para eles...

Mas, doa a quem doer, a questão permanece: Se partes vitais da teoria, responsáveis por todo o seu estruturamento estão incorretas, a teoria como um todo, apesar de acertar em alguns aspectos, é inválida e deve ser descartada, para dar lugar a uma nova teoria.

Remendar uma teoria constantemente, para encobrir seus erros, como tem sido feito com a teoria padrão, desestimula completamente os jovens formandos e também, os velhos pesquisadores, a buscar novas teorias que tentem explicar o funcionamento do universo de forma mais precisa e correta.

Assim, estes pesquisadores, entram em uma “linha de produção”, onde se estimula a fazer apenas mais do mesmo, e são ameaçados se não andarem feito robozinhos nesta linha, em nome da ciência.

Então, comprova-se que aquela velha máxima da ciência sobre: “Se uma teoria estiver errada, desfaça-se dela e crie uma nova”, torna-se apenas mais uma bela estorinha pra boi dormir e enganar os leigos e os jovens ou novos cientistas.

Aprenda: ande sempre na linha traçada pelo cientificismo, se não quiser receber a chibata cientificista dogmatica e a devida e irrevogável passagem para o ostracismo profissional.

E com isso, atrasa-se assustadoramente o desenvolvimento da verdadeira Ciência, a “Big Science”, responsável pela busca de melhores respostas, que resultarão em melhores e mais avançadas tecnologias, em prol da humanidade.
.
.
.

domingo, 20 de janeiro de 2013

Nos limites da ciência


Artigo de: Rogério Soares da Costa



Na primeira metade do século XVIII, um certo E. S. De Gamaches, físico e matemático francês, escreveu uma obra de astronomia na qual comparava os princípios científicos de René Descartes, o patrono das ciências francesas, com aqueles do Sir Isaac Newton, a glória máxima da Royal Society. O objetivo do obscuro autor era, como seria previsível, demonstrar a superioridade do racionalista francês sobre o empirista britânico. Esse poderia ser somente mais um capítulo da longa rivalidade que opõe franceses e ingleses, mas há nele algo que supera em muito as querelas e disputas entre nações. Na verdade, na discussão empreendida por De Gamaches está em jogo algo crucial para a própria história da ciência.

Em termos gerais, De Gamaches criticava Newton fundamentalmente por seu método. Segundo o polemista, o gênio britânico havia se limitado em suas obras científicas a geometrizar os fenômenos físicos sem jamais propor explicações para os mesmos. “Um fenômeno analisado geometricamente se torna para ele um fenômeno explicado”, afirma De Gamaches. No fundo, para o francês, Newton era bastante seletivo na escolha de seus problemas de estudo, só tratando daquilo que podia ter uma descrição geométrico-matemática. O veredito de De Gamaches é contundente e grave: Newton era ótimo geômetra, mas péssimo físico.
  
Visões opostas

O que há de tão importante na diatribe de um obscuro físico francês que, apegado ao mestre Descartes, distribuía perdigotos contra o gênio de Isaac Newton numa época em que as ideias deste tornavam-se hegemônicas e relegavam o cartesianismo ao esquecimento mesmo em terras gaulesas? A importância da discussão reside naquilo que é posto em questão implicitamente: “o que é fazer ciência?” Em outros termos, o que significa exatamente dar explicação de um fenômeno físico? Será dar as suas razões últimas ou somente fornecer uma descrição matemática acurada daquilo que é observado sem se comprometer com questões concernentes à natureza do real físico?




Em suma, nessa pequena polêmica são confrontadas duas visões opostas sobre a própria natureza da ciência. De um lado o cartesiano, para quem a física deve, antes de tudo, dizer o que é o real, e, de outro está o newtoniano que se limita a geometrizar os fenômenos sem se comprometer com hipóteses sobre a natureza última do real. É bem conhecida a afirmação de Newton no Escólio Geral dos Principia segundo a qual ele não “inventa hipóteses”, referindo-se aí às especulações acerca das possíveis causas de certas propriedades observáveis dos corpos. Há ainda discussões acadêmicas sobre como interpretar corretamente essa e outras declarações de teor semelhante espalhadas pelas obras do físico britânico, mas formou-se certa tradição na qual elas são interpretadas como declarações de cunho antiespeculativo ou antimetafísico. Newton estaria rejeitando a ideia de derivar as suas teorias de considerações filosóficas sobre a natureza própria das coisas e limitando-se a fornecer uma descrição matemática daquilo que pode ser efetivamente observado.

Não importa tanto saber se era isso ou não que Newton queria dizer naquelas declarações, mas sim perceber que essa interpretação enuncia uma posição teórica possível com relação à natureza da ciência que foi e ainda é abraçada por muitos filósofos e cientistas.

Embora Descartes quisesse refundar a ciência de seu tempo sobre novas bases, ele ainda permanecia ligado à ideia antiga de um conhecimento certo e verdadeiro do mundo físico. Toda a sua física se funda na apreensão pelo sujeito pensante de princípios claros e distintos – e, portanto, indubitáveis – a partir dos quais todo o edifício da ciência poderia ser rigorosamente deduzido. Em outros termos, a metafísica funda a física e, sem ela, qualquer ciência fica impossibilitada de realizar suas pretensões de conhecimento verdadeiro e certo. Resta evidente que tais princípios primeiros não são retirados da experiência e sim alcançados por meio de longas meditações de cunho exclusivamente filosófico.

Ora, o conflito até aqui apresentado pode ser visto também pelo ângulo das relações possíveis entre filosofia e ciência. Sob esse prisma, os “cartesianos” seriam aqueles para os quais o fundamento último do conhecimento não pode ser alcançado pela experiência, mas somente pelo pensamento, o qual, através da razão, apreende os princípios mais gerais que servirão de base para qualquer estudo do mundo físico. A favor de sua tese, seus partidários poderiam citar o fato de que nenhuma predição pode verificar definitivamente uma teoria, já que teorias falsas podem apresentar predições verdadeiras.

Por outro lado, os “newtonianos” seriam aqueles para quem a ciência deve definir-se por uma separação clara com relação a princípios especulativo-filosóficos e ater-se somente a uma descrição acurada do comportamento observável dos entes físicos e cujas predições sejam adequadas aos experimentos conduzidos em condições controladas. Além disso, eles poderiam apontar para os sucessos preditivos que a ciência acumula até nossos dias e afirmar que, sob uma perspectiva prática, nada há que se exigir da ciência além da acuidade observacional e experimental.

 Influência mútua

Acontece que, esquemáticas como são, essas posições tendem a simplificar uma situação real que se apresenta de formas cada vez mais complexas. Dificilmente alguém conseguiria subscrever integralmente a tese dos “cartesianos” justamente pela evidência histórica de que projetos de submissão da ciência à filosofia fatalmente arrastam a primeira para o terreno das disputas intermináveis – e frequentemente inconclusivas – da segunda. Por esse motivo, cientistas-filósofos como o físico, matemático e historiador da ciência francês Pierre Duhem defenderam uma separação clara desses dois empreendimentos cognitivos.

Por outro lado, a evidência historiográfica demonstrou conclusivamente a influência mútua entre filosofia e ciência ao longo da história. Não raro essa influência incluía elementos não tão filosóficos no sentido estrito do termo, como teses teológicas, esotéricas e herméticas. Como explicar a grande disputa travada entre newtoniano Samuel Clarke e Gottfried Leibniz sobre a natureza do espaço como o sensorium divino somente em termos meramente científicos?

Para citar exemplos mais recentes, o cosmólogo sulafricano George Ellis, que trabalhou com o britânico Stephen Hawking, dedicou diversos artigos científicos a explicitar e discutir os pressupostos filosófico-metodológicos embutidos nas teorias da moderna cosmologia. Da mesma forma, questões filosóficas sérias e prementes foram suscitadas pelas declarações recentes de Stephen Hawking acerca das origens do universo e da existência de Deus. Quantos pressupostos filosóficos e ontológicos estão implicados em um só conceito como o “nada”? O que isso significa para um físico é o mesmo que significa para um filósofo ou para um teólogo?

A diferença de significados não implica em um relativismo no qual “tudo vale”, mas pode indicar um uso indevido de um termo para fenômenos que não podem ser adequadamente descritos por ele. Conceitos buscam identificar, entre outras coisas, diferenças específicas e irredutíveis dentro dos fenômenos do real. E tais fenômenos podem ser encarados de diversas formas, de acordo com seus múltiplos aspectos. Desse modo, o que cada ciência faz é encarar um determinado conjunto de entes do real sob um ângulo particular, concebendo-os de acordo com pressupostos ontológicos e metodológicos que, em geral, só podem ser justificados por meios filosófico-argumentativos, ou seja, meios externos à própria ciência. Nenhuma ciência pode justificar a si mesma, já ensinava Aristóteles.
  
Relação conflituosa

Se a história tem comprovado a influência mútua entre filosofia e ciência, isso não significa que essa relação tenha se dado de forma harmoniosa e sem conflitos. Muito pelo contrário. Incompreensões, resistências, rejeições e menosprezos de ambas as partes foram frequentes nessa história. Ainda há hoje os que decretam a “morte da filosofia” e apontam a ciência como a executora da sentença. Contudo, não se deve pensar que esses que anunciam a morte da consoladora de Boécio sejam somente cientistas. Eles são também filósofos. Alguns, inclusive, tentaram – e tentam ainda – transformar a filosofia em ciência, adotando seus métodos e procedimentos. Outros se limitam ao papel de “cães de guarda” dos cientistas, que latem e ameaçam quem ouse questionar qualquer ponto do credo cientificista. Aparentemente, há filósofos que não suportariam ver a filosofia como ancilla theologiae, mas sentem-se à vontade ao vê-la no papel de ancilla scientiae.

Todavia, o cientificista, aquele que afirma que todo o conhecimento possível advém exclusivamente da ciência, afirma ele mesmo não uma teoria científica, mas uma tese filosófica cujo valor só pode ser avaliado por meios argumentativos. Ao tentar escapar da filosofia, o cientificista se vê obrigado a justificar o exclusivismo cognitivo da ciência apelando exatamente para aquilo que pretendia negar.

Em uma palestra em Cambridge, o filósofo americano W. L. Craig, ao comentar a afirmação de Stephen Hawking de que a filosofia está morta, observou que aqueles que ignoram a filosofia são os mais propensos a cair em suas armadilhas. E ele está correto. A inconsciência dos pressupostos que informam toda e qualquer pesquisa, empírica ou não, frequentemente resulta numa compreensão limitada e limitadora da própria realidade que se pretende explicar. Não é raro que o cientista tome os objetos que sua metodologia permite conhecer como os únicos elementos do real, reduzindo assim o todo a uma de suas partes.

Ademais, essa tendência se manifesta também no desejo de aplicar os resultados de teorias particulares a campos cada vez mais amplos, ao ponto de se poder afirmar, sem risco de erro, que muitos cientistas buscam alçar suas teorias à condição de metafísica última e fundamental da realidade. Como Étienne Gilson assinalou diversas vezes, essa submissão do Ser a uma ciência particular é uma tentação constante na história do Ocidente, apresentando-se no logicismo de Abelardo, no matematismo de Descartes, no fisicismo de Kant, no sociologismo de Comte e, por que não?, no biologismo de certos neodarwinistas. Contra isso, o físico Werner Heisenberg – homem de alta cultura e questões filosóficas profundas – advertia que tais projetos só poderiam se fundar em conhecimentos científicos definitivos, mas que estes são sempre aplicáveis em domínios limitados da experiência.
  
Tendência relativista

Como reação ao cientificismo, diversos filósofos e estudiosos das ciências humanas empenharam-se em questionar os critérios de racionalidade e validação do conhecimento, abraçando o relativismo como o último bastião possível de resistência ao avanço das ciências empíricas. Tudo o que existe são múltiplos discursos possíveis sobre o mundo e o discurso científico é só mais um entre muitos, de modo que há pouca diferença entre o Dr. House e o curandeiro de uma tribo. Não será necessário repetir aqui todos os já tão bem conhecidos problemas lógicos e epistemológicos dessa posição. Thomas Nagel já se deu o trabalho de elencá-los.

Embora equivocada, a reação do relativista manifesta claramente a percepção de que o discurso científico se torna cada vez mais hegemônico na sociedade hodierna. Praticamente não há um dia sem que o homem moderno não seja bombardeado por uma série de “pesquisas científicas” que “provam” que tal alimento faz bem à saúde, que tal outro prejudica seu organismo ou que determinado comportamento é “natural” e que outro não o é. O problema aumenta quando se tem em conta o poder que essas orientações têm de moldar o caráter e o pensamento de milhões de homens e mulheres no mundo inteiro. Sutilmente, o cientista vai se tornando não só o arauto da verdade, mas também o conselheiro em assuntos muito distantes de sua especialidade original. A pergunta óbvia é: “Por qual razão alguém deveria ouvi-los para além de seu campo limitado de estudo?”.

Não ser um cientificista ou um relativista não resolve o problema das relações da ciência com a filosofia e com outras atividades ou dimensões humanas. Significa somente não abraçar nenhum dos extremos do debate. É mais fácil apontá-los e rejeitá-los do que dizer em qual ponto entre esses limites deve estar a verdade. Não há solução fácil para essa questão. Mas um bom ponto de partida é reconhecer as diferenças entre filosofia e ciência e tentar estabelecer um diálogo que não passe pela capitulação de uma das duas. Isso significa, para a filosofia, abdicar do projeto “cartesiano” de determinar a priori quais são os princípios metafísicos a partir dos quais todas as pesquisas científicas devem se dar. E, para a ciência, atentar para o fato de que o real jamais pode se esgotar ou se reduzir a qualquer um de seus aspectos e, ao mesmo tempo, admitir que há perguntas legítimas e pertinentes que estão fora daquilo que seus métodos permitem averiguar.

Princípios universais

Seria ocioso não admitir que a ciência alcança verdades sobre o real. Não se constroem naves espaciais, satélites, celulares, aviões e carros sem conhecer algo do mundo. Mas o que ela alcança são os aspectos permitidos por sua metodologia e por seus pressupostos conceituais e ontológicos. Escolhas filosóficas já estão presentes como elementos constitutivos desse processo. Uma maior clareza com relação a esses pontos é imprescindível para uma compreensão mais profunda da própria atividade científica e de seus limites intrínsecos.

Cumpre notar que a filosofia não deve viver “à reboque” da ciência, restringindo-se a pensar e a refletir somente sobre problemas e dados levantados por esta última. Há que se admitir que a filosofia tem suas próprias questões e que, para muitas delas, a ciência tem pouco ou nada a contribuir para sua solução. Da mesma forma, o cientista não precisa de um filósofo ao seu lado no laboratório questionando cada passo do processo de pesquisa e pedindo sempre novas razões para suas ações. O melhor encontro entre a filosofia e a ciência ainda se dá na consciência do indivíduo que almeja compreender o mundo em sua integralidade e que, para isso, busca apreender as relações entre os diversos níveis do real e uni-los sob princípios cada vez mais universais.
  

Rogério Soares da Costa é pesquisador, professor e tradutor. Possui graduação em Filosofia pela UERJ (2005), mestrado (2007) e doutorado (2011) em Filosofia pela PUC-Rio. É pesquisador de pós-doutorado na UERJ, onde investiga as relações entre metafísica e física na obra do físico, filósofo e historiador da ciência Pierre Duhem.

sexta-feira, 18 de janeiro de 2013

Bem vindo a matemágicalandia.

Autor: Roberto das Neves



A equipe de Walt Disney criou uma animação nos anos 50, (cujo vídeo eu publico no final deste texto), onde o Pato Donald, entra em um mundo mágico e faz um tour guiado pelo espírito da aventura.

Esse mundo é o mundo da matemágica, mas na verdade, não há nada de mágico nele, pois o que é apresentado ao Donald, é o nosso mundo, onde ele aprende que existe uma linguagem usada para traduzir e demonstrar de forma lógica e racional, o universo e o seu funcionamento, e essa linguagem, é a matemática.

Donald descobre que esta linguagem pode explicar tudo o que existe, e que o domínio desta linguagem, pode ser usado como ferramenta para criar quase tudo àquilo que nosso intelecto imaginar, sendo que, esta linguagem, é usada inclusive, pela própria natureza.

A natureza nos fala pela matemática, e pela matemática aprendida, desvendamos os seus segredos.

Não há nada de mágico nisto, pois ao descobrirmos como traduzir esta linguagem e usa-la, percebemos que a mágica é apenas fantasia e tudo pode ser explicado de forma lógica e racional, se algo não puder ser explicado por esse ferramental, significa que esse algo não existe, não pertence ao mundo real, pertence apenas ao mundo da fantasia e da imaginação, sendo assim, irreal.

A matemática é natural e explica tudo aquilo que é natural, tudo aquilo que é real e existe, e pode ser usada para criar coisas que ainda não existem desde que, sejam usados para a sua criação, matéria e energia existentes naturalmente, tudo depende da tecnologia a qual dispomos no momento.

Se algo não pode ser explicado pela linguagem matemática, este algo não existe, não pode vir a existir e não pode ser criado.

Mas, nem tudo são flores...

Tudo ia bem, no mundo da ciência, até o momento em que se contestou a causalidade.

Causalidade

Princípio fundamental da "razão aplicada ao real, segundo o qual "todo fenômeno possui uma causa", “tudo o que acontece ou começa a ser supõe, antes dele, algo do qual resulta segundo uma regra" (Kant). Em outras palavras, princípio segundo o qual se podem explicar todos os fenômenos por objetos que se interagem, que são definidos e reconhecidos por meio de regras operatórias.

Segundo a concepção racionalista, a causalidade é um conceito a priori necessário e universal, isto é, independente da experiência e constituindo-a objetivamente: todas as mudanças acontecem segundo a lei de ligação entre a causa e o efeito.

Hume critica a concepção clássica de relação causal, segundo a qual um fenômeno anterior (causa) produz um fenômeno posterior e consequente (efeito), argumentando que essa relação não se encontra de fato na Natureza, mas apenas reflete nossa forma habitual de perceber as relações entre fenômenos. A causalidade não expressa, assim, uma lei natural, de caráter necessário, mas uma projeção sobre a natureza de nossa forma de perceber o real.


A partir desse momento, a ciência passa a não buscar a causalidade, por considera-la não natural, e passa a analisar apenas os efeitos, afirmando inclusive, que muitas coisas não possuem uma causa necessária para gerar um efeito.

Isso está ligado ao conceito de que, passado, presente e futuro estão conectados de forma simultânea, ou seja, acontecem ao mesmo tempo, e se acontecem ao mesmo tempo, não existe a necessidade de uma causa, uma vez que o efeito poderia existir juntamente com a causa.

Assim, como os efeitos são mais facilmente verificáveis, abandonou-se a busca pelas causas.

Mas seria realmente a causa, algo não natural?

Não seria na verdade, o tempo, este sim, uma projeção sobre a natureza de nossa forma de perceber o real?

Eu fiz uma longa explanação num texto onde defendo a hipótese de que o tempo não existe, uma vez que a natureza não necessita do tempo para funcionar, o tempo só existe enquanto fator psicológico nos seres vivos para se localizar no seu próprio espaço, o link para o texto, é esse aqui:


Ora, então, se é o tempo que não existe, então a causa existe.

A questão é que muitas vezes, não conseguimos apontar a causa correta para a existência de um fenômeno.

Ao apontamos a causa errada, ou não apontarmos uma causa, apesar de podermos analisar seus efeitos, estes não poderão ser conectados com a verdadeira causa, esta não conexão, irá gerar o desencadeamento da criação de uma série de equações matemáticas analíticas, que descambarão para o mundo da fantasia e do irreal.

Um mundo onde todas as coisas que se pode imaginar, podem ser possíveis, por mais descabidas que sejam: viagens no tempo, viagens com naves espaciais com velocidade igual ou maior do que a velocidade da luz, dobras espaciais, tele transporte, universos paralelos, múltiplas dimensões, etc., etc., etc..

Se não existem causas que geram os efeitos, tudo é permitido e tudo é possível na criação de fórmulas matemáticas, mas, essas fórmulas matemáticas, dirão apenas aquilo que queremos que digam, mas não dirão necessariamente a verdade do mundo real, uma vez que houve uma ruptura do pensamento lógico e da razão entre o real e o imaginário, causada pela nossa não capacidade em perceber que: causas geram efeitos e que efeitos não existem sem causas.

E o pior nessa história toda é que, ao deixarmos as causas de lado e nos preocuparmos apenas com os efeitos, esquecemos a necessidade de verificar as causas postuladas até aquele momento, as causas propostas por Newton, por Einstein e por muitos outros.

Assumimos que estas causas anteriormente postuladas estão corretas, são elas que geram determinados efeitos e não mais precisam ser verificadas.

Nem nos passa pela cabeça, que talvez, algumas dessas "consagradas Causas", estejam completamente erradas, que talvez, não sejam essas causas apontadas, as causas geradoras dos efeitos, nós simplesmente não fizemos as devidas e necessárias verificações, apenas as aceitamos, por acreditarmos que estejam corretas, pois a matematização formulada, indicava isso.

Só que, se a formulação tiver sido feita, baseada em uma causa errada, as fórmulas matemáticas não nos dirão isso, estaremos então, sendo iludidos pelos resultados.

Se estivermos sendo iludidos, isso significa que toda a estrutura teórica em que nos baseamos para criar novas teorias até hoje, a partir daqueles resultados, pode estar completamente equivocada, entramos por um caminho errado, matematizando mundos irreais, e tudo aquilo que estamos acertando matematicamente, na verdade, está sendo acertado no chute. 

É nossa a falha, em relação a apontar as causas erradas ou não aponta-las, não é culpa da linguagem matemática, nós prostituímos a linguagem matemática, transformando-a de algo natural, para algo completamente artificial.

Pobre Pato Donald, se ele viaja-se para a terra da Matemágica hoje, iria encontrar em seu lugar, um bordel.



segunda-feira, 14 de janeiro de 2013

A consciência, a nanotecnologia e o fator da irredutibilidade.


Autor: Roberto das Neves



Muita gente se pergunta se insetos, vírus, células e até mesmo moléculas e partículas, poderiam ter algum tipo de consciência sobre si mesmo, um sistema gerador de pensamento complexo.

A resposta é não.

O pensamento, a consciência, é um fator gerado pela quantidade e a quantidade não pode ser reduzida, pois, quanto mais se reduz a sua quantidade, menor é o fator gerador da consciência.


A autoconsciência existe em vários graus, um humano tem um grau de autoconsciência maior do que um macaco. E a escala vai caindo, de acordo com a quantidade de neurônios existente em cada ser vivo, que é usada exclusivamente para a formação de pensamento e ideias.

Por exemplo, um macaco quando olha um espelho, reconhece a si mesmo no reflexo, um cachorro, não.

A autoconsciência é então, o ato de reconhecer a si mesmo...

Neste sentido, quanto mais células nervosas um ser possui, que não estejam comprometidas com outras funções motoras ou metabólicas, maior é o fator de consciência, e não é possível miniaturizar uma célula nervosa biológica, fazer seu tamanho diminuir para ocupar um menor espaço no crânio, se fosse possível, a própria natureza, por meio da evolução, teria desenvolvido um meio para isso.



Algumas pessoas podem cogitar sobre a autoconsciência, em relação ao tamanho do cérebro de um elefante ou de uma baleia, que são bem maiores que um cérebro humano, e possuem muito mais neurônios, e dessa forma, teorizarem que estes animais poderiam alcançar futuramente, uma auto consciência.

Mas se esquecem que estes cérebros, gastam uma enorme quantidade de energia e funções para controlar seus movimentos e seu metabolismo, devido aos seus enormes tamanhos, sobrando pouca coisa para um sistema autoconsciente poder emergir, uma vez que, todos os seus neurônios são usados para executar essas funções de sobrevivência comandadas por seus genes..

Tomemos agora como exemplo, um tipo de vespa, que, para se reproduzir insere seus ovos dentro de outro inseto, para que o ovo se desenvolva em larva e se alimente desse hospedeiro ainda vivo.

Se esta vespa tivesse um sistema nervoso altamente evoluído através de células nervosas miniaturizadas, para assim possuir a mesma quantidade de células nervosas que possui um ser humano ou outro animal com algum grau menor de consciência, e dessa forma, ser, ela a vespa, também possuidora de consciência, ela possivelmente começaria a se questionar sobre sua forma de reprodução...

O que a move, não é o pensamento semi ou consciente, mas sim, o pensamento que a sua quantidade de neurônios lhe permite, sendo esse pensamento comandado pelas instruções contidas em seus genes.

Outras pessoas poderiam cogitar sobre a consciência emergindo de uma comunidade social, como por exemplo, um formigueiro.

O cérebro de uma formiga possui aproximadamente 2,5×10 elevado à 5ª potencia de neurônios, enquanto o cérebro humano possui aproximadamente 1,0×10 elevado à décima potencia de neurônios.

Portanto, uma colônia de 40.000  formigas possui o mesmo número de neurônios que um cérebro humano.

A questão é que existem vários tipos de formigas especializadas dentro de um formigueiro, e cada tipo de formiga, possui uma quantidade de neurônios maior ou menor, justamente para exercer adequadamente suas funções especializadas.

Isso significa que, todos os neurônios de uma formiga, são totalmente dirigidos pelas instruções contidas em seus genes, não sobrando neurônios livres para, em grupo com a colônia, serem usados para a formação de uma consciência coletiva.

Isso nos leva à questão da nanotecnologia, seria possível desenvolver nano robôs conscientes?

A resposta é não.


Os neurônios variam muito de comprimento em função do seu axônio. Alguns axônios podem medir alguns milímetros e outros podem chegar a 1 m. O diâmetro do neurônio é de cerca de 0,1 mm.

Se conseguirmos construir um nano robô do tamanho de um neurônio,  e acredite, este seria um nano robô grande, para que este nano robô funcione, será necessário que ele possua dentro dele, uma série de neurônios cibernéticos que farão com que ele possa executar várias funções necessárias, tal qual os neurônios que uma formiga possui, a questão maior, é que, para que o nano robô funcione e possa alcançar uma auto consciência coletiva, além dos neurônios usados para o seu funcionamento, seria necessário se acrescentar outros neurônios que executariam a função de neurônios livres, para daí, este nano robô, ligar-se em rede com outros nano robôs, para formar uma consciência.

Só que o problema final está na irredutibilidade, ora, um nano robô do tamanho de um neurônio, para funcionar pelo menos, como uma mera formiga, para executar sua funções, necessitaria possuir a seguinte quantidade de neurônios: 2,5×10 elevado à 5ª potência, quantidade essa, que deveria ocupar um espaço menor do que um neurônio biológico ocupa, pois, estes neurônios cibernéticos seriam apenas uma parte de todo o nano robô.

A miniaturização necessária para se criar um nano robô cibernético funcional, com células cibernéticas funcionais de tamanha ordem de miniaturização, sabendo-se a enorme quantidade de neurônios cibernéticos necessária para que um nano robô do tamanho de uma única célula neural biológica, funcione adequadamente, não é nem um pouco provável, por mais fé que se tenha na hipotética possibilidade.


Esses nano robôs, para desenvolver uma consciência, dependeriam assim, de um cérebro externo, com o tamanho suficiente para possuir um sistema nervoso cibernético, com a enorme quantidade de células nervosas cibernéticas necessárias, para controlar as ações de todos os nano robôs, através de ondas de rádio, além de uma enorme quantidade extra de neurônios livres, para fazer emergir uma consciência.

Mesmo assim, os nano robôs, não seriam conscientes, mas seriam na verdade, apêndices rádio controlados por uma consciência externa.

O máximo que poderemos fazer, são nano robôs com a inteligência suficiente para efetuar pouquíssimas ações pré-programadas o que em última análise, não seria uma inteligência propriamente dita, eles seriam apenas autômatos com instruções para executar algumas ações de forma mecânica.

E só lembrando, ainda levará muito tempo, para conseguirmos desenvolver um cérebro robótico semiconsciente, muito, muito tempo mesmo, o que dirá então, de um robô totalmente consciente...
.
.
.

quinta-feira, 10 de janeiro de 2013

O experimento da dupla fenda e o nascimento da religião quântica.

Autor: Roberto das Neves
.
Uma proposta para um novo experimento de dupla fenda, visando corrigir algumas aberrações analíticas contidas na mecânica quântica.

Todo mundo que estudou física na escola, já leu sobre o experimento da dupla fenda de Young, realizada no ano de 1.801 e repetida em 1.961, onde supostamente se comprovaria que uma partícula se comporta ora como corpúsculo (algo físico) e ora como onda (vibração ou propagação ondulatória não física).





E todo mundo conhece a “brilhante” dedução dos cientistas da época, ao fazerem a medição do experimento, e notarem que, quando se tentava observar (medir) o experimento, o corpúsculo sempre se apresentava como partícula e não como onda, e quando não se se observava (media-se) o experimento, o corpúsculo comportava-se como onda e não como partícula.

A “brilhante” dedução foi a seguinte: O corpúsculo sabia quando iria ser medido e por isso comportava-se como partícula, e quando sabia que não seria medido, comportava-se como onda, atravessando as duas fendas ao mesmo tempo.

Isso significa que todo evento, sofreria interferência do observador.

Mas, significaria também, que de alguma forma, a partícula teria algum tipo de consciência, para sentir quando está sendo observada ou não, e comportar-se de acordo com o evento observacional.

Outra “brilhante dedução”, é que a partícula em estado de onda, poderia estar em dois lugares ao mesmo tempo, permitindo que esta, atravessa-se as duas fendas em um mesmo instante.

Agora pense bem: Ao se lançar elétrons um a um e observarem um efeito tipo onda tal qual observado com o experimento da água, a conclusão, mais plausível, seria que: os elétrons estão interagindo com o meio, ou seja, o ambiente está repleto de fótons de luz, neutrinos, átomos, moléculas de ar e muitos outras partículas e sub-partículas, que geram o efeito onda.

No entanto, eles fizeram a "brilhante" dedução: A partícula se divide em duas causado pelo efeito onda.

Se essas deduções estivessem corretas, poderíamos fazer uma experiência com dez fendas ao invés de duas, e a partícula se dividiria em dez? (é muita viagem na maionese...)

Destas "brilhantes" deduções, concluíram que todo evento, para acontecer (se comportar) de uma forma ou de outra, necessita de um observador, e, para se explicar e comprovar isso, criou-se o experimento mental denominado: “experimento do gato de Schrödinger”, que determina que: Um evento só se cristaliza em uma realidade ou outra, no momento em que esta for observada (medida).



Enquanto o evento não for medido ou observado, ele ficaria em um estado “quântico”: o gato estará vivo ou morto, ao mesmo tempo, sendo que, um dos eventos só tornar-se-á realidade, no momento de sua medição ou observação.

Se isso fosse realmente verdade, o universo não existiria, pois, para existir, seria necessário um observador, algo consciente, para quebrar o estado quântico, para que o evento seguisse uma ou outra condição.

Contudo, os cientificistas rechaçam essa ideia, afinal, afirmar a existência em um Criador consciente, os deixaria de mãos atadas, não é mesmo?

Como sair dessa enrascada?

Isso gerou hipóteses e deduções absurdas que deram origem a todo o arcabouço “científicista” que culminou no estabelecimento de uma nova forma de Física, denominada: “Mecânica quântica”, onde causa e efeito, não podem ser precisamente quantificados, e formalizando que, nem todo efeito tem uma causa passível de ser explicada ou existente, usando-se para explicar os fenômenos, cálculos e tabelas probabilísticas, que definiriam o percentual de probabilidade de um evento ter ou não uma causa ou se comportar de um ou de outro modo.

Tudo isso, para evitar e esconder a verdade: Realmente existe um Criador.

Assim, a física passa a deixar de lado a causa, tornando-a algo não passível de ser quantificado, pois acreditam que muitas coisas podem não ter a necessidade de uma causa, e passa então, a se importar apenas com os efeitos, pois estes, podem ser "medidos", mas, diga-se de passagem, nunca de forma plenamente satisfatória, pois o que passa a ser utilizado para explicar os efeitos e suas consequências, é a probabilidade.

E essa nova forma de se pensar a física, foi um prato cheio para os místicos de plantão corroborar suas mais insanas ideias, ideias que acabaram influenciando profundamente os próprios físicos teóricos, experimentalistas e matemáticos, de tal forma, que hoje, acredita-se nas coisas mais absurdas, porque seriam matematicamente e probabilisticamente prováveis.

Mas, uma fórmula matemática, diz aquilo que queremos que diga, mas, não diz necessariamente, a verdade.
E essa influência mística acabou cegando a razão e a lógica da maioria daqueles que se dedicam às ciências.
Hoje, estes experimentos e suas “deduções quânticas” são ensinados como “verdades absolutas”.

Doutrinam-se os alunos, pois os professores também foram doutrinados a acreditar nessas “verdades teóricas” baseadas em suposições que não se baseiam nos resultados Experimentais, se baseiam em achismos.

E esses alunos, tornaram-se cientistas e professores que continuaram e continuam disseminando doutrinariamente essas “verdades”.

Mas, existe uma explicação mais lógica, mais racional, mais causal para explicar os resultados obtidos no experimento da dupla fenda, fazendo-se um novo e mais elaborado experimento?

Sim, existe e passarei a lhes narrar, neste momento, um experimento mental e um experimento prático (real) desenvolvidos por mim, para a efetuação de experimento prático de dupla fenda feito em ambiente de vácuo semi ou total:

Todo corpúsculo, seja ele um elétron ou um fóton, ou qualquer outra partícula ou sub-partícula, possui um movimento denominado “movimento Spin”, que significa que: uma partícula gira em torno de seu próprio eixo.
Esse movimento giratório, afeta todo o meio onde a partícula se desloca, gerando ondas vibracionais em todas as outras partículas e sub-partículas que estão nesse meio, e essas outras partículas, afetam a partícula que iremos medir, pois também geram ondas vibracionais devido aos seus movimentos de deslocamento e rotação Spin (um efeito cascata).

Isso significa que: Toda partícula física, gera "ondas" vibracionais através de seus movimentos de deslocamento e rotação (Spin) desde que, elas estejam em um ambiente propício, onde as "ondas" geradas por sua rotação afetarão outras partículas, ou seja, em um ambiente de não vácuo total, pois as partículas estarão se chocando com sub-partículas, partículas, átomos e moléculas.
Em todos os experimentos efetuados sobre a dupla fenda, jamais se testou o experimento em um ambiente de vácuo total ou de semi-vácuo.

E o motivo é simples: Não existe o vácuo total, tanto na natureza, quanto na forma artificial laboratorial.

Mesmo em um experimento físico que supostamente seria de vácuo total, este na verdade, não o seria. Fótons, neutrinos, e um enorme número de sub-partículas, estariam constantemente atravessando essa suposta câmera experimental de vácuo total, na verdade, a câmera seria na realidade, uma câmera de semi-vácuo.

Um experimento de vácuo total, só pode ser elaborado através de experimento mental, em um experimento mental, tudo vale, tudo pode ser concebido, mas, pensar no experimento, não o torna real ou possível.

Então, pensemos como seria esse experimento num ambiente de vácuo total:
Uma partícula que fosse lançada de um ponto A para B, seria medido de ponta a ponta do evento, como somente partícula, e atravessaria ou uma ou outra fenda, nunca as duas fendas ao mesmo tempo, pois seu movimento spin não teria como afetar um meio onde não existe nada que o movimento rotacional poderia interagir, ou seja: outras partículas (para gerar o efeito de ondas, que atravessariam as duas fendas ao mesmo tempo).

É preciso lembrar também, que em um experimento de vácuo total, não pode haver interferência da luz ambiente, pois, a luz, é gerada pelo fóton, que é uma sub-partícula.

Então, o experimento de vácuo total, deveria ser feito em câmara à prova de luz (lembrando que este experimento, só existiria em sua mente, não poderia ser realizado de forma física, real).

Já, num experimento de semi-vácuo, em câmera à prova de luz, este sim, um experimento real (que pode ser realizado fisicamente), as ondas medidas, terão uma menor intensidade, do que as ondas medidas em um ambiente experimental sem vácuo e não à prova de luz, como normalmente é realizado, pois as ondas geradas pelas partículas interagirão com um ambiente com menor interferência.

Então, temos três tipos de experimentos:
1) Experimento em vácuo total, que só pode ser realizado por experimento mental (e não um experimento real).

Nesse experimento mental, a partícula lançada, não geraria o efeito de onda, além disso, ela passaria por uma, ou outra fenda, nunca pelas duas.

2) Experimento em semi-vácuo à prova de luz, (experimento real, que pode ser realizado fisicamente, mas que nunca foi realizado).

Nesse experimento físico (real), notaremos que a partícula gerará o efeito de onda, mas esse efeito será muito menor do que o efeito observado no experimento sem vácuo.

3) Experimento sem vácuo, com ausência de vácuo (experimento real, que é o experimento que sempre foi e é realizado, e deu origem à “pataquada” da mecânica Quântica).

Nesse experimento físico (real), notaremos que a partícula lançada, gerará o efeito de onda, de forma intensa, pois o meio estará repleto de partículas e sub-partículas em movimento e em constante choque entre elas, gerando enorme quantidade de ondas, que, erroneamente, são atribuídas unicamente à partícula lançada no experimento.

Com esses experimentos, constataremos os seguintes resultados:
Toda partícula, gera "ondas", através de seu movimento de deslocamento e rotação (Spin).

Estas ondas só se propagam em um ambiente propício, ou seja, um ambiente onde existem outras partículas e sub-partículas que serão afetadas por seu deslocamento e rotação Spin, gerando um efeito cascata (partículas interagindo (se chocando) com outras partículas e sub-partículas).

O movimento Spin, não se propaga no vácuo total, pois neste ambiente fictício, as "ondas" geradas pelo movimento, não tem como interagir com outras partículas e sub-partículas, que também gerariam "ondas", em um efeito cascata (ondas afetando outras partículas que gerariam outras ondas).

Se o movimento Spin, não se propaga no vácuo total, significa que nesse meio, ele não gera "ondas" vibracionais perceptíveis, pois elas não têm com que interagir.

A partícula, irá sempre passar por uma, ou por outra fenda, mas nunca pelas duas fendas ao mesmo tempo.
São as ondas geradas pelo movimento Spin que afetam o meio propício, causando a ilusão de que a partícula, em um suposto estado de "onda", atravessaria as duas fendas ao mesmo tempo.

A partícula passa por apenas uma fenda, mas suas "ondas" passarão pelas duas fendas, desde que, o ambiente possua meios suficientes para o deslocamento e rotação Spin interagirem (ambiente contendo outras partículas e sub-partículas que se chocarão para causar o efeito de "onda").

Mas, se no experimento de vácuo total (experimento mental), lançarmos várias partículas ao mesmo tempo, de um ponto A para um ponto B, todas elas irão afetar umas às outras, pois seus movimentos Spin irão interagir umas com as outras, gerando o efeito de ondas, passíveis de serem observadas e medidas, uma vez que, o ambiente de vácuo total, deixaria de ser vácuo total, devido à quantidade de partículas nele inserido.

E com esses experimentos, se forem efetuados de forma correta e isenta, e seus resultados comprovarem minhas hipóteses, colocaremos mais uma grande pá de terra, na cova de algumas das moribundas e malfadadas explicações viagem na maionese,
que deram origem a uma série de equívocos místicos quânticos, que transformaram a ciência em uma quase religião, sempre lembrando que: Não é toda a hipótese quântica que está errada, mas sim suas premissas analíticas baseadas em achismos fantasiados com matemática, precisamos corrigir alguns percalços nela contidas, para chegarmos aos fatos corretos.

 E para encerrar:


.
.

.

quarta-feira, 2 de janeiro de 2013

Teoria do Big Bang, uma teoria muito mais filosófica do que científica.



Autor: Roberto das Neves.
.
.
Muitas pessoas que apoiam e defendem a teoria do Big Bang, não percebem que esta teoria, é na verdade mais filosófica do que científica, e dessa forma acabam vendendo gato por lebre...



Foi um padre chamado Georges Lemaître, formado em física, quem propôs essa teoria.
A hipótese de Lemaître estipula que todo o universo (não somente a matéria, mas também o próprio espaço) estava comprimido num único átomo chamado de "átomo primordial" ou "ovo cósmico". O estudioso afirmava que a matéria comprimida naquele átomo se fragmentou numa quantidade descomunal de pedaços e cada um acabou se fragmentando em outros menores sucessivamente até chegar aos átomos atuais numa gigantesca fissão nuclear.
Foi Lemaître, portanto, quem propôs a Teoria do Big Bang, mais tarde desenvolvida e complementada por George Gamow.

Gamow apresentou a hipótese da expansão desse átomo primordial, complementando a teoria inicial de Lemaítre.

As questões que coloco ao afirmar que esta teoria é muito mais filosófica do que científica, baseia-se nas seguintes informações:

Toda teoria nasce primeiramente com uma teoria filosófica, e somente torna-se científica quando, através de experimentação, comprovamos os acertos desta teoria, conforme escrevi em meu artigo: Teorizando as teorias: http://gilghamesh.blogspot.com.br/2012/08/teorizando-as-teorias.html

No caso da teoria do Big bang, esta, carece muito de dados comprobatórios que confirmem suas hipóteses.

Primeiramente, não existe uma única comprovação sequer de que o universo surgiu de um único átomo que deu origem a toda a energia e matéria existentes hoje.
Lemaítre e Gamow, jamais conseguiram explicar como, um único átomo pode gerar outros átomos do nada.

Eles jamais conseguiram explicar como e por quê, esse único átomo explodiu e causou uma expansão, gerando, além de toda a matéria e energia, o tempo e o espaço.

A hipótese da expansão, afirma que esta expansão ocorreu com uma velocidade maior do que a velocidade da luz, contrariando a lei que afirma que não existe nada que possa viajar pelo espaço, que seja mais rápido do que a luz. Para contornar este problema, os teóricos afirmam que, o espaço não existia até a explosão desse átomo, e assim, existiria a possibilidade de a expansão ser mais veloz do que a velocidade da luz, uma vez que o espaço seria criado juntamente com a expansão do universo.

Apesar desta afirmação, nenhum físico teórico ou experimentalista, jamais conseguiu comprovar esta hipótese de expansão mais rápida do que a luz.
Mas a questão fulminante é a questão da força gravitacional.

Quando Newton criou a teoria da força da gravidade, afirmou que esta força era gerada pela massa, mas, nunca conseguiu explicar como a massa cria ou gera essa força gravitacional.
Einstein procurou melhorar a lei da gravidade, proposta por Newton, mas apesar de seus esforços, nunca conseguiu também, explicar como a massa é capaz de gerar a força gravitacional.

Os físicos defensores da mecânica quântica, que afirmam ser a teoria do big bang, algo que realmente aconteceu, para explicar o que é a força gravitacional, que não é explicada pela teoria do Big bang, propuseram que esta força é gerada por uma partícula chamada de gráviton.

Mas essa proposta não explica absolutamente nada, primeiramente, porque afirmar que existe uma partícula responsável pela força gravitacional, apenas acrescenta mais um vagão em um trem teórico, sendo que esta hipótese, não explica como essa partícula gera a força gravitacional.

E finalmente, além de não explicar, tal partícula chamada de gráviton, jamais teve sua existência confirmada, tal qual a existência do Bóson de Higgs, outra masturbação teórica quântica não confirmada pela experimentação, e não venham afirmar que a equipe do LHC conseguiu confirmar a existência do Bóson de Higgs,  pois eles não o confirmaram, eles encontraram não uma, mas duas partículas e afirmam ter 99,99% de chance de uma dessas partículas ser o tal bóson de higgs, apesar de todo o alarde em torno disso, não dá para afirmar que o bóson de higgs realmente existe, o que eles encontraram pode ser apenas mais duas partículas não responsáveis pela massa e não o bóson de higgs propriamente.

É muito temerário afirmar sem sombra de dúvida que o bóson de Higgs, realmente existe, aguardemos os estudos finais sobre esse assunto, eu pessoalmente aposto no fracasso da comprovação final de que ele exista, vamos esperar...


O grande problema da teoria do big bang, é que nela foi juntada hipóteses com teorias, vale aqui lembrar a diferença entre as duas coisas...

O ovo cósmico que teria dado origem a tudo é apenas uma hipótese não comprovada, e nunca será...

A chamada "expansão do universo" é também uma hipótese, pois a única coisa que lhe daria certa credibilidade seria o efeito redshift observado por Hubble, ao afirmar que as galáxias estão se afastando uma das outras a grandes velocidades, sendo que as galáxias que tendem para o vermelho estão mais distantes e se afastando mais rapidamente, e as com desvio para azul estão mais próximas de nós, afastando-se mais vagarosamente.

No entanto, a afirmação de Hubble é mais hipótese do que teoria, caso a expansão existisse e as galáxias se afastassem uma das outras, como explicar a série de galáxias que estão em rota de colisão, sendo que, várias fotos demonstram que estas colisões estão acontecendo entre galáxias com amplitude de raio vermelho, contra galáxias com amplitude de raio azul,  como elas poderiam estar colidindo, se as suas amplitudes, segundo diz a teoria de Hubble demonstrariam que elas estão  muito distantes uma das outras, tornando uma colisão entre elas impossível? Lembre-se: "as galáxias que tendem para o vermelho estão mais distantes e se afastando mais rapidamente, e as com desvio para azul estão mais próximas de nós, afastando-se mais vagarosamente."

Alguns pesquisadores estão estudando novas hipóteses, e uma delas define que o universo não está em expansão, mas sim, gira em torno do seu próprio eixo, fazendo com que as galáxias que estão mais próximas do seu centro gravitacional, orbitem o núcleo mais rapidamente e que, as galáxias mais afastadas do seu núcleo orbitem mais vagarosamente, o efeito redshift, seria a comprovação desse movimento e explicariam ainda, por que muitas das galáxias estão em rota de colisão...

Se observarmos a foto abaixo, podemos hipoteticamente dizer que o que se afirma ser lente gravitacional, segundo a teoria de Einstein, seria na verdade, o movimento mais rápido ou mais lento, das estrelas em torno de seu centro gravitacional:




As estrelas mais próximas do centro, orbitam mais rápido emitindo luz vermelha e as estrelas mais afastadas, orbitam mais vagarosamente, emitindo luz azul...

No entanto, essas novas hipóteses, também não explicam como a massa pode gerar força gravitacional (se é que a massa gera realmente algum tipo de força...)...


No entanto, apesar da teoria do big bang ser falha, foi agregada a ela, uma série de teorias válidas, como por exemplo, a teoria da formação das estrelas de Bethe e Brow a a teoria de Fowler sobre a formação da matéria.

Ambas as teorias estão recheadas de evidências comprobatórias e são elas as únicas a fazerem parte da teoria do big bang, que realmente se sustentam, fazem sentido e são comprováveis.



Uma teoria que tenta explicar o surgimento do universo, sem levar em conta as forças gravitacionais necessárias para tal coisa, não tem valor nenhum, uma vez que dá margem a erros de interpretação sobre uma série de fenômenos. As forças eletro-magnéticas e nucleares, são muito bem explicadas, apontando suas causas e efeitos, já a força gravitacional, apontam uma suposta causa (a massa), mas jamais explicaram como e porque ela (a massa), gera tais efeitos...

Criar teorias é fácil, confirma-las, são outros quinhentos...

E enquanto isso, muita gente defende gato por lebre sem saber, somente porque alguns teóricos da mecânica quântica vendem seus gatos na televisão e livros “científicos”, como algo verdadeiro ou realmente possível, desonestamente, uma vez que vendem apenas teorias, e não, as confirmações de suas teorias...



Os seguintes físicos e cosmólogos, contestam a teoria do Big Bang:

Dr. Halton C. Arp, Andre Koch Assis, Geoffrey Burbidge, Margaret Burbidge, John Dobson, Professor Truls Hansen, Fred Hoyle, Eric Lerner, Martin Lopez-Corredoira, Kary B. Mullis, Jayant V. Narlikar, Jean-Claude Pecker, Anthony Peratt, Kristoffer Rypdal and Jack Sulentic.



.
.
.