sábado, 26 de janeiro de 2013

Teoria Padrão, os acobertamentos de um fracasso matemático.

Autor: Roberto das Neves



A teoria padrão, vulgarmente mais conhecida como Teoria do Big Bang, é uma teoria matemática, onde uma fórmula é o resultado de outra fórmula antecessora.

Para que você possa entender, apresento abaixo, a Fórmula completa:



A teoria padrão é o encadeamento sistemático de uma série de fórmulas iniciais, gerando outras fórmulas, com o intuito de se obter uma equação completa sobre o funcionamento do universo.

Muitos consideram essa equação, (pois foram ensinados e doutrinados a aceita-la), um triunfo do saber humano, o ápice da engenhosidade matemática que tudo pode explicar, usando-se a lógica e a razão, através da linguagem matemática.

Só que, a coisa não é bem por aí.

Pela lógica, se algo for encontrado através da observação, que não esteja de acordo com os resultados dessa formula, significa que a equação correspondente está errada em algum ponto do encadeamento de sua formulação.

Como a equação é o encadeamento de várias fórmulas que são resultado direto de uma equação antecessora, isso significa que a teoria, como um todo, pode estar completamente errada, apesar de confirmar algumas observações.

Você sempre ouve falar a seguinte máxima da ciência: “Se uma teoria não está de acordo com os resultados observados e obtidos, descarta-se a teoria e se formula uma nova e mais adequada teoria”.

Só que, não é isso o que temos visto em relação à teoria padrão.

Uma série de erros sistemáticos nela contidos tem sido acobertada, acrescentando-se afirmações “Ad hoc”, na tentativa de salva-la.

Mais abaixo, irei apontar esses erros, mas antes, é necessário entender-se, o porquê da tentativa desesperada, por trás do acobertamento sistemático das falhas, causadas por equações erradas contidas na teoria padrão.

São vários os motivos, e acredite, muitos dos motivos, tem o “imprimatur” das religiões.

Uma vez que a teoria padrão matematiza que, do nada, pode surgir tudo, as religiões utilizaram essa afirmação completamente “ad hoc”, para incluir o fator deus na equação, pois segundo as religiões, somente um deus ou deuses podem criar tudo a partir do nada.

E uma prova cabal disso, aconteceu em 1951, quando o Papa Pio XII, no dia 22 de Novembro, na Academia Pontifícia das Ciências, num discurso intitulado: "As provas da existência de Deus à luz das modernas ciências da Natureza" apoiou o modelo do Big Bang, entendido como interpretação científica do livro do génesis e argumento a favor da existência de deus.

Diz-se que a maioria dos cientistas que estudam o cosmos, são ateus, mas isso é uma inverdade, a grande maioria, ou é agnóstica ou é partidária de uma religião, apenas uma pequena parte dos pesquisadores é assumidamente ateia.

Ora, se assim o é, é grande o interesse dessa maioria, colocar as suas crenças, à frente da lógica e da razão, ao defender a teoria padrão.

Outro motivo, e esse é um motivo doutrinário, é que a grande maioria dos pesquisadores e professores atuais, foram ensinados nas escolas a não duvidarem da teoria padrão, lhes é ensinado que a teoria está correta e ponto final.

E o motivo último, é o motivo carreirista e egoísta. Um grande número de pesquisadores construiu sua carreira, e assim, manteve seu emprego e seu “status quo”, defendendo o “establishment” científico, baseado na defesa e pesquisa de resultados favoráveis, que apontem para o “sucesso dos acertos” para a comprovação da teoria padrão e relevando os resultados observacionais que refutam a teoria..

Mas, se você, enquanto jovem pesquisador, encontrar alguma coisa que não é prevista pela teoria, ou as suas observações de fenômenos astronômicos apontem para falhas contidas nas equações da teoria padrão, cuidado.

Sua pesquisa, ou será cancelada, ou então, você será “gentilmente” obrigado a mudar o foco de sua pesquisa inicial, de forma que não comprometa os “sacramentados” enunciados da teoria.

A teoria Padrão

A teoria padrão está assentada em quatro pilares principais: A teoria da relatividade de Einstein, onde nela, se formula a constante cosmológica, que matematiza e afirma que o universo é homogêneo, a teoria gravitacional de Einstein, que matematiza a forma como a gravidade atua, distorcendo o tecido espaço/temporal, a teoria de Lemaitré/Friedmann, que matematiza que todo o universo surgiu de um ponto extremamente compacto e extremamente quente, e finalmente, a teoria de Hubble, sobre a expansão cósmica, que matematiza que, o universo está em constante expansão, afastando as galáxias umas das outras, a partir do ponto inicial proposto por Lemaitré.

Todas as fórmulas restantes, constantes na teoria padrão, são desdobramentos decorrentes dessas quatro teorias matemáticas iniciais e o resultado dessas fórmulas, devem prever o funcionamento do universo observável.

Ok. Tá, bacaninha...

Só que...

Quanto mais os astrônomos observam o universo, mais o mesmo apresenta comportamentos anômalos, inconsistentes ou não previstos matematicamente pela teoria padrão...

E quando isso acontece, buscam-se explicações completamente filosóficas, explicações “ad hoc”, na tentativa de salvar a teoria e acobertar suas falhas, uma vez que carreiras profissionais inteiras, o “status quo” científico, e paralelamente e por baixo do pano, as religiões, defendem e dependem da manutenção desta, como a “teoria oficial”, ou, “a teoria mais completa e aceita”, pela sua “quantidade de acertos em suas previsões”...

Enfiando fundo o dedo nas feridas.

Existem interesses escusos na manutenção da teoria padrão, e você é constantemente bombardeado com informações selecionadas a dedo, para continuar acreditando que esta é realmente uma teoria válida e a mais precisa que existe, fruto do gênio humano que descobriu como o universo funciona.

Apresentando as evidências da falcatrua:

Todo mundo já está careca de ouvir e ler sobre matéria escura e energia escura, o que a maioria não sabe, é como surgiu essa teoria completamente “ad hoc”.

A formulação da teoria padrão predizia que existe uma quantidade X de matéria e energia que compõe o universo.

Ao se fazer as medições sobre esta quantidade de matéria e energia, constatou-se que ela é assustadoramente maior do que a teoria padrão propunha.

Em vez de se assumir que a teoria padrão estava incorreta em relação à quantidade de matéria e energia que de fato, realmente existe, para se salvar o restante das equações teóricas de seu fracasso, propôs-se uma alternativa “elegante”, mas puramente filosófica:

“Existe matéria e energia escura, que são responsáveis pela manutenção gravitacional do cosmos, essa matéria e energia, são não bariônicas, e por esse motivo, não podiam ser previstas pela teoria padrão”.

Oficialmente: “Na cosmologia, matéria escura (ou matéria negra) é uma forma postulada de matéria que só interage gravitacionalmente (ou interage muito pouco de outra forma). Sua presença pode ser inferida a partir de efeitos gravitacionais sobre a matéria visível, como estrelas e galáxias. No modelo cosmológico mais aceito, o ΛCDM, que tem obtido grande sucesso na descrição da formação da estrutura em larga escala do universo, a componente de matéria escura é fria, isto é, não-relativístiva. Nesse contexto, a matéria escura compõe cerca de 23% da densidade de energia do universo. O restante seria constituído de energia escura, 73% e a matéria bariônica, 4%.”.

Usa-se um jargão cientificista, para dar uma desculpa esfarrapada, para enrolar os leigos.

Mas, o que de fato seria essa matéria escura e essa energia escura?

Esse material não visível trata-se apenas de matéria que ainda está formando novas galáxias, estrelas, planetas, planetóides, asteroides e um grande número de escolho material.

Por não estarem ainda completamente formadas, essas novas estrelas ainda não entraram em fusão, para emitir luz visível que possa ser detectada, e mesmo que entrem em fusão, dependendo da distância em que se encontram, levarão milhares, milhões ou bilhões de anos para que, a luz que delas se irradiará, possa ser detectável por nossos equipamentos, contudo, a força gravitacional gerada por essa quantidade gigantesca de material, pode ser detectada, pois está sendo exercida já a milhões ou bilhões de anos de lenta formação.

Sem contar que existem evidências de planetas que estão vagando pelo cosmos, que não estão fazendo parte de um sistema estelar, esses planetas foram expulsos de suas órbitas devido à força gravitacional de outros planetas do seu sistema e tornaram-se planetas errantes, e eles, inclusive, tem um nome: são chamados de planetas órfãos e supõe-se que o seu número possa ser igual ou maior que o número de planetas orbitando normalmente uma estrela, fora isso, existem também evidências da existência de planetas, planetoides, asteróides, etc., que se formaram sem estarem necessariamente atrelados a órbita de uma estrela em formação.

Um interessante artigo sobre isso:


Ora, além desses planetas errantes expulsos e as estrelas ainda em formação, existe um sem número de escolho, ou seja, matéria de “pequenas proporções” que está transitando pelo universo livremente e que ainda não tem tamanho suficiente para ser detectado enquanto matéria, contudo a força gravitacional por eles emitida, também é detectável. Esse material será posteriormente capturado pela força gravitacional de uma estrela, e formará, juntamente com outros “cascalhos”, um planeta, um planetóide, uma lua, um asteroide ou um cometa.

Todo esse material, é responsável pela “matéria e energia escura”, ou seja, não existe matéria ou energia escura não bariônica, como foi proposta para salvar a teoria padrão, o que existe, é uma flagrante falha na teoria padrão, em relação ao seu resultado matemático sobre a quantidade de matéria e energia que efetivamente existe e o que ela prediz.

Para se acobertar essa falha, criou-se uma teoria bonitinha denominada: “matéria e energia escura”, que não se suporta, não se comprova pelas evidências observacionais, é uma hipótese fadada ao fracasso na tentativa de salvar mais um erro matemático grotesco.

No entanto, vende-se esse fracasso como uma vitória da teoria padrão, inverte-se o ponto de vista, para manter o “establishiment”.

Mas, a coisa não para por aí!

Outro flagrante erro contido na teoria padrão, cujas observações astronômicas a contradizem, refere-se ao efeito “redshift”, que comprovaria a teoria da expansão, nesta teoria matemática, afirma-se que a expansão existe e pode ser detectada pelo desvio de luz observado pelas galáxias.

As galáxias que estão se afastando mais rapidamente, apresentam um desvio de cor para o vermelho, as que estão se afastando mais vagarosamente apresentam um desvio para a cor azul.

Quanto maior o desvio para o vermelho, maior é a velocidade de expansão a que, esta galáxia está submetida.

Só que, a teoria padrão, não previa algo que está acontecendo e sendo constantemente observado por todo o universo, isso é mais um flagrante erro de sua matematização na proposta da expansão, e que a compromete totalmente: Milhares de galáxias estão em rota de colisão ou estão colidindo, ou ainda, já colidiram.

Em um universo que se propõe em perpétua expansão, onde, as galáxias afastam-se uma das outras, a partir de um ponto inicial, as colisões entre galáxias não poderiam ocorrer.

E, além disso, essas galáxias em colisão demonstraram outra falha teórica, uma anomalia em relação sobre a afirmação de que, o “redshift” demonstra e é prova da expansão do universo.

Ao se observar centenas dessas galáxias em colisão, observou-se que muitas delas, tinham um desvio para o vermelho, muito maior do que a outra galáxia com a qual ela esta colidindo, ora, isso significa que elas não poderiam estar colidindo, pois elas estariam milhares de anos luz, afastadas uma da outra.

No entanto, elas estão colidindo, numa flagrante comprovação em relação ao efeito matemático “redshift”, não poder ser usado como uma prova incontestável sobre a expansão do universo, e ainda mais, o efeito não é aquilo que a proposta matemática afirma ser!

Então, temos aqui, mais duas provas comprometedoras observacionais contra a teoria padrão: A colisão das galáxias, e o efeito “redshift” não correspondem com a matematização formal proposta, o efeito ”redshift”, não é correspondente com a proposta matemática teórica previsível.

As academias de ciências tentaram abafar o assunto e conseguiram, através de boletins jornalísticos (e não científicos). 
Afirmaram que tais galáxias não estavam em colisão, sendo isso, um mero erro de interpretação observacional.

Os astrônomos, profissionais pesquisadores, que relataram essas anomalias, ou foram afastados de seus cargos, ou tiveram suas pesquisas canceladas, ou ainda, foram marginalizados e estigmatizados, no entanto, as provas estão aí, para quem quiser se dispor a analisar.

Um vídeo interessante sobre esse controverso assunto, é este aqui:





E tem mais?

Pior é que tem sim...

Chegamos agora a Einstein, e sua Fórmula da “constante Cosmológica” que é parte integrante da teoria padrão e é um dos seus pilares.

A formulação matemática de Einstein, afirma que o universo é homogêneo e constante, ou seja, toda a matéria está distribuída de forma uniforme por todo o universo.

No entanto, astrônomos (sempre eles) têm observado anomalias no universo que comprometem terminantemente a “constante cosmológica”.

Trata-se de dois grandes atratores, que estão concentrando uma enorme quantidade de matéria em localizações distintas do universo e tornam o universo, não homogêneo.

Abaixo, os links sobre os dois atratores:



Em relação aos grandes atratores, o “establishment científico”, pouco ou nada tem ainda a dizer, devem estar procurando desesperadamente mais uma saída maquiada, hipotética e bonitinha, para mascarar novamente, a grande mentira que tem lhes dado o sustento e mantido suas carreiras bem sucedidas, guiadas pelo cabresto dogmático cientificista.

Provavelmente, tentarão mais uma vez, afastar a atenção do populacho leigo, com alguma “nova descoberta” que comprova a eficácia e o sucesso da teoria do big bang.

Outro detalhe que não é divulgado corretamente, é que o ruído de fundo, previsto pela teoria padrão, também é previsto em outras teorias sobre o surgimento do universo.

E se você for um leigo e discordar, sempre receberá aquelas respostas: “O que você entende da complexidade de uma fórmula matemática?”, ou ainda: “Você sabe ler uma fórmula matemática, para emitir uma opinião?”, ou ainda: “Vai estudar física antes de abrir a boca!”.

Mas, felizmente, esses são vômitos de alguns poucos chimpanzés, que acham que um diploma em física, os coloca em um patamar mais elevado da civilização, dando somente a eles, o aval e o direito, com os devidos paramentos sacrossantos do cientificismo, para tentar opinar sobre como funciona o universo.

Estamos vivendo um novo período do “Roma locuta, causa finita”, só que agora, na versão turbinada da ciência dogmática cientificista...

Além disso, alguns outros, nem chegarão ao final do texto, só com base no título, já darão a sua sentença: “Isso é apenas mais uma teoria da conspiração...”, e a unanimidade burra, acompanhará e apoiará a sentença, felizes da vida, por fazerem parte da “intelligentsia cientificista”, pois isso significa aparentemente, estar no topo da moda, onde, a “verdade” tem preço, é moldada e vendida ao bel prazer dos “formadores de opinião” e fartamente distribuída através de programas e entrevistas televisivas, enchendo os bolsos dos cientificistas, apoiados pelos mais diversos tipos de “gnósticos quânticos” que também lucram absurdamente com isso...

Palminhas para eles...

Mas, doa a quem doer, a questão permanece: Se partes vitais da teoria, responsáveis por todo o seu estruturamento estão incorretas, a teoria como um todo, apesar de acertar em alguns aspectos, é inválida e deve ser descartada, para dar lugar a uma nova teoria.

Remendar uma teoria constantemente, para encobrir seus erros, como tem sido feito com a teoria padrão, desestimula completamente os jovens formandos e também, os velhos pesquisadores, a buscar novas teorias que tentem explicar o funcionamento do universo de forma mais precisa e correta.

Assim, estes pesquisadores, entram em uma “linha de produção”, onde se estimula a fazer apenas mais do mesmo, e são ameaçados se não andarem feito robozinhos nesta linha, em nome da ciência.

Então, comprova-se que aquela velha máxima da ciência sobre: “Se uma teoria estiver errada, desfaça-se dela e crie uma nova”, torna-se apenas mais uma bela estorinha pra boi dormir e enganar os leigos e os jovens ou novos cientistas.

Aprenda: ande sempre na linha traçada pelo cientificismo, se não quiser receber a chibata cientificista dogmatica e a devida e irrevogável passagem para o ostracismo profissional.

E com isso, atrasa-se assustadoramente o desenvolvimento da verdadeira Ciência, a “Big Science”, responsável pela busca de melhores respostas, que resultarão em melhores e mais avançadas tecnologias, em prol da humanidade.
.
.
.

domingo, 20 de janeiro de 2013

Nos limites da ciência


Artigo de: Rogério Soares da Costa



Na primeira metade do século XVIII, um certo E. S. De Gamaches, físico e matemático francês, escreveu uma obra de astronomia na qual comparava os princípios científicos de René Descartes, o patrono das ciências francesas, com aqueles do Sir Isaac Newton, a glória máxima da Royal Society. O objetivo do obscuro autor era, como seria previsível, demonstrar a superioridade do racionalista francês sobre o empirista britânico. Esse poderia ser somente mais um capítulo da longa rivalidade que opõe franceses e ingleses, mas há nele algo que supera em muito as querelas e disputas entre nações. Na verdade, na discussão empreendida por De Gamaches está em jogo algo crucial para a própria história da ciência.

Em termos gerais, De Gamaches criticava Newton fundamentalmente por seu método. Segundo o polemista, o gênio britânico havia se limitado em suas obras científicas a geometrizar os fenômenos físicos sem jamais propor explicações para os mesmos. “Um fenômeno analisado geometricamente se torna para ele um fenômeno explicado”, afirma De Gamaches. No fundo, para o francês, Newton era bastante seletivo na escolha de seus problemas de estudo, só tratando daquilo que podia ter uma descrição geométrico-matemática. O veredito de De Gamaches é contundente e grave: Newton era ótimo geômetra, mas péssimo físico.
  
Visões opostas

O que há de tão importante na diatribe de um obscuro físico francês que, apegado ao mestre Descartes, distribuía perdigotos contra o gênio de Isaac Newton numa época em que as ideias deste tornavam-se hegemônicas e relegavam o cartesianismo ao esquecimento mesmo em terras gaulesas? A importância da discussão reside naquilo que é posto em questão implicitamente: “o que é fazer ciência?” Em outros termos, o que significa exatamente dar explicação de um fenômeno físico? Será dar as suas razões últimas ou somente fornecer uma descrição matemática acurada daquilo que é observado sem se comprometer com questões concernentes à natureza do real físico?




Em suma, nessa pequena polêmica são confrontadas duas visões opostas sobre a própria natureza da ciência. De um lado o cartesiano, para quem a física deve, antes de tudo, dizer o que é o real, e, de outro está o newtoniano que se limita a geometrizar os fenômenos sem se comprometer com hipóteses sobre a natureza última do real. É bem conhecida a afirmação de Newton no Escólio Geral dos Principia segundo a qual ele não “inventa hipóteses”, referindo-se aí às especulações acerca das possíveis causas de certas propriedades observáveis dos corpos. Há ainda discussões acadêmicas sobre como interpretar corretamente essa e outras declarações de teor semelhante espalhadas pelas obras do físico britânico, mas formou-se certa tradição na qual elas são interpretadas como declarações de cunho antiespeculativo ou antimetafísico. Newton estaria rejeitando a ideia de derivar as suas teorias de considerações filosóficas sobre a natureza própria das coisas e limitando-se a fornecer uma descrição matemática daquilo que pode ser efetivamente observado.

Não importa tanto saber se era isso ou não que Newton queria dizer naquelas declarações, mas sim perceber que essa interpretação enuncia uma posição teórica possível com relação à natureza da ciência que foi e ainda é abraçada por muitos filósofos e cientistas.

Embora Descartes quisesse refundar a ciência de seu tempo sobre novas bases, ele ainda permanecia ligado à ideia antiga de um conhecimento certo e verdadeiro do mundo físico. Toda a sua física se funda na apreensão pelo sujeito pensante de princípios claros e distintos – e, portanto, indubitáveis – a partir dos quais todo o edifício da ciência poderia ser rigorosamente deduzido. Em outros termos, a metafísica funda a física e, sem ela, qualquer ciência fica impossibilitada de realizar suas pretensões de conhecimento verdadeiro e certo. Resta evidente que tais princípios primeiros não são retirados da experiência e sim alcançados por meio de longas meditações de cunho exclusivamente filosófico.

Ora, o conflito até aqui apresentado pode ser visto também pelo ângulo das relações possíveis entre filosofia e ciência. Sob esse prisma, os “cartesianos” seriam aqueles para os quais o fundamento último do conhecimento não pode ser alcançado pela experiência, mas somente pelo pensamento, o qual, através da razão, apreende os princípios mais gerais que servirão de base para qualquer estudo do mundo físico. A favor de sua tese, seus partidários poderiam citar o fato de que nenhuma predição pode verificar definitivamente uma teoria, já que teorias falsas podem apresentar predições verdadeiras.

Por outro lado, os “newtonianos” seriam aqueles para quem a ciência deve definir-se por uma separação clara com relação a princípios especulativo-filosóficos e ater-se somente a uma descrição acurada do comportamento observável dos entes físicos e cujas predições sejam adequadas aos experimentos conduzidos em condições controladas. Além disso, eles poderiam apontar para os sucessos preditivos que a ciência acumula até nossos dias e afirmar que, sob uma perspectiva prática, nada há que se exigir da ciência além da acuidade observacional e experimental.

 Influência mútua

Acontece que, esquemáticas como são, essas posições tendem a simplificar uma situação real que se apresenta de formas cada vez mais complexas. Dificilmente alguém conseguiria subscrever integralmente a tese dos “cartesianos” justamente pela evidência histórica de que projetos de submissão da ciência à filosofia fatalmente arrastam a primeira para o terreno das disputas intermináveis – e frequentemente inconclusivas – da segunda. Por esse motivo, cientistas-filósofos como o físico, matemático e historiador da ciência francês Pierre Duhem defenderam uma separação clara desses dois empreendimentos cognitivos.

Por outro lado, a evidência historiográfica demonstrou conclusivamente a influência mútua entre filosofia e ciência ao longo da história. Não raro essa influência incluía elementos não tão filosóficos no sentido estrito do termo, como teses teológicas, esotéricas e herméticas. Como explicar a grande disputa travada entre newtoniano Samuel Clarke e Gottfried Leibniz sobre a natureza do espaço como o sensorium divino somente em termos meramente científicos?

Para citar exemplos mais recentes, o cosmólogo sulafricano George Ellis, que trabalhou com o britânico Stephen Hawking, dedicou diversos artigos científicos a explicitar e discutir os pressupostos filosófico-metodológicos embutidos nas teorias da moderna cosmologia. Da mesma forma, questões filosóficas sérias e prementes foram suscitadas pelas declarações recentes de Stephen Hawking acerca das origens do universo e da existência de Deus. Quantos pressupostos filosóficos e ontológicos estão implicados em um só conceito como o “nada”? O que isso significa para um físico é o mesmo que significa para um filósofo ou para um teólogo?

A diferença de significados não implica em um relativismo no qual “tudo vale”, mas pode indicar um uso indevido de um termo para fenômenos que não podem ser adequadamente descritos por ele. Conceitos buscam identificar, entre outras coisas, diferenças específicas e irredutíveis dentro dos fenômenos do real. E tais fenômenos podem ser encarados de diversas formas, de acordo com seus múltiplos aspectos. Desse modo, o que cada ciência faz é encarar um determinado conjunto de entes do real sob um ângulo particular, concebendo-os de acordo com pressupostos ontológicos e metodológicos que, em geral, só podem ser justificados por meios filosófico-argumentativos, ou seja, meios externos à própria ciência. Nenhuma ciência pode justificar a si mesma, já ensinava Aristóteles.
  
Relação conflituosa

Se a história tem comprovado a influência mútua entre filosofia e ciência, isso não significa que essa relação tenha se dado de forma harmoniosa e sem conflitos. Muito pelo contrário. Incompreensões, resistências, rejeições e menosprezos de ambas as partes foram frequentes nessa história. Ainda há hoje os que decretam a “morte da filosofia” e apontam a ciência como a executora da sentença. Contudo, não se deve pensar que esses que anunciam a morte da consoladora de Boécio sejam somente cientistas. Eles são também filósofos. Alguns, inclusive, tentaram – e tentam ainda – transformar a filosofia em ciência, adotando seus métodos e procedimentos. Outros se limitam ao papel de “cães de guarda” dos cientistas, que latem e ameaçam quem ouse questionar qualquer ponto do credo cientificista. Aparentemente, há filósofos que não suportariam ver a filosofia como ancilla theologiae, mas sentem-se à vontade ao vê-la no papel de ancilla scientiae.

Todavia, o cientificista, aquele que afirma que todo o conhecimento possível advém exclusivamente da ciência, afirma ele mesmo não uma teoria científica, mas uma tese filosófica cujo valor só pode ser avaliado por meios argumentativos. Ao tentar escapar da filosofia, o cientificista se vê obrigado a justificar o exclusivismo cognitivo da ciência apelando exatamente para aquilo que pretendia negar.

Em uma palestra em Cambridge, o filósofo americano W. L. Craig, ao comentar a afirmação de Stephen Hawking de que a filosofia está morta, observou que aqueles que ignoram a filosofia são os mais propensos a cair em suas armadilhas. E ele está correto. A inconsciência dos pressupostos que informam toda e qualquer pesquisa, empírica ou não, frequentemente resulta numa compreensão limitada e limitadora da própria realidade que se pretende explicar. Não é raro que o cientista tome os objetos que sua metodologia permite conhecer como os únicos elementos do real, reduzindo assim o todo a uma de suas partes.

Ademais, essa tendência se manifesta também no desejo de aplicar os resultados de teorias particulares a campos cada vez mais amplos, ao ponto de se poder afirmar, sem risco de erro, que muitos cientistas buscam alçar suas teorias à condição de metafísica última e fundamental da realidade. Como Étienne Gilson assinalou diversas vezes, essa submissão do Ser a uma ciência particular é uma tentação constante na história do Ocidente, apresentando-se no logicismo de Abelardo, no matematismo de Descartes, no fisicismo de Kant, no sociologismo de Comte e, por que não?, no biologismo de certos neodarwinistas. Contra isso, o físico Werner Heisenberg – homem de alta cultura e questões filosóficas profundas – advertia que tais projetos só poderiam se fundar em conhecimentos científicos definitivos, mas que estes são sempre aplicáveis em domínios limitados da experiência.
  
Tendência relativista

Como reação ao cientificismo, diversos filósofos e estudiosos das ciências humanas empenharam-se em questionar os critérios de racionalidade e validação do conhecimento, abraçando o relativismo como o último bastião possível de resistência ao avanço das ciências empíricas. Tudo o que existe são múltiplos discursos possíveis sobre o mundo e o discurso científico é só mais um entre muitos, de modo que há pouca diferença entre o Dr. House e o curandeiro de uma tribo. Não será necessário repetir aqui todos os já tão bem conhecidos problemas lógicos e epistemológicos dessa posição. Thomas Nagel já se deu o trabalho de elencá-los.

Embora equivocada, a reação do relativista manifesta claramente a percepção de que o discurso científico se torna cada vez mais hegemônico na sociedade hodierna. Praticamente não há um dia sem que o homem moderno não seja bombardeado por uma série de “pesquisas científicas” que “provam” que tal alimento faz bem à saúde, que tal outro prejudica seu organismo ou que determinado comportamento é “natural” e que outro não o é. O problema aumenta quando se tem em conta o poder que essas orientações têm de moldar o caráter e o pensamento de milhões de homens e mulheres no mundo inteiro. Sutilmente, o cientista vai se tornando não só o arauto da verdade, mas também o conselheiro em assuntos muito distantes de sua especialidade original. A pergunta óbvia é: “Por qual razão alguém deveria ouvi-los para além de seu campo limitado de estudo?”.

Não ser um cientificista ou um relativista não resolve o problema das relações da ciência com a filosofia e com outras atividades ou dimensões humanas. Significa somente não abraçar nenhum dos extremos do debate. É mais fácil apontá-los e rejeitá-los do que dizer em qual ponto entre esses limites deve estar a verdade. Não há solução fácil para essa questão. Mas um bom ponto de partida é reconhecer as diferenças entre filosofia e ciência e tentar estabelecer um diálogo que não passe pela capitulação de uma das duas. Isso significa, para a filosofia, abdicar do projeto “cartesiano” de determinar a priori quais são os princípios metafísicos a partir dos quais todas as pesquisas científicas devem se dar. E, para a ciência, atentar para o fato de que o real jamais pode se esgotar ou se reduzir a qualquer um de seus aspectos e, ao mesmo tempo, admitir que há perguntas legítimas e pertinentes que estão fora daquilo que seus métodos permitem averiguar.

Princípios universais

Seria ocioso não admitir que a ciência alcança verdades sobre o real. Não se constroem naves espaciais, satélites, celulares, aviões e carros sem conhecer algo do mundo. Mas o que ela alcança são os aspectos permitidos por sua metodologia e por seus pressupostos conceituais e ontológicos. Escolhas filosóficas já estão presentes como elementos constitutivos desse processo. Uma maior clareza com relação a esses pontos é imprescindível para uma compreensão mais profunda da própria atividade científica e de seus limites intrínsecos.

Cumpre notar que a filosofia não deve viver “à reboque” da ciência, restringindo-se a pensar e a refletir somente sobre problemas e dados levantados por esta última. Há que se admitir que a filosofia tem suas próprias questões e que, para muitas delas, a ciência tem pouco ou nada a contribuir para sua solução. Da mesma forma, o cientista não precisa de um filósofo ao seu lado no laboratório questionando cada passo do processo de pesquisa e pedindo sempre novas razões para suas ações. O melhor encontro entre a filosofia e a ciência ainda se dá na consciência do indivíduo que almeja compreender o mundo em sua integralidade e que, para isso, busca apreender as relações entre os diversos níveis do real e uni-los sob princípios cada vez mais universais.
  

Rogério Soares da Costa é pesquisador, professor e tradutor. Possui graduação em Filosofia pela UERJ (2005), mestrado (2007) e doutorado (2011) em Filosofia pela PUC-Rio. É pesquisador de pós-doutorado na UERJ, onde investiga as relações entre metafísica e física na obra do físico, filósofo e historiador da ciência Pierre Duhem.

sexta-feira, 18 de janeiro de 2013

Bem vindo a matemágicalandia.

Autor: Roberto das Neves



A equipe de Walt Disney criou uma animação nos anos 50, (cujo vídeo eu publico no final deste texto), onde o Pato Donald, entra em um mundo mágico e faz um tour guiado pelo espírito da aventura.

Esse mundo é o mundo da matemágica, mas na verdade, não há nada de mágico nele, pois o que é apresentado ao Donald, é o nosso mundo, onde ele aprende que existe uma linguagem usada para traduzir e demonstrar de forma lógica e racional, o universo e o seu funcionamento, e essa linguagem, é a matemática.

Donald descobre que esta linguagem pode explicar tudo o que existe, e que o domínio desta linguagem, pode ser usado como ferramenta para criar quase tudo àquilo que nosso intelecto imaginar, sendo que, esta linguagem, é usada inclusive, pela própria natureza.

A natureza nos fala pela matemática, e pela matemática aprendida, desvendamos os seus segredos.

Não há nada de mágico nisto, pois ao descobrirmos como traduzir esta linguagem e usa-la, percebemos que a mágica é apenas fantasia e tudo pode ser explicado de forma lógica e racional, se algo não puder ser explicado por esse ferramental, significa que esse algo não existe, não pertence ao mundo real, pertence apenas ao mundo da fantasia e da imaginação, sendo assim, irreal.

A matemática é natural e explica tudo aquilo que é natural, tudo aquilo que é real e existe, e pode ser usada para criar coisas que ainda não existem desde que, sejam usados para a sua criação, matéria e energia existentes naturalmente, tudo depende da tecnologia a qual dispomos no momento.

Se algo não pode ser explicado pela linguagem matemática, este algo não existe, não pode vir a existir e não pode ser criado.

Mas, nem tudo são flores...

Tudo ia bem, no mundo da ciência, até o momento em que se contestou a causalidade.

Causalidade

Princípio fundamental da "razão aplicada ao real, segundo o qual "todo fenômeno possui uma causa", “tudo o que acontece ou começa a ser supõe, antes dele, algo do qual resulta segundo uma regra" (Kant). Em outras palavras, princípio segundo o qual se podem explicar todos os fenômenos por objetos que se interagem, que são definidos e reconhecidos por meio de regras operatórias.

Segundo a concepção racionalista, a causalidade é um conceito a priori necessário e universal, isto é, independente da experiência e constituindo-a objetivamente: todas as mudanças acontecem segundo a lei de ligação entre a causa e o efeito.

Hume critica a concepção clássica de relação causal, segundo a qual um fenômeno anterior (causa) produz um fenômeno posterior e consequente (efeito), argumentando que essa relação não se encontra de fato na Natureza, mas apenas reflete nossa forma habitual de perceber as relações entre fenômenos. A causalidade não expressa, assim, uma lei natural, de caráter necessário, mas uma projeção sobre a natureza de nossa forma de perceber o real.


A partir desse momento, a ciência passa a não buscar a causalidade, por considera-la não natural, e passa a analisar apenas os efeitos, afirmando inclusive, que muitas coisas não possuem uma causa necessária para gerar um efeito.

Isso está ligado ao conceito de que, passado, presente e futuro estão conectados de forma simultânea, ou seja, acontecem ao mesmo tempo, e se acontecem ao mesmo tempo, não existe a necessidade de uma causa, uma vez que o efeito poderia existir juntamente com a causa.

Assim, como os efeitos são mais facilmente verificáveis, abandonou-se a busca pelas causas.

Mas seria realmente a causa, algo não natural?

Não seria na verdade, o tempo, este sim, uma projeção sobre a natureza de nossa forma de perceber o real?

Eu fiz uma longa explanação num texto onde defendo a hipótese de que o tempo não existe, uma vez que a natureza não necessita do tempo para funcionar, o tempo só existe enquanto fator psicológico nos seres vivos para se localizar no seu próprio espaço, o link para o texto, é esse aqui:


Ora, então, se é o tempo que não existe, então a causa existe.

A questão é que muitas vezes, não conseguimos apontar a causa correta para a existência de um fenômeno.

Ao apontamos a causa errada, ou não apontarmos uma causa, apesar de podermos analisar seus efeitos, estes não poderão ser conectados com a verdadeira causa, esta não conexão, irá gerar o desencadeamento da criação de uma série de equações matemáticas analíticas, que descambarão para o mundo da fantasia e do irreal.

Um mundo onde todas as coisas que se pode imaginar, podem ser possíveis, por mais descabidas que sejam: viagens no tempo, viagens com naves espaciais com velocidade igual ou maior do que a velocidade da luz, dobras espaciais, tele transporte, universos paralelos, múltiplas dimensões, etc., etc., etc..

Se não existem causas que geram os efeitos, tudo é permitido e tudo é possível na criação de fórmulas matemáticas, mas, essas fórmulas matemáticas, dirão apenas aquilo que queremos que digam, mas não dirão necessariamente a verdade do mundo real, uma vez que houve uma ruptura do pensamento lógico e da razão entre o real e o imaginário, causada pela nossa não capacidade em perceber que: causas geram efeitos e que efeitos não existem sem causas.

E o pior nessa história toda é que, ao deixarmos as causas de lado e nos preocuparmos apenas com os efeitos, esquecemos a necessidade de verificar as causas postuladas até aquele momento, as causas propostas por Newton, por Einstein e por muitos outros.

Assumimos que estas causas anteriormente postuladas estão corretas, são elas que geram determinados efeitos e não mais precisam ser verificadas.

Nem nos passa pela cabeça, que talvez, algumas dessas "consagradas Causas", estejam completamente erradas, que talvez, não sejam essas causas apontadas, as causas geradoras dos efeitos, nós simplesmente não fizemos as devidas e necessárias verificações, apenas as aceitamos, por acreditarmos que estejam corretas, pois a matematização formulada, indicava isso.

Só que, se a formulação tiver sido feita, baseada em uma causa errada, as fórmulas matemáticas não nos dirão isso, estaremos então, sendo iludidos pelos resultados.

Se estivermos sendo iludidos, isso significa que toda a estrutura teórica em que nos baseamos para criar novas teorias até hoje, a partir daqueles resultados, pode estar completamente equivocada, entramos por um caminho errado, matematizando mundos irreais, e tudo aquilo que estamos acertando matematicamente, na verdade, está sendo acertado no chute. 

É nossa a falha, em relação a apontar as causas erradas ou não aponta-las, não é culpa da linguagem matemática, nós prostituímos a linguagem matemática, transformando-a de algo natural, para algo completamente artificial.

Pobre Pato Donald, se ele viaja-se para a terra da Matemágica hoje, iria encontrar em seu lugar, um bordel.



segunda-feira, 14 de janeiro de 2013

A consciência, a nanotecnologia e o fator da irredutibilidade.


Autor: Roberto das Neves



Muita gente se pergunta se insetos, vírus, células e até mesmo moléculas e partículas, poderiam ter algum tipo de consciência sobre si mesmo, um sistema gerador de pensamento complexo.

A resposta é não.

O pensamento, a consciência, é um fator gerado pela quantidade e a quantidade não pode ser reduzida, pois, quanto mais se reduz a sua quantidade, menor é o fator gerador da consciência.


A autoconsciência existe em vários graus, um humano tem um grau de autoconsciência maior do que um macaco. E a escala vai caindo, de acordo com a quantidade de neurônios existente em cada ser vivo, que é usada exclusivamente para a formação de pensamento e ideias.

Por exemplo, um macaco quando olha um espelho, reconhece a si mesmo no reflexo, um cachorro, não.

A autoconsciência é então, o ato de reconhecer a si mesmo...

Neste sentido, quanto mais células nervosas um ser possui, que não estejam comprometidas com outras funções motoras ou metabólicas, maior é o fator de consciência, e não é possível miniaturizar uma célula nervosa biológica, fazer seu tamanho diminuir para ocupar um menor espaço no crânio, se fosse possível, a própria natureza, por meio da evolução, teria desenvolvido um meio para isso.



Algumas pessoas podem cogitar sobre a autoconsciência, em relação ao tamanho do cérebro de um elefante ou de uma baleia, que são bem maiores que um cérebro humano, e possuem muito mais neurônios, e dessa forma, teorizarem que estes animais poderiam alcançar futuramente, uma auto consciência.

Mas se esquecem que estes cérebros, gastam uma enorme quantidade de energia e funções para controlar seus movimentos e seu metabolismo, devido aos seus enormes tamanhos, sobrando pouca coisa para um sistema autoconsciente poder emergir, uma vez que, todos os seus neurônios são usados para executar essas funções de sobrevivência comandadas por seus genes..

Tomemos agora como exemplo, um tipo de vespa, que, para se reproduzir insere seus ovos dentro de outro inseto, para que o ovo se desenvolva em larva e se alimente desse hospedeiro ainda vivo.

Se esta vespa tivesse um sistema nervoso altamente evoluído através de células nervosas miniaturizadas, para assim possuir a mesma quantidade de células nervosas que possui um ser humano ou outro animal com algum grau menor de consciência, e dessa forma, ser, ela a vespa, também possuidora de consciência, ela possivelmente começaria a se questionar sobre sua forma de reprodução...

O que a move, não é o pensamento semi ou consciente, mas sim, o pensamento que a sua quantidade de neurônios lhe permite, sendo esse pensamento comandado pelas instruções contidas em seus genes.

Outras pessoas poderiam cogitar sobre a consciência emergindo de uma comunidade social, como por exemplo, um formigueiro.

O cérebro de uma formiga possui aproximadamente 2,5×10 elevado à 5ª potencia de neurônios, enquanto o cérebro humano possui aproximadamente 1,0×10 elevado à décima potencia de neurônios.

Portanto, uma colônia de 40.000  formigas possui o mesmo número de neurônios que um cérebro humano.

A questão é que existem vários tipos de formigas especializadas dentro de um formigueiro, e cada tipo de formiga, possui uma quantidade de neurônios maior ou menor, justamente para exercer adequadamente suas funções especializadas.

Isso significa que, todos os neurônios de uma formiga, são totalmente dirigidos pelas instruções contidas em seus genes, não sobrando neurônios livres para, em grupo com a colônia, serem usados para a formação de uma consciência coletiva.

Isso nos leva à questão da nanotecnologia, seria possível desenvolver nano robôs conscientes?

A resposta é não.


Os neurônios variam muito de comprimento em função do seu axônio. Alguns axônios podem medir alguns milímetros e outros podem chegar a 1 m. O diâmetro do neurônio é de cerca de 0,1 mm.

Se conseguirmos construir um nano robô do tamanho de um neurônio,  e acredite, este seria um nano robô grande, para que este nano robô funcione, será necessário que ele possua dentro dele, uma série de neurônios cibernéticos que farão com que ele possa executar várias funções necessárias, tal qual os neurônios que uma formiga possui, a questão maior, é que, para que o nano robô funcione e possa alcançar uma auto consciência coletiva, além dos neurônios usados para o seu funcionamento, seria necessário se acrescentar outros neurônios que executariam a função de neurônios livres, para daí, este nano robô, ligar-se em rede com outros nano robôs, para formar uma consciência.

Só que o problema final está na irredutibilidade, ora, um nano robô do tamanho de um neurônio, para funcionar pelo menos, como uma mera formiga, para executar sua funções, necessitaria possuir a seguinte quantidade de neurônios: 2,5×10 elevado à 5ª potência, quantidade essa, que deveria ocupar um espaço menor do que um neurônio biológico ocupa, pois, estes neurônios cibernéticos seriam apenas uma parte de todo o nano robô.

A miniaturização necessária para se criar um nano robô cibernético funcional, com células cibernéticas funcionais de tamanha ordem de miniaturização, sabendo-se a enorme quantidade de neurônios cibernéticos necessária para que um nano robô do tamanho de uma única célula neural biológica, funcione adequadamente, não é nem um pouco provável, por mais fé que se tenha na hipotética possibilidade.


Esses nano robôs, para desenvolver uma consciência, dependeriam assim, de um cérebro externo, com o tamanho suficiente para possuir um sistema nervoso cibernético, com a enorme quantidade de células nervosas cibernéticas necessárias, para controlar as ações de todos os nano robôs, através de ondas de rádio, além de uma enorme quantidade extra de neurônios livres, para fazer emergir uma consciência.

Mesmo assim, os nano robôs, não seriam conscientes, mas seriam na verdade, apêndices rádio controlados por uma consciência externa.

O máximo que poderemos fazer, são nano robôs com a inteligência suficiente para efetuar pouquíssimas ações pré-programadas o que em última análise, não seria uma inteligência propriamente dita, eles seriam apenas autômatos com instruções para executar algumas ações de forma mecânica.

E só lembrando, ainda levará muito tempo, para conseguirmos desenvolver um cérebro robótico semiconsciente, muito, muito tempo mesmo, o que dirá então, de um robô totalmente consciente...
.
.
.