sábado, 26 de janeiro de 2013

Teoria Padrão, os acobertamentos de um fracasso matemático.

Autor: Roberto das Neves



A teoria padrão, vulgarmente mais conhecida como Teoria do Big Bang, é uma teoria matemática, onde uma fórmula é o resultado de outra fórmula antecessora.

Para que você possa entender, apresento abaixo, a Fórmula completa:



A teoria padrão é o encadeamento sistemático de uma série de fórmulas iniciais, gerando outras fórmulas, com o intuito de se obter uma equação completa sobre o funcionamento do universo.

Muitos consideram essa equação, (pois foram ensinados e doutrinados a aceita-la), um triunfo do saber humano, o ápice da engenhosidade matemática que tudo pode explicar, usando-se a lógica e a razão, através da linguagem matemática.

Só que, a coisa não é bem por aí.

Pela lógica, se algo for encontrado através da observação, que não esteja de acordo com os resultados dessa formula, significa que a equação correspondente está errada em algum ponto do encadeamento de sua formulação.

Como a equação é o encadeamento de várias fórmulas que são resultado direto de uma equação antecessora, isso significa que a teoria, como um todo, pode estar completamente errada, apesar de confirmar algumas observações.

Você sempre ouve falar a seguinte máxima da ciência: “Se uma teoria não está de acordo com os resultados observados e obtidos, descarta-se a teoria e se formula uma nova e mais adequada teoria”.

Só que, não é isso o que temos visto em relação à teoria padrão.

Uma série de erros sistemáticos nela contidos tem sido acobertada, acrescentando-se afirmações “Ad hoc”, na tentativa de salva-la.

Mais abaixo, irei apontar esses erros, mas antes, é necessário entender-se, o porquê da tentativa desesperada, por trás do acobertamento sistemático das falhas, causadas por equações erradas contidas na teoria padrão.

São vários os motivos, e acredite, muitos dos motivos, tem o “imprimatur” das religiões.

Uma vez que a teoria padrão matematiza que, do nada, pode surgir tudo, as religiões utilizaram essa afirmação completamente “ad hoc”, para incluir o fator deus na equação, pois segundo as religiões, somente um deus ou deuses podem criar tudo a partir do nada.

E uma prova cabal disso, aconteceu em 1951, quando o Papa Pio XII, no dia 22 de Novembro, na Academia Pontifícia das Ciências, num discurso intitulado: "As provas da existência de Deus à luz das modernas ciências da Natureza" apoiou o modelo do Big Bang, entendido como interpretação científica do livro do génesis e argumento a favor da existência de deus.

Diz-se que a maioria dos cientistas que estudam o cosmos, são ateus, mas isso é uma inverdade, a grande maioria, ou é agnóstica ou é partidária de uma religião, apenas uma pequena parte dos pesquisadores é assumidamente ateia.

Ora, se assim o é, é grande o interesse dessa maioria, colocar as suas crenças, à frente da lógica e da razão, ao defender a teoria padrão.

Outro motivo, e esse é um motivo doutrinário, é que a grande maioria dos pesquisadores e professores atuais, foram ensinados nas escolas a não duvidarem da teoria padrão, lhes é ensinado que a teoria está correta e ponto final.

E o motivo último, é o motivo carreirista e egoísta. Um grande número de pesquisadores construiu sua carreira, e assim, manteve seu emprego e seu “status quo”, defendendo o “establishment” científico, baseado na defesa e pesquisa de resultados favoráveis, que apontem para o “sucesso dos acertos” para a comprovação da teoria padrão e relevando os resultados observacionais que refutam a teoria..

Mas, se você, enquanto jovem pesquisador, encontrar alguma coisa que não é prevista pela teoria, ou as suas observações de fenômenos astronômicos apontem para falhas contidas nas equações da teoria padrão, cuidado.

Sua pesquisa, ou será cancelada, ou então, você será “gentilmente” obrigado a mudar o foco de sua pesquisa inicial, de forma que não comprometa os “sacramentados” enunciados da teoria.

A teoria Padrão

A teoria padrão está assentada em quatro pilares principais: A teoria da relatividade de Einstein, onde nela, se formula a constante cosmológica, que matematiza e afirma que o universo é homogêneo, a teoria gravitacional de Einstein, que matematiza a forma como a gravidade atua, distorcendo o tecido espaço/temporal, a teoria de Lemaitré/Friedmann, que matematiza que todo o universo surgiu de um ponto extremamente compacto e extremamente quente, e finalmente, a teoria de Hubble, sobre a expansão cósmica, que matematiza que, o universo está em constante expansão, afastando as galáxias umas das outras, a partir do ponto inicial proposto por Lemaitré.

Todas as fórmulas restantes, constantes na teoria padrão, são desdobramentos decorrentes dessas quatro teorias matemáticas iniciais e o resultado dessas fórmulas, devem prever o funcionamento do universo observável.

Ok. Tá, bacaninha...

Só que...

Quanto mais os astrônomos observam o universo, mais o mesmo apresenta comportamentos anômalos, inconsistentes ou não previstos matematicamente pela teoria padrão...

E quando isso acontece, buscam-se explicações completamente filosóficas, explicações “ad hoc”, na tentativa de salvar a teoria e acobertar suas falhas, uma vez que carreiras profissionais inteiras, o “status quo” científico, e paralelamente e por baixo do pano, as religiões, defendem e dependem da manutenção desta, como a “teoria oficial”, ou, “a teoria mais completa e aceita”, pela sua “quantidade de acertos em suas previsões”...

Enfiando fundo o dedo nas feridas.

Existem interesses escusos na manutenção da teoria padrão, e você é constantemente bombardeado com informações selecionadas a dedo, para continuar acreditando que esta é realmente uma teoria válida e a mais precisa que existe, fruto do gênio humano que descobriu como o universo funciona.

Apresentando as evidências da falcatrua:

Todo mundo já está careca de ouvir e ler sobre matéria escura e energia escura, o que a maioria não sabe, é como surgiu essa teoria completamente “ad hoc”.

A formulação da teoria padrão predizia que existe uma quantidade X de matéria e energia que compõe o universo.

Ao se fazer as medições sobre esta quantidade de matéria e energia, constatou-se que ela é assustadoramente maior do que a teoria padrão propunha.

Em vez de se assumir que a teoria padrão estava incorreta em relação à quantidade de matéria e energia que de fato, realmente existe, para se salvar o restante das equações teóricas de seu fracasso, propôs-se uma alternativa “elegante”, mas puramente filosófica:

“Existe matéria e energia escura, que são responsáveis pela manutenção gravitacional do cosmos, essa matéria e energia, são não bariônicas, e por esse motivo, não podiam ser previstas pela teoria padrão”.

Oficialmente: “Na cosmologia, matéria escura (ou matéria negra) é uma forma postulada de matéria que só interage gravitacionalmente (ou interage muito pouco de outra forma). Sua presença pode ser inferida a partir de efeitos gravitacionais sobre a matéria visível, como estrelas e galáxias. No modelo cosmológico mais aceito, o ΛCDM, que tem obtido grande sucesso na descrição da formação da estrutura em larga escala do universo, a componente de matéria escura é fria, isto é, não-relativístiva. Nesse contexto, a matéria escura compõe cerca de 23% da densidade de energia do universo. O restante seria constituído de energia escura, 73% e a matéria bariônica, 4%.”.

Usa-se um jargão cientificista, para dar uma desculpa esfarrapada, para enrolar os leigos.

Mas, o que de fato seria essa matéria escura e essa energia escura?

Esse material não visível trata-se apenas de matéria que ainda está formando novas galáxias, estrelas, planetas, planetóides, asteroides e um grande número de escolho material.

Por não estarem ainda completamente formadas, essas novas estrelas ainda não entraram em fusão, para emitir luz visível que possa ser detectada, e mesmo que entrem em fusão, dependendo da distância em que se encontram, levarão milhares, milhões ou bilhões de anos para que, a luz que delas se irradiará, possa ser detectável por nossos equipamentos, contudo, a força gravitacional gerada por essa quantidade gigantesca de material, pode ser detectada, pois está sendo exercida já a milhões ou bilhões de anos de lenta formação.

Sem contar que existem evidências de planetas que estão vagando pelo cosmos, que não estão fazendo parte de um sistema estelar, esses planetas foram expulsos de suas órbitas devido à força gravitacional de outros planetas do seu sistema e tornaram-se planetas errantes, e eles, inclusive, tem um nome: são chamados de planetas órfãos e supõe-se que o seu número possa ser igual ou maior que o número de planetas orbitando normalmente uma estrela, fora isso, existem também evidências da existência de planetas, planetoides, asteróides, etc., que se formaram sem estarem necessariamente atrelados a órbita de uma estrela em formação.

Um interessante artigo sobre isso:


Ora, além desses planetas errantes expulsos e as estrelas ainda em formação, existe um sem número de escolho, ou seja, matéria de “pequenas proporções” que está transitando pelo universo livremente e que ainda não tem tamanho suficiente para ser detectado enquanto matéria, contudo a força gravitacional por eles emitida, também é detectável. Esse material será posteriormente capturado pela força gravitacional de uma estrela, e formará, juntamente com outros “cascalhos”, um planeta, um planetóide, uma lua, um asteroide ou um cometa.

Todo esse material, é responsável pela “matéria e energia escura”, ou seja, não existe matéria ou energia escura não bariônica, como foi proposta para salvar a teoria padrão, o que existe, é uma flagrante falha na teoria padrão, em relação ao seu resultado matemático sobre a quantidade de matéria e energia que efetivamente existe e o que ela prediz.

Para se acobertar essa falha, criou-se uma teoria bonitinha denominada: “matéria e energia escura”, que não se suporta, não se comprova pelas evidências observacionais, é uma hipótese fadada ao fracasso na tentativa de salvar mais um erro matemático grotesco.

No entanto, vende-se esse fracasso como uma vitória da teoria padrão, inverte-se o ponto de vista, para manter o “establishiment”.

Mas, a coisa não para por aí!

Outro flagrante erro contido na teoria padrão, cujas observações astronômicas a contradizem, refere-se ao efeito “redshift”, que comprovaria a teoria da expansão, nesta teoria matemática, afirma-se que a expansão existe e pode ser detectada pelo desvio de luz observado pelas galáxias.

As galáxias que estão se afastando mais rapidamente, apresentam um desvio de cor para o vermelho, as que estão se afastando mais vagarosamente apresentam um desvio para a cor azul.

Quanto maior o desvio para o vermelho, maior é a velocidade de expansão a que, esta galáxia está submetida.

Só que, a teoria padrão, não previa algo que está acontecendo e sendo constantemente observado por todo o universo, isso é mais um flagrante erro de sua matematização na proposta da expansão, e que a compromete totalmente: Milhares de galáxias estão em rota de colisão ou estão colidindo, ou ainda, já colidiram.

Em um universo que se propõe em perpétua expansão, onde, as galáxias afastam-se uma das outras, a partir de um ponto inicial, as colisões entre galáxias não poderiam ocorrer.

E, além disso, essas galáxias em colisão demonstraram outra falha teórica, uma anomalia em relação sobre a afirmação de que, o “redshift” demonstra e é prova da expansão do universo.

Ao se observar centenas dessas galáxias em colisão, observou-se que muitas delas, tinham um desvio para o vermelho, muito maior do que a outra galáxia com a qual ela esta colidindo, ora, isso significa que elas não poderiam estar colidindo, pois elas estariam milhares de anos luz, afastadas uma da outra.

No entanto, elas estão colidindo, numa flagrante comprovação em relação ao efeito matemático “redshift”, não poder ser usado como uma prova incontestável sobre a expansão do universo, e ainda mais, o efeito não é aquilo que a proposta matemática afirma ser!

Então, temos aqui, mais duas provas comprometedoras observacionais contra a teoria padrão: A colisão das galáxias, e o efeito “redshift” não correspondem com a matematização formal proposta, o efeito ”redshift”, não é correspondente com a proposta matemática teórica previsível.

As academias de ciências tentaram abafar o assunto e conseguiram, através de boletins jornalísticos (e não científicos). 
Afirmaram que tais galáxias não estavam em colisão, sendo isso, um mero erro de interpretação observacional.

Os astrônomos, profissionais pesquisadores, que relataram essas anomalias, ou foram afastados de seus cargos, ou tiveram suas pesquisas canceladas, ou ainda, foram marginalizados e estigmatizados, no entanto, as provas estão aí, para quem quiser se dispor a analisar.

Um vídeo interessante sobre esse controverso assunto, é este aqui:





E tem mais?

Pior é que tem sim...

Chegamos agora a Einstein, e sua Fórmula da “constante Cosmológica” que é parte integrante da teoria padrão e é um dos seus pilares.

A formulação matemática de Einstein, afirma que o universo é homogêneo e constante, ou seja, toda a matéria está distribuída de forma uniforme por todo o universo.

No entanto, astrônomos (sempre eles) têm observado anomalias no universo que comprometem terminantemente a “constante cosmológica”.

Trata-se de dois grandes atratores, que estão concentrando uma enorme quantidade de matéria em localizações distintas do universo e tornam o universo, não homogêneo.

Abaixo, os links sobre os dois atratores:



Em relação aos grandes atratores, o “establishment científico”, pouco ou nada tem ainda a dizer, devem estar procurando desesperadamente mais uma saída maquiada, hipotética e bonitinha, para mascarar novamente, a grande mentira que tem lhes dado o sustento e mantido suas carreiras bem sucedidas, guiadas pelo cabresto dogmático cientificista.

Provavelmente, tentarão mais uma vez, afastar a atenção do populacho leigo, com alguma “nova descoberta” que comprova a eficácia e o sucesso da teoria do big bang.

Outro detalhe que não é divulgado corretamente, é que o ruído de fundo, previsto pela teoria padrão, também é previsto em outras teorias sobre o surgimento do universo.

E se você for um leigo e discordar, sempre receberá aquelas respostas: “O que você entende da complexidade de uma fórmula matemática?”, ou ainda: “Você sabe ler uma fórmula matemática, para emitir uma opinião?”, ou ainda: “Vai estudar física antes de abrir a boca!”.

Mas, felizmente, esses são vômitos de alguns poucos chimpanzés, que acham que um diploma em física, os coloca em um patamar mais elevado da civilização, dando somente a eles, o aval e o direito, com os devidos paramentos sacrossantos do cientificismo, para tentar opinar sobre como funciona o universo.

Estamos vivendo um novo período do “Roma locuta, causa finita”, só que agora, na versão turbinada da ciência dogmática cientificista...

Além disso, alguns outros, nem chegarão ao final do texto, só com base no título, já darão a sua sentença: “Isso é apenas mais uma teoria da conspiração...”, e a unanimidade burra, acompanhará e apoiará a sentença, felizes da vida, por fazerem parte da “intelligentsia cientificista”, pois isso significa aparentemente, estar no topo da moda, onde, a “verdade” tem preço, é moldada e vendida ao bel prazer dos “formadores de opinião” e fartamente distribuída através de programas e entrevistas televisivas, enchendo os bolsos dos cientificistas, apoiados pelos mais diversos tipos de “gnósticos quânticos” que também lucram absurdamente com isso...

Palminhas para eles...

Mas, doa a quem doer, a questão permanece: Se partes vitais da teoria, responsáveis por todo o seu estruturamento estão incorretas, a teoria como um todo, apesar de acertar em alguns aspectos, é inválida e deve ser descartada, para dar lugar a uma nova teoria.

Remendar uma teoria constantemente, para encobrir seus erros, como tem sido feito com a teoria padrão, desestimula completamente os jovens formandos e também, os velhos pesquisadores, a buscar novas teorias que tentem explicar o funcionamento do universo de forma mais precisa e correta.

Assim, estes pesquisadores, entram em uma “linha de produção”, onde se estimula a fazer apenas mais do mesmo, e são ameaçados se não andarem feito robozinhos nesta linha, em nome da ciência.

Então, comprova-se que aquela velha máxima da ciência sobre: “Se uma teoria estiver errada, desfaça-se dela e crie uma nova”, torna-se apenas mais uma bela estorinha pra boi dormir e enganar os leigos e os jovens ou novos cientistas.

Aprenda: ande sempre na linha traçada pelo cientificismo, se não quiser receber a chibata cientificista dogmatica e a devida e irrevogável passagem para o ostracismo profissional.

E com isso, atrasa-se assustadoramente o desenvolvimento da verdadeira Ciência, a “Big Science”, responsável pela busca de melhores respostas, que resultarão em melhores e mais avançadas tecnologias, em prol da humanidade.
.
.
.

domingo, 20 de janeiro de 2013

Nos limites da ciência


Artigo de: Rogério Soares da Costa



Na primeira metade do século XVIII, um certo E. S. De Gamaches, físico e matemático francês, escreveu uma obra de astronomia na qual comparava os princípios científicos de René Descartes, o patrono das ciências francesas, com aqueles do Sir Isaac Newton, a glória máxima da Royal Society. O objetivo do obscuro autor era, como seria previsível, demonstrar a superioridade do racionalista francês sobre o empirista britânico. Esse poderia ser somente mais um capítulo da longa rivalidade que opõe franceses e ingleses, mas há nele algo que supera em muito as querelas e disputas entre nações. Na verdade, na discussão empreendida por De Gamaches está em jogo algo crucial para a própria história da ciência.

Em termos gerais, De Gamaches criticava Newton fundamentalmente por seu método. Segundo o polemista, o gênio britânico havia se limitado em suas obras científicas a geometrizar os fenômenos físicos sem jamais propor explicações para os mesmos. “Um fenômeno analisado geometricamente se torna para ele um fenômeno explicado”, afirma De Gamaches. No fundo, para o francês, Newton era bastante seletivo na escolha de seus problemas de estudo, só tratando daquilo que podia ter uma descrição geométrico-matemática. O veredito de De Gamaches é contundente e grave: Newton era ótimo geômetra, mas péssimo físico.
  
Visões opostas

O que há de tão importante na diatribe de um obscuro físico francês que, apegado ao mestre Descartes, distribuía perdigotos contra o gênio de Isaac Newton numa época em que as ideias deste tornavam-se hegemônicas e relegavam o cartesianismo ao esquecimento mesmo em terras gaulesas? A importância da discussão reside naquilo que é posto em questão implicitamente: “o que é fazer ciência?” Em outros termos, o que significa exatamente dar explicação de um fenômeno físico? Será dar as suas razões últimas ou somente fornecer uma descrição matemática acurada daquilo que é observado sem se comprometer com questões concernentes à natureza do real físico?




Em suma, nessa pequena polêmica são confrontadas duas visões opostas sobre a própria natureza da ciência. De um lado o cartesiano, para quem a física deve, antes de tudo, dizer o que é o real, e, de outro está o newtoniano que se limita a geometrizar os fenômenos sem se comprometer com hipóteses sobre a natureza última do real. É bem conhecida a afirmação de Newton no Escólio Geral dos Principia segundo a qual ele não “inventa hipóteses”, referindo-se aí às especulações acerca das possíveis causas de certas propriedades observáveis dos corpos. Há ainda discussões acadêmicas sobre como interpretar corretamente essa e outras declarações de teor semelhante espalhadas pelas obras do físico britânico, mas formou-se certa tradição na qual elas são interpretadas como declarações de cunho antiespeculativo ou antimetafísico. Newton estaria rejeitando a ideia de derivar as suas teorias de considerações filosóficas sobre a natureza própria das coisas e limitando-se a fornecer uma descrição matemática daquilo que pode ser efetivamente observado.

Não importa tanto saber se era isso ou não que Newton queria dizer naquelas declarações, mas sim perceber que essa interpretação enuncia uma posição teórica possível com relação à natureza da ciência que foi e ainda é abraçada por muitos filósofos e cientistas.

Embora Descartes quisesse refundar a ciência de seu tempo sobre novas bases, ele ainda permanecia ligado à ideia antiga de um conhecimento certo e verdadeiro do mundo físico. Toda a sua física se funda na apreensão pelo sujeito pensante de princípios claros e distintos – e, portanto, indubitáveis – a partir dos quais todo o edifício da ciência poderia ser rigorosamente deduzido. Em outros termos, a metafísica funda a física e, sem ela, qualquer ciência fica impossibilitada de realizar suas pretensões de conhecimento verdadeiro e certo. Resta evidente que tais princípios primeiros não são retirados da experiência e sim alcançados por meio de longas meditações de cunho exclusivamente filosófico.

Ora, o conflito até aqui apresentado pode ser visto também pelo ângulo das relações possíveis entre filosofia e ciência. Sob esse prisma, os “cartesianos” seriam aqueles para os quais o fundamento último do conhecimento não pode ser alcançado pela experiência, mas somente pelo pensamento, o qual, através da razão, apreende os princípios mais gerais que servirão de base para qualquer estudo do mundo físico. A favor de sua tese, seus partidários poderiam citar o fato de que nenhuma predição pode verificar definitivamente uma teoria, já que teorias falsas podem apresentar predições verdadeiras.

Por outro lado, os “newtonianos” seriam aqueles para quem a ciência deve definir-se por uma separação clara com relação a princípios especulativo-filosóficos e ater-se somente a uma descrição acurada do comportamento observável dos entes físicos e cujas predições sejam adequadas aos experimentos conduzidos em condições controladas. Além disso, eles poderiam apontar para os sucessos preditivos que a ciência acumula até nossos dias e afirmar que, sob uma perspectiva prática, nada há que se exigir da ciência além da acuidade observacional e experimental.

 Influência mútua

Acontece que, esquemáticas como são, essas posições tendem a simplificar uma situação real que se apresenta de formas cada vez mais complexas. Dificilmente alguém conseguiria subscrever integralmente a tese dos “cartesianos” justamente pela evidência histórica de que projetos de submissão da ciência à filosofia fatalmente arrastam a primeira para o terreno das disputas intermináveis – e frequentemente inconclusivas – da segunda. Por esse motivo, cientistas-filósofos como o físico, matemático e historiador da ciência francês Pierre Duhem defenderam uma separação clara desses dois empreendimentos cognitivos.

Por outro lado, a evidência historiográfica demonstrou conclusivamente a influência mútua entre filosofia e ciência ao longo da história. Não raro essa influência incluía elementos não tão filosóficos no sentido estrito do termo, como teses teológicas, esotéricas e herméticas. Como explicar a grande disputa travada entre newtoniano Samuel Clarke e Gottfried Leibniz sobre a natureza do espaço como o sensorium divino somente em termos meramente científicos?

Para citar exemplos mais recentes, o cosmólogo sulafricano George Ellis, que trabalhou com o britânico Stephen Hawking, dedicou diversos artigos científicos a explicitar e discutir os pressupostos filosófico-metodológicos embutidos nas teorias da moderna cosmologia. Da mesma forma, questões filosóficas sérias e prementes foram suscitadas pelas declarações recentes de Stephen Hawking acerca das origens do universo e da existência de Deus. Quantos pressupostos filosóficos e ontológicos estão implicados em um só conceito como o “nada”? O que isso significa para um físico é o mesmo que significa para um filósofo ou para um teólogo?

A diferença de significados não implica em um relativismo no qual “tudo vale”, mas pode indicar um uso indevido de um termo para fenômenos que não podem ser adequadamente descritos por ele. Conceitos buscam identificar, entre outras coisas, diferenças específicas e irredutíveis dentro dos fenômenos do real. E tais fenômenos podem ser encarados de diversas formas, de acordo com seus múltiplos aspectos. Desse modo, o que cada ciência faz é encarar um determinado conjunto de entes do real sob um ângulo particular, concebendo-os de acordo com pressupostos ontológicos e metodológicos que, em geral, só podem ser justificados por meios filosófico-argumentativos, ou seja, meios externos à própria ciência. Nenhuma ciência pode justificar a si mesma, já ensinava Aristóteles.
  
Relação conflituosa

Se a história tem comprovado a influência mútua entre filosofia e ciência, isso não significa que essa relação tenha se dado de forma harmoniosa e sem conflitos. Muito pelo contrário. Incompreensões, resistências, rejeições e menosprezos de ambas as partes foram frequentes nessa história. Ainda há hoje os que decretam a “morte da filosofia” e apontam a ciência como a executora da sentença. Contudo, não se deve pensar que esses que anunciam a morte da consoladora de Boécio sejam somente cientistas. Eles são também filósofos. Alguns, inclusive, tentaram – e tentam ainda – transformar a filosofia em ciência, adotando seus métodos e procedimentos. Outros se limitam ao papel de “cães de guarda” dos cientistas, que latem e ameaçam quem ouse questionar qualquer ponto do credo cientificista. Aparentemente, há filósofos que não suportariam ver a filosofia como ancilla theologiae, mas sentem-se à vontade ao vê-la no papel de ancilla scientiae.

Todavia, o cientificista, aquele que afirma que todo o conhecimento possível advém exclusivamente da ciência, afirma ele mesmo não uma teoria científica, mas uma tese filosófica cujo valor só pode ser avaliado por meios argumentativos. Ao tentar escapar da filosofia, o cientificista se vê obrigado a justificar o exclusivismo cognitivo da ciência apelando exatamente para aquilo que pretendia negar.

Em uma palestra em Cambridge, o filósofo americano W. L. Craig, ao comentar a afirmação de Stephen Hawking de que a filosofia está morta, observou que aqueles que ignoram a filosofia são os mais propensos a cair em suas armadilhas. E ele está correto. A inconsciência dos pressupostos que informam toda e qualquer pesquisa, empírica ou não, frequentemente resulta numa compreensão limitada e limitadora da própria realidade que se pretende explicar. Não é raro que o cientista tome os objetos que sua metodologia permite conhecer como os únicos elementos do real, reduzindo assim o todo a uma de suas partes.

Ademais, essa tendência se manifesta também no desejo de aplicar os resultados de teorias particulares a campos cada vez mais amplos, ao ponto de se poder afirmar, sem risco de erro, que muitos cientistas buscam alçar suas teorias à condição de metafísica última e fundamental da realidade. Como Étienne Gilson assinalou diversas vezes, essa submissão do Ser a uma ciência particular é uma tentação constante na história do Ocidente, apresentando-se no logicismo de Abelardo, no matematismo de Descartes, no fisicismo de Kant, no sociologismo de Comte e, por que não?, no biologismo de certos neodarwinistas. Contra isso, o físico Werner Heisenberg – homem de alta cultura e questões filosóficas profundas – advertia que tais projetos só poderiam se fundar em conhecimentos científicos definitivos, mas que estes são sempre aplicáveis em domínios limitados da experiência.
  
Tendência relativista

Como reação ao cientificismo, diversos filósofos e estudiosos das ciências humanas empenharam-se em questionar os critérios de racionalidade e validação do conhecimento, abraçando o relativismo como o último bastião possível de resistência ao avanço das ciências empíricas. Tudo o que existe são múltiplos discursos possíveis sobre o mundo e o discurso científico é só mais um entre muitos, de modo que há pouca diferença entre o Dr. House e o curandeiro de uma tribo. Não será necessário repetir aqui todos os já tão bem conhecidos problemas lógicos e epistemológicos dessa posição. Thomas Nagel já se deu o trabalho de elencá-los.

Embora equivocada, a reação do relativista manifesta claramente a percepção de que o discurso científico se torna cada vez mais hegemônico na sociedade hodierna. Praticamente não há um dia sem que o homem moderno não seja bombardeado por uma série de “pesquisas científicas” que “provam” que tal alimento faz bem à saúde, que tal outro prejudica seu organismo ou que determinado comportamento é “natural” e que outro não o é. O problema aumenta quando se tem em conta o poder que essas orientações têm de moldar o caráter e o pensamento de milhões de homens e mulheres no mundo inteiro. Sutilmente, o cientista vai se tornando não só o arauto da verdade, mas também o conselheiro em assuntos muito distantes de sua especialidade original. A pergunta óbvia é: “Por qual razão alguém deveria ouvi-los para além de seu campo limitado de estudo?”.

Não ser um cientificista ou um relativista não resolve o problema das relações da ciência com a filosofia e com outras atividades ou dimensões humanas. Significa somente não abraçar nenhum dos extremos do debate. É mais fácil apontá-los e rejeitá-los do que dizer em qual ponto entre esses limites deve estar a verdade. Não há solução fácil para essa questão. Mas um bom ponto de partida é reconhecer as diferenças entre filosofia e ciência e tentar estabelecer um diálogo que não passe pela capitulação de uma das duas. Isso significa, para a filosofia, abdicar do projeto “cartesiano” de determinar a priori quais são os princípios metafísicos a partir dos quais todas as pesquisas científicas devem se dar. E, para a ciência, atentar para o fato de que o real jamais pode se esgotar ou se reduzir a qualquer um de seus aspectos e, ao mesmo tempo, admitir que há perguntas legítimas e pertinentes que estão fora daquilo que seus métodos permitem averiguar.

Princípios universais

Seria ocioso não admitir que a ciência alcança verdades sobre o real. Não se constroem naves espaciais, satélites, celulares, aviões e carros sem conhecer algo do mundo. Mas o que ela alcança são os aspectos permitidos por sua metodologia e por seus pressupostos conceituais e ontológicos. Escolhas filosóficas já estão presentes como elementos constitutivos desse processo. Uma maior clareza com relação a esses pontos é imprescindível para uma compreensão mais profunda da própria atividade científica e de seus limites intrínsecos.

Cumpre notar que a filosofia não deve viver “à reboque” da ciência, restringindo-se a pensar e a refletir somente sobre problemas e dados levantados por esta última. Há que se admitir que a filosofia tem suas próprias questões e que, para muitas delas, a ciência tem pouco ou nada a contribuir para sua solução. Da mesma forma, o cientista não precisa de um filósofo ao seu lado no laboratório questionando cada passo do processo de pesquisa e pedindo sempre novas razões para suas ações. O melhor encontro entre a filosofia e a ciência ainda se dá na consciência do indivíduo que almeja compreender o mundo em sua integralidade e que, para isso, busca apreender as relações entre os diversos níveis do real e uni-los sob princípios cada vez mais universais.
  

Rogério Soares da Costa é pesquisador, professor e tradutor. Possui graduação em Filosofia pela UERJ (2005), mestrado (2007) e doutorado (2011) em Filosofia pela PUC-Rio. É pesquisador de pós-doutorado na UERJ, onde investiga as relações entre metafísica e física na obra do físico, filósofo e historiador da ciência Pierre Duhem.

sexta-feira, 18 de janeiro de 2013

Bem vindo a matemágicalandia.

Autor: Roberto das Neves



A equipe de Walt Disney criou uma animação nos anos 50, (cujo vídeo eu publico no final deste texto), onde o Pato Donald, entra em um mundo mágico e faz um tour guiado pelo espírito da aventura.

Esse mundo é o mundo da matemágica, mas na verdade, não há nada de mágico nele, pois o que é apresentado ao Donald, é o nosso mundo, onde ele aprende que existe uma linguagem usada para traduzir e demonstrar de forma lógica e racional, o universo e o seu funcionamento, e essa linguagem, é a matemática.

Donald descobre que esta linguagem pode explicar tudo o que existe, e que o domínio desta linguagem, pode ser usado como ferramenta para criar quase tudo àquilo que nosso intelecto imaginar, sendo que, esta linguagem, é usada inclusive, pela própria natureza.

A natureza nos fala pela matemática, e pela matemática aprendida, desvendamos os seus segredos.

Não há nada de mágico nisto, pois ao descobrirmos como traduzir esta linguagem e usa-la, percebemos que a mágica é apenas fantasia e tudo pode ser explicado de forma lógica e racional, se algo não puder ser explicado por esse ferramental, significa que esse algo não existe, não pertence ao mundo real, pertence apenas ao mundo da fantasia e da imaginação, sendo assim, irreal.

A matemática é natural e explica tudo aquilo que é natural, tudo aquilo que é real e existe, e pode ser usada para criar coisas que ainda não existem desde que, sejam usados para a sua criação, matéria e energia existentes naturalmente, tudo depende da tecnologia a qual dispomos no momento.

Se algo não pode ser explicado pela linguagem matemática, este algo não existe, não pode vir a existir e não pode ser criado.

Mas, nem tudo são flores...

Tudo ia bem, no mundo da ciência, até o momento em que se contestou a causalidade.

Causalidade

Princípio fundamental da "razão aplicada ao real, segundo o qual "todo fenômeno possui uma causa", “tudo o que acontece ou começa a ser supõe, antes dele, algo do qual resulta segundo uma regra" (Kant). Em outras palavras, princípio segundo o qual se podem explicar todos os fenômenos por objetos que se interagem, que são definidos e reconhecidos por meio de regras operatórias.

Segundo a concepção racionalista, a causalidade é um conceito a priori necessário e universal, isto é, independente da experiência e constituindo-a objetivamente: todas as mudanças acontecem segundo a lei de ligação entre a causa e o efeito.

Hume critica a concepção clássica de relação causal, segundo a qual um fenômeno anterior (causa) produz um fenômeno posterior e consequente (efeito), argumentando que essa relação não se encontra de fato na Natureza, mas apenas reflete nossa forma habitual de perceber as relações entre fenômenos. A causalidade não expressa, assim, uma lei natural, de caráter necessário, mas uma projeção sobre a natureza de nossa forma de perceber o real.


A partir desse momento, a ciência passa a não buscar a causalidade, por considera-la não natural, e passa a analisar apenas os efeitos, afirmando inclusive, que muitas coisas não possuem uma causa necessária para gerar um efeito.

Isso está ligado ao conceito de que, passado, presente e futuro estão conectados de forma simultânea, ou seja, acontecem ao mesmo tempo, e se acontecem ao mesmo tempo, não existe a necessidade de uma causa, uma vez que o efeito poderia existir juntamente com a causa.

Assim, como os efeitos são mais facilmente verificáveis, abandonou-se a busca pelas causas.

Mas seria realmente a causa, algo não natural?

Não seria na verdade, o tempo, este sim, uma projeção sobre a natureza de nossa forma de perceber o real?

Eu fiz uma longa explanação num texto onde defendo a hipótese de que o tempo não existe, uma vez que a natureza não necessita do tempo para funcionar, o tempo só existe enquanto fator psicológico nos seres vivos para se localizar no seu próprio espaço, o link para o texto, é esse aqui:


Ora, então, se é o tempo que não existe, então a causa existe.

A questão é que muitas vezes, não conseguimos apontar a causa correta para a existência de um fenômeno.

Ao apontamos a causa errada, ou não apontarmos uma causa, apesar de podermos analisar seus efeitos, estes não poderão ser conectados com a verdadeira causa, esta não conexão, irá gerar o desencadeamento da criação de uma série de equações matemáticas analíticas, que descambarão para o mundo da fantasia e do irreal.

Um mundo onde todas as coisas que se pode imaginar, podem ser possíveis, por mais descabidas que sejam: viagens no tempo, viagens com naves espaciais com velocidade igual ou maior do que a velocidade da luz, dobras espaciais, tele transporte, universos paralelos, múltiplas dimensões, etc., etc., etc..

Se não existem causas que geram os efeitos, tudo é permitido e tudo é possível na criação de fórmulas matemáticas, mas, essas fórmulas matemáticas, dirão apenas aquilo que queremos que digam, mas não dirão necessariamente a verdade do mundo real, uma vez que houve uma ruptura do pensamento lógico e da razão entre o real e o imaginário, causada pela nossa não capacidade em perceber que: causas geram efeitos e que efeitos não existem sem causas.

E o pior nessa história toda é que, ao deixarmos as causas de lado e nos preocuparmos apenas com os efeitos, esquecemos a necessidade de verificar as causas postuladas até aquele momento, as causas propostas por Newton, por Einstein e por muitos outros.

Assumimos que estas causas anteriormente postuladas estão corretas, são elas que geram determinados efeitos e não mais precisam ser verificadas.

Nem nos passa pela cabeça, que talvez, algumas dessas "consagradas Causas", estejam completamente erradas, que talvez, não sejam essas causas apontadas, as causas geradoras dos efeitos, nós simplesmente não fizemos as devidas e necessárias verificações, apenas as aceitamos, por acreditarmos que estejam corretas, pois a matematização formulada, indicava isso.

Só que, se a formulação tiver sido feita, baseada em uma causa errada, as fórmulas matemáticas não nos dirão isso, estaremos então, sendo iludidos pelos resultados.

Se estivermos sendo iludidos, isso significa que toda a estrutura teórica em que nos baseamos para criar novas teorias até hoje, a partir daqueles resultados, pode estar completamente equivocada, entramos por um caminho errado, matematizando mundos irreais, e tudo aquilo que estamos acertando matematicamente, na verdade, está sendo acertado no chute. 

É nossa a falha, em relação a apontar as causas erradas ou não aponta-las, não é culpa da linguagem matemática, nós prostituímos a linguagem matemática, transformando-a de algo natural, para algo completamente artificial.

Pobre Pato Donald, se ele viaja-se para a terra da Matemágica hoje, iria encontrar em seu lugar, um bordel.



segunda-feira, 14 de janeiro de 2013

A consciência, a nanotecnologia e o fator da irredutibilidade.


Autor: Roberto das Neves



Muita gente se pergunta se insetos, vírus, células e até mesmo moléculas e partículas, poderiam ter algum tipo de consciência sobre si mesmo, um sistema gerador de pensamento complexo.

A resposta é não.

O pensamento, a consciência, é um fator gerado pela quantidade e a quantidade não pode ser reduzida, pois, quanto mais se reduz a sua quantidade, menor é o fator gerador da consciência.


A autoconsciência existe em vários graus, um humano tem um grau de autoconsciência maior do que um macaco. E a escala vai caindo, de acordo com a quantidade de neurônios existente em cada ser vivo, que é usada exclusivamente para a formação de pensamento e ideias.

Por exemplo, um macaco quando olha um espelho, reconhece a si mesmo no reflexo, um cachorro, não.

A autoconsciência é então, o ato de reconhecer a si mesmo...

Neste sentido, quanto mais células nervosas um ser possui, que não estejam comprometidas com outras funções motoras ou metabólicas, maior é o fator de consciência, e não é possível miniaturizar uma célula nervosa biológica, fazer seu tamanho diminuir para ocupar um menor espaço no crânio, se fosse possível, a própria natureza, por meio da evolução, teria desenvolvido um meio para isso.



Algumas pessoas podem cogitar sobre a autoconsciência, em relação ao tamanho do cérebro de um elefante ou de uma baleia, que são bem maiores que um cérebro humano, e possuem muito mais neurônios, e dessa forma, teorizarem que estes animais poderiam alcançar futuramente, uma auto consciência.

Mas se esquecem que estes cérebros, gastam uma enorme quantidade de energia e funções para controlar seus movimentos e seu metabolismo, devido aos seus enormes tamanhos, sobrando pouca coisa para um sistema autoconsciente poder emergir, uma vez que, todos os seus neurônios são usados para executar essas funções de sobrevivência comandadas por seus genes..

Tomemos agora como exemplo, um tipo de vespa, que, para se reproduzir insere seus ovos dentro de outro inseto, para que o ovo se desenvolva em larva e se alimente desse hospedeiro ainda vivo.

Se esta vespa tivesse um sistema nervoso altamente evoluído através de células nervosas miniaturizadas, para assim possuir a mesma quantidade de células nervosas que possui um ser humano ou outro animal com algum grau menor de consciência, e dessa forma, ser, ela a vespa, também possuidora de consciência, ela possivelmente começaria a se questionar sobre sua forma de reprodução...

O que a move, não é o pensamento semi ou consciente, mas sim, o pensamento que a sua quantidade de neurônios lhe permite, sendo esse pensamento comandado pelas instruções contidas em seus genes.

Outras pessoas poderiam cogitar sobre a consciência emergindo de uma comunidade social, como por exemplo, um formigueiro.

O cérebro de uma formiga possui aproximadamente 2,5×10 elevado à 5ª potencia de neurônios, enquanto o cérebro humano possui aproximadamente 1,0×10 elevado à décima potencia de neurônios.

Portanto, uma colônia de 40.000  formigas possui o mesmo número de neurônios que um cérebro humano.

A questão é que existem vários tipos de formigas especializadas dentro de um formigueiro, e cada tipo de formiga, possui uma quantidade de neurônios maior ou menor, justamente para exercer adequadamente suas funções especializadas.

Isso significa que, todos os neurônios de uma formiga, são totalmente dirigidos pelas instruções contidas em seus genes, não sobrando neurônios livres para, em grupo com a colônia, serem usados para a formação de uma consciência coletiva.

Isso nos leva à questão da nanotecnologia, seria possível desenvolver nano robôs conscientes?

A resposta é não.


Os neurônios variam muito de comprimento em função do seu axônio. Alguns axônios podem medir alguns milímetros e outros podem chegar a 1 m. O diâmetro do neurônio é de cerca de 0,1 mm.

Se conseguirmos construir um nano robô do tamanho de um neurônio,  e acredite, este seria um nano robô grande, para que este nano robô funcione, será necessário que ele possua dentro dele, uma série de neurônios cibernéticos que farão com que ele possa executar várias funções necessárias, tal qual os neurônios que uma formiga possui, a questão maior, é que, para que o nano robô funcione e possa alcançar uma auto consciência coletiva, além dos neurônios usados para o seu funcionamento, seria necessário se acrescentar outros neurônios que executariam a função de neurônios livres, para daí, este nano robô, ligar-se em rede com outros nano robôs, para formar uma consciência.

Só que o problema final está na irredutibilidade, ora, um nano robô do tamanho de um neurônio, para funcionar pelo menos, como uma mera formiga, para executar sua funções, necessitaria possuir a seguinte quantidade de neurônios: 2,5×10 elevado à 5ª potência, quantidade essa, que deveria ocupar um espaço menor do que um neurônio biológico ocupa, pois, estes neurônios cibernéticos seriam apenas uma parte de todo o nano robô.

A miniaturização necessária para se criar um nano robô cibernético funcional, com células cibernéticas funcionais de tamanha ordem de miniaturização, sabendo-se a enorme quantidade de neurônios cibernéticos necessária para que um nano robô do tamanho de uma única célula neural biológica, funcione adequadamente, não é nem um pouco provável, por mais fé que se tenha na hipotética possibilidade.


Esses nano robôs, para desenvolver uma consciência, dependeriam assim, de um cérebro externo, com o tamanho suficiente para possuir um sistema nervoso cibernético, com a enorme quantidade de células nervosas cibernéticas necessárias, para controlar as ações de todos os nano robôs, através de ondas de rádio, além de uma enorme quantidade extra de neurônios livres, para fazer emergir uma consciência.

Mesmo assim, os nano robôs, não seriam conscientes, mas seriam na verdade, apêndices rádio controlados por uma consciência externa.

O máximo que poderemos fazer, são nano robôs com a inteligência suficiente para efetuar pouquíssimas ações pré-programadas o que em última análise, não seria uma inteligência propriamente dita, eles seriam apenas autômatos com instruções para executar algumas ações de forma mecânica.

E só lembrando, ainda levará muito tempo, para conseguirmos desenvolver um cérebro robótico semiconsciente, muito, muito tempo mesmo, o que dirá então, de um robô totalmente consciente...
.
.
.

quinta-feira, 10 de janeiro de 2013

O experimento da dupla fenda e o nascimento da religião quântica.

Autor: Roberto das Neves
.
Uma proposta para um novo experimento de dupla fenda, visando corrigir algumas aberrações analíticas contidas na mecânica quântica.

Todo mundo que estudou física na escola, já leu sobre o experimento da dupla fenda de Young, realizada no ano de 1.801 e repetida em 1.961, onde supostamente se comprovaria que uma partícula se comporta ora como corpúsculo (algo físico) e ora como onda (vibração ou propagação ondulatória não física).





E todo mundo conhece a “brilhante” dedução dos cientistas da época, ao fazerem a medição do experimento, e notarem que, quando se tentava observar (medir) o experimento, o corpúsculo sempre se apresentava como partícula e não como onda, e quando não se se observava (media-se) o experimento, o corpúsculo comportava-se como onda e não como partícula.

A “brilhante” dedução foi a seguinte: O corpúsculo sabia quando iria ser medido e por isso comportava-se como partícula, e quando sabia que não seria medido, comportava-se como onda, atravessando as duas fendas ao mesmo tempo.

Isso significa que todo evento, sofreria interferência do observador.

Mas, significaria também, que de alguma forma, a partícula teria algum tipo de consciência, para sentir quando está sendo observada ou não, e comportar-se de acordo com o evento observacional.

Outra “brilhante dedução”, é que a partícula em estado de onda, poderia estar em dois lugares ao mesmo tempo, permitindo que esta, atravessa-se as duas fendas em um mesmo instante.

Agora pense bem: Ao se lançar elétrons um a um e observarem um efeito tipo onda tal qual observado com o experimento da água, a conclusão, mais plausível, seria que: os elétrons estão interagindo com o meio, ou seja, o ambiente está repleto de fótons de luz, neutrinos, átomos, moléculas de ar e muitos outras partículas e sub-partículas, que geram o efeito onda.

No entanto, eles fizeram a "brilhante" dedução: A partícula se divide em duas causado pelo efeito onda.

Se essas deduções estivessem corretas, poderíamos fazer uma experiência com dez fendas ao invés de duas, e a partícula se dividiria em dez? (é muita viagem na maionese...)

Destas "brilhantes" deduções, concluíram que todo evento, para acontecer (se comportar) de uma forma ou de outra, necessita de um observador, e, para se explicar e comprovar isso, criou-se o experimento mental denominado: “experimento do gato de Schrödinger”, que determina que: Um evento só se cristaliza em uma realidade ou outra, no momento em que esta for observada (medida).



Enquanto o evento não for medido ou observado, ele ficaria em um estado “quântico”: o gato estará vivo ou morto, ao mesmo tempo, sendo que, um dos eventos só tornar-se-á realidade, no momento de sua medição ou observação.

Se isso fosse realmente verdade, o universo não existiria, pois, para existir, seria necessário um observador, algo consciente, para quebrar o estado quântico, para que o evento seguisse uma ou outra condição.

Contudo, os cientificistas rechaçam essa ideia, afinal, afirmar a existência em um Criador consciente, os deixaria de mãos atadas, não é mesmo?

Como sair dessa enrascada?

Isso gerou hipóteses e deduções absurdas que deram origem a todo o arcabouço “científicista” que culminou no estabelecimento de uma nova forma de Física, denominada: “Mecânica quântica”, onde causa e efeito, não podem ser precisamente quantificados, e formalizando que, nem todo efeito tem uma causa passível de ser explicada ou existente, usando-se para explicar os fenômenos, cálculos e tabelas probabilísticas, que definiriam o percentual de probabilidade de um evento ter ou não uma causa ou se comportar de um ou de outro modo.

Tudo isso, para evitar e esconder a verdade: Realmente existe um Criador.

Assim, a física passa a deixar de lado a causa, tornando-a algo não passível de ser quantificado, pois acreditam que muitas coisas podem não ter a necessidade de uma causa, e passa então, a se importar apenas com os efeitos, pois estes, podem ser "medidos", mas, diga-se de passagem, nunca de forma plenamente satisfatória, pois o que passa a ser utilizado para explicar os efeitos e suas consequências, é a probabilidade.

E essa nova forma de se pensar a física, foi um prato cheio para os místicos de plantão corroborar suas mais insanas ideias, ideias que acabaram influenciando profundamente os próprios físicos teóricos, experimentalistas e matemáticos, de tal forma, que hoje, acredita-se nas coisas mais absurdas, porque seriam matematicamente e probabilisticamente prováveis.

Mas, uma fórmula matemática, diz aquilo que queremos que diga, mas, não diz necessariamente, a verdade.
E essa influência mística acabou cegando a razão e a lógica da maioria daqueles que se dedicam às ciências.
Hoje, estes experimentos e suas “deduções quânticas” são ensinados como “verdades absolutas”.

Doutrinam-se os alunos, pois os professores também foram doutrinados a acreditar nessas “verdades teóricas” baseadas em suposições que não se baseiam nos resultados Experimentais, se baseiam em achismos.

E esses alunos, tornaram-se cientistas e professores que continuaram e continuam disseminando doutrinariamente essas “verdades”.

Mas, existe uma explicação mais lógica, mais racional, mais causal para explicar os resultados obtidos no experimento da dupla fenda, fazendo-se um novo e mais elaborado experimento?

Sim, existe e passarei a lhes narrar, neste momento, um experimento mental e um experimento prático (real) desenvolvidos por mim, para a efetuação de experimento prático de dupla fenda feito em ambiente de vácuo semi ou total:

Todo corpúsculo, seja ele um elétron ou um fóton, ou qualquer outra partícula ou sub-partícula, possui um movimento denominado “movimento Spin”, que significa que: uma partícula gira em torno de seu próprio eixo.
Esse movimento giratório, afeta todo o meio onde a partícula se desloca, gerando ondas vibracionais em todas as outras partículas e sub-partículas que estão nesse meio, e essas outras partículas, afetam a partícula que iremos medir, pois também geram ondas vibracionais devido aos seus movimentos de deslocamento e rotação Spin (um efeito cascata).

Isso significa que: Toda partícula física, gera "ondas" vibracionais através de seus movimentos de deslocamento e rotação (Spin) desde que, elas estejam em um ambiente propício, onde as "ondas" geradas por sua rotação afetarão outras partículas, ou seja, em um ambiente de não vácuo total, pois as partículas estarão se chocando com sub-partículas, partículas, átomos e moléculas.
Em todos os experimentos efetuados sobre a dupla fenda, jamais se testou o experimento em um ambiente de vácuo total ou de semi-vácuo.

E o motivo é simples: Não existe o vácuo total, tanto na natureza, quanto na forma artificial laboratorial.

Mesmo em um experimento físico que supostamente seria de vácuo total, este na verdade, não o seria. Fótons, neutrinos, e um enorme número de sub-partículas, estariam constantemente atravessando essa suposta câmera experimental de vácuo total, na verdade, a câmera seria na realidade, uma câmera de semi-vácuo.

Um experimento de vácuo total, só pode ser elaborado através de experimento mental, em um experimento mental, tudo vale, tudo pode ser concebido, mas, pensar no experimento, não o torna real ou possível.

Então, pensemos como seria esse experimento num ambiente de vácuo total:
Uma partícula que fosse lançada de um ponto A para B, seria medido de ponta a ponta do evento, como somente partícula, e atravessaria ou uma ou outra fenda, nunca as duas fendas ao mesmo tempo, pois seu movimento spin não teria como afetar um meio onde não existe nada que o movimento rotacional poderia interagir, ou seja: outras partículas (para gerar o efeito de ondas, que atravessariam as duas fendas ao mesmo tempo).

É preciso lembrar também, que em um experimento de vácuo total, não pode haver interferência da luz ambiente, pois, a luz, é gerada pelo fóton, que é uma sub-partícula.

Então, o experimento de vácuo total, deveria ser feito em câmara à prova de luz (lembrando que este experimento, só existiria em sua mente, não poderia ser realizado de forma física, real).

Já, num experimento de semi-vácuo, em câmera à prova de luz, este sim, um experimento real (que pode ser realizado fisicamente), as ondas medidas, terão uma menor intensidade, do que as ondas medidas em um ambiente experimental sem vácuo e não à prova de luz, como normalmente é realizado, pois as ondas geradas pelas partículas interagirão com um ambiente com menor interferência.

Então, temos três tipos de experimentos:
1) Experimento em vácuo total, que só pode ser realizado por experimento mental (e não um experimento real).

Nesse experimento mental, a partícula lançada, não geraria o efeito de onda, além disso, ela passaria por uma, ou outra fenda, nunca pelas duas.

2) Experimento em semi-vácuo à prova de luz, (experimento real, que pode ser realizado fisicamente, mas que nunca foi realizado).

Nesse experimento físico (real), notaremos que a partícula gerará o efeito de onda, mas esse efeito será muito menor do que o efeito observado no experimento sem vácuo.

3) Experimento sem vácuo, com ausência de vácuo (experimento real, que é o experimento que sempre foi e é realizado, e deu origem à “pataquada” da mecânica Quântica).

Nesse experimento físico (real), notaremos que a partícula lançada, gerará o efeito de onda, de forma intensa, pois o meio estará repleto de partículas e sub-partículas em movimento e em constante choque entre elas, gerando enorme quantidade de ondas, que, erroneamente, são atribuídas unicamente à partícula lançada no experimento.

Com esses experimentos, constataremos os seguintes resultados:
Toda partícula, gera "ondas", através de seu movimento de deslocamento e rotação (Spin).

Estas ondas só se propagam em um ambiente propício, ou seja, um ambiente onde existem outras partículas e sub-partículas que serão afetadas por seu deslocamento e rotação Spin, gerando um efeito cascata (partículas interagindo (se chocando) com outras partículas e sub-partículas).

O movimento Spin, não se propaga no vácuo total, pois neste ambiente fictício, as "ondas" geradas pelo movimento, não tem como interagir com outras partículas e sub-partículas, que também gerariam "ondas", em um efeito cascata (ondas afetando outras partículas que gerariam outras ondas).

Se o movimento Spin, não se propaga no vácuo total, significa que nesse meio, ele não gera "ondas" vibracionais perceptíveis, pois elas não têm com que interagir.

A partícula, irá sempre passar por uma, ou por outra fenda, mas nunca pelas duas fendas ao mesmo tempo.
São as ondas geradas pelo movimento Spin que afetam o meio propício, causando a ilusão de que a partícula, em um suposto estado de "onda", atravessaria as duas fendas ao mesmo tempo.

A partícula passa por apenas uma fenda, mas suas "ondas" passarão pelas duas fendas, desde que, o ambiente possua meios suficientes para o deslocamento e rotação Spin interagirem (ambiente contendo outras partículas e sub-partículas que se chocarão para causar o efeito de "onda").

Mas, se no experimento de vácuo total (experimento mental), lançarmos várias partículas ao mesmo tempo, de um ponto A para um ponto B, todas elas irão afetar umas às outras, pois seus movimentos Spin irão interagir umas com as outras, gerando o efeito de ondas, passíveis de serem observadas e medidas, uma vez que, o ambiente de vácuo total, deixaria de ser vácuo total, devido à quantidade de partículas nele inserido.

E com esses experimentos, se forem efetuados de forma correta e isenta, e seus resultados comprovarem minhas hipóteses, colocaremos mais uma grande pá de terra, na cova de algumas das moribundas e malfadadas explicações viagem na maionese,
que deram origem a uma série de equívocos místicos quânticos, que transformaram a ciência em uma quase religião, sempre lembrando que: Não é toda a hipótese quântica que está errada, mas sim suas premissas analíticas baseadas em achismos fantasiados com matemática, precisamos corrigir alguns percalços nela contidas, para chegarmos aos fatos corretos.

 E para encerrar:


.
.

.

quarta-feira, 2 de janeiro de 2013

Teoria do Big Bang, uma teoria muito mais filosófica do que científica.



Autor: Roberto das Neves.
.
.
Muitas pessoas que apoiam e defendem a teoria do Big Bang, não percebem que esta teoria, é na verdade mais filosófica do que científica, e dessa forma acabam vendendo gato por lebre...



Foi um padre chamado Georges Lemaître, formado em física, quem propôs essa teoria.
A hipótese de Lemaître estipula que todo o universo (não somente a matéria, mas também o próprio espaço) estava comprimido num único átomo chamado de "átomo primordial" ou "ovo cósmico". O estudioso afirmava que a matéria comprimida naquele átomo se fragmentou numa quantidade descomunal de pedaços e cada um acabou se fragmentando em outros menores sucessivamente até chegar aos átomos atuais numa gigantesca fissão nuclear.
Foi Lemaître, portanto, quem propôs a Teoria do Big Bang, mais tarde desenvolvida e complementada por George Gamow.

Gamow apresentou a hipótese da expansão desse átomo primordial, complementando a teoria inicial de Lemaítre.

As questões que coloco ao afirmar que esta teoria é muito mais filosófica do que científica, baseia-se nas seguintes informações:

Toda teoria nasce primeiramente com uma teoria filosófica, e somente torna-se científica quando, através de experimentação, comprovamos os acertos desta teoria, conforme escrevi em meu artigo: Teorizando as teorias: http://gilghamesh.blogspot.com.br/2012/08/teorizando-as-teorias.html

No caso da teoria do Big bang, esta, carece muito de dados comprobatórios que confirmem suas hipóteses.

Primeiramente, não existe uma única comprovação sequer de que o universo surgiu de um único átomo que deu origem a toda a energia e matéria existentes hoje.
Lemaítre e Gamow, jamais conseguiram explicar como, um único átomo pode gerar outros átomos do nada.

Eles jamais conseguiram explicar como e por quê, esse único átomo explodiu e causou uma expansão, gerando, além de toda a matéria e energia, o tempo e o espaço.

A hipótese da expansão, afirma que esta expansão ocorreu com uma velocidade maior do que a velocidade da luz, contrariando a lei que afirma que não existe nada que possa viajar pelo espaço, que seja mais rápido do que a luz. Para contornar este problema, os teóricos afirmam que, o espaço não existia até a explosão desse átomo, e assim, existiria a possibilidade de a expansão ser mais veloz do que a velocidade da luz, uma vez que o espaço seria criado juntamente com a expansão do universo.

Apesar desta afirmação, nenhum físico teórico ou experimentalista, jamais conseguiu comprovar esta hipótese de expansão mais rápida do que a luz.
Mas a questão fulminante é a questão da força gravitacional.

Quando Newton criou a teoria da força da gravidade, afirmou que esta força era gerada pela massa, mas, nunca conseguiu explicar como a massa cria ou gera essa força gravitacional.
Einstein procurou melhorar a lei da gravidade, proposta por Newton, mas apesar de seus esforços, nunca conseguiu também, explicar como a massa é capaz de gerar a força gravitacional.

Os físicos defensores da mecânica quântica, que afirmam ser a teoria do big bang, algo que realmente aconteceu, para explicar o que é a força gravitacional, que não é explicada pela teoria do Big bang, propuseram que esta força é gerada por uma partícula chamada de gráviton.

Mas essa proposta não explica absolutamente nada, primeiramente, porque afirmar que existe uma partícula responsável pela força gravitacional, apenas acrescenta mais um vagão em um trem teórico, sendo que esta hipótese, não explica como essa partícula gera a força gravitacional.

E finalmente, além de não explicar, tal partícula chamada de gráviton, jamais teve sua existência confirmada, tal qual a existência do Bóson de Higgs, outra masturbação teórica quântica não confirmada pela experimentação, e não venham afirmar que a equipe do LHC conseguiu confirmar a existência do Bóson de Higgs,  pois eles não o confirmaram, eles encontraram não uma, mas duas partículas e afirmam ter 99,99% de chance de uma dessas partículas ser o tal bóson de higgs, apesar de todo o alarde em torno disso, não dá para afirmar que o bóson de higgs realmente existe, o que eles encontraram pode ser apenas mais duas partículas não responsáveis pela massa e não o bóson de higgs propriamente.

É muito temerário afirmar sem sombra de dúvida que o bóson de Higgs, realmente existe, aguardemos os estudos finais sobre esse assunto, eu pessoalmente aposto no fracasso da comprovação final de que ele exista, vamos esperar...


O grande problema da teoria do big bang, é que nela foi juntada hipóteses com teorias, vale aqui lembrar a diferença entre as duas coisas...

O ovo cósmico que teria dado origem a tudo é apenas uma hipótese não comprovada, e nunca será...

A chamada "expansão do universo" é também uma hipótese, pois a única coisa que lhe daria certa credibilidade seria o efeito redshift observado por Hubble, ao afirmar que as galáxias estão se afastando uma das outras a grandes velocidades, sendo que as galáxias que tendem para o vermelho estão mais distantes e se afastando mais rapidamente, e as com desvio para azul estão mais próximas de nós, afastando-se mais vagarosamente.

No entanto, a afirmação de Hubble é mais hipótese do que teoria, caso a expansão existisse e as galáxias se afastassem uma das outras, como explicar a série de galáxias que estão em rota de colisão, sendo que, várias fotos demonstram que estas colisões estão acontecendo entre galáxias com amplitude de raio vermelho, contra galáxias com amplitude de raio azul,  como elas poderiam estar colidindo, se as suas amplitudes, segundo diz a teoria de Hubble demonstrariam que elas estão  muito distantes uma das outras, tornando uma colisão entre elas impossível? Lembre-se: "as galáxias que tendem para o vermelho estão mais distantes e se afastando mais rapidamente, e as com desvio para azul estão mais próximas de nós, afastando-se mais vagarosamente."

Alguns pesquisadores estão estudando novas hipóteses, e uma delas define que o universo não está em expansão, mas sim, gira em torno do seu próprio eixo, fazendo com que as galáxias que estão mais próximas do seu centro gravitacional, orbitem o núcleo mais rapidamente e que, as galáxias mais afastadas do seu núcleo orbitem mais vagarosamente, o efeito redshift, seria a comprovação desse movimento e explicariam ainda, por que muitas das galáxias estão em rota de colisão...

Se observarmos a foto abaixo, podemos hipoteticamente dizer que o que se afirma ser lente gravitacional, segundo a teoria de Einstein, seria na verdade, o movimento mais rápido ou mais lento, das estrelas em torno de seu centro gravitacional:




As estrelas mais próximas do centro, orbitam mais rápido emitindo luz vermelha e as estrelas mais afastadas, orbitam mais vagarosamente, emitindo luz azul...

No entanto, essas novas hipóteses, também não explicam como a massa pode gerar força gravitacional (se é que a massa gera realmente algum tipo de força...)...


No entanto, apesar da teoria do big bang ser falha, foi agregada a ela, uma série de teorias válidas, como por exemplo, a teoria da formação das estrelas de Bethe e Brow a a teoria de Fowler sobre a formação da matéria.

Ambas as teorias estão recheadas de evidências comprobatórias e são elas as únicas a fazerem parte da teoria do big bang, que realmente se sustentam, fazem sentido e são comprováveis.



Uma teoria que tenta explicar o surgimento do universo, sem levar em conta as forças gravitacionais necessárias para tal coisa, não tem valor nenhum, uma vez que dá margem a erros de interpretação sobre uma série de fenômenos. As forças eletro-magnéticas e nucleares, são muito bem explicadas, apontando suas causas e efeitos, já a força gravitacional, apontam uma suposta causa (a massa), mas jamais explicaram como e porque ela (a massa), gera tais efeitos...

Criar teorias é fácil, confirma-las, são outros quinhentos...

E enquanto isso, muita gente defende gato por lebre sem saber, somente porque alguns teóricos da mecânica quântica vendem seus gatos na televisão e livros “científicos”, como algo verdadeiro ou realmente possível, desonestamente, uma vez que vendem apenas teorias, e não, as confirmações de suas teorias...



Os seguintes físicos e cosmólogos, contestam a teoria do Big Bang:

Dr. Halton C. Arp, Andre Koch Assis, Geoffrey Burbidge, Margaret Burbidge, John Dobson, Professor Truls Hansen, Fred Hoyle, Eric Lerner, Martin Lopez-Corredoira, Kary B. Mullis, Jayant V. Narlikar, Jean-Claude Pecker, Anthony Peratt, Kristoffer Rypdal and Jack Sulentic.



.
.
.

sexta-feira, 26 de outubro de 2012

Usar o raciocínio lógico e a razão, para comprovar uma teoria, nem sempre é lógico.

Autor: Roberto das Neves


Muitos filósofos afirmam que se pode chegar a uma resposta correta, para explicar um fenômeno, através da lógica pura e da razão, este é um conceito básico oriundo dos primórdios da filosofia, mas, será mesmo que podemos obter respostas satisfatórias usando apenas a lógica pura e a razão?


A resposta é um sonoro: NÃO!

Irei citar dois fenômenos do cotidiano, cujos resultados são puramente baseados nos resultados da lógica observacional e da razão, ou seja, ao se observar um fenômeno, nós tiramos conclusões lógicas para explicar “satisfatoriamente” este fenômeno, apesar do resultado observacional estar aparentemente correto, pois se basearam na lógica e na razão, sua resposta, está baseada em comprovações incorretas, pois somos iludidos por aquilo que observamos.

Através do raciocínio lógico e da razão, podemos apresentar provas de que o sol gira em torno da terra, para isso, basta observarmos o percurso do sol ao longo do dia: O sol nasce do lado leste do horizonte e leva doze horas para se por do lado oeste do horizonte, e observamos que esse movimento do sol forma um arco, logo, sabendo que o período noturno também possui doze horas, se imaginarmos o arco do movimento do sol se completando no período noturno, chegamos à conclusão que o sol forma um círculo completo em torno da terra, logo: através das conclusões lógicas baseadas na observação, obtemos provas de que: O sol gira em torno da terra.

Usando a lógica e a razão, podemos também, provar que a terra é imóvel e não gira em torno de seu próprio eixo.

Para provar isso, faremos o seguinte experimento: Subamos em um prédio de duzentos andares, no topo do prédio, posicionamos uma bola de ferro de cinco quilos e a deixamos cair em queda livre até o chão.
Iremos observar que a bola, ao cair, segue uma trajetória totalmente paralela ao prédio.

Conclusão lógica: Se a terra tivesse movimento, a bola seguiria uma trajetória perpendicular ao prédio, e não uma trajetória paralela, pois o prédio está fixo na terra e se movimentaria juntamente com a terra, a bola, por estar em queda livre, não estaria presa a terra, sendo que seu movimento corresponderia ao movimento da terra, efetuando uma trajetória de queda, perpendicular ao prédio.

Estes são apenas dois singelos exemplos de como, usando a lógica e a razão, podemos chegar a conclusões totalmente erradas para validar uma teoria.

Foi preciso aparecer um sujeito, chamado Galileu Galilei, para provar que tais resultados baseados puramente na lógica e na razão, estavam errados e não poderíamos afirmar muitas das conclusões filosóficas, como verdades absolutas.

Infelizmente, até hoje, muitos filósofos não entenderam os argumentos de Galileu, e continuaram a desenvolver teorias, cujas conclusões são baseadas somente na lógica e na razão, sem se preocupar em desenvolver teorias verdadeiramente falseáveis, teorias que podem ser postas à prova, pois continuaram a acreditar piamente que a lógica e a razão, são parâmetros plenamente confiáveis e que resultam em respostas verdadeiras e inquestionáveis.

A obra de Galileu Galilei deveria ser a primeira matéria a ser apresentada nos cursos de filosofia, para, a partir daí, ser usada como balizadora para estudar os trabalhos dos filósofos, e tendo por base os parâmetros de Galileu, analisar as teorias filosóficas e se chegar a conclusões sobre a real validade de tais afirmações filosóficas baseadas apenas na lógica e na razão.


Spock, você muitas vezes estava errado, pois sempre se baseava em conclusões puramente lógicas e a lógica nem sempre é confiável...


quinta-feira, 4 de outubro de 2012

Dividindo o bolo pelo método Marxista.

Autor: Roberto das Neves


Você já deve ter ouvido a ladainha de Marx que prega que o mundo só seria justo, se não houvesse divisão de classes, não é mesmo?



O que seria isso, trocando em miúdos?

A divisão de classes é uma forma de se classificar grupos de pessoas, pela quantidade de dinheiro que cada uma delas ganha, ao longo de um determinado período de tempo.

Aqui no Brasil, estes grupos estão divididos em classes:  A1, A2, B1, B2, C1, C2, D, E, sendo que: a classe E,  refere-se ao grupo de pessoas que menos recursos tem, para disponibilizar a sua sobrevivência, e o Grupo A, é o grupo que mais recursos possui para disponibilizar a sua sobrevivência.

Segundo os últimos dados da ABEP:

A ABEP – Associação Brasileira de Empresas de Pesquisa utiliza a classificação para as classes sociais para a Renda Total Familiar (por mês), considerando uma família de quatro pessoas.

Em A1 com renda familiar acima de R$ 38.933,88, A2 com renda até R$ 38.933,88, B1 com renda de até R$ 26.254,92, B2 com renda familiar até 13.917,44, C1 com renda familiar até R$ 8.050,68, C2 com renda de até 4.778,12, D renda de até 2.905,04 e a classe E com renda de até 1.939,88.

Somente 1% da população brasileira pertence à classe A1, 4% pertencem à classe A2, temos 24% de brasileiros na classe social B, na Classe C temos 43% dos brasileiros, que seria a chamada “classe média”, e por fim temos 25% de pessoas na classe D, também conhecida como classe média baixa e finalmente, uma minoria de 3% que são classificadas como classe E que são as pessoas mais pobres da lista.

Então, vamos ao que interessa, diretamente ao ponto.

O sistema econômico teorizado por karl marx, preconiza que, todos os sistemas de produção: Fábricas de matérias primas, fábricas de manufaturados, empresas de prestação de serviços, e outros, devem pertencer ao estado.

Parte do lucro advindo dessas empresas seria dividido igualmente entre todos os cidadãos trabalhadores (a tal classe única proletária), e o restante, seria usado para a manutenção do estado: construção de estradas, hospitais, escolas, manutenção das fábricas, em suma, toda a estrutura necessária para atender as necessidades básicas da população.

Nesse sistema, educação, saúde, saneamento básico, e outros elementos necessários, seriam gratuitos, todos os cidadãos, teriam direito a usufruir desses sistemas básicos.

Na verdade, não seria gratuito, pois, o dinheiro usado para a manutenção de todas as áreas necessárias para manter o estado, seriam originárias do lucro advindo das empresas estatais.

Ou seja, o lucro dessas empresas, não é dividido igualitariamente entre os trabalhadores, pois grande parte desse lucro seria usado pelo estado, para manter o sistema funcionando.

Uma grande parte do lucro das empresas estatais, que seria destinado a você, jamais chegaria às suas mãos, pois muitas vezes, não seria convertido em benefícios diretos para você e sua família, ele seria usado em coisas que em nada auxiliariam ou estariam ligadas a sua vida.

Só que, a coisa, começa a ficar muito pior, vejamos:

Uma vez que existe apenas uma única classe social, significa que existe apenas um salário.

Ou seja, independente da profissão e tempo que você teve que disponibilizar para se formar, seu salário será exatamente igual ao de todos os outros profissionais que trabalham em qualquer outra área.

Novamente, trocando em miúdos: Se você estudou para se tornar um médico altamente especializado, investindo muitos anos da vida ao estudo, quando você começar a trabalhar, você receberá exatamente o mesmo salário que um lixeiro, que para exercer este trabalho, não necessita mais do que o ensino básico para exercer a profissão.

O fato de você, enquanto médico, viver diariamente sob a tensão de ter vidas em suas mãos e tentar salva-las, o stress advindo dessa profissão, os anos de estudo de especialização em que você gastou grande parte de sua vida, não são levados em conta na hora de receber o seu salário, pois o sistema de karl marx, preconiza que todos recebam o mesmo salário, independente de qual profissão exerça.

Se você, por exemplo, trabalha em uma profissão onde exista risco para a sua vida ou para a sua saúde, você não receberá um adicional periculosidade, você receberá o mesmo salário que um balconista, por exemplo.

Se você é um administrador de empresa, responsável por manter toda uma cadeia de eventos que farão a empresa funcionar corretamente, você receberá o mesmo salário daquele funcionário que tem a função mais fácil e sem complicação que existe, como por exemplo, um empacotador.

E a coisa complica ainda mais:

Uma vez que todos os salários são iguais, não importa que você seja um excelente profissional, sua dedicação e talento para a carreira que escolheu, não tem valor algum, se você é um profissional talentoso, você receberá o mesmo salário de um profissional medíocre, que se formou empurrando o curso com a barriga e que não tem o talento, a dedicação e nem a competência que você tem.

Ou seja, não existe um sistema meritocrático nas teorias de karl marx, uma vez que tal sistema, criaria automaticamente, classes sociais dentro de um sistema proletário que não admite a necessidade de classes.

Então, o que acontece é o seguinte:

Uma vez que você percebe que é considerado artificialmente igual aos outros, sem ser realmente, você automaticamente, baixa o seu nível, ou seja, você passa a ser um profissional medíocre, pois, não recebe recompensa nenhuma por ser competente, por ser melhor.

Você passa a empurrar o seu trabalho, não se esforça, pois se poupa para, nas horas vagas, conseguir mais um emprego para melhorar a sua renda.

E isso é uma coisa que o karl, não previu, pois, se você consegue um outro emprego, você passa a receber dois salários, criando de forma marginal e artificial, uma nova classe social, que não é oficialmente reconhecida pelo estado. O estado faz de conta que não vê, e nada pode fazer quanto a isso. Aliás, se quiser, pode. Pode proibir o cidadão de exercer esta segunda profissão e receber este segundo salário.

O karl não previu muita coisa em suas teorias, pois ele acreditava piamente no mito do bom selvagem proposto por Rousseau, e com isso, suas teorias começam a fazer água, pois foi inteiramente baseado nesse falso pressuposto e em muitos outros falsos pressupostos, coitadinho.

Existe um excelente livro no mercado, que põe por terra o mito do bom selvagem, aqui está um link para a resenha do livro: http://www1.folha.uol.com.br/livrariadafolha/1049673-livro-destroi-mito-do-bom-selvagem-e-relata-guerras-pre-historicas.shtml

Neste livro, se explicam detalhadamente em que preceitos foram baseados a teoria do bom selvagem, e uma enorme apresentação de evidências científicas que põe abaixo completamente essa teoria.

Coitadinho do marx, ele não contava com o avanço da ciência, que iria descobrir muita coisa, principalmente a área da neurociência que estuda o mapeamento do DNA, e que começou a colocar em xeque, muitos preceitos elaborados filosoficamente, sem respaldo científico propostos pela sociologia...

E, como grande parte das teorias dele, está baseada na sociologia..
.
Outro aspecto importante nesse sistema impraticável, é que, se você é inventor, escritor, pesquisador, você não tem direito de patentear suas descobertas, toda patente intelectual, passa a pertencer ao estado, pois o estado exige que as suas descobertas, pertençam a todo o povo, e não a você. Você cria algo e tem que repartir os frutos daquilo que você criou com quem não criou nada.

Bom, voltando ao assunto da repartição do bolo, pelo método marxista, vamos mostrar o que acontece com esse sistema.

Você já deve ter se perguntado, o porquê de um país como a união soviética, que aparentava ter uma base sólida, ao longo de quase setenta anos administrada por um regime comunista baseado nas teorias do pobre karl marx, ter ruído da noite para o dia.

O motivo foi simples.

Uma vez que todo o sistema de karl marx, renega a existência da individualidade do cidadão, renega que existem pessoas mais capazes e pessoas menos capazes, renega o talento, renega a livre iniciativa, renega direitos autorais, renega a vontade do ser humano enquanto indivíduo único e faz dele tábula rasa, ou seja, o torna uma pessoa igual, de forma completamente artificial, como sendo apenas uma engrenagem do sistema estatal, este sistema torna-se precário, pois, esse sistema privilegia a mediocridade.

Esse sistema, já nasce com prazo de validade, após esse prazo, ele implode, não sobrando nem um caquinho sequer.

Implode, porque é um sistema incapaz de gerar novas riquezas, incapaz de gerar tecnologia que favoreça o cidadão que faz parte do sistema, incapaz de perceber que existem necessidades latentes diferentes para cada ser humano, incapaz, porque coloca o estado em um círculo vicioso com prazo de validade.

Uma vez que esse sistema entra em um circulo vicioso, o salário de cada cidadão começa a diminuir cada vez mais, até chegar a um ponto em que todo o sistema desmorona, pois não consegue suprir as necessidades mais básicas do povo.

Esse sistema, só funcionaria em um planeta onde só existissem robôs, robôs previamente programados para serem iguais, sem vontades, sem perspectivas, sem sentimentos, sem sonhos, sem ambições, sem necessidades, sem serem humanos.

As teorias de marx, por esses motivos, não valem o papel em que foram escritas, são uma bobagem sem tamanho, pois quando postas à prova, fracassam vergonhosamente.