CONTINUAÇÃO DA DISCUSSÃO SOBRE ESPIRITISMO...
CONTINUAÇÃO DA DISCUSSÃO SOBRE ESPIRITISMO...
Saudações, Arduin!
Essa é a continuação do tópico:
http://www.forumnow.com.br/vip/mensagen ... 51&nrpag=1
Iniciado no antigo RV.
Começo pela sua última mensagem naquele tópico.
Suas palavras em amarelo e as minhas em branco:
Vamos tentar entender umas coisas primeiro.
1) Infalseável por não se poder provar a inexistência.
Como eu disse, É IMPOSSÍVEL SE PROVAR QUE ALGO NÃO EXISTE. Logo, o Espiritismo não pode ser infalseável por conta disso. NUNCA SE PROVARÁ A INEXISTÊNCIA DE ESPÍRITOS. Da mesma forma que não se prova a inexistência de Saci-Pererê, Tapuia, fadas, duendes, elfos & cia bela.
Arduin, esta é a definição do termo. Esses objetos por você citados, espíritos, sacis, fadas, duendes e elfos, são infalseáveis justamente por não poderem ser demonstrados falsos. O espiritismo é infalseável porque sua tese central, a existência dos espíritos, não pode ser demonstrada falsa. É isso o que significa infalseável: não pode ser demonstrado falso. Como você mesmo reconheceu, não podemos demonstrar que espíritos inexistem, portanto, espíritos constituem uma hipótese infalseável. Como a Ciência trata de teorias e hipóteses falseáveis, ela não pode tratar de espíritos, sacis e fadas, pois estes são infalseáveis. Logo, o espiritismo não é científico.
E é possível sim demonstrar a inexistência de determinados objetos. São os objetos ditos falseáveis. Podemos tornar a hipótese da existência de sacis algo falseável, por exemplo. Suponha que eu afirme que os sacis possuem uma determinada propriedade física que faz com que eles apareçam debaixo de uma determinada cabana, em um local específico do estado do Amazonas, todo dia 3 de cada mês, às 20hs. Ora, basta que estejamos naquele local, e naquele horário, para que concluamos a favor ou contra a existência dos sacis. Isso porque estamos postulando uma propriedade falseável para eles. Citei na minha mensagem anterior a Mecânica Quântica e a Teoria da Evolução de Darwin como exemplos de teorias falseáveis: elas geram previsões que podem ser demonstradas falsas! E isso, toda teoria que se pretende científica deve fazer.
O máximo que se pode fazer é provar que a causa atribuída ao fenômeno não é aquela apontada, pois há outra possível, mais plausível e até verificável de alguma forma.
Neste caso, você está descartando uma causa hipotetizada para aquela ocorrência estudada, em particular.
Lá no debate na Távola Redonda, o Ronaldo Cordeiro usou de um exemplo muito feliz, que lamentavelmente não soube explorá-lo. Ele citou as hipóteses com relação à causa da febre amarela. Havia os que defendiam que a causa estava nos mosquitos e outros que falavam em miasmas (infelizmente não me deu detalhes dessa última hipótese). Mas fossem esses miasmas o que fossem, quando se eliminaram os mosquitos transmissores, a doença acabou. Bem, veja só então esse caso: não se provou que os miasmas não existiam (e nem tem com se provar que algo não existe),
Novamente, esta afirmação é equivocada. Só não se pode provar que objetos infalseáveis não existem. Isso pela própria definição do termo. Eu posso provar que não existem asas em meu corpo. Mas não posso provar que não tenho um espírito. Eu posso provar que não há um submarino em minha garagem. Mas não posso provar que não há um dragão imaterial em minha cozinha.
mas ao eliminarem os mosquitos, a tese de que eles eram os causadores da doença ganhou força, pois com o seu sumiço, também se foi a doença. Décadas depois é que se ficou sabendo que a causa da doença é um vírus e os mosquitos são apenas vetores que transmitem esse vírus dos doentes para as pessoas sadias. Veja que ironicamente até se provou a existência dos miasmas, que poderiam se encaixar na definição de virus... (só que não sei o que se pensavam originalmente).
Eu não sei o que são miasmas, então não posso analisar se constituem uma hipótese falseável ou não.
Com a questão dos espíritos pode-se fazer o mesmo raciocínio: atribuímos a eles a causa de certos fenômenos, mas estes podem na verdade ter outras causas. Algumas dessas causas são identificáveis em certos eventos, mas em outros elas não se encaixam. A questão então da falseabilidade da hipótese dos espíritos não seria provar sua inexistência, mas a inutilidade dessa hipótese à medida em que os fenômenos possam ser explicados de forma mais simples e precisa por outros meios, ainda mais se esses forem reprodutíveis e experimentalmente coerentes.
Você está confundindo conceitos. Infalseável é algo que não pode ser demonstrado falso. Essa é a definição do termo. A alegação: "existem espíritos", não pode ser demonstrada falsa, portanto, é infalseável. A alegação: "existem fadas", não pode ser demonstrada falsa, portanto, é infalseável. A alegação: "todo corpo na Terra, quando abandonado em movimento de queda livre, a partir do repouco e a partir de uma determinada altura relativamente à superfície da Terra, chega a esta após percorrer um intervalo de tempo que depende apenas da altura em questão, e não da massa do corpo em queda" pode ser demonstrada falsa, portanto, é falseável.
Novamente, perceba que descartar a hipótese da ação de espíritos em um caso particular, devido à existência de hipóteses concorrentes mais plausíveis, não falseia a alegação: "existem espíritos".
Entretanto, isso até hoje não aconteceu. As hipóteses alternativas, além de não serem mais falseáveis, acabam ficando mais fantásticas ainda.
Depende de que hipóteses alternativas você fala. A hipótese de relatos fraudados pode ser demonstrada falsa a partir de um registro filmado. Portanto, se temos um registro filmado do evento relatado, esta hipótese é sim falseável. Se temos apenas o relato, ela não é falseável.
Falou você em aderoques e adeinfinitos para se justificar os erros e as não manifestações de espíritos, o que então tornaria o Espiritismo infalseável. Não é bem por aí.
É por aí sim. Quando um espírito não se manifesta diante de Randi, alega-se que o espírito não quis se manifestar. E assim por diante. Sempre há uma explicação que impede o falseamento da alegação: "existem espíritos".
A única forma que eu vejo de tornar essa alegação falseável é através de um processo de "retroalimentação", ou seja, supondo que existam espíritos, identifica-se a sua composição material e as interações que estruturam esta composição de modo a formar o que se chama de espírito, e em posse dessa informação, define-se o que é um espírito, de forma falseável.
O fato é que da forma como está, o espiritismo não é falseável.
Certo, sempre pode acontecer de algum espírito não se manifestar, mas a coisa vai é pela quantidade de acertos em comparação com a probabilidade de se acertar por acaso.
A falseabilidade de uma teoria nada tem haver com o número de casos que ela consegue descrever de forma satisfatória. Como eu disse anteriormente, em Ciência você não prova que uma teoria está correta, você apenas não a rejeita enquanto ela estiver funcionando. A partir do momento que ela é falseada (encontramos um caso que contradiz a teoria), devemos modificá-la ou abandoná-la (abordando a questão do ponto de vista de Popper, que não é exatamente o que ocorre na prática...eu já mencionei por alto, há algumas mensagens atrás, o "Programa de Pesquisas" de Lakatos, e vou retornar a ele na minha resposta ao Vitor Moura...espero que você a leia).
Depois você cita, mais uma vez, vários relatos, e coloca o seguinte:
São por coisas assim que atribuímos aos espíritos dos mortos a causa desses fenômenos. Mas se não são eles, que outras causas são possíveis e que os explicariam de forma mais segura, precisa, verificável e aceitável para a comunidade científica?
O ponto aqui é reproduzir estes fenômenos. Não dá para estudar os mesmos sem saber sequer se eles existem. Pois bem, temos relatos, vários deles, alguns envolvendo inclusive ganhadores do Nobel, como Crookes. Muito interessante. Isso serve de estímulo para que se procure reproduzir estas pesquisas e para que se procure elaborar outras, nada além disso. A história já deixou claro que nada vai mudar se continuarem citando Crookes e outros sem que procurem elaborar novos experimentos e sem que reproduzam os fenômenos relatados. Na verdade, as coisas deveriam ser assim, mas não são, pois como você sabe, a comunidade científica não está nem aí para estas alegações. Ou seja, não se sentem estimulados a produzir pesquisas nesta área. O porque disso, você deve perguntar a cada um. Eu, apesar de não ser cientista, estou interessado em realizar este teste experimental de psicografia, como você sabe. Vamos ver o que sai daí, caso eu consiga colaboração de algum médium ou centro espírita.
Infelizmente não vi nenhuma nessas condições até agora. O inconsciente quevediano, como eu disse é um elástico que se adapta a qualquer fenômeno _ e portanto é infalseável, pois sempre será a causa de qualquer resultado. A força Psi eu ainda não entendi. Como é que um médium consegue saber detalhes íntimos da vida de um falecido há 20 anos e não consegue saber o que se passou na sala ao lado há 20 segundos?
Sei lá. Esse negócio de hipótese PSI é com o Zangari.
Portanto insisto que o princípio do falseamento está sendo aplicado de maneira falseada.
Acho que você quis dizer: "(...) insisto que o princípio do falseamento está sendo aplicado de maneira errada", não?! Bom, se for isso, devo dizer que sua insistência é um equívoco, pelo o que já foi dito anteriormente.
Não se pode provar que espíritos não existem
Sim e, exatamente por isso, segue da definição de objeto infalseável (objeto que não podemos demonstrar ser falso) que espíritos são infalseáveis.
mas pode-se provar, ou ao menos obter indícios, de que um evento atribuído a eles pode ter outras causas.
Sim, e como eu expliquei, isso não torna falseável o conceito de espírito, da forma como este é colocado atualmente.
Fala você que é só impossível demonstrar a inexistência de um objeto infalseável, bem, Louis Pasteur por acaso demonstrou a INEXISTÊNCIA da geração espontânea? Responda-me isso e depois volto ao assunto.
Não. O que ele fez foi falsear a hipótese da abiogênese quando colocada para explicar o surgimento de alguns organismos complexos. A abiogênese é considerada ainda no aparecimento da vida na Terra, em teorias como a de Oparin, por exemplo (não sei se esta teoria, em específico, ainda está em voga).
De resto, Arduin, tivemos mais do mesmo. Você considera que não são necessárias mais repetições, etc...
Eu discordo totalmente. Já disse que não é necessário repetir os fenômenos a qualquer momento, mas que estes devem ser sim repetidos, não só para serem registrados em novos meios de gravação de dados, mas para que se possa também estudar a natureza destes fenômenos, etc. Se existem espíritos, certamente que não vão ser nas reuniões em centros espíritas ou em livros com relatos antigos que conseguirão identificar a constituição material destes, bem como as interações que regem os elementos presentes em tal constituição. Enfim, da forma como as coisas estão, não se conseguirá absolutamente nada.
Quanto às filmagens, eu já disse: descartada a hipótese de montagem, está descartada em definitivo a hipótese de relatos fraudados para aquele caso em particular. Pode-se dizer que foi truque, mas aí deve ser proposto o mecanismo de truque e, com a filmagem, verifica-se se ele foi utilizado ou não.
Essa é a continuação do tópico:
http://www.forumnow.com.br/vip/mensagen ... 51&nrpag=1
Iniciado no antigo RV.
Começo pela sua última mensagem naquele tópico.
Suas palavras em amarelo e as minhas em branco:
Vamos tentar entender umas coisas primeiro.
1) Infalseável por não se poder provar a inexistência.
Como eu disse, É IMPOSSÍVEL SE PROVAR QUE ALGO NÃO EXISTE. Logo, o Espiritismo não pode ser infalseável por conta disso. NUNCA SE PROVARÁ A INEXISTÊNCIA DE ESPÍRITOS. Da mesma forma que não se prova a inexistência de Saci-Pererê, Tapuia, fadas, duendes, elfos & cia bela.
Arduin, esta é a definição do termo. Esses objetos por você citados, espíritos, sacis, fadas, duendes e elfos, são infalseáveis justamente por não poderem ser demonstrados falsos. O espiritismo é infalseável porque sua tese central, a existência dos espíritos, não pode ser demonstrada falsa. É isso o que significa infalseável: não pode ser demonstrado falso. Como você mesmo reconheceu, não podemos demonstrar que espíritos inexistem, portanto, espíritos constituem uma hipótese infalseável. Como a Ciência trata de teorias e hipóteses falseáveis, ela não pode tratar de espíritos, sacis e fadas, pois estes são infalseáveis. Logo, o espiritismo não é científico.
E é possível sim demonstrar a inexistência de determinados objetos. São os objetos ditos falseáveis. Podemos tornar a hipótese da existência de sacis algo falseável, por exemplo. Suponha que eu afirme que os sacis possuem uma determinada propriedade física que faz com que eles apareçam debaixo de uma determinada cabana, em um local específico do estado do Amazonas, todo dia 3 de cada mês, às 20hs. Ora, basta que estejamos naquele local, e naquele horário, para que concluamos a favor ou contra a existência dos sacis. Isso porque estamos postulando uma propriedade falseável para eles. Citei na minha mensagem anterior a Mecânica Quântica e a Teoria da Evolução de Darwin como exemplos de teorias falseáveis: elas geram previsões que podem ser demonstradas falsas! E isso, toda teoria que se pretende científica deve fazer.
O máximo que se pode fazer é provar que a causa atribuída ao fenômeno não é aquela apontada, pois há outra possível, mais plausível e até verificável de alguma forma.
Neste caso, você está descartando uma causa hipotetizada para aquela ocorrência estudada, em particular.
Lá no debate na Távola Redonda, o Ronaldo Cordeiro usou de um exemplo muito feliz, que lamentavelmente não soube explorá-lo. Ele citou as hipóteses com relação à causa da febre amarela. Havia os que defendiam que a causa estava nos mosquitos e outros que falavam em miasmas (infelizmente não me deu detalhes dessa última hipótese). Mas fossem esses miasmas o que fossem, quando se eliminaram os mosquitos transmissores, a doença acabou. Bem, veja só então esse caso: não se provou que os miasmas não existiam (e nem tem com se provar que algo não existe),
Novamente, esta afirmação é equivocada. Só não se pode provar que objetos infalseáveis não existem. Isso pela própria definição do termo. Eu posso provar que não existem asas em meu corpo. Mas não posso provar que não tenho um espírito. Eu posso provar que não há um submarino em minha garagem. Mas não posso provar que não há um dragão imaterial em minha cozinha.
mas ao eliminarem os mosquitos, a tese de que eles eram os causadores da doença ganhou força, pois com o seu sumiço, também se foi a doença. Décadas depois é que se ficou sabendo que a causa da doença é um vírus e os mosquitos são apenas vetores que transmitem esse vírus dos doentes para as pessoas sadias. Veja que ironicamente até se provou a existência dos miasmas, que poderiam se encaixar na definição de virus... (só que não sei o que se pensavam originalmente).
Eu não sei o que são miasmas, então não posso analisar se constituem uma hipótese falseável ou não.
Com a questão dos espíritos pode-se fazer o mesmo raciocínio: atribuímos a eles a causa de certos fenômenos, mas estes podem na verdade ter outras causas. Algumas dessas causas são identificáveis em certos eventos, mas em outros elas não se encaixam. A questão então da falseabilidade da hipótese dos espíritos não seria provar sua inexistência, mas a inutilidade dessa hipótese à medida em que os fenômenos possam ser explicados de forma mais simples e precisa por outros meios, ainda mais se esses forem reprodutíveis e experimentalmente coerentes.
Você está confundindo conceitos. Infalseável é algo que não pode ser demonstrado falso. Essa é a definição do termo. A alegação: "existem espíritos", não pode ser demonstrada falsa, portanto, é infalseável. A alegação: "existem fadas", não pode ser demonstrada falsa, portanto, é infalseável. A alegação: "todo corpo na Terra, quando abandonado em movimento de queda livre, a partir do repouco e a partir de uma determinada altura relativamente à superfície da Terra, chega a esta após percorrer um intervalo de tempo que depende apenas da altura em questão, e não da massa do corpo em queda" pode ser demonstrada falsa, portanto, é falseável.
Novamente, perceba que descartar a hipótese da ação de espíritos em um caso particular, devido à existência de hipóteses concorrentes mais plausíveis, não falseia a alegação: "existem espíritos".
Entretanto, isso até hoje não aconteceu. As hipóteses alternativas, além de não serem mais falseáveis, acabam ficando mais fantásticas ainda.
Depende de que hipóteses alternativas você fala. A hipótese de relatos fraudados pode ser demonstrada falsa a partir de um registro filmado. Portanto, se temos um registro filmado do evento relatado, esta hipótese é sim falseável. Se temos apenas o relato, ela não é falseável.
Falou você em aderoques e adeinfinitos para se justificar os erros e as não manifestações de espíritos, o que então tornaria o Espiritismo infalseável. Não é bem por aí.
É por aí sim. Quando um espírito não se manifesta diante de Randi, alega-se que o espírito não quis se manifestar. E assim por diante. Sempre há uma explicação que impede o falseamento da alegação: "existem espíritos".
A única forma que eu vejo de tornar essa alegação falseável é através de um processo de "retroalimentação", ou seja, supondo que existam espíritos, identifica-se a sua composição material e as interações que estruturam esta composição de modo a formar o que se chama de espírito, e em posse dessa informação, define-se o que é um espírito, de forma falseável.
O fato é que da forma como está, o espiritismo não é falseável.
Certo, sempre pode acontecer de algum espírito não se manifestar, mas a coisa vai é pela quantidade de acertos em comparação com a probabilidade de se acertar por acaso.
A falseabilidade de uma teoria nada tem haver com o número de casos que ela consegue descrever de forma satisfatória. Como eu disse anteriormente, em Ciência você não prova que uma teoria está correta, você apenas não a rejeita enquanto ela estiver funcionando. A partir do momento que ela é falseada (encontramos um caso que contradiz a teoria), devemos modificá-la ou abandoná-la (abordando a questão do ponto de vista de Popper, que não é exatamente o que ocorre na prática...eu já mencionei por alto, há algumas mensagens atrás, o "Programa de Pesquisas" de Lakatos, e vou retornar a ele na minha resposta ao Vitor Moura...espero que você a leia).
Depois você cita, mais uma vez, vários relatos, e coloca o seguinte:
São por coisas assim que atribuímos aos espíritos dos mortos a causa desses fenômenos. Mas se não são eles, que outras causas são possíveis e que os explicariam de forma mais segura, precisa, verificável e aceitável para a comunidade científica?
O ponto aqui é reproduzir estes fenômenos. Não dá para estudar os mesmos sem saber sequer se eles existem. Pois bem, temos relatos, vários deles, alguns envolvendo inclusive ganhadores do Nobel, como Crookes. Muito interessante. Isso serve de estímulo para que se procure reproduzir estas pesquisas e para que se procure elaborar outras, nada além disso. A história já deixou claro que nada vai mudar se continuarem citando Crookes e outros sem que procurem elaborar novos experimentos e sem que reproduzam os fenômenos relatados. Na verdade, as coisas deveriam ser assim, mas não são, pois como você sabe, a comunidade científica não está nem aí para estas alegações. Ou seja, não se sentem estimulados a produzir pesquisas nesta área. O porque disso, você deve perguntar a cada um. Eu, apesar de não ser cientista, estou interessado em realizar este teste experimental de psicografia, como você sabe. Vamos ver o que sai daí, caso eu consiga colaboração de algum médium ou centro espírita.
Infelizmente não vi nenhuma nessas condições até agora. O inconsciente quevediano, como eu disse é um elástico que se adapta a qualquer fenômeno _ e portanto é infalseável, pois sempre será a causa de qualquer resultado. A força Psi eu ainda não entendi. Como é que um médium consegue saber detalhes íntimos da vida de um falecido há 20 anos e não consegue saber o que se passou na sala ao lado há 20 segundos?
Sei lá. Esse negócio de hipótese PSI é com o Zangari.
Portanto insisto que o princípio do falseamento está sendo aplicado de maneira falseada.
Acho que você quis dizer: "(...) insisto que o princípio do falseamento está sendo aplicado de maneira errada", não?! Bom, se for isso, devo dizer que sua insistência é um equívoco, pelo o que já foi dito anteriormente.
Não se pode provar que espíritos não existem
Sim e, exatamente por isso, segue da definição de objeto infalseável (objeto que não podemos demonstrar ser falso) que espíritos são infalseáveis.
mas pode-se provar, ou ao menos obter indícios, de que um evento atribuído a eles pode ter outras causas.
Sim, e como eu expliquei, isso não torna falseável o conceito de espírito, da forma como este é colocado atualmente.
Fala você que é só impossível demonstrar a inexistência de um objeto infalseável, bem, Louis Pasteur por acaso demonstrou a INEXISTÊNCIA da geração espontânea? Responda-me isso e depois volto ao assunto.
Não. O que ele fez foi falsear a hipótese da abiogênese quando colocada para explicar o surgimento de alguns organismos complexos. A abiogênese é considerada ainda no aparecimento da vida na Terra, em teorias como a de Oparin, por exemplo (não sei se esta teoria, em específico, ainda está em voga).
De resto, Arduin, tivemos mais do mesmo. Você considera que não são necessárias mais repetições, etc...
Eu discordo totalmente. Já disse que não é necessário repetir os fenômenos a qualquer momento, mas que estes devem ser sim repetidos, não só para serem registrados em novos meios de gravação de dados, mas para que se possa também estudar a natureza destes fenômenos, etc. Se existem espíritos, certamente que não vão ser nas reuniões em centros espíritas ou em livros com relatos antigos que conseguirão identificar a constituição material destes, bem como as interações que regem os elementos presentes em tal constituição. Enfim, da forma como as coisas estão, não se conseguirá absolutamente nada.
Quanto às filmagens, eu já disse: descartada a hipótese de montagem, está descartada em definitivo a hipótese de relatos fraudados para aquele caso em particular. Pode-se dizer que foi truque, mas aí deve ser proposto o mecanismo de truque e, com a filmagem, verifica-se se ele foi utilizado ou não.
Saudações, Vitor!
Suas palavras em amarelo e as minhas em branco:
Gostaria de comentar algumas de suas idéias sobre o conceito de Ciência. Vejo que vc segue o conceito de Ciência estabelecido por Popper, da falseabilidade. Para vc espíritos não é uma idéia falseável, portanto, não seria uma teoria científica. Vou colocar aqui uma mensagem de meu amigo Jáder Sampaio sobre o tema, explicando bem o conceito de falseabilidade (que me parece que o Arduin ainda não entendeu bem).
Na verdade, o conceito de falseamento estabelecido por Popper não descreve corretamente o que acontece, na prática, em Ciência. Esse conceito é necessário, mas deve vir acompanhado de outros. O que eu entendo por Método Científico, é o chamado "Programa de Pesquisas" de Lakatos. Mais a frente, vou colocar um texto explicando este conceito.
"Falseabilidade é um princípio da epistemologia crítica de Karl Popper (Lógica da Pesquisa Científica), que erigiu este princípio após ter demonstrado a falácia do princípio da verificabilidade. É também um princípio de demarcação entre afirmações consideradas científicas e afirmações consideradas metafísicas.
Se você se baseia nele, não existe conhecimento científico verdadeiro. As proposições científicas são aceitas até que alguém as falsifique. Se uma afirmação não for falsificável, ela não é considerada científica. A afirmação "todo efeito tem uma causa" aos olhos desse autor, não é científica, é metafísica. Não há como fazer um experimento que a falsifique, porque ela pertence ao mundo das idéias.
Correto, exceto pela última colocação. O autor diz que a afirmação "todo efeito tem uma causa" é infalseável. Bom, em primeiro lugar, temos que ter de forma clara o conceito de "efeito" que está sendo utilizado. Tanto quanto sei, efeito possui causa, por definição. Isto é, se algo possui uma causa, diz-se que ele é um efeito desta causa. Neste caso, temos que a afirmação é verdadeira, o que decorre da própria definição dos termos causa e efeito. Talvez a intenção do autor tenha sido dizer "evento" ao invés de "efeito". Bom, aí a afirmação seria: "todo evento possui uma causa". E esta afirmação é falseável, pois basta achar um evento sem causa para falseá-la. E isso ocorre na Mecânica Quântica. Muito embora a função de onda seja algo determinístico, no sentido de ser obtida a partir de uma equação diferencial (Equação de Schrödinger) ou a partir de métodos algébricos (Formalismo de Dirac), o colapso dela num ponto definido, devido à uma mensuração, por exemplo, não o é. Eu disse que a função de onda é determinística, porque a solução da Eq. de Schrödinger para um dado potencial, por exemplo, é algo bem definido. No caso do oscilador harmônico linear, para citar um exemplo específico, a função de onda é escrita em termos dos Polinômios de Hermite. Não são os Polinômios de Laguerre ou as Funções Associadas de Legendre ou qualquer outra coisa...são os Polinômios de Hermite, especificamente eles. Então, a função de onda é determinística. Contudo, como sua interpretação é probabilística, o que se tem é a probabilidade de se encontrar a partícula em cada região do espaço, mas não se sabe especificamente onde ela está. A partir da função de onda, constrói-se a densidade de probabilidade e, com isso, estima-se os valores esperados dos observáveis (momentum, momento angular, spin, posição, energia, etc...). Ou seja, você tem valores mais prováveis que outros, mas não pode dizer com certeza quais os valores que serão mensurados, pois o colapso é aleatório, muito embora siga uma distribuição de probabilidades. Os deterministas ainda tentaram salvar este paradigma postulando a existência de variáveis ocultas, o problema é que no Experimento EPR demonstra-se empiricamente a violação da Desigualdade de Bell, o que nos leva a concluir ou que não existem variáveis ocultas (interpretação aceita pela maior parte dos Físicos), ou que a lógica não é válida para tratar dos fenômenos quânticos. Pois bem, Bohm ainda tentou seguir com o paradigma determinista, com sua Mecânica Bohmiana, mas já ouvi várias objeções à ela. A principal é o fato de não haver uma versão relativística para ela, como há para a Equação de Schrödinger, no caso, a Equação de Klein-Gordon e a Equação de Dirac. Sinceramente, não sei a quantas anda a Mecânica Bohmiana...mas não são muitos os que trabalham em cima dela...mas o ponto é que a afirmação "todo evento possui uma causa" é sim falseável e, para além disso, não só é falseável como foi, de fato, falseada pela Mecânica Quântica.
Se eu digo que "o Sol tem um peso menor que a Terra", essa afirmação será científica se houver uma forma de elaborarmos um experimento crucial, ou seja, alguma forma de mensurar o peso dos dois astros e chegar a uma decisão. Caso contrário (se o cientista não tem como dizer em que termos ele está disposto a abandonar a sua crença) a idéia não é falseável. Se as evidências que eu colhi depõem a favor da tese, ela será aceita como científica até que uma evidência contrária, baseada em uma experiência crucial, faça com que o cientista abandone sua idéia original.
[...]
Então vamos à mediunidade. Do ponto de vista Popperiano, estamos em apuros, porque embora tenhamos uma enorme coleção de eventos que depõem a favor da mediunidade, não há como se fazer um experimento crucial, porque não se trata de um fenômeno mecânico e regular.
Da forma como foi colocado, parece que a Teoria Darwinista não é falseável. A questão aqui não é se temos um grande domínio sobre as variáveis envolvidas em determinado fenômeno, a ponto de controlá-lo plenamente, mas se a teoria proposta para descrever tal fenômeno gera previsões falseáveis. Ora, a evolução das espécies não é um fenômeno que compreendemos de forma plena do ponto de vista quantitativo, mas se encontrássemos fósseis de hominídeos com mais de 300 milhões de anos de idade, por exemplo, teríamos falseado o Darwinismo, pois isso o contrariaria. Então, o Darwinismo é falseável, muito embora, como uma teoria biológica, não possua o mesmo grau de detalhamento quantitativo de uma teoria física.
Um médium que apresenta inúmeras evidências de apresentar conhecimentos não aprendidos é flagrado em erro ou em fraude, por exemplo. A fraude descoberta ou o erro não falsificam os acertos obtidos, apenas coloca em dúvida se os outros fenômenos foram realmente bem observados. É isso que os céticos utilizam para fazer desacreditar os fenômenos mediúnicos, mas uma fraude ou uma possível explicação alternativa aos fenômenos também não os falsifica, apenas colocam em dúvida o que se julgava certo e o problema fica em suspensão.
Então temos um outro problema [...]. O pensamento de Popper só considera como ciência, o conhecimento sobre objetos que possuem uma tal regularidade que podem ser descritos em termos de "leis". Em outras palavras, apenas as ciências naturais, em territórios nos quais há muitas regularidades é que se poderia falar em conhecimento científico. Então temos que jogar fora mais de 9/10 da Psicologia, da comunicação e de outras áreas do conhecimento que se detêm no estudo das singularidades, da intencionalidade, ou seja, do homem. Estas outras formas de conhecimento rigoroso desenvolveram outros métodos para analisarem seus objetos de estudo. [...]
O que o autor refere como "Ciências Naturais"?! Provavelmente deve estar englobando também a Biologia, mas a Biologia não trata de fenômenos tão regulares quanto os da Física, mas ainda sim trabalha com teorias falseáveis. Ou, de um ponto de vista reducionista, a Biologia ainda não gerou modelos teóricos quantitativos (que um dia poderão ser gerados, quando começarmos a desenvolver melhor campos de pesquisa de fronteira da atualidade, como a Mecânica Estatística do Não-Equilíbrio), mas qualitativos, mas mesmo estes modelos são falseáveis. Quanto à Psicologia, é algo que eu estou muito distante, não conheço as teorias na área, então fica difícil de julgar.
Popper foi um adversário da Parapsicologia enquanto vivo. Ele considerava a Parapsicologia como uma pseudociência (assim como a Psicanálise e o Marxismo) porque não conseguia atender a essa exigência sua. Há um debate que ele fez com Eccles,[...] no qual a questão da Parapsicologia ganha corpo.
Com base no critério de Popper, teríamos que fazer algo como: se a pessoa que considero como médium de desdobramento ou bilocação não conseguir ler um texto que coloquei em uma caixa fechada e lacrada e do qual ninguém conhece o conteúdo, então terei que abandonar a tese da realidade da mediunidade de bilocação. Mas todos nós sabemos que a mediunidade não é um fenômeno mecânico, que o médium não consegue ter percepções extra sensoriais apenas desejando-o e que isso não significa que o fenômeno não exista ou que seja pura metafísica, tenho que conceber a possibilidade da sua existência com ocorrências irregulares. Nesses termos, o pensamento de Popper não nos ajuda muito, não é mesmo?
Aqui, está, em suma, o que venho falando com o Arduin. Não se pode falsear a mediunidade, porque qualquer falha, será explicada por um determinado fator que, no final das contas, não permite concluir que mediunidade não existe. Mediunidade é um atributo infalseável e, portanto, não faz parte do escopo das teorias científicas. Esse é o ponto. Agora, não há motivos para desespero. Veja a pergunta que o cara faz:
"Nesses termos, o pensamento de Popper não nos ajuda muito, não é mesmo?"
O fato de algo não ser científico, não quer dizer que não possa ser real. Aqui temos um fato: não podemos, pelo menos da forma como as coisas estão postas até o momento, falsear a mediunidade. Contudo, isso não quer dizer que não se possa realizar estudos EXPERIMENTAIS a respeito desta. Não só podemos, como devemos. No caso da mediunidade existir, teremos um objeto de estudo. E, com o tempo, chega-se a um compreensão melhor deste objeto, quando então poderemos formular o conceito de mediunidade em cima de propriedades falseáveis. É o que eu chamei de processo de "retroalimentação" na mensagem que enviei ao Arduin. Você tem um objeto hipotético e nada ainda substancial do ponto de vista teórico para descrevê-lo. Em cima de estudos experimentais, você pode avançar no conhecimento deste objeto até o ponto de conseguir reformular a definição do conceito que corresponde a este objeto de uma forma tal que esta definição seja falseável e, a partir deste ponto, começa-se a trabalhar em cima de uma teoria que poderá ser chamada de científica.
[...]Não vejo como se provar que a mediunidade é impossível ou possível. Vejo apenas como colecionar evidências e contra-evidências da sua existência, é o que vem fazendo os pesquisadores da área. E nós pesquisadores, ao avaliarmos com algum afastamento o rol de evidências colhido e descrito, colocamos "nossas fichas" em uma ou outra hipótese, considerando-a mais ou menos provável. Por essa razão Popper afastou a mediunidade do rol dos fenômenos científicos, e com isso, uma inumerável lista de fenômenos e teorias pesquisadas pelos mais diversos campos do conhecimento humano, dentre eles o seu campo (o direito) que é todo baseado em princípios aceitos mas não falseáveis.
Direito não é Ciência e, isso, é bem claro. Quanto ao que o autor disse, deve-se colecionar essas evidências experimentais contra e a favor, e também começar a implementar experimentos para vasculhar a estrutura física dos mesmos. Considerando que os fenômenos existam, eu sei que isso será difícil, talvez tenhamos que jogar alguns médiuns dentro do LHC do CERN para ver se aparecem algumas partículas mediúnicas quando colidirmos uns com os outros...hehehe...
Agora, Han, extraio do livro "Fundamentação da Ciência Espírita" exemplos de leis científicas que não são falseáveis, mas que são científicas. Isso mostra que a idéia de Popper tem seus limites, e que não pode ser usada como demarcadora entre o que é Ciência e o que não é. Na verdade, tal demarcador não existe.
Bom, se não existisse, teríamos um sério problema para os filósofos da Ciência. Mas este demarcador existe...se não, vejamos:
"O que se pode chamar de testabilidade é uma característica bastante explorada pelos estudiosos da filosofia da ciência, que buscam assim distinguir as teorias científicas das não-científicas. Neste último rol estão incluídas não somente as proposições errôneas ou pseudo-científicas, mas também as teorias filosóficas, metafísicas, teológicas etc., que pertencem a outros ramos de conhecimento.
Em síntese, este quesito estabelece que uma teoria, se científica, deve ser passível de verificação.
Aqui deve-se tomar um cuidado muito grande com os termos. Uma teoria científica não deve ser passível de verificação (no sentido de validação da mesma), mas passível de falseamento. Do ponto de vista formal, não provamos a veracidade de uma teoria científica, ou seja, não a verificamos. Podemos, contudo, falseá-la.
Não se exige que tenha sido verificada, pois pode estar relacionada a fenômenos cujas manifestações subseqüentes virão a ocorrer apenas num futuro próximo, como é o caso de qualquer objeto de análise do tipo ‘observável’. Exemplos dessa natureza são comuns na astronomia, como é o caso das pesquisas sobre os cometas. Também foi o caso da teoria einsteiniana da curvatura do espaço devido à presença de grandes massas, verificada muitos anos depois de seu enunciado, graças à ocorrência de um eclipse, no qual o Brasil serviu como posto de observação privilegiado do fenômeno.
Naturalmente, o intervalo que medeia o estabelecimento da teoria e sua verificação deve ter algum limite de referência. Para ilustrar, considere a formulação de uma teoria que descreve o modo de vida dos seres num planeta recém-descoberto em outro sistema galáctico. É uma teoria que não pode ser considerada científica, pois somente será verificável num prazo indeterminado.
Este critério tem indiscutível utilidade, pois descarta uma série de teorias eminentemente metafísicas, que aparecem em disciplinas em formação e, especialmente, no campo do psiquismo e outros estudos transcendentais, como a astrologia. Por exemplo, nesta disciplina há a teoria de que tudo se relaciona no universo, como no caso da queda de uma flor excitando uma estrela distante; tal teoria pode não estar errada, mas não é científica, pois não é testável.
Novamente: não existe verificação de teorias científicas, pois essas não se baseiam em deduções lógicas. Vou expor isso em detalhes mais a frente...
Com a abertura que a física moderna e a matemática impuseram, enfatizando a existência de sistemas não-lineares, princípios não-causais e a própria retratividade do tempo, muitos pensadores se arvoraram em propor teorias bem audaciosas. Conforme foi enfatizado no item anterior, uma vez que estas formulações se opõem à lógica, é preciso cautela. A ausência de testabilidade é um indicativo que tais teorias não são satisfatoriamente científicas.
Aqui ele tem que dizer a respeito do que ele está falando, que teorias ele afirma contrariarem a lógica, que teorias ele afirma não serem testáveis, etc...
É preciso ressaltar que a testabilidade não garante que a teoria seja científica, pois é preciso haver outras características, outros indicativos de consistência.
Para ser científica, a teoria tem que ser necessariamente falseável. O método científico não se baseia apenas no falseamento, mas este é parte integrante do método.
Também se deve perceber que uma teoria testável pode ser errada, mas nem por isso deixa de ser científica.
Correto.
A natural falibilidade da ciência, que será bem explorada mais à frente em capítulo específico, aceita que as teorias dadas como verdadeiras se derroquem, dando lugar a outras mais precisas, produzindo uma certa oscilação no processo de geração do saber. Mas embora essa dinâmica faça parte do processo, esta instabilidade gerada pela formulação de teorias meramente especulativas sempre incomodou alguns estudiosos e os inspirou a formalizar critérios de distinção das teorias verdadeiramente científicas das não-científicas.
Uma das primeiras características a serem propostas foi a testabilidade, denominada falseabilidade por seu criador, Popper, que exacerbou seu alcance. Mas, de um modo geral, o critério da falseabilidade pode ser adequadamente empregado ao estabelecer que se uma proposição é científica, deve ser sujeita á testabilidade, com vistas ao seu falseamento. Assim, uma teoria é científica se puder ser submetida a questionamentos, demonstrações ou experimentações. Se futuramente vier a mostrar falhas e conseqüentemente ser abandonada e substituída por outras, não perderá seu status de científica, apesar de não servir para nada.
Enfatiza-se mais uma vez que, desde a apresentação do quadro comparativo de Trujillo (capítulo II, p. 41), a ciência não se arvora como infalível; procura sim compreender; de modo cada vez mais completo, a realidade, sabendo que este processo envolve tentativas e erros.
Se o Sr. Incógnito (um antigo forista do RV, estudante de filosofia e católico) visse isso ele provavelmente teria um ataque do coração...hehehe...segundo ele, a Ciência não trata da realidade. Bom, esse é um outro ramo de discussão, no qual não pretendo adentrar no momento...mas devo dizer que não concordo plenamente com a visão do Sr. Incógnito.
Neste contexto, um exemplo ligado ao campo do paranormal é interessante. Existem proposições pretensamente científicas, usadas para combater a doutrina espírita, que não obedecem ao critério da falseabilidade. Considere-se o caso da onipotência do inconsciente, também chamado de superinconsciente, hipótese aventada para explicar uma gama enorme de fenômenos psíquicos intelectivos, como a telepatia, psicocinésia, poltergeist, mediunidade e, principalmente, os casos de identificação de espíritos desencarnados. Segundo essa teoria, estes e muitos outros fenômenos resultariam de um poder normalmente involuntário, que, se localizando no interior do ser humano e se exteriorizando de modo ainda pouco explicado, dar-lhe-ia ciência sobre aspectos pessoais de outrem, conhecimento geral do passado, presente e futuro, e ainda ofertando-lhe uma força física formidável. Se levada a sério, esta hipótese facilmente implicaria num poder infinito contido no inconsciente humano, em que cada ser transformar-se-ia literalmente em um Deus. Nestas condições, por exemplo, a psicocinésia (movimentação de objetos por meios não-físicos), poderia ser aventada para explicar os maremotos, terremotos e acidentes em geral, sem poder ser refutada. Quem poderia dizer que um tufão não foi obra involuntária de um paranormal ou de inconscientes coletivos afetos a grandes catástrofes? Logo, tal hipótese, denominada ‘telergética’, bem ao gosto dos parapsicólogos católicos, não é científica.
Como o Arduin já citou, e eu concordo, é bem estranha esta "elasticidade" do "inconsciente quevediano"...
Será a hipótese espirítica científica? A resposta é sim, pois não lhe é creditada nenhum poder ilimitado ou infinito.
A resposta é não. Para ser científica, a teoria deve ser falseável, o que não é o caso aqui.
Pode-se testa-la, questiona-la e identificar uma série de elementos indicativos, particulares ao problema em análise.
Ela é infalseável. E isso faz com que ela não seja científica.
Se um desencarnado se identifica, as informações por ele prestadas dizem respeito às suas atividades quando em vida; não se considera que tenha ciência de informações ou apresente capacidades superiores à sua natureza. Considera-se apenas que a morte não exterminou sua memória e sua individualidade. Quanto às levitações, materializações e outros eventos formidáveis, a literatura registra as condições especiais em que se manifestam e os limites bem definidos destes prodígios. Logo, a hipótese espirítica, é importante ratificar, embora considere elementos que ultrapassam as fronteiras físicas tradicionais, não advoga sobrenaturalidade ou superpoderes indeterminados.
Observe que em momento algum são oferecidos parâmetros para se falsear o espiritismo.
Por outro lado, é verdade que certas hipóteses científicas, por serem primitivas ou primordiais (se situam num ponto básico de uma escala de conhecimentos), nunca podem ser falseadas, e deste modo, criam limitações à idéia de Popper.
Que hipóteses?!
Assim sendo, o critério da falseabilidade não pode ser empregado isoladamente como critério de identificação de modelos científicos. É o caso da lei da conservação de energia. Se, por alguma razão, o balanço energético num sistema natural não for obedecido, pode-se facilmente aventar a existência de uma nova forma de energia, ainda não conhecida, que se introduz no processo. É verdade que é preciso muitos e muitos testes para que, num caso como este, seja eliminada a possibilidade de erro de medida, interpretação, cálculos etc. No entanto, a anti-matéria e outras partículas sub-atômicas foram descobertas exatamente assim, para ‘fechar’ o balanço de energia.
Essa é a deixa perfeita para expor o "Programa de Pesquisas" de Lakatos, que mencionei anteriormente. Eu falei rapidamente a respeito disso em uma mensagem dirigida ao Arduin no tópico do RV antigo, mas sem mencionar explicitamente o nome de Lakatos. Vou colocar aqui um texto redigido pelo forista Dono da Verdade, do extinto Fórum da STR, onde é feita uma apresentação da evolução do conceito de Método Científico, partindo do indutivismo, passando por Popper e Khun, até culminar em Lakatos, que descreve perfeitamente o que ocorre na Ciência:
Ora, foi citada a Conservação da Energia. Pois bem, em alguns experimentos de colisão a altas energias, onde ocorrem produções de neutrinos, ficaria "faltando" energia ao final do processo de colisão caso não se levasse em conta a energia desses neutrinos. Mas neutrinos são partículas muito fracamente integarentes, tanto que suas primeiras detecções não são muito antigas e aconteceram bastante tempo após sua previsão teórica. Os neutrinos foram propostos, a princípio, exatamente para salvar a sacrossanta Lei de Conservação da Energia. Mas só foram detectados muito tempo depois, devido às dificuldades inerentes ao processo de detecção de partículas muito fracamente interagentes. A princípio, se considerássemos apenas o princípio do falseamento de Popper, teríamos que ter rejeitado a Lei de Conservação da Energia, ou ao menos ter restringido seu domínio de atuação, a partir dessas experiências de colisões com produção de neutrinos. Não é o que foi feito (ainda bem!). A Lei de Conservação de Energia é muito importante para ser abandonada tão facilmente. Utilizou-se então um cinturão de hipóteses periféricas, como Lakatos descreve, para se proteger a teoria principal. Só que o cinturão deve ser falseável e, de fato, o é, pois o modelo teórico que descreve os neutrinos é falseável! E, com o tempo, detectou-se, de fato, tais partículas. Ou seja, a Lei de Conservação da Energia continua válida, e foi acertada a aposta na existência dos neutrinos.
E o que acontece na Ciência, de fato, é o que Lakatos descreve em seu "Programa de Pesquisas". O falseamento é um critério necessário para que tenhamos uma teoria científica, mas ele não é aplicado de forma isolada. Note que não ser aplicado de forma isolada não quer dizer que não seja necessária sua aplicação. A aplicação desse princípio é necessária, sendo que existem outros parâmetros também. Mas para uma teoria ser científica ela deve ser falseável, necessariamente. Portanto, há sim um parâmetro que separa as teorias científicas das não-científicas e esse parâmetro é o princípio do falseamento, que deve ser aplicado dentro do contexto descrito por Lakatos.
Sobre as evidências a favor de espíritos, peço que veja o meu site, especialmente no tópico sobre Reencarnação, que, a meu ver, possui as mais fortes evidências atuais, inclusive com boa replicação, como vc pediu em sua mensagem.
Assim que eu tiver tempo, pretendo dar uma olhada no seu site.
Até!
Suas palavras em amarelo e as minhas em branco:
Gostaria de comentar algumas de suas idéias sobre o conceito de Ciência. Vejo que vc segue o conceito de Ciência estabelecido por Popper, da falseabilidade. Para vc espíritos não é uma idéia falseável, portanto, não seria uma teoria científica. Vou colocar aqui uma mensagem de meu amigo Jáder Sampaio sobre o tema, explicando bem o conceito de falseabilidade (que me parece que o Arduin ainda não entendeu bem).
Na verdade, o conceito de falseamento estabelecido por Popper não descreve corretamente o que acontece, na prática, em Ciência. Esse conceito é necessário, mas deve vir acompanhado de outros. O que eu entendo por Método Científico, é o chamado "Programa de Pesquisas" de Lakatos. Mais a frente, vou colocar um texto explicando este conceito.
"Falseabilidade é um princípio da epistemologia crítica de Karl Popper (Lógica da Pesquisa Científica), que erigiu este princípio após ter demonstrado a falácia do princípio da verificabilidade. É também um princípio de demarcação entre afirmações consideradas científicas e afirmações consideradas metafísicas.
Se você se baseia nele, não existe conhecimento científico verdadeiro. As proposições científicas são aceitas até que alguém as falsifique. Se uma afirmação não for falsificável, ela não é considerada científica. A afirmação "todo efeito tem uma causa" aos olhos desse autor, não é científica, é metafísica. Não há como fazer um experimento que a falsifique, porque ela pertence ao mundo das idéias.
Correto, exceto pela última colocação. O autor diz que a afirmação "todo efeito tem uma causa" é infalseável. Bom, em primeiro lugar, temos que ter de forma clara o conceito de "efeito" que está sendo utilizado. Tanto quanto sei, efeito possui causa, por definição. Isto é, se algo possui uma causa, diz-se que ele é um efeito desta causa. Neste caso, temos que a afirmação é verdadeira, o que decorre da própria definição dos termos causa e efeito. Talvez a intenção do autor tenha sido dizer "evento" ao invés de "efeito". Bom, aí a afirmação seria: "todo evento possui uma causa". E esta afirmação é falseável, pois basta achar um evento sem causa para falseá-la. E isso ocorre na Mecânica Quântica. Muito embora a função de onda seja algo determinístico, no sentido de ser obtida a partir de uma equação diferencial (Equação de Schrödinger) ou a partir de métodos algébricos (Formalismo de Dirac), o colapso dela num ponto definido, devido à uma mensuração, por exemplo, não o é. Eu disse que a função de onda é determinística, porque a solução da Eq. de Schrödinger para um dado potencial, por exemplo, é algo bem definido. No caso do oscilador harmônico linear, para citar um exemplo específico, a função de onda é escrita em termos dos Polinômios de Hermite. Não são os Polinômios de Laguerre ou as Funções Associadas de Legendre ou qualquer outra coisa...são os Polinômios de Hermite, especificamente eles. Então, a função de onda é determinística. Contudo, como sua interpretação é probabilística, o que se tem é a probabilidade de se encontrar a partícula em cada região do espaço, mas não se sabe especificamente onde ela está. A partir da função de onda, constrói-se a densidade de probabilidade e, com isso, estima-se os valores esperados dos observáveis (momentum, momento angular, spin, posição, energia, etc...). Ou seja, você tem valores mais prováveis que outros, mas não pode dizer com certeza quais os valores que serão mensurados, pois o colapso é aleatório, muito embora siga uma distribuição de probabilidades. Os deterministas ainda tentaram salvar este paradigma postulando a existência de variáveis ocultas, o problema é que no Experimento EPR demonstra-se empiricamente a violação da Desigualdade de Bell, o que nos leva a concluir ou que não existem variáveis ocultas (interpretação aceita pela maior parte dos Físicos), ou que a lógica não é válida para tratar dos fenômenos quânticos. Pois bem, Bohm ainda tentou seguir com o paradigma determinista, com sua Mecânica Bohmiana, mas já ouvi várias objeções à ela. A principal é o fato de não haver uma versão relativística para ela, como há para a Equação de Schrödinger, no caso, a Equação de Klein-Gordon e a Equação de Dirac. Sinceramente, não sei a quantas anda a Mecânica Bohmiana...mas não são muitos os que trabalham em cima dela...mas o ponto é que a afirmação "todo evento possui uma causa" é sim falseável e, para além disso, não só é falseável como foi, de fato, falseada pela Mecânica Quântica.
Se eu digo que "o Sol tem um peso menor que a Terra", essa afirmação será científica se houver uma forma de elaborarmos um experimento crucial, ou seja, alguma forma de mensurar o peso dos dois astros e chegar a uma decisão. Caso contrário (se o cientista não tem como dizer em que termos ele está disposto a abandonar a sua crença) a idéia não é falseável. Se as evidências que eu colhi depõem a favor da tese, ela será aceita como científica até que uma evidência contrária, baseada em uma experiência crucial, faça com que o cientista abandone sua idéia original.
[...]
Então vamos à mediunidade. Do ponto de vista Popperiano, estamos em apuros, porque embora tenhamos uma enorme coleção de eventos que depõem a favor da mediunidade, não há como se fazer um experimento crucial, porque não se trata de um fenômeno mecânico e regular.
Da forma como foi colocado, parece que a Teoria Darwinista não é falseável. A questão aqui não é se temos um grande domínio sobre as variáveis envolvidas em determinado fenômeno, a ponto de controlá-lo plenamente, mas se a teoria proposta para descrever tal fenômeno gera previsões falseáveis. Ora, a evolução das espécies não é um fenômeno que compreendemos de forma plena do ponto de vista quantitativo, mas se encontrássemos fósseis de hominídeos com mais de 300 milhões de anos de idade, por exemplo, teríamos falseado o Darwinismo, pois isso o contrariaria. Então, o Darwinismo é falseável, muito embora, como uma teoria biológica, não possua o mesmo grau de detalhamento quantitativo de uma teoria física.
Um médium que apresenta inúmeras evidências de apresentar conhecimentos não aprendidos é flagrado em erro ou em fraude, por exemplo. A fraude descoberta ou o erro não falsificam os acertos obtidos, apenas coloca em dúvida se os outros fenômenos foram realmente bem observados. É isso que os céticos utilizam para fazer desacreditar os fenômenos mediúnicos, mas uma fraude ou uma possível explicação alternativa aos fenômenos também não os falsifica, apenas colocam em dúvida o que se julgava certo e o problema fica em suspensão.
Então temos um outro problema [...]. O pensamento de Popper só considera como ciência, o conhecimento sobre objetos que possuem uma tal regularidade que podem ser descritos em termos de "leis". Em outras palavras, apenas as ciências naturais, em territórios nos quais há muitas regularidades é que se poderia falar em conhecimento científico. Então temos que jogar fora mais de 9/10 da Psicologia, da comunicação e de outras áreas do conhecimento que se detêm no estudo das singularidades, da intencionalidade, ou seja, do homem. Estas outras formas de conhecimento rigoroso desenvolveram outros métodos para analisarem seus objetos de estudo. [...]
O que o autor refere como "Ciências Naturais"?! Provavelmente deve estar englobando também a Biologia, mas a Biologia não trata de fenômenos tão regulares quanto os da Física, mas ainda sim trabalha com teorias falseáveis. Ou, de um ponto de vista reducionista, a Biologia ainda não gerou modelos teóricos quantitativos (que um dia poderão ser gerados, quando começarmos a desenvolver melhor campos de pesquisa de fronteira da atualidade, como a Mecânica Estatística do Não-Equilíbrio), mas qualitativos, mas mesmo estes modelos são falseáveis. Quanto à Psicologia, é algo que eu estou muito distante, não conheço as teorias na área, então fica difícil de julgar.
Popper foi um adversário da Parapsicologia enquanto vivo. Ele considerava a Parapsicologia como uma pseudociência (assim como a Psicanálise e o Marxismo) porque não conseguia atender a essa exigência sua. Há um debate que ele fez com Eccles,[...] no qual a questão da Parapsicologia ganha corpo.
Com base no critério de Popper, teríamos que fazer algo como: se a pessoa que considero como médium de desdobramento ou bilocação não conseguir ler um texto que coloquei em uma caixa fechada e lacrada e do qual ninguém conhece o conteúdo, então terei que abandonar a tese da realidade da mediunidade de bilocação. Mas todos nós sabemos que a mediunidade não é um fenômeno mecânico, que o médium não consegue ter percepções extra sensoriais apenas desejando-o e que isso não significa que o fenômeno não exista ou que seja pura metafísica, tenho que conceber a possibilidade da sua existência com ocorrências irregulares. Nesses termos, o pensamento de Popper não nos ajuda muito, não é mesmo?
Aqui, está, em suma, o que venho falando com o Arduin. Não se pode falsear a mediunidade, porque qualquer falha, será explicada por um determinado fator que, no final das contas, não permite concluir que mediunidade não existe. Mediunidade é um atributo infalseável e, portanto, não faz parte do escopo das teorias científicas. Esse é o ponto. Agora, não há motivos para desespero. Veja a pergunta que o cara faz:
"Nesses termos, o pensamento de Popper não nos ajuda muito, não é mesmo?"
O fato de algo não ser científico, não quer dizer que não possa ser real. Aqui temos um fato: não podemos, pelo menos da forma como as coisas estão postas até o momento, falsear a mediunidade. Contudo, isso não quer dizer que não se possa realizar estudos EXPERIMENTAIS a respeito desta. Não só podemos, como devemos. No caso da mediunidade existir, teremos um objeto de estudo. E, com o tempo, chega-se a um compreensão melhor deste objeto, quando então poderemos formular o conceito de mediunidade em cima de propriedades falseáveis. É o que eu chamei de processo de "retroalimentação" na mensagem que enviei ao Arduin. Você tem um objeto hipotético e nada ainda substancial do ponto de vista teórico para descrevê-lo. Em cima de estudos experimentais, você pode avançar no conhecimento deste objeto até o ponto de conseguir reformular a definição do conceito que corresponde a este objeto de uma forma tal que esta definição seja falseável e, a partir deste ponto, começa-se a trabalhar em cima de uma teoria que poderá ser chamada de científica.
[...]Não vejo como se provar que a mediunidade é impossível ou possível. Vejo apenas como colecionar evidências e contra-evidências da sua existência, é o que vem fazendo os pesquisadores da área. E nós pesquisadores, ao avaliarmos com algum afastamento o rol de evidências colhido e descrito, colocamos "nossas fichas" em uma ou outra hipótese, considerando-a mais ou menos provável. Por essa razão Popper afastou a mediunidade do rol dos fenômenos científicos, e com isso, uma inumerável lista de fenômenos e teorias pesquisadas pelos mais diversos campos do conhecimento humano, dentre eles o seu campo (o direito) que é todo baseado em princípios aceitos mas não falseáveis.
Direito não é Ciência e, isso, é bem claro. Quanto ao que o autor disse, deve-se colecionar essas evidências experimentais contra e a favor, e também começar a implementar experimentos para vasculhar a estrutura física dos mesmos. Considerando que os fenômenos existam, eu sei que isso será difícil, talvez tenhamos que jogar alguns médiuns dentro do LHC do CERN para ver se aparecem algumas partículas mediúnicas quando colidirmos uns com os outros...hehehe...
Agora, Han, extraio do livro "Fundamentação da Ciência Espírita" exemplos de leis científicas que não são falseáveis, mas que são científicas. Isso mostra que a idéia de Popper tem seus limites, e que não pode ser usada como demarcadora entre o que é Ciência e o que não é. Na verdade, tal demarcador não existe.
Bom, se não existisse, teríamos um sério problema para os filósofos da Ciência. Mas este demarcador existe...se não, vejamos:
"O que se pode chamar de testabilidade é uma característica bastante explorada pelos estudiosos da filosofia da ciência, que buscam assim distinguir as teorias científicas das não-científicas. Neste último rol estão incluídas não somente as proposições errôneas ou pseudo-científicas, mas também as teorias filosóficas, metafísicas, teológicas etc., que pertencem a outros ramos de conhecimento.
Em síntese, este quesito estabelece que uma teoria, se científica, deve ser passível de verificação.
Aqui deve-se tomar um cuidado muito grande com os termos. Uma teoria científica não deve ser passível de verificação (no sentido de validação da mesma), mas passível de falseamento. Do ponto de vista formal, não provamos a veracidade de uma teoria científica, ou seja, não a verificamos. Podemos, contudo, falseá-la.
Não se exige que tenha sido verificada, pois pode estar relacionada a fenômenos cujas manifestações subseqüentes virão a ocorrer apenas num futuro próximo, como é o caso de qualquer objeto de análise do tipo ‘observável’. Exemplos dessa natureza são comuns na astronomia, como é o caso das pesquisas sobre os cometas. Também foi o caso da teoria einsteiniana da curvatura do espaço devido à presença de grandes massas, verificada muitos anos depois de seu enunciado, graças à ocorrência de um eclipse, no qual o Brasil serviu como posto de observação privilegiado do fenômeno.
Naturalmente, o intervalo que medeia o estabelecimento da teoria e sua verificação deve ter algum limite de referência. Para ilustrar, considere a formulação de uma teoria que descreve o modo de vida dos seres num planeta recém-descoberto em outro sistema galáctico. É uma teoria que não pode ser considerada científica, pois somente será verificável num prazo indeterminado.
Este critério tem indiscutível utilidade, pois descarta uma série de teorias eminentemente metafísicas, que aparecem em disciplinas em formação e, especialmente, no campo do psiquismo e outros estudos transcendentais, como a astrologia. Por exemplo, nesta disciplina há a teoria de que tudo se relaciona no universo, como no caso da queda de uma flor excitando uma estrela distante; tal teoria pode não estar errada, mas não é científica, pois não é testável.
Novamente: não existe verificação de teorias científicas, pois essas não se baseiam em deduções lógicas. Vou expor isso em detalhes mais a frente...
Com a abertura que a física moderna e a matemática impuseram, enfatizando a existência de sistemas não-lineares, princípios não-causais e a própria retratividade do tempo, muitos pensadores se arvoraram em propor teorias bem audaciosas. Conforme foi enfatizado no item anterior, uma vez que estas formulações se opõem à lógica, é preciso cautela. A ausência de testabilidade é um indicativo que tais teorias não são satisfatoriamente científicas.
Aqui ele tem que dizer a respeito do que ele está falando, que teorias ele afirma contrariarem a lógica, que teorias ele afirma não serem testáveis, etc...
É preciso ressaltar que a testabilidade não garante que a teoria seja científica, pois é preciso haver outras características, outros indicativos de consistência.
Para ser científica, a teoria tem que ser necessariamente falseável. O método científico não se baseia apenas no falseamento, mas este é parte integrante do método.
Também se deve perceber que uma teoria testável pode ser errada, mas nem por isso deixa de ser científica.
Correto.
A natural falibilidade da ciência, que será bem explorada mais à frente em capítulo específico, aceita que as teorias dadas como verdadeiras se derroquem, dando lugar a outras mais precisas, produzindo uma certa oscilação no processo de geração do saber. Mas embora essa dinâmica faça parte do processo, esta instabilidade gerada pela formulação de teorias meramente especulativas sempre incomodou alguns estudiosos e os inspirou a formalizar critérios de distinção das teorias verdadeiramente científicas das não-científicas.
Uma das primeiras características a serem propostas foi a testabilidade, denominada falseabilidade por seu criador, Popper, que exacerbou seu alcance. Mas, de um modo geral, o critério da falseabilidade pode ser adequadamente empregado ao estabelecer que se uma proposição é científica, deve ser sujeita á testabilidade, com vistas ao seu falseamento. Assim, uma teoria é científica se puder ser submetida a questionamentos, demonstrações ou experimentações. Se futuramente vier a mostrar falhas e conseqüentemente ser abandonada e substituída por outras, não perderá seu status de científica, apesar de não servir para nada.
Enfatiza-se mais uma vez que, desde a apresentação do quadro comparativo de Trujillo (capítulo II, p. 41), a ciência não se arvora como infalível; procura sim compreender; de modo cada vez mais completo, a realidade, sabendo que este processo envolve tentativas e erros.
Se o Sr. Incógnito (um antigo forista do RV, estudante de filosofia e católico) visse isso ele provavelmente teria um ataque do coração...hehehe...segundo ele, a Ciência não trata da realidade. Bom, esse é um outro ramo de discussão, no qual não pretendo adentrar no momento...mas devo dizer que não concordo plenamente com a visão do Sr. Incógnito.
Neste contexto, um exemplo ligado ao campo do paranormal é interessante. Existem proposições pretensamente científicas, usadas para combater a doutrina espírita, que não obedecem ao critério da falseabilidade. Considere-se o caso da onipotência do inconsciente, também chamado de superinconsciente, hipótese aventada para explicar uma gama enorme de fenômenos psíquicos intelectivos, como a telepatia, psicocinésia, poltergeist, mediunidade e, principalmente, os casos de identificação de espíritos desencarnados. Segundo essa teoria, estes e muitos outros fenômenos resultariam de um poder normalmente involuntário, que, se localizando no interior do ser humano e se exteriorizando de modo ainda pouco explicado, dar-lhe-ia ciência sobre aspectos pessoais de outrem, conhecimento geral do passado, presente e futuro, e ainda ofertando-lhe uma força física formidável. Se levada a sério, esta hipótese facilmente implicaria num poder infinito contido no inconsciente humano, em que cada ser transformar-se-ia literalmente em um Deus. Nestas condições, por exemplo, a psicocinésia (movimentação de objetos por meios não-físicos), poderia ser aventada para explicar os maremotos, terremotos e acidentes em geral, sem poder ser refutada. Quem poderia dizer que um tufão não foi obra involuntária de um paranormal ou de inconscientes coletivos afetos a grandes catástrofes? Logo, tal hipótese, denominada ‘telergética’, bem ao gosto dos parapsicólogos católicos, não é científica.
Como o Arduin já citou, e eu concordo, é bem estranha esta "elasticidade" do "inconsciente quevediano"...
Será a hipótese espirítica científica? A resposta é sim, pois não lhe é creditada nenhum poder ilimitado ou infinito.
A resposta é não. Para ser científica, a teoria deve ser falseável, o que não é o caso aqui.
Pode-se testa-la, questiona-la e identificar uma série de elementos indicativos, particulares ao problema em análise.
Ela é infalseável. E isso faz com que ela não seja científica.
Se um desencarnado se identifica, as informações por ele prestadas dizem respeito às suas atividades quando em vida; não se considera que tenha ciência de informações ou apresente capacidades superiores à sua natureza. Considera-se apenas que a morte não exterminou sua memória e sua individualidade. Quanto às levitações, materializações e outros eventos formidáveis, a literatura registra as condições especiais em que se manifestam e os limites bem definidos destes prodígios. Logo, a hipótese espirítica, é importante ratificar, embora considere elementos que ultrapassam as fronteiras físicas tradicionais, não advoga sobrenaturalidade ou superpoderes indeterminados.
Observe que em momento algum são oferecidos parâmetros para se falsear o espiritismo.
Por outro lado, é verdade que certas hipóteses científicas, por serem primitivas ou primordiais (se situam num ponto básico de uma escala de conhecimentos), nunca podem ser falseadas, e deste modo, criam limitações à idéia de Popper.
Que hipóteses?!
Assim sendo, o critério da falseabilidade não pode ser empregado isoladamente como critério de identificação de modelos científicos. É o caso da lei da conservação de energia. Se, por alguma razão, o balanço energético num sistema natural não for obedecido, pode-se facilmente aventar a existência de uma nova forma de energia, ainda não conhecida, que se introduz no processo. É verdade que é preciso muitos e muitos testes para que, num caso como este, seja eliminada a possibilidade de erro de medida, interpretação, cálculos etc. No entanto, a anti-matéria e outras partículas sub-atômicas foram descobertas exatamente assim, para ‘fechar’ o balanço de energia.
Essa é a deixa perfeita para expor o "Programa de Pesquisas" de Lakatos, que mencionei anteriormente. Eu falei rapidamente a respeito disso em uma mensagem dirigida ao Arduin no tópico do RV antigo, mas sem mencionar explicitamente o nome de Lakatos. Vou colocar aqui um texto redigido pelo forista Dono da Verdade, do extinto Fórum da STR, onde é feita uma apresentação da evolução do conceito de Método Científico, partindo do indutivismo, passando por Popper e Khun, até culminar em Lakatos, que descreve perfeitamente o que ocorre na Ciência:
Entre as "filosofias" da ciência, ou sejam, as descrições de como ela funciona ou as prescrições de como ela deve funcionar, destacam-se:
1- Indutivismo.
Esta corrente afirma que a ciência produz conhecimento através da observação direta da natureza, constatação de suas regularidades e generalização dessas regularidades para leis e teorias. Ela se baseia no princípio da indução, ou seja, afirma que podemos a partir da observação de casos particulares chegar à uma conclusão universal válida. Mas tarde, devido à crítica de Hume, abandonaram a idéia da indução propiciar conhecimento certo, passando a defender que a mensma propicia conhecimento que se torna cada vez mais provável à medida que é apoiada por maior quantidade de experimentos. Elaboraram para isso uma "lógica probabilística indutiva". Seus defensores fazem parte da filosofia positivista, mas particularmente, a neopositivista do "Círculo de Viena" (positivismo lógico). São exemplos de autores dessa corrente: Hempel, Carnap e Wittgenstein. Tiveram grande influência na interpretação "consenso de Copenhaguen" da mecânica quântica.
2- "Falsificacionismo", de Karl Popper.
Karl Popper, baseado na "crítica de Hume" (esta "crítica" possui apenas duas proposições: 1- Só a lógica dedutiva é válida; 2- Só a experiência é fonte de conhecimento factual.) , defendeu que a indução é um mito, pois a mesma não tinha apoio da lógica (conclusão afirmando mais do que as premissas permitem) nem da experiência (não foram testados todos os casos para se chegar à generalização). Hume concluiu qua a indução era um "psicologismo" útil para a sobrevivência, porém Popper defendeu que não é a indução o verdadeiro "método" usado pela ciência (nem pelas pessoas), mas o da "tentativa e erro", como é isso?
Em primeiro lugar, não há observação pura. A pessoa que vai fazê-la já possui uma teoria que pretende testar. É essa teoria que a faz selecionar os experimentos pertinentes à mesma. Na verdade, é um "problema", ou seja, um evento não previsto pela teoria que a pessoa já tinha que a motiva a empreender a pesquisa. Em segundo lugar, Popper faz uma "concessão" inevitável à crítica de Hume, reconhecendo que as teorias possuem caráter conjectural, ou seja, nunca poderemos estar certos de termos ou não chegado à verdade, de modo que o trabalho científico é um empreendimento permanente. Porém o mais importante: Popper percebeu que há uma assimetria entre confirmação e falseamento: vários casos a favor de uma teoria não garantem que a mesma é sempre válida, mas um único caso contra é suficiente para falseá-la. Assim, a falsificação, ao contrário da confirmação, conta com o apoio da lógica dedutiva e por isso cabe aos cientistas formularem hipóteses para explicarem os fenômenos e submetê-las às mais impiedosas críticas e testes. As teorias falseadas são descartadas(ou modificadas) e novas propostas. A teoria mais "resistente" é corroborada, ou seja, é a melhor que conseguimos até o momento, mas não podemos estar certos de que a mesma não será falseada amanhã ( ou que será). Devido ao fato de se usar a razão para "criticar" as teorias, esta corrente é conhecida como racionalismo crítico. Porém, para que as teorias sejam criticadas, devem estar sujeitas a críticas, ou seja, serem falseáveis. Popper constatou que uma teoria será tanto mais informativa, ampla, precisa e útil quanto mais falseável a mesma for. Teorias não-falseáveis são inúteis para a ciência, pois para elas o mundo poderia ser de qualquer jeito que sempre "estarão certas". O progresso da ciência consiste na sucessão de teorias cada vez mais falseáveis ( maior conteúdo empírico e informativo).
3- "Sucessão de paradigmas", de Thomas Khun.
Analisando a história da ciência, Thomas Khun defendeu que nem o indutivismo nem o "falsificacionismo" descrevem como a ciência realmente funciona. Ele concluiu que a ciência não é formada apenas de leis e teorias, mas também de "visões de mundo" bem mais amplas - os paradigmas -. Estes determinariam em cada época que objetivos devem ser buscados, que tipos de teorias devem ser formuladas e aceitas, que métodos, critérios e procedimentos são considerados válidos,até qual o tipo de constituição básica o universo possui. Esses paradigmas são produtos de exemplos anteriores que deram certo e passaram a servir de modelo e "inspiração" para os cientistas subseqüentes (Ex: A mecânica newtoniana, a teoria da evolução de Darwin, a relatividade, etc). Os cientistas, ao contrário do que diz Popper, são bastante relutantes em descartar teorias e paradigmas, chegando mesmo a serem intolerantes para com os outros. Segundo Khun, o empreendimento científico passa por várias fases: pré-ciência (para áreas do conhecimento ainda "inexploradas"), quando há uma multiplicidade de paradigmas. "Ciência normal", quando um paradigma triunfa, ganha mais adeptos e passa a dominar a área. Crise, momento em que o paradigma começa a "se esgotar". Nesse momento, "anomalias" se acumulam e hipóteses ad-hoc se ploriferam. "Ciência extraordinária", quando algumas pessoas começam a "perder a fé" no paradigma e começam a apoiar um outro mais promissor. São as revoluções científicas. Momentos de grande "insegurança profissional" para os adeptos dos antigos paradigmas. Essas revoluções mudam o modo como os cientistas enxergam o mundo de tal maneira que, após as mesmas, é como se estivessem em "outro mundo". A ciência extraordinária então passa a ser "ciência normal".
Uma tese fundamental de khun é que, se os cientistas não "se apegassem" a um paradigama, descartando as teorias imediatamente frente a qualquer falseamento, não poderiam resolver os abstrusos problemas esotéricos que só uma dedicação profunda pode proporcionar; pelo contrário, ficariam o tempo inteiro discutindo os "fundamentos" da sua área sem irem à lugar algum. Para khun, um cientista só adere a um paradigma porque acredita que o mesmo irá "resolver os problemas" melhor do que os demais, é uma fé no futuro que, em sua ausência, o desmotivaria. Defende também que uma comunidade só descarta um paradigma quando já existe outro para substituí-lo. E que a "conversão" a um paradigma é um processo lento e gradual que às vezes só se completa quando os últimos adeptos dos paradigmas anteriores morrem.
4- "Programas de pesquisa", de Imre Lakatos.
A tese de Khun foi considerada relativista. Imre Lakatos então propôs conciliar o método normativo "popperiano" com o descritivo de Khun.
Para Lakatos, de fato as teorias científicas nem sempre são falseadas frente a qualquer "anomalia", mas são propostas sempre hipótese (ad hoc ou não) para preservá-la. Ele usou como exemplo as primeiras previsões da passagem de cometas feitas com a ajuda da mecânica newtoniana: Se as previsões não acertassem, a teoria de Newton seria descartada? Não, seriam propostas hipóteses diversas para explicar o motivo do erro, como equívocos de dados, cálculos ou a proposição de que outros fatores alteraram o resultado. Para Lakatos, isto é perfeitamente normal e desejável desde que essas hipóteses não sejam ad-hoc, ou seja, devem ser independentemente testáveis. Assim, Lakatos propõe que a atividade da ciência é uma sucessão de "programas de pesquisa" ( os "paradigmas" de Khun). Um programa de pesquisa é formado por uma teoria principal, básica, e por um "cinto de proteção", que são sub-teorias e hipóteses auxiliares. Quando surgem anomalias, tenta-se eliminar estas através de alterações no "cinto de proteção" de modo a manter a teoria condizente com os experimentos. Um programa de pesquisa está em expansão quando faz previsões que conduzem a testes que ampliam o conhecimento da natureza, fazendo a ciência progredir. Porém, quando o programa deixa de fazer previsões testáveis, ou anomalias se acumulam sem que seja possível conciliá-las com o mesmo, diz-se que o mesmo está "degenerado". Faz-se necessário então a substituição do mesmo por um outro programa de pesquisa mais promissor.
Vê-se que, ao contrário de Khun, Lakatos afirma que as mudanças de programas (ou "paradigmas") se dá de forma racional a partir do reconhecimento de seu estado "degenerado".
Ora, foi citada a Conservação da Energia. Pois bem, em alguns experimentos de colisão a altas energias, onde ocorrem produções de neutrinos, ficaria "faltando" energia ao final do processo de colisão caso não se levasse em conta a energia desses neutrinos. Mas neutrinos são partículas muito fracamente integarentes, tanto que suas primeiras detecções não são muito antigas e aconteceram bastante tempo após sua previsão teórica. Os neutrinos foram propostos, a princípio, exatamente para salvar a sacrossanta Lei de Conservação da Energia. Mas só foram detectados muito tempo depois, devido às dificuldades inerentes ao processo de detecção de partículas muito fracamente interagentes. A princípio, se considerássemos apenas o princípio do falseamento de Popper, teríamos que ter rejeitado a Lei de Conservação da Energia, ou ao menos ter restringido seu domínio de atuação, a partir dessas experiências de colisões com produção de neutrinos. Não é o que foi feito (ainda bem!). A Lei de Conservação de Energia é muito importante para ser abandonada tão facilmente. Utilizou-se então um cinturão de hipóteses periféricas, como Lakatos descreve, para se proteger a teoria principal. Só que o cinturão deve ser falseável e, de fato, o é, pois o modelo teórico que descreve os neutrinos é falseável! E, com o tempo, detectou-se, de fato, tais partículas. Ou seja, a Lei de Conservação da Energia continua válida, e foi acertada a aposta na existência dos neutrinos.
E o que acontece na Ciência, de fato, é o que Lakatos descreve em seu "Programa de Pesquisas". O falseamento é um critério necessário para que tenhamos uma teoria científica, mas ele não é aplicado de forma isolada. Note que não ser aplicado de forma isolada não quer dizer que não seja necessária sua aplicação. A aplicação desse princípio é necessária, sendo que existem outros parâmetros também. Mas para uma teoria ser científica ela deve ser falseável, necessariamente. Portanto, há sim um parâmetro que separa as teorias científicas das não-científicas e esse parâmetro é o princípio do falseamento, que deve ser aplicado dentro do contexto descrito por Lakatos.
Sobre as evidências a favor de espíritos, peço que veja o meu site, especialmente no tópico sobre Reencarnação, que, a meu ver, possui as mais fortes evidências atuais, inclusive com boa replicação, como vc pediu em sua mensagem.
Assim que eu tiver tempo, pretendo dar uma olhada no seu site.
Até!
Re.: CONTINUAÇÃO DA DISCUSSÃO SOBRE ESPIRITISMO...
O espiritismo é infalseável porque sua tese central, a existência dos espíritos, não pode ser demonstrada falsa.
Depende, talvez no âmbito geral não possa, mas caso a caso é possível demonstrar a falsidade. Vide aqueles casos de "espíritos" de romanos que não entendem latim, "espíritos" de médicos chineses com nome japonês... Essas coisas.
O segundo turno das eleições é dia 31/10, Halloween.
Não perca a chance de enfiar uma estaca no vampiro!
Não perca a chance de enfiar uma estaca no vampiro!
Re: Re.: CONTINUAÇÃO DA DISCUSSÃO SOBRE ESPIRITISMO...
DarkWings escreveu:O espiritismo é infalseável porque sua tese central, a existência dos espíritos, não pode ser demonstrada falsa.
Depende, talvez no âmbito geral não possa, mas caso a caso é possível demonstrar a falsidade. Vide aqueles casos de "espíritos" de romanos que não entendem latim, "espíritos" de médicos chineses com nome japonês... Essas coisas.
Eu já comentei a respeito disso neste mesmo tópico. Você pode considerar hipóteses mais plausíveis em determinados casos, mas isso não constitui um falseamento da hipótese da existência de espíritos. Eu afirmo para você que a interação gravitacional entre dois corpos, no limite de campos fracos e no caso de um não estar dentro do outro, é dada por:
F = m*M*G / r²
Mostre-me um caso (dentro dos limites mencionados) que não satisfaça essa relação e teremos falseado a Lei da Gravitação Universal de Newton.
Já a afirmação: "existem espíritos", não é falseável, ou seja, não pode ser demonstrada falsa, ao contrário do que ocorre com a Lei da Gravitação Universal. Como os espíritos estariam supostamente ligados à geração da consciência humana (e nem vou mencionar aqui os duros golpes que a neurologia fornece contra tal hipótese), é de se esperar que estes devam ser localizados como um aglomerado de matéria (seja lá de que tipo for) no interior do corpo humano. Mas ninguém sabe do que são compostos os espíritos. Enquanto não houver um modelo teórico propondo uma tese falseável acerca do que vem a ser um espírito e qual a sua relação com a mente humana, a coisa toda permanece fora do âmbito da Ciência.
Perceba a fragilidade da coisa: eu afirmo sem provar que algo chamado "espírito" (que eu não sei bem o que é) participa da geração da consciência humana (como se dá a interação deste elemento com o cérebro?!) e que esse gerador sobrevive à morte do corpo, carregando consigo memórias, pensamentos, etc. Isso daí me parece algo muito interagente, já que é capaz de interagir com um objeto macroscópico como o cérebro e ainda carregar (não se sabe como) coisas que são produzidas por sinapses (pensamentos, lembranças, etc...) mesmo após a morte do cérebro. Estranhamente, esse composto material nunca foi detectado. Até neutrinos que são partículas muito fracamente interagentes já foram detectados, mas nada de se detectar esses compostos fantásticos denominados espíritos.
REFORMULANDO A QUESTÃO...
REFORMULANDO A QUESTÃO:
Estive pensando...talvez o centro da questão não deva ser a afirmação: "existem espíritos". Peguemos como exemplo o DNA. Existe uma definição do que seja tal objeto (não me recordo agora e nem estou com saco para procurar no Google). E existe a afirmação de que todo ser humano possui moléculas de DNA. Esta última é certamente uma afirmação falseável. Em analogia, devemos focar a nossa atenção na afirmação: "todo ser humano possui espírito" (que é, de fato, uma afirmação feita pelos proponentes do espíritismo e de outras religiões). É essa sentença que deve ser falseável. Para tanto, é necessário um modelo teórico falseável sobre os espíritos.
Estive pensando...talvez o centro da questão não deva ser a afirmação: "existem espíritos". Peguemos como exemplo o DNA. Existe uma definição do que seja tal objeto (não me recordo agora e nem estou com saco para procurar no Google). E existe a afirmação de que todo ser humano possui moléculas de DNA. Esta última é certamente uma afirmação falseável. Em analogia, devemos focar a nossa atenção na afirmação: "todo ser humano possui espírito" (que é, de fato, uma afirmação feita pelos proponentes do espíritismo e de outras religiões). É essa sentença que deve ser falseável. Para tanto, é necessário um modelo teórico falseável sobre os espíritos.
Re: CONTINUAÇÃO DA DISCUSSÃO SOBRE ESPIRITISMO...
Teste
Tinha respondido ao Han, mas a resposta não apareceu aqui, estou tentando para ver se fiz algo errado. Acho que não devia ter clicado no responder...
Tinha respondido ao Han, mas a resposta não apareceu aqui, estou tentando para ver se fiz algo errado. Acho que não devia ter clicado no responder...
Re.: CONTINUAÇÃO DA DISCUSSÃO SOBRE ESPIRITISMO...
Putz... eu não tenho paciência para ler e respoder esses textos longos...
Sou da geração SMS! :)
Sou da geração SMS! :)
O segundo turno das eleições é dia 31/10, Halloween.
Não perca a chance de enfiar uma estaca no vampiro!
Não perca a chance de enfiar uma estaca no vampiro!
Re: REFORMULANDO A QUESTÃO...
Viper escreveu:REFORMULANDO A QUESTÃO:
Estive pensando...talvez o centro da questão não deva ser a afirmação: "existem espíritos". Peguemos como exemplo o DNA. Existe uma definição do que seja tal objeto (não me recordo agora e nem estou com saco para procurar no Google). E existe a afirmação de que todo ser humano possui moléculas de DNA. Esta última é certamente uma afirmação falseável. Em analogia, devemos focar a nossa atenção na afirmação: "todo ser humano possui espírito" (que é, de fato, uma afirmação feita pelos proponentes do espíritismo e de outras religiões). É essa sentença que deve ser falseável. Para tanto, é necessário um modelo teórico falseável sobre os espíritos.
Eu me lembro muito mal e porcamente das aulas de Filosofia que tive no primeiro grau e não faço a idéia de como e porque povos primitivos, com tanta coisa para lidar no dia-a-dia, iria supor que existe algum componente metafísico dentro deles e que sobreviveria à morte do corpo e vagaria por aí, pagaria por seus pecados, seria recompensado por suas virtudes. Como Kardec mesmo havia perguntado aos espíritos:
_ Essa crença não seria fruto de ensinamentos de geração a geração?
E a resposta foi:
_ Então como explica que os seus selvagens também tinham essa crença?
É algo intuitivo no ser humano, mas foi o Kardec que trouxe uma forma de verificação de sua existência. Se não há espíritos, então também não existe continuidade de conhecimento do que havia no cérebro do falecido. Logo, nenhum médium JAMAIS teria como saber algo que havia na mente do defunto que não pudesse saber pelos meios normais. No entanto tais situações aconteceram muitas vezes. Como explicar isso?
É aqui que entra o que Pasteur fez. Ele não provou que geração espontânea não existe, mas falseou as argumentações apresentadas como provas de que a geração espontânea existia. Esse é o caminho. O que você tem de fazer é falsear as argumentações dos espíritas de que tais e quais situações observadas seriam provas da existência de espíritos e aí os espíritas ficariam que nem os defensores da geração espontânea diante de Pasteur.
É isso.
Saudações, Arduin!
Ué, se o conhecimento é transmitido de geração em geração, e ele é inerente à cultura humana, deve ter tido um ponto de partida, e isso se deu com os antigos. Não sei bem quando foi que os seres humanos começaram a desenvolver um sentimento religioso, mas as razões para isso podem ser muitas: inconformidade diante da morte, medo dos fenômenos naturais cujas causas eram atribuídas a entidades sobrenaturais, etc...
Desconheço tal forma de verificação.
Novamente, temos RELATOS de casos fantásticos. Segundo o Vitor, alguns casos expostos em seu site foram publicados em revistas indexadas. Como eu disse, ainda vou dar uma olhada nisso. Ontem eu comecei a ler um artigo de Stevenson sobre EQM que teria sido publicado numa revista indexada e já o achei estranho pelo começo: o autor se mostra muito preocupado em sustentar a hipótese da sobrevivência em um caso cuja natureza não permite tal extrapolação, já que não há morte. Mas não terminei o artigo. Talvez o faça mas para o final do ano. Talvez seja bom pegar um específico (esse que eu mencionei, por exemplo), e colocar para debate aqui. Também andei lendo algumas críticas da Dra. Suzana Herculano-Houzel, da UFRJ, acerca destes relatos. Ela disponibiliza o endereço de e-mail dela em seu site. Acho que é uma boa solicitar a opinião dela acerca do relato específico que escolhermos para analisar aqui.
Essa analogia não procede. De forma alguma. A tese que Pasteur analisou era falseável. Através da realização de engenhosos experimentos ele mostrou que a hipótese do surgimento espontâneo de organismos complexos a partir de materiais como o lixo era falsa. Já a mediunidade não é falseável. Se eu filmar uma seção de materialização em que o médium não consiga materializar nada, isso não terá falseado coisa alguma, ao contrário do que ocorreu com Pasteur. Portanto, as duas situações são bem distintas.
O que você talvez queira colocar é que devemos analisar os relatos espíritas. Pois bem, vamos no final do ano colocar um desses relatos que teriam sido publicados em revistas indexadas para debate em um novo tópico aqui no RV. Vamos ver o que o pessoal tem a dizer. Pretendo também solicitar a opinião de Houzel. Mas eu só vou poder fazer isso mais para o final do ano.
Até.
Eu me lembro muito mal e porcamente das aulas de Filosofia que tive no primeiro grau e não faço a idéia de como e porque povos primitivos, com tanta coisa para lidar no dia-a-dia, iria supor que existe algum componente metafísico dentro deles e que sobreviveria à morte do corpo e vagaria por aí, pagaria por seus pecados, seria recompensado por suas virtudes. Como Kardec mesmo havia perguntado aos espíritos:
_ Essa crença não seria fruto de ensinamentos de geração a geração?
E a resposta foi:
_ Então como explica que os seus selvagens também tinham essa crença?
Ué, se o conhecimento é transmitido de geração em geração, e ele é inerente à cultura humana, deve ter tido um ponto de partida, e isso se deu com os antigos. Não sei bem quando foi que os seres humanos começaram a desenvolver um sentimento religioso, mas as razões para isso podem ser muitas: inconformidade diante da morte, medo dos fenômenos naturais cujas causas eram atribuídas a entidades sobrenaturais, etc...
É algo intuitivo no ser humano, mas foi o Kardec que trouxe uma forma de verificação de sua existência.
Desconheço tal forma de verificação.
Se não há espíritos, então também não existe continuidade de conhecimento do que havia no cérebro do falecido. Logo, nenhum médium JAMAIS teria como saber algo que havia na mente do defunto que não pudesse saber pelos meios normais. No entanto tais situações aconteceram muitas vezes. Como explicar isso?
Novamente, temos RELATOS de casos fantásticos. Segundo o Vitor, alguns casos expostos em seu site foram publicados em revistas indexadas. Como eu disse, ainda vou dar uma olhada nisso. Ontem eu comecei a ler um artigo de Stevenson sobre EQM que teria sido publicado numa revista indexada e já o achei estranho pelo começo: o autor se mostra muito preocupado em sustentar a hipótese da sobrevivência em um caso cuja natureza não permite tal extrapolação, já que não há morte. Mas não terminei o artigo. Talvez o faça mas para o final do ano. Talvez seja bom pegar um específico (esse que eu mencionei, por exemplo), e colocar para debate aqui. Também andei lendo algumas críticas da Dra. Suzana Herculano-Houzel, da UFRJ, acerca destes relatos. Ela disponibiliza o endereço de e-mail dela em seu site. Acho que é uma boa solicitar a opinião dela acerca do relato específico que escolhermos para analisar aqui.
É aqui que entra o que Pasteur fez. Ele não provou que geração espontânea não existe, mas falseou as argumentações apresentadas como provas de que a geração espontânea existia. Esse é o caminho. O que você tem de fazer é falsear as argumentações dos espíritas de que tais e quais situações observadas seriam provas da existência de espíritos e aí os espíritas ficariam que nem os defensores da geração espontânea diante de Pasteur.
Essa analogia não procede. De forma alguma. A tese que Pasteur analisou era falseável. Através da realização de engenhosos experimentos ele mostrou que a hipótese do surgimento espontâneo de organismos complexos a partir de materiais como o lixo era falsa. Já a mediunidade não é falseável. Se eu filmar uma seção de materialização em que o médium não consiga materializar nada, isso não terá falseado coisa alguma, ao contrário do que ocorreu com Pasteur. Portanto, as duas situações são bem distintas.
O que você talvez queira colocar é que devemos analisar os relatos espíritas. Pois bem, vamos no final do ano colocar um desses relatos que teriam sido publicados em revistas indexadas para debate em um novo tópico aqui no RV. Vamos ver o que o pessoal tem a dizer. Pretendo também solicitar a opinião de Houzel. Mas eu só vou poder fazer isso mais para o final do ano.
Até.
- Vitor Moura
- Mensagens: 2130
- Registrado em: 24 Out 2005, 20:13
Olá, Rômulo
desculpe a demora em responder, mas só descobri que você já havia colocado o tópico dia 30. Não consegui seguir o esquema de cores. Fiz algum corte nas mensagens que penso não irão prejudicar o entendimento. Seguem minhas novas respostas após ***:
"Falseabilidade é um princípio da epistemologia crítica de Karl Popper (Lógica da Pesquisa Científica), que erigiu este princípio após ter demonstrado a falácia do princípio da verificabilidade. É também um princípio de demarcação entre afirmações consideradas científicas e afirmações consideradas metafísicas.
Se você se baseia nele, não existe conhecimento científico verdadeiro. As proposições científicas são aceitas até que alguém as falsifique. Se uma afirmação não for falsificável, ela não é considerada científica. A afirmação "todo efeito tem uma causa" aos olhos desse autor, não é científica, é metafísica. Não há como fazer um experimento que a falsifique, porque ela pertence ao mundo das idéias.
Correto, exceto pela última colocação. O autor diz que a afirmação "todo efeito tem uma causa" é infalseável. Bom, em primeiro lugar, temos que ter de forma clara o conceito de "efeito" que está sendo utilizado. Tanto quanto sei, efeito possui causa, por definição. Isto é, se algo possui uma causa, diz-se que ele é um efeito desta causa. Neste caso, temos que a afirmação é verdadeira, o que decorre da própria definição dos termos causa e efeito. Talvez a intenção do autor tenha sido dizer "evento" ao invés de "efeito". Bom, aí a afirmação seria: "todo evento possui uma causa".
*** Bastante correto o que você disse, a meu ver. Essa frase, da forma como meu amigo Jáder colocou, consta no Livro dos Espíritos, daí sua utilização. Sigamos tratando ‘efeito’por ‘evento’.
E esta afirmação é falseável, pois basta achar um evento sem causa para falseá-la. E isso ocorre na Mecânica Quântica. Muito embora a função de onda seja algo determinístico, no sentido de ser obtida a partir de uma equação diferencial (Equação de Schrödinger) ou a partir de métodos algébricos (Formalismo de Dirac), o colapso dela num ponto definido, devido à uma mensuração, por exemplo, não o é. Eu disse que a função de onda é determinística, porque a solução da Eq. de Schrödinger para um dado potencial, por exemplo, é algo bem definido. No caso do oscilador harmônico linear, para citar um exemplo específico, a função de onda é escrita em termos dos Polinômios de Hermite. Não são os Polinômios de Laguerre ou as Funções Associadas de Legendre ou qualquer outra coisa...são os Polinômios de Hermite, especificamente eles. Então, a função de onda é determinística. Contudo, como sua interpretação é probabilística, o que se tem é a probabilidade de se encontrar a partícula em cada região do espaço, mas não se sabe especificamente onde ela está. A partir da função de onda, constrói-se a densidade de probabilidade e, com isso, estima-se os valores esperados dos observáveis (momentum, momento angular, spin, posição, energia, etc...). Ou seja, você tem valores mais prováveis que outros, mas não pode dizer com certeza quais os valores que serão mensurados, pois o colapso é aleatório, muito embora siga uma distribuição de probabilidades. Os deterministas ainda tentaram salvar este paradigma postulando a existência de variáveis ocultas, o problema é que no Experimento EPR demonstra-se empiricamente a violação da Desigualdade de Bell, o que nos leva a concluir ou que não existem variáveis ocultas (interpretação aceita pela maior parte dos Físicos), ou que a lógica não é válida para tratar dos fenômenos quânticos. Pois bem, Bohm ainda tentou seguir com o paradigma determinista, com sua Mecânica Bohmiana, mas já ouvi várias objeções à ela. A principal é o fato de não haver uma versão relativística para ela, como há para a Equação de Schrödinger, no caso, a Equação de Klein-Gordon e a Equação de Dirac. Sinceramente, não sei a quantas anda a Mecânica Bohmiana...mas não são muitos os que trabalham em cima dela...mas o ponto é que a afirmação "todo evento possui uma causa" é sim falseável e, para além disso, não só é falseável como foi, de fato, falseada pela Mecânica Quântica.
*** Não penso que seja bem assim. Há um trecho interessante do artigo de Richard Shoup Anomalies and Constraints - Can clairvoyance, precognition and psychokinesis be accommodated within known physics? Journal of Scientific Exploration, Vol. 16, No. 1, Spring 2002, pp. 3-18. disponível em:
http://www.boundaryinstitute.org/articl ... ts_JSE.pdf , que diz:
“According to current quantum theory, there are "causeless" uninfluenceable events -- events that happen purely at random. These include radioactive decay, thermal noise fluctuations, and measurements of superposed quantum states. Quantum theory remains silent on just how
this happens, and how a particular outcome is chosen from those that are possible in a given superposition. In truth, an assumption of randomness has been included at the core of quantum theory out of necessity and because of its success in describing observed statistical behavior in the physical world.”
Tradução:
“De acordo com a teoria quântica corrente, existem eventos "acausais", não-influenciávies -- eventos que acontecem de modo totalmente aleatório. Isso incluiria decaimento radioativo, flutuações de ruído térmico, e medições de estados quânticos sobrepostos (colapso da função
de onda?). A teoria quântica não diz nada sobre precisamente como essas coisas acontecem, e sobre como um resultado particular é escolhido dentre aqueles que são possíveis em uma dada sobreposição. Na verdade, uma suposição de aleatoriedade foi incluída no âmago da teoria quântica devido a uma necessidade e por causa de seu sucesso em descrever comportamentos estatísticos observados no mundo físico.”
***Peço que você preste atenção que o autor colocou “acausais” entre aspas. Se isso estivesse de fato consumado na Mecânica Quântica, por que as aspas?
***Como disse o autor: “Na verdade, uma SUPOSIÇÃO de aleatoriedade foi incluída no âmago da teoria quântica devido a uma necessidade e por causa de seu sucesso em descrever comportamentos estatísticos observados no mundo físico.”
Se eu digo que "o Sol tem um peso menor que a Terra", essa afirmação será científica se houver uma forma de elaborarmos um experimento crucial, ou seja, alguma forma de mensurar o peso dos dois astros e chegar a uma decisão. Caso contrário (se o cientista não tem como dizer em que termos ele está disposto a abandonar a sua crença) a idéia não é falseável. Se as evidências que eu colhi depõem a favor da tese, ela será aceita como científica até que uma evidência contrária, baseada em uma experiência crucial, faça com que o cientista abandone sua idéia original.
[...]
Então vamos à mediunidade. Do ponto de vista Popperiano, estamos em apuros, porque embora tenhamos uma enorme coleção de eventos que depõem a favor da mediunidade, não há como se fazer um experimento crucial, porque não se trata de um fenômeno mecânico e regular.
Da forma como foi colocado, parece que a Teoria Darwinista não é falseável. A questão aqui não é se temos um grande domínio sobre as variáveis envolvidas em determinado fenômeno, a ponto de controlá-lo plenamente, mas se a teoria proposta para descrever tal fenômeno gera previsões falseáveis. Ora, a evolução das espécies não é um fenômeno que compreendemos de forma plena do ponto de vista quantitativo, mas se encontrássemos fósseis de hominídeos com mais de 300 milhões de anos de idade, por exemplo, teríamos falseado o Darwinismo, pois isso o contrariaria. Então, o Darwinismo é falseável, muito embora, como uma teoria biológica, não possua o mesmo grau de detalhamento quantitativo de uma teoria física.
***A Teoria Darwinista já foi falseada. O que se tem hoje é o Neo-Darwinismo. E que já foi, de certa forma, falseado. Como encaixar os fenômenos paranormais – que, estou bastante convencido, existem – no Neo-Darwinismo? Existem alguns modelos, mas entenda que isso exigirá uma boa re-análise.
Um médium que apresenta inúmeras evidências de apresentar conhecimentos não aprendidos é flagrado em erro ou em fraude, por exemplo. A fraude descoberta ou o erro não falsificam os acertos obtidos, apenas coloca em dúvida se os outros fenômenos foram realmente bem observados. É isso que os céticos utilizam para fazer desacreditar os fenômenos mediúnicos, mas uma fraude ou uma possível explicação alternativa aos fenômenos também não os falsifica, apenas colocam em dúvida o que se julgava certo e o problema fica em suspensão.
Então temos um outro problema [...]. O pensamento de Popper só considera como ciência, o conhecimento sobre objetos que possuem uma tal regularidade que podem ser descritos em termos de "leis". Em outras palavras, apenas as ciências naturais, em territórios nos quais há muitas regularidades é que se poderia falar em conhecimento científico. Então temos que jogar fora mais de 9/10 da Psicologia, da comunicação e de outras áreas do conhecimento que se detêm no estudo das singularidades, da intencionalidade, ou seja, do homem. Estas outras formas de conhecimento rigoroso desenvolveram outros métodos para analisarem seus objetos de estudo. [...]
O que o autor refere como "Ciências Naturais"?! Provavelmente deve estar englobando também a Biologia, mas a Biologia não trata de fenômenos tão regulares quanto os da Física, mas ainda sim trabalha com teorias falseáveis. Ou, de um ponto de vista reducionista, a Biologia ainda não gerou modelos teóricos quantitativos (que um dia poderão ser gerados, quando começarmos a desenvolver melhor campos de pesquisa de fronteira da atualidade, como a Mecânica Estatística do Não-Equilíbrio), mas qualitativos, mas mesmo estes modelos são falseáveis.
***A Teoria dos Memes de Richard Dawkins não é falseável.
Quanto à Psicologia, é algo que eu estou muito distante, não conheço as teorias na área, então fica difícil de julgar.
***Apenas como exemplo, segundo meu amigo Jader Sampaio, a idéia do Complexo de Édipo, segundo Popper, não seria considerada científica por não ser passível de falsificação. Em linguagem popperiana e empírica, este tipo de teoria seria considerada metafísica (portanto, não científica).
***Ainda segundo o meu amigo Jader, no texto "Uma Breve Descrição da Psicanálise" Freud afirma que:
"Para completar essa lista acrescentarei que entre as atitudes afetivas da infância a complicada relação emocional das crianças com os pais - o que é conhecido por complexo de Édipo - surgiu em proeminência. Ficou cada vez mais claro que ele era o núcleo de todo caso de neurose, e no comportamento do paciente para com seu analista surgiram certos fenômenos de sua transferência emocional que vieram a ser de grande importância para a teoria e a técnica, do mesmo modo."
“Veja que ao propor a relação emocional das crianças com os pais, Freud chegou a este princípio a partir da observação dos seus pacientes neuróticos e da análise de seu discurso, colhido sob a forma de associações livres, depois que ele abandonou a hipnose. Mas ele não se limitou a dizer que se encontram algumas associações entre a relação emocional com os pais na infância e os sintomas neuróticos, ele estabeleceu uma relação, uma lei.”
“Esta relação é falsificável? Popper entende que não. Como falsear este tipo de observação? Podemos pensar assim: analisando um conjunto de pessoas que apresenta sintomas neuróticos e que não tenham tido relações afetivas "edipianas" com os pais, ou que reagiram a ela introjetando a autoridade paterna, como defende o autor da Psicanálise. Freud e os psicanalistas não parecem nada dispostos a fazer este tipo de pesquisa, e, convenhamos, temos dois conceitos passíveis de especulação em cena: a introjeção da autoridade paterna e a origem dos sintomas neuróticos. Jung desconfiou deste tipo de afirmação tão taxativa, deu explicações alternativas para a origem da neurose e foi afastado do círculo de Freud porque este último não podia aceitar as hipóteses alternativas à teoria da sexualidade infantil. Este tipo de situação, em que não há possibilidade de se encontrar uma evidência contrária à hipótese, é que Popper definiu como falsificabilidade.”
“Quando Popper pensou na falsificação (invertendo a lógica da verificabilidade) ele pensou em leis e outras relações entre conceitos. Em minha opinião, é uma visão estreita de ciência. Na minha opinião, dizer que "existe um planeta depois de Urano, no sistema solar", é uma questão científica. A percepção partilhada deste planeta por diferentes observatórios (seja por que tipo de aparelho for) e o estudo da influência gravitacional deste planeta sobre os demais (que foi o que o o astrônomo Lê Verrier fez empregando matemática e os dados conhecidos sobre as órbitas dos planetas) são evidências científicas para aceitar a sua existência (embora não sejam provas cabais). Empregando o mesmo método, dizem os historiadores da ciência que Le Verrier errou em outros casos, apesar de ter acertado no caso de Netuno.”
“Como os fenômenos atribuídos aos espíritos dependem de uma vontade externa ao suposto médium, ele é passível de observação, mas de difícil falsificação. Para falsificá-los seria necessário responder à seguinte pergunta: o que é necessário ser feito para que eu tenha certeza que os espíritos não existem? Ou o que é necessário ser feito para eu tenha certeza
que a alma não sobrevive à morte? Este tipo de pergunta é de difícil operacionalização. O que é mais verificável é: o que sabe um suposto médium que ele não deveria saber? Que tipo de recordações tem uma criança que ela não deveria ter? Que movimentos de objetos contrariam as leis da Física e em que situações estes movimentos demonstram inteligência? Estes foram os estudos feitos pelos pesquisadores das ciências psíquicas no século XIX, e até Rhine, em minha opinião, eram metodologias aceitas, mas que foram sempre criticadas pelos céticos, que por um "dá cá aquela palha" sugeriam hipóteses alternativas ou acusavam da existência de fraudes (que chegaram a acontecer em alguns casos). Rhine fez um "corte epistemológico" nas ciências psíquicas, que foi supervalorizado por muitos segmentos da comunidade PSI.”
“Eu admito que a falsificação, como atitude científica (um cientista deve sempre estar aberto a mudar seus paradigmas e analisar o contradito), é muito saudável e indispensável, mas que a falsificação não é um critério de demarcação entre teorias científicas e não científicas. Sempre há algum julgamento e disputa de teorias, seja nas ciências "hard" (lembrando Lakatos) e mais ainda nas ciências "soft". A história das ciências é implacável em mostrar que idéias abandonadas em uma época pela comunidade científica, costumam ser retomadas no futuro e que o avanço das ciências não é linear, como supunham os positivistas.”
Popper foi um adversário da Parapsicologia enquanto vivo. Ele considerava a Parapsicologia como uma pseudociência (assim como a Psicanálise e o Marxismo) porque não conseguia atender a essa exigência sua. Há um debate que ele fez com Eccles,[...] no qual a questão da Parapsicologia ganha corpo.
Com base no critério de Popper, teríamos que fazer algo como: se a pessoa que considero como médium de desdobramento ou bilocação não conseguir ler um texto que coloquei em uma caixa fechada e lacrada e do qual ninguém conhece o conteúdo, então terei que abandonar a tese da realidade da mediunidade de bilocação. Mas todos nós sabemos que a mediunidade não é um fenômeno mecânico, que o médium não consegue ter percepções extra sensoriais apenas desejando-o e que isso não significa que o fenômeno não exista ou que seja pura metafísica, tenho que conceber a possibilidade da sua existência com ocorrências irregulares. Nesses termos, o pensamento de Popper não nos ajuda muito, não é mesmo?
Aqui, está, em suma, o que venho falando com o Arduin. Não se pode falsear a mediunidade, porque qualquer falha, será explicada por um determinado fator que, no final das contas, não permite concluir que mediunidade não existe. Mediunidade é um atributo infalseável e, portanto, não faz parte do escopo das teorias científicas. Esse é o ponto.
***Apenas para citar mais um caso da Física, a Teoria das Super-Cordas não é falseável, mas faz parte do mainstream científico.
Agora, não há motivos para desespero. Veja a pergunta que o cara faz:
"Nesses termos, o pensamento de Popper não nos ajuda muito, não é mesmo?"
O fato de algo não ser científico, não quer dizer que não possa ser real. Aqui temos um fato: não podemos, pelo menos da forma como as coisas estão postas até o momento, falsear a mediunidade. Contudo, isso não quer dizer que não se possa realizar estudos EXPERIMENTAIS a respeito desta. Não só podemos, como devemos. No caso da mediunidade existir, teremos um objeto de estudo. E, com o tempo, chega-se a um compreensão melhor deste objeto, quando então poderemos formular o conceito de mediunidade em cima de propriedades falseáveis. É o que eu chamei de processo de "retroalimentação" na mensagem que enviei ao Arduin. Você tem um objeto hipotético e nada ainda substancial do ponto de vista teórico para descrevê-lo. Em cima de estudos experimentais, você pode avançar no conhecimento deste objeto até o ponto de conseguir reformular a definição do conceito que corresponde a este objeto de uma forma tal que esta definição seja falseável e, a partir deste ponto, começa-se a trabalhar em cima de uma teoria que poderá ser chamada de científica.
***Veja a Tória das Super-Cordas, da Física, ou da Teoria dos Memes, da Biologia. São todas teorias não falseáveis, mas consideradas científicas.
[...]Não vejo como se provar que a mediunidade é impossível ou possível. Vejo apenas como colecionar evidências e contra-evidências da sua existência, é o que vem fazendo os pesquisadores da área. E nós pesquisadores, ao avaliarmos com algum afastamento o rol de evidências colhido e descrito, colocamos "nossas fichas" em uma ou outra hipótese, considerando-a mais ou menos provável. Por essa razão Popper afastou a mediunidade do rol dos fenômenos científicos, e com isso, uma inumerável lista de fenômenos e teorias pesquisadas pelos mais diversos campos do conhecimento humano, dentre eles o direito que é todo baseado em princípios aceitos mas não falseáveis.
Direito não é Ciência e, isso, é bem claro.
***De fato, denominar o direito exclusivamente como ciência é um erro, pois nele existem elementos filosóficos, culturais e meramente normativos (portanto arbitrários) que não possuem base científica. Nas Ciências Humanas isso é muito comum: a composição múltipla de uma disciplina ou área de conhecimento. Mas o direito possui aspectos científicos. Você pode perceber isso bastante nos processos criminais, em que são apresentadas provas, contra-provas, testes, tudo para decidir se o réu é acusado ou inocente. Muito se utiliza da Ciência Forense nesses casos, e da pesquisa de campo, que faz parte do método científico.
Quanto ao que o autor disse, deve-se colecionar essas evidências experimentais contra e a favor, e também começar a implementar experimentos para vasculhar a estrutura física dos mesmos. Considerando que os fenômenos existam, eu sei que isso será difícil, talvez tenhamos que jogar alguns médiuns dentro do LHC do CERN para ver se aparecem algumas partículas mediúnicas quando colidirmos uns com os outros...hehehe...
***Mas Rômulo, mesmo a psicologia e a psicanálise possuem componentes não científicos, resultantes de necessários elementos de ordem subjetiva, intuitiva, etc. Segundo Popper, são pseudo-ciências. Acho temeroso jogar fora tudo que essas áreas conseguiram. Há um movimento nos estados Unidos que quer a retirada da Psicologia e da Psicanálise das Universidades pelos "discípulos de Popper".
Agora, Han, extraio do livro "Fundamentação da Ciência Espírita" exemplos de leis científicas que não são falseáveis, mas que são científicas. Isso mostra que a idéia de Popper tem seus limites, e que não pode ser usada como demarcadora entre o que é Ciência e o que não é. Na verdade, tal demarcador não existe.
Bom, se não existisse, teríamos um sério problema para os filósofos da Ciência. Mas este demarcador existe...se não, vejamos:
***Seria interessante se você lesse um texto bastante bom de Roberto de Andrade Martins sobre esta questão antes de continuar. Transcreve-o aqui:
Critérios de demarcação entre ciência e não-ciência
“Esse é o problema básico da demarcação entre ciência e não-ciência. No nosso século, houve algumas tentativas de solução desse problema. Infelizmente, do modo como esse problema é usualmente entendido, ele não tem solução.”
“Qualquer que seja o critério de demarcação entre ciência e não-ciência que se proponha, ele deverá ser ou restritivo (apenas algumas coisas são admitidas como ciência, e outras são excluídas) ou nao-discriminativo ("vale tudo", isto é, tudo é ciência). No primeiro caso - isto é, se for imposta alguma restrição àquilo que é científico - o critério prejudicará o desenvolvimento da ciência, proibindo coisas que podem eventualmente se mostrar úteis; além disso, esse critério irá excluir do campo científico alguma coisa que foi apresentada como científica (por exemplo: o critério de demarcação de Popper exclui da ciência a psicanálise). O grupo cujo trabalho for excluído da ciência pelo critério de demarcação não irá aceitá-lo, Na verdade, esse critério servirá apenas como um instrumento de humilhação para um grupo de pessoas, por afirmar que o que elas fazem não tem valor científico.”
“Por outro lado, qualquer que seja o critério proposto, ele terá grande dificuldade em ser fundamentado. Como se pode mostrar que um critério é correto? Pode-se tentar recorrer à história (a "fatos") ou recorrer apenas ao raciocínio (a prior/). Mas é impossível justificar normas e valores a partir da história: mesmo se todos os cientistas fossem unânimes em aceitar certas coisas como científicas e outras como não-científicas, isso não quer dizer que essa opinião é correta. Ou seja; dizer que um critério é correto porque Newton ou Einstein ou qualquer grupo dizia que ele era correto, não é um argumento (falácia histórica)!5). Sob o ponto de vista filosófico, unanimidade ou aceitação popular não tem nenhuma importância, Por outro lado, se tentarmos justificar um critério de demarcação de outra forma, cairemos no trilerna de Aristóteles. Por isso mesmo, nunca se chegou - e creio que não se poderá chegar — a um critério de demarcação aceitável a todos os filósofos.”
“Negar a possibilidade de uma demarcação entre ciência e não-ciência pode levar a um relatívismo (ou anarquismo) epistemológico, tal como proposto por Feyerabend. De fato: ele defende que não é possível nem útil distinguir um método próprio da ciência: tudo é permitido e não se pode fazer nenhuma diferença entre a astronomia e a astrologia, entre a medicina e o curandeirismo.”
“No entanto, é possível atacar os conceitos de demarcação sem cair nesse extremo relativista.”
Uma concepção não-proibitiva de ciência
“Para quê serve qualquer análise sobre o que é ou não é ciência? Se o objetivo dessas análises for distinguir os "bons" dos "maus" e dizer que a ciência é algo totalmente distinto de outras formas de conhecimento, então é necessário um critério de demarcação - mas, com vimos, isso não poderá ser atingido. Por outro lado, pode-se desenvolver um outro tipo de concepção epistemológica, que tenha uma outra finalidade: orientar e avaliar as pesquisas, mas sem partir do pressuposto de que a ciência é algo totalmente distinto de outros campos de estudo. E, como tentaremos mostrar rapidamente, é possível dispor de uma concepção de ciência que não estabeleça um critério de demarcação mas que permita orientar e avaliar a pesquisa.”
“As bases desse tipo de concepção de ciência são as seguintes”:
“1 -Admite-se como ciência tudo o que se queira chamar de ciência, mas
2 — É possível estabelecer comparações de valor cientifico e avaliar e orientar a pesquisa.
Para explicar esse tipo de concepção, vamos inicialmente fazer uma comparação. Tomemos o conceito popular de "alto". O que é-uma pessoa alta? Eu posso ser considerado alto, ou sou baixo? De um modo geral, nossa sociedade valoriza as pessoas altas e desvaloriza as baixas. Ser chamado de baixinho é humilhante (mas ser chamado de altão não o é). Se distinguirmos de modo absoluto os baixos dos altos, estaremos separando as pessoas "fisicamente corretas" das "fisicamente incorretas", ou seja, estabelecendo uma espécie de critério de demarcação entre as pessoas que possuem uma boa altura e as que possuem uma altura "errada".”
“Mas qual é o ponto de separação entre os altos e baixos? Pode-se dizer que um adulto com um metro e meio de altura é baixo e que um adulto com dois metros é alto. Mas e um adulto com um metro e setenta e cinco? e um adulto com um metro e sessenta e cinco? e um adulto com um metro e setenta? Onde está o limite?”
“Na verdade, qualquer distinção absoluta entre altos e baixos é convencional: pode-se escolher um ponto qualquer da escala de alturas e decidir-se que aquele que está abaixo daquele limite é baixo e quem está acima é alto. Mas essa decisão é arbitrária e não tem muito significado.”
“Pelo contrário, pode-se estabelecer uma distinção objetiva e significativa dizendo que uma pessoa é mais alta (ou mais baixa) do que uma outra. Para isso, não é preciso saber qual a distinção entre altos e baixos: é necessário apenas colocar uma pessoa ao lado da outra e compará-las (ou saber suas alturas e compará-las). Ao invés de um conceito absoluto, temos agora um conceito relativo, comparativo.”
“Pode-se fazer algo semelhante na análise do conceito de ciência. Ao invés de uma distinção absoluta entre científico e não-cientifico, é mais conveniente introduzir uma comparação de valores científicos, sem estabelecer uma diferença absoluta qualitativa, mas apenas quantitativa e comparativa,”
“Dessa forma, pode-se introduzir a idéia de que certo tipo de trabalho.tem maior valor científico do que um outro, sem que isso signifique que o outro não tem valor ou não é científico. Não é necessário, nesse caso, um critério de demarcação. Não é mais necessário negar o direito de chamar alguma coisa de ciência, De acordo com essa concepção não-proíbítiva, a ciência passa a ser vista como um processo pelo qual se procura obter elementos com maior valor científico. Fica sem sentido discutir se uma teoria é científica ou não: pode-se dar o nome de 'científico1 a qualquer coisa que se queira, pois o objetivo da epistemología deixa de ser o de rotular e classificar as coisas de forma absoluta. Assim, se alguém quiser dizer que a astrologia é uma ciência, não é necessário discutir essa concepção, Que seja, admitimos que se chame a astrologia ou qualquer outra coisa de ciência. Mas a questão central não é essa, e sim saber se a astrologia obedece a todos os critérios de valor científico, que são obedecidos, por exemplo, pela astronomia; e saber o que precisaria ser feito para aumentar o valor científico da astrologia. Por exemplo: se a astrologia dispusesse de estudos estatísticos mostrando que as pessoas nascidas sob tal signo {ou ascendente, ou ambos) possuem em geral tais e tais características. isso aumentaria muito o valor científico da astrologia. Também se fossem feitos testes controlados, em grande escala, de previsões astrológicas para muitas pessoas, sobre fatos objetivos, que fossem depois controlados, isso aumentaria muito o valor científico da astrologia. E quando ela se tornaria realmente uma ciência? A pergunta não tem sentido, nesse tipo de enfoque.”
“Nessa abordagem não-proibitiva, ao invés de discutir se uma coisa é ou não ciência, a contribuição relevante da Filosofia é a de indicar o que fazer para aumentar o valor cientifico de cada estudo. E é possível fazer isso, pois há resultados que foram obtidos ao longo do desenvolvimento da história que mostram que existem critérios que podem ser aceitos por todos como representando um aumento de valor científico.”
“Não é possível, no âmbito de um pequeno artigo, esclarecer detalhadamente isso. Mas podemos dar uma idéia gerai, Como regras amplas, pode-se dizer que um elemento da ciência possui maior valor científico do que outro quando ele tem:
- maior poder;
- maior harmonia com outros elementos.
“Vamos dar um exemplo. Desde a Antigüidade, os pitagóricos já defendiam a idéia de um conhecimento matemático do mundo. No entanto, demorou muito até que fossem sendo descobertas leis quantitativas na Física, na Química e outras áreas. Sempre que foram obtidas leis matemáticas, quantitativas, isso aumentou o poder daqueles ramos de estudo, pois tornou-se possível fazer previsões claras e testá-las de forma precisa.”
“Isso não quer dizer que todos os ramos de estudo precisem ter leis quantitativas. Isso não é um critério para incluir ou excluir da ciência algum estudo. Mas, se em algum estudo, for possívei obter tal tipo de leis, isso aumentará o poder e o valor científico desse estudo.
Há muitos outros exemplos de modos de aumentar o valor científico de um estudo: quando é possível introduzir instrumentos de medida, ou realizar experimentos controlados, por exemplo, isso aumentar o seu valor. Nem sempre isso é possível (por exemplo: não podemos medir a temperatura do interior de uma estrela), mas sempre que for possível, isso será um aumento de poder e de valor científico.”
“Outro exemplo. Na ciência, dá-se mais valor a uma hipótese, teoria ou idéia quanto ela é relacionada e integrada a outras partes da ciência. Quanto mais harmonioso o corpo de conhecimentos, maior valor cientifico ele tem. No caso da Homeopatia, um dos motivos pelos quais muitas pessoas a rejeitam é que não se consegue conciliar a idéia dos remédios em doses infinitesimais com os conhecimentos físicos e químicos. Mesmo se forem acumulados teste estatísticos e for verificada a eficácia dos tratamentos homeopáticos, isso não vai satisfazer a muitas pessoas. Falta integrar harmoniosamente a Homeopatia a outros domínios científicos. Embora, na abordagem não-proibitiva, isso não seja um motivo para rejeitará Homeopatia, é clara que se deve afirmar que, se for possível harmonizar a Homeopatia aos conhecimentos físicos e químicos, isso aumentará o seu valor científico.”
“Podemos agora esboçar uma resposta à pergunta inicial deste trabalho. Afinal de contas, o que a Filosofia pode nos dizer sobre o que é a ciência? Ela pode nos dizer que certas concepções são absurdas, pois propõem coisas inatingíveis ao conhecimento humano. Ela pode também nos dizer que há diferentes modos de atacar a questão e que existe pelo menos uma abordagem que elimina muitos dos problemas das outras. Nessa abordagem, a ciência não c um resultado final, mas é um processo contínuo, pelo qual se aumenta o valor científico dos conhecimentos através de um aumento de poder e de uma maior harmonia dos elementos do conhecimento, É claro que os detalhes não podem ser descritos aqui, mas isso já dá as indicações gerais sobre a natureza da resposta.”
O que se pode chamar de testabilidade é uma característica bastante explorada pelos estudiosos da filosofia da ciência, que buscam assim distinguir as teorias científicas das não-científicas. Neste último rol estão incluídas não somente as proposições errôneas ou pseudo-científicas, mas também as teorias filosóficas, metafísicas, teológicas etc., que pertencem a outros ramos de conhecimento.
Em síntese, este quesito estabelece que uma teoria, se científica, deve ser passível de verificação.
Aqui deve-se tomar um cuidado muito grande com os termos. Uma teoria científica não deve ser passível de verificação (no sentido de validação da mesma), mas passível de falseamento. Do ponto de vista formal, não provamos a veracidade de uma teoria científica, ou seja, não a verificamos. Podemos, contudo, falseá-la.
Não se exige que tenha sido verificada, pois pode estar relacionada a fenômenos cujas manifestações subseqüentes virão a ocorrer apenas num futuro próximo, como é o caso de qualquer objeto de análise do tipo ‘observável’. Exemplos dessa natureza são comuns na astronomia, como é o caso das pesquisas sobre os cometas. Também foi o caso da teoria einsteiniana da curvatura do espaço devido à presença de grandes massas, verificada muitos anos depois de seu enunciado, graças à ocorrência de um eclipse, no qual o Brasil serviu como posto de observação privilegiado do fenômeno.
Naturalmente, o intervalo que medeia o estabelecimento da teoria e sua verificação deve ter algum limite de referência. Para ilustrar, considere a formulação de uma teoria que descreve o modo de vida dos seres num planeta recém-descoberto em outro sistema galáctico. É uma teoria que não pode ser considerada científica, pois somente será verificável num prazo indeterminado.
Este critério tem indiscutível utilidade, pois descarta uma série de teorias eminentemente metafísicas, que aparecem em disciplinas em formação e, especialmente, no campo do psiquismo e outros estudos transcendentais, como a astrologia. Por exemplo, nesta disciplina há a teoria de que tudo se relaciona no universo, como no caso da queda de uma flor excitando uma estrela distante; tal teoria pode não estar errada, mas não é científica, pois não é testável.
Novamente: não existe verificação de teorias científicas, pois essas não se baseiam em deduções lógicas. Vou expor isso em detalhes mais a frente...
Com a abertura que a física moderna e a matemática impuseram, enfatizando a existência de sistemas não-lineares, princípios não-causais e a própria retratividade do tempo, muitos pensadores se arvoraram em propor teorias bem audaciosas. Conforme foi enfatizado no item anterior, uma vez que estas formulações se opõem à lógica, é preciso cautela. A ausência de testabilidade é um indicativo que tais teorias não são satisfatoriamente científicas.
Aqui ele tem que dizer a respeito do que ele está falando, que teorias ele afirma contrariarem a lógica, que teorias ele afirma não serem testáveis, etc...
***Creio que podemos citar as super-cordas, ou a existência dos táquions.
É preciso ressaltar que a testabilidade não garante que a teoria seja científica, pois é preciso haver outras características, outros indicativos de consistência.
Para ser científica, a teoria tem que ser necessariamente falseável. O método científico não se baseia apenas no falseamento, mas este é parte integrante do método.
***Discordo pelos motivos expostos acima. O texto já está imenso. Vou encerrar por aqui, ok? Depois colocarei o restante das respostas. Se quiser, já pode ir comentando esta 1ª parte.
Um abraço,
desculpe a demora em responder, mas só descobri que você já havia colocado o tópico dia 30. Não consegui seguir o esquema de cores. Fiz algum corte nas mensagens que penso não irão prejudicar o entendimento. Seguem minhas novas respostas após ***:
"Falseabilidade é um princípio da epistemologia crítica de Karl Popper (Lógica da Pesquisa Científica), que erigiu este princípio após ter demonstrado a falácia do princípio da verificabilidade. É também um princípio de demarcação entre afirmações consideradas científicas e afirmações consideradas metafísicas.
Se você se baseia nele, não existe conhecimento científico verdadeiro. As proposições científicas são aceitas até que alguém as falsifique. Se uma afirmação não for falsificável, ela não é considerada científica. A afirmação "todo efeito tem uma causa" aos olhos desse autor, não é científica, é metafísica. Não há como fazer um experimento que a falsifique, porque ela pertence ao mundo das idéias.
Correto, exceto pela última colocação. O autor diz que a afirmação "todo efeito tem uma causa" é infalseável. Bom, em primeiro lugar, temos que ter de forma clara o conceito de "efeito" que está sendo utilizado. Tanto quanto sei, efeito possui causa, por definição. Isto é, se algo possui uma causa, diz-se que ele é um efeito desta causa. Neste caso, temos que a afirmação é verdadeira, o que decorre da própria definição dos termos causa e efeito. Talvez a intenção do autor tenha sido dizer "evento" ao invés de "efeito". Bom, aí a afirmação seria: "todo evento possui uma causa".
*** Bastante correto o que você disse, a meu ver. Essa frase, da forma como meu amigo Jáder colocou, consta no Livro dos Espíritos, daí sua utilização. Sigamos tratando ‘efeito’por ‘evento’.
E esta afirmação é falseável, pois basta achar um evento sem causa para falseá-la. E isso ocorre na Mecânica Quântica. Muito embora a função de onda seja algo determinístico, no sentido de ser obtida a partir de uma equação diferencial (Equação de Schrödinger) ou a partir de métodos algébricos (Formalismo de Dirac), o colapso dela num ponto definido, devido à uma mensuração, por exemplo, não o é. Eu disse que a função de onda é determinística, porque a solução da Eq. de Schrödinger para um dado potencial, por exemplo, é algo bem definido. No caso do oscilador harmônico linear, para citar um exemplo específico, a função de onda é escrita em termos dos Polinômios de Hermite. Não são os Polinômios de Laguerre ou as Funções Associadas de Legendre ou qualquer outra coisa...são os Polinômios de Hermite, especificamente eles. Então, a função de onda é determinística. Contudo, como sua interpretação é probabilística, o que se tem é a probabilidade de se encontrar a partícula em cada região do espaço, mas não se sabe especificamente onde ela está. A partir da função de onda, constrói-se a densidade de probabilidade e, com isso, estima-se os valores esperados dos observáveis (momentum, momento angular, spin, posição, energia, etc...). Ou seja, você tem valores mais prováveis que outros, mas não pode dizer com certeza quais os valores que serão mensurados, pois o colapso é aleatório, muito embora siga uma distribuição de probabilidades. Os deterministas ainda tentaram salvar este paradigma postulando a existência de variáveis ocultas, o problema é que no Experimento EPR demonstra-se empiricamente a violação da Desigualdade de Bell, o que nos leva a concluir ou que não existem variáveis ocultas (interpretação aceita pela maior parte dos Físicos), ou que a lógica não é válida para tratar dos fenômenos quânticos. Pois bem, Bohm ainda tentou seguir com o paradigma determinista, com sua Mecânica Bohmiana, mas já ouvi várias objeções à ela. A principal é o fato de não haver uma versão relativística para ela, como há para a Equação de Schrödinger, no caso, a Equação de Klein-Gordon e a Equação de Dirac. Sinceramente, não sei a quantas anda a Mecânica Bohmiana...mas não são muitos os que trabalham em cima dela...mas o ponto é que a afirmação "todo evento possui uma causa" é sim falseável e, para além disso, não só é falseável como foi, de fato, falseada pela Mecânica Quântica.
*** Não penso que seja bem assim. Há um trecho interessante do artigo de Richard Shoup Anomalies and Constraints - Can clairvoyance, precognition and psychokinesis be accommodated within known physics? Journal of Scientific Exploration, Vol. 16, No. 1, Spring 2002, pp. 3-18. disponível em:
http://www.boundaryinstitute.org/articl ... ts_JSE.pdf , que diz:
“According to current quantum theory, there are "causeless" uninfluenceable events -- events that happen purely at random. These include radioactive decay, thermal noise fluctuations, and measurements of superposed quantum states. Quantum theory remains silent on just how
this happens, and how a particular outcome is chosen from those that are possible in a given superposition. In truth, an assumption of randomness has been included at the core of quantum theory out of necessity and because of its success in describing observed statistical behavior in the physical world.”
Tradução:
“De acordo com a teoria quântica corrente, existem eventos "acausais", não-influenciávies -- eventos que acontecem de modo totalmente aleatório. Isso incluiria decaimento radioativo, flutuações de ruído térmico, e medições de estados quânticos sobrepostos (colapso da função
de onda?). A teoria quântica não diz nada sobre precisamente como essas coisas acontecem, e sobre como um resultado particular é escolhido dentre aqueles que são possíveis em uma dada sobreposição. Na verdade, uma suposição de aleatoriedade foi incluída no âmago da teoria quântica devido a uma necessidade e por causa de seu sucesso em descrever comportamentos estatísticos observados no mundo físico.”
***Peço que você preste atenção que o autor colocou “acausais” entre aspas. Se isso estivesse de fato consumado na Mecânica Quântica, por que as aspas?
***Como disse o autor: “Na verdade, uma SUPOSIÇÃO de aleatoriedade foi incluída no âmago da teoria quântica devido a uma necessidade e por causa de seu sucesso em descrever comportamentos estatísticos observados no mundo físico.”
Se eu digo que "o Sol tem um peso menor que a Terra", essa afirmação será científica se houver uma forma de elaborarmos um experimento crucial, ou seja, alguma forma de mensurar o peso dos dois astros e chegar a uma decisão. Caso contrário (se o cientista não tem como dizer em que termos ele está disposto a abandonar a sua crença) a idéia não é falseável. Se as evidências que eu colhi depõem a favor da tese, ela será aceita como científica até que uma evidência contrária, baseada em uma experiência crucial, faça com que o cientista abandone sua idéia original.
[...]
Então vamos à mediunidade. Do ponto de vista Popperiano, estamos em apuros, porque embora tenhamos uma enorme coleção de eventos que depõem a favor da mediunidade, não há como se fazer um experimento crucial, porque não se trata de um fenômeno mecânico e regular.
Da forma como foi colocado, parece que a Teoria Darwinista não é falseável. A questão aqui não é se temos um grande domínio sobre as variáveis envolvidas em determinado fenômeno, a ponto de controlá-lo plenamente, mas se a teoria proposta para descrever tal fenômeno gera previsões falseáveis. Ora, a evolução das espécies não é um fenômeno que compreendemos de forma plena do ponto de vista quantitativo, mas se encontrássemos fósseis de hominídeos com mais de 300 milhões de anos de idade, por exemplo, teríamos falseado o Darwinismo, pois isso o contrariaria. Então, o Darwinismo é falseável, muito embora, como uma teoria biológica, não possua o mesmo grau de detalhamento quantitativo de uma teoria física.
***A Teoria Darwinista já foi falseada. O que se tem hoje é o Neo-Darwinismo. E que já foi, de certa forma, falseado. Como encaixar os fenômenos paranormais – que, estou bastante convencido, existem – no Neo-Darwinismo? Existem alguns modelos, mas entenda que isso exigirá uma boa re-análise.
Um médium que apresenta inúmeras evidências de apresentar conhecimentos não aprendidos é flagrado em erro ou em fraude, por exemplo. A fraude descoberta ou o erro não falsificam os acertos obtidos, apenas coloca em dúvida se os outros fenômenos foram realmente bem observados. É isso que os céticos utilizam para fazer desacreditar os fenômenos mediúnicos, mas uma fraude ou uma possível explicação alternativa aos fenômenos também não os falsifica, apenas colocam em dúvida o que se julgava certo e o problema fica em suspensão.
Então temos um outro problema [...]. O pensamento de Popper só considera como ciência, o conhecimento sobre objetos que possuem uma tal regularidade que podem ser descritos em termos de "leis". Em outras palavras, apenas as ciências naturais, em territórios nos quais há muitas regularidades é que se poderia falar em conhecimento científico. Então temos que jogar fora mais de 9/10 da Psicologia, da comunicação e de outras áreas do conhecimento que se detêm no estudo das singularidades, da intencionalidade, ou seja, do homem. Estas outras formas de conhecimento rigoroso desenvolveram outros métodos para analisarem seus objetos de estudo. [...]
O que o autor refere como "Ciências Naturais"?! Provavelmente deve estar englobando também a Biologia, mas a Biologia não trata de fenômenos tão regulares quanto os da Física, mas ainda sim trabalha com teorias falseáveis. Ou, de um ponto de vista reducionista, a Biologia ainda não gerou modelos teóricos quantitativos (que um dia poderão ser gerados, quando começarmos a desenvolver melhor campos de pesquisa de fronteira da atualidade, como a Mecânica Estatística do Não-Equilíbrio), mas qualitativos, mas mesmo estes modelos são falseáveis.
***A Teoria dos Memes de Richard Dawkins não é falseável.
Quanto à Psicologia, é algo que eu estou muito distante, não conheço as teorias na área, então fica difícil de julgar.
***Apenas como exemplo, segundo meu amigo Jader Sampaio, a idéia do Complexo de Édipo, segundo Popper, não seria considerada científica por não ser passível de falsificação. Em linguagem popperiana e empírica, este tipo de teoria seria considerada metafísica (portanto, não científica).
***Ainda segundo o meu amigo Jader, no texto "Uma Breve Descrição da Psicanálise" Freud afirma que:
"Para completar essa lista acrescentarei que entre as atitudes afetivas da infância a complicada relação emocional das crianças com os pais - o que é conhecido por complexo de Édipo - surgiu em proeminência. Ficou cada vez mais claro que ele era o núcleo de todo caso de neurose, e no comportamento do paciente para com seu analista surgiram certos fenômenos de sua transferência emocional que vieram a ser de grande importância para a teoria e a técnica, do mesmo modo."
“Veja que ao propor a relação emocional das crianças com os pais, Freud chegou a este princípio a partir da observação dos seus pacientes neuróticos e da análise de seu discurso, colhido sob a forma de associações livres, depois que ele abandonou a hipnose. Mas ele não se limitou a dizer que se encontram algumas associações entre a relação emocional com os pais na infância e os sintomas neuróticos, ele estabeleceu uma relação, uma lei.”
“Esta relação é falsificável? Popper entende que não. Como falsear este tipo de observação? Podemos pensar assim: analisando um conjunto de pessoas que apresenta sintomas neuróticos e que não tenham tido relações afetivas "edipianas" com os pais, ou que reagiram a ela introjetando a autoridade paterna, como defende o autor da Psicanálise. Freud e os psicanalistas não parecem nada dispostos a fazer este tipo de pesquisa, e, convenhamos, temos dois conceitos passíveis de especulação em cena: a introjeção da autoridade paterna e a origem dos sintomas neuróticos. Jung desconfiou deste tipo de afirmação tão taxativa, deu explicações alternativas para a origem da neurose e foi afastado do círculo de Freud porque este último não podia aceitar as hipóteses alternativas à teoria da sexualidade infantil. Este tipo de situação, em que não há possibilidade de se encontrar uma evidência contrária à hipótese, é que Popper definiu como falsificabilidade.”
“Quando Popper pensou na falsificação (invertendo a lógica da verificabilidade) ele pensou em leis e outras relações entre conceitos. Em minha opinião, é uma visão estreita de ciência. Na minha opinião, dizer que "existe um planeta depois de Urano, no sistema solar", é uma questão científica. A percepção partilhada deste planeta por diferentes observatórios (seja por que tipo de aparelho for) e o estudo da influência gravitacional deste planeta sobre os demais (que foi o que o o astrônomo Lê Verrier fez empregando matemática e os dados conhecidos sobre as órbitas dos planetas) são evidências científicas para aceitar a sua existência (embora não sejam provas cabais). Empregando o mesmo método, dizem os historiadores da ciência que Le Verrier errou em outros casos, apesar de ter acertado no caso de Netuno.”
“Como os fenômenos atribuídos aos espíritos dependem de uma vontade externa ao suposto médium, ele é passível de observação, mas de difícil falsificação. Para falsificá-los seria necessário responder à seguinte pergunta: o que é necessário ser feito para que eu tenha certeza que os espíritos não existem? Ou o que é necessário ser feito para eu tenha certeza
que a alma não sobrevive à morte? Este tipo de pergunta é de difícil operacionalização. O que é mais verificável é: o que sabe um suposto médium que ele não deveria saber? Que tipo de recordações tem uma criança que ela não deveria ter? Que movimentos de objetos contrariam as leis da Física e em que situações estes movimentos demonstram inteligência? Estes foram os estudos feitos pelos pesquisadores das ciências psíquicas no século XIX, e até Rhine, em minha opinião, eram metodologias aceitas, mas que foram sempre criticadas pelos céticos, que por um "dá cá aquela palha" sugeriam hipóteses alternativas ou acusavam da existência de fraudes (que chegaram a acontecer em alguns casos). Rhine fez um "corte epistemológico" nas ciências psíquicas, que foi supervalorizado por muitos segmentos da comunidade PSI.”
“Eu admito que a falsificação, como atitude científica (um cientista deve sempre estar aberto a mudar seus paradigmas e analisar o contradito), é muito saudável e indispensável, mas que a falsificação não é um critério de demarcação entre teorias científicas e não científicas. Sempre há algum julgamento e disputa de teorias, seja nas ciências "hard" (lembrando Lakatos) e mais ainda nas ciências "soft". A história das ciências é implacável em mostrar que idéias abandonadas em uma época pela comunidade científica, costumam ser retomadas no futuro e que o avanço das ciências não é linear, como supunham os positivistas.”
Popper foi um adversário da Parapsicologia enquanto vivo. Ele considerava a Parapsicologia como uma pseudociência (assim como a Psicanálise e o Marxismo) porque não conseguia atender a essa exigência sua. Há um debate que ele fez com Eccles,[...] no qual a questão da Parapsicologia ganha corpo.
Com base no critério de Popper, teríamos que fazer algo como: se a pessoa que considero como médium de desdobramento ou bilocação não conseguir ler um texto que coloquei em uma caixa fechada e lacrada e do qual ninguém conhece o conteúdo, então terei que abandonar a tese da realidade da mediunidade de bilocação. Mas todos nós sabemos que a mediunidade não é um fenômeno mecânico, que o médium não consegue ter percepções extra sensoriais apenas desejando-o e que isso não significa que o fenômeno não exista ou que seja pura metafísica, tenho que conceber a possibilidade da sua existência com ocorrências irregulares. Nesses termos, o pensamento de Popper não nos ajuda muito, não é mesmo?
Aqui, está, em suma, o que venho falando com o Arduin. Não se pode falsear a mediunidade, porque qualquer falha, será explicada por um determinado fator que, no final das contas, não permite concluir que mediunidade não existe. Mediunidade é um atributo infalseável e, portanto, não faz parte do escopo das teorias científicas. Esse é o ponto.
***Apenas para citar mais um caso da Física, a Teoria das Super-Cordas não é falseável, mas faz parte do mainstream científico.
Agora, não há motivos para desespero. Veja a pergunta que o cara faz:
"Nesses termos, o pensamento de Popper não nos ajuda muito, não é mesmo?"
O fato de algo não ser científico, não quer dizer que não possa ser real. Aqui temos um fato: não podemos, pelo menos da forma como as coisas estão postas até o momento, falsear a mediunidade. Contudo, isso não quer dizer que não se possa realizar estudos EXPERIMENTAIS a respeito desta. Não só podemos, como devemos. No caso da mediunidade existir, teremos um objeto de estudo. E, com o tempo, chega-se a um compreensão melhor deste objeto, quando então poderemos formular o conceito de mediunidade em cima de propriedades falseáveis. É o que eu chamei de processo de "retroalimentação" na mensagem que enviei ao Arduin. Você tem um objeto hipotético e nada ainda substancial do ponto de vista teórico para descrevê-lo. Em cima de estudos experimentais, você pode avançar no conhecimento deste objeto até o ponto de conseguir reformular a definição do conceito que corresponde a este objeto de uma forma tal que esta definição seja falseável e, a partir deste ponto, começa-se a trabalhar em cima de uma teoria que poderá ser chamada de científica.
***Veja a Tória das Super-Cordas, da Física, ou da Teoria dos Memes, da Biologia. São todas teorias não falseáveis, mas consideradas científicas.
[...]Não vejo como se provar que a mediunidade é impossível ou possível. Vejo apenas como colecionar evidências e contra-evidências da sua existência, é o que vem fazendo os pesquisadores da área. E nós pesquisadores, ao avaliarmos com algum afastamento o rol de evidências colhido e descrito, colocamos "nossas fichas" em uma ou outra hipótese, considerando-a mais ou menos provável. Por essa razão Popper afastou a mediunidade do rol dos fenômenos científicos, e com isso, uma inumerável lista de fenômenos e teorias pesquisadas pelos mais diversos campos do conhecimento humano, dentre eles o direito que é todo baseado em princípios aceitos mas não falseáveis.
Direito não é Ciência e, isso, é bem claro.
***De fato, denominar o direito exclusivamente como ciência é um erro, pois nele existem elementos filosóficos, culturais e meramente normativos (portanto arbitrários) que não possuem base científica. Nas Ciências Humanas isso é muito comum: a composição múltipla de uma disciplina ou área de conhecimento. Mas o direito possui aspectos científicos. Você pode perceber isso bastante nos processos criminais, em que são apresentadas provas, contra-provas, testes, tudo para decidir se o réu é acusado ou inocente. Muito se utiliza da Ciência Forense nesses casos, e da pesquisa de campo, que faz parte do método científico.
Quanto ao que o autor disse, deve-se colecionar essas evidências experimentais contra e a favor, e também começar a implementar experimentos para vasculhar a estrutura física dos mesmos. Considerando que os fenômenos existam, eu sei que isso será difícil, talvez tenhamos que jogar alguns médiuns dentro do LHC do CERN para ver se aparecem algumas partículas mediúnicas quando colidirmos uns com os outros...hehehe...
***Mas Rômulo, mesmo a psicologia e a psicanálise possuem componentes não científicos, resultantes de necessários elementos de ordem subjetiva, intuitiva, etc. Segundo Popper, são pseudo-ciências. Acho temeroso jogar fora tudo que essas áreas conseguiram. Há um movimento nos estados Unidos que quer a retirada da Psicologia e da Psicanálise das Universidades pelos "discípulos de Popper".
Agora, Han, extraio do livro "Fundamentação da Ciência Espírita" exemplos de leis científicas que não são falseáveis, mas que são científicas. Isso mostra que a idéia de Popper tem seus limites, e que não pode ser usada como demarcadora entre o que é Ciência e o que não é. Na verdade, tal demarcador não existe.
Bom, se não existisse, teríamos um sério problema para os filósofos da Ciência. Mas este demarcador existe...se não, vejamos:
***Seria interessante se você lesse um texto bastante bom de Roberto de Andrade Martins sobre esta questão antes de continuar. Transcreve-o aqui:
Critérios de demarcação entre ciência e não-ciência
“Esse é o problema básico da demarcação entre ciência e não-ciência. No nosso século, houve algumas tentativas de solução desse problema. Infelizmente, do modo como esse problema é usualmente entendido, ele não tem solução.”
“Qualquer que seja o critério de demarcação entre ciência e não-ciência que se proponha, ele deverá ser ou restritivo (apenas algumas coisas são admitidas como ciência, e outras são excluídas) ou nao-discriminativo ("vale tudo", isto é, tudo é ciência). No primeiro caso - isto é, se for imposta alguma restrição àquilo que é científico - o critério prejudicará o desenvolvimento da ciência, proibindo coisas que podem eventualmente se mostrar úteis; além disso, esse critério irá excluir do campo científico alguma coisa que foi apresentada como científica (por exemplo: o critério de demarcação de Popper exclui da ciência a psicanálise). O grupo cujo trabalho for excluído da ciência pelo critério de demarcação não irá aceitá-lo, Na verdade, esse critério servirá apenas como um instrumento de humilhação para um grupo de pessoas, por afirmar que o que elas fazem não tem valor científico.”
“Por outro lado, qualquer que seja o critério proposto, ele terá grande dificuldade em ser fundamentado. Como se pode mostrar que um critério é correto? Pode-se tentar recorrer à história (a "fatos") ou recorrer apenas ao raciocínio (a prior/). Mas é impossível justificar normas e valores a partir da história: mesmo se todos os cientistas fossem unânimes em aceitar certas coisas como científicas e outras como não-científicas, isso não quer dizer que essa opinião é correta. Ou seja; dizer que um critério é correto porque Newton ou Einstein ou qualquer grupo dizia que ele era correto, não é um argumento (falácia histórica)!5). Sob o ponto de vista filosófico, unanimidade ou aceitação popular não tem nenhuma importância, Por outro lado, se tentarmos justificar um critério de demarcação de outra forma, cairemos no trilerna de Aristóteles. Por isso mesmo, nunca se chegou - e creio que não se poderá chegar — a um critério de demarcação aceitável a todos os filósofos.”
“Negar a possibilidade de uma demarcação entre ciência e não-ciência pode levar a um relatívismo (ou anarquismo) epistemológico, tal como proposto por Feyerabend. De fato: ele defende que não é possível nem útil distinguir um método próprio da ciência: tudo é permitido e não se pode fazer nenhuma diferença entre a astronomia e a astrologia, entre a medicina e o curandeirismo.”
“No entanto, é possível atacar os conceitos de demarcação sem cair nesse extremo relativista.”
Uma concepção não-proibitiva de ciência
“Para quê serve qualquer análise sobre o que é ou não é ciência? Se o objetivo dessas análises for distinguir os "bons" dos "maus" e dizer que a ciência é algo totalmente distinto de outras formas de conhecimento, então é necessário um critério de demarcação - mas, com vimos, isso não poderá ser atingido. Por outro lado, pode-se desenvolver um outro tipo de concepção epistemológica, que tenha uma outra finalidade: orientar e avaliar as pesquisas, mas sem partir do pressuposto de que a ciência é algo totalmente distinto de outros campos de estudo. E, como tentaremos mostrar rapidamente, é possível dispor de uma concepção de ciência que não estabeleça um critério de demarcação mas que permita orientar e avaliar a pesquisa.”
“As bases desse tipo de concepção de ciência são as seguintes”:
“1 -Admite-se como ciência tudo o que se queira chamar de ciência, mas
2 — É possível estabelecer comparações de valor cientifico e avaliar e orientar a pesquisa.
Para explicar esse tipo de concepção, vamos inicialmente fazer uma comparação. Tomemos o conceito popular de "alto". O que é-uma pessoa alta? Eu posso ser considerado alto, ou sou baixo? De um modo geral, nossa sociedade valoriza as pessoas altas e desvaloriza as baixas. Ser chamado de baixinho é humilhante (mas ser chamado de altão não o é). Se distinguirmos de modo absoluto os baixos dos altos, estaremos separando as pessoas "fisicamente corretas" das "fisicamente incorretas", ou seja, estabelecendo uma espécie de critério de demarcação entre as pessoas que possuem uma boa altura e as que possuem uma altura "errada".”
“Mas qual é o ponto de separação entre os altos e baixos? Pode-se dizer que um adulto com um metro e meio de altura é baixo e que um adulto com dois metros é alto. Mas e um adulto com um metro e setenta e cinco? e um adulto com um metro e sessenta e cinco? e um adulto com um metro e setenta? Onde está o limite?”
“Na verdade, qualquer distinção absoluta entre altos e baixos é convencional: pode-se escolher um ponto qualquer da escala de alturas e decidir-se que aquele que está abaixo daquele limite é baixo e quem está acima é alto. Mas essa decisão é arbitrária e não tem muito significado.”
“Pelo contrário, pode-se estabelecer uma distinção objetiva e significativa dizendo que uma pessoa é mais alta (ou mais baixa) do que uma outra. Para isso, não é preciso saber qual a distinção entre altos e baixos: é necessário apenas colocar uma pessoa ao lado da outra e compará-las (ou saber suas alturas e compará-las). Ao invés de um conceito absoluto, temos agora um conceito relativo, comparativo.”
“Pode-se fazer algo semelhante na análise do conceito de ciência. Ao invés de uma distinção absoluta entre científico e não-cientifico, é mais conveniente introduzir uma comparação de valores científicos, sem estabelecer uma diferença absoluta qualitativa, mas apenas quantitativa e comparativa,”
“Dessa forma, pode-se introduzir a idéia de que certo tipo de trabalho.tem maior valor científico do que um outro, sem que isso signifique que o outro não tem valor ou não é científico. Não é necessário, nesse caso, um critério de demarcação. Não é mais necessário negar o direito de chamar alguma coisa de ciência, De acordo com essa concepção não-proíbítiva, a ciência passa a ser vista como um processo pelo qual se procura obter elementos com maior valor científico. Fica sem sentido discutir se uma teoria é científica ou não: pode-se dar o nome de 'científico1 a qualquer coisa que se queira, pois o objetivo da epistemología deixa de ser o de rotular e classificar as coisas de forma absoluta. Assim, se alguém quiser dizer que a astrologia é uma ciência, não é necessário discutir essa concepção, Que seja, admitimos que se chame a astrologia ou qualquer outra coisa de ciência. Mas a questão central não é essa, e sim saber se a astrologia obedece a todos os critérios de valor científico, que são obedecidos, por exemplo, pela astronomia; e saber o que precisaria ser feito para aumentar o valor científico da astrologia. Por exemplo: se a astrologia dispusesse de estudos estatísticos mostrando que as pessoas nascidas sob tal signo {ou ascendente, ou ambos) possuem em geral tais e tais características. isso aumentaria muito o valor científico da astrologia. Também se fossem feitos testes controlados, em grande escala, de previsões astrológicas para muitas pessoas, sobre fatos objetivos, que fossem depois controlados, isso aumentaria muito o valor científico da astrologia. E quando ela se tornaria realmente uma ciência? A pergunta não tem sentido, nesse tipo de enfoque.”
“Nessa abordagem não-proibitiva, ao invés de discutir se uma coisa é ou não ciência, a contribuição relevante da Filosofia é a de indicar o que fazer para aumentar o valor cientifico de cada estudo. E é possível fazer isso, pois há resultados que foram obtidos ao longo do desenvolvimento da história que mostram que existem critérios que podem ser aceitos por todos como representando um aumento de valor científico.”
“Não é possível, no âmbito de um pequeno artigo, esclarecer detalhadamente isso. Mas podemos dar uma idéia gerai, Como regras amplas, pode-se dizer que um elemento da ciência possui maior valor científico do que outro quando ele tem:
- maior poder;
- maior harmonia com outros elementos.
“Vamos dar um exemplo. Desde a Antigüidade, os pitagóricos já defendiam a idéia de um conhecimento matemático do mundo. No entanto, demorou muito até que fossem sendo descobertas leis quantitativas na Física, na Química e outras áreas. Sempre que foram obtidas leis matemáticas, quantitativas, isso aumentou o poder daqueles ramos de estudo, pois tornou-se possível fazer previsões claras e testá-las de forma precisa.”
“Isso não quer dizer que todos os ramos de estudo precisem ter leis quantitativas. Isso não é um critério para incluir ou excluir da ciência algum estudo. Mas, se em algum estudo, for possívei obter tal tipo de leis, isso aumentará o poder e o valor científico desse estudo.
Há muitos outros exemplos de modos de aumentar o valor científico de um estudo: quando é possível introduzir instrumentos de medida, ou realizar experimentos controlados, por exemplo, isso aumentar o seu valor. Nem sempre isso é possível (por exemplo: não podemos medir a temperatura do interior de uma estrela), mas sempre que for possível, isso será um aumento de poder e de valor científico.”
“Outro exemplo. Na ciência, dá-se mais valor a uma hipótese, teoria ou idéia quanto ela é relacionada e integrada a outras partes da ciência. Quanto mais harmonioso o corpo de conhecimentos, maior valor cientifico ele tem. No caso da Homeopatia, um dos motivos pelos quais muitas pessoas a rejeitam é que não se consegue conciliar a idéia dos remédios em doses infinitesimais com os conhecimentos físicos e químicos. Mesmo se forem acumulados teste estatísticos e for verificada a eficácia dos tratamentos homeopáticos, isso não vai satisfazer a muitas pessoas. Falta integrar harmoniosamente a Homeopatia a outros domínios científicos. Embora, na abordagem não-proibitiva, isso não seja um motivo para rejeitará Homeopatia, é clara que se deve afirmar que, se for possível harmonizar a Homeopatia aos conhecimentos físicos e químicos, isso aumentará o seu valor científico.”
“Podemos agora esboçar uma resposta à pergunta inicial deste trabalho. Afinal de contas, o que a Filosofia pode nos dizer sobre o que é a ciência? Ela pode nos dizer que certas concepções são absurdas, pois propõem coisas inatingíveis ao conhecimento humano. Ela pode também nos dizer que há diferentes modos de atacar a questão e que existe pelo menos uma abordagem que elimina muitos dos problemas das outras. Nessa abordagem, a ciência não c um resultado final, mas é um processo contínuo, pelo qual se aumenta o valor científico dos conhecimentos através de um aumento de poder e de uma maior harmonia dos elementos do conhecimento, É claro que os detalhes não podem ser descritos aqui, mas isso já dá as indicações gerais sobre a natureza da resposta.”
O que se pode chamar de testabilidade é uma característica bastante explorada pelos estudiosos da filosofia da ciência, que buscam assim distinguir as teorias científicas das não-científicas. Neste último rol estão incluídas não somente as proposições errôneas ou pseudo-científicas, mas também as teorias filosóficas, metafísicas, teológicas etc., que pertencem a outros ramos de conhecimento.
Em síntese, este quesito estabelece que uma teoria, se científica, deve ser passível de verificação.
Aqui deve-se tomar um cuidado muito grande com os termos. Uma teoria científica não deve ser passível de verificação (no sentido de validação da mesma), mas passível de falseamento. Do ponto de vista formal, não provamos a veracidade de uma teoria científica, ou seja, não a verificamos. Podemos, contudo, falseá-la.
Não se exige que tenha sido verificada, pois pode estar relacionada a fenômenos cujas manifestações subseqüentes virão a ocorrer apenas num futuro próximo, como é o caso de qualquer objeto de análise do tipo ‘observável’. Exemplos dessa natureza são comuns na astronomia, como é o caso das pesquisas sobre os cometas. Também foi o caso da teoria einsteiniana da curvatura do espaço devido à presença de grandes massas, verificada muitos anos depois de seu enunciado, graças à ocorrência de um eclipse, no qual o Brasil serviu como posto de observação privilegiado do fenômeno.
Naturalmente, o intervalo que medeia o estabelecimento da teoria e sua verificação deve ter algum limite de referência. Para ilustrar, considere a formulação de uma teoria que descreve o modo de vida dos seres num planeta recém-descoberto em outro sistema galáctico. É uma teoria que não pode ser considerada científica, pois somente será verificável num prazo indeterminado.
Este critério tem indiscutível utilidade, pois descarta uma série de teorias eminentemente metafísicas, que aparecem em disciplinas em formação e, especialmente, no campo do psiquismo e outros estudos transcendentais, como a astrologia. Por exemplo, nesta disciplina há a teoria de que tudo se relaciona no universo, como no caso da queda de uma flor excitando uma estrela distante; tal teoria pode não estar errada, mas não é científica, pois não é testável.
Novamente: não existe verificação de teorias científicas, pois essas não se baseiam em deduções lógicas. Vou expor isso em detalhes mais a frente...
Com a abertura que a física moderna e a matemática impuseram, enfatizando a existência de sistemas não-lineares, princípios não-causais e a própria retratividade do tempo, muitos pensadores se arvoraram em propor teorias bem audaciosas. Conforme foi enfatizado no item anterior, uma vez que estas formulações se opõem à lógica, é preciso cautela. A ausência de testabilidade é um indicativo que tais teorias não são satisfatoriamente científicas.
Aqui ele tem que dizer a respeito do que ele está falando, que teorias ele afirma contrariarem a lógica, que teorias ele afirma não serem testáveis, etc...
***Creio que podemos citar as super-cordas, ou a existência dos táquions.
É preciso ressaltar que a testabilidade não garante que a teoria seja científica, pois é preciso haver outras características, outros indicativos de consistência.
Para ser científica, a teoria tem que ser necessariamente falseável. O método científico não se baseia apenas no falseamento, mas este é parte integrante do método.
***Discordo pelos motivos expostos acima. O texto já está imenso. Vou encerrar por aqui, ok? Depois colocarei o restante das respostas. Se quiser, já pode ir comentando esta 1ª parte.
Um abraço,
- Vitor Moura
- Mensagens: 2130
- Registrado em: 24 Out 2005, 20:13
Olá, Rômulo
segue a parte 2:
PARTE 2
Existem proposições pretensamente científicas, usadas para combater a doutrina espírita, que não obedecem ao critério da falseabilidade. Considere-se o caso da onipotência do inconsciente, também chamado de superinconsciente, hipótese aventada para explicar uma gama enorme de fenômenos psíquicos intelectivos, como a telepatia, psicocinésia, poltergeist, mediunidade e, principalmente, os casos de identificação de espíritos desencarnados. Segundo essa teoria, estes e muitos outros fenômenos resultariam de um poder normalmente involuntário, que, se localizando no interior do ser humano e se exteriorizando de modo ainda pouco explicado, dar-lhe-ia ciência sobre aspectos pessoais de outrem, conhecimento geral do passado, presente e futuro, e ainda ofertando-lhe uma força física formidável. Se levada a sério, esta hipótese facilmente implicaria num poder infinito contido no inconsciente humano, em que cada ser transformar-se-ia literalmente em um Deus. Nestas condições, por exemplo, a psicocinésia (movimentação de objetos por meios não-físicos), poderia ser aventada para explicar os maremotos, terremotos e acidentes em geral, sem poder ser refutada. Quem poderia dizer que um tufão não foi obra involuntária de um paranormal ou de inconscientes coletivos afetos a grandes catástrofes? Logo, tal hipótese, denominada ‘telergética’, bem ao gosto dos parapsicólogos católicos, não é científica.
Como o Arduin já citou, e eu concordo, é bem estranha esta "elasticidade" do "inconsciente quevediano"...
***De psi também. Chega a ser uma brincadeira de mau gosto com a Ciência (que o Zangari não nos ouça...
Será a hipótese espirítica científica? A resposta é sim, pois não lhe é creditada nenhum poder ilimitado ou infinito.
A resposta é não. Para ser científica, a teoria deve ser falseável, o que não é o caso aqui.
***Eu penso que há algumas formas de se falsear, se não espíritos, a possibilidade deles reencarnarem. Stevenson conseguiu dar certa base experimental e previsibilidade para casos com sinais de nascença, sendo possível prever a localização e mesmo a forma deles ocorrerem em casos de morte resultante de ferimentos a bala. Tais casos de sinais de nascença não são explicáveis por psi. Há uma discussão se poderiam ser explicados por “impressões maternas”.
***Ainda com relação à reencarnação, mesmo Sagan disse:
"No momento em que escrevo, acho que três alegações no campo da percepção extra-sensorial (ESP) merecem estudo sério: (1) que os seres humanos conseguem (mal) influir nos
geradores de números aleatórios em computadores usando apenas o pensamento; (2) que as pessoas sob privação sensorial branda conseguem receber pensamentos ou imagens que foram nelas "projetados"; e (3) que as crianças pequenas às vezes relatam detalhes de uma vida anterior que se revelam precisos ao serem verificados, e que não poderiam se conhecidos exceto pela reencarnação. Não apresento essas afirmações por achar provável que sejam válidas (não acho), mas como exemplos de afirmações que poderiam ser verdade. Elas têm, pelo menos, um fundamento experimental, embora ainda dúbio."
Pode-se testa-la, questiona-la e identificar uma série de elementos indicativos, particulares ao problema em análise.
Ela é infalseável. E isso faz com que ela não seja científica.
***Na mensagem anterior, citei Super-Cordas, Táquions, Memes e Complexo de Édipo, todas exceções à essa regra.
Se um desencarnado se identifica, as informações por ele prestadas dizem respeito às suas atividades quando em vida; não se considera que tenha ciência de informações ou apresente capacidades superiores à sua natureza. Considera-se apenas que a morte não exterminou sua memória e sua individualidade. Quanto às levitações, materializações e outros eventos formidáveis, a literatura registra as condições especiais em que se manifestam e os limites bem definidos destes prodígios. Logo, a hipótese espirítica, é importante ratificar, embora considere elementos que ultrapassam as fronteiras físicas tradicionais, não advoga sobrenaturalidade ou superpoderes indeterminados.
Observe que em momento algum são oferecidos parâmetros para se falsear o espiritismo.
***Stevenson conseguiu, a meu ver, arranjar bons argumentos que separariam a hipótese de sobrevivência (não gosto de usar o termo ‘hipótese espírita’) de psi (em que pese o Zangari pensar o contrário). Em alguns casos sugestivos de reencarnação, penso que a balança pesa a favor da hipótese de sobrevivência. Quanto à falseabilidade da reencarnação, há um texto bem interessante que trata disto, entre outras considerações, em http://geocities.yahoo.com.br/existem_e ... nacao.html
Por outro lado, é verdade que certas hipóteses científicas, por serem primitivas ou primordiais (se situam num ponto básico de uma escala de conhecimentos), nunca podem ser falseadas, e deste modo, criam limitações à idéia de Popper.
Que hipóteses?!
***A palavra hipótese aqui não é muito boa. Penso que ele se refere, por exemplo, aos axiomas. São proposições ou afirmações consideradas evidentes, e por isso elementares Isso é muito comum na física e na matemática: a reta é um conjunto de pontos linearmente dispostos; momento de uma força (seu propósito de fazer girar) é o produto desta por uma distância perpendicular à sua linha de ação. São idéias tão fundamentais, que não se consegue aventar um outro sentido a seu respeito.
***Há também os conceitos primitivos: força, temperatura, deslocamento. Não faltam explicações para estes termos, mas todas elas remetem a valores da mesma hierarquia conceitual.
***No entanto, veja, a própria matemática apresenta problemas que possuem soluções, mas não são demonstráveis; verifica-se se elas servem por mera inspeção, pois não há uma metodologia analítica para dedução de uma solução geral.É o famoso caso da solução das equações algébricas de ordem superior a quatro: não há fórmulas disponíveis. Isto também ocorre freqüentemente no ramo das equações diferenciais parciais, que é o campo mais importante para representação do comportamento dos fenômenos naturais: basta uma relativa complexidade para que não haja solução analítica. A saída é obter uma solução aproximada.
Assim sendo, o critério da falseabilidade não pode ser empregado isoladamente como critério de identificação de modelos científicos. É o caso da lei da conservação de energia. Se, por alguma razão, o balanço energético num sistema natural não for obedecido, pode-se facilmente aventar a existência de uma nova forma de energia, ainda não conhecida, que se introduz no processo. É verdade que é preciso muitos e muitos testes para que, num caso como este, seja eliminada a possibilidade de erro de medida, interpretação, cálculos etc. No entanto, a anti-matéria e outras partículas sub-atômicas foram descobertas exatamente assim, para ‘fechar’ o balanço de energia.
Essa é a deixa perfeita para expor o "Programa de Pesquisas" de Lakatos, que mencionei anteriormente. Eu falei rapidamente a respeito disso em uma mensagem dirigida ao Arduin no tópico do RV antigo, mas sem mencionar explicitamente o nome de Lakatos. Vou colocar aqui um texto redigido pelo forista Dono da Verdade, do extinto Fórum da STR, onde é feita uma apresentação da evolução do conceito de Método Científico, partindo do indutivismo, passando por Popper e Khun, até culminar em Lakatos, que descreve perfeitamente o que ocorre na Ciência:
Citação:
--------------------------------------------------------------------------------
Entre as "filosofias" da ciência, ou sejam, as descrições de como ela funciona ou as prescrições de como ela deve funcionar, destacam-se:
1- Indutivismo.
Esta corrente afirma que a ciência produz conhecimento através da observação direta da natureza, constatação de suas regularidades e generalização dessas regularidades para leis e teorias. Ela se baseia no princípio da indução, ou seja, afirma que podemos a partir da observação de casos particulares chegar à uma conclusão universal válida. Mas tarde, devido à crítica de Hume, abandonaram a idéia da indução propiciar conhecimento certo, passando a defender que a mensma propicia conhecimento que se torna cada vez mais provável à medida que é apoiada por maior quantidade de experimentos. Elaboraram para isso uma "lógica probabilística indutiva". Seus defensores fazem parte da filosofia positivista, mas particularmente, a neopositivista do "Círculo de Viena" (positivismo lógico). São exemplos de autores dessa corrente: Hempel, Carnap e Wittgenstein. Tiveram grande influência na interpretação "consenso de Copenhaguen" da mecânica quântica.
2- "Falsificacionismo", de Karl Popper.
Karl Popper, baseado na "crítica de Hume" (esta "crítica" possui apenas duas proposições: 1- Só a lógica dedutiva é válida; 2- Só a experiência é fonte de conhecimento factual.) , defendeu que a indução é um mito, pois a mesma não tinha apoio da lógica (conclusão afirmando mais do que as premissas permitem) nem da experiência (não foram testados todos os casos para se chegar à generalização). Hume concluiu qua a indução era um "psicologismo" útil para a sobrevivência, porém Popper defendeu que não é a indução o verdadeiro "método" usado pela ciência (nem pelas pessoas), mas o da "tentativa e erro", como é isso?
Em primeiro lugar, não há observação pura. A pessoa que vai fazê-la já possui uma teoria que pretende testar. É essa teoria que a faz selecionar os experimentos pertinentes à mesma. Na verdade, é um "problema", ou seja, um evento não previsto pela teoria que a pessoa já tinha que a motiva a empreender a pesquisa. Em segundo lugar, Popper faz uma "concessão" inevitável à crítica de Hume, reconhecendo que as teorias possuem caráter conjectural, ou seja, nunca poderemos estar certos de termos ou não chegado à verdade, de modo que o trabalho científico é um empreendimento permanente. Porém o mais importante: Popper percebeu que há uma assimetria entre confirmação e falseamento: vários casos a favor de uma teoria não garantem que a mesma é sempre válida, mas um único caso contra é suficiente para falseá-la. Assim, a falsificação, ao contrário da confirmação, conta com o apoio da lógica dedutiva e por isso cabe aos cientistas formularem hipóteses para explicarem os fenômenos e submetê-las às mais impiedosas críticas e testes. As teorias falseadas são descartadas(ou modificadas) e novas propostas. A teoria mais "resistente" é corroborada, ou seja, é a melhor que conseguimos até o momento, mas não podemos estar certos de que a mesma não será falseada amanhã ( ou que será). Devido ao fato de se usar a razão para "criticar" as teorias, esta corrente é conhecida como racionalismo crítico. Porém, para que as teorias sejam criticadas, devem estar sujeitas a críticas, ou seja, serem falseáveis. Popper constatou que uma teoria será tanto mais informativa, ampla, precisa e útil quanto mais falseável a mesma for. Teorias não-falseáveis são inúteis para a ciência, pois para elas o mundo poderia ser de qualquer jeito que sempre "estarão certas". O progresso da ciência consiste na sucessão de teorias cada vez mais falseáveis ( maior conteúdo empírico e informativo).
3- "Sucessão de paradigmas", de Thomas Khun.
Analisando a história da ciência, Thomas Khun defendeu que nem o indutivismo nem o "falsificacionismo" descrevem como a ciência realmente funciona. Ele concluiu que a ciência não é formada apenas de leis e teorias, mas também de "visões de mundo" bem mais amplas - os paradigmas -. Estes determinariam em cada época que objetivos devem ser buscados, que tipos de teorias devem ser formuladas e aceitas, que métodos, critérios e procedimentos são considerados válidos,até qual o tipo de constituição básica o universo possui. Esses paradigmas são produtos de exemplos anteriores que deram certo e passaram a servir de modelo e "inspiração" para os cientistas subseqüentes (Ex: A mecânica newtoniana, a teoria da evolução de Darwin, a relatividade, etc). Os cientistas, ao contrário do que diz Popper, são bastante relutantes em descartar teorias e paradigmas, chegando mesmo a serem intolerantes para com os outros. Segundo Khun, o empreendimento científico passa por várias fases: pré-ciência (para áreas do conhecimento ainda "inexploradas"), quando há uma multiplicidade de paradigmas. "Ciência normal", quando um paradigma triunfa, ganha mais adeptos e passa a dominar a área. Crise, momento em que o paradigma começa a "se esgotar". Nesse momento, "anomalias" se acumulam e hipóteses ad-hoc se ploriferam. "Ciência extraordinária", quando algumas pessoas começam a "perder a fé" no paradigma e começam a apoiar um outro mais promissor. São as revoluções científicas. Momentos de grande "insegurança profissional" para os adeptos dos antigos paradigmas. Essas revoluções mudam o modo como os cientistas enxergam o mundo de tal maneira que, após as mesmas, é como se estivessem em "outro mundo". A ciência extraordinária então passa a ser "ciência normal".
Uma tese fundamental de khun é que, se os cientistas não "se apegassem" a um paradigama, descartando as teorias imediatamente frente a qualquer falseamento, não poderiam resolver os abstrusos problemas esotéricos que só uma dedicação profunda pode proporcionar; pelo contrário, ficariam o tempo inteiro discutindo os "fundamentos" da sua área sem irem à lugar algum. Para khun, um cientista só adere a um paradigma porque acredita que o mesmo irá "resolver os problemas" melhor do que os demais, é uma fé no futuro que, em sua ausência, o desmotivaria. Defende também que uma comunidade só descarta um paradigma quando já existe outro para substituí-lo. E que a "conversão" a um paradigma é um processo lento e gradual que às vezes só se completa quando os últimos adeptos dos paradigmas anteriores morrem.
4- "Programas de pesquisa", de Imre Lakatos.
A tese de Khun foi considerada relativista. Imre Lakatos então propôs conciliar o método normativo "popperiano" com o descritivo de Khun.
Para Lakatos, de fato as teorias científicas nem sempre são falseadas frente a qualquer "anomalia", mas são propostas sempre hipótese (ad hoc ou não) para preservá-la. Ele usou como exemplo as primeiras previsões da passagem de cometas feitas com a ajuda da mecânica newtoniana: Se as previsões não acertassem, a teoria de Newton seria descartada? Não, seriam propostas hipóteses diversas para explicar o motivo do erro, como equívocos de dados, cálculos ou a proposição de que outros fatores alteraram o resultado. Para Lakatos, isto é perfeitamente normal e desejável desde que essas hipóteses não sejam ad-hoc, ou seja, devem ser independentemente testáveis. Assim, Lakatos propõe que a atividade da ciência é uma sucessão de "programas de pesquisa" ( os "paradigmas" de Khun). Um programa de pesquisa é formado por uma teoria principal, básica, e por um "cinto de proteção", que são sub-teorias e hipóteses auxiliares. Quando surgem anomalias, tenta-se eliminar estas através de alterações no "cinto de proteção" de modo a manter a teoria condizente com os experimentos. Um programa de pesquisa está em expansão quando faz previsões que conduzem a testes que ampliam o conhecimento da natureza, fazendo a ciência progredir. Porém, quando o programa deixa de fazer previsões testáveis, ou anomalias se acumulam sem que seja possível conciliá-las com o mesmo, diz-se que o mesmo está "degenerado". Faz-se necessário então a substituição do mesmo por um outro programa de pesquisa mais promissor.
Vê-se que, ao contrário de Khun, Lakatos afirma que as mudanças de programas (ou "paradigmas") se dá de forma racional a partir do reconhecimento de seu estado "degenerado".
Ora, foi citada a Conservação da Energia. Pois bem, em alguns experimentos de colisão a altas energias, onde ocorrem produções de neutrinos, ficaria "faltando" energia ao final do processo de colisão caso não se levasse em conta a energia desses neutrinos. Mas neutrinos são partículas muito fracamente integarentes, tanto que suas primeiras detecções não são muito antigas e aconteceram bastante tempo após sua previsão teórica. Os neutrinos foram propostos, a princípio, exatamente para salvar a sacrossanta Lei de Conservação da Energia. Mas só foram detectados muito tempo depois, devido às dificuldades inerentes ao processo de detecção de partículas muito fracamente interagentes. A princípio, se considerássemos apenas o princípio do falseamento de Popper, teríamos que ter rejeitado a Lei de Conservação da Energia, ou ao menos ter restringido seu domínio de atuação, a partir dessas experiências de colisões com produção de neutrinos. Não é o que foi feito (ainda bem!). A Lei de Conservação de Energia é muito importante para ser abandonada tão facilmente. Utilizou-se então um cinturão de hipóteses periféricas, como Lakatos descreve, para se proteger a teoria principal. Só que o cinturão deve ser falseável e, de fato, o é, pois o modelo teórico que descreve os neutrinos é falseável! E, com o tempo, detectou-se, de fato, tais partículas. Ou seja, a Lei de Conservação da Energia continua válida, e foi acertada a aposta na existência dos neutrinos.
E o que acontece na Ciência, de fato, é o que Lakatos descreve em seu "Programa de Pesquisas". O falseamento é um critério necessário para que tenhamos uma teoria científica, mas ele não é aplicado de forma isolada. Note que não ser aplicado de forma isolada não quer dizer que não seja necessária sua aplicação. A aplicação desse princípio é necessária, sendo que existem outros parâmetros também. Mas para uma teoria ser científica ela deve ser falseável, necessariamente. Portanto, há sim um parâmetro que separa as teorias científicas das não-científicas e esse parâmetro é o princípio do falseamento, que deve ser aplicado dentro do contexto descrito por Lakatos.
***Creio que o texto do Roberto Andrade Martins que lhe enviei coloca em xeque o que você disse. Mas foi uma boa tentativa, e uma excelente exposição!
Sobre as evidências a favor de espíritos, peço que veja o meu site, especialmente no tópico sobre Reencarnação, que, a meu ver, possui as mais fortes evidências atuais, inclusive com boa replicação, como vc pediu em sua mensagem.
Assim que eu tiver tempo, pretendo dar uma olhada no seu site.
***OK!
Abraço,
Vitor
segue a parte 2:
PARTE 2
Existem proposições pretensamente científicas, usadas para combater a doutrina espírita, que não obedecem ao critério da falseabilidade. Considere-se o caso da onipotência do inconsciente, também chamado de superinconsciente, hipótese aventada para explicar uma gama enorme de fenômenos psíquicos intelectivos, como a telepatia, psicocinésia, poltergeist, mediunidade e, principalmente, os casos de identificação de espíritos desencarnados. Segundo essa teoria, estes e muitos outros fenômenos resultariam de um poder normalmente involuntário, que, se localizando no interior do ser humano e se exteriorizando de modo ainda pouco explicado, dar-lhe-ia ciência sobre aspectos pessoais de outrem, conhecimento geral do passado, presente e futuro, e ainda ofertando-lhe uma força física formidável. Se levada a sério, esta hipótese facilmente implicaria num poder infinito contido no inconsciente humano, em que cada ser transformar-se-ia literalmente em um Deus. Nestas condições, por exemplo, a psicocinésia (movimentação de objetos por meios não-físicos), poderia ser aventada para explicar os maremotos, terremotos e acidentes em geral, sem poder ser refutada. Quem poderia dizer que um tufão não foi obra involuntária de um paranormal ou de inconscientes coletivos afetos a grandes catástrofes? Logo, tal hipótese, denominada ‘telergética’, bem ao gosto dos parapsicólogos católicos, não é científica.
Como o Arduin já citou, e eu concordo, é bem estranha esta "elasticidade" do "inconsciente quevediano"...
***De psi também. Chega a ser uma brincadeira de mau gosto com a Ciência (que o Zangari não nos ouça...
Será a hipótese espirítica científica? A resposta é sim, pois não lhe é creditada nenhum poder ilimitado ou infinito.
A resposta é não. Para ser científica, a teoria deve ser falseável, o que não é o caso aqui.
***Eu penso que há algumas formas de se falsear, se não espíritos, a possibilidade deles reencarnarem. Stevenson conseguiu dar certa base experimental e previsibilidade para casos com sinais de nascença, sendo possível prever a localização e mesmo a forma deles ocorrerem em casos de morte resultante de ferimentos a bala. Tais casos de sinais de nascença não são explicáveis por psi. Há uma discussão se poderiam ser explicados por “impressões maternas”.
***Ainda com relação à reencarnação, mesmo Sagan disse:
"No momento em que escrevo, acho que três alegações no campo da percepção extra-sensorial (ESP) merecem estudo sério: (1) que os seres humanos conseguem (mal) influir nos
geradores de números aleatórios em computadores usando apenas o pensamento; (2) que as pessoas sob privação sensorial branda conseguem receber pensamentos ou imagens que foram nelas "projetados"; e (3) que as crianças pequenas às vezes relatam detalhes de uma vida anterior que se revelam precisos ao serem verificados, e que não poderiam se conhecidos exceto pela reencarnação. Não apresento essas afirmações por achar provável que sejam válidas (não acho), mas como exemplos de afirmações que poderiam ser verdade. Elas têm, pelo menos, um fundamento experimental, embora ainda dúbio."
Pode-se testa-la, questiona-la e identificar uma série de elementos indicativos, particulares ao problema em análise.
Ela é infalseável. E isso faz com que ela não seja científica.
***Na mensagem anterior, citei Super-Cordas, Táquions, Memes e Complexo de Édipo, todas exceções à essa regra.
Se um desencarnado se identifica, as informações por ele prestadas dizem respeito às suas atividades quando em vida; não se considera que tenha ciência de informações ou apresente capacidades superiores à sua natureza. Considera-se apenas que a morte não exterminou sua memória e sua individualidade. Quanto às levitações, materializações e outros eventos formidáveis, a literatura registra as condições especiais em que se manifestam e os limites bem definidos destes prodígios. Logo, a hipótese espirítica, é importante ratificar, embora considere elementos que ultrapassam as fronteiras físicas tradicionais, não advoga sobrenaturalidade ou superpoderes indeterminados.
Observe que em momento algum são oferecidos parâmetros para se falsear o espiritismo.
***Stevenson conseguiu, a meu ver, arranjar bons argumentos que separariam a hipótese de sobrevivência (não gosto de usar o termo ‘hipótese espírita’) de psi (em que pese o Zangari pensar o contrário). Em alguns casos sugestivos de reencarnação, penso que a balança pesa a favor da hipótese de sobrevivência. Quanto à falseabilidade da reencarnação, há um texto bem interessante que trata disto, entre outras considerações, em http://geocities.yahoo.com.br/existem_e ... nacao.html
Por outro lado, é verdade que certas hipóteses científicas, por serem primitivas ou primordiais (se situam num ponto básico de uma escala de conhecimentos), nunca podem ser falseadas, e deste modo, criam limitações à idéia de Popper.
Que hipóteses?!
***A palavra hipótese aqui não é muito boa. Penso que ele se refere, por exemplo, aos axiomas. São proposições ou afirmações consideradas evidentes, e por isso elementares Isso é muito comum na física e na matemática: a reta é um conjunto de pontos linearmente dispostos; momento de uma força (seu propósito de fazer girar) é o produto desta por uma distância perpendicular à sua linha de ação. São idéias tão fundamentais, que não se consegue aventar um outro sentido a seu respeito.
***Há também os conceitos primitivos: força, temperatura, deslocamento. Não faltam explicações para estes termos, mas todas elas remetem a valores da mesma hierarquia conceitual.
***No entanto, veja, a própria matemática apresenta problemas que possuem soluções, mas não são demonstráveis; verifica-se se elas servem por mera inspeção, pois não há uma metodologia analítica para dedução de uma solução geral.É o famoso caso da solução das equações algébricas de ordem superior a quatro: não há fórmulas disponíveis. Isto também ocorre freqüentemente no ramo das equações diferenciais parciais, que é o campo mais importante para representação do comportamento dos fenômenos naturais: basta uma relativa complexidade para que não haja solução analítica. A saída é obter uma solução aproximada.
Assim sendo, o critério da falseabilidade não pode ser empregado isoladamente como critério de identificação de modelos científicos. É o caso da lei da conservação de energia. Se, por alguma razão, o balanço energético num sistema natural não for obedecido, pode-se facilmente aventar a existência de uma nova forma de energia, ainda não conhecida, que se introduz no processo. É verdade que é preciso muitos e muitos testes para que, num caso como este, seja eliminada a possibilidade de erro de medida, interpretação, cálculos etc. No entanto, a anti-matéria e outras partículas sub-atômicas foram descobertas exatamente assim, para ‘fechar’ o balanço de energia.
Essa é a deixa perfeita para expor o "Programa de Pesquisas" de Lakatos, que mencionei anteriormente. Eu falei rapidamente a respeito disso em uma mensagem dirigida ao Arduin no tópico do RV antigo, mas sem mencionar explicitamente o nome de Lakatos. Vou colocar aqui um texto redigido pelo forista Dono da Verdade, do extinto Fórum da STR, onde é feita uma apresentação da evolução do conceito de Método Científico, partindo do indutivismo, passando por Popper e Khun, até culminar em Lakatos, que descreve perfeitamente o que ocorre na Ciência:
Citação:
--------------------------------------------------------------------------------
Entre as "filosofias" da ciência, ou sejam, as descrições de como ela funciona ou as prescrições de como ela deve funcionar, destacam-se:
1- Indutivismo.
Esta corrente afirma que a ciência produz conhecimento através da observação direta da natureza, constatação de suas regularidades e generalização dessas regularidades para leis e teorias. Ela se baseia no princípio da indução, ou seja, afirma que podemos a partir da observação de casos particulares chegar à uma conclusão universal válida. Mas tarde, devido à crítica de Hume, abandonaram a idéia da indução propiciar conhecimento certo, passando a defender que a mensma propicia conhecimento que se torna cada vez mais provável à medida que é apoiada por maior quantidade de experimentos. Elaboraram para isso uma "lógica probabilística indutiva". Seus defensores fazem parte da filosofia positivista, mas particularmente, a neopositivista do "Círculo de Viena" (positivismo lógico). São exemplos de autores dessa corrente: Hempel, Carnap e Wittgenstein. Tiveram grande influência na interpretação "consenso de Copenhaguen" da mecânica quântica.
2- "Falsificacionismo", de Karl Popper.
Karl Popper, baseado na "crítica de Hume" (esta "crítica" possui apenas duas proposições: 1- Só a lógica dedutiva é válida; 2- Só a experiência é fonte de conhecimento factual.) , defendeu que a indução é um mito, pois a mesma não tinha apoio da lógica (conclusão afirmando mais do que as premissas permitem) nem da experiência (não foram testados todos os casos para se chegar à generalização). Hume concluiu qua a indução era um "psicologismo" útil para a sobrevivência, porém Popper defendeu que não é a indução o verdadeiro "método" usado pela ciência (nem pelas pessoas), mas o da "tentativa e erro", como é isso?
Em primeiro lugar, não há observação pura. A pessoa que vai fazê-la já possui uma teoria que pretende testar. É essa teoria que a faz selecionar os experimentos pertinentes à mesma. Na verdade, é um "problema", ou seja, um evento não previsto pela teoria que a pessoa já tinha que a motiva a empreender a pesquisa. Em segundo lugar, Popper faz uma "concessão" inevitável à crítica de Hume, reconhecendo que as teorias possuem caráter conjectural, ou seja, nunca poderemos estar certos de termos ou não chegado à verdade, de modo que o trabalho científico é um empreendimento permanente. Porém o mais importante: Popper percebeu que há uma assimetria entre confirmação e falseamento: vários casos a favor de uma teoria não garantem que a mesma é sempre válida, mas um único caso contra é suficiente para falseá-la. Assim, a falsificação, ao contrário da confirmação, conta com o apoio da lógica dedutiva e por isso cabe aos cientistas formularem hipóteses para explicarem os fenômenos e submetê-las às mais impiedosas críticas e testes. As teorias falseadas são descartadas(ou modificadas) e novas propostas. A teoria mais "resistente" é corroborada, ou seja, é a melhor que conseguimos até o momento, mas não podemos estar certos de que a mesma não será falseada amanhã ( ou que será). Devido ao fato de se usar a razão para "criticar" as teorias, esta corrente é conhecida como racionalismo crítico. Porém, para que as teorias sejam criticadas, devem estar sujeitas a críticas, ou seja, serem falseáveis. Popper constatou que uma teoria será tanto mais informativa, ampla, precisa e útil quanto mais falseável a mesma for. Teorias não-falseáveis são inúteis para a ciência, pois para elas o mundo poderia ser de qualquer jeito que sempre "estarão certas". O progresso da ciência consiste na sucessão de teorias cada vez mais falseáveis ( maior conteúdo empírico e informativo).
3- "Sucessão de paradigmas", de Thomas Khun.
Analisando a história da ciência, Thomas Khun defendeu que nem o indutivismo nem o "falsificacionismo" descrevem como a ciência realmente funciona. Ele concluiu que a ciência não é formada apenas de leis e teorias, mas também de "visões de mundo" bem mais amplas - os paradigmas -. Estes determinariam em cada época que objetivos devem ser buscados, que tipos de teorias devem ser formuladas e aceitas, que métodos, critérios e procedimentos são considerados válidos,até qual o tipo de constituição básica o universo possui. Esses paradigmas são produtos de exemplos anteriores que deram certo e passaram a servir de modelo e "inspiração" para os cientistas subseqüentes (Ex: A mecânica newtoniana, a teoria da evolução de Darwin, a relatividade, etc). Os cientistas, ao contrário do que diz Popper, são bastante relutantes em descartar teorias e paradigmas, chegando mesmo a serem intolerantes para com os outros. Segundo Khun, o empreendimento científico passa por várias fases: pré-ciência (para áreas do conhecimento ainda "inexploradas"), quando há uma multiplicidade de paradigmas. "Ciência normal", quando um paradigma triunfa, ganha mais adeptos e passa a dominar a área. Crise, momento em que o paradigma começa a "se esgotar". Nesse momento, "anomalias" se acumulam e hipóteses ad-hoc se ploriferam. "Ciência extraordinária", quando algumas pessoas começam a "perder a fé" no paradigma e começam a apoiar um outro mais promissor. São as revoluções científicas. Momentos de grande "insegurança profissional" para os adeptos dos antigos paradigmas. Essas revoluções mudam o modo como os cientistas enxergam o mundo de tal maneira que, após as mesmas, é como se estivessem em "outro mundo". A ciência extraordinária então passa a ser "ciência normal".
Uma tese fundamental de khun é que, se os cientistas não "se apegassem" a um paradigama, descartando as teorias imediatamente frente a qualquer falseamento, não poderiam resolver os abstrusos problemas esotéricos que só uma dedicação profunda pode proporcionar; pelo contrário, ficariam o tempo inteiro discutindo os "fundamentos" da sua área sem irem à lugar algum. Para khun, um cientista só adere a um paradigma porque acredita que o mesmo irá "resolver os problemas" melhor do que os demais, é uma fé no futuro que, em sua ausência, o desmotivaria. Defende também que uma comunidade só descarta um paradigma quando já existe outro para substituí-lo. E que a "conversão" a um paradigma é um processo lento e gradual que às vezes só se completa quando os últimos adeptos dos paradigmas anteriores morrem.
4- "Programas de pesquisa", de Imre Lakatos.
A tese de Khun foi considerada relativista. Imre Lakatos então propôs conciliar o método normativo "popperiano" com o descritivo de Khun.
Para Lakatos, de fato as teorias científicas nem sempre são falseadas frente a qualquer "anomalia", mas são propostas sempre hipótese (ad hoc ou não) para preservá-la. Ele usou como exemplo as primeiras previsões da passagem de cometas feitas com a ajuda da mecânica newtoniana: Se as previsões não acertassem, a teoria de Newton seria descartada? Não, seriam propostas hipóteses diversas para explicar o motivo do erro, como equívocos de dados, cálculos ou a proposição de que outros fatores alteraram o resultado. Para Lakatos, isto é perfeitamente normal e desejável desde que essas hipóteses não sejam ad-hoc, ou seja, devem ser independentemente testáveis. Assim, Lakatos propõe que a atividade da ciência é uma sucessão de "programas de pesquisa" ( os "paradigmas" de Khun). Um programa de pesquisa é formado por uma teoria principal, básica, e por um "cinto de proteção", que são sub-teorias e hipóteses auxiliares. Quando surgem anomalias, tenta-se eliminar estas através de alterações no "cinto de proteção" de modo a manter a teoria condizente com os experimentos. Um programa de pesquisa está em expansão quando faz previsões que conduzem a testes que ampliam o conhecimento da natureza, fazendo a ciência progredir. Porém, quando o programa deixa de fazer previsões testáveis, ou anomalias se acumulam sem que seja possível conciliá-las com o mesmo, diz-se que o mesmo está "degenerado". Faz-se necessário então a substituição do mesmo por um outro programa de pesquisa mais promissor.
Vê-se que, ao contrário de Khun, Lakatos afirma que as mudanças de programas (ou "paradigmas") se dá de forma racional a partir do reconhecimento de seu estado "degenerado".
Ora, foi citada a Conservação da Energia. Pois bem, em alguns experimentos de colisão a altas energias, onde ocorrem produções de neutrinos, ficaria "faltando" energia ao final do processo de colisão caso não se levasse em conta a energia desses neutrinos. Mas neutrinos são partículas muito fracamente integarentes, tanto que suas primeiras detecções não são muito antigas e aconteceram bastante tempo após sua previsão teórica. Os neutrinos foram propostos, a princípio, exatamente para salvar a sacrossanta Lei de Conservação da Energia. Mas só foram detectados muito tempo depois, devido às dificuldades inerentes ao processo de detecção de partículas muito fracamente interagentes. A princípio, se considerássemos apenas o princípio do falseamento de Popper, teríamos que ter rejeitado a Lei de Conservação da Energia, ou ao menos ter restringido seu domínio de atuação, a partir dessas experiências de colisões com produção de neutrinos. Não é o que foi feito (ainda bem!). A Lei de Conservação de Energia é muito importante para ser abandonada tão facilmente. Utilizou-se então um cinturão de hipóteses periféricas, como Lakatos descreve, para se proteger a teoria principal. Só que o cinturão deve ser falseável e, de fato, o é, pois o modelo teórico que descreve os neutrinos é falseável! E, com o tempo, detectou-se, de fato, tais partículas. Ou seja, a Lei de Conservação da Energia continua válida, e foi acertada a aposta na existência dos neutrinos.
E o que acontece na Ciência, de fato, é o que Lakatos descreve em seu "Programa de Pesquisas". O falseamento é um critério necessário para que tenhamos uma teoria científica, mas ele não é aplicado de forma isolada. Note que não ser aplicado de forma isolada não quer dizer que não seja necessária sua aplicação. A aplicação desse princípio é necessária, sendo que existem outros parâmetros também. Mas para uma teoria ser científica ela deve ser falseável, necessariamente. Portanto, há sim um parâmetro que separa as teorias científicas das não-científicas e esse parâmetro é o princípio do falseamento, que deve ser aplicado dentro do contexto descrito por Lakatos.
***Creio que o texto do Roberto Andrade Martins que lhe enviei coloca em xeque o que você disse. Mas foi uma boa tentativa, e uma excelente exposição!
Sobre as evidências a favor de espíritos, peço que veja o meu site, especialmente no tópico sobre Reencarnação, que, a meu ver, possui as mais fortes evidências atuais, inclusive com boa replicação, como vc pediu em sua mensagem.
Assim que eu tiver tempo, pretendo dar uma olhada no seu site.
***OK!
Abraço,
Vitor
Saudações!
Ei, Vitor, sua resposta ficou grande pra cacete...como eu disse no RV antigo, você e o Arduin são muito chatos...
Bom, hoje já é dia primeiro de novembro e eu estou encrencado com um monte de coisas para estudar. Além disso, como fui espancado impiedosamente pela P1 de Física Estatística, se eu não abrir o olho e me dedicar a fundo nessa reta final, eu vou acabar repetindo essa cadeira...
Em meados de dezembro eu entro de férias, aí eu volto ao tópico, inclusive abrimos outro para analisar algum caso do seu site.
Falou!
Ei, Vitor, sua resposta ficou grande pra cacete...como eu disse no RV antigo, você e o Arduin são muito chatos...
Bom, hoje já é dia primeiro de novembro e eu estou encrencado com um monte de coisas para estudar. Além disso, como fui espancado impiedosamente pela P1 de Física Estatística, se eu não abrir o olho e me dedicar a fundo nessa reta final, eu vou acabar repetindo essa cadeira...
Em meados de dezembro eu entro de férias, aí eu volto ao tópico, inclusive abrimos outro para analisar algum caso do seu site.
Falou!
- Vitor Moura
- Mensagens: 2130
- Registrado em: 24 Out 2005, 20:13
Ei, Vitor, sua resposta ficou grande pra cacete...como eu disse no RV antigo, você e o Arduin são muito chatos...
Pô, olha que eu ainda disse que havia cortado algumas partes das mensagens....mas ficou grande mais porque eu coloquei um texto do Roberto de Andrade Martins e do Jáder Sampaio. Meu mesmo tem bem pouco...
Bom, hoje já é dia primeiro de novembro e eu estou encrencado com um monte de coisas para estudar. Além disso, como fui espancado impiedosamente pela P1 de Física Estatística, se eu não abrir o olho e me dedicar a fundo nessa reta final, eu vou acabar repetindo essa cadeira...
Em meados de dezembro eu entro de férias, aí eu volto ao tópico, inclusive abrimos outro para analisar algum caso do seu site.
Beleza! :emoticon19:
Falou!
Falou!
Pô, olha que eu ainda disse que havia cortado algumas partes das mensagens....mas ficou grande mais porque eu coloquei um texto do Roberto de Andrade Martins e do Jáder Sampaio. Meu mesmo tem bem pouco...
Bom, hoje já é dia primeiro de novembro e eu estou encrencado com um monte de coisas para estudar. Além disso, como fui espancado impiedosamente pela P1 de Física Estatística, se eu não abrir o olho e me dedicar a fundo nessa reta final, eu vou acabar repetindo essa cadeira...
Em meados de dezembro eu entro de férias, aí eu volto ao tópico, inclusive abrimos outro para analisar algum caso do seu site.
Beleza! :emoticon19:
Falou!
Falou!
Saudações, Vitor!
Continuando...
Vamos por partes. Em primeiro lugar, é necessário diferenciar o caráter probabilístico encontrado na Mecânica Quântica daquele encontrado na Física Estatística (Clássica). O programa (teórico) da Mecânica Clássica (tanto no sentido Newtoniano, quanto no sentido Relativístico) consiste na utilização de métodos matemáticos com a finalidade de obter uma função que descreva a evolução temporal de um dado sistema submetido a determinados vínculos, interações e a certas condições iniciais e de contorno. Já de cara, surge o problema clássico de 3 corpos, que só possui solução analítica sob certas condições. Não é possível tratar exatamente um problema de muitos corpos e cada área da Física terá seus meios particulares para tratar os problemas que lhes são pertinentes. A Termodinâmica é uma Ciência praticamente empírica...suas leis e princípios são obtidos diretamente (via indução) da experiência, sem qualquer tipo de derivação advinda de princípios mais básicos. A obtenção destas leis e princípios a partir de princípios e conceitos mais elementares é feita através da Teoria Cinética e da Física Estatística (principalmente esta última). Na Física Estatística, você segue algo parecido com o programa da Mecânica Clássica. Antes de mais nada, preciso mencionar que existem três formas usuais de se trabalhar em Mecânica Clássica. A primeira é resolvendo diretamente a Segunda Lei de Newton:
F = dP/dt
Essa é uma equação cuja solução, em geral, é de difícil obtenção. Felizmente, na maior parte dos casos, ela pode ser reduzida à forma:
F = m*d²x/dt²
Contudo, dependendo do caso (ou seja, da forma da função força), esta equação também pode ser demasiadamente complexa.
Lagrange desenvolveu um formalismo matemático (o Formalismo Lagrangiano) mais sofisticado que o Formalismo Newtoniano, contudo, equivalente a este, sob certas restrições (satisfeitas na maior parte dos casos de interesse), ao menos na sua forma mais simples, dada pela última equação anteriormente referida. O Formalismo Lagrangiano é particularmente útil se não estivermos interessados nos vínculos do sistema (que também podem ser tratados por este formalismo, com o auxílio dos Multiplicadores de Lagrange), já que trabalhamos, neste formalismo, em um espaço de coordenadas generalizadas. O programa aqui consiste (em Física de Partículas Clássica) na obtenção da Função Lagrangiana (L = T - V) e na resolução das Equações de Euler-Lagrange, que descrevem a evolução temporal do sistema. Assim como no Formalismo Newtoniano, estas equações são de segunda ordem, sendo que, em geral, são mais simples de se resolver. Uma diferença importante aqui é que no Formalismo Lagrangiano deixa-se de lado o conceito de força para se trabalhar com o conceito de energia. Enquanto no Formalismo Newtoniano temos que conhecer a força que atua sobre o sistema (e forças internas também, quando for o caso), no Formalismo Lagrangiano temos que saber descrever a energia do sistema. Em ambos os casos, pelo menos a princípio, somos capazes de obter a evolução temporal do sistema. A terceira forma de se trabalhar em Mecânica Clássica consiste na utilização de um outro formalismo matemático, criado por Hamilton, o Formalismo Hamiltoniano. Neste formalismo, a partir da aplicação de uma Transformada de Legendre à Função Lagrangiana, construímos uma outra função, a chamada Função Hamiltoniana e temos agora um outro conjunto de equações de evolução temporal para resolver: as Equações de Hamilton. Ao contrário dos formalismos anteriores, estas equações são de primeira ordem mas, em compensação, temos que resolver o dobro do número de equações que tínhamos para resolver no Formalismo de Lagrange (é o preço que se paga por se passar do espaço das coordenadas generalizadas para o espaço de fases, que tem o dobro de dimensões do primeiro). Dependendo do caso, pode ser mais proveitoso trabalhar no Formalismo Hamiltoniano. Detalhes sobre estes aspectos formais da Mecânica Clássica podem ser encontrados no célebre livro "Classical Mechanics"de Herbert Goldstein da Universidade de Harvard (livro padrão adotado nas cadeiras de Mecânica Analítica).
Permita-me aqui fazer um breve interlúdio para comentar um ponto que tenho visto ser freqüentemente mal compreendido neste fórum. Normalmente a Lei de Gravitação de Newton é apresentada na forma:
F = m*M*G/(r^2)
E nego se mete a dizer que a teoria do Big Bang está errada, pois dada esta expressão, e considerando um início de universo extremamente denso, o mesmo deveria ter colapsado logo nos seus instantes iniciais. Nada mais equivocado. Em primeiro lugar, esta sequer é a expressão geral da Gravitação mesmo em Mecânica Clássica (no sentido Newtoniano do termo). Isso daí é válido para o caso de dois sistemas separados cujos centros de gravidade distem r. No caso geral, podemos considerar a dinâmica de um corpo imerso numa distribuição qualquer de matéria. Neste caso, deve-se considerar a forma geral da teoria, levando em conta o potencial gravitacional que é solução de uma Equação de Poisson envolvendo a distribuição de matéria do meio considerado. Dependendo da forma desta função, a Lei de Gravitação pode adquirir uma forma completamente diferente. Mas, ainda assim, esta é apenas uma teoria clássica, válida dentro de um domínio de baixas velocidades e campos fracos. Aqui entra o ponto importante. Em Teorias de Campos, trabalhamos com os Formalismos de Lagrange e Hamilton e não com o Formalismo de Newton. Portanto, abandona-se o conceito de força. Aqui (em Teorias de Campos) as coisas são mais complicadas que em Física de Partículas. Ao contrário do que fazíamos anteriomente (obtenção da Função Lagrangiana via definição L = T - V), como estamos nos domínios da Relatividade e temos que levar em conta o Princípio de Covariância sobre o qual se apóia esta teoria, temos que trabalhar com uma Função Densidade de Lagrangiana e com as Equações de Euler-Lagrange para campos, que têm a mesma forma que as equações para partículas, muito embora sua derivação via Princípio de Hamilton (Princípio da Mínima Ação) seja um pouco diferente (e mais complicada), devendo se fazer uma certa hipótese sobre o comportamento dos campos nos contornos utilizados no Teorema de Gauss em quatro dimensões. O problema aqui é que você sabe quais as restrições que a Densidade de Lagrangiana tem de satisfazer (como a de ser um Escalar de Lorentz), mas não tem em mãos uma forma padrão de obtê-la. A obtenção desta função para cada caso é um dos problemas centrais em Teorias de Campo (tanto Clássica quanto Quântica). Pois bem, existe uma Densidade de Lagrangiana (Clássica, obviamente) que é responsável pelo campo gravitacional. A construção de tal objeto é algo complicado e não cabe aqui explanar, nem por alto, tal coisa (isso é tema de cadeira de Relatividade Geral, como referências, sugiro o "Introducing Einstein's Relativity" do Ray D'Inverno e o "Gravitation and Cosmology" do Weinberg). Jogando essa função nas equações E-L obtemos a famosa Equação de Campo de Einstein, que descreve a evolução espaço-temporal do campo gravitacional (o tensor métrico). Pois bem, um dos pilares da moderna Cosmologia é a Relatividade Geral e, portanto, deve-se levar em conta a Equação de Einstein (mais hipóteses extras pertencentes a cada modelo cosmológico em particular) para se estudar a evolução da história do universo, e não a equação:
F = m*M*G/(r^2)
Portanto, é um equívoco levar em conta tal equação para se fazer qualquer objeção ao Big Bang: esta equação não vale absolutamente nada nos regimes de campos fortes (e médios)! E o Big Bang é uma previsão que emerge naturalmente do modelo matemático de Friedmann-Robertson-Walker (FRW).
Bom, voltando ao tema original. Mencionados os três diferentes formalismo matemáticos pelos quais a Mecânica Clássica pode ser tratada, retornemos à Física Estatística. Como eu disse, em Física Estatística, conseguimos derivar vários resultados da Termodinâmica a partir de princípios elementares. E como isso é feito?! Bom, pegamos carona no Formalismo Hamiltoniano (fundamental não só em Física Estatística, mas também como ponte de ligação entre Mecânica Clássica e Mecânica Quântica). Nós precisamos escrever a Hamiltoniana do sistema. Feito isso, nos deparamos com o seguinte problema: é inviável resolver as Equações de Hamilton, mesmo que aproximadamente, para cada partícula do sistema...simplesmente não existem meios computacionais capazes de dar conta de tamanha tarefa! Então, o que fazemos é ignorar as Equações de Hamilton e passamos a trabalhar com métodos da Estatística aplicados a diferentes ensembles estatísticos (ensembles microcanônico, canônico, das pressões, grande canônico, etc...para maiores detalhes, consultar "Introdução à Física Estatística" de Sílvio Salinas, "Fundamentals of Statistical and Thermal Physics" de Federick Reif e "A Modern Course in Statistical Physics" de L. E. Reichl), buscando no Limite Termodinâmico a identificação de VALORES MÉDIOS (caráter estatístico) de grandezas fundamentais microscópicas com parâmetros fenomenológicos macroscópicos da Termodinâmica. E, conseguimos, de fato, deduzir vários resultados da Termodinâmica a partir de princípios básicos desta forma! Perceba que, por motivos operacionais, negligenciamos a busca da solução completa do sistema (resolução das Equações de Hamilton). Está claro aí que o caráter probabilístico trabalhado neste caso (ao menos na Física Estatística Clássica) advém deste negligenciamento e não de qualquer indeterminismo intrínseco da natureza.
Isso é fundamentalmente diferente do que ocorre na Mecânica Quântica. Bom, em primeiro lugar, recomendo como referência o "Modern Quantum Mechanics" de J. J. Sakurai, que expõe a construção formal da teoria da MQ através do Formalismo de Dirac. É espetacular notar a forma como é contruída tal teoria: diretamente dos dados experimentais, sem a inclusão de muitos postulados extras (o que não ocorre na RG)! É simplesmente a Teoria Física mas bem construída que já vi...e também a mais confirmada pelos experimentos!
Bom, obviamente que não dá para expor aqui os detalhes matemáticos que fundamentam o que vou mencionar a seguir, mas isso tudo está demonstrado no livro do Sakurai (e nos outros livros que mencionei anteriomente). Bom, sobre certas restrições (satisfeitas na maior parte dos casos de interesse), demonstra-se, em Mecânica Clássica, a igualdade entre a Hamiltoniana e a energia total do sistema:
H = E
O Formalismo de Primeira Quantização, falando de forma esquemática, consiste na transformação das variáveis canônicas clássicas em operadores, ou seja:
H => Hop
Onde H é a Hamiltoniana clássica do sistema e Hop é o Operador Hamiltoniano. Bom, como Hop é um operador, ele tem que estar atuando sobre algum objeto. Pois bem, este operador vai atuar num objeto alocado num Espaço de Hilbert, denominado aqui por u:
(Hop)u = (E)u
Esta é a famosa Equação de Schrödinger (versão estacionária). Obviamente, só apresentei um quadro esquemático aqui. A dedução da Equação de Schrödinger via Formalismo de Dirac é apresentada no Sakurai. É curioso notar que a "dedução" original apresentada por Schrödinger era bastante capenga e nada rigorosa. Ele chegou a sofrer duras críticas de Heisenberg, Einstein e outros devido à falta de rigor com a qual chegou a esta equação. A famosa e genial matemática Emily Noether teria desdenhado de tal "dedução" e tudo o que Schrödinger teria dito em sua defesa é que a "coisa funcionava" (e funciona mesmo, pelo menos de forma aproximada, fora dos domínios relativísticos, quando então temos que utilizar as Equações de Dirac e Klein-Gordon). Já Dirac, com seu formalismo matemático rigoroso, conseguiu obter de forma consistente esta equação.
O programa da Mecânica Quântica é fundamentalmente diferente do programa da Mecânica Clássica (obtenção do conjunto de funções {[r(t)]j} que descreve a evolução temporal do sistema) devido ao postulado de interpretação probabilística da função de onda u (solução da equação de Schrödinger). Na Mecânica Quântica estamos interessados em obter a função de onda u, sendo que o seu produto pelo seu complexo conjugado u* fornece a função densidade de probabilidade, |u|², a partir do qual podemos calcular os valores esperados (caráter probabilístico) dos observáveis. Esta interpretação da função de onda é devida a Max Born. A justificativa ou os argumentos a favor da plausibilidade de tal interpretação são encontrados em quaisquer livros de MQ: Sakurai, Gasiorowicz, Griffiths, Cohen-Tannoudji, etc. Este é o postulado central, o cerne da MQ. O ponto é que na construção da teoria são utilizados TODOS os observáveis (operadores) derivados das variáveis canônicas clássicas (momentum e posição). Nada conhecido é negligenciado e, portanto, temos aqui algo completamente diferente do que é feito em Física Estatística. Quando é dito que uma suposição de aleatoriedade é inserida no âmago da teoria, por uma questão de rigor, devo dizer que discordo, na verdade, esta aleatoriedade é decorrente do postulado de interpretação probabilística. Esse postulado é a coluna vertebral da MQ. Se ele vale, então como seria possível salvar o determinismo?! E se não vale, então, qual diabos é a interpretação correta da função |u|²?! E por que |u|² e toda a estrutura matemática da MQ se comportam de forma a gerar resultados COMPLETAMENTE COMPATÍVEIS com a interpretação probabilística de Max Born?! De que outra forma tais resultados poderiam emergir, senão da interpretação de |u|² como sendo uma densidade de probabilidade (sim, pois os resultados devem ser os mesmos obtidos pela teoria da MQ, já que tais resultados foram confirmados experimentalmente)?! Os proponentes do determinismo devem responder estas perguntas se quiserem sustentar tal posição filosófica. Talvez o caminho (se é que existe um) seja através de teorias de Variáveis Ocultas. O último grande proponente de Variáveis Ocultas foi David Bohm. E eu vou ser sincero com você: eu não sei quase nada sobre Variáveis Ocultas. A grande maioria dos Físicos dão tais teorias por derrotadas. Eu ia começar a ler algo sério sobre Desigualdade de Bell e Efeito EPR no Sakurai, mas estou sem tempo no momento. Estou atrasado...o meu orientador mandou eu ler sobre Equações de Boltzmann (tópico de Física Estatística) e eu nem cheguei perto ainda...estou meio lascado esta semana...talvez semestre que vem eu tenha mais conhecimento para comentar algo a respeito...de qualquer forma, vou pedir pro Fayman dar uma passada neste tópico...se não me falha a memória, ele já leu a respeito de Variáveis Ocultas e talvez possa fazer colocações interessantes aqui...
Bom, Biologia não é a minha área. Já tinha ouvido falar deste tal Neo-Darwinismo mas, para ser sincero, não faço idéia de qual sejam as diferenças entre um e outro...
Quanto aos supostos fenômenos paranormais, sem condição de querer colocar isso no âmbito da Biologia...nego vai ter que ralar muito em Pesquisa Psi para dar consistência a tais alegações. Vão ter que ralar para fazer modelos teóricos também. Isso não é obrigação dos biólogos, assim como, a princípio, não é obrigação dos físicos derivar matematicamente leis da Biologia a partir de princípios básicos. Não que isso não possa vir a ser feito no futuro...muitos físicos da área de Física Estatística e Fenômenos Fora do Equilíbrio vem trabalhando em cima de Biologia Quantitativa...mas as coisas vão saindo lentamente...enquanto isso, os biólogos seguem com os seus próprios métodos de trabalho...
Estou de pleno acordo. Acho um absurdo chamarem memética de Ciência. Certa vez, numa discussão no extinto Fórum da STR, inquiri acerca da cientificidade de tal proposta e me disseram que o objetivo de Dawkins não era propor uma teoria científica, mas apenas fazer uma analogia ilustrativa. Isso não me parece compatível com a postura de algumas pessoas que parecem citar claramente tal analogia como se fosse algo científico...
Cara, formalmente Popper está plenamente correto. O empreendimento científico se baseia (ou se baseava) no processo da indução e não em deduções. Partimos da observação de casos particulares e formulamos princípios e leis de validade geral. Ora, isso é LOGICAMENTE INVÁLIDO! Você não pode dizer que porque ocorreu A nos tempos t1, t2, t3, ..., tN irá ocorrer A nos tempos {tN+J}. No entanto, é isso o que fazemos (ou fazíamos) em Ciência. O correto é hipotetizar que A irá ocorrer nos tempos {tN+J}. Tal hipótese é claramente falseável, pois se não ocorrer A em qualquer um dos tempos do conjunto {tN+J}, teremos DEMONSTRADO (agora sim!) que tal hipótese é FALSA! Contudo, não podemos demonstrar nunca que tal hipótese é verdadeira, já que não temos como abarcar experimentalmente a totalidade dos tempos do conjunto {tN+J} em um intervalo de tempo finito (a não ser que o próprio conjunto seja finito).
O autor admite aqui que o espiritismo não é falseável. E, de fato, não é mesmo. As perguntas que falseariam o espiritismo (que eu fiz anteriomente e que o autor também faz) não podem ser respondidas. Aí o autor parte para outro ponto com a pergunta: "o que é mais verificável"?! Ora, como eu disse, em Ciência, não se verifica nada. Ou a coisa foi falseada ou não foi. Se não foi falseada (mas é falseável), a teoria segue sendo adotada, apesar de não ter sido verificada. E se a teoria não pode ser falseada, ela não faz parte do escopo da Ciência. O espiritismo não é falseável, logo, não é científico.
Sinto muito, mas isso é inaceitável. ESTE É o critério de demarcação entre teorias científicas e não científicas. E não vai ser porque o autor quer (sabe-se lá porque) colocar o espiritismo no hall das teorias científicas que teremos que modificar as definições da Epistemologia. Ora, temos um critério claro e objetivo que distingue Ciência de não-Ciência (o falseamento) e vamos abrir mão deste critério, descaracterizando o conceito de Ciência, apenas para dizer que o espiritismo é científico?! Isso não faz sentido algum!
O ponto é simples: se Supercordas não é uma teoria falseável, então ela não é científica. Pode ser que o modelo matemático ainda não tenha sido desenvolvido de forma suficiente para gerar previsões além dos fatos já conhecidos (e, portanto, a teoria ainda não teria atingido um estágio científico ou falseável). Bom, eu não sei nada sobre Supercordas. Vou pedir ao Fayman para dar a sua opinião com relação a esta afirmação que você fez. Talvez ele conheça alguma previsão falseável da teoria de Supercordas (caso exista alguma)...
Não é necessário definir algo que não seja científico pela alcunha de "pseudociência". Isso pode ficar apenas para designar atividades que não sejam científicas mas que tentem se passar como tal. Metafísica não é Ciência, mas não vejo muito sentido em demoniná-la de pseudociência...
Isso não é verdade. Uma hipótese pode nascer de forma não-científica e adquirir caráter científico admitindo modificações em sua estrutura com o tempo. A questão aqui é que algumas pessoas estão com uma visão limitada das coisas...algo como: "se não é científico, deve ser ignorado"...quem foi que disso isso?! Não há motivos para se adotar tal postura. Portanto, não se segue que a delimitação entre Ciência e não-Ciência prejudique o desenvolvimento da primeira...
Bom, essas pessoas são um tanto quanto frescas, na minha opinião. Existe uma definição de Método Científico (do qual faz parte o critério de falseamento de Popper) e aquilo que não utiliza tal método não é científico. Se o cara ficou sentido (sabe-se lá porque) por trabalhar com algo não-Científico, é problema dele.
Esse cara está viajando na maionese. Ciência é apenas uma DEFINIÇÃO. Ciência é A, B e C. Seja D, então isso não é Ciência. Simples e objetivo. Eu defino momentum como sendo p = m*v. Não tenho que demonstrar que essa definição é correta (?!)...isso é um completo absurdo! É apenas uma definição, ela não está certa ou errada.
O que isso tem haver com a discussão?!
Bom, se todos os filósofos trabalham com essa definição de Ciência ou não eu não sei. O que eu sei é que é essa definição de Ciência que é empregada em pesquisas científicas em universidades e centros de pesquisa. É com essa definição que físicos, químicos, biólogos, médicos e neurocientistas trabalham.
Pois é...esse Feyerabend é (ou foi) um zé arroela. Manda a mãe e a filha dele se tratarem com um curandeiro e manda o astrólogo dele calcular a órbita do cometa Halley...e depois nós vemos os RESULTADOS...
Isso é completamente inútil. "Astrologia é Ciência porque eu quero". Não, não cola. Se o cara quer definir Ciência dessa forma, o problema é dele. O meio acadêmico continua com a definição usual.
Grifo meu.
É mais conveniente por quais motivos?!
Na prática, a proposta do cara muda o quê?! Astrologia continua sendo o lixo que sempre foi, só que agora ganha o adjetivo "Ciência de nível boçal" e a Astronomia, que consegue prever e descrever de forma quantitativa inúmeras coisas fica com o adjetivo "Ciência de alto nível". E isso para que, afinal?! O cara tem todo o direito de utilizar a definição que ele quiser...se ele quiser chamar de Ciência a atividade de fumar maconha pulando amarelinha com um pijama de bolas pretas ele tem todo o direito de fazê-lo, o ponto é que o meio acadêmico, com certeza, não vai adotar a definição dele...
Só se ele estiver falando de medição direta, porque estimativas indiretas podem ser feitas sim...
Memes e Complexo de Édipo não são exceções à regra: não são falseáveis e, portanto, não são teses científicas. Supercordas eu já disse que não conheço para opinar. Quanto aos Táquions, me parecem objetos estranhos, já que se você joga v > c nas Transformações de Lorentz elas adquirem valores imaginários, cuja interpretação física não faço idéia de qual seja. Mas também não tenho conhecimento suficiente sobre o tema para comentar.
(Editei o link acima).
Cara, o texto é muito grande e simplesmente não tenho tempo no momento para ler algo tão extenso. O texto tenta, em algum momento, defender a idéia de que a reencarnação é algo falseável?! Em caso positivo, acho melhor transcrever o trecho específico que trata deste ponto aqui.
Anteriormente ao advento da MQ e da RG eu até concordaria com você que o ramo das Equações Diferenciais (ordinárias e parciais) era o mais importante no estudo dos fenômenos naturais, mas, atualmente, embora tal campo continue tendo uma importância fundamental, outros ramos da Matemática, tais como Topologia, Álgebra Pura (principalmente tópicos relativos a Teorias de Grupo), Geometria Diferencial e Análise Tensorial adquiriram praticamente o mesmo grau de importância dentro da Física...não é possível tratar as teorias atuais sem estas ferramentas.
Bom, devo dizer que discordo.
Falou!
Continuando...
“According to current quantum theory, there are "causeless" uninfluenceable events -- events that happen purely at random. These include radioactive decay, thermal noise fluctuations, and measurements of superposed quantum states. Quantum theory remains silent on just how this happens, and how a particular outcome is chosen from those that are possible in a given superposition. In truth, an assumption of randomness has been included at the core of quantum theory out of necessity and because of its success in describing observed statistical behavior in the physical world.”
(...)
***Peço que você preste atenção que o autor colocou “acausais” entre aspas. Se isso estivesse de fato consumado na Mecânica Quântica, por que as aspas?
***Como disse o autor: “Na verdade, uma SUPOSIÇÃO de aleatoriedade foi incluída no âmago da teoria quântica devido a uma necessidade e por causa de seu sucesso em descrever comportamentos estatísticos observados no mundo físico.”
Vamos por partes. Em primeiro lugar, é necessário diferenciar o caráter probabilístico encontrado na Mecânica Quântica daquele encontrado na Física Estatística (Clássica). O programa (teórico) da Mecânica Clássica (tanto no sentido Newtoniano, quanto no sentido Relativístico) consiste na utilização de métodos matemáticos com a finalidade de obter uma função que descreva a evolução temporal de um dado sistema submetido a determinados vínculos, interações e a certas condições iniciais e de contorno. Já de cara, surge o problema clássico de 3 corpos, que só possui solução analítica sob certas condições. Não é possível tratar exatamente um problema de muitos corpos e cada área da Física terá seus meios particulares para tratar os problemas que lhes são pertinentes. A Termodinâmica é uma Ciência praticamente empírica...suas leis e princípios são obtidos diretamente (via indução) da experiência, sem qualquer tipo de derivação advinda de princípios mais básicos. A obtenção destas leis e princípios a partir de princípios e conceitos mais elementares é feita através da Teoria Cinética e da Física Estatística (principalmente esta última). Na Física Estatística, você segue algo parecido com o programa da Mecânica Clássica. Antes de mais nada, preciso mencionar que existem três formas usuais de se trabalhar em Mecânica Clássica. A primeira é resolvendo diretamente a Segunda Lei de Newton:
F = dP/dt
Essa é uma equação cuja solução, em geral, é de difícil obtenção. Felizmente, na maior parte dos casos, ela pode ser reduzida à forma:
F = m*d²x/dt²
Contudo, dependendo do caso (ou seja, da forma da função força), esta equação também pode ser demasiadamente complexa.
Lagrange desenvolveu um formalismo matemático (o Formalismo Lagrangiano) mais sofisticado que o Formalismo Newtoniano, contudo, equivalente a este, sob certas restrições (satisfeitas na maior parte dos casos de interesse), ao menos na sua forma mais simples, dada pela última equação anteriormente referida. O Formalismo Lagrangiano é particularmente útil se não estivermos interessados nos vínculos do sistema (que também podem ser tratados por este formalismo, com o auxílio dos Multiplicadores de Lagrange), já que trabalhamos, neste formalismo, em um espaço de coordenadas generalizadas. O programa aqui consiste (em Física de Partículas Clássica) na obtenção da Função Lagrangiana (L = T - V) e na resolução das Equações de Euler-Lagrange, que descrevem a evolução temporal do sistema. Assim como no Formalismo Newtoniano, estas equações são de segunda ordem, sendo que, em geral, são mais simples de se resolver. Uma diferença importante aqui é que no Formalismo Lagrangiano deixa-se de lado o conceito de força para se trabalhar com o conceito de energia. Enquanto no Formalismo Newtoniano temos que conhecer a força que atua sobre o sistema (e forças internas também, quando for o caso), no Formalismo Lagrangiano temos que saber descrever a energia do sistema. Em ambos os casos, pelo menos a princípio, somos capazes de obter a evolução temporal do sistema. A terceira forma de se trabalhar em Mecânica Clássica consiste na utilização de um outro formalismo matemático, criado por Hamilton, o Formalismo Hamiltoniano. Neste formalismo, a partir da aplicação de uma Transformada de Legendre à Função Lagrangiana, construímos uma outra função, a chamada Função Hamiltoniana e temos agora um outro conjunto de equações de evolução temporal para resolver: as Equações de Hamilton. Ao contrário dos formalismos anteriores, estas equações são de primeira ordem mas, em compensação, temos que resolver o dobro do número de equações que tínhamos para resolver no Formalismo de Lagrange (é o preço que se paga por se passar do espaço das coordenadas generalizadas para o espaço de fases, que tem o dobro de dimensões do primeiro). Dependendo do caso, pode ser mais proveitoso trabalhar no Formalismo Hamiltoniano. Detalhes sobre estes aspectos formais da Mecânica Clássica podem ser encontrados no célebre livro "Classical Mechanics"de Herbert Goldstein da Universidade de Harvard (livro padrão adotado nas cadeiras de Mecânica Analítica).
Permita-me aqui fazer um breve interlúdio para comentar um ponto que tenho visto ser freqüentemente mal compreendido neste fórum. Normalmente a Lei de Gravitação de Newton é apresentada na forma:
F = m*M*G/(r^2)
E nego se mete a dizer que a teoria do Big Bang está errada, pois dada esta expressão, e considerando um início de universo extremamente denso, o mesmo deveria ter colapsado logo nos seus instantes iniciais. Nada mais equivocado. Em primeiro lugar, esta sequer é a expressão geral da Gravitação mesmo em Mecânica Clássica (no sentido Newtoniano do termo). Isso daí é válido para o caso de dois sistemas separados cujos centros de gravidade distem r. No caso geral, podemos considerar a dinâmica de um corpo imerso numa distribuição qualquer de matéria. Neste caso, deve-se considerar a forma geral da teoria, levando em conta o potencial gravitacional que é solução de uma Equação de Poisson envolvendo a distribuição de matéria do meio considerado. Dependendo da forma desta função, a Lei de Gravitação pode adquirir uma forma completamente diferente. Mas, ainda assim, esta é apenas uma teoria clássica, válida dentro de um domínio de baixas velocidades e campos fracos. Aqui entra o ponto importante. Em Teorias de Campos, trabalhamos com os Formalismos de Lagrange e Hamilton e não com o Formalismo de Newton. Portanto, abandona-se o conceito de força. Aqui (em Teorias de Campos) as coisas são mais complicadas que em Física de Partículas. Ao contrário do que fazíamos anteriomente (obtenção da Função Lagrangiana via definição L = T - V), como estamos nos domínios da Relatividade e temos que levar em conta o Princípio de Covariância sobre o qual se apóia esta teoria, temos que trabalhar com uma Função Densidade de Lagrangiana e com as Equações de Euler-Lagrange para campos, que têm a mesma forma que as equações para partículas, muito embora sua derivação via Princípio de Hamilton (Princípio da Mínima Ação) seja um pouco diferente (e mais complicada), devendo se fazer uma certa hipótese sobre o comportamento dos campos nos contornos utilizados no Teorema de Gauss em quatro dimensões. O problema aqui é que você sabe quais as restrições que a Densidade de Lagrangiana tem de satisfazer (como a de ser um Escalar de Lorentz), mas não tem em mãos uma forma padrão de obtê-la. A obtenção desta função para cada caso é um dos problemas centrais em Teorias de Campo (tanto Clássica quanto Quântica). Pois bem, existe uma Densidade de Lagrangiana (Clássica, obviamente) que é responsável pelo campo gravitacional. A construção de tal objeto é algo complicado e não cabe aqui explanar, nem por alto, tal coisa (isso é tema de cadeira de Relatividade Geral, como referências, sugiro o "Introducing Einstein's Relativity" do Ray D'Inverno e o "Gravitation and Cosmology" do Weinberg). Jogando essa função nas equações E-L obtemos a famosa Equação de Campo de Einstein, que descreve a evolução espaço-temporal do campo gravitacional (o tensor métrico). Pois bem, um dos pilares da moderna Cosmologia é a Relatividade Geral e, portanto, deve-se levar em conta a Equação de Einstein (mais hipóteses extras pertencentes a cada modelo cosmológico em particular) para se estudar a evolução da história do universo, e não a equação:
F = m*M*G/(r^2)
Portanto, é um equívoco levar em conta tal equação para se fazer qualquer objeção ao Big Bang: esta equação não vale absolutamente nada nos regimes de campos fortes (e médios)! E o Big Bang é uma previsão que emerge naturalmente do modelo matemático de Friedmann-Robertson-Walker (FRW).
Bom, voltando ao tema original. Mencionados os três diferentes formalismo matemáticos pelos quais a Mecânica Clássica pode ser tratada, retornemos à Física Estatística. Como eu disse, em Física Estatística, conseguimos derivar vários resultados da Termodinâmica a partir de princípios elementares. E como isso é feito?! Bom, pegamos carona no Formalismo Hamiltoniano (fundamental não só em Física Estatística, mas também como ponte de ligação entre Mecânica Clássica e Mecânica Quântica). Nós precisamos escrever a Hamiltoniana do sistema. Feito isso, nos deparamos com o seguinte problema: é inviável resolver as Equações de Hamilton, mesmo que aproximadamente, para cada partícula do sistema...simplesmente não existem meios computacionais capazes de dar conta de tamanha tarefa! Então, o que fazemos é ignorar as Equações de Hamilton e passamos a trabalhar com métodos da Estatística aplicados a diferentes ensembles estatísticos (ensembles microcanônico, canônico, das pressões, grande canônico, etc...para maiores detalhes, consultar "Introdução à Física Estatística" de Sílvio Salinas, "Fundamentals of Statistical and Thermal Physics" de Federick Reif e "A Modern Course in Statistical Physics" de L. E. Reichl), buscando no Limite Termodinâmico a identificação de VALORES MÉDIOS (caráter estatístico) de grandezas fundamentais microscópicas com parâmetros fenomenológicos macroscópicos da Termodinâmica. E, conseguimos, de fato, deduzir vários resultados da Termodinâmica a partir de princípios básicos desta forma! Perceba que, por motivos operacionais, negligenciamos a busca da solução completa do sistema (resolução das Equações de Hamilton). Está claro aí que o caráter probabilístico trabalhado neste caso (ao menos na Física Estatística Clássica) advém deste negligenciamento e não de qualquer indeterminismo intrínseco da natureza.
Isso é fundamentalmente diferente do que ocorre na Mecânica Quântica. Bom, em primeiro lugar, recomendo como referência o "Modern Quantum Mechanics" de J. J. Sakurai, que expõe a construção formal da teoria da MQ através do Formalismo de Dirac. É espetacular notar a forma como é contruída tal teoria: diretamente dos dados experimentais, sem a inclusão de muitos postulados extras (o que não ocorre na RG)! É simplesmente a Teoria Física mas bem construída que já vi...e também a mais confirmada pelos experimentos!
Bom, obviamente que não dá para expor aqui os detalhes matemáticos que fundamentam o que vou mencionar a seguir, mas isso tudo está demonstrado no livro do Sakurai (e nos outros livros que mencionei anteriomente). Bom, sobre certas restrições (satisfeitas na maior parte dos casos de interesse), demonstra-se, em Mecânica Clássica, a igualdade entre a Hamiltoniana e a energia total do sistema:
H = E
O Formalismo de Primeira Quantização, falando de forma esquemática, consiste na transformação das variáveis canônicas clássicas em operadores, ou seja:
H => Hop
Onde H é a Hamiltoniana clássica do sistema e Hop é o Operador Hamiltoniano. Bom, como Hop é um operador, ele tem que estar atuando sobre algum objeto. Pois bem, este operador vai atuar num objeto alocado num Espaço de Hilbert, denominado aqui por u:
(Hop)u = (E)u
Esta é a famosa Equação de Schrödinger (versão estacionária). Obviamente, só apresentei um quadro esquemático aqui. A dedução da Equação de Schrödinger via Formalismo de Dirac é apresentada no Sakurai. É curioso notar que a "dedução" original apresentada por Schrödinger era bastante capenga e nada rigorosa. Ele chegou a sofrer duras críticas de Heisenberg, Einstein e outros devido à falta de rigor com a qual chegou a esta equação. A famosa e genial matemática Emily Noether teria desdenhado de tal "dedução" e tudo o que Schrödinger teria dito em sua defesa é que a "coisa funcionava" (e funciona mesmo, pelo menos de forma aproximada, fora dos domínios relativísticos, quando então temos que utilizar as Equações de Dirac e Klein-Gordon). Já Dirac, com seu formalismo matemático rigoroso, conseguiu obter de forma consistente esta equação.
O programa da Mecânica Quântica é fundamentalmente diferente do programa da Mecânica Clássica (obtenção do conjunto de funções {[r(t)]j} que descreve a evolução temporal do sistema) devido ao postulado de interpretação probabilística da função de onda u (solução da equação de Schrödinger). Na Mecânica Quântica estamos interessados em obter a função de onda u, sendo que o seu produto pelo seu complexo conjugado u* fornece a função densidade de probabilidade, |u|², a partir do qual podemos calcular os valores esperados (caráter probabilístico) dos observáveis. Esta interpretação da função de onda é devida a Max Born. A justificativa ou os argumentos a favor da plausibilidade de tal interpretação são encontrados em quaisquer livros de MQ: Sakurai, Gasiorowicz, Griffiths, Cohen-Tannoudji, etc. Este é o postulado central, o cerne da MQ. O ponto é que na construção da teoria são utilizados TODOS os observáveis (operadores) derivados das variáveis canônicas clássicas (momentum e posição). Nada conhecido é negligenciado e, portanto, temos aqui algo completamente diferente do que é feito em Física Estatística. Quando é dito que uma suposição de aleatoriedade é inserida no âmago da teoria, por uma questão de rigor, devo dizer que discordo, na verdade, esta aleatoriedade é decorrente do postulado de interpretação probabilística. Esse postulado é a coluna vertebral da MQ. Se ele vale, então como seria possível salvar o determinismo?! E se não vale, então, qual diabos é a interpretação correta da função |u|²?! E por que |u|² e toda a estrutura matemática da MQ se comportam de forma a gerar resultados COMPLETAMENTE COMPATÍVEIS com a interpretação probabilística de Max Born?! De que outra forma tais resultados poderiam emergir, senão da interpretação de |u|² como sendo uma densidade de probabilidade (sim, pois os resultados devem ser os mesmos obtidos pela teoria da MQ, já que tais resultados foram confirmados experimentalmente)?! Os proponentes do determinismo devem responder estas perguntas se quiserem sustentar tal posição filosófica. Talvez o caminho (se é que existe um) seja através de teorias de Variáveis Ocultas. O último grande proponente de Variáveis Ocultas foi David Bohm. E eu vou ser sincero com você: eu não sei quase nada sobre Variáveis Ocultas. A grande maioria dos Físicos dão tais teorias por derrotadas. Eu ia começar a ler algo sério sobre Desigualdade de Bell e Efeito EPR no Sakurai, mas estou sem tempo no momento. Estou atrasado...o meu orientador mandou eu ler sobre Equações de Boltzmann (tópico de Física Estatística) e eu nem cheguei perto ainda...estou meio lascado esta semana...talvez semestre que vem eu tenha mais conhecimento para comentar algo a respeito...de qualquer forma, vou pedir pro Fayman dar uma passada neste tópico...se não me falha a memória, ele já leu a respeito de Variáveis Ocultas e talvez possa fazer colocações interessantes aqui...
***A Teoria Darwinista já foi falseada. O que se tem hoje é o Neo-Darwinismo. E que já foi, de certa forma, falseado. Como encaixar os fenômenos paranormais – que, estou bastante convencido, existem – no Neo-Darwinismo? Existem alguns modelos, mas entenda que isso exigirá uma boa re-análise.
Bom, Biologia não é a minha área. Já tinha ouvido falar deste tal Neo-Darwinismo mas, para ser sincero, não faço idéia de qual sejam as diferenças entre um e outro...
Quanto aos supostos fenômenos paranormais, sem condição de querer colocar isso no âmbito da Biologia...nego vai ter que ralar muito em Pesquisa Psi para dar consistência a tais alegações. Vão ter que ralar para fazer modelos teóricos também. Isso não é obrigação dos biólogos, assim como, a princípio, não é obrigação dos físicos derivar matematicamente leis da Biologia a partir de princípios básicos. Não que isso não possa vir a ser feito no futuro...muitos físicos da área de Física Estatística e Fenômenos Fora do Equilíbrio vem trabalhando em cima de Biologia Quantitativa...mas as coisas vão saindo lentamente...enquanto isso, os biólogos seguem com os seus próprios métodos de trabalho...
***A Teoria dos Memes de Richard Dawkins não é falseável.
Estou de pleno acordo. Acho um absurdo chamarem memética de Ciência. Certa vez, numa discussão no extinto Fórum da STR, inquiri acerca da cientificidade de tal proposta e me disseram que o objetivo de Dawkins não era propor uma teoria científica, mas apenas fazer uma analogia ilustrativa. Isso não me parece compatível com a postura de algumas pessoas que parecem citar claramente tal analogia como se fosse algo científico...
“Quando Popper pensou na falsificação (invertendo a lógica da verificabilidade) ele pensou em leis e outras relações entre conceitos. Em minha opinião, é uma visão estreita de ciência. Na minha opinião, dizer que "existe um planeta depois de Urano, no sistema solar", é uma questão científica. A percepção partilhada deste planeta por diferentes observatórios (seja por que tipo de aparelho for) e o estudo da influência gravitacional deste planeta sobre os demais (que foi o que o o astrônomo Lê Verrier fez empregando matemática e os dados conhecidos sobre as órbitas dos planetas) são evidências científicas para aceitar a sua existência (embora não sejam provas cabais). Empregando o mesmo método, dizem os historiadores da ciência que Le Verrier errou em outros casos, apesar de ter acertado no caso de Netuno.”
Cara, formalmente Popper está plenamente correto. O empreendimento científico se baseia (ou se baseava) no processo da indução e não em deduções. Partimos da observação de casos particulares e formulamos princípios e leis de validade geral. Ora, isso é LOGICAMENTE INVÁLIDO! Você não pode dizer que porque ocorreu A nos tempos t1, t2, t3, ..., tN irá ocorrer A nos tempos {tN+J}. No entanto, é isso o que fazemos (ou fazíamos) em Ciência. O correto é hipotetizar que A irá ocorrer nos tempos {tN+J}. Tal hipótese é claramente falseável, pois se não ocorrer A em qualquer um dos tempos do conjunto {tN+J}, teremos DEMONSTRADO (agora sim!) que tal hipótese é FALSA! Contudo, não podemos demonstrar nunca que tal hipótese é verdadeira, já que não temos como abarcar experimentalmente a totalidade dos tempos do conjunto {tN+J} em um intervalo de tempo finito (a não ser que o próprio conjunto seja finito).
“Como os fenômenos atribuídos aos espíritos dependem de uma vontade externa ao suposto médium, ele é passível de observação, mas de difícil falsificação. Para falsificá-los seria necessário responder à seguinte pergunta: o que é necessário ser feito para que eu tenha certeza que os espíritos não existem? Ou o que é necessário ser feito para eu tenha certeza que a alma não sobrevive à morte? Este tipo de pergunta é de difícil operacionalização. O que é mais verificável é: o que sabe um suposto médium que ele não deveria saber?
O autor admite aqui que o espiritismo não é falseável. E, de fato, não é mesmo. As perguntas que falseariam o espiritismo (que eu fiz anteriomente e que o autor também faz) não podem ser respondidas. Aí o autor parte para outro ponto com a pergunta: "o que é mais verificável"?! Ora, como eu disse, em Ciência, não se verifica nada. Ou a coisa foi falseada ou não foi. Se não foi falseada (mas é falseável), a teoria segue sendo adotada, apesar de não ter sido verificada. E se a teoria não pode ser falseada, ela não faz parte do escopo da Ciência. O espiritismo não é falseável, logo, não é científico.
“Eu admito que a falsificação, como atitude científica (um cientista deve sempre estar aberto a mudar seus paradigmas e analisar o contradito), é muito saudável e indispensável, mas que a falsificação não é um critério de demarcação entre teorias científicas e não científicas.
Sinto muito, mas isso é inaceitável. ESTE É o critério de demarcação entre teorias científicas e não científicas. E não vai ser porque o autor quer (sabe-se lá porque) colocar o espiritismo no hall das teorias científicas que teremos que modificar as definições da Epistemologia. Ora, temos um critério claro e objetivo que distingue Ciência de não-Ciência (o falseamento) e vamos abrir mão deste critério, descaracterizando o conceito de Ciência, apenas para dizer que o espiritismo é científico?! Isso não faz sentido algum!
***Apenas para citar mais um caso da Física, a Teoria das Super-Cordas não é falseável, mas faz parte do mainstream científico.
O ponto é simples: se Supercordas não é uma teoria falseável, então ela não é científica. Pode ser que o modelo matemático ainda não tenha sido desenvolvido de forma suficiente para gerar previsões além dos fatos já conhecidos (e, portanto, a teoria ainda não teria atingido um estágio científico ou falseável). Bom, eu não sei nada sobre Supercordas. Vou pedir ao Fayman para dar a sua opinião com relação a esta afirmação que você fez. Talvez ele conheça alguma previsão falseável da teoria de Supercordas (caso exista alguma)...
***Mas Rômulo, mesmo a psicologia e a psicanálise possuem componentes não científicos, resultantes de necessários elementos de ordem subjetiva, intuitiva, etc. Segundo Popper, são pseudo-ciências. Acho temeroso jogar fora tudo que essas áreas conseguiram. Há um movimento nos estados Unidos que quer a retirada da Psicologia e da Psicanálise das Universidades pelos "discípulos de Popper".
Não é necessário definir algo que não seja científico pela alcunha de "pseudociência". Isso pode ficar apenas para designar atividades que não sejam científicas mas que tentem se passar como tal. Metafísica não é Ciência, mas não vejo muito sentido em demoniná-la de pseudociência...
“Esse é o problema básico da demarcação entre ciência e não-ciência. No nosso século, houve algumas tentativas de solução desse problema. Infelizmente, do modo como esse problema é usualmente entendido, ele não tem solução.”
“Qualquer que seja o critério de demarcação entre ciência e não-ciência que se proponha, ele deverá ser ou restritivo (apenas algumas coisas são admitidas como ciência, e outras são excluídas) ou nao-discriminativo ("vale tudo", isto é, tudo é ciência). No primeiro caso - isto é, se for imposta alguma restrição àquilo que é científico - o critério prejudicará o desenvolvimento da ciência, proibindo coisas que podem eventualmente se mostrar úteis;
Isso não é verdade. Uma hipótese pode nascer de forma não-científica e adquirir caráter científico admitindo modificações em sua estrutura com o tempo. A questão aqui é que algumas pessoas estão com uma visão limitada das coisas...algo como: "se não é científico, deve ser ignorado"...quem foi que disso isso?! Não há motivos para se adotar tal postura. Portanto, não se segue que a delimitação entre Ciência e não-Ciência prejudique o desenvolvimento da primeira...
além disso, esse critério irá excluir do campo científico alguma coisa que foi apresentada como científica (por exemplo: o critério de demarcação de Popper exclui da ciência a psicanálise). O grupo cujo trabalho for excluído da ciência pelo critério de demarcação não irá aceitá-lo, Na verdade, esse critério servirá apenas como um instrumento de humilhação para um grupo de pessoas, por afirmar que o que elas fazem não tem valor científico.”
Bom, essas pessoas são um tanto quanto frescas, na minha opinião. Existe uma definição de Método Científico (do qual faz parte o critério de falseamento de Popper) e aquilo que não utiliza tal método não é científico. Se o cara ficou sentido (sabe-se lá porque) por trabalhar com algo não-Científico, é problema dele.
“Por outro lado, qualquer que seja o critério proposto, ele terá grande dificuldade em ser fundamentado. Como se pode mostrar que um critério é correto? Pode-se tentar recorrer à história (a "fatos") ou recorrer apenas ao raciocínio (a prior/). Mas é impossível justificar normas e valores a partir da história: mesmo se todos os cientistas fossem unânimes em aceitar certas coisas como científicas e outras como não-científicas, isso não quer dizer que essa opinião é correta.
Esse cara está viajando na maionese. Ciência é apenas uma DEFINIÇÃO. Ciência é A, B e C. Seja D, então isso não é Ciência. Simples e objetivo. Eu defino momentum como sendo p = m*v. Não tenho que demonstrar que essa definição é correta (?!)...isso é um completo absurdo! É apenas uma definição, ela não está certa ou errada.
Ou seja; dizer que um critério é correto porque Newton ou Einstein ou qualquer grupo dizia que ele era correto, não é um argumento (falácia histórica)!5).
O que isso tem haver com a discussão?!
Sob o ponto de vista filosófico, unanimidade ou aceitação popular não tem nenhuma importância, Por outro lado, se tentarmos justificar um critério de demarcação de outra forma, cairemos no trilerna de Aristóteles. Por isso mesmo, nunca se chegou - e creio que não se poderá chegar — a um critério de demarcação aceitável a todos os filósofos.”
Bom, se todos os filósofos trabalham com essa definição de Ciência ou não eu não sei. O que eu sei é que é essa definição de Ciência que é empregada em pesquisas científicas em universidades e centros de pesquisa. É com essa definição que físicos, químicos, biólogos, médicos e neurocientistas trabalham.
“Negar a possibilidade de uma demarcação entre ciência e não-ciência pode levar a um relatívismo (ou anarquismo) epistemológico, tal como proposto por Feyerabend. De fato: ele defende que não é possível nem útil distinguir um método próprio da ciência: tudo é permitido e não se pode fazer nenhuma diferença entre a astronomia e a astrologia, entre a medicina e o curandeirismo.”
Pois é...esse Feyerabend é (ou foi) um zé arroela. Manda a mãe e a filha dele se tratarem com um curandeiro e manda o astrólogo dele calcular a órbita do cometa Halley...e depois nós vemos os RESULTADOS...
“As bases desse tipo de concepção de ciência são as seguintes”:
“1 -Admite-se como ciência tudo o que se queira chamar de ciência, mas
2 — É possível estabelecer comparações de valor cientifico e avaliar e orientar a pesquisa.
Isso é completamente inútil. "Astrologia é Ciência porque eu quero". Não, não cola. Se o cara quer definir Ciência dessa forma, o problema é dele. O meio acadêmico continua com a definição usual.
Para explicar esse tipo de concepção, vamos inicialmente fazer uma comparação. Tomemos o conceito popular de "alto". O que é-uma pessoa alta? Eu posso ser considerado alto, ou sou baixo? De um modo geral, nossa sociedade valoriza as pessoas altas e desvaloriza as baixas. Ser chamado de baixinho é humilhante (mas ser chamado de altão não o é). Se distinguirmos de modo absoluto os baixos dos altos, estaremos separando as pessoas "fisicamente corretas" das "fisicamente incorretas", ou seja, estabelecendo uma espécie de critério de demarcação entre as pessoas que possuem uma boa altura e as que possuem uma altura "errada".”
“Mas qual é o ponto de separação entre os altos e baixos? Pode-se dizer que um adulto com um metro e meio de altura é baixo e que um adulto com dois metros é alto. Mas e um adulto com um metro e setenta e cinco? e um adulto com um metro e sessenta e cinco? e um adulto com um metro e setenta? Onde está o limite?”
“Na verdade, qualquer distinção absoluta entre altos e baixos é convencional: pode-se escolher um ponto qualquer da escala de alturas e decidir-se que aquele que está abaixo daquele limite é baixo e quem está acima é alto. Mas essa decisão é arbitrária e não tem muito significado.”
“Pelo contrário, pode-se estabelecer uma distinção objetiva e significativa dizendo que uma pessoa é mais alta (ou mais baixa) do que uma outra. Para isso, não é preciso saber qual a distinção entre altos e baixos: é necessário apenas colocar uma pessoa ao lado da outra e compará-las (ou saber suas alturas e compará-las). Ao invés de um conceito absoluto, temos agora um conceito relativo, comparativo.”
“Pode-se fazer algo semelhante na análise do conceito de ciência. Ao invés de uma distinção absoluta entre científico e não-cientifico, é mais conveniente introduzir uma comparação de valores científicos, sem estabelecer uma diferença absoluta qualitativa, mas apenas quantitativa e comparativa,”
Grifo meu.
É mais conveniente por quais motivos?!
“Dessa forma, pode-se introduzir a idéia de que certo tipo de trabalho.tem maior valor científico do que um outro, sem que isso signifique que o outro não tem valor ou não é científico. Não é necessário, nesse caso, um critério de demarcação. Não é mais necessário negar o direito de chamar alguma coisa de ciência, De acordo com essa concepção não-proíbítiva, a ciência passa a ser vista como um processo pelo qual se procura obter elementos com maior valor científico. Fica sem sentido discutir se uma teoria é científica ou não: pode-se dar o nome de 'científico1 a qualquer coisa que se queira, pois o objetivo da epistemología deixa de ser o de rotular e classificar as coisas de forma absoluta. Assim, se alguém quiser dizer que a astrologia é uma ciência, não é necessário discutir essa concepção, Que seja, admitimos que se chame a astrologia ou qualquer outra coisa de ciência. Mas a questão central não é essa, e sim saber se a astrologia obedece a todos os critérios de valor científico, que são obedecidos, por exemplo, pela astronomia; e saber o que precisaria ser feito para aumentar o valor científico da astrologia. Por exemplo: se a astrologia dispusesse de estudos estatísticos mostrando que as pessoas nascidas sob tal signo {ou ascendente, ou ambos) possuem em geral tais e tais características. isso aumentaria muito o valor científico da astrologia. Também se fossem feitos testes controlados, em grande escala, de previsões astrológicas para muitas pessoas, sobre fatos objetivos, que fossem depois controlados, isso aumentaria muito o valor científico da astrologia. E quando ela se tornaria realmente uma ciência? A pergunta não tem sentido, nesse tipo de enfoque.”
Na prática, a proposta do cara muda o quê?! Astrologia continua sendo o lixo que sempre foi, só que agora ganha o adjetivo "Ciência de nível boçal" e a Astronomia, que consegue prever e descrever de forma quantitativa inúmeras coisas fica com o adjetivo "Ciência de alto nível". E isso para que, afinal?! O cara tem todo o direito de utilizar a definição que ele quiser...se ele quiser chamar de Ciência a atividade de fumar maconha pulando amarelinha com um pijama de bolas pretas ele tem todo o direito de fazê-lo, o ponto é que o meio acadêmico, com certeza, não vai adotar a definição dele...
(...)
Nem sempre isso é possível (por exemplo: não podemos medir a temperatura do interior de uma estrela)
(...)
Só se ele estiver falando de medição direta, porque estimativas indiretas podem ser feitas sim...
***Na mensagem anterior, citei Super-Cordas, Táquions, Memes e Complexo de Édipo, todas exceções à essa regra.
Memes e Complexo de Édipo não são exceções à regra: não são falseáveis e, portanto, não são teses científicas. Supercordas eu já disse que não conheço para opinar. Quanto aos Táquions, me parecem objetos estranhos, já que se você joga v > c nas Transformações de Lorentz elas adquirem valores imaginários, cuja interpretação física não faço idéia de qual seja. Mas também não tenho conhecimento suficiente sobre o tema para comentar.
***Stevenson conseguiu, a meu ver, arranjar bons argumentos que separariam a hipótese de sobrevivência (não gosto de usar o termo ‘hipótese espírita’) de psi (em que pese o Zangari pensar o contrário). Em alguns casos sugestivos de reencarnação, penso que a balança pesa a favor da hipótese de sobrevivência. Quanto à falseabilidade da reencarnação, há um texto bem interessante que trata disto, entre outras considerações, em Resposta aos Argumentos Contra a Reencarnação
(Editei o link acima).
Cara, o texto é muito grande e simplesmente não tenho tempo no momento para ler algo tão extenso. O texto tenta, em algum momento, defender a idéia de que a reencarnação é algo falseável?! Em caso positivo, acho melhor transcrever o trecho específico que trata deste ponto aqui.
***A palavra hipótese aqui não é muito boa. Penso que ele se refere, por exemplo, aos axiomas. São proposições ou afirmações consideradas evidentes, e por isso elementares Isso é muito comum na física e na matemática: a reta é um conjunto de pontos linearmente dispostos; momento de uma força (seu propósito de fazer girar) é o produto desta por uma distância perpendicular à sua linha de ação. São idéias tão fundamentais, que não se consegue aventar um outro sentido a seu respeito.
***Há também os conceitos primitivos: força, temperatura, deslocamento. Não faltam explicações para estes termos, mas todas elas remetem a valores da mesma hierarquia conceitual.
***No entanto, veja, a própria matemática apresenta problemas que possuem soluções, mas não são demonstráveis; verifica-se se elas servem por mera inspeção, pois não há uma metodologia analítica para dedução de uma solução geral.É o famoso caso da solução das equações algébricas de ordem superior a quatro: não há fórmulas disponíveis. Isto também ocorre freqüentemente no ramo das equações diferenciais parciais, que é o campo mais importante para representação do comportamento dos fenômenos naturais: basta uma relativa complexidade para que não haja solução analítica. A saída é obter uma solução aproximada.
Anteriormente ao advento da MQ e da RG eu até concordaria com você que o ramo das Equações Diferenciais (ordinárias e parciais) era o mais importante no estudo dos fenômenos naturais, mas, atualmente, embora tal campo continue tendo uma importância fundamental, outros ramos da Matemática, tais como Topologia, Álgebra Pura (principalmente tópicos relativos a Teorias de Grupo), Geometria Diferencial e Análise Tensorial adquiriram praticamente o mesmo grau de importância dentro da Física...não é possível tratar as teorias atuais sem estas ferramentas.
***Creio que o texto do Roberto Andrade Martins que lhe enviei coloca em xeque o que você disse. Mas foi uma boa tentativa, e uma excelente exposição!
Bom, devo dizer que discordo.
Falou!
"Apenas para citar mais um caso da Física, a Teoria das Super-Cordas não é falseável, mas faz parte do mainstream científico".
Vou pedir ao Fayman para dar a sua opinião com relação a esta afirmação que você fez
Olá, Viper! Vou fazer meus comentários aqui mesmo no tópico.
1- Começando pelas Supércordas:
É errado afirmar que as Supercordas não é falseável. As Supercordas ainda se encontra mo status de TEORIA, exatamente por não estar desenvolvida e completa. Contudo, já há previsões a partir do arcabouço existente, como a dimensionalidade superior, as chamadas partículas Superconpanheiras (que fazem parte da Supersimetria, uma simetria incorporada no desenvolvimento das Supercordas, inclusive, daí o super do nome). Muitos acreditam que em 2007, com a entrada em funcionamento do Super Colisor de Hádrons, do CERN, suas previsões, pelo menos a energias mais baixas poderão ser testadas.
Portanto, notem que isto é bem diferente de “não ser falseável”.
Já quanto a fazer parte do “mainstream científico”, depende do que se quer dizer com isso. As Supercordas nada mais é do que um trabalho teórico em desenvolvimento e, mesmo quando estiver completo (se é que de fato isso irá acontecer um dia. Vale ressaltar que as Supercordas são um conjunto de teorias que faz parte de um escopo maior e mais completo, conhecido como Teoria M), será somente UMA TEORIA caso não passe no crivo da EXPERIMENTALIDADE, ou seja, se suas previsões não forem comprovadas na prática.
Vale dar uma lida no artigo A Ilusão da Gravidade, da Sciam deste mês, onde é apresentado um desdobramento das Supercordas, batizado como Hipótese Holográfica que poderá, em um futuro não distante, abrir novas perspectivas quanto à conclusão e demonstração das Supercordas.
2- As teorias de variáveis ocultas foram finalmente derrotadas?! Por que?!
As VO foram derrotadas há muito tempo, fosse pelas Desigualdades de Bell, fosse pelos experimentos de Aspect, fosse pelo Teleporte quântico. De uma maneira geral, quando os resultados por elas previstos são comparados com os obtidos, invariavelmente estão errados e os da MQ, corretos.
A única teoria a VO que consegue dar os mesmo resultados da MQ é a última versão da teoria de Bohm. Contudo, para obter esse feito, ele teve que abrir mão da Localidade (coisa que faria Einstein, um dos mais severos críticos da MQ, arrepiar os cabelos!); tem de admitir a existência de uma misteriosa e sobrenatural “Onda de Energia Zero”, seja lá o que isso for, uma vez que contraria a própria definição de onda (atente para fato de que Bohm não pode utilizar a mesma explicação para sua onda como fez Max Born, a qual interpretou-a como uma Onda de Probabilidade. No caso de Bohm, pela própria construção de sua teoria, e pelo seu próprio propósito, a onda tem existência real!); fora o fato de que não existe uma versão Relativista, semelhante à de Dirac (me parece que a teoria é incompatível com a Relatividade).
A mesma coisa do item 2, agora trocando Supercordas por Táquions
Até onde sei, Táquions são meramente uma curiosidade, uma concepção, uma vez que não são previstos, nem derivados, de nenhuma teoria existente. Também, até onde sei, todos os experimentos que foram feitos, na tentativa de detectá-los, falharam. Esses experimentos procuravam falhas na Causalidade, ou seja, efeitos precedendo causas.
Ajudei?
Abraços!
Vou pedir ao Fayman para dar a sua opinião com relação a esta afirmação que você fez
Olá, Viper! Vou fazer meus comentários aqui mesmo no tópico.
1- Começando pelas Supércordas:
É errado afirmar que as Supercordas não é falseável. As Supercordas ainda se encontra mo status de TEORIA, exatamente por não estar desenvolvida e completa. Contudo, já há previsões a partir do arcabouço existente, como a dimensionalidade superior, as chamadas partículas Superconpanheiras (que fazem parte da Supersimetria, uma simetria incorporada no desenvolvimento das Supercordas, inclusive, daí o super do nome). Muitos acreditam que em 2007, com a entrada em funcionamento do Super Colisor de Hádrons, do CERN, suas previsões, pelo menos a energias mais baixas poderão ser testadas.
Portanto, notem que isto é bem diferente de “não ser falseável”.
Já quanto a fazer parte do “mainstream científico”, depende do que se quer dizer com isso. As Supercordas nada mais é do que um trabalho teórico em desenvolvimento e, mesmo quando estiver completo (se é que de fato isso irá acontecer um dia. Vale ressaltar que as Supercordas são um conjunto de teorias que faz parte de um escopo maior e mais completo, conhecido como Teoria M), será somente UMA TEORIA caso não passe no crivo da EXPERIMENTALIDADE, ou seja, se suas previsões não forem comprovadas na prática.
Vale dar uma lida no artigo A Ilusão da Gravidade, da Sciam deste mês, onde é apresentado um desdobramento das Supercordas, batizado como Hipótese Holográfica que poderá, em um futuro não distante, abrir novas perspectivas quanto à conclusão e demonstração das Supercordas.
2- As teorias de variáveis ocultas foram finalmente derrotadas?! Por que?!
As VO foram derrotadas há muito tempo, fosse pelas Desigualdades de Bell, fosse pelos experimentos de Aspect, fosse pelo Teleporte quântico. De uma maneira geral, quando os resultados por elas previstos são comparados com os obtidos, invariavelmente estão errados e os da MQ, corretos.
A única teoria a VO que consegue dar os mesmo resultados da MQ é a última versão da teoria de Bohm. Contudo, para obter esse feito, ele teve que abrir mão da Localidade (coisa que faria Einstein, um dos mais severos críticos da MQ, arrepiar os cabelos!); tem de admitir a existência de uma misteriosa e sobrenatural “Onda de Energia Zero”, seja lá o que isso for, uma vez que contraria a própria definição de onda (atente para fato de que Bohm não pode utilizar a mesma explicação para sua onda como fez Max Born, a qual interpretou-a como uma Onda de Probabilidade. No caso de Bohm, pela própria construção de sua teoria, e pelo seu próprio propósito, a onda tem existência real!); fora o fato de que não existe uma versão Relativista, semelhante à de Dirac (me parece que a teoria é incompatível com a Relatividade).
A mesma coisa do item 2, agora trocando Supercordas por Táquions
Até onde sei, Táquions são meramente uma curiosidade, uma concepção, uma vez que não são previstos, nem derivados, de nenhuma teoria existente. Também, até onde sei, todos os experimentos que foram feitos, na tentativa de detectá-los, falharam. Esses experimentos procuravam falhas na Causalidade, ou seja, efeitos precedendo causas.
Ajudei?
Abraços!
Fayman
autor de:
OS GUARDIÕES DO TEMPO
RELÂMPAGOS DE SANGUE
ANJO - A FACE DO MAL
AMOR VAMPIRO
(Coletânea 7 autores)
autor de:
OS GUARDIÕES DO TEMPO
RELÂMPAGOS DE SANGUE
ANJO - A FACE DO MAL
AMOR VAMPIRO
(Coletânea 7 autores)
Re.: CONTINUAÇÃO DA DISCUSSÃO SOBRE ESPIRITISMO...
Valeu pelos esclarecimentos, Fayman!
Já tinha ouvido dizer que alguns físicos experimentais estão com a espectativa de que com o início dos trabalhos no LHC no CERN em 2007, as tais partículas supersimétricas previstas pelas Supercordas poderiam finalmente dar as caras (tem neguinho apostando até na detecção do famigerado Bóson de Higgs).
Bom, a crítica quanto a inexistência de uma versão relativística para VO's eu havia mencionado anteriormente. É, de fato, uma pancada pesada nas VO's. E, pelo o que você disse, as VO's também levam pau quando confrontadas com a experiência.
Ou seja, a coisa tá feia pro lado dos deterministas...
==========
Ah sim, esqueci de mencionar na minha mensagem pregressa...qual o motivo de se adotar a definição de Ciência popperiana?! A razão é que esta definição anula o problema da indução, ao menos no sentido de que agora não mais se afirma que uma teoria foi verificada ou comprovada devido à observação de um número finito de casos. Busca-se sim, hipóteses e teorias falseáveis, que podem ser demonstradas falsas a partir de um único caso que viole suas previsões*, respeitando desta forma as normas da Lógica.
* => sim, a coisa não funciona exatamente desta forma, a descrição exata do Método é a fornecida por Lakatos, o que já foi mencionado em mensagens anteriores.
Já tinha ouvido dizer que alguns físicos experimentais estão com a espectativa de que com o início dos trabalhos no LHC no CERN em 2007, as tais partículas supersimétricas previstas pelas Supercordas poderiam finalmente dar as caras (tem neguinho apostando até na detecção do famigerado Bóson de Higgs).
Bom, a crítica quanto a inexistência de uma versão relativística para VO's eu havia mencionado anteriormente. É, de fato, uma pancada pesada nas VO's. E, pelo o que você disse, as VO's também levam pau quando confrontadas com a experiência.
Ou seja, a coisa tá feia pro lado dos deterministas...
==========
Ah sim, esqueci de mencionar na minha mensagem pregressa...qual o motivo de se adotar a definição de Ciência popperiana?! A razão é que esta definição anula o problema da indução, ao menos no sentido de que agora não mais se afirma que uma teoria foi verificada ou comprovada devido à observação de um número finito de casos. Busca-se sim, hipóteses e teorias falseáveis, que podem ser demonstradas falsas a partir de um único caso que viole suas previsões*, respeitando desta forma as normas da Lógica.
* => sim, a coisa não funciona exatamente desta forma, a descrição exata do Método é a fornecida por Lakatos, o que já foi mencionado em mensagens anteriores.
Ou seja, a coisa tá feia pro lado dos deterministas...
Tão feia que essa hipótese nem mais é levada em consideração. A visão Quântica e seu indeterminismo intrínseco estão plenamente comprovadas e incorporadas em todos os trabalhos desenvolvidos na área atualmente.
Obviamente, desconsiderando-se místicos e arautos da Nova Era, que adoram falar de uma “realidade subjacente” à realidade quântica, onde as “causas hoje desconhecidas” seriam reveladas! Ou seja, eles “reinventam” as Variáveis Ocultas, sem saber o que é isso, e achando que tiveram a iluminação das iluminações, mal sabendo que estão uns 55 anos atrasados, aproximadamente!!
Abraços!
Tão feia que essa hipótese nem mais é levada em consideração. A visão Quântica e seu indeterminismo intrínseco estão plenamente comprovadas e incorporadas em todos os trabalhos desenvolvidos na área atualmente.
Obviamente, desconsiderando-se místicos e arautos da Nova Era, que adoram falar de uma “realidade subjacente” à realidade quântica, onde as “causas hoje desconhecidas” seriam reveladas! Ou seja, eles “reinventam” as Variáveis Ocultas, sem saber o que é isso, e achando que tiveram a iluminação das iluminações, mal sabendo que estão uns 55 anos atrasados, aproximadamente!!
Abraços!
Fayman
autor de:
OS GUARDIÕES DO TEMPO
RELÂMPAGOS DE SANGUE
ANJO - A FACE DO MAL
AMOR VAMPIRO
(Coletânea 7 autores)
autor de:
OS GUARDIÕES DO TEMPO
RELÂMPAGOS DE SANGUE
ANJO - A FACE DO MAL
AMOR VAMPIRO
(Coletânea 7 autores)
- Vitor Moura
- Mensagens: 2130
- Registrado em: 24 Out 2005, 20:13
Olá, Viper
E vc ainda tem a cara de pau de dizer que meu texto é que era grande! Francamente!
Vamos por partes...
1) Mecânica Quântica (MQ): Em que pese sua excelente exposição e a do Fayman, ainda há autores defendendo o determinismo, jogando uma pá de cal na MQ, através mesmo de experimentos que contradizem a MQ! Acesse o site http://www.geocities.com/ciencia2mil/ . Não estou defendendo o autor nem sua teoria, apenas lançando dúvidas sobre a ‘certeza da incerteza’ da MQ...
2) Sobre Super-Cordas e Falseabilidade: Note-se que ainda espera-se a construção do Super-Colisor para testar a Teoria das Super-Cordas! E nem isso ainda é garantia, o Super Colisor pode falhar, dar problemas ou mesmo verificar-se que ele ainda não é capaz de testar em algum nível a Teoria. Ou seja, ainda não há nenhuma forma de experimento capaz de demonstrar a validez ou não dessa Teoria. A bem da verdade, no site http://www.geae.inf.br/pt/boletins/geae480.html , encontramos:
“Na revista Nature de 6 de fevereiro de 2004 foi publicada uma nota de divulgação sobre alguns trabalhos sobre a tentativa de se medir alguma variação na velocidade da luz em referenciais diferentes. Segundo esta nota, os cientistas bolaram um experimento altamente preciso cujos resultados eram coisa do tipo 30 vezes melhor do que já foi feito antes. Mesmo assim eles mediram que a velocidade da luz não se altera com a diferença de referencial. Eles comentaram que isso tem forte implicações nas teorias modernas de supercordas, por exemplo. Isto pois, segundo essas teorias (supercordas), deve existir uma diferença pequena na velocidade da luz em determinados limites. Como as medidas não mostraram essa diferença isso sugere que essas teorias modernas [...] ainda não estão corretas”.
Fayman disse: “As Supercordas ainda se encontra mo status de TEORIA, exatamente por não estar desenvolvida e completa”
Isso não impediu a Teoria da Relatividade ser testada. É uma teoria claramente falseável. Teve-se que esperar alguns anos para testar a Teoria da Relatividade, é certo, já que se dependia de um eclipse. Mas note que uma forma de falsear já havia sido encontrada e uma data estipulada. O mesmo ao menos ainda não é tão claro com relação à Teoria das Super-Cordas. Você mesmo confirmou isto quando disse: “Vale dar uma lida no artigo A Ilusão da Gravidade, da Sciam deste mês, onde é apresentado um desdobramento das Supercordas, batizado como Hipótese Holográfica que PODERÁ, EM UM FUTURO NÃO DISTANTE, abrir novas perspectivas quanto à conclusão e demonstração das Supercordas.” Mais pode ser dito no site http://www.scielo.br/pdf/rbef/v27n1/a17v27n1.pdf .
3)Táquions: “Táquions são meramente uma curiosidade, uma concepção, uma vez que não são previstos, nem derivados, de nenhuma teoria existente”
Não é bem assim, Fayman. Do mesmo site anterior, encontramos:
“As teorias de cordas só podem conter simetrias da natureza, as chamadas simetrias de calibre, em certas dimensões específicas. A teoria de cordas mais simples, contendo apenas elementos classicamente conhecidos, chamados bósons, que descrevem o espaço-tempo, só pode ser definida em 26 dimensões. Pior que isto, ela contem táquions, estranhas partículas que viajam a velocidades maiores que a da luz, e foram abandonadas por estas e outras razões”.
Atualmente há teorias de supercordas com menos dimensões e sem a necessidade de táquions. Mas entenda que os táquions são previstos e derivados de teorias existentes (ou que existiram) sim.
Talvez grávitons sirva melhor no exemplo. Sabe como falseá-los?
Veja, minha idéia é de que da mesma forma como táquions ou grávitons não seriam falseáveis (ao menos no momento), a Ciência na prática cria teorias ou modelos em cima deles, e já eu tento expandir tal idéia para espíritos (ainda não sei se tal raciocínio é legítimo, mas ainda não vi nenhum furo claro nesta minha analogia). Meu amigo Julio Siqueira cita casos mesmo de partículas que não podem ser detectadas, logo, não seriam passíveis de falseamento.
4) Sobre Memética: há um artigo na Wikipédia em que a memética é chamada de protociência, em http://pt.wikipedia.org/wiki/Mem%C3%A9tica . Já Susan Blackmore chama mesmo de Ciência, em http://www.susanblackmore.co.uk/Confere ... chPort.htm . Ou seja, Viper, você pode não considerar a memética ciência, mas na prática...
5) Darwinismo e Neo-Darwinismo: um resumo com as diferenças vc encontra em http://www.profmarcosbio.hpg.ig.com.br/evol.htm
Vc disse:
“Quanto aos supostos fenômenos paranormais, sem condição de querer colocar isso no âmbito da Biologia...nego vai ter que ralar muito em Pesquisa Psi para dar consistência a tais alegações. Vão ter que ralar para fazer modelos teóricos também. Isso não é obrigação dos biólogos, assim como, a princípio, não é obrigação dos físicos derivar matematicamente leis da Biologia a partir de princípios básicos. Não que isso não possa vir a ser feito no futuro...muitos físicos da área de Física Estatística e Fenômenos Fora do Equilíbrio vem trabalhando em cima de Biologia Quantitativa...mas as coisas vão saindo lentamente...enquanto isso, os biólogos seguem com os seus próprios métodos de trabalho... “
Viper, as alegações de fenômenos paranormais são robustamente consistentes! Os testes ganzfeld são a maior prova disso, são basicamente comprovadores de telepatia ou clarividência (atualmente, mais para clarividência). São testes repetidos há mais de 30 anos, em laboratório, cujo índice de acerto esperado pelo acaso seria de 25%, mas a média obtida em milhares de replicações é de 32%. Isso comprova estatisticamente um fenômeno paranormal. Não creia no que diz o verbete do Dicionário Cético, é uma leitura tendenciosa e equivocada por estar extremamente desatualizada e citar estudos mal-conduzidos por Wiseman.
Quanto a modelos teóricos, a Pesquisa Psi tem vários, por exemplo o Psi Mediated Instrumental Response de Rex Stanford, e que já possui comprovação empírica! Você está precisando aumentar sua leitura parapsicológica.
6) Reencarnação: é uma hipótese testável, e fornece mesmo algum grau de previsibilidade (o que é quase essencial a qualquer hipótese científica). Por exemplo, se uma criança afirma ter morrido na vida anterior com um tiro no peito, o investigador já sabendo disso pode deduzir que ela provavelmente tem DUAS marcas de nascença: uma onde a bala entrou e outra onde a bala saiu. E então verifica o corpo da criança se ela possui mesmo as marcas nos locais correspondentes. Stevenson possui casos em que isso ocorre, verificados com a certidão de óbito. Ele encontrou uma correspondência de 88% (pessoalmente, devido a alguns erros de registros da parte de Stevenson, acho que a porcentagem é um pouco menor de fato). Note, porém, que se a proporção fosse baixa, seria uma forma de falsear tal característica da reencarnação: que levamos as cicatrizes originadas de morte violenta da vida anterior para a próxima vida. Há mesmo casos de 6 marcas de nascença que correspondem aos ferimentos originados numa suposta vida anterior.
Ou seja, fazendo um paralelo com a Lei da Conservação da Energia. Nem a Lei da Conservação da Energia, nem Espíritos, seriam falseáveis, mas as hipóteses periféricas (neutrinos e reencarnação) seriam!
7) Astrologia: penso que a Astrologia possui algo de científico. Note que sempre que se descobre algum planeta novo, ela altera seus modelos, sua forma de previsão, ajustando-os à descoberta, tentando atingir maiores graus de precisão. Ainda que queira chamá-la de ciência de nível boçal (C.N.B), ainda acho a idéia de R.A.M. válida.
Uma pergunta: vc considera Matemática uma Ciência ou apenas uma ferramenta?
Por enquanto é só! Quero evitar mensagens grandes!
Um abraço,
Vitor
E vc ainda tem a cara de pau de dizer que meu texto é que era grande! Francamente!
Vamos por partes...
1) Mecânica Quântica (MQ): Em que pese sua excelente exposição e a do Fayman, ainda há autores defendendo o determinismo, jogando uma pá de cal na MQ, através mesmo de experimentos que contradizem a MQ! Acesse o site http://www.geocities.com/ciencia2mil/ . Não estou defendendo o autor nem sua teoria, apenas lançando dúvidas sobre a ‘certeza da incerteza’ da MQ...
2) Sobre Super-Cordas e Falseabilidade: Note-se que ainda espera-se a construção do Super-Colisor para testar a Teoria das Super-Cordas! E nem isso ainda é garantia, o Super Colisor pode falhar, dar problemas ou mesmo verificar-se que ele ainda não é capaz de testar em algum nível a Teoria. Ou seja, ainda não há nenhuma forma de experimento capaz de demonstrar a validez ou não dessa Teoria. A bem da verdade, no site http://www.geae.inf.br/pt/boletins/geae480.html , encontramos:
“Na revista Nature de 6 de fevereiro de 2004 foi publicada uma nota de divulgação sobre alguns trabalhos sobre a tentativa de se medir alguma variação na velocidade da luz em referenciais diferentes. Segundo esta nota, os cientistas bolaram um experimento altamente preciso cujos resultados eram coisa do tipo 30 vezes melhor do que já foi feito antes. Mesmo assim eles mediram que a velocidade da luz não se altera com a diferença de referencial. Eles comentaram que isso tem forte implicações nas teorias modernas de supercordas, por exemplo. Isto pois, segundo essas teorias (supercordas), deve existir uma diferença pequena na velocidade da luz em determinados limites. Como as medidas não mostraram essa diferença isso sugere que essas teorias modernas [...] ainda não estão corretas”.
Fayman disse: “As Supercordas ainda se encontra mo status de TEORIA, exatamente por não estar desenvolvida e completa”
Isso não impediu a Teoria da Relatividade ser testada. É uma teoria claramente falseável. Teve-se que esperar alguns anos para testar a Teoria da Relatividade, é certo, já que se dependia de um eclipse. Mas note que uma forma de falsear já havia sido encontrada e uma data estipulada. O mesmo ao menos ainda não é tão claro com relação à Teoria das Super-Cordas. Você mesmo confirmou isto quando disse: “Vale dar uma lida no artigo A Ilusão da Gravidade, da Sciam deste mês, onde é apresentado um desdobramento das Supercordas, batizado como Hipótese Holográfica que PODERÁ, EM UM FUTURO NÃO DISTANTE, abrir novas perspectivas quanto à conclusão e demonstração das Supercordas.” Mais pode ser dito no site http://www.scielo.br/pdf/rbef/v27n1/a17v27n1.pdf .
3)Táquions: “Táquions são meramente uma curiosidade, uma concepção, uma vez que não são previstos, nem derivados, de nenhuma teoria existente”
Não é bem assim, Fayman. Do mesmo site anterior, encontramos:
“As teorias de cordas só podem conter simetrias da natureza, as chamadas simetrias de calibre, em certas dimensões específicas. A teoria de cordas mais simples, contendo apenas elementos classicamente conhecidos, chamados bósons, que descrevem o espaço-tempo, só pode ser definida em 26 dimensões. Pior que isto, ela contem táquions, estranhas partículas que viajam a velocidades maiores que a da luz, e foram abandonadas por estas e outras razões”.
Atualmente há teorias de supercordas com menos dimensões e sem a necessidade de táquions. Mas entenda que os táquions são previstos e derivados de teorias existentes (ou que existiram) sim.
Talvez grávitons sirva melhor no exemplo. Sabe como falseá-los?
Veja, minha idéia é de que da mesma forma como táquions ou grávitons não seriam falseáveis (ao menos no momento), a Ciência na prática cria teorias ou modelos em cima deles, e já eu tento expandir tal idéia para espíritos (ainda não sei se tal raciocínio é legítimo, mas ainda não vi nenhum furo claro nesta minha analogia). Meu amigo Julio Siqueira cita casos mesmo de partículas que não podem ser detectadas, logo, não seriam passíveis de falseamento.
4) Sobre Memética: há um artigo na Wikipédia em que a memética é chamada de protociência, em http://pt.wikipedia.org/wiki/Mem%C3%A9tica . Já Susan Blackmore chama mesmo de Ciência, em http://www.susanblackmore.co.uk/Confere ... chPort.htm . Ou seja, Viper, você pode não considerar a memética ciência, mas na prática...
5) Darwinismo e Neo-Darwinismo: um resumo com as diferenças vc encontra em http://www.profmarcosbio.hpg.ig.com.br/evol.htm
Vc disse:
“Quanto aos supostos fenômenos paranormais, sem condição de querer colocar isso no âmbito da Biologia...nego vai ter que ralar muito em Pesquisa Psi para dar consistência a tais alegações. Vão ter que ralar para fazer modelos teóricos também. Isso não é obrigação dos biólogos, assim como, a princípio, não é obrigação dos físicos derivar matematicamente leis da Biologia a partir de princípios básicos. Não que isso não possa vir a ser feito no futuro...muitos físicos da área de Física Estatística e Fenômenos Fora do Equilíbrio vem trabalhando em cima de Biologia Quantitativa...mas as coisas vão saindo lentamente...enquanto isso, os biólogos seguem com os seus próprios métodos de trabalho... “
Viper, as alegações de fenômenos paranormais são robustamente consistentes! Os testes ganzfeld são a maior prova disso, são basicamente comprovadores de telepatia ou clarividência (atualmente, mais para clarividência). São testes repetidos há mais de 30 anos, em laboratório, cujo índice de acerto esperado pelo acaso seria de 25%, mas a média obtida em milhares de replicações é de 32%. Isso comprova estatisticamente um fenômeno paranormal. Não creia no que diz o verbete do Dicionário Cético, é uma leitura tendenciosa e equivocada por estar extremamente desatualizada e citar estudos mal-conduzidos por Wiseman.
Quanto a modelos teóricos, a Pesquisa Psi tem vários, por exemplo o Psi Mediated Instrumental Response de Rex Stanford, e que já possui comprovação empírica! Você está precisando aumentar sua leitura parapsicológica.
6) Reencarnação: é uma hipótese testável, e fornece mesmo algum grau de previsibilidade (o que é quase essencial a qualquer hipótese científica). Por exemplo, se uma criança afirma ter morrido na vida anterior com um tiro no peito, o investigador já sabendo disso pode deduzir que ela provavelmente tem DUAS marcas de nascença: uma onde a bala entrou e outra onde a bala saiu. E então verifica o corpo da criança se ela possui mesmo as marcas nos locais correspondentes. Stevenson possui casos em que isso ocorre, verificados com a certidão de óbito. Ele encontrou uma correspondência de 88% (pessoalmente, devido a alguns erros de registros da parte de Stevenson, acho que a porcentagem é um pouco menor de fato). Note, porém, que se a proporção fosse baixa, seria uma forma de falsear tal característica da reencarnação: que levamos as cicatrizes originadas de morte violenta da vida anterior para a próxima vida. Há mesmo casos de 6 marcas de nascença que correspondem aos ferimentos originados numa suposta vida anterior.
Ou seja, fazendo um paralelo com a Lei da Conservação da Energia. Nem a Lei da Conservação da Energia, nem Espíritos, seriam falseáveis, mas as hipóteses periféricas (neutrinos e reencarnação) seriam!
7) Astrologia: penso que a Astrologia possui algo de científico. Note que sempre que se descobre algum planeta novo, ela altera seus modelos, sua forma de previsão, ajustando-os à descoberta, tentando atingir maiores graus de precisão. Ainda que queira chamá-la de ciência de nível boçal (C.N.B), ainda acho a idéia de R.A.M. válida.
Uma pergunta: vc considera Matemática uma Ciência ou apenas uma ferramenta?
Por enquanto é só! Quero evitar mensagens grandes!
Um abraço,
Vitor
Olá, Vitor Moura!
Eu dei um pitaco aqui porque o Viper questionou-me em algumas coisas, e não pretendo entar em debate pois ando muito sem tempo. Contudo, algumas coisas necessitam ficar muito bem esclarecidas, para que a discussão que aqui se processa não descambe. Vamos por artes:
ainda há autores defendendo o determinismo, jogando uma pá de cal na MQ, através mesmo de experimentos que contradizem a MQ!
Ok, até imagino que você não conheça Guglinski para citá-lo. Isto não é uma crítica, não me entenda mal; é um alerta. Veja bem:
Primeiramente, o currículo do autor:
Wladimir Guglinski nasceu em Goiânia-GO, em 04 de Agosto de 1950. Engenheiro Mecânico, formado em 1973 pela Escola de Engenharia da UFMG-Belo Horizonte.
Trabalhou de 1974 a 1990 como engenheiro de construções industriais, contratado por empreiteiras. Em 1991 abandonou o ramo de construções industriais, e montou uma firma de pré-moldados de cimento na cidade de Miraí-MG. Com a nova atividade, sobrava-lhe tempo para escrever.
Que, como podemos ver, sequer é Físico. No mais, não HÁ AUTORES DEFENDENDO O DETERMINISMO; há Gugliski, sua PIADA e uns outros poucos! Não existe sequer um único artigo publicado em revistas técnicas! Curiosamente, ao jogarmos seu nome no Google, por exemplo, nas 10 PRIMEIRAS PÁGINAS não há nenhuma única referência ao “artigo da Nature”; sempre são os mesmo sites, a maioria de venda de seu “livro sobre Física”, o qual contradiz a MQ, e publicado por uma editora ESPÍRITA!! Fora seu “livro revolucionário”, “As aventuras de um cientista no Século XXIII”, que é de FICÇÃO CIENTÍFICA!!
Sem comentar outro ponto, pois acho completamente desnecessário: querer “fotografar’, através de Ressonância, uma sobreposição de orbitais somente demonstra a mais alta incompetência em dominar os conceitos mais básicos da MQ, uma vez que as inteirações durante a medição provocarão a decoerência entre os orbitais e ele NUNCA irá ver a sobreposição! O que ele convenientemente “esqueceu” foi que esses efeitos são medidos e estão absolutamente comprovados!
Pessoas querendo “jogar uma pá de cal” na Ciência tem aos milhares, vide o Show da Lua, lugar onde Gugliski deveria publicar seu “trabalho”; estaria bem mais de acordo com a proposta!
apenas lançando dúvidas sobre a ‘certeza da incerteza’ da MQ...
Perfeitamente, mas sugiro que, para isso, procure artigos SÉRIOS de Física, muito embora, como disse no início, me parece que você não conhecia o supra autor citado.
Ou seja, ainda não há nenhuma forma de experimento capaz de demonstrar a validez ou não dessa Teoria
A qual sequer está concluída, conforme eu havia dito, portanto, não entendi qual o problema neste quesito.
Eles comentaram que isso tem forte implicações nas teorias modernas de supercordas, por exemplo. Isto pois, segundo essas teorias (supercordas), deve existir uma diferença pequena na velocidade da luz em determinados limites. Como as medidas não mostraram essa diferença isso sugere que essas teorias modernas [...] ainda não estão corretas”.
Temos alguns problemas aqui:
Primeiro, SE a teoria ainda está INCOMPLETA, como ela pode ser considerada correta, ainda mais se não foi testada? Em nenhum centro de FÍSICA, e nenhum FÍSICO do mundo considera a Supercordas correta, porque ela é tão somente, ainda, UMA TEORIA e não acabada, portanto, esse comentário, seja na postagem, como pelos autores, não procede.
Segundo, como desconheço essa implicação das Supercordas (há sim, uma previsão desse tipo dentro da GRAVITAÇÃO QUÂNTICA PR LOOPS, que prevê uma variação conforme a freqüência do fóton, mas isso acontece em questões muito particulares e também ainda requer ser provado, sendo uma das previsões da teoria), é impossível dizer se a precisão alcansada no experimento em questão está dentro do limite previsto pelas Supercordas, portanto, mais uma vez, o comentário dos autores foi precipitado, possivelmente para dar destaque aos seus trabalhos. Vou procurar me informar.
Fayman disse: “As Supercordas ainda se encontra mo status de TEORIA, exatamente por não estar desenvolvida e completa”
Isso não impediu a Teoria da Relatividade ser testada. É uma teoria claramente falseável. Teve-se que esperar alguns anos para testar a Teoria da Relatividade, é certo, já que se dependia de um eclipse.
Aqui, de fato, temos mesmo um problema:
A Relatividade, fosse a Geral ou a Restrita, tendo de esperar para serem testadas ou não, ERAM TEORIA COMPLETAS! Repetindo o que postei anteriormente:
“As Supercordas ainda se encontra mo status de TEORIA, exatamente por não estar desenvolvida e completa”
Assim que Einstein publicou a RG, em 1916, já no mesmo ano foram encontradas as primeiras soluções de suas equações, por Schwartzchild; as equações das Supercordas, além de incompletas, só foram encontradas soluções aproximadas até agora!!
Portanto, continuo não compreendendo porque estas afirmações contra as Supercordas que, repito, se encontra tão somente no status de TEORIA. Ela até é a melhor teoria que temos de uma descrição total das 4 forças existentes, mas ainda É TORIA!
O que dizer, então, de uma de suas concorrentes, a Gravitação Quântica por Loops? Se a Supercordas já pudesse ser testada, o impasse já estaria resolvido.
Repito, nenhum FÍSICO trata a Supercordas como FATO.
Atualmente há teorias de supercordas com menos dimensões e sem a necessidade de táquions. Mas entenda que os táquions são previstos e derivados de teorias existentes (ou que existiram) sim.
Vitor, isto é o mesmo problema que antes. A PRIMEIRA VERSÃO das Supercordas somente era coerente em 26 dimensões e apresentava um Modo Vibracional correspondentes a partículas com velocidade maior que a luz, os chamados Táquions (note que não existe outras características definidas para os Táquions, como sua massa, por exemplo). E era exatamente por isso QUE A TEORIA NÃO ERA LEVADA A SÉRIO NO INÍCIO, porque ela previa BOBAGENS. As Supercordas só passaram a ser levadas a sério quando o trabalho foi refinado e eliminaram-se esses absurdos. Não considero o aparecimento de um erro como uma previsão, mas aí vai de cada um.
Táquions são meramente uma curiosidade, uma concepção, uma vez que não são previstos, nem derivados, de nenhuma teoria existente. Isto não mudou e é o posicionamento da Comunidade Científica Mundial, mas advirto, se procurar ma Internet, você irá encontrar milhares de “artigos” tratando dos Táquions.
Se um dia for comprovado que eles existem, as teorias terão, aí sim, que dar conta deles e teremos que explicar porque eles não são previstos.
Meu amigo Julio Siqueira cita casos mesmo de partículas que não podem ser detectadas, logo, não seriam passíveis de falseamento.
Daria para citar quais e qual teoria prevê tais “partículas”? Desculpe-me, mas isto me parece outra piada, mas aguardo seus comentários para não falar bobagem.
Veja, minha idéia é de que da mesma forma como táquions ou grávitons não seriam falseáveis (ao menos no momento), a Ciência na prática cria teorias ou modelos em cima deles
Grávitons são partículas hipotéticas, uma conseqüência da estrutura das teoria para descrever a inteiração gravitacional. Na RG não existem Grávitons. Possivelmente, o Gráviton, numa quantização da Gravidade deverá aparecer como um “quantum de Espaço-Tempo”, uma “forma geométrica” que se desloca à velocidade da luz. Creio que podemos até equipará-los às Ondas Gravitacionais, as quais, também, só temos indicações indiretas, mas bem significativas.
Contudo, note seu próprio comentário: a Ciência na prática cria teorias ou modelos. Teoria ou Modelso, que assim permanecem até sua comprovação. Contudo, vale lembrar que esses modelos são embasados em teorias mais que comprovadas, como a Relatividade e a MQ, além de matematicamente estruturados.
e já eu tento expandir tal idéia para espíritos
Perfeitamente. Levando-se em conta meu comentário anterior, em qual teoria seu modelo se baseia e quais suas equações? Ou seja, antes de sabermos se uma teoria é ou não falseável, ela deve existir dentro do arcabouço rigoroso matematicamente estruturado e ser possível de se fazer previsões a partir dela.
ainda não sei se tal raciocínio é legítimo, mas ainda não vi nenhum furo claro nesta minha analogia
Depende da analogia. Hernâni Guimarães Andrade teve a pachorra de escrever um livro chamado PSI QUÂNTICO, onde ele desenhava, inclusive, a estrutura do átomo espiritual, com seus Perséptrons e outros bichos, simplesmente copiando a estrutura do átoma que se ensina no Segundo Grau (!!) e acrescentou a palavra Quântico porque ela é bonita!
Analogias se pode fazer qualquer uma; se há sentido ou não, é outra história!
Nem a Lei da Conservação da Energia... ... seriam falseáveis
A Conservação da Massa / Energia não é falseável?? Desculpe-me, mas isto é uma tremenda bobagem. Esse princípio é demonstrado em qualquer experimento primário de Termodinâmica.
Desculpe-me se a postagem ficou grande; também não gosto disso, mas como eu disse, alguns pontos necessitavam de esclarecimentos, pois podem influenciar no desenrolar de sua discussão com o Viper.
Abraços!
Eu dei um pitaco aqui porque o Viper questionou-me em algumas coisas, e não pretendo entar em debate pois ando muito sem tempo. Contudo, algumas coisas necessitam ficar muito bem esclarecidas, para que a discussão que aqui se processa não descambe. Vamos por artes:
ainda há autores defendendo o determinismo, jogando uma pá de cal na MQ, através mesmo de experimentos que contradizem a MQ!
Ok, até imagino que você não conheça Guglinski para citá-lo. Isto não é uma crítica, não me entenda mal; é um alerta. Veja bem:
Primeiramente, o currículo do autor:
Wladimir Guglinski nasceu em Goiânia-GO, em 04 de Agosto de 1950. Engenheiro Mecânico, formado em 1973 pela Escola de Engenharia da UFMG-Belo Horizonte.
Trabalhou de 1974 a 1990 como engenheiro de construções industriais, contratado por empreiteiras. Em 1991 abandonou o ramo de construções industriais, e montou uma firma de pré-moldados de cimento na cidade de Miraí-MG. Com a nova atividade, sobrava-lhe tempo para escrever.
Que, como podemos ver, sequer é Físico. No mais, não HÁ AUTORES DEFENDENDO O DETERMINISMO; há Gugliski, sua PIADA e uns outros poucos! Não existe sequer um único artigo publicado em revistas técnicas! Curiosamente, ao jogarmos seu nome no Google, por exemplo, nas 10 PRIMEIRAS PÁGINAS não há nenhuma única referência ao “artigo da Nature”; sempre são os mesmo sites, a maioria de venda de seu “livro sobre Física”, o qual contradiz a MQ, e publicado por uma editora ESPÍRITA!! Fora seu “livro revolucionário”, “As aventuras de um cientista no Século XXIII”, que é de FICÇÃO CIENTÍFICA!!
Sem comentar outro ponto, pois acho completamente desnecessário: querer “fotografar’, através de Ressonância, uma sobreposição de orbitais somente demonstra a mais alta incompetência em dominar os conceitos mais básicos da MQ, uma vez que as inteirações durante a medição provocarão a decoerência entre os orbitais e ele NUNCA irá ver a sobreposição! O que ele convenientemente “esqueceu” foi que esses efeitos são medidos e estão absolutamente comprovados!
Pessoas querendo “jogar uma pá de cal” na Ciência tem aos milhares, vide o Show da Lua, lugar onde Gugliski deveria publicar seu “trabalho”; estaria bem mais de acordo com a proposta!
apenas lançando dúvidas sobre a ‘certeza da incerteza’ da MQ...
Perfeitamente, mas sugiro que, para isso, procure artigos SÉRIOS de Física, muito embora, como disse no início, me parece que você não conhecia o supra autor citado.
Ou seja, ainda não há nenhuma forma de experimento capaz de demonstrar a validez ou não dessa Teoria
A qual sequer está concluída, conforme eu havia dito, portanto, não entendi qual o problema neste quesito.
Eles comentaram que isso tem forte implicações nas teorias modernas de supercordas, por exemplo. Isto pois, segundo essas teorias (supercordas), deve existir uma diferença pequena na velocidade da luz em determinados limites. Como as medidas não mostraram essa diferença isso sugere que essas teorias modernas [...] ainda não estão corretas”.
Temos alguns problemas aqui:
Primeiro, SE a teoria ainda está INCOMPLETA, como ela pode ser considerada correta, ainda mais se não foi testada? Em nenhum centro de FÍSICA, e nenhum FÍSICO do mundo considera a Supercordas correta, porque ela é tão somente, ainda, UMA TEORIA e não acabada, portanto, esse comentário, seja na postagem, como pelos autores, não procede.
Segundo, como desconheço essa implicação das Supercordas (há sim, uma previsão desse tipo dentro da GRAVITAÇÃO QUÂNTICA PR LOOPS, que prevê uma variação conforme a freqüência do fóton, mas isso acontece em questões muito particulares e também ainda requer ser provado, sendo uma das previsões da teoria), é impossível dizer se a precisão alcansada no experimento em questão está dentro do limite previsto pelas Supercordas, portanto, mais uma vez, o comentário dos autores foi precipitado, possivelmente para dar destaque aos seus trabalhos. Vou procurar me informar.
Fayman disse: “As Supercordas ainda se encontra mo status de TEORIA, exatamente por não estar desenvolvida e completa”
Isso não impediu a Teoria da Relatividade ser testada. É uma teoria claramente falseável. Teve-se que esperar alguns anos para testar a Teoria da Relatividade, é certo, já que se dependia de um eclipse.
Aqui, de fato, temos mesmo um problema:
A Relatividade, fosse a Geral ou a Restrita, tendo de esperar para serem testadas ou não, ERAM TEORIA COMPLETAS! Repetindo o que postei anteriormente:
“As Supercordas ainda se encontra mo status de TEORIA, exatamente por não estar desenvolvida e completa”
Assim que Einstein publicou a RG, em 1916, já no mesmo ano foram encontradas as primeiras soluções de suas equações, por Schwartzchild; as equações das Supercordas, além de incompletas, só foram encontradas soluções aproximadas até agora!!
Portanto, continuo não compreendendo porque estas afirmações contra as Supercordas que, repito, se encontra tão somente no status de TEORIA. Ela até é a melhor teoria que temos de uma descrição total das 4 forças existentes, mas ainda É TORIA!
O que dizer, então, de uma de suas concorrentes, a Gravitação Quântica por Loops? Se a Supercordas já pudesse ser testada, o impasse já estaria resolvido.
Repito, nenhum FÍSICO trata a Supercordas como FATO.
Atualmente há teorias de supercordas com menos dimensões e sem a necessidade de táquions. Mas entenda que os táquions são previstos e derivados de teorias existentes (ou que existiram) sim.
Vitor, isto é o mesmo problema que antes. A PRIMEIRA VERSÃO das Supercordas somente era coerente em 26 dimensões e apresentava um Modo Vibracional correspondentes a partículas com velocidade maior que a luz, os chamados Táquions (note que não existe outras características definidas para os Táquions, como sua massa, por exemplo). E era exatamente por isso QUE A TEORIA NÃO ERA LEVADA A SÉRIO NO INÍCIO, porque ela previa BOBAGENS. As Supercordas só passaram a ser levadas a sério quando o trabalho foi refinado e eliminaram-se esses absurdos. Não considero o aparecimento de um erro como uma previsão, mas aí vai de cada um.
Táquions são meramente uma curiosidade, uma concepção, uma vez que não são previstos, nem derivados, de nenhuma teoria existente. Isto não mudou e é o posicionamento da Comunidade Científica Mundial, mas advirto, se procurar ma Internet, você irá encontrar milhares de “artigos” tratando dos Táquions.
Se um dia for comprovado que eles existem, as teorias terão, aí sim, que dar conta deles e teremos que explicar porque eles não são previstos.
Meu amigo Julio Siqueira cita casos mesmo de partículas que não podem ser detectadas, logo, não seriam passíveis de falseamento.
Daria para citar quais e qual teoria prevê tais “partículas”? Desculpe-me, mas isto me parece outra piada, mas aguardo seus comentários para não falar bobagem.
Veja, minha idéia é de que da mesma forma como táquions ou grávitons não seriam falseáveis (ao menos no momento), a Ciência na prática cria teorias ou modelos em cima deles
Grávitons são partículas hipotéticas, uma conseqüência da estrutura das teoria para descrever a inteiração gravitacional. Na RG não existem Grávitons. Possivelmente, o Gráviton, numa quantização da Gravidade deverá aparecer como um “quantum de Espaço-Tempo”, uma “forma geométrica” que se desloca à velocidade da luz. Creio que podemos até equipará-los às Ondas Gravitacionais, as quais, também, só temos indicações indiretas, mas bem significativas.
Contudo, note seu próprio comentário: a Ciência na prática cria teorias ou modelos. Teoria ou Modelso, que assim permanecem até sua comprovação. Contudo, vale lembrar que esses modelos são embasados em teorias mais que comprovadas, como a Relatividade e a MQ, além de matematicamente estruturados.
e já eu tento expandir tal idéia para espíritos
Perfeitamente. Levando-se em conta meu comentário anterior, em qual teoria seu modelo se baseia e quais suas equações? Ou seja, antes de sabermos se uma teoria é ou não falseável, ela deve existir dentro do arcabouço rigoroso matematicamente estruturado e ser possível de se fazer previsões a partir dela.
ainda não sei se tal raciocínio é legítimo, mas ainda não vi nenhum furo claro nesta minha analogia
Depende da analogia. Hernâni Guimarães Andrade teve a pachorra de escrever um livro chamado PSI QUÂNTICO, onde ele desenhava, inclusive, a estrutura do átomo espiritual, com seus Perséptrons e outros bichos, simplesmente copiando a estrutura do átoma que se ensina no Segundo Grau (!!) e acrescentou a palavra Quântico porque ela é bonita!
Analogias se pode fazer qualquer uma; se há sentido ou não, é outra história!
Nem a Lei da Conservação da Energia... ... seriam falseáveis
A Conservação da Massa / Energia não é falseável?? Desculpe-me, mas isto é uma tremenda bobagem. Esse princípio é demonstrado em qualquer experimento primário de Termodinâmica.
Desculpe-me se a postagem ficou grande; também não gosto disso, mas como eu disse, alguns pontos necessitavam de esclarecimentos, pois podem influenciar no desenrolar de sua discussão com o Viper.
Abraços!
Fayman
autor de:
OS GUARDIÕES DO TEMPO
RELÂMPAGOS DE SANGUE
ANJO - A FACE DO MAL
AMOR VAMPIRO
(Coletânea 7 autores)
autor de:
OS GUARDIÕES DO TEMPO
RELÂMPAGOS DE SANGUE
ANJO - A FACE DO MAL
AMOR VAMPIRO
(Coletânea 7 autores)
Somente a título de complemento, segue link da editora, a qual não é espírita, me corrigindo, muito embora não mudou nada!
http://www.bodigaya.com.br/
E a chamada do livro do "inventor" da Anti-Gravidade e da Fusão a Frio!!!! E depois eles reclamam que não são levados a sério!
http://www.bodigaya.com.br/f_dados.html
A MQ mostrou 100% correta EM TODOS os experimentos pelos quais passou, e com uma precisão entre dados previstos e resultados obtidos que beira o incrível!
Isto é fato; o resto...
http://www.bodigaya.com.br/
E a chamada do livro do "inventor" da Anti-Gravidade e da Fusão a Frio!!!! E depois eles reclamam que não são levados a sério!
http://www.bodigaya.com.br/f_dados.html
A MQ mostrou 100% correta EM TODOS os experimentos pelos quais passou, e com uma precisão entre dados previstos e resultados obtidos que beira o incrível!
Isto é fato; o resto...
Fayman
autor de:
OS GUARDIÕES DO TEMPO
RELÂMPAGOS DE SANGUE
ANJO - A FACE DO MAL
AMOR VAMPIRO
(Coletânea 7 autores)
autor de:
OS GUARDIÕES DO TEMPO
RELÂMPAGOS DE SANGUE
ANJO - A FACE DO MAL
AMOR VAMPIRO
(Coletânea 7 autores)
Complemento II:
Segue links sobre o experimento publicado na Nature:
http://www.nrc-cnrc.gc.ca/highlights/20 ... ing_e.html
http://steacie.nrc-cnrc.gc.ca/overview/ ... 004_e.html
O que Villeneuve e equipe mostram em seu experimento EM NADA tem a ver com a risível proposta de Guglinski, que tenta se apoderar desse experimento para validar sua idéia. Inclusive, é extremamente clara a ocorrência de Efeitos Quânticos, como mostra um dos textos, nesta referencia:
Under the rules of quantum mechanics, part of the electron is removed from the molecule, and at the same time, the other part of the electron remains in the molecule. The two "parts" of the electron were made to interfere and as a result emitted x-ray radiation.
Just as in computed tomography (CT), where the x-ray source is rotated around the patient, the NRC team rotated the nitrogen molecule slowly in a vacuum chamber and took projections of the orbital shape.
Em outro, temos:
Because of Heisenberg's Uncertainty Principle, an electron in a molecule does not occupy a single point in space. It is spread out in a cloud.
Ou seja, exatamente o que se mostra nas imagens!
Segue links sobre o experimento publicado na Nature:
http://www.nrc-cnrc.gc.ca/highlights/20 ... ing_e.html
http://steacie.nrc-cnrc.gc.ca/overview/ ... 004_e.html
O que Villeneuve e equipe mostram em seu experimento EM NADA tem a ver com a risível proposta de Guglinski, que tenta se apoderar desse experimento para validar sua idéia. Inclusive, é extremamente clara a ocorrência de Efeitos Quânticos, como mostra um dos textos, nesta referencia:
Under the rules of quantum mechanics, part of the electron is removed from the molecule, and at the same time, the other part of the electron remains in the molecule. The two "parts" of the electron were made to interfere and as a result emitted x-ray radiation.
Just as in computed tomography (CT), where the x-ray source is rotated around the patient, the NRC team rotated the nitrogen molecule slowly in a vacuum chamber and took projections of the orbital shape.
Em outro, temos:
Because of Heisenberg's Uncertainty Principle, an electron in a molecule does not occupy a single point in space. It is spread out in a cloud.
Ou seja, exatamente o que se mostra nas imagens!
Fayman
autor de:
OS GUARDIÕES DO TEMPO
RELÂMPAGOS DE SANGUE
ANJO - A FACE DO MAL
AMOR VAMPIRO
(Coletânea 7 autores)
autor de:
OS GUARDIÕES DO TEMPO
RELÂMPAGOS DE SANGUE
ANJO - A FACE DO MAL
AMOR VAMPIRO
(Coletânea 7 autores)
matemática...
Vitor Moura escreveu:
***No entanto, veja, a própria matemática apresenta problemas que possuem soluções, mas não são demonstráveis; verifica-se se elas servem por mera inspeção, pois não há uma metodologia analítica para dedução de uma solução geral.É o famoso caso da solução das equações algébricas de ordem superior a quatro: não há fórmulas disponíveis. Isto também ocorre freqüentemente no ramo das equações diferenciais parciais, que é o campo mais importante para representação do comportamento dos fenômenos naturais: basta uma relativa complexidade para que não haja solução analítica. A saída é obter uma solução aproximada.
Nossa! só tem cachorro grande aqui! Bem, não estou muito a par dois assuntos aqui discutidos, mas só teço alguns comentários
1)Não é que simplesmente não haja fórmulas fechadas para a solução de equações algébricas de grau acima do quarto e o pessoal preferiu um quebra-galho: ficou demonstrado que isto é impossível de se conseguir, logo não vale a pena buscar formas fechadas.
2)Apesar de não haver uma solução analítica, sempre; os métodos numéricos podem ter sua validade demonstrada (ou limite de validade determinado). Eles não são coisas arbitrárias ou chutadas.
Uma pergunta: vc considera Matemática uma Ciência ou apenas uma ferramenta?
3)Não é pra mim a pergunta, mas vai minha resposta: Nenhuma das duas - ela é linguagem.
Onde há dúvida,há liberdade!
Reencarnação na Bíblia
Reencarnação na Bíblia
Saudações, Vítor!
Vamos lá...
Vamos às preliminares: como você pode conferir por si próprio, o referido "autor" não tem Currículo Lattes, o que significa que ele não recebe apoio de nenhuma entidade de fomento à pesquisa, como CNPq, CAPES, etc. Para além disso, como você pode verificar no arXiv.org, não é retornado nenhum resultado quando você busca pelo nome "Guglinski", o que muito provavelmente significa que o mencionado "autor" nunca conseguiu publicar nada em Revistas de Física nacionais ou internacionais. É sempre fácil se dizer vítima de conspiração e boicote por se estar propondo algo que vai contra as teorias vigentes, mas vejamos o caso do físico português João Magueijo, aquele mesmo que defende a tese de que a velocidade da luz varia de acordo com a época do universo considerada: conforme você pode conferir no arXiv.org, digitando "Joao Magueijo" (sem o til no "a") no campo de busca por autor, são retornados 61 resultados! Ou seja, esse tipo de "argumento conspiratório" não cola...Magueijo propõe algo que vai contra a Relatividade, mas mesmo assim possui um número considerável de artigos publicados, isso porque o que ele apresenta e defende possui um grau mínimo de fundamentação e rigor físico-matemático necessário para passar pelo crivo de seus pares e ser publicado. O que não ocorre com Guglinski e tantos outros que vivem a bradar que suas "teses" suplantaram a MQ, a RG, ou que inventaram motos perpétuos, que conseguiram produzir a tal "fusão a frio", etc. Se você for procurar, provavelmente vai encontrar no interior da República Tcheca nego dizendo que tem uma "teoria que vai revolucionar os fundamentos da Física (ou da Química, da Biologia, etc)" e que "sua teoria foi comprovada por vários experimentos recentes"...essa balela toda é bastante conhecida no meio acadêmico. Todo ano aparece neguinho alegando coisa parecida...mas esses caras não conseguem publicar nada!
Para começo de conversa, a descrição do átomo de hidrogênio é exatamente um dos MAIORES SUCESSOS da MQ, ainda mais se considerarmos as correções devido à sua estrutura fina. Osciladores e átomos hidrogenóides são alguns dos poucos problemas com solução analítica em MQ...no resto você tem que utilizar Métodos Perturbativos para obter soluções aproximadas. Note agora o seguinte: TUDO o que você sabe experimentalmente sobre átomos hidrogenóides é explicado pela MQ...o sucesso da teoria (não só neste caso) é algo indiscutível! Quanto às formas dos orbitais prevista pela MQ (e confirmadas experimentalmente!), eu sei da onde elas vêm: são as densidades de probabilidade construídas com os Esféricos Harmônicos, soluções da parte angular da Equação de Laplace (ou Equação Harmônica) em Coordenadas Esféricas. Agora, da onde vieram os garranchos mal desenhados pelo "autor" do site que você mencionou?! Não faço idéia. Para além disso, o cara tenta se apoiar num artigo que teria sido exposto na Nature e cujo próprio autor (do artigo da Nature) em momento algum menciona qualquer conflito com as previsões da MQ. Para maiores detalhes, teríamos que ter o tal artigo em mãos.
De outro ponto, dando uma vista rápida no site do cara, você encontra coisas cômicas como ele reclamando que não teria recebido ajuda para provar matematicamente que um elétron viajando em órbita helicoidal gera as Equações de Maxwell (?!?!). Essa é boa...as Equações de Maxwell não são geradas por elétrons viajando em trajetórias helicoidais (sic!) nem aqui e nem na China! Você tem na Eletrodinâmica Clássica de Maxwell 8 equações fundamentais: as 4 Equações de Maxwell (que você pode expressar em apenas 2 equações se estiver utilizando uma representação tensorial: uma equação tensorial de fontes e outra sem fontes), mais as 3 Equações Constitutivas e a Equação da Força de Lorentz. O movimento helicoidal de um elétron se movendo num campo magnético é totalmente explicado por esta última equação mencionada.
Agora, a MQ ou a RG podem estar erradas?! Bom, dado o número de comprovações experimentais de previsões destas teorias, principalmente da primeira (não existem, pelo menos até onde sei, resultados experimentais em contradição com previsões da MQ, sendo esta aplicada de forma incrivelmente bem sucedida em inúmeros ramos da Física, tais como: Teorias Quânticas de Campos, Física Estatística Quântica, Matéria Condensada, Óptica Quântica, etc), a resposta é: muito provavelmente não! O que pode acontecer é delas estarem incompletas (a RG, com certeza, está) e acabarem admitindo modificações em seu corpo com os avanços matemáticos e experimentais.
Iterando o que eu disse anteriormente: o último grande proponente de VO's e, portanto, do determinismo, foi David Bohm. Hoje em dia você praticamente não ouve mais falar disso, muito embora, provavelmente, ainda devam existir algumas pessoas pesquisando sobre VO's. Mas a tendência observada, como exposto, é a do enterro definitivo destas teorias. Como eu disse, os deterministas estão agonizando.
O LHC (Large Hadron Collider) vai entrar em operação em 2007, ou seja, dentro em breve. E já estão programados upgrades para o Colisor! Na verdade, o LHC está sendo construído em parceria por várias universidades e centros de pesquisa do mundo inteiro. O pessoal do DFNAE (Departamento de Física Nuclear e Altas Energias) do IF-UERJ, por exemplo, ficou com a responsabilidade de construir uma das peças do Colisor. Mas, se não me falha a memória, o prazo previsto para a conclusão desta peça é o ano de 2010. Ou seja, dentro de pouco tempo após a sua inauguração, o poder do LHC vai ser ainda mais espetacular do que o inicial! Essa vai ser, na verdade, a máquina experimental mais fabulosa construída pelo intelecto humano em todos os tempos! Tem nego apostanto suas fichas no aparecimento das partículas supersimétricas, do bóson de Higgs e até mesmo na descoberta de possíveis novas interações, até então desconhecidas! Isso sem falar no que já é certo: vai é pipocar partículas novas nas colisões a altas energias que serão realizadas no LHC! Para dizer a verdade, o meio acadêmico está completamente eufórico e ansioso aguardando a chegada de 2007!
Agora com relação às partículas supersimétricas previstas pelas Supercordas. Como eu disse, não conheço nada sobre Supercordas. Temos que esperar para ver se as colisões no LHC gerarão algo da ordem de grandeza da energia necessária para se observar tais partículas. O ponto é que a falseabilidade de uma teoria não pode ser determinada pelos instrumentos que temos em mãos no momento. Fosse assim, grande parte da Física deveria ter sido considerada infalseável antigamente, pois certas previsões só puderam ser testadas muito tempo após terem sido geradas pelos modelos teóricos. Se as Supercordas prevêem uma ordem de grandeza na qual as partículas supersimétricas poderiam ser observadas, então a teoria é falseável, pois faz uma previsão bem definida e testável, ainda que não tenha sido possível testá-la até o momento, devido a limitações no instrumental de pesquisa experimental.
Cara, novamente, aqui teríamos que ter os estudos publicados em mãos para opinar sobre alguma coisa. Material de segunda mão não permite qualquer tipo de consideração, principalmente em Física, onde temos que analisar os modelos matemáticos (e, devo dizer, que a Matemática necessária para entender as Supercordas está muito além dos meus conhecimentos matemáticos atuais...eu não entendo porra nenhuma dos artigos do Witten), dados experimentais, etc. Eu nunca ouvi falar de tal previsão das Supercordas (variação da velocidade da luz)...se bem que isso não significa muita coisa, já que não conheço a teoria e nem os experimentos na área e o fato de eu ter ouvido ou não algo a respeito desta suposta previsão não é indicativo de nada.
Mas cabe aqui um ponto: um site espírita não me parece um local adequado para se procurar por informações relativas a Física.
Bom, talvez as coisas fiquem mais claras a partir de 2007...
Não entendi a colocação de que bósons descrevem o espaço-tempo (?!). Bósons são partículas de spin inteiro que obedecem à Estatística de Bose-Einstein e são descritas por autofunções simétricas. São também responsáveis por mediar as interações fundamentais. Só se o cara falou do ainda hipotético gráviton, que por estar associado à (ainda não concretizada) descrição quântica da gravidade (e esta, por sua vez, com a geometria do espaço-tempo, via RG), teria sido tomado como um "descritor do espaço-tempo". Sei lá...ficou esquisito...
Bom, já ouvi dizer que a teoria de Cordas previa mesmo a existência de Táquions. Mas essa nunca foi uma previsão das Supercordas. E teoria de Cordas, sem a inclusão da Supersimetria, é algo que está completamente abandonado, até onde ouvi dizer...
Os grávitons são partículas hipotéticas, considerando-se o possível advento de uma teoria quântica da gravidade. A Cromodinâmica Quântica dá conta dos gluóns e a Unificação Eletrofraca dos fótons e bósons Z, W+ e W-. Quem dá conta dos grávitons?! Bom, ainda não temos tal resposta. Para serem falseáveis, acho que deveríamos ter uma teoria quântica da gravidade que fornecesse as propriedades deste bóson, mas isso ainda não existe. Ou seja, ainda não temos em mãos nenhuma teoria estruturada que preveja a existência de grávitons. É até possível inferir, devido às propriedades conhecidas da gravidade, algumas propriedades que esse hipotético bóson deveria possuir, mas não é algo bem estruturado ainda, pelo menos até onde sei. Só vai fazer sentido falar na falseabilidade dos grávitons quando tivermos um modelo teórico para descrevê-los.
Mas a Física não criou, pelo o que sei, até o momento, nenhum modelo teórico que descreva grávitons e táquions. Qual a interpretação Física de transformações de Lorentz com valores imaginários (o que ocorreria caso táquions existissem)?! E ainda teríamos um problema sério de possibilidade de quebra da causalidade (no sentido relativístico do termo: se num referencial o evento A precede o evento B, então em todos os referenciais tal precedência deve ser observada). Do outro lado, a gravidade não é renormalizável e, por isso, ainda não conseguimos uma descrição quântica da mesma.
Que partículas não podem ser detectadas?!
Se forem os fótons virtuais trocados para estabelecer a interação eletromagnética, de fato, eles não podem ser detectados experimentalmente. Mas a coisa toda se passa (de forma qualitativa e quantitativa) como se eles estivessem sendo, de fato, trocados. O que você verifica experimentalmente está de acordo com os cálculos feitos a partir do modelo teórico, que trabalha com este conceito de fótons virtuais. Cabe aqui uma paralelo com a Cosmologia: você não tem como observar diretamente o evento Big Bang (seja a singularidade em si ou, então, um estado extremamente denso e quente do universo num passado remoto), mas ele é uma exigência de um modelo matemático que possui várias de suas previsões confirmadas observacionalmente.
Eu sei...nego fala de memética como se fosse Ciência. No extinto fórum da STR inúmeros foristas faziam isso. Mas continuo dizendo que isso não é Ciência...
Você tem razão...eu estou completamente desatualizado com relação à Pesquisa Psi. Para falar a verdade, eu não não leio nada fora da minha área já há um bom tempo. Você pode estar certo nas suas alegações, mas não tenho como comentar por desconhecimento. Eu até sei onde buscar informação a respeito, tanto pró-Psi (site do Wellington, por exemplo) quanto contra-Psi (CSICOP, por exemplo), mas não tenho muito tempo para isso. Se bem que, para dizer a verdade, eu também sou preguiçoso...quando sobra um tempo livre, ao invés de ler, eu ouço música...hehehe...
Cara, me desculpe por abusar de sua paciência...eu disse que ia começar a ler artigos do seu site, mas continuo sem tempo no momento...então me permita perguntar o seguinte: esses casos de lembranças de vidas passadas acompanhadas de marcas de nascença compatíveis com marcas do corpo da alegada encarnação pregressa do indivíduo são bastante raros, não?! Bom, de qualquer forma, seria interessante ver fotos comparativas com as marcas de nascença do alegador e do morto...
Mas a Lei de Conservação de Energia é falseável...basta achar um caso onde ela não se conserve que ela vai para o espaço. Tudo bem que a coisa, NA PRÁTICA, não é seguida exatamente dessa forma. Como eu expus anteriormente, o filósofo que melhor descreveu a atividade científica foi Lakatos. Se a Conservação de Energia for falseada, vamos procurar por partículas e outras formas de energia até então não detectadas que, quando contabilizadas, manteriam intacta tal lei. Mas e se tais não forem encontradas?! E se houver mais de um experimento onde a energia, aparentemente, não seja conservada?! Então, a teoria começa a acumular muitas anomalias e a apresentar um estado bastante degenerado. Chega um ponto em que ela deve ser abandonada, pois estaremos seguros em dizer que ela foi falseada e que hipóteses periféricas não podem mais salvá-la ou ,então, que o acúmulo destas distorceram e descaracterizaram de tal forma o corpo teórico original que estamos lidando com outra teoria. Mas concordo que o estabelecimento deste ponto não é algo lá muito objetivo ou fácil de ser feito...
Matemática não é uma Ciência no sentido popperiano do termo. É um ramo da razão pura.
Discussões em fóruns sempre são chatas porque você tem que ler textos grandes e escrever respostas que acabam ficando grandes. Se nós estivéssemos conversando ao vivo, isso daqui teria sido dito em 5 minutos...
Vamos lá...
Vitor Moura escreveu:Olá, Viper
E vc ainda tem a cara de pau de dizer que meu texto é que era grande! Francamente!
1) Mecânica Quântica (MQ): Em que pese sua excelente exposição e a do Fayman, ainda há autores defendendo o determinismo, jogando uma pá de cal na MQ, através mesmo de experimentos que contradizem a MQ! Acesse o site http://www.geocities.com/ciencia2mil/ . Não estou defendendo o autor nem sua teoria, apenas lançando dúvidas sobre a ‘certeza da incerteza’ da MQ...
Vamos às preliminares: como você pode conferir por si próprio, o referido "autor" não tem Currículo Lattes, o que significa que ele não recebe apoio de nenhuma entidade de fomento à pesquisa, como CNPq, CAPES, etc. Para além disso, como você pode verificar no arXiv.org, não é retornado nenhum resultado quando você busca pelo nome "Guglinski", o que muito provavelmente significa que o mencionado "autor" nunca conseguiu publicar nada em Revistas de Física nacionais ou internacionais. É sempre fácil se dizer vítima de conspiração e boicote por se estar propondo algo que vai contra as teorias vigentes, mas vejamos o caso do físico português João Magueijo, aquele mesmo que defende a tese de que a velocidade da luz varia de acordo com a época do universo considerada: conforme você pode conferir no arXiv.org, digitando "Joao Magueijo" (sem o til no "a") no campo de busca por autor, são retornados 61 resultados! Ou seja, esse tipo de "argumento conspiratório" não cola...Magueijo propõe algo que vai contra a Relatividade, mas mesmo assim possui um número considerável de artigos publicados, isso porque o que ele apresenta e defende possui um grau mínimo de fundamentação e rigor físico-matemático necessário para passar pelo crivo de seus pares e ser publicado. O que não ocorre com Guglinski e tantos outros que vivem a bradar que suas "teses" suplantaram a MQ, a RG, ou que inventaram motos perpétuos, que conseguiram produzir a tal "fusão a frio", etc. Se você for procurar, provavelmente vai encontrar no interior da República Tcheca nego dizendo que tem uma "teoria que vai revolucionar os fundamentos da Física (ou da Química, da Biologia, etc)" e que "sua teoria foi comprovada por vários experimentos recentes"...essa balela toda é bastante conhecida no meio acadêmico. Todo ano aparece neguinho alegando coisa parecida...mas esses caras não conseguem publicar nada!
Para começo de conversa, a descrição do átomo de hidrogênio é exatamente um dos MAIORES SUCESSOS da MQ, ainda mais se considerarmos as correções devido à sua estrutura fina. Osciladores e átomos hidrogenóides são alguns dos poucos problemas com solução analítica em MQ...no resto você tem que utilizar Métodos Perturbativos para obter soluções aproximadas. Note agora o seguinte: TUDO o que você sabe experimentalmente sobre átomos hidrogenóides é explicado pela MQ...o sucesso da teoria (não só neste caso) é algo indiscutível! Quanto às formas dos orbitais prevista pela MQ (e confirmadas experimentalmente!), eu sei da onde elas vêm: são as densidades de probabilidade construídas com os Esféricos Harmônicos, soluções da parte angular da Equação de Laplace (ou Equação Harmônica) em Coordenadas Esféricas. Agora, da onde vieram os garranchos mal desenhados pelo "autor" do site que você mencionou?! Não faço idéia. Para além disso, o cara tenta se apoiar num artigo que teria sido exposto na Nature e cujo próprio autor (do artigo da Nature) em momento algum menciona qualquer conflito com as previsões da MQ. Para maiores detalhes, teríamos que ter o tal artigo em mãos.
De outro ponto, dando uma vista rápida no site do cara, você encontra coisas cômicas como ele reclamando que não teria recebido ajuda para provar matematicamente que um elétron viajando em órbita helicoidal gera as Equações de Maxwell (?!?!). Essa é boa...as Equações de Maxwell não são geradas por elétrons viajando em trajetórias helicoidais (sic!) nem aqui e nem na China! Você tem na Eletrodinâmica Clássica de Maxwell 8 equações fundamentais: as 4 Equações de Maxwell (que você pode expressar em apenas 2 equações se estiver utilizando uma representação tensorial: uma equação tensorial de fontes e outra sem fontes), mais as 3 Equações Constitutivas e a Equação da Força de Lorentz. O movimento helicoidal de um elétron se movendo num campo magnético é totalmente explicado por esta última equação mencionada.
Agora, a MQ ou a RG podem estar erradas?! Bom, dado o número de comprovações experimentais de previsões destas teorias, principalmente da primeira (não existem, pelo menos até onde sei, resultados experimentais em contradição com previsões da MQ, sendo esta aplicada de forma incrivelmente bem sucedida em inúmeros ramos da Física, tais como: Teorias Quânticas de Campos, Física Estatística Quântica, Matéria Condensada, Óptica Quântica, etc), a resposta é: muito provavelmente não! O que pode acontecer é delas estarem incompletas (a RG, com certeza, está) e acabarem admitindo modificações em seu corpo com os avanços matemáticos e experimentais.
Iterando o que eu disse anteriormente: o último grande proponente de VO's e, portanto, do determinismo, foi David Bohm. Hoje em dia você praticamente não ouve mais falar disso, muito embora, provavelmente, ainda devam existir algumas pessoas pesquisando sobre VO's. Mas a tendência observada, como exposto, é a do enterro definitivo destas teorias. Como eu disse, os deterministas estão agonizando.
2) Sobre Super-Cordas e Falseabilidade: Note-se que ainda espera-se a construção do Super-Colisor para testar a Teoria das Super-Cordas! E nem isso ainda é garantia, o Super Colisor pode falhar, dar problemas ou mesmo verificar-se que ele ainda não é capaz de testar em algum nível a Teoria. Ou seja, ainda não há nenhuma forma de experimento capaz de demonstrar a validez ou não dessa Teoria.
O LHC (Large Hadron Collider) vai entrar em operação em 2007, ou seja, dentro em breve. E já estão programados upgrades para o Colisor! Na verdade, o LHC está sendo construído em parceria por várias universidades e centros de pesquisa do mundo inteiro. O pessoal do DFNAE (Departamento de Física Nuclear e Altas Energias) do IF-UERJ, por exemplo, ficou com a responsabilidade de construir uma das peças do Colisor. Mas, se não me falha a memória, o prazo previsto para a conclusão desta peça é o ano de 2010. Ou seja, dentro de pouco tempo após a sua inauguração, o poder do LHC vai ser ainda mais espetacular do que o inicial! Essa vai ser, na verdade, a máquina experimental mais fabulosa construída pelo intelecto humano em todos os tempos! Tem nego apostanto suas fichas no aparecimento das partículas supersimétricas, do bóson de Higgs e até mesmo na descoberta de possíveis novas interações, até então desconhecidas! Isso sem falar no que já é certo: vai é pipocar partículas novas nas colisões a altas energias que serão realizadas no LHC! Para dizer a verdade, o meio acadêmico está completamente eufórico e ansioso aguardando a chegada de 2007!
Agora com relação às partículas supersimétricas previstas pelas Supercordas. Como eu disse, não conheço nada sobre Supercordas. Temos que esperar para ver se as colisões no LHC gerarão algo da ordem de grandeza da energia necessária para se observar tais partículas. O ponto é que a falseabilidade de uma teoria não pode ser determinada pelos instrumentos que temos em mãos no momento. Fosse assim, grande parte da Física deveria ter sido considerada infalseável antigamente, pois certas previsões só puderam ser testadas muito tempo após terem sido geradas pelos modelos teóricos. Se as Supercordas prevêem uma ordem de grandeza na qual as partículas supersimétricas poderiam ser observadas, então a teoria é falseável, pois faz uma previsão bem definida e testável, ainda que não tenha sido possível testá-la até o momento, devido a limitações no instrumental de pesquisa experimental.
A bem da verdade, no site http://www.geae.inf.br/pt/boletins/geae480.html , encontramos:
“Na revista Nature de 6 de fevereiro de 2004 foi publicada uma nota de divulgação sobre alguns trabalhos sobre a tentativa de se medir alguma variação na velocidade da luz em referenciais diferentes. Segundo esta nota, os cientistas bolaram um experimento altamente preciso cujos resultados eram coisa do tipo 30 vezes melhor do que já foi feito antes. Mesmo assim eles mediram que a velocidade da luz não se altera com a diferença de referencial. Eles comentaram que isso tem forte implicações nas teorias modernas de supercordas, por exemplo. Isto pois, segundo essas teorias (supercordas), deve existir uma diferença pequena na velocidade da luz em determinados limites. Como as medidas não mostraram essa diferença isso sugere que essas teorias modernas [...] ainda não estão corretas”.
Cara, novamente, aqui teríamos que ter os estudos publicados em mãos para opinar sobre alguma coisa. Material de segunda mão não permite qualquer tipo de consideração, principalmente em Física, onde temos que analisar os modelos matemáticos (e, devo dizer, que a Matemática necessária para entender as Supercordas está muito além dos meus conhecimentos matemáticos atuais...eu não entendo porra nenhuma dos artigos do Witten), dados experimentais, etc. Eu nunca ouvi falar de tal previsão das Supercordas (variação da velocidade da luz)...se bem que isso não significa muita coisa, já que não conheço a teoria e nem os experimentos na área e o fato de eu ter ouvido ou não algo a respeito desta suposta previsão não é indicativo de nada.
Mas cabe aqui um ponto: um site espírita não me parece um local adequado para se procurar por informações relativas a Física.
Fayman disse: “As Supercordas ainda se encontra mo status de TEORIA, exatamente por não estar desenvolvida e completa”
Isso não impediu a Teoria da Relatividade ser testada. É uma teoria claramente falseável. Teve-se que esperar alguns anos para testar a Teoria da Relatividade, é certo, já que se dependia de um eclipse. Mas note que uma forma de falsear já havia sido encontrada e uma data estipulada. O mesmo ao menos ainda não é tão claro com relação à Teoria das Super-Cordas.
Bom, talvez as coisas fiquem mais claras a partir de 2007...
3)Táquions: “Táquions são meramente uma curiosidade, uma concepção, uma vez que não são previstos, nem derivados, de nenhuma teoria existente”
Não é bem assim, Fayman. Do mesmo site anterior, encontramos:
“As teorias de cordas só podem conter simetrias da natureza, as chamadas simetrias de calibre, em certas dimensões específicas. A teoria de cordas mais simples, contendo apenas elementos classicamente conhecidos, chamados bósons, que descrevem o espaço-tempo, só pode ser definida em 26 dimensões. Pior que isto, ela contem táquions, estranhas partículas que viajam a velocidades maiores que a da luz, e foram abandonadas por estas e outras razões”.
Atualmente há teorias de supercordas com menos dimensões e sem a necessidade de táquions. Mas entenda que os táquions são previstos e derivados de teorias existentes (ou que existiram) sim.
Não entendi a colocação de que bósons descrevem o espaço-tempo (?!). Bósons são partículas de spin inteiro que obedecem à Estatística de Bose-Einstein e são descritas por autofunções simétricas. São também responsáveis por mediar as interações fundamentais. Só se o cara falou do ainda hipotético gráviton, que por estar associado à (ainda não concretizada) descrição quântica da gravidade (e esta, por sua vez, com a geometria do espaço-tempo, via RG), teria sido tomado como um "descritor do espaço-tempo". Sei lá...ficou esquisito...
Bom, já ouvi dizer que a teoria de Cordas previa mesmo a existência de Táquions. Mas essa nunca foi uma previsão das Supercordas. E teoria de Cordas, sem a inclusão da Supersimetria, é algo que está completamente abandonado, até onde ouvi dizer...
Talvez grávitons sirva melhor no exemplo. Sabe como falseá-los?
Os grávitons são partículas hipotéticas, considerando-se o possível advento de uma teoria quântica da gravidade. A Cromodinâmica Quântica dá conta dos gluóns e a Unificação Eletrofraca dos fótons e bósons Z, W+ e W-. Quem dá conta dos grávitons?! Bom, ainda não temos tal resposta. Para serem falseáveis, acho que deveríamos ter uma teoria quântica da gravidade que fornecesse as propriedades deste bóson, mas isso ainda não existe. Ou seja, ainda não temos em mãos nenhuma teoria estruturada que preveja a existência de grávitons. É até possível inferir, devido às propriedades conhecidas da gravidade, algumas propriedades que esse hipotético bóson deveria possuir, mas não é algo bem estruturado ainda, pelo menos até onde sei. Só vai fazer sentido falar na falseabilidade dos grávitons quando tivermos um modelo teórico para descrevê-los.
Veja, minha idéia é de que da mesma forma como táquions ou grávitons não seriam falseáveis (ao menos no momento), a Ciência na prática cria teorias ou modelos em cima deles, e já eu tento expandir tal idéia para espíritos (ainda não sei se tal raciocínio é legítimo, mas ainda não vi nenhum furo claro nesta minha analogia).
Mas a Física não criou, pelo o que sei, até o momento, nenhum modelo teórico que descreva grávitons e táquions. Qual a interpretação Física de transformações de Lorentz com valores imaginários (o que ocorreria caso táquions existissem)?! E ainda teríamos um problema sério de possibilidade de quebra da causalidade (no sentido relativístico do termo: se num referencial o evento A precede o evento B, então em todos os referenciais tal precedência deve ser observada). Do outro lado, a gravidade não é renormalizável e, por isso, ainda não conseguimos uma descrição quântica da mesma.
Meu amigo Julio Siqueira cita casos mesmo de partículas que não podem ser detectadas, logo, não seriam passíveis de falseamento.
Que partículas não podem ser detectadas?!
Se forem os fótons virtuais trocados para estabelecer a interação eletromagnética, de fato, eles não podem ser detectados experimentalmente. Mas a coisa toda se passa (de forma qualitativa e quantitativa) como se eles estivessem sendo, de fato, trocados. O que você verifica experimentalmente está de acordo com os cálculos feitos a partir do modelo teórico, que trabalha com este conceito de fótons virtuais. Cabe aqui uma paralelo com a Cosmologia: você não tem como observar diretamente o evento Big Bang (seja a singularidade em si ou, então, um estado extremamente denso e quente do universo num passado remoto), mas ele é uma exigência de um modelo matemático que possui várias de suas previsões confirmadas observacionalmente.
4) Sobre Memética: há um artigo na Wikipédia em que a memética é chamada de protociência, em http://pt.wikipedia.org/wiki/Mem%C3%A9tica . Já Susan Blackmore chama mesmo de Ciência, em http://www.susanblackmore.co.uk/Confere ... chPort.htm . Ou seja, Viper, você pode não considerar a memética ciência, mas na prática...
Eu sei...nego fala de memética como se fosse Ciência. No extinto fórum da STR inúmeros foristas faziam isso. Mas continuo dizendo que isso não é Ciência...
Viper, as alegações de fenômenos paranormais são robustamente consistentes! Os testes ganzfeld são a maior prova disso, são basicamente comprovadores de telepatia ou clarividência (atualmente, mais para clarividência). São testes repetidos há mais de 30 anos, em laboratório, cujo índice de acerto esperado pelo acaso seria de 25%, mas a média obtida em milhares de replicações é de 32%. Isso comprova estatisticamente um fenômeno paranormal. Não creia no que diz o verbete do Dicionário Cético, é uma leitura tendenciosa e equivocada por estar extremamente desatualizada e citar estudos mal-conduzidos por Wiseman.
Quanto a modelos teóricos, a Pesquisa Psi tem vários, por exemplo o Psi Mediated Instrumental Response de Rex Stanford, e que já possui comprovação empírica! Você está precisando aumentar sua leitura parapsicológica.
Você tem razão...eu estou completamente desatualizado com relação à Pesquisa Psi. Para falar a verdade, eu não não leio nada fora da minha área já há um bom tempo. Você pode estar certo nas suas alegações, mas não tenho como comentar por desconhecimento. Eu até sei onde buscar informação a respeito, tanto pró-Psi (site do Wellington, por exemplo) quanto contra-Psi (CSICOP, por exemplo), mas não tenho muito tempo para isso. Se bem que, para dizer a verdade, eu também sou preguiçoso...quando sobra um tempo livre, ao invés de ler, eu ouço música...hehehe...
6) Reencarnação: é uma hipótese testável, e fornece mesmo algum grau de previsibilidade (o que é quase essencial a qualquer hipótese científica). Por exemplo, se uma criança afirma ter morrido na vida anterior com um tiro no peito, o investigador já sabendo disso pode deduzir que ela provavelmente tem DUAS marcas de nascença: uma onde a bala entrou e outra onde a bala saiu. E então verifica o corpo da criança se ela possui mesmo as marcas nos locais correspondentes. Stevenson possui casos em que isso ocorre, verificados com a certidão de óbito. Ele encontrou uma correspondência de 88% (pessoalmente, devido a alguns erros de registros da parte de Stevenson, acho que a porcentagem é um pouco menor de fato). Note, porém, que se a proporção fosse baixa, seria uma forma de falsear tal característica da reencarnação: que levamos as cicatrizes originadas de morte violenta da vida anterior para a próxima vida. Há mesmo casos de 6 marcas de nascença que correspondem aos ferimentos originados numa suposta vida anterior.
Cara, me desculpe por abusar de sua paciência...eu disse que ia começar a ler artigos do seu site, mas continuo sem tempo no momento...então me permita perguntar o seguinte: esses casos de lembranças de vidas passadas acompanhadas de marcas de nascença compatíveis com marcas do corpo da alegada encarnação pregressa do indivíduo são bastante raros, não?! Bom, de qualquer forma, seria interessante ver fotos comparativas com as marcas de nascença do alegador e do morto...
Ou seja, fazendo um paralelo com a Lei da Conservação da Energia. Nem a Lei da Conservação da Energia, nem Espíritos, seriam falseáveis, mas as hipóteses periféricas (neutrinos e reencarnação) seriam!
Mas a Lei de Conservação de Energia é falseável...basta achar um caso onde ela não se conserve que ela vai para o espaço. Tudo bem que a coisa, NA PRÁTICA, não é seguida exatamente dessa forma. Como eu expus anteriormente, o filósofo que melhor descreveu a atividade científica foi Lakatos. Se a Conservação de Energia for falseada, vamos procurar por partículas e outras formas de energia até então não detectadas que, quando contabilizadas, manteriam intacta tal lei. Mas e se tais não forem encontradas?! E se houver mais de um experimento onde a energia, aparentemente, não seja conservada?! Então, a teoria começa a acumular muitas anomalias e a apresentar um estado bastante degenerado. Chega um ponto em que ela deve ser abandonada, pois estaremos seguros em dizer que ela foi falseada e que hipóteses periféricas não podem mais salvá-la ou ,então, que o acúmulo destas distorceram e descaracterizaram de tal forma o corpo teórico original que estamos lidando com outra teoria. Mas concordo que o estabelecimento deste ponto não é algo lá muito objetivo ou fácil de ser feito...
Uma pergunta: vc considera Matemática uma Ciência ou apenas uma ferramenta?
Matemática não é uma Ciência no sentido popperiano do termo. É um ramo da razão pura.
Por enquanto é só! Quero evitar mensagens grandes!
Discussões em fóruns sempre são chatas porque você tem que ler textos grandes e escrever respostas que acabam ficando grandes. Se nós estivéssemos conversando ao vivo, isso daqui teria sido dito em 5 minutos...
Fayman escreveu:Complemento II:
Segue links sobre o experimento publicado na Nature:
http://www.nrc-cnrc.gc.ca/highlights/20 ... ing_e.html
http://steacie.nrc-cnrc.gc.ca/overview/ ... 004_e.html
O que Villeneuve e equipe mostram em seu experimento EM NADA tem a ver com a risível proposta de Guglinski, que tenta se apoderar desse experimento para validar sua idéia. Inclusive, é extremamente clara a ocorrência de Efeitos Quânticos, como mostra um dos textos, nesta referencia:
Under the rules of quantum mechanics, part of the electron is removed from the molecule, and at the same time, the other part of the electron remains in the molecule. The two "parts" of the electron were made to interfere and as a result emitted x-ray radiation.
Just as in computed tomography (CT), where the x-ray source is rotated around the patient, the NRC team rotated the nitrogen molecule slowly in a vacuum chamber and took projections of the orbital shape.
Em outro, temos:
Because of Heisenberg's Uncertainty Principle, an electron in a molecule does not occupy a single point in space. It is spread out in a cloud.
Ou seja, exatamente o que se mostra nas imagens!
Ou seja, ao invés de contrariar, o artigo apenas reforça as previsões da MQ...
Ou seja, ao invés de contrariar, o artigo apenas reforça as previsões da MQ...
Olá, Viper!
Só espero que o Vitor não pense que estou pegando no pé dele, não é nada disso, mas o tal Guglinski é um porre!
Eu descobri o “trabalho” desse cara sem querer, em um site que se predispunha a divulgar cultura. Achei aquilo um absurdo e imediatamente escrevi ao tal site. Infelizmente, só depois que eu havia enviado a postagem é que percebi que era um site espírita (estava bem disfarçado ou com as asneiras descritas, eu nem percebi). Obviamente, não houve nenhuma resposta.
Eu realmente fico p* da vida com esse tipo de pessoa que somente presta um serviço à desinformação, vide o próprio exemplo do Vitor que, sem saber detalhes sobre o assunto, e muito menos conhecendo esse fulano, toma aquelas informações como contestações válidas e verdadeiras. Esse é o típico exemplo do que esse tipo de (des)informação faz, propagando um absurdo, uma mentira.
Para mim, o cara é tão desonesto, tão vigarista, que tudo tem um cheiro de armação, como por exemplo, se tomarmos o texto da referência postada. Lá diz sobre uma possível troca de e-mail’s com um físico do Caltech, como podemos ver:
Em uma troca de mensagens pela Internet, um físico do Caltech escreveu a Guglinski:
Que físico? Ah, um físico do Caltech!
E por acaso não tem nome o Físico? Afinal, se um caso desse fosse válido, mais do que ninguém o fulaninho do Anel Quântico ia querer dar a referência, para estar cada vez mais apoiado naquilo que ele “prega”. Mas não, é tão somente “um físico do Caltech”! Isso sem contar o fato de que a equipe que realizou o experimento é de Toronto, Canadá!! Já que o fulaninho escreve para ““um físico do Caltech”, por ele não escreve e contesta os próprios autores, já que lê é tão doutor no assunto?
Para mim é claro porque não há nome; pois com nomes, ele não poderia “refutar”! Esse suposto físico afirma em resposta ao fulaninho:
O artigo de Villeneuve na Nature explica por que nenhuma sobreposiįão é vista. A técnica de alta geraįão harmônica que ele usa seleciona preferencialmente o orbital molecular mais elevado ocupado da molécula, neste caso o 2p, por ionizaįão. Isto é explicado na primeiro parágrafo do artigo. De fato, este é o ponto do artigo; que sua técnica tomográfica pode medir a forma de um simples orbital molecular, e não a densidade total do eletron
Obviamente, como não consegui o artigo original da Nature, não sei se essa observação existe ou não, nem sei se os comentários desse pretenso físico são válidos ou não, mas não boto fé, até porque não me parece que o que é descrito aqui seja o mesmo método descrito nos links postados! E há de se levar em conta que também não há qualquer comentário a esse respeito nos dois sites divulgando o trabalho e se algo assim fosse tão escandalosamente evidente, os autores, dentro da Teoria Conspiratória (mais uma!!) que o fulaninho acusa, teriam o maior interesse de perpetuar tais comentários, exatamente como uma auto-justificativa!
No mais, o fulaninho refuta a pretensa explicação de Villeneuve, passada através desse “físico sem nome”, mostrando que tudo prontamente confirma suas idéias!
Mais raiva dá, nem é ver imbecis iguais a esse falar esse monte de bobagem; é eles acharem que todos os que lêem são otários!
Abraços!
Olá, Viper!
Só espero que o Vitor não pense que estou pegando no pé dele, não é nada disso, mas o tal Guglinski é um porre!
Eu descobri o “trabalho” desse cara sem querer, em um site que se predispunha a divulgar cultura. Achei aquilo um absurdo e imediatamente escrevi ao tal site. Infelizmente, só depois que eu havia enviado a postagem é que percebi que era um site espírita (estava bem disfarçado ou com as asneiras descritas, eu nem percebi). Obviamente, não houve nenhuma resposta.
Eu realmente fico p* da vida com esse tipo de pessoa que somente presta um serviço à desinformação, vide o próprio exemplo do Vitor que, sem saber detalhes sobre o assunto, e muito menos conhecendo esse fulano, toma aquelas informações como contestações válidas e verdadeiras. Esse é o típico exemplo do que esse tipo de (des)informação faz, propagando um absurdo, uma mentira.
Para mim, o cara é tão desonesto, tão vigarista, que tudo tem um cheiro de armação, como por exemplo, se tomarmos o texto da referência postada. Lá diz sobre uma possível troca de e-mail’s com um físico do Caltech, como podemos ver:
Em uma troca de mensagens pela Internet, um físico do Caltech escreveu a Guglinski:
Que físico? Ah, um físico do Caltech!
E por acaso não tem nome o Físico? Afinal, se um caso desse fosse válido, mais do que ninguém o fulaninho do Anel Quântico ia querer dar a referência, para estar cada vez mais apoiado naquilo que ele “prega”. Mas não, é tão somente “um físico do Caltech”! Isso sem contar o fato de que a equipe que realizou o experimento é de Toronto, Canadá!! Já que o fulaninho escreve para ““um físico do Caltech”, por ele não escreve e contesta os próprios autores, já que lê é tão doutor no assunto?
Para mim é claro porque não há nome; pois com nomes, ele não poderia “refutar”! Esse suposto físico afirma em resposta ao fulaninho:
O artigo de Villeneuve na Nature explica por que nenhuma sobreposiįão é vista. A técnica de alta geraįão harmônica que ele usa seleciona preferencialmente o orbital molecular mais elevado ocupado da molécula, neste caso o 2p, por ionizaįão. Isto é explicado na primeiro parágrafo do artigo. De fato, este é o ponto do artigo; que sua técnica tomográfica pode medir a forma de um simples orbital molecular, e não a densidade total do eletron
Obviamente, como não consegui o artigo original da Nature, não sei se essa observação existe ou não, nem sei se os comentários desse pretenso físico são válidos ou não, mas não boto fé, até porque não me parece que o que é descrito aqui seja o mesmo método descrito nos links postados! E há de se levar em conta que também não há qualquer comentário a esse respeito nos dois sites divulgando o trabalho e se algo assim fosse tão escandalosamente evidente, os autores, dentro da Teoria Conspiratória (mais uma!!) que o fulaninho acusa, teriam o maior interesse de perpetuar tais comentários, exatamente como uma auto-justificativa!
No mais, o fulaninho refuta a pretensa explicação de Villeneuve, passada através desse “físico sem nome”, mostrando que tudo prontamente confirma suas idéias!
Mais raiva dá, nem é ver imbecis iguais a esse falar esse monte de bobagem; é eles acharem que todos os que lêem são otários!
Abraços!
Fayman
autor de:
OS GUARDIÕES DO TEMPO
RELÂMPAGOS DE SANGUE
ANJO - A FACE DO MAL
AMOR VAMPIRO
(Coletânea 7 autores)
autor de:
OS GUARDIÕES DO TEMPO
RELÂMPAGOS DE SANGUE
ANJO - A FACE DO MAL
AMOR VAMPIRO
(Coletânea 7 autores)