Portal do Governo Brasileiro


Por que o Vaticano, coração da Igreja, sedia a maior conferência sobre ateísmo no mundo

Desta terça (28) até quinta-feira (30), o Vaticano, centro espiritual e político da Igreja Católica, sedia um evento inusitado, se considerarmos seus princípios. Trata-se da Understanding Unbelief, apresentada como a maior conferência mundial sobre ateísmo.

O programa, financiado pela Fundação John Templeton, é organizado por quatro instituições acadêmicas, todas do Reino Unido. Na coordenação está a Universidade de Kent. E colaboram as universidades Conventry, Queen’s e de Saint Mary.

“Este evento não se realizaria no Vaticano se não fosse por uma efeméride: trata-se do 50º aniversário de uma conferência semelhante realizada no Vaticano”, afirmou à BBC News Brasil o antropólogo Jonathan Lanman, diretor do Instituto de Cognição e Cultura e professor da Universidade Queen’s Belfast, um dos organizadores do evento.

Vaticano inaugura presépio e árvore de Natal

Ele contou que um dos pesquisadores entrou em contato com o Vaticano, e então “eles concordaram em revisitar os temas da ‘incredulidade'”.A conferência de 1969, a primeira do gênero sobre o tema, ocorreu como consequência da abertura provocada pelo Concílio Vaticano 2º, ocorrido de 1962 a 1965.

O papa Paulo 6º (1897-1978) era um entusiasta do diálogo com outros cristãos, judeus e adeptos de outras religiões. E também criou um secretariado próprio para ouvir a quem chamava de “descrentes” —segundo suas palavras, o ateísmo era “um dos assuntos mais sérios de nosso tempo”.

O papa Francisco, que comanda a Igreja Católica desde 2013, já deu mostras de que procura abordar os ateus de forma respeitosa e sem um discurso de oposição.

No início deste ano, por exemplo, ele disse que é melhor viver como ateu dos que ir à missa e nutrir ódio pelos outros.

“Quantas vezes vemos o escândalo das pessoas que passam o dia na igreja e depois vivem a odiar ou a falar mal dos outros”, afirmou ele.”Vive como um ateu. Mas se vais à igreja, então vive como filho, como irmão, dá um verdadeiro exemplo.”

O evento que começa nesta terça terá painéis que debaterão o que leva pessoas a crerem e o que leva pessoas a não crerem em deus. Participam maioritariamente pesquisadores acadêmicos interessados no tema, como sociólogos, antropólogos, teólogos e filósofos —mas religiosos também são bem-vindos.

Em outubro de 2018, ele havia condenado publicamente o fato de muitos católicos lavarem dinheiro sujo, explorarem seus funcionários e cometerem delitos. “Há muitos católicos que são assim e eles causam escândalos”, disse o pontífice. “Quantas vezes todos ouvimos pessoas dizerem ‘se esta pessoa é católica, é melhor ser ateu’?”.

O evento desta semana tem a chancela do Pontifício Conselho para a Cultura, dicastério criado em 1982 pelo papa João Paulo 2º (1920-2005).

Há 50 anos, a primeira conferência foi, segundo o sociólogo Rocco Caporale (1927-2008), que escreveu um livro sobre ela (‘The Culture of Unbelief: Studies and Proceedings From the First International Symposium on Belief Held at Rome’), uma primeira oportunidade para que a Igreja pudesse debater várias questões da “cultura da não-crença” e sobre como estudá-la.

Caporale relata que uma das principais percepções dos participantes do simpósio de 1969 foi a de que “o crer e o não crer são uma completa terra incógnita”.

Mas, dessa vez, o pesquisadores poderão se debruçar sobre os dados de um estudo realizado pelas universidades britânicas de Kent, Conventry, Queen’s e Saint Mary.

Trata-se de uma pesquisa conduzida em seis países sobre o que é ser ateu hoje. No total, foram entrevistadas 6,6 mil pessoas —seguindo criteriosa amostragem científica— do Brasil, Estados Unidos, Reino Unido, China, Japão e Dinamarca.

O relatório, que será publicado nesta terça (28), trouxe oito pontos-chave para entender o fenômeno da não-crença no mundo:

1. Ateus —aqueles que não acreditam em deus— e agnósticos —os que não sabem se existe deus ou não, mas não acreditam que haja uma maneira descobrir— não são homogêneos. Eles aparecem em grupos diferentes nos países pesquisados. “Por conseguinte, há muitas maneiras de ser incrédulo”, pontua o documento.

2. Em todos os seis países, a maioria dos que não acreditam em deus se identifica como “sem religião”.

3. Na hora de se autorrotularem, os incrédulos que preferem ser chamados de “ateu” ou “agnóstico” não são a maioria. Muitos classificam-se como “humanistas”, “pensadores livres”, “céticos” ou “seculares”.

4. Os ateus do Brasil e da China são os menos convencidos de que sua crença sobre a não-existência de deus está correta.

5. Não crer em deus não significa necessariamente não acreditar em outros fenômenos sobrenaturais, ainda que os ateus sejam mais céticos em relação a estes do que as populações gerais.

6. Entre os ateus, o percentual de pessoas que acham que o universo é “em última instância, sem sentido” é maior do que no restante da população. Mas, ainda assim, em número muito inferior ao de metade dos pertencentes ao grupo.

7. Quando confrontados com questões relacionadas a, segundo o relatório, “valores morais objetivos, dignidade humana e direitos correlatos, além do valor profundo da natureza”, as posições dos ateus são semelhantes ao do restante da população.

8. Por fim, quando perguntados sobre quais são os valores mais importantes da vida, houve uma “concordância extraordinariamente alta entre incrédulos e populações gerais”, apontou o levantamento. “Família” e “liberdade” foram muito bem citados por todos, além de “compaixão”, “verdade”, “natureza” e “ciência”.

Da mesma maneira que nem todos os que se descrevem como “sem religião” são ateus —muitos cultivam uma espiritualidade própria— a pesquisa mostrou que nem todos os ateus são “sem religião”.

No caso do Brasil, por exemplo, 73% dos incrédulos se identificam como “sem religião”, enquanto 18% se dizem cristãos. Na Dinamarca, 63% dos ateus se dizem “sem religião” —28% são cristãos.

A explicação para isso pode ser por conta da tradição familiar. Com exceção dos chineses e dos japoneses, a maioria dos ateus entrevistados disseram que romperam uma religião de família —é o caso de 85% dos incrédulos brasileiros e 74% dos norte-americanos, por exemplo.

Em todos os países ouvidos, a grande maioria dos ateus veio de famílias cristãs (79% dos brasileiros, 63% dos norte-americanos, 60% dos dinamarqueses).

A questão dos rótulos também traz variações —muitas vezes motivadas por receio de preconceitos. Entre os que “não sabem se deus existe” —tecnicamente agnósticos, portanto—, 8% dos brasileiros se autodefinem como ateus e a maioria, 27%, prefere ser chamada de agnóstica; seguida de não religiosa (16%), espiritual mas não religiosa (13%), racionalista (9%) e cética (8%).

Para os chineses desse grupo, 20% se dizem ateus e 18% racionalistas. Japoneses, britânicos e dinamarqueses preferem ser classificados como “não religiosos” (34% e 27% e 17%, respectivamente) e norte-americanos se definem como “agnósticos” (26%).

Já no grupo dos que afirmam que “deus não existe” —tecnicamente ateus— 30% dos brasileiros se autodenominam ateus, 14% sem religião. Situação semelhante aparece na pesquisa realizada com norte-americanos —39% assumem-se ateus.

E entre os chineses, há um equilíbrio entre os que preferem ser chamados de racionalistas, ateus e livres-pensadores (respectivamente com 22%, 21% e 19%). Dinamarqueses, britânicos e japoneses preferem ser classificados como sem religião (36%, 35% e 31%).

A crença na ciência como o melhor modelo para atingir o conhecimento apareceu como homogênea entre crentes e incrédulos em todos os países aferidos, exceto Brasil e Estados Unidos. No caso brasileiro, os métodos científicos são considerados o melhor caminho para 71% dos não crentes —contra 43% da população em geral.

Entre os norte-americanos, o número é de 70% entre os incrédulos e despenca para apenas 33% da população em geral.

“Essas descobertas mostram de uma vez por todas que a imagem pública do ateu é, na melhor das hipóteses, uma simplificação. E, na pior das hipóteses, uma caricatura bruta”, ressalta Lois Lee, pesquisadora de estudos religiosos da Universidade de Kent e autora dos livros Recognizing the Non-religious: Reimagining the Secular (Reconhecendo o Não-religioso: Reimaginando o Secular, em tradução livre) e The Oxford Dictionary of Atheism (O Dicionário Oxford de Ateísmo).

“Em vez de confiar em suposições sobre o que significa ser ateu, podemos agora trabalhar com uma compreensão real das diferentes visões de mundo que a população ateísta inclui.

As implicações para a política pública e social são substanciais. “Nossos dados vão de encontro a estereótipos comuns sobre os incrédulos”, afirma Lanman.

“Uma visão comum é que os incrédulos não teriam um senso de moralidade e propósito objetivos, nutrindo um conjunto de valores muito diferente do restante da população. Nossa pesquisa mostra que nada disso é verdade. Em um tempo em que as sociedades parecem estar cada vez mais polarizadas, tem sido interessante e encorajador ver que uma das supostas grandes divisões na vida humana —crentes x não crentes— pode não ser tão grande assim.”

 

https://www1.folha.uol.com.br/mundo/2019/05/por-que-o-vaticano-coracao-da-igreja-sedia-a-maior-conferencia-sobre-ateismo-no-mundo.shtml

| Sem categoria


Charlatães

Todo charlatão que se preza alega receber eflúvios energéticos do além túmulo. Em busca de alívio para os mais variados males, os crédulos vão até ele.

Basta correr o primeiro boato de que o parente do filho do amigo de algum vizinho sarou ao receber um passe para que a fama do charlatão se espalhe. Em pouco tempo, começam as romarias em sua porta.

Se o espertalhão aprendeu certos truques há mais de um século desmascarados pelos mágicos, como enfiar tesouras em narizes, raspar córneas e fazer cortes superficiais através dos quais retiram falsos tumores sem que os incautos sintam dor ou se deem conta da prestidigitação, os testemunhos de poderes extrassensoriais correm o mundo.

A credulidade humana não tem nacionalidade nem respeita fronteiras.

Ele se alimenta da insegurança do outro. Apregoa o dom de incorporar “entidades” que mobilizam energias transcendentais, capazes de restabelecer a ordem nas células do organismo enfermo.

Ilustração de Líbero para Drauzio Varela de 22.dez.2018.

Ninguém questiona a natureza dessa energia: cinética, térmica, potencial, atômica? Ninguém estranha por que ela não faz um tapete voar nem ferver a água de um copo.

O prestígio do charlatão é potencializado pelas personagens públicas que consegue atrair. Cada médico, juiz, presidente da República, intelectual ou artista de renome que procura seus serviços atrai publicidade e lhe confere atestado de idoneidade espiritual.

As motivações que levam gente esclarecida a ir atrás do sobrenatural são as mesmas que mobilizam a pessoa mais simplória. Credulidade é condição contagiosa, não respeita escolaridade, posição social, cultura ou talento artístico.

Trato de doentes com câncer há 50 anos. Assisti ao desapontamento de inúmeras famílias que viajaram centenas de quilômetros com seus entes queridos —muitas vezes debilitados—​ atrás da promessa de curas mágicas que jamais se concretizaram.

A vítima se aproxima do charlatão na esperança de um milagre. Poucos se conformam com a finitude da existência e aceitam as restrições impostas pelas leis da natureza: milagres não existem, são criações do imaginário humano.

Se existissem, em meio século de atividade profissional intensa com pacientes graves, eu teria visto pelo menos um, ainda que fosse uma redução ínfima nas dimensões de uma metástase. Cem por cento das chamadas curas espirituais que tive a oportunidade de avaliar não resistiram à análise racional mais elementar.

Como nem sempre estão bem definidos os limites de separação entre superstições, crendices e religião, quem ousa denunciar as artimanhas do charlatão é tido como contestador da religiosidade alheia e enfrenta a ira popular.

Duvidar da eficácia de suas ações é afrontar a palavra do “enviado de Deus” e as convicções dos fiéis. Tentar convencê-los de que são ludibriados por um malandro que lhes incute esperanças vãs é considerado sacrilégio.

Veja o caso desse cidadão autodenominado João de Deus. Durante décadas iludiu, trapaceou e cortou pessoas com instrumentos inadequados sem o menor cuidado com a esterilização.

Para retirar um ponto cirúrgico de um paciente em meu consultório, preciso de autorização explícita da Anvisa, sem a qual posso ser multado pela fiscalização caso guarde no armário uma pinça e uma tesoura cirúrgica. Tanto rigor com os médicos e permissividade covarde e conivente com esses incorporadores de espíritos.

A menos que tenha mediunidade suficiente para imobilizar vírus e bactérias, quantas infecções locais e transmissões de hepatite B e C, HIV e outras doenças esse curandeiro provocou impunemente?

A sociedade fica chocada ao saber que ele abusou de centenas de mulheres indefesas. Sinceramente, só me surpreendi com o número: esperar comportamento ético de alguém que ficou milionário explorando a boa fé de milhões de doentes é ingenuidade pueril.

Veja você, caríssima leitora, a situação humilhante da mulher no Brasil: no decorrer de 40 anos, um homem branco e poderoso se aproveita sexualmente de mulheres em situação de vulnerabilidade, sob o olhar complacente de auxiliares que com ele convivem, sem ser denunciado à polícia.

Não fossem os depoimentos apresentados no programa do Pedro Bial, quantas ainda seriam estupradas?

Que sensação de impotência, fragilidade, solidão e vergonha tantas mulheres viveram sem ter como reagir, com medo da opinião pública, acuadas pela influência religiosa e social de um criminoso desprezível.

Drauzio Varella
Médico cancerologista, autor de “Estação Carandiru”.
Fonte: https://www1.folha.uol.com.br/colunas/drauziovarella/2018/12/charlataes.shtml

| Sem categoria


A Era da Burrice
Discussões inúteis, intermináveis, agressivas. Gente defendendo as maiores asneiras, e se orgulhando disso. Pessoas perseguindo e ameaçando as outras. Um tsunami infinito de informações falsas. Reuniões, projetos, esforços que dão em nada. Decisões erradas. Líderes políticos imbecis. De uns tempos para cá, parece que o mundo está mergulhando na burrice. Você já teve essa sensação? Talvez não seja só uma sensação. Estudos realizados com dezenas de milhares de pessoas, em vários países, revelam algo inédito e assustador: aparentemente, a inteligência humana começou a cair.
Os primeiros sinais vieram da Dinamarca. Lá, todos os homens que se alistam no serviço militar são obrigados a se submeter a um teste de inteligência: o famoso, e ao mesmo tempo misterioso, teste de QI (mais sobre ele daqui a pouco). Os dados revelaram que, depois de crescer sem parar durante todo o século 20, o quociente de inteligência dos dinamarqueses virou o fio, e em 1998 iniciou uma queda contínua: está descendo 2,7 pontos a cada década. A mesma coisa acontece na Holanda (onde tem sido observada queda de 1,35 ponto por década), na Inglaterra (2,5 a 3,4 pontos de QI a menos por década, dependendo da faixa etária analisada), e na França (3,8 pontos perdidos por década). Noruega, Suécia e Finlândia – bem como Alemanha e Portugal, onde foram realizados estudos menores – detectaram efeito similar.
“Há um declínio contínuo na pontuação de QI ao longo do tempo. E é um fenômeno real, não um simples desvio”, diz o antropólogo inglês Edward Dutton, autor de uma revisão analítica(1) das principais pesquisas já feitas a respeito. A regressão pode parecer lenta; mas, sob perspectiva histórica, definitivamente não é. No atual ritmo de queda, alguns países poderiam regredir para QI médio de 80 pontos, patamar definido como “baixa inteligência”, já na próxima geração de adultos.
Não há dados a respeito no Brasil, mas nossos indicadores são terríveis. Um estudo realizado este ano pelo Ibope Inteligência com 2 mil pessoas revelou que 29% da população adulta é analfabeta funcional, ou seja, não consegue ler sequer um cartaz ou um bilhete. E o número de analfabetos absolutos, que não conseguem ler nada, cresceu de 4% para 8% nos últimos três anos (no limite da margem de erro da pesquisa, 4%).
No caso brasileiro, a piora pode ser atribuída à queda nos investimentos em educação, que já são baixos (o País gasta US$ 3.800 anuais com cada aluno do ensino básico, menos da metade da média das nações da OCDE) e têm caído nos últimos anos. Mas como explicar a aparente proliferação de burrice mesmo entre quem foi à escola? E a queda do QI nos países desenvolvidos? O primeiro passo é entender a base da questão: o que é, e como se mede, inteligência.
De 0 a 160
O primeiro teste de QI (quociente de inteligência) foi elaborado em 1905 pelos psicólogos franceses Alfred Binet e Théodore Simon, para identificar crianças com algum tipo de deficiência mental. Em 1916, o americano Lewis Terman, da Universidade Stanford, aperfeiçoou o exame, que acabou sendo adaptado e usado pelos EUA, na 1ª Guerra Mundial, para avaliar os soldados.
Mas o questionário tinha vários problemas – a começar pelo fato de que ele havia sido desenvolvido para aferir deficiência mental em crianças, não medir a inteligência de adultos. Inconformado com isso, o psicólogo romeno-americano David Wechsler resolveu começar do zero. E, em 1955, publicou o WAIS: Wechsler Adult Intelligence Scale, exame que se tornou o teste de QI mais aceito entre psicólogos, psiquiatras e demais pesquisadores da cognição humana (só neste ano, foi utilizado ou citado em mais de 900 estudos sobre o tema).
Ele leva em média 1h30, e deve ser aplicado por um psiquiatra ou psicólogo. Consiste numa bateria de perguntas e testes que avaliam 15 tipos de capacidade intelectual, divididos em quatro eixos: compreensão verbal, raciocínio, memória e velocidade de processamento. Isso inclui testes de linguagem (o psicólogo diz, por exemplo: “defina o termo abstrato”, e aí avalia a rapidez e a complexidade da sua resposta), conhecimentos gerais, aritmética, reconhecimento de padrões (você vê uma sequência de símbolos, tem de entender a relação entre eles e indicar o próximo), memorização avançada, visualização espacial – reproduzir formas 3D usando blocos de madeira – e outros exercícios.
O grau de dificuldade do exame é cuidadosamente calibrado para que a média das pessoas marque de 90 a 110 pontos. Esse é o nível que significa inteligência normal, média. Se você fizer mais de 130 pontos, é enquadrado na categoria mais alta, de inteligência “muito superior” (a pontuação máxima é 160).
Mas é preciso encarar esses números em sua devida perspectiva. O teste de QI não diz se uma pessoa vai ter sucesso na vida, nem determina seu valor como indivíduo. Não diz se você é sensato, arguto ou criativo, entre outras dezenas de habilidades intelectuais que um ser humano pode ter. O que ele faz é medir a cognição básica, ou seja, a sua capacidade de executar operações mentais elementares, que formam a base de todas as outras. É um mínimo denominador comum. E, por isso mesmo, pode ajudar a enxergar a evolução (ou involução) da inteligência.
Ao longo do século 20, o QI aumentou consistentemente no mundo todo – foram três pontos a mais por década, em média. É o chamado “efeito Flynn”, em alusão ao psicólogo americano James Flynn, que o identificou e documentou. Não é difícil entender essa evolução. Melhore a saúde, a nutrição e a educação das pessoas, e elas naturalmente se sairão melhor em qualquer teste de inteligência. O QI da população japonesa, por exemplo, chegou a crescer 7,7 pontos por década após a 2ª Guerra Mundial; uma consequência direta da melhora nas condições de vida por lá. Os cientistas se referem ao efeito atual, de queda na inteligência, como “efeito Flynn reverso”. Como explicá-lo?
Involução natural
A primeira hipótese é a mais simples, e a mais polêmica também. “A capacidade cognitiva é fortemente influenciada pela genética. E as pessoas com altos níveis dela vêm tendo menos filhos”, afirma o psicólogo Michael Woodley, da Universidade de Umeå, na Suécia. Há décadas a ciência sabe que boa parte da inteligência (a maioria dos estudos fala em 50%) é hereditária. E levantamentos realizados em mais de cem países, ao longo do século 20, constataram que há uma relação inversa entre QI e taxa de natalidade. Quanto mais inteligente uma pessoa é, menos filhos ela acaba tendo, em média.
Some uma coisa à outra e você concluirá que, com o tempo, isso tende a reduzir a proporção de pessoas altamente inteligentes na sociedade. Trata-se de uma teoria controversa, e com razão. No passado, ela levou à eugenia, uma pseudociência que buscava o aprimoramento da raça humana por meio de reprodução seletiva e esterilização de indivíduos julgados incapazes. Esses horrores ficaram para trás. Hoje ninguém proporia tentar “melhorar” a sociedade obrigando os mais inteligentes a ter mais filhos – ou impedindo as demais pessoas de ter.
Mas isso não significa que a matemática das gerações não possa estar levando a algum tipo de declínio na inteligência básica. Inclusive pela própria evolução da sociedade, que tornou a vida mais fácil. “Um caçador-coletor que não pensasse numa solução para conseguir comida e abrigo provavelmente morreria, assim como seus descendentes”, escreveu o biólogo Gerald Crabtree, da Universidade Stanford, em um artigo recente. “Já um executivo de Wall Street que cometesse um erro similar poderia até receber um bônus.”
Crabtree é um radical. Ele acha que a capacidade cognitiva pura, ou seja, o poder que temos de enfrentar um problema desconhecido e superá-lo, atingiu o ápice há milhares de anos e de lá para cá só caiu – isso teria sido mascarado pela evolução tecnológica, em que as inovações são realizadas por enormes grupos de pessoas, não gênios solitários. Outros pesquisadores, como Michael Woodley, endossam essa tese: dizem que o auge da inteligência individual ocorreu há cerca de cem anos.
Os fatos até parecem confirmar essa tese (Einstein escreveu a Relatividade sozinho; já o iPhone é projetado por milhares de pessoas, sendo 800 engenheiros trabalhando só na câmera), mas ela tem algo de falacioso. A humanidade cria e produz coisas cada vez mais complexas – e é por essa complexidade, não por uma suposta queda de inteligência individual, que as grandes invenções envolvem o trabalho de mais gente. Da mesma forma, as sociedades modernas permitem que cada pessoa abrace uma profissão e se especialize nela, deixando as demais tarefas para outros profissionais, ou a cargo de máquinas.
E não há nada de errado nisso. Mas há quem diga que o salto tecnológico dos últimos 20 anos, que transformou nosso cotidiano, possa ter começado a afetar a inteligência humana. Talvez aí esteja a explicação para o “efeito Flynn reverso” – que começou justamente nesse período, e se manifesta em países desenvolvidos onde o padrão de vida é mais igualitário e estável (sem diferenças ou oscilações que possam mascarar a redução de QI).
“Hoje, crianças de 7 ou 8 anos já crescem com o celular”, diz Mark Bauerlein, professor da Universidade Emory, nos EUA, e autor do livro The Dumbest Generation(“A Geração Mais Burra”, não lançado em português). “É nessa idade que as crianças deveriam consolidar o hábito da leitura, para adquirir vocabulário.” Pode parecer papo de ludita, mas há indícios de que o uso de smartphones e tablets na infância já esteja causando efeitos negativos. Na Inglaterra, por exemplo, 28% das crianças da pré-escola (4 e 5 anos) não sabem se comunicar utilizando frases completas, no nível que seria normal para essa idade. Segundo educadores, isso se deve ao tempo que elas ficam na frente de TVs, tablets e smartphones.
28% das crianças britânicas não sabem falar corretamente
O problema é considerado tão grave que o governo anunciou um plano para reduzir esse índice pela metade até 2028 – e o banimento de smartphones nas escolas é uma das medidas em discussão. O efeito também já é observado em adolescentes. Nos dois principais exames que os americanos fazem para entrar na faculdade, o SAT e o ACT, o desempenho médio vem caindo. Em 2016, a nota na prova de interpretação de texto do SAT foi a mais baixa em 40 anos.
As pessoas nunca leram e escreveram tanto; mas estão lendo e escrevendo coisas curtíssimas, em seus smartphones. Um levantamento feito pela Nokia constatou que os americanos checam o celular em média 150 vezes por dia. Dá uma vez a cada seis minutos, ou seja, é como se fosse um fumante emendando um cigarro no outro. E esse dado é de 2013; hoje, é provável que o uso seja ainda maior. A onda já preocupa até a Apple e o Google, que estão incluíndo medidores de uso nas novas versões do iOS e do Android – para que você possa saber quantas vezes pega o seu smartphone, e quanto tempo gasta com ele, a cada dia.
A mera presença do celular, mesmo desligado, afeta nossa capacidade de raciocinar. Adrian Ward, professor da Universidade do Texas, constatou isso ao avaliar o desempenho de 548 estudantes(3) em três situações: com o celular na mesa, virado para baixo; com o aparelho no bolso ou na bolsa; e com o celular em outra sala. Em todos os casos, o celular ficou desligado. Mas quanto mais perto ele estava da pessoa, pior o desempenho dela. “Você não está pensando no celular. Mas ele consome parte dos recursos cognitivos. É como um dreno cerebral”, conclui Ward.
Cada brasileiro gasta 3h39 min por dia nas redes sociais
Outra hipótese é que o uso intensivo das redes sociais, que são projetadas para consumo rápido (passamos poucos segundos lendo cada post) e consomem boa parte do tempo (cada brasileiro gasta 3h39 min por dia nelas, segundo pesquisa feita pela empresa GlobalWebIndex), esteja corroendo nossa capacidade de prestar atenção às coisas. Você já deve ter sentido isso: parece cada vez mais difícil ler um texto, ou até mesmo ver um vídeo do YouTube, até o final. E quando assistimos a algo mais longo, como um filme ou uma série do Netflix, geralmente nos esquecemos logo. São duas faces da mesma moeda. Levar no bolso a internet, com seu conteúdo infinito, baniu o tédio da vida humana. Mas, justamente por isso, também pode ter nos tornado mais impacientes, menos capazes de manter o foco.
Se prestamos menos atenção às coisas, elas obrigatoriamente têm de ser mais simples. E esse efeito se manifesta nos campos mais distintos, da música aos pronunciamentos políticos. Cientistas do Instituto de Pesquisa em Inteligência Artificial (IIIA), na Espanha, analisaram em computador 460 mil faixas lançadas nos últimos 50 anos, e concluíram(4) que a música está se tornando menos complexa e mais homogênea. Houve uma redução de 60% na quantidade de timbres (com menor variedade de instrumentos e técnicas de gravação), e de 50% na faixa dinâmica (variação de volume entre as partes mais baixas e mais altas de cada música). Tudo soa mais parecido – e mais simples.
Essa simplificação também é visível no discurso político. Um estudo da Universidade Carnegie Mellon, nos EUA, constatou que os políticos americanos falam como crianças(5). A pesquisa analisou o vocabulário e a sintaxe de cinco candidatos à última eleição presidencial (Donald Trump, Hillary Clinton, Ted Cruz, Marco Rubio e Bernie Sanders), e constatou que seus pronunciamentos têm o nível verbal de uma criança de 11 a 13 anos. Os pesquisadores também analisaram os discursos de ex-presidentes americanos, e encontraram um declínio constante. Abraham Lincoln se expressava no mesmo nível de um adolescente de 16 anos. Ronald Reagan, 14. Obama e Clinton, 13. Trump, 11. (O lanterna é George W. Bush, com vocabulário de criança de 10 anos.)
Isso não significa que os músicos sejam incompetentes e os políticos sejam burros. Eles estão sendo pragmáticos, e adaptando suas mensagens ao que seu público consegue entender – e, principalmente, está disposto a ouvir. Inclusive porque esse é outro pilar da burrice moderna: viver dentro de uma bolha que confirma as próprias crenças, e nunca mudar de opinião. Trata-se de um comportamento irracional, claro. Mas, como veremos a seguir, talvez a própria razão não seja assim tão racional.
Os limites da razão
Você certamente já discutiu com uma pessoa irracional, que manteve a própria opinião mesmo diante dos argumentos mais irrefutáveis. É um fenômeno normal, que os psicólogos chamam de “viés de confirmação”: a tendência que a mente humana tem de abraçar informações que apoiam suas crenças, e rejeitar dados que as contradizem.
Isso ficou claro num estudo famoso, e meio macabro, realizado em 1975 na Universidade Stanford. Cada participante recebeu 25 bilhetes suicidas (que as pessoas deixam antes de se matar), e tinha que descobrir quais deles eram verdadeiros e quais eram falsos. Alguns voluntários logo identificavam os bilhetes de mentirinha, forjados pelos cientistas. Outros quase sempre se deixavam enganar. Então os pesquisadores dividiram os participantes em dois grupos: um só com as pessoas que haviam acertado muito, e outro só com os que tinham acertado pouco.
Só que era tudo uma pegadinha. Os cientistas haviam mentido sobre a pontuação de cada pessoa. Eles abriram o jogo sobre isso, e então pediram que cada voluntário avaliasse o próprio desempenho. Aí aconteceu o seguinte. Quem havia sido colocado no “grupo dos bons” continuou achando que tinha ido bem (mesmo nos casos em que, na verdade, havia ido mal); já os do outro grupo se deram notas baixas, fosse qual fosse sua nota real. Conclusão: a primeira opinião que formamos sobre uma coisa é muito difícil de derrubar – mesmo com dados concretos.
Esse instinto de “mula empacada” afeta até os cientistas, como observou o psicólogo Kevin Dunbar, também de Stanford. Ao acompanhar a rotina de um laboratório de microbiologia durante um ano, ele viu que os cientistas iniciam suas pesquisas com uma tese e depois fazem testes para comprová-la, desconsiderando outras hipóteses. “Pelo menos 50% dos dados encontrados em pesquisas são inconsistentes com a tese inicial. Quando isso acontece, os cientistas refazem o experimento mudando detalhes, como a temperatura, esperando que o dado estranho desapareça”, diz Dunbar. Só uma minoria investiga resultados inesperados (justamente o caminho que muitas vezes leva a grandes descobertas). O cérebro luta para manter nossas opiniões – mesmo que isso signifique ignorar os fatos.
Quanto mais comprometido você está com uma teoria, mais tende a ignorar evidências contrárias. “Há informações demais à nossa volta, e os neurônios precisam filtrá-las”, afirma Dunbar. Há até uma região cerebral, o córtex pré-frontal dorsolateral, cuja função é suprimir informações que a mente considere “indesejadas”. Tem mais: nosso cérebro libera uma descarga de dopamina, neurotransmissor ligado à sensação de prazer, quando recebemos informações que confirmam nossas crenças. Somos programados para não mudar de opinião. Mesmo que isso signifique acreditar em coisas que não são verdade.
Nosso cérebro é tão propenso à irracionalidade que há quem acredite que a própria razão como a conhecemos (o ato de pensar fria e objetivamente, para encontrar a verdade e resolver problemas) simplesmente não exista. “A razão tem duas funções: produzir motivos para justificar a si mesmo e gerar argumentos para convencer os demais”, dizem os cientistas cognitivos Hugo Mercier e Dan Sperber, da Universidade Harvard, no livro The Enigma of Reason (“O Enigma da Razão”, não lançado em português). Eles dizem que a razão é relativa, altera-se conforme o contexto, e sua grande utilidade é construir acordos sociais – custe o que custar.
Na pré-história, isso fazia todo o sentido. Nossos ancestrais tinham de criar soluções para problemas básicos de sobrevivência, como predadores e falta de alimento, mas também precisavam lidar com os conflitos inerentes à vida em bando (se eles não se mantivessem juntos, seria difícil sobreviver). Só que o mundo de hoje, em que as pessoas opinam sobre todos os assuntos nas redes sociais, deu um nó nesse instrumento. “Os ambientes modernos distorcem a nossa habilidade de prever desacordos entre indivíduos. É um dos muitos casos em que o ambiente mudou rápido demais para que a seleção natural pudesse acompanhar”, dizem Mercier e Sperber.
Para piorar, a evolução nos pregou outra peça, ainda mais traiçoeira: quase toda pessoa se acha mais inteligente que as outras. Acha que toma as melhores decisões e sabe mais sobre rigorosamente todos os assuntos, de política a nutrição. É o chamado efeito Dunning-Kruger, em alusão aos psicólogos americanos David Dunning e Justin Kruger, autores dos estudos que o comprovaram. Num deles, 88% dos entrevistados disseram dirigir melhor que a média. Em outro, 32% dos engenheiros de uma empresa afirmaram estar no grupo dos 5% mais competentes.
Pesquisas posteriores revelaram que, quanto mais ignorante você é sobre um tema, mais tende a acreditar que o domina. No tempo das savanas, isso podia até ser bom. “A curto prazo, dá mais autoconfiança”, afirma Dunning. Agora aplique essa lógica ao mundo de hoje, e o resultado será o mar de conflitos que tomou conta do dia a dia. A era da cizânia – e da burrice.
Ela pode ser desesperadora. Mas nada indica que seja um caminho sem volta. Nos 300 mil anos da história do Homo sapiens, estamos apenas no mais recente – e brevíssimo – capítulo. Tudo pode mudar; e, como a história ensina, muda. Inclusive porque a inteligência humana ainda não desapareceu.
Ela continua viva e pronta, exatamente no mesmo lugar: dentro das nossas cabeças.
(1) The negative Flynn Effect: A systematic literature review. Edward Dutton e outros, Ulster Institute for Social Research, 2016.
(2) IQ and fertility: A cross-national study. Steven M. Shatz, Hofstra University, 2007.
(3) Brain Drain: The Mere Presence of One’s Own Smartphone Reduces Available Cognitive Capacity. Adrian F. Ward e outros, Universidade do Texas, 2017
(4) Measuring the Evolution of Contemporary Western Popular Music. Joan Serrà e outros, Spanish National Research Council, 2012
(5) A Readability Analysis of Campaign Speeches from the 2016 US Presidential Campaign. Elliot Schumacher e Maxine Eskenazi, Carnegie Mellon University, 2016.
https://super.abril.com.br/especiais/a-era-da-burrice/
| Sem categoria


“Não há possibilidade de deus” diz Stephen Hawking

De sua mesa na Universidade de Cambridge e além, Stephen Hawking enviou sua mente espiralando nas maiores profundezas dos buracos negros, irradiando através do cosmos infinito num grande vórtice através de bilhões de anos para testemunhar a primeira respiração do tempo. Ele viu a criação como um cientista, e quando foi chamado para discutir os grandes enigmas da criação – De onde viemos? Qual o nosso propósito? Estamos sozinhos? – Ele respondeu como um cientista, muitas vezes para o desgosto dos críticos religiosos.

Stephen Hawking's Final Book Says There's 'No Possibility' of God in Our Universe

Em seu livro final “Pequenas Respostas para Grandes Perguntas” o professor Hawking inicia uma série de 10 ensaios intergaláticos ao lidar com a mais antiga – e mais religiosamente carregada – pergunta de todas: Existe um deus?

A resposta de Hawking – garimpada de décadas de entrevistas, ensaios e discursos com o auxílio de sua família, colegas e do Instituto Stephen Hawking – não deveria ser uma surpresa para os leitores que seguiram seu trabalho, digamos, religiosamente.

“Eu penso que o universo foi espontaneamente criado do nada, de acordo com as leis da ciência”, escreveu Hawking, falecido em Março. “Se você aceitar, assim como eu, que as leis da natureza são fixas, então não demora muito para se questionar: Qual o papel que existe para deus?”.

Em vida, Hawking foi um defensor aguerrido da Teoria do Big Bang – a ideia de que o universo começou de uma explosão súbita oriunda de uma singularidade ultradensa menor que um átomo. Deste ponto emergiu toda a matéria, energia e espaço vazio que o universo teria, e todo este material cru evoluiu para o cosmos que nós percebemos hoje ao seguir um conjunto estrito de leis científicas. Para Hawking e muitos cientistas que seguem a mesma filosofia, as leis combinadas da gravitação, relatividade, física quântica e mais algumas outras poderia explicar tudo que já ocorreu e que ocorrerá em nosso universo.

“Se te agrada, você pode dizer que as leis são um trabalho de deus, mas isso é mais uma definição de deus que uma prova de sua existência”, escreveu Hawking.

Com o universo funcionando num piloto automático cientificamente guiado, o único papel para uma toda poderosa deidade poderia ser determinar as condições iniciais do universo, para que as leis tomassem forma – um criador divino que fez o Big Bang explodir, e então deu um passo para trás para observar o próprio trabalho.

“Será que deus criou as leis quânticas que permitiram a ocorrência do Big Bang?” escreveu Hawking. “Eu não tenho o desejo de ofender as pessoas de fé, mas penso que a ciência tenha uma explicação mais convincente que um criador divino”.

As explicações de Hawking começam com mecânica quântica, que explica como as partículas subatômicas se comportam. Em estudos quânticos, é comum ver partículas subatômicas como prótons e elétrons surgirem – aparentemente do nada, passearem um pouco e então desaparecer novamente em uma localização completamente diferente. Como o universo já foi do tamanho de uma partícula subatômica, é plausível que se comportou de maneira similar durante o Big Bang, escreveu Hawking.

“O próprio universo, em sua incompreensível vastidão e complexidade, poderia simplesmente ter surgido subitamente sem violar nenhuma lei conhecida da natureza”.

Isso ainda não explica a possibilidade de deus ter criado uma singularidade do tamanho de um próton, e então ter puxado a alavanca que ligou a mecânica quântica, fazendo com que o universo surgisse. Mas Hawking diz que a ciência também possui uma explicação para isso. Para ilustrar, ele utiliza a física de buracos negros – estrelas colapsadas tão densas que nem mesmo a luz consegue fugir do seu campo gravitacional.

Buracos negros, como o universo antes do Big Bang, condensam numa singularidade. Neste ultradenso ponto de massa, a gravidade é tão forte que distorce o tempo assim como a luz e o espaço. De maneira simples, nas profundezas de um buraco negro o tempo não existe.

Como o universo também começou como uma singularidade, o tempo não poderia ter existido antes do Big Bang. A resposta de Hawking, então, ao quê aconteceu antes do Big Bang é “não existia tempo antes do Big Bang”.

“Finalmente encontramos algo que não possui uma causa, porque não havia tempo para uma causa pudesse existir”, escreveu Hawking. “Para mim isso significa que não existe a possibilidade de um criador, porque não havia tempo para que um criador pudesse existir.”

Este argumento fará pouco para persuadir crentes teístas, mas esta nunca foi a intenção de Hawking. Como um cientista com uma devoção quase religiosa de compreender o cosmos, Hawking procurou “conhecer a mente de deus” ao aprender tudo que pôde sobre a autossuficiência do universo à nossa volta. Enquanto sua visão possa tornar um criador divino e as leis da natureza como coisas incompatíveis, ainda deixa um amplo espaço para fé, esperança, questionamentos e – especialmente – gratidão.

“Nós possuímos esta única vida para apreciar o grande design do universo,” Hawking conclui no primeiro capítulo de seu último livro, “e sou extremamente grato por isto”.

Publicação original

https://www.livescience.com/63854-stephen-hawking-says-no-god.html

Tradução by David R. José.

| Sem categoria


O Nobel que ajudou a desenvolver a física no Brasil e pulou Carnaval

O dia 11 de maio deste ano marca o centenário de um dos cientistas mais influentes do século 20: o norte-americano Richard Feynman (1918-1988), que se destacou por seus estudos seminais em vários domínios da física teórica, em particular física quântica e de partículas e teoria do hélio líquido superfluido.

Extraordinariamente criativo e original, Feynman recebeu o Prêmio Nobel de Física em 1965 (com Julian Schwinger e Sin-Itiro Tomonaga) pelas contribuições independentes ao desenvolvimento da teoria da eletrodinâmica quântica. Em 1999, em pesquisa realizada com físicos de todo o mundo, foi considerado um dos dez cientistas mais importantes de todos os tempos.

Quem foi Richard Feynman

Em 1966, fez uma célebre palestra com o título “Há muito espaço lá embaixo”, na qual chamou a atenção para o enorme potencial tecnológico existente na escala atômica. Ela é considerada o ponto de partida de um novo ramo: a nanotecnologia.

Em 1986, teve papel de destaque na comissão que investigou as causas do acidente da nave espacial Challenger. Fez uma brilhante demonstração pública sobre o efeito da baixa temperatura nas vedações de borracha do tanque de combustíveis.

Seu espírito crítico, ao contestar avaliações anteriores do acidente, levou-o a enunciar uma definição mordaz: “A ciência é a crença na ignorância dos experts”.

Feynman esteve no Brasil algumas vezes —a primeira em 1949, a última em 1966. Apreciador da música em geral e do samba em particular, que considerava um ritmo alegre e espontâneo, desfilou em bloco carnavalesco do Rio de Janeiro em 1952. Educador inveterado, lecionou por aqui e deu importante contribuição nos primórdios da física teórica brasileira, na década de 1950, além de ter influenciado na renovação do ensino de física no país.

Na sua primeira passagem pelo Brasil, Feynman veio a convite do físico brasileiro Jayme Tiomno, que conhecera na Universidade de Princeton (EUA). Permaneceu no Rio por seis semanas ministrando cursos no Centro Brasileiro de Pesquisas Físicas (CBPF). Na palestra “A eletrodinâmica quântica”, apresentada em português em seminário organizado pela Academia Brasileira de Ciências, descreveu os resultados obtidos por ele, Schwinger e Tomonaga.

Deu uma entrevista para um jornal carioca sobre eletrodinâmica quântica, a sua nova teoria do pósitron e a interação de partículas nucleares.

Nela, destacou seu apreço pelo novo núcleo de pesquisa em física, o CBPF, “formado por um grupo abnegado de pesquisadores, sob a direção do professor Cesar Lattes”.

Feynman afirmou: “Foi para mim um privilégio dar a minha colaboração a essa prestigiosa organização que, embora ainda em início, tantos serviços está prestando ao desenvolvimento da ciência no Brasil. Creio que o centro está destinado a grandes realizações em benefício do Brasil e da ciência, merecendo bem toda cooperação que lhe possam prestar o governo e a população”.

Dois anos depois, ele retornaria ao Brasil, em período sabático, após convite de José Leite Lopes, seu amigo e grande físico brasileiro, cujo centenário de nascimento também é comemorado neste ano. Feynman estava incomodado com o clima de falta de liberdade resultado do macartismo em seu país.

Atuou como professor no CBPF e na Universidade do Brasil (atual Universidade Federal do Rio de Janeiro), de setembro de 1951 a maio de 1952. Lecionou um curso de eletromagnetismo na graduação e outros dois, mais avançados, sobre física nuclear e eletrodinâmica quântica.

Apresentou duas comunicações cientificas em português na terceira Reunião Anual da Sociedade Brasileira para o Progresso da Ciência (SBPC), em Belo Horizonte. Em 1952, escreveu um trabalho sobre a teoria do méson, com Leite Lopes, e publicou depois, nos Anais da Academia Brasileira de Ciências, um interessante artigo de revisão sobre a situação da física teórica.

Em 1953, de novo no Brasil, fez pesquisas sobre a teoria atômica do hélio líquido que seriam publicadas em revistas internacionais em 1953 e 1954. Elas foram contribuições muito relevantes para o entendimento do estranho fenômeno de superfluidez que pode ocorrer com o hélio a temperaturas muito baixas.

Mas o acontecimento mais conhecido de Feynman no Brasil ocorreu em maio de 1952, quando fez, no Rio, uma palestra instigante sobre o ensino de física, com base em sua experiência na educação local. O destaque veio do relato feito em seu livro “O Senhor Está Brincando, Sr. Feynman!” (1985), que se tornou um best-seller mundial.

Feynman descreveu ali, de forma irônica, situações de sua interação com estudantes brasileiros que ilustravam sua crítica ao ensino da física baseado na memorização e sem a dimensão investigativa. Oswaldo Frota-Pessoa, biólogo brasileiro, escreveu em um artigo de jornal:

“Assisti [a] uma conferência espantosa. Um físico de fama mundial no setor da eletrodinâmica quântica, Richard P. Feynman, do CalTech (EUA), nos disse, em português claro, embora estropiado (um ano de Brasil), que, em verdade, não estamos ensinando ciência e nossos alunos não estão aprendendo. (…) E o pior é que ele tem toda a razão. Feynman é um homem raro: diz diretamente o que pensa e tudo o que pensa; e diz com tal entusiasmo e amor que se torna ao mesmo tempo contundente e encantador”.

Não foi pequeno o impacto que as observações de Feynman produziram. Leite Lopes mencionou que ele e Tiomno foram estimulados a fazer a tradução de um livro norte-americano para o ensino de física.

Alguns anos depois, em junho de 1963, Feynman voltaria a discutir o problema de ensinar física na América Latina em palestra na 1ª Conferência Interamericana de Ensino de Física, ocorrida no Rio.

Sua preocupação com o desenvolvimento da física no Brasil ficou evidente ao ajudar na recuperação da biblioteca do CBPF, destruída por um incêndio em 1959. Para isso, enviou uma carta a muitos de seus colegas dos EUA solicitando revistas científicas e livros para o novo prédio. Ele mesmo doou suas coleções de algumas das revistas científicas de física mais importantes da época.

As visitas de Feynman também contaram com momentos descontraídos. Encantou-se pelo Carnaval carioca, aprendeu a tocar frigideira, ensaiou durante meses e desfilou, em fevereiro de 1952, no bloco Os Farsantes de Copacabana, que ganhou o primeiro lugar de um desfile naquele ano.

Em fevereiro de 1966, já tendo recebido o Nobel, veio acompanhado de sua esposa, Gweneth, como convidado especial da Prefeitura do Rio de Janeiro. Folião animado e alegre, assistiu a desfiles e participou de alguns dos bailes mais famosos da cidade.

Feynman se dizia “utter ignoramus” (totalmente ignorante) em relação à política, mas se incomodava com a repressão às ideias e expressava preocupação com a democracia e os direitos humanos. Como exemplo disso, recusou convites para ir à União Soviética “por sentir-se desconfortável em um país onde havia perseguições por causa de ideias”.

Na sua vinda ao Brasil, em 1966, condenou, em entrevistas, as perseguições políticas a cientistas e físicos brasileiros, entre os quais mencionou seus colegas Mario Schenberg e José Leite Lopes. Talvez por antecipar uma possível crítica de Feynman à repressão política, foi suspensa, pelas autoridades aeronáuticas, a recepção com as escolas de samba que ele receberia ao desembarcar.

O Nobel de Física não retornaria mais ao Brasil.

As vindas de Richard Feynman deixaram marcas na física do país. Se os tempos ditatoriais não tivessem afastado das universidades e instituições de pesquisa alguns de seus amigos e colegas brasileiros, talvez este grande cientista tivesse colaborado de maneira mais acentuada para o desenvolvimento da ciência na terra de que tanto gostava.

Ildeu de Castro Moreira é professor do Instituto de Física da Universidade Federal do Rio de Janeiro e presidente da Sociedade Brasileira para o Progresso da Ciência (SBPC). Foi diretor do Departamento de Popularização e Difusão da Ciência e Tecnologia do MCTI (2004-2013). É autor de “Einstein e o Brasil” (Editora UFRJ).
Fonte: https://www1.folha.uol.com.br/ilustrissima/2018/05/o-nobel-que-ajudou-a-desenvolver-a-fisica-no-brasil-e-pulou-carnaval.shtml

| Sem categoria


E a pedagogia?

Verificar vídeo no link :)

| Sem categoria


Carl Sagan

Nós somos uma maneira de o cosmos conhecer a si mesmo.

We’re on visitas hits

| Sem categoria