Portal do Governo Brasileiro


6 Professores que Ganham Mais que o Neymar

Neymar comemorando gol

Assim como Neymar, inúmeros professores também tornaram-se uma empresa. Ao contrário do adulto Ney, que produz entretenimento, eles tornam a educação mais acessível.

A contratação de Neymar pelo francês Paris Saint-Germain caiu como uma verdadeira bomba no mundo do futebol. Pelos valores envolvidos no negócio, trata-se da mais cara transação já realizada na história desse esporte.

A pergunta gerada após dela, no entanto, você já deve ter visto na sua redes sociais em algum momento: é justo que um desportista receba tanto (cerca de 40 milhões de euros por ano pelo mesmo contrato) enquanto há professores, profissionais importantes para o desenvolvimento do país, recebendo tão pouco?

À primeira vista, a pergunta pode até parecer ter um pouco de razão. Afinal, se em última instância cabe à sociedade definir a importância de cada trabalho, suas remunerações deveriam seguir uma lógica similar. Ou seja: nós deveríamos nos basearmos na utilidade que cada trabalhador agrega a sociedade, não é mesmo?

Definir como se formam os salários é um desafio e tanto – e na maior parte das vezes, algo consideravelmente subjetivo. Como a Autoridade de Investimentos do Catar, no entanto, dona do PSG, sabe bem, o que Neymar agrega ao clube, e ao próprio país que sediará a Copa do Mundo em 2022, vai muito além do seu trabalho dentro de campo.

Assim como uma pequena elite dos profissionais de futebol, que no Brasil mal atinge 2% do totais de jogadores, Neymar é hoje uma empresa que oferece entretenimento a milhões de torcedores mundo afora – e visibilidade às marcas agregadas à sua imagem. Em um mundo, afinal, onde a maior parte da população não saberia apontar o Catar no mapa mundi, ligar-se a um dos jogadores mais conhecidos do planeta parece fazer todo sentido para quem possui a necessidade de divulgar uma Copa do Mundo.

Quando se trata de salários, porém, as coisas mudam de figura. Como mostra o INEP, órgão ligado ao Ministério da Educação, nossos professores ainda sofrem uma imensa desigualdade salarial – mas entre eles próprios. Entre os 23 mil professores brasileiros a nível federal, a média salarial para 40 horas alcança R$ 7,7 mil, contra R$ 3,47 mil da média salarial das redes de ensino estaduais. O problema nessa conta: professores federais são menos de 1% do total.

Em universidades, a média pode chegar a R$ 16,2 mil, na UNB onde se paga melhor, ou R$ 13,2 mil, se considerarmos todas as universidades públicas do país. Na prática, os 120 mil professores com mestrado ou doutorado no Brasil ganham mais do que 98% dos jogadores de futebol brasileiros. Por aqui, entre os 23 mil jogadores, apenas 620 ganham acima de R$ 12,4 mil. Não apenas isso: cerca de 82% destes mesmos jogadores ganham menos de dois salários mínimos – portanto menos que a média dos professores de ensino básico.

Como mostram diversas cidades do país, no entanto como a capital gaúcha Porto Alegre, que possui os maiores salários do setor (em média R$ 9,2 mil para professores do ensino básico) e o 4º pior resultado brasileiro no índice que mede o desenvolvimento da educação, mais dinheiro não significa necessariamente melhor qualidade. Sem gestão, é como nadar contra a maré.

E a própria educação pode ser um bom exemplo disso. Há mais professores milionários no estado de Ontário no Canadá do que milionários no Brasil inteiro – isto porque estes professores são donos de um fundo de pensão com quase US$ 130 bilhões em patrimônio, o que torna qualquer pessoa que tenha contribuído por 25 anos, um milionário.

Ainda que se trate de uma grande exceção, porém, Neymar não aparece tão bem na foto quando comparado a alguns professores que, assim como ele, deixaram de atender apenas alguns alunos e passaram a oferecer educação – e não entretenimento – a milhões de pessoas. O resultado? Como você confere abaixo, deixaram o craque brasileiro no chinelo.

Byju Raveendran

O professor indiano de 37 anos lançou um app, que leva seu nome, e disponibiliza 1000 horas de conteúdo por $400 dólares.

Em meio a pandemia de Covid, Byju tornou seu app gratuito, atingindo a impressionante marca de 45 milhões de usuários.

Mesmo antes do cenário atual porém, investidores já haviam avaliado sua empresa em $6 bilhões, e Byju havia fechado um contrato com a toda poderosa Disney, para lançar seu app nos Estados Unidos.

Enquanto o Brasil ainda engatinha em educação a distância, a despeito do empurrão ocorrido com a pandemia, o app indiano disponibiliza conteúdo a um preço quase irrisório de $0,4 por hora aula, permitindo que um mesmo professor esteja disponível para milhares de alunos.

Carlos Wizard

Tornar-se um bilionário na área de educação não é das tarefas mais fáceis. Imagine, no entanto, conseguir isso em um país tradicionalmente tão pouco afeito a investir nisto quanto o Brasil.

Carlos Wizard, ou Carlos Martins, seu verdadeiro nome, tornou-se um fenômeno ao descobrir que era possível fazer o brasileiro compreender o poder de estudar inglês nos dias de hoje.

Depois de viajar para os Estados Unidos com 100 dólares no bolso, com o intuito de aprender o idioma local, Carlos retornou ao Brasil e começou a dar aulas na própria casa, com um foco até então ignorado pelas grandes redes: conversação.

Foi ajudando as pessoas a ganharem prática na conversação em inglês que abriu sua primeira escola de idiomas – a Wizard, com cerca de 100 alunos. E depois dela foram inúmeras outras, a maior parte em um modelo de franquias.

O número 100 acabou se tornando emblemático, não apenas por marcar a quantidade de alunos que sua primeira escola contava, como também o número de milionários que a Wizard criou ao longo dos anos ao permitir que inúmeros outros professores e empreendedores utilizassem seu método para educar jovens e adultos.

Em 2013, Carlos vendeu sua rede de ensino ao grupo Person por R$ 2 bilhões, o suficiente para contar com Neymar por quase 12 anos, incluindo aí a multa rescisória com o Barcelona de R$ 880 milhões.

Adi Shamir

Graduado em matemática pela Universidade de Tel Aviv, Shamir ao contrário da maior parte dos professores que estamos acostumados, levou seu foco para a área de pesquisa, onde aliando-se à sua formação na área de computação, tornou-se célebre por desenvolver algoritmos e criptografia.

Graças às suas pesquisas e desenvolvimentos, como o RSA, Shamir recebeu inúmeros prêmios, como a medalha Turing, em homenagem ao criptografista inglês, Alan Turing, que desvendou a máquina Enigma dos alemães, ajudando os aliados a preverem ataques e vencerem a Segunda Guerra Mundial.

Suas contribuições, no entanto, se estendem à área de ensino – além da pesquisa onde se consagrou, Shamir é responsável por escrever inúmeros livros de matemática utilizados para ensinar adolescentes nas High Schools americanas. Adi é o que se pode chamar de o professor do seu professor.

Sua fortuna é avaliada em 2.3 bilhões de dólares.

David Cheriton

Sergey Brin e Larry Page provavelmente são nomes familiares para você, mas se não estiver ligando o nome a pessoa, ou mais precisamente, o nome ao invento, ambos são ex-estudantes de Stanford e criadores do Google.

Em comum, Sergey e Larry possuem um bacharelado em computação e um mesmo professor: David Cheriton.

Ainda hoje, o professor dos célebres fundadores do Google trabalha com seus estudantes na universidade americana para desenvolver sistemas transacionais de memória.

Graças à proximidade com alunos promissores, o então professor tornou-se o primeiro a assinar um cheque para ajudar aquela que se tornaria a segunda companhia mais valiosa do mundo, a Alphabet (dona do Google). Com um cheque de US$ 100 mil, e uma mentoria na área, Cheriton ajudou seus estudantes a mudar definitivamente a forma como você enxerga a internet hoje.

Seu patrimônio atual, estimado em US$ 3,4 bilhões, deve-se não apenas a isto, mas a diversos outros empreendimentos, ao menos vinte conhecidos, ligados a apostas junto a alunos que tiveram com ele não somente aulas, mas conselhos para criar empresas que mudassem a ciência e tecnologia.

Como resultado de empreendimentos tão bem sucedidos, David é hoje um dos maiores doadores do ensino privado americano.

Henry Samueli

Filho de judeus poloneses sobreviventes do holocausto, Henry Samueli tornou-se PhD em engenharia elétrica pela UCLA, na California. E por quase 15 anos deu aula na universidade, até que em 1991, junto de outro aluno, decidiu aplicar US$ 5 mil para fundar a Broadcom, companhia que cresceria e se tornaria uma das mais relevantes fabricantes de semi-condutores dos Estados Unidos.

Apenas em 1998, quando sua empresa se tornou pública – e Samueli já completava mais de duas décadas como professor – tomou a decisão de deixar as salas de aula para dedicar-se à vida de empresário. Ainda assim, seu nome ainda consta no hall de professores da prestigiada UCLA, onde é hoje um dos maiores contribuidores com doações na casa dos milhões de dólares ao ano.

Samueli, no entanto, ainda ministra aulas eventuais na universidade, como convidado, enquanto não está dividindo seu tempo entre gerir a própria empresa ou o Clube de Hockey do qual tornou-se dono (e certamente mais ricos que todos os jogadores do time canadense).

Altamiro Galindo

Fundada em 1988 no interior paulista, a Iuni é o primeiro grande salto do então professor, que tornou-se reitor, Altamiro Galindo. Sua atuação à frente da universidade tornou-se um modelo capaz de fazer o fundo americano Advent se curvar à gestão promovida pela família e colocá-la a frente de toda sua operação no Brasil, que atende pelo nome de Cogna (antiga Kroton). Mesmo com 6,3% das ações da nova empresa, seu filho Rodrigo Galindo, assumiu o comando da empresa e a levou, por meio de uma série de fusões e aquisições, a se tornar a maior empresa de educação do mundo.

Há hoje na Cogna, 1.015 milhão de alunos – número próximo dos 1,5 milhão de brasileiros estudando em universidades públicas.

Com um valor de mercado de R$ 23,99 bilhões, a Kroton é atualmente uma das empresas do setor que mais cresce e se diversifica para áreas como ensino básico.Altamiro Galindo segue no conselho da empresa, e sua família ainda mantém 5% da companhia, suficiente para comprar o passe de Neymar.

Fonte: https://blocktrends.com.br/6-professores-que-ganham-mais-que-o-neymar/

| Sem categoria


Bíblia passada a limpo

A disputa entre ciência e religião pela posse da verdade é antiga. No Ocidente, começou no século XVI, quando Galileu defendeu a tese de que a Terra não era o centro do Universo. Essa primeira batalha foi vencida pela Igreja, que obrigou Galileu a negar suas idéias para não ser queimado vivo. Mas o futuro dessa disputa seria diferente: pouco a pouco, a religião perdeu a autoridade para explicar o mundo. Quando, no século XIX, Darwin lançou sua teoria sobre a evolução das espécies, contra a idéia da criação divina, o fosso entre ciência e religião já era intransponível. Nas últimas décadas, a Bíblia passou a ser alvo de ciências como a filologia (o estudo da língua e dos documentos escritos), a arqueologia e a história. E o que os cientistas estão provando é que o livro mais importante da história é, em sua maior parte, uma coleção de mitos, lendas e propaganda religiosa.

Primeiro livro impresso por Guttemberg, no século XV, e o mais vendido da história, a Bíblia reúne escritos fundamentais para as três grandes religiões monoteístas – Judaísmo, Cristianismo e Islamismo. Na verdade, a Bíblia é uma biblioteca de 73 livros escritos em momentos históricos diferentes. O Velho Testamento, aceito como sagrado por judeus, cristãos e muçulmanos, é composto de 46 livros que pretendem resumir a história do povo hebreu desde o suposto chamamento de Abraão por Deus, que teria ocorrido por volta de 1850 a.C., até a conquista da Palestina pelos exércitos de Alexandre Magno e as revoltas do povo judeu contra o domínio grego, por volta de 300 a.C. Os 27 livros do Novo Testamento abarcam um período bem menor: cerca de 70 anos que vão do nascimento de Jesus à destruição de Jerusalém pelos romanos em 70 d.C.

O coração do Velho Testamento são os primeiros cinco livros, que compõem a Torá do Judaísmo (a palavra significa “lei”, em hebraico). Em grego, o conjunto desses livros recebeu o nome de Pentateuco (“cinco livros”). São considerados os textos “históricos” da Bíblia, porque pretendem contar o que ocorreu desde o início dos tempos, inclusive a criação do homem – que, segundo alguns teólogos, teria ocorrido em 5000 a.C. O Pentateuco inclui o Gênesis (o “livro das origens”, que narra a criação do mundo e do homem até o dilúvio universal), o Êxodo (que narra a saída dos judeus do Egito sob a liderança de Moisés) e os Números (que contam a longa travessia dos judeus pelo deserto até a chegada a Canaã, a terra prometida).

Das três ciências que estudam a Bíblia, a arqueologia tem se mostrado a mais promissora. “Ela é a única que fornece dados novos”, diz o arqueólogo israelense Israel Finkelstein, diretor do Instituto de Arqueologia da Universidade de Tel Aviv e autor do livro The Bible Unearthed (A Bíblia desenterrada, inédito no Brasil), publicado no ano passado. A obra causou um choque em estudiosos de arqueologia bíblica, porque reduz os relatos do Antigo Testamento a uma coleção de lendas inventadas a partir do século VII a.C.

O Gênesis, por exemplo, é visto como uma epopéia literária. O mesmo vale para as conquistas de David e as descrições do império de Salomão.

A ciência também analisa os textos do Novo Testamento, embora o campo de batalha aqui esteja muito mais na filologia. A arqueologia, nesse caso, serve mais para compor um cenário para os fatos do que para resolver contendas entre as várias teorias. O núcleo central do Novo Testamento são os quatro evangelhos. A palavra evangelho significa “boa nova” e a intenção desses textos é clara: propagandear o Cristianismo. Três deles (Mateus, Marcos e Lucas) são chamados sinóticos, o que pode ser traduzido como “com o mesmo ponto de vista”. Eles contam a mesma história, o que seria uma prova de que os fatos realmente aconteceram. Não é tão simples. O problema central do Novo Testamento é que seus textos não foram escritos pelos evangelistas em pessoa, como muita gente supõe, mas por seus seguidores, entre os anos 60 e 70, décadas depois da morte de Jesus, quando as versões estavam contaminadas pela fé e por disputas religiosas.

Nessa época, os cristãos estavam sendo perseguidos e mortos pelos romanos, e alguns dos primeiros apóstolos, depois de se separarem para levar a “boa nova” ao resto do mundo, estavam velhos e doentes. Havia, portanto, o perigo de que a mensagem cristã caísse no esquecimento se não fosse colocada no papel. Marcos foi o primeiro a fazer isso, e seus textos serviram de base para os relatos de Mateus e Lucas, que aproveitaram para tirar do texto anterior algumas situações que lhes pareceram heresias. “Em Marcos, Jesus é uma figura estranha que precisa fazer rituais de magia para conseguir um milagre”, afirma o historiador e arqueólogo André Chevitarese.

Para tentar enxergar o personagem histórico de Jesus através das camadas de traduções e das inúmeras deturpações aplicadas ao Novo Testamento, os pesquisadores voltaram-se para os textos que a Igreja repudiou nos primeiros séculos do Cristianismo. Ignorados, alguns desapareceram. Mas os fragmentos que nos chegaram tiveram menos intervenções da Igreja ao longo desses 2 000 anos. Parte desses evangelhos, chamados “apócrifos” (não se sabe ao certo quem os escreveu), fazem parte de uma biblioteca cristã do século IV descoberta em 1945 em cavernas do Egito. Os evangelhos estavam escritos em língua copta (povo do Egito).

O fato de esses textos terem sido comprovadamente escritos nos primeiros séculos da era cristã não quer dizer que eles sejam mais autênticos ou contenham mais verdades que os relatos que chegaram até nós como oficiais. Pelo contrário, até. Os coptas, que fundariam a Igreja cristã etíope, foram considerados hereges, porque não aceitavam a dupla natureza de Jesus (humana e divina). Para eles, Jesus era apenas divino e os textos apócrifos coptas defendem essa versão. Mesmo assim, eles trazem pistas para elucidar os fatos históricos.

A tentativa de entender o Jesus histórico buscando relacioná-lo a uma ou outra corrente religiosa judaica também foi infrutífera, como ficou demonstrado no final da tradução dos pergaminhos do Mar Morto, anunciada recentemente. Esses papéis, achados por acaso em cavernas próximas do Mar Morto, em 1947, criaram a expectativa de que pudesse haver uma ligação entre Jesus e os essênios, uma corrente religiosa asceta, cujos adeptos viviam isolados em comunidades purificando-se à espera do messias. O fim das traduções indica que não há qualquer ligação direta entre Jesus e os essênios, a não ser a revolta comum contra a dominação romana.

O resultado é que, depois de dois milênios, parece impossível separar o verdadeiro do falso no Novo Testamento. O pesquisador Paul Johnson, autor de A História do Cristianismo, afirma que, se extrairmos, de tudo o que já se escreveu sobre Jesus, só o que tem coerência histórica e é consenso, restará um acontecimento quase desprovido de significado. “Esse ‘Jesus residual’ contava histórias, emitiu uma série de ditos sábios, foi executado em circunstâncias pouco claras e passou a ser, depois, celebrado em cerimônia por seus seguidores.”

O que sabemos com certeza é que Jesus foi um judeu sectário, um agitador político que ameaçava levantar os dois milhões de judeus da Palestina contra o exército de ocupação romano. Tudo o mais que se diz dele precisa da fé para ser tomado como verdade. Assim como aconteceu com Moisés, David e Salomão do Velho Testamento, a figura de Jesus sumiu na névoa religiosa.

O Dilúvio

No Gênesis, a história do dilúvio é uma das poucas que ainda alimenta o interesse dos cientistas, depois que os físicos substituíram a criação do mundo pelo Big Bang e Darwin substituiu Adão pelos macacos. O que intrigou os pesquisadores foi o fato de uma história parecida existir no texto épico babilônico de Gilgamesh – o que sugere que uma enchente de enormes proporções poderia ter acontecido no Oriente Médio e na Ásia Menor. Parte do mistério foi solucionado quando os filólogos conseguiram demonstrar que a narrativa do Gênesis é uma apropriação do mito mesopotâmico. “Não há dúvida de que os hebreus se inspiraram no mito de Gilgamesh para contar a história do dilúvio”, afirma Rafael Rodrigues da Silva, professor do Departamento de Teologia da PUC de São Paulo, especialista na exegese do Antigo Testamento.

O povo hebreu entrou em contato com o mito de Gilgamesh no século VI a.C. Em 598 a.C., o rei babilônico Nabucodonosor, depois de conquistar a Assíria, invadiu e destruiu Jerusalém e seu templo sagrado. No ano seguinte, os judeus foram deportados para a Babilônia como escravos. O chamado exílio babilônico durou 40 anos. Em 538 a.C., Ciro, o fundador do Império Persa, depois de submeter a Babilônia permitiu o retorno dos judeus à Palestina. Os rabinos ou “escribas” começaram a reconstruir o Templo e a reescrever o Gênesis para, de alguma forma, dar um sentido teológico à terrível experiência do exílio. Assim, a ameaça do dilúvio seria uma referência à planície inundável entre os rios Tigre e Eufrates, região natal de Nabucodonosor; os 40 dias de chuva seriam os 40 anos do exílio; e a aliança final de Deus com Noé, marcada pelo arco-íris, uma promessa divina de que os judeus jamais seriam exilados.

Solucionado o mistério do dilúvio na Bíblia, continua o da sua origem no texto de Gilgamesh. No final da década de 90, dois geólogos americanos da Universidade Columbia, Walter Pittman e Willian Ryan, criaram uma hipótese: por volta do ano 5600 a.C., ao final da última era glacial, o Mar Mediterrâneo havia atingido seu nível mais alto e ameaçava invadir o interior da Ásia na região hoje ocupada pela Turquia, mais precisamente a Anatólia. Num evento catastrófico, o Mediterrâneo irrompeu através do Estreito de Bósforo (ver infográfico na página 44), dando origem ao Mar Negro como o conhecemos hoje. Um imenso vale de terras férteis e ocupado por um lago foi inundado em dois ou três dias.

Os povos que ocupavam os vales inundados tiveram que fugir às pressas e o mais provável é que a maioria tenha morrido. Os sobreviventes, porém, tinham uma história inesquecível, que ecoaria por milênios. Alguns deles, chamados ubaids, atravessaram as montanhas da Turquia e chegaram à Mesopotâmia, tornando-se os mais antigos ancestrais de sumérios, assírios e babilônios. Estaria aí a origem da narrativa de Gilgamesh. Essa teoria foi recebida por arqueólogos e antropólogos como fantástica demais para ser verdadeira.

No entanto, no verão de 2000, o caçador de tesouros submersos Robert Ballard, o mesmo que encontrou os restos do Titanic, levou suas poderosas sondas para analisar o fundo do Mar Negro nas proximidades do que deveriam ser vales de rios antes do cataclisma aquático. Ballard encontrou restos de construções primitivas e a análise da lama colhida em camadas profundas do oceano provaram que, há 7 600 anos, ali existia um lago de água doce. A hipótese do grande dilúvio do Mar Negro estava provada.

O Êxodo

Não há registro arqueológico ou histórico da existência de Moisés ou dos fatos descritos no Êxodo. A libertação dos hebreus, escravizados por um faraó egípcio, foi incluída na Torá provavelmente no século VII a.C., por obra dos escribas do Templo de Jerusalém, em uma reforma social e religiosa. Para combater o politeísmo e o culto de imagens, que cresciam entre os judeus, os rabinos inventaram um novo código de leis e histórias de patriarcas heróicos que recebiam ensinamentos diretamente de Jeová. Tais intenções acabaram batizadas de “ideologia deuteronômica”, porque estão mais evidentes no livro Deuteronômio. A prova de que esses textos são lendas estaria nas inúmeras incongruências culturais e geográficas entre o texto e a realidade. Muitos reinos e locais citados na jornada de Moisés pelo deserto não existiam no século XIII a.C., quando o Êxodo teria ocorrido. Esses locais só viriam a existir 500 anos depois, justamente no período dos escribas deuteronômicos.

Também não havia um local chamado Monte Sinai, onde Moisés teria recebido os Dez Mandamentos. Sua localização atual, no Egito, foi escolhida entre os séculos IV e VI d.C., por monges cristãos bizantinos, porque ele oferecia uma bela vista. Já as Dez Pragas seriam o eco de um desastre ecológico ocorrido no Vale do Nilo quando tribos nômades de semitas estiveram por lá (veja infográfico na página 45).

Vejamos agora o caso de Abraão, o patriarca dos judeus. Segundo a Bíblia, ele era um comerciante nômade que, por volta de 1850 a.C., emigrou de Ur, na Mesopotâmia, para Canaã (na Palestina). Na viagem, ele e seus filhos comerciavam em caravanas de camelos. Mas não há registros de migrações de Ur em direção a Canaã que justifiquem o relato bíblico e, naquela época, os camelos ainda não haviam sido domesticados. Aqui também há erros geográficos: lugares citados na viagem de Abraão, como Hebron e Bersheba, nem existiam então. Hoje, a análise filológica dos textos indica que Abraão foi introduzido na Torá entre os séculos VIII e VII a.C. (mais de 1 000 anos após a suposta viagem).

Então, como surgiu o povo hebreu? Na verdade, hebreus e canaanitas são o mesmo povo. Por volta de 2000 a.C., os canaanitas viviam em povoados nas terras férteis dos vales, enquanto os hebreus eram nômades das montanhas. Foi o declínio das cidades canaanitas, acossadas por invasores no final da Idade do Bronze (300 a.C. a 1000 a.C.), que permitiu aos hebreus ocupar os vales. Segundo a Bíblia, os hebreus conquistaram Canaã com a ajuda dos céus: na entrada de Jericó, o exército hebreu toca suas trombetas e as muralhas da cidade desabam, por milagre. Mas a ciência diz que Jericó nem tinha muralhas nessa época. A chegada dos hebreus teria sido um longo e pacífico processo de infiltração.

David e Salomão

Há pouca dúvida de que David e Salomão existiram. Mas há muita controvérsia sobre seu verdadeiro papel na história do povo hebreu. A Bíblia diz que a primeira unificação das tribos hebraicas aconteceu no reinado de Saul. Seu sucessor, David, organizou o Estado hebraico, eliminando adversários e preparando o terreno para que seu filho, Salomão, pudesse reinar sobre um vasto império. O período salomônico (970 a.C. a 930 a.C.) teria sido marcado pela construção do Templo de Jerusalém e a entronização da Arca da Aliança em seu altar.

Não há registros históricos ou arqueológicos da existência de Saul, mas a arqueologia mostra que boa parte dos hebreus ainda vivia em aldeias nas montanhas no período em que ele teria vivido (por volta de 1000 a.C.) – assim, Saul seria apenas um entre os muitos líderes tribais hebreus. Quanto a David, há pelos menos um achado arqueológico importante: em 1993 foi encontrada uma pedra de basalto datada do século IX a.C. com escritos que mencionam um rei David.

Por outro lado, não há qualquer evidência das conquistas de David narradas na Bíblia, como sua vitória sobre o gigante Golias. Ao contrário, as cidades canaanitas mencionadas como destruídas por seus exércitos teriam continuado sua vida normalmente. Na verdade, David não teria sido o grande líder que a Bíblia afirma. Seu papel teria sido muito menor. Ele pode ter sido o líder de um grupo de rebeldes que vivia nas montanhas, chamados apiru (palavra de onde deriva a palavra hebreu) – uma espécie de guerrilheiro que ameaçava as cidades do sul da Palestina. Quanto ao império salomônico cantado em verso e prosa na Torá hebraica, a verdade é que não foram achadas ruínas de arquitetura monumental em Jerusalém ou qualquer das outras cidades citadas na Bíblia.

O principal indício de que as conquistas de David e o império de Salomão são, em sua maior parte, invenções é que, no período em que teriam vivido, a arqueologia prova que a cultura canaanita (que, segundo a Bíblia, teria sido destruída) continuava viva. A conclusão é que David e Salomão teriam sido apenas pequenos líderes tribais de Judá, um Estado pobre e politicamente inexpressivo localizado no sul da Palestina.

Na verdade, o grande momento da história hebraica teria acontecido não no período salomônico, mas cerca de um século mais tarde. Entre 884 e 873 a.C., foi fundada Samária, a capital do reino de Israel, no norte da Palestina, sob a liderança do rei israelita Omri. Enquanto Judá permanecia pobre e esquecida no sul, os israelitas do norte faziam alianças com os assírios e viviam um período de grande desenvolvimento econômico. A arqueologia demonstrou que os monumentos normalmente atribuídos a Salomão foram, na verdade, erguidos pelos omridas. Ou seja: o primeiro grande Estado judaico não teve a liderança de Salomão, e sim dos reis da dinastia omrida.

Enriquecido pelos acordos comerciais com Assíria e Egito, o rei Ahab, filho de Omri, ordena a construção dos palácios de Megiddo e as muralhas de Hazor, entre outras obras. Hoje, os restos arqueológicos desses palácios e muralhas são o principal ponto de discórdia entre os arqueólogos que estudam a Torá. Muitos ainda os atribuem a Salomão, numa atitude muito mais de fé do que de rigor científico, já que as datações mais recentes indicam que Salomão nunca ergueu palácios.

Judá

Entender a história de Judá é fundamental para entender todo o Velho Testamento. Até o século VIII a.C., Judá era apenas uma reunião de tribos vivendo numa região desértica do sul da Palestina. Em 722 a.C., porém, os assírios resolvem conquistar as ricas planícies e cidades de Israel – o reino do norte, mais desenvolvido economicamente e mais culto. Judá, no sul, que não pareceu interessar aos assírios, pôde continuar independente, desde que pagasse tributos ao império assírio.

Assim, enquanto no norte acontece uma desintegração dos hebreus, levados para a Assíria como escravos, no sul eles continuam unidos em torno do Templo de Jerusalém. Judá beneficiou-se enormemente da destruição do reino do norte. Jerusalém cresceu rapidamente e cidades como Lachish, que servia de passagem antes de chegar a Jerusalém, foram fortificadas. Era o momento de Judá tomar a frente dos hebreus. Para isso, precisaria de duas coisas: um rei forte e um arsenal ideológico capaz de convencer as tribos do norte de que Judá fora escolhida por Deus para unir os hebreus. Além disso, era preciso combater o politeísmo que voltava a crescer no norte.

Josias foi o candidato a assumir a posição de rei unificador. Durante uma reforma no Templo de Jerusalém, em seu governo, foi “encontrado” (na verdade, não há dúvidas de que o livro foi colocado ali de propósito) o livro Deuteronômio, com todos os ingredientes para um ampla reforma social e religiosa. O livro possui até profecias que afirmam, por exemplo, que um rei chamado Josias, da casa de David, seria escolhido por Deus para salvar os hebreus. Ungido pelo relato do livro, o ardiloso Josias consegue seu objetivo de centralizar o poder, mas acaba morto em batalha. Judá revolta-se contra os assírios e o rei da Assíria, Senaqueribe, invade a região, destruindo Lachish e submetendo Jerusalém. A destruição de Lachish, narrada com riqueza de detalhes na Bíblia, também aparece num relevo encontrado em Nínive, a antiga capital assíria. E as escavações comprovaram que a Bíblia e o relevo são fiéis ao acontecido. Ou seja: nesse caso, a arqueologia provou que a Torá foi fiel aos fatos.

Jesus

Segundo o Novo Testamento, Jesus nasceu em Belém, uma cidadezinha localizada oito quilômetros ao sul de Jerusalém, filho do carpinteiro José e de uma jovem chamada Maria, que o concebeu sem macular sua virgindade. Os evangelhos de Lucas e Mateus afirmam que Jesus nasceu “perto do fim do reino de Herodes”. O texto de Lucas afirma que a anunciação aconteceu em Nazaré, onde José e Maria viviam, mas eles foram obrigados a viajar até Belém pelo censo “ordenado quando Quirino era governador da Síria”.

Hoje, o que se sabe de concreto sobre Jesus é que ele nasceu na Palestina, provavelmente no ano 6 a.C., ao final do reinado de Herodes Antibas (que acabou em 4 a.C.). A diferença entre o nascimento real de Jesus e o ano zero do calendário cristão se deve a um erro de cálculo. No século VI, quando a Igreja resolveu reformular o calendário, o monge incumbido de fazer os cálculos cometeu um erro. Além disso, é praticamente certo que Jesus nasceu em Nazaré e não em Belém. A explicação que o texto de Lucas dá para a viagem de Jesus até Belém seria falsa. Os registros romanos mostram que Quirino (aquele que teria feito o censo que obrigou a viagem a Belém) só assumiu no ano 6 d.C. – 12 anos depois do ano de nascimento de Jesus. A história da viagem a Belém foi criada porque a tradição judaica considerava essa cidade o berço do rei David – e o messias deveria ser da linhagem do primeiro rei dos judeus.

A concepção imaculada de Maria é um dos dogmas mais rígidos da Igreja, mas nem sempre foi um consenso entre os cristãos. Alguns textos apócrifos dos séculos II e III sugerem que Jesus é fruto de uma relação de Maria com um soldado romano. A menina Maria teria 12 anos quando concebeu Jesus. Na rígida tradição judaica, uma mulher que engravidasse assim poderia ser condenada à morte por apedrejamento. O velho carpinteiro José, provavelmente querendo poupar a menina, casou-se com ela e escondeu sua gravidez até o nascimento do bebê. A data de 25 de dezembro não está na Bíblia. É uma criação também do século VI, quando o calendário foi alterado.

A Bíblia afirma que Jesus teve duas irmãs e quatro irmãos: Tiago, Judas, José e Simão. Mas não se sabe se esses eram filhos de Maria ou de um primeiro casamento de José. Muitos teólogos afirmam que eles eram, na verdade, primos de Jesus – em aramaico, irmão e primo são a mesma palavra. A Bíblia não fala quase nada sobre a infância e a adolescência de Jesus, com exceção de uma passagem em que, aos 12 anos, numa visita ao Templo de Jerusalém durante a Páscoa, seus pais o encontram discutindo teologia com os sábios nas escadarias do templo do monte. É quase certo, porém, que ele cresceu em Nazaré.

Jesus falava certamente o aramaico, a língua corrente da Palestina e, provavelmente, entendia o hebreu por ter tomado lições na sinagoga e por ler a Torá. Os evangelhos apócrifos o pintam como um menino Jesus travesso, capaz de dar vida a figuras de barro para impressionar os colegas e até mesmo a fulminar um menino que esbarrou em seu ombro, para ressuscitá-lo logo em seguida, depois de tomar uma bronca do pai.

Certamente José procurou iniciá-lo na arte da carpintaria e é provável que Jesus tenha trabalhado como carpinteiro durante um bom tempo. Oportunidade não lhe faltou. Escavações recentes revelaram que ao mesmo tempo em que Jesus crescia em Nazaré, bem próximo era construída a monumental cidade de Séfores, idealizada por Herodes Antibas para ser a capital da Galiléia. Séfores estava a uma hora a pé de Nazaré e é muito provável que José e Jesus tenham trabalhado ali. Em Séfores Jesus teria visto a passagem da família real de Herodes Antibas e a opulência das famílias de sacerdotes do Templo de Jerusalém. O fato de Jesus ter passado boa parte da sua vida ao lado de Séfores indicaria que ele não era um camponês rústico como já se pensou, mas tinha contato com a cultura do mundo helênico.

Aos 30 anos, Jesus se fez batizar por João Batista nas margens do rio Jordão. Segundo a Bíblia, durante o batismo João reconhece Jesus como o messias. Há registros históricos da existência de João Batista e, recentemente, arqueólogos encontraram entre o monte Nebo e Jericó, nas margens do rio Jordão, ruínas de um antigo local de peregrinação por volta do século III d.C.

Decidido a cumprir sua missão na terra, Jesus dirigiu-se então para a Galiléia, onde recrutou seus primeiros discípulos entre os pescadores do lago Tiberíades. Passou a viver com seus primeiros seguidores em Cafarnaum, cidade de pescadores próxima do lago de Tiberíades. Por dois anos Jesus pregou pela Galiléia, Judéia e em Jerusalém, proferindo sermões e contando parábolas. Segundo a Bíblia, realizou 31 milagres, incluindo 17 curas e seis exorcismos. Alguns dos mais famosos são a ressurreição de Lázaro, a transformação de água em vinho e a multiplicação dos peixes.

Cafarnaum, onde Jesus teria vivido com seus discípulos, era um povoado de cerca de 1 500 moradores naquela época. Escavações encontraram os restos da casa de um dos discípulos, provavelmente de Simão Pedro (hoje conhecido como São Pedro), além de um barco datado da mesma época da passagem de Cristo pelo lugar. Não há, porém, certeza quanto ao número de discípulos que viviam próximos de Jesus. Nos evangelhos, apenas os oito primeiros conferem – os quatro últimos têm muitas variações. A hipótese mais provável é que o número “redondo” de 12 discípulos foi uma invenção posterior para espelhar, no Novo Testamento, as 12 tribos dos hebreus descritas no Velho Testamento.

Depois de viajar por quase toda a Palestina, Jesus parte para cumprir seu destino – ou, segundo alguns especialistas, seu plano. Durante a semana da Páscoa, o principal evento religioso do calendário judeu, Jesus entra em Jerusalém montado num burro e atravessando a Porta Maravilhosa. Esse foi, certamente, um ato deliberado de provocação aos sacerdotes do Templo e à elite judaica. Jesus faz exatamente o que o profeta Zacarias afirmava na Torá que o messias faria ao chegar. Jesus estava mandando uma mensagem de provocação aos sacerdotes do Templo. No segundo dia da Páscoa, Jesus vai ao Templo e ataca os mercadores e cambistas raivosamente.

Na quinta-feira, percebendo que o cerco apertava, os apóstolos celebram com Jesus a última ceia. A imagem que ficou dessa cena, gravada por Da Vinci e outros pintores, nada tem de verdadeiro. Os judeus comiam deitados de flanco, como os romanos, e as mesas eram ordenadas em formato de U e não dispostas numa linha reta. Durante a ceia, Judas levanta-se para trair seu mestre – ou, como alguns sugerem, para cumprir uma ordem dada pelo próprio Jesus. A captura acontece no Jardim do Getsêmani, onde Jesus e seus discípulos descansavam no caminho para Betânia, onde ficariam hospedados.

Levado para o Sinédrio, o Conselho dos Sacerdotes do Templo, Jesus reafirma sua missão divina e é condenado. Existem provas da denúncia de Caifás a Pilatos. Estudiosos judeus afirmam, porém, que o julgamento perante o Sinédrio jamais ocorreu porque o Sinédrio não se reunia durante a Páscoa. Essa versão teria sido incluída tardiamente na Bíblia após a ruptura definitiva entre cristãos e judeus. Jesus foi morto pelos romanos porque era considerado um agitador político.

Na manhã de sexta-feira, na residência do prefeito Pôncio Pilatos, Jesus é condenado à morte. Ele atravessa as ruas de Jerusalém carregando sua própria cruz e é crucificado entre dois ladrões. O caminho que Jesus percorreu nada tem a ver com a Via Crúcis visitada pelos turistas hoje. Ela é uma criação do século XIV, quando a cidade esteve nas mãos dos cavaleiros cruzados. A maioria dos historiadores e arqueólogos concorda, porém, que o morro do Calvário (Gólgota), localizado ao lado de uma pedreira, foi realmente o lugar da crucificação. Concordam também que seu corpo tenha sido colocado numa das grutas próximas. O que aconteceu então depende da fé de cada um. Há varias versões: que Jesus teria sobrevivido ao martírio, que outra pessoa teria morrido em seu lugar, que seu corpo teria sido roubado ou, claro, que ele teria ressuscitado.

Jerusalém

Quando Jesus atravessou a Porta Maravilhosa em seu burrico, Jerusalém era a maior cidade do Império Romano entre Damasco (atual capital da Síria) e Alexandria (no Egito), com uma população estimada em torno de 80 000 moradores. Durante a semana da Páscoa, porém, o número de peregrinos na cidade ultrapassava 100 000, o que dá uma idéia do clima de agitação vivido na cidade: carros de boi dividiam as ruas estreitas com os pedestres e havia um grande vaivém de animais sendo trazidos para o sacrifício durante as festividades.

Conquistada pelos romanos em 63 a.C., Jerusalém estava no auge do seu esplendor arquitetônico. Onde quer que chegasse seu império, os romanos faziam questão de introduzir seu estilo arquitetônico em obras como estradas, palácios, anfiteatros e hipódromos. Em 31 a.C., os romanos haviam colocado o judeu Herodes Antibas como governador da Palestina. Sua principal obra foi a construção do Templo de Jerusalém, cujo tamanho e riqueza foram pensados para rivalizar com o templo salomônico descrito na Torá. As obras haviam terminado no ano 10 a.C. – quatro anos antes do nascimento de Jesus.

A cidade era dividida entre as partes alta e baixa. Na alta, escavações recentes mostraram que a elite da cidade tinha uma vida requintada. As casas tinham normalmente dois andares, e eram construídas ao redor de um pátio pavimentado de pedra. Havia piscinas privadas para os rituais de purificação. Os pisos eram cobertos por mosaicos e as paredes, por afrescos com cenas campestres. Também foram encontrados copos de vidro finamente trabalhados e frascos de perfume.

A riqueza da elite judaica era alimentada pela cobrança de taxas dos peregrinos. Para as convicções rígidas de Jesus sobre riqueza e ostentação, era inadmissível o estilo de vida dos sacerdotes e do rei judeu Herodes, que aceitavam e se beneficiavam com a dominação dos pagãos romanos. Não é possível afirmar que Jesus estava decidido a morrer crucificado naquela semana de Páscoa, mas há elementos para admitir que ele havia decidido ir até as últimas conseqüências para denunciar a situação. O resultado todos nós sabemos.

Paulo

No ano 36 d.C., vivia na Antióquia (Turquia) um judeu helenizado chamado Paulo de Tarso. Além de cidadão romano, era também um soldado do imperador, cuja função era perseguir cristãos. Mas, em 36 d.C., Paulo converteu-se à fé cristã, segundo ele depois que Jesus lhe apareceu milagrosamente. A partir de então, Paulo se transformaria no mais decidido e incansável apóstolo do Cristianismo.

A principal preocupação de Paulo era converter os gentios (os não-judeus) espalhados pelo império. Em 16 anos, fez quatro grandes viagens por Grécia, Ásia, Síria e Roma. Foi o primeiro a escrever sobre o Cristianismo nas 14 cartas que enviou às comunidades cristãs que havia fundado. Paulo achava que a mensagem de Cristo não podia ficar confinada na Palestina.

Em Jerusalém, porém, os judeus cristãos, liderados pelo irmão de Jesus, Tiago, estavam voltando às origens judaicas. Se não fosse por Paulo, é bem provável que o Cristianismo acabasse por ser reassimilado pelo Judaísmo, extinguindo-se. Para resolver suas divergências, provavelmente em 49 d.C., houve o primeiro concílio da igreja cristã em Jerusalém. Pela primeira vez enfrentaram-se Paulo e os seguidores sobreviventes de Jesus.

Ali começou a ser edificado o Cristianismo atual. Paulo lutou contra a circuncisão obrigatória para os convertidos – algo que certamente afastaria muitos homens gentios. E defendeu a revogação das leis e prescrições judaicas em favor dos preceitos simples de Cristo. Sua opinião prevaleceu principalmente porque o apóstolo Pedro convenceu-se de que ele estava certo.

Em 59 d.C., Paulo foi novamente convocado a se explicar e, no debate que se seguiu, obrigado, pela ala judaica, a adorar o Templo de Jerusalém como demonstração de fé. Durante a visita, foi identificado e preso e, em 60 d.C., deportado para Roma – onde ficou em prisão domiciliar. Em 64 d.C., quando Nero mandou perseguir os cristãos, Pedro e Paulo acabaram presos e condenados à morte. Pedro foi crucificado e Paulo, por ser cidadão romano, teve o privilégio de ser decapitado.

Em 70 d.C., durante uma revolta dos judeus contra a dominação romana, Tito destruiu Jerusalém e seu templo, obrigando os judeus a fugir da Palestina. O desaparecimento dos que se opunham à visão universalizante que Paulo tinha do Cristianismo abriu caminho para sua visão da fé. O centro de gravidade do Cristianismo deslocou-se para Roma, que, em poucos séculos, passaria a ser o centro da cristandade.

Uma bela história. Seja a da versão bíblica oficial, a apócrifa ou a que a ciência hoje propõe como a que tem mais chances de ser verdadeira.

Frase

O que se sabe com certeza é que Jesus foi um judeu sectário e um agitador político que ameaçava levantar dois milhões de judeus da Palestina contra o exército de ocupação romano. Tudo o mais que se diz dele necessita da fé para ser considerado verdade

Choque de versões

O que dizem a Bíblia e a arqueologia sobre os eventos do Velho Testamento

A libertação do Egito

O que diz a Bíblia – No Êxodo, Deus escolhe Moisés como libertador do povo hebreu, envia as Dez Pragas e divide as águas do Mar Vermelho. No Monte Sinai, já a caminho da Terra Prometida, Moisés recebe as tábuas dos Dez Mandamentos.

O que diz a Arqueologia – Não há qualquer registro da existência de Moisés ou dos fatos descritos no Êxodo. Aliás, boa parte dos reinos e locais citados na sua jornada também não existiam no século XIII a.C. e só surgiriam 500 anos depois. A escolha do lugar que passou a ser conhecido como Monte Sinai ocorreu entre os séculos IV e VI d.C. por monges bizantinos.

O Dilúvio universal

O que diz a Bíblia – Segundo o Gênesis, um grande dilúvio destruiu a Terra. Noé e sua família, avisados, construíram uma arca para salvar um casal de cada espécie animal.

O que diz a Arqueologia – Ruínas achadas no Mar Negro, próximo da Turquia, mostram que houve uma enchente catastrófica por volta de 5600 a.C. O nível do Mar Mediterrâneo subiu e irrompeu pelo Estreito de Bósforo, inundando a planície onde hoje está localizado o Mar Negro. Na época, a região era uma planície de terras férteis, com um lago. Sobreviventes dessa catástrofe migraram para a Mesopotâmia. Assim teria surgido a história do dilúvio no texto sumério de Gilgamesh. Os hebreus conheceram a história quando estiveram cativos na Babilônia.

A conquista de Canaã

O que diz a Bíblia – Depois da libertação do Egito, Moisés conduziu os hebreus até a entrada da Terra Prometida. Ali, os israelitas enfrentam os nativos canaanitas com uma ajuda divina: ao toque de suas trombetas, as muralhas de Jericó desabam miraculosamente.

O que diz a Arqueologia – Jericó nem tinha muralhas nesse período. Na verdade, a tomada de Canaã pelos hebreus acontece de forma gradual, quando as tribos hebraicas trocam o pastoreio pela agricultura dos vales férteis. A história da conquista foi escrita durante o século VII d.C., mais de 500 anos depois da chegada dos hebreus aos vales cananeus.

A saga do rei David

O que diz a Bíblia – Após derrotar Golias, David firma-se como rei dos hebreus, submetendo primeiro a tribo de Judá e, posteriormente, todas as 11 tribos israelitas.

O que diz a Arqueologia – Em 1993 foi encontrada uma pedra de basalto datada do século IX a.C. com escritos que mencionam a existência de um rei hebreu chamado David. Mas não há qualquer evidência das conquistas de David narradas na Bíblia. David pode ter sido o líder de um grupo de rebeldes vindos de camadas pobres dos cananeus que, nessa época, atacava as cidades do sul da Palestina.

A guerra assíria

O que diz a Bíblia – Por volta de 700 a.C., o rei Ezequias, de Judá, revolta-se contra os assírios. Judá é atacada e a cidade de Lachish é completamente destruída.

O que diz a Arqueologia – Os fatos são narrados com precisão histórica. Achados arqueológicos permitiram reconstruir o cenário da batalha descrita na Bíblia. Além disso, a destruição de Lachish pelos assírios foi expressa num relevo em Nínive, a capital assíria, e as imagens batem com a narrativa bíblica.

Império de Salomão

O que diz a Bíblia – Salomão sucedeu a seu pai, David, fez alianças com reinos vizinhos e construiu o Templo de Jerusalém. Em seu reinado, os israelitas alcançaram opulência e poder. Salomão construiu palácios e fortalezas em Jerusalém, Megiddo, Hazon e Gezer.

O que diz a Arqueologia – Não há sinal de arquitetura monumental em Jerusalém ou em qualquer das outras cidades citadas. Tudo leva a crer que Salomão, como David, eram apenas pequenos líderes tribais de Judá, um Estado pobre e politicamente inexpressivo.

Desastre ecológico no Mundo Antigo?

As dez pragas que Deus teria enviado para salvar os judeus da escravidão no Egito podem ser um eco fantasiado de uma catástrofe ecológica que realmente aconteceu no Egito. Veja abaixo quais são as pestes e como a ciência explica cada uma delas.

1. As águas do Nilo se tingem de sangue

Uma mudança climática repentina esquenta a água do Nilo e provoca a reprodução descontrolada de Pfiesteria, uma alga que provoca hemorragias nos peixes, matando-os e intoxicando as águas com sangue.

2. Rãs cobrem a terra

A intoxicação das águas faz rãs e sapos fugirem, espalhando-se por toda a região.

3. Mosquitos atormentam homens e animais

A morte dos sapos produz uma superpopulação de insetos, inclusive do terrível maruim, um pequeno mosquito de picada dolorida.

4. Moscas escurecem o ar e atacam homens e animais

Outro tipo de inseto, a mosca dos estábulos, transforma-se em praga, atacando todo tipo de mamífero que encontra.

5. Uma peste atinge os animais

A peste eqüina africana e a peste da língua azul são doenças transmitidas pelo maruim e que atingem mamíferos.

6. Pústulas cobrem homens e animais

O mormo, uma doença eqüina que também ataca o homem, é transmitida pela mosca dos estábulos. Ela produz úlceras na pele.

7. Chuva de granizo destrói plantações

O granizo pode cair nas regiões desérticas do Mediterrâneo, embora seja um fenômeno relativamente raro.

8. Nuvem de gafanhotos ataca plantações

Os gafanhotos também são uma praga conhecida na região.

9. Escuridão encobre o Sol por três dias

Uma tempestade de areia pode durar dias e é capaz de encobrir completamente a luz do Sol.

10. Os primogênitos de homens e animais morrem

Cereais guardados em celeiros ainda úmidos podem desenvolver um bolor altamente tóxico. Como no Egito antigo os primogênitos (tanto humanos quanto dos animais) tinham a precedência na alimentação, em tempos de escassez eles foram os primeiros a ser fatalmente intoxicados pelo bolor.

Cenário dos evangelhos

Achados arqueológicos ajudam a entender a época de Jesus

A vida ao redor do templo

A Jerusalém que Jesus conheceu estava em seu auge de poder e beleza. Conquistada pelos romanos, em 63 a.C, a cidade passou por uma completa reformulação, que incluiu a construção de arenas, hipódromo, palácios e, principalmente, o impressionante templo erguido por Herodes Antibas, que Jesus visitou quando criança e poucos dias antes da sua morte. Dessa obra gigantesca restam, hoje, apenas um muro, que os judeus modernos chamam de Muro das Lamentações. Jesus foi muito provavelmente crucificado no Monte Calvário, como narra a Bíblia. Mas o percurso conhecido hoje como Via Crúcis não tem nada de histórico: foi inventado no século XIII pelos cavaleiros cruzados.

Pescador de homens

O que diz a Bíblia – Depois de ser batizado por João Batista e sofrer as tentações no deserto, Jesus foi para a Galiléia, onde recrutou seus primeiros discípulos entre os pescadores do lago Tiberíades. Escolheu viver com seus seguidores em Cafarnaum, uma pequena vila de pescadores.

O que diz a Arqueologia – Cafarnaum existiu e era um povoado com cerca de 1 500 moradores na época em que Jesus viveu. Escavações encontraram os restos de uma casa que pode ter sido de um dos discípulos, provavelmente de Simão Pedro, o primeiro a ser recrutado por Jesus.

Infância desconhecida

O que diz a Bíblia – Não há quase nada sobre a infância e a adolescência de Jesus, com exceção de uma passagem em que, aos 12 anos, numa visita ao Templo de Jerusalém durante a Páscoa, seus pais o encontram discutindo teologia com os sábios nas escadarias do templo de Jerusalém.

O que diz a Arqueologia – Escavações recentes revelaram que, ao mesmo tempo em que Jesus crescia em Nazaré, bem próximo era construída a monumental cidade de Séfores, idealizada pelo rei hebreu Herodes Antibas para ser a capital da Galiléia. Séfores estava a uma hora a pé de Nazaré e é muito provável que José e Jesus tenham trabalhado como carpinteiros em sua construção. Em Séfores, Jesus teria visto a família real, a opulência das famílias dos sacerdotes do Templo de Jerusalém e, provavelmente, teve contato com a cultura dos hebreus helenizados.

Para saber mais

Na livraria

The Bible Unearthed Israel Finkelstein e Neil Silberman, Free Press, 2001

What Did the Biblical Writers Know & When Did They Know it? William G. Dever, Erdmans, 2001

Excavating Jesus: Beneath the Stones, Behind the Texts John Dominic Crossan e Jonathan L. Reed, Harper San Francisco, 2001

The Oxford History of the Biblical World Michael D. Coogan, Oxford University Press, 1998

The Cambridge Companion to the Bible Howard Clark Kee, Eric M. Meyers, John Rogerson e Anthony J. Saldarini, Cambridge University Press, 1997

Na internet

Biblical Archaeology Society http://www.bib-arch.org

Fonte: https://super.abril.com.br/historia/biblia-passada-a-limpo/

We’re on visitas hits

| Sem categoria


Da facada à terra plana

“Eu me perguntava: ‘Como as pessoas podem ficar de cabeça para baixo e não cair?’ Nunca acreditei, apesar de ter precisado colocar nas provas escolares que a Terra era um globo.” Na boca de uma criança, a ponderação acima teria de ser confrontada com as armas da ciência e da paciência.

Foi proferida, entretanto, por um homem de 56 anos, como registrou reportagem desta Folha sobre a primeira Convenção Nacional da Terra Plana, a FlatCon, realizada domingo (10) em São Paulo.

O fato de um adulto alfabetizado prostrar-se diante das ilusões do senso comum pode ser atribuído, talvez, a falhas do sistema educacional, incapaz de ensinar fatos científicos básicos. Também seria aceitável argumentar que se trata de exceção irrelevante.

Havia cerca de 400 frequentadores pagantes na FlatCon. Supondo que poucos se aventurariam a desembolsar dinheiro para vincular-se de público a noções lógica e obviamente contrárias aos fatos, deduz-se que o contingente de terraplanistas não é tão diminuto assim.

De fato, pesquisa Datafolha de julho constatou que 7% dos brasileiros dizem acreditar que a Terra, em vez de esférica, tem formato de disco. Para mais de 10 milhões de pessoas, nada valem dados e documentos, sejam eles fotos tiradas do espaço ou voos de volta ao mundo, eclipses e fases da Lua.

Para cada evidência em contrário, o terraplanista encontrará explicação alternativa na indústria de vídeos, livros e memes em que opiniões têm o mesmo valor de fatos.

Essa franja de convicções excêntricas apresenta alguma superposição com grupos de índole conservadora que põem em dúvida outros fatos comprovados, como o aquecimento global ou a eficácia e a segurança de vacinas.

Espanta não só que tantos se professem refratários ao método científico, mas sobretudo que aceitem acreditar em ciclópicas conspirações globalistas. Livros didáticos, jornalistas, artigos científicos, professores, cartógrafos, engenheiros, agências espaciais, astronautas, pilotos —todos conjurados no engodo para incautos.

Parcelas cada vez mais visíveis do público se mostram propensas ao descrédito em fatos quando apresentados por aqueles de quem discordam por princípio. E errará quem daí concluir que a epidemia se propaga apenas à direita —do lado oposto há, por exemplo, quem acredite que a facada em Jair Bolsonaro (PSL) foi uma fraude.

https://www1.folha.uol.com.br/opiniao/2019/11/da-facada-a-terra-plana.shtml

| Sem categoria


Os santos e a ciência

Incomoda o verniz científico que o Vaticano tenta imprimir aos processos de canonização

Compreendo que organizações religiosas precisem eleger modelos de vida virtuosa e mostrá-los conspicuamente aos fiéis, para que tentem imitá-los. É nesse contexto que se explicam santos, mártires, “stáriets”, taumaturgos e iluminados.

Não tenho nada contra a santificação de Irmã Dulce, que me parece mesmo uma figura simpática. Devo, porém, dizer que me incomoda o verniz científico que o Vaticano tenta imprimir aos processos de canonização, vinculando-os a milagres que passam pelo crivo de comissões de médicos e cientistas, incumbidas de atestar que o fenômeno não tem explicação natural. Há aí uma confusão epistemológica. Não encontrar uma explicação é muito mais uma medida de nossa ignorância do que a certeza de uma interferência sobrenatural.

Resultado de imagem para science religion

Chega a ser suspeito o fato de que a maior parte dos milagres modernos venha da medicina, campo em que reina a incerteza. O diagnóstico inicial estava certo? Componentes psicológicos influíam no quadro do paciente? Em que medida a remissão de um tumor, por exemplo —algo que todos os grandes hospitais registram com doentes de todas as religiões e ateus—, pode ser considerada milagrosa? Por que nunca vimos uma cura que calaria a boca de todos os céticos, como a regeneração de um membro amputado?

E, se quisermos levar o espírito de porco da ciência mais longe, podemos questionar até as motivações dos santos. Suas boas ações são fruto de altruísmo genuíno ou apenas um instrumento para conquistar um lugar no paraíso? Mesmo que descartemos essa última hipótese, a ciência mostra que ajudar pessoas libera neurotransmissores que produzem a sensação de bem-estar, o que também pode ser interpretado como uma motivação egoísta. Isso, é claro, se acreditarmos no livre-arbítrio, sem o qual não existe santidade, mas que a ciência vê com desconfiança.

É melhor para a religião manter os santos longe do escrutínio da ciência.

Hélio Schwartsman
Jornalista, foi editor de Opinião. É autor de “Pensando Bem…”.

https://www1.folha.uol.com.br/colunas/helioschwartsman/2019/10/os-santos-e-a-ciencia.shtml

| Sem categoria


Carl Sagan e o prelúdio da nossa época

“A ciência é mais do que um corpo de conhecimento, é um modo de pensar. Tenho um pressentimento sobre a América do Norte dos tempos de meus filhos ou de meus netos – quando os EUA serão uma economia de serviços e informações; […] quando tremendos poderes tecnológicos estarão nas mãos de uns poucos, e nenhum representante do interesse público poderá sequer compreender de que se trata; quando as pessoas terão perdido a capacidade de estabelecer seus próprios compromissos ou questionar compreensivelmente os das autoridades; quando, agarrando os cristais e consultando nervosamente os horóscopos, com as nossas faculdades críticas em decadência, incapazes de distinguir entre o que nos dá prazer e o que é verdade, voltaremos a escorregar, quase sem notar, para a superstição e a escuridão.
O emburrecimento da América do Norte é muito evidente no lento declínio do conteúdo substantivo nos tão influentes meios de comunicação, nos trinta segundos de informações que fazem furor (que agora já são dez segundos ou menos), na programação de padrão nivelado por baixo, na apresentação crédula da pseudociência e da superstição, mas especialmente numa espécie de celebração da ignorância. […] A lição clara é que estudar e aprender – e não se trata apenas de ciência, mas de tudo o mais – é evitável, até indesejável.
Nós criamos uma civilização global em que os elementos mais cruciais – o transporte, as comunicações e todas as outras indústrias, a agricultura, a medicina, a educação, o entretenimento, a proteção ao meio ambiente e até a importante instituição democrática do voto – dependem profundamente da ciência e da tecnologia. Também criamos uma ordem em que quase ninguém compreende a ciência e a tecnologia. É uma receita para o desastre. Podemos escapar ilesos por algum tempo, porém mais cedo ou mais tarde essa mistura inflamável de ignorância e poder vai explodir na nossa cara.” (O Mundo Assombrado pelos Demônios. p. 43-44)

Image may contain: 1 person, standing

| Sem categoria


Mexendo com sua cabeça

Você pode não perceber, mas alguma coisa acontece no seu cérebro toda vez que a telinha do celular se ilumina. O aparelhinho já virou parte essencial do nosso corpo e mexe mesmo com a nossa central de controle: pode mudá-la, substituí-la em algumas funções ou condicioná-la a se comportar de determinada maneira.

O celular já é uma extensão do nosso cérebro. Você utiliza-o como parte da memória, como se fosse parte de você
Edgard Morya, pesquisador do Instituto Internacional de Neurociências Edmond e Lily Safra

Ao longo da história, outras tecnologias até moldaram nosso cérebro, mas nenhuma delas tinha tantos truques na manga ou se massificou como o smartphone.

Calma, não é o fim do mundo. Toda essa mudança não é necessariamente ruim, já que o cérebro é mestre em adaptações e deve tirar isso de letra.

Mas e você? Tira de letra a sua relação de dependência com o celular?

Como age o cérebro

Antes de entender o casamento entre smartphone e cérebro, é bom analisar como agem os noivos.

O órgão humano tem diversas habilidades, mas uma é crucial para entender essa relação com os celulares: a plasticidade, ou seja, a capacidade de ele adaptar sua estrutura para desempenhar novas funções ou criar soluções caso sofra alguma lesão.

Isso faz com que ele mude, adapte-se e molde-se tanto no nível estrutural (nos axônios que ligam os neurônios), quanto no funcional (na comunicação entre os neurônios). O cérebro precisa mudar para que a gente consiga aprender algo, senão nada feito. Quando você aprende a escrever um texto no papel, é necessário que aconteça uma adaptação neurofisiológica. E, de adaptação em adaptação, vamos ganhando novas habilidades, perdendo algumas no caminho ou reduzindo conhecimentos já adquiridos. Isso é perfeitamente normal –pelo menos do ponto de vista neurológico.

Como você já deve ter percebido, é essa neuroplasticidade que faz com que o cérebro aprenda rapidamente os segredos do celular e mude algumas de suas estruturas por causa do aparelho.

Todo mundo que aprende a ler perde um pouco a capacidade de reconhece faces. Analfabetos possuem melhor desempenho no reconhecimento de faces do que os letrados, mas que lê ganha uma maneira de comunicação e armazenamento de informação. Uma mudança no nosso cérebro não necessariamente vem a ser uma coisa ruim

Marília Zaluar Guimarães, neurocientista do Instituto D’Or de Pesquisa e Ensino, da UFRJ e da Rede Nacional de Ciência para Educação

O efeito do smartphone na mente

sso já aconteceu antes com outras tecnologias, da escrita e dos livros aos meios magnéticos de armazenamento de informação, também conhecidos como HDs, que, cada um a seu tempo, substituíram algumas funções da memória.

Mas nunca com a intensidade observada agora, explica Guimarães. E há aqui duas explicações:

  1. A massificação do smartphone tornou-o um acessório individual.
  2. Cada recurso do aparelho é capaz de estimular o cérebro de diferentes maneiras, da tela à câmera, da calculadora ao bloco de notas.

Interagir com um aparelho cheio de funções faz com que seu cérebro tenha de se especializar para aprender dezenas de recursos. Só que, ao fazer isso, ele entende o aparelho como um adendo de si. É algo parecido com o que acontece com a raquete de tênis para um tenista profissional ou com o piano para um pianista, explica Morya. “Ele não precisa saber onde está uma tecla, já que o piano é como se fosse parte do corpo dele.”

Agora faça um exercício mental: pense em quantos pianistas você conhece. E donos de celular? Eis o poder de contágio do celular. “Quanto mais tempo a pessoa passa com o telefone, mais a área que representa os dedos no cérebro vai crescer e ficar ágil, por causa da tela sensível ao toque e das funcionalidades que exigem a movimentação dos dedos”, ressalta Weingartner.

O smartphone atinge áreas no cérebro que um telefone normal não atingia. Há todo um estímulo visual trazido pela tela, o que já modifica a relação do equipamento com o cérebro, e há o desenvolvimento da parte motora pra aprender a mexer, o que celulares analógicos não traziam

Julie Weingartner, neurocientista e pesquisadora do Instituto D’Or de Pesquisa e Ensino.

Aparelho vira extensão da nossa memória

Como todo apaixonado, após cair nas garras desse amor gostoso com o smartphone, o cérebro começa a mudar de comportamento. Como são muitas, vamos passear por elas uma a uma, mas não é assim que acontece na vida real. Tudo ocorre simultaneamente.

Os especialistas são unânimes em diz que os celulares inteligentes já são responsáveis por executar uma função muito íntima do seu sistema cognitivo: a memória. “De quantos números de celular você lembra agora? Eu mal lembro o meu e o da minha mãe. Antigamente, a gente sabia o telefone de todo mundo”, brinca Guimarães.

O exemplo é simples, mas a explicação para o esquecimento de pequenos detalhes mostra como o processo não é banal. Seu cérebro divide as memórias em dois subgrupos:

  • As de curto prazo, chamadas de memória de trabalho. Você usa-as por tempo suficiente para lidar com uma tarefa. Por exemplo: em um problema de lógica, caso você não memorize momentaneamente as condicionantes do problema, não vai conseguir solucionar a questão.
  • As de longo prazo, aquelas que duram um pouquinho mais. Essas também se dividem em dois grupos, a das memórias declarativas (fatos ou episódios) e as não-declarativas (conceitos, habilidades e aprendizados associativos).

Nossa memória ganha um HD externo

O que acontece agora é que informações como números de telefone, antes registradas no seu cérebro como memórias de longo prazo declarativas, passaram a ser guardadas no seu celular. Isso vale também para outras recordações, como lembranças de viagens, shows ou festas, que praticamente não existem se não forem registradas em uma foto.

“Vamos supor que eu queira lembrar dos momentos que eu passei com meu irmão quando ele veio me visitar. Isso está registrado na minha memória, ainda que eu não possa ver, porque a memória de longo prazo é uma fonte de armazenamento não acessível”, diz Weingartner. Mas ter um celular registrando esse momento modifica essa nossa relação com essa memória, porque passamos a acessá-la quando ela não está só registrada no cérebro.

Por isso, os neurocientistas classificam o celular com uma extensão do hipocampo, estrutura localizada nos lobos temporais e considerada a central da memória.

O lado bom é que, ao criar um histórico de lembranças que podem ser consultadas com um toque, o celular ajuda a consolidarmos algumas memórias. Como nossa capacidade cognitiva é limitada (estudos apontam que nosso cérebro processa só 60 bits por segundo), os especialistas julgam que delegar parte da memória de longo prazo aos smartphones não é tão danoso.

A memória é usada para tudo. Você precisa da memória para fazer uma conta, mas se fizer uma previsão matemática de um modelo científico vai usar não só a memória como outras áreas do cérebro. O celular substitui isso? Não

Edgard Morya

Dopamina na veia vicia

Claro que nem todas as interações do smartphone com seu cérebro são úteis ou saudáveis. O aparelho é todo pensando para fazer você ficar louco para pegá-lo o tempo todo. A consultora norte-americana em neuropsicologia Susan Weinschenk, autora do livro “Neuro Web Design – What Makes Them Click?” (“Neuro Web Design – O que os faz clicar”, em tradução literal), chama esses truques de “gatilhos neurológicos”.

Funciona assim: todas as vezes que pinta alguma notificação no seu celular, você libera dopamina. Esse neurotransmissor é responsável em alguma medida pela sensação de prazer. Alguns alertas, em especial, como sinalizações de “curtidas” ou comentários em postagens que você fez, geram ainda mais prazer.

“Você faz uma ação, tem a liberação de um neurotransmissor e se sente bem. A tendência é querer fazer isso mais vezes”, diz Morya.

Então, se você já se pegou rolando o feed no Facebook ou no Instagram por horas e horas sem objetivo nenhum ou querendo loucamente postar algo, saiba que você caiu em uma armadilha. É o ‘loop de dopamina’, um ciclo vicioso de bem-estar que faz seu cérebro esquecer do mundo.

O smartphone deixa a gente conectado 24 horas por dia, recebendo uma injeção de neurotransmissores cada vez que apertamos a bolinha do celular

Janaína Brizante, psicóloga e diretora do laboratório de neurociência da Nielsen

Estresse causado pelo tsunami de notificações

Só que seu cérebro não é bobo. Ao notar essa inundação de dopamina, ele cria uma trava para impedir que qualquer meia dúzia de curtidas leve você ao êxtase. Parece ótimo, mas o estímulo precisa ser cada vez maior para que você tenha a mesma sensação de prazer. Aí vira uma armadilha.

Além disso, o sistema que libera os neurotransmissores é sensível a indícios de que algo agradável está prestes a acontecer. Ou seja, basta uma notificação para que fique em estado de alerta. Entra em cena uma dose de outro neurotransmissor, o cortisol, aquele que induz ao estresse.

Esse processo vai condicionando nosso cérebro a aguardar que pintem notificações no celular. “Isso gera bastante ansiedade e faz que algumas pessoas fiquem o tempo todo checando se há coisa nova no celular”, afirma Brizante.

Toma, distraído!

Essa constante expectativa pelo surgimento de uma notificação gera outro efeito. Além de manter os donos de celulares em constante estado de alerta, deixa-os desatentos.

“A questão da atenção é brutal”, comenta Marília Zaluar Guimarães. Ela cita estudos em que pesquisadores demonstraram que a capacidade cognitiva é seriamente afetada pela simples presença do celular. Eles testaram alunos em três situações diferentes: com o celular posicionado em cima mesa, com o celular na bolsa/bolso ou com o celular fora sala em que estavam. Aplicaram provas sobre o conteúdo ensinado nesses três momentos.

O desempenho dos estudantes melhorou à medida que o aparelho foi se distanciando. Agora, um detalhe chocante: o pior resultado dos alunos foi com os celulares em cima da mesa, ainda que estivessem virados para baixo. Ou seja, mesmo sem ver a tela, o aparelho já é uma distração por todos os gatilhos neurológicos armados previamente no cérebro.

Esse efeito persiste também com o aparelho desligado, principalmente quando se exige a concentração em uma só atividade. Pesquisadores da Universidade Stanford descobriram que jovens acostumados à enxurrada de estímulos gerada pelo celular têm cérebros mais preguiçosos e com menor capacidade de ignorar informações irrelevantes. “Eles são sedentos por irrelevância”, afirmou o professor Clifford Nass, um dos pesquisadores, à revista “Proceedings of the National Academy of Sciences”.

Em testes, os acadêmicos constataram que esses indivíduos não conseguem memorizar dados simples, como letras que se repetem. As informações vistas nesse troca-troca de tarefas não chegam nem a virar memórias de curto prazo, o que dificulta a consolidação de um aprendizado.

Crise no relacionamento: atarefados e desatentos

O poder dos smartphones de executar inúmeras funções é outra coisa que mexe com seu cérebro. Parece bom poder tocar música, enviar mensagens e jogar sem trocar de aparelho. Mas toda vez que você pula de um app para outro, seu cérebro paga um “pedágio” em capacidade de processamento.

O psicólogo norte-americano David Meyer, professor da Universidade de Michigan, estima que a troca intensa entre atividades pode comprometer até 40% do tempo produtivo do cérebro.

A mudança constante para uma nova função, aparentemente mais atrativa que a anterior, também está relacionada ao ‘loop da dopamina’. Seu cérebro se interessa por uma nova atividade em busca de algo prazeroso, que vá liberar mais dopamina e renovar a sensação de bem-estar.

Só que a interrupção de uma atividade possui efeitos negativos. Isso injeta doses de cortisol, o que eleva os níveis de estresse, segundo estudos do endocrinologista e professor de pediatria na Universidade da Califórnia Robert Lustig.

A alternância de tarefas vai tornando as pessoas mais ‘rasas’ por não conseguirem fazer associações mais profundas

Cristiano Nabuco, psicólogo e coordenador do grupo de dependências tecnológicas do Instituto de Psiquiatria da Universidade de São Paulo (IPq-USP)

Quero um pote de biscoito, imediatamente

Atire o primeiro like quem nunca passou por isso: você posta algo nas redes sociais e, segundos depois, surge na tela do seu celular uma resposta, em forma de “curtida”, comentário ou novos seguidores. Bom, né?

Os especialistas chamam isso de gratificação imediata, e seu efeito é um dos mais preocupantes, pois leva a um desequilibro emocional.

“Isso faz com que a gente perca a capacidade de se dedicar a uma coisa cuja gratificação vai demorar muito a chegar”, explica Marília Zaluar Guimarães. “As pessoas acostumadas a essa rapidez do smartphone não conseguem lidar com a frustração diante da espera por uma resposta. Ou passam a repudiar atividades que não recompensem imediatamente o esforço empreendido.”

E, por enquanto, somente uma tecnologia é capaz de dar esse nível de gratificação em tempo real, onde quer que você esteja: o celular. É o feedback portátil, que faz parte de você, resume Morya.

Mas, vamos deixar claro que apesar de bagunçar sua cabeça de diversas formas, o smartphone é uma ferramenta revolucionária. Para os especialistas consultados por Tilt, o aparelho ampliou o poder de comunicação, de acesso a informação e colocou na mão de cada um uma grande capacidade computacional.

“Tem gente que diz que o celular tira o treinamento do cérebro, que faz mal”, analisa Morya. “Pode fazer, se você deixar de usá-lo para funções mais complexas. O celular é uma ferramenta aliada: você pode deixar funções corriqueiras para fazer nele e usar seu cérebro em atividades mais complexas.”

Direção de Arte: Suellen Lima; Edição: Fabiana Uchinaka; Ilustração: Eryk Souza; Infografia: Elias Fernandes; Motion Design: Daniel Neri.

Fonte: https://www.uol.com.br/tilt/reportagens-especiais/como-o-smartphone-muda-seu-cerebro/index.htm

| Sem categoria


Por que o Vaticano, coração da Igreja, sedia a maior conferência sobre ateísmo no mundo

Desta terça (28) até quinta-feira (30), o Vaticano, centro espiritual e político da Igreja Católica, sedia um evento inusitado, se considerarmos seus princípios. Trata-se da Understanding Unbelief, apresentada como a maior conferência mundial sobre ateísmo.

O programa, financiado pela Fundação John Templeton, é organizado por quatro instituições acadêmicas, todas do Reino Unido. Na coordenação está a Universidade de Kent. E colaboram as universidades Conventry, Queen’s e de Saint Mary.

“Este evento não se realizaria no Vaticano se não fosse por uma efeméride: trata-se do 50º aniversário de uma conferência semelhante realizada no Vaticano”, afirmou à BBC News Brasil o antropólogo Jonathan Lanman, diretor do Instituto de Cognição e Cultura e professor da Universidade Queen’s Belfast, um dos organizadores do evento.

Vaticano inaugura presépio e árvore de Natal

Ele contou que um dos pesquisadores entrou em contato com o Vaticano, e então “eles concordaram em revisitar os temas da ‘incredulidade'”.A conferência de 1969, a primeira do gênero sobre o tema, ocorreu como consequência da abertura provocada pelo Concílio Vaticano 2º, ocorrido de 1962 a 1965.

O papa Paulo 6º (1897-1978) era um entusiasta do diálogo com outros cristãos, judeus e adeptos de outras religiões. E também criou um secretariado próprio para ouvir a quem chamava de “descrentes” —segundo suas palavras, o ateísmo era “um dos assuntos mais sérios de nosso tempo”.

O papa Francisco, que comanda a Igreja Católica desde 2013, já deu mostras de que procura abordar os ateus de forma respeitosa e sem um discurso de oposição.

No início deste ano, por exemplo, ele disse que é melhor viver como ateu dos que ir à missa e nutrir ódio pelos outros.

“Quantas vezes vemos o escândalo das pessoas que passam o dia na igreja e depois vivem a odiar ou a falar mal dos outros”, afirmou ele.”Vive como um ateu. Mas se vais à igreja, então vive como filho, como irmão, dá um verdadeiro exemplo.”

O evento que começa nesta terça terá painéis que debaterão o que leva pessoas a crerem e o que leva pessoas a não crerem em deus. Participam maioritariamente pesquisadores acadêmicos interessados no tema, como sociólogos, antropólogos, teólogos e filósofos —mas religiosos também são bem-vindos.

Em outubro de 2018, ele havia condenado publicamente o fato de muitos católicos lavarem dinheiro sujo, explorarem seus funcionários e cometerem delitos. “Há muitos católicos que são assim e eles causam escândalos”, disse o pontífice. “Quantas vezes todos ouvimos pessoas dizerem ‘se esta pessoa é católica, é melhor ser ateu’?”.

O evento desta semana tem a chancela do Pontifício Conselho para a Cultura, dicastério criado em 1982 pelo papa João Paulo 2º (1920-2005).

Há 50 anos, a primeira conferência foi, segundo o sociólogo Rocco Caporale (1927-2008), que escreveu um livro sobre ela (‘The Culture of Unbelief: Studies and Proceedings From the First International Symposium on Belief Held at Rome’), uma primeira oportunidade para que a Igreja pudesse debater várias questões da “cultura da não-crença” e sobre como estudá-la.

Caporale relata que uma das principais percepções dos participantes do simpósio de 1969 foi a de que “o crer e o não crer são uma completa terra incógnita”.

Mas, dessa vez, o pesquisadores poderão se debruçar sobre os dados de um estudo realizado pelas universidades britânicas de Kent, Conventry, Queen’s e Saint Mary.

Trata-se de uma pesquisa conduzida em seis países sobre o que é ser ateu hoje. No total, foram entrevistadas 6,6 mil pessoas —seguindo criteriosa amostragem científica— do Brasil, Estados Unidos, Reino Unido, China, Japão e Dinamarca.

O relatório, que será publicado nesta terça (28), trouxe oito pontos-chave para entender o fenômeno da não-crença no mundo:

1. Ateus —aqueles que não acreditam em deus— e agnósticos —os que não sabem se existe deus ou não, mas não acreditam que haja uma maneira descobrir— não são homogêneos. Eles aparecem em grupos diferentes nos países pesquisados. “Por conseguinte, há muitas maneiras de ser incrédulo”, pontua o documento.

2. Em todos os seis países, a maioria dos que não acreditam em deus se identifica como “sem religião”.

3. Na hora de se autorrotularem, os incrédulos que preferem ser chamados de “ateu” ou “agnóstico” não são a maioria. Muitos classificam-se como “humanistas”, “pensadores livres”, “céticos” ou “seculares”.

4. Os ateus do Brasil e da China são os menos convencidos de que sua crença sobre a não-existência de deus está correta.

5. Não crer em deus não significa necessariamente não acreditar em outros fenômenos sobrenaturais, ainda que os ateus sejam mais céticos em relação a estes do que as populações gerais.

6. Entre os ateus, o percentual de pessoas que acham que o universo é “em última instância, sem sentido” é maior do que no restante da população. Mas, ainda assim, em número muito inferior ao de metade dos pertencentes ao grupo.

7. Quando confrontados com questões relacionadas a, segundo o relatório, “valores morais objetivos, dignidade humana e direitos correlatos, além do valor profundo da natureza”, as posições dos ateus são semelhantes ao do restante da população.

8. Por fim, quando perguntados sobre quais são os valores mais importantes da vida, houve uma “concordância extraordinariamente alta entre incrédulos e populações gerais”, apontou o levantamento. “Família” e “liberdade” foram muito bem citados por todos, além de “compaixão”, “verdade”, “natureza” e “ciência”.

Da mesma maneira que nem todos os que se descrevem como “sem religião” são ateus —muitos cultivam uma espiritualidade própria— a pesquisa mostrou que nem todos os ateus são “sem religião”.

No caso do Brasil, por exemplo, 73% dos incrédulos se identificam como “sem religião”, enquanto 18% se dizem cristãos. Na Dinamarca, 63% dos ateus se dizem “sem religião” —28% são cristãos.

A explicação para isso pode ser por conta da tradição familiar. Com exceção dos chineses e dos japoneses, a maioria dos ateus entrevistados disseram que romperam uma religião de família —é o caso de 85% dos incrédulos brasileiros e 74% dos norte-americanos, por exemplo.

Em todos os países ouvidos, a grande maioria dos ateus veio de famílias cristãs (79% dos brasileiros, 63% dos norte-americanos, 60% dos dinamarqueses).

A questão dos rótulos também traz variações —muitas vezes motivadas por receio de preconceitos. Entre os que “não sabem se deus existe” —tecnicamente agnósticos, portanto—, 8% dos brasileiros se autodefinem como ateus e a maioria, 27%, prefere ser chamada de agnóstica; seguida de não religiosa (16%), espiritual mas não religiosa (13%), racionalista (9%) e cética (8%).

Para os chineses desse grupo, 20% se dizem ateus e 18% racionalistas. Japoneses, britânicos e dinamarqueses preferem ser classificados como “não religiosos” (34% e 27% e 17%, respectivamente) e norte-americanos se definem como “agnósticos” (26%).

Já no grupo dos que afirmam que “deus não existe” —tecnicamente ateus— 30% dos brasileiros se autodenominam ateus, 14% sem religião. Situação semelhante aparece na pesquisa realizada com norte-americanos —39% assumem-se ateus.

E entre os chineses, há um equilíbrio entre os que preferem ser chamados de racionalistas, ateus e livres-pensadores (respectivamente com 22%, 21% e 19%). Dinamarqueses, britânicos e japoneses preferem ser classificados como sem religião (36%, 35% e 31%).

A crença na ciência como o melhor modelo para atingir o conhecimento apareceu como homogênea entre crentes e incrédulos em todos os países aferidos, exceto Brasil e Estados Unidos. No caso brasileiro, os métodos científicos são considerados o melhor caminho para 71% dos não crentes —contra 43% da população em geral.

Entre os norte-americanos, o número é de 70% entre os incrédulos e despenca para apenas 33% da população em geral.

“Essas descobertas mostram de uma vez por todas que a imagem pública do ateu é, na melhor das hipóteses, uma simplificação. E, na pior das hipóteses, uma caricatura bruta”, ressalta Lois Lee, pesquisadora de estudos religiosos da Universidade de Kent e autora dos livros Recognizing the Non-religious: Reimagining the Secular (Reconhecendo o Não-religioso: Reimaginando o Secular, em tradução livre) e The Oxford Dictionary of Atheism (O Dicionário Oxford de Ateísmo).

“Em vez de confiar em suposições sobre o que significa ser ateu, podemos agora trabalhar com uma compreensão real das diferentes visões de mundo que a população ateísta inclui.

As implicações para a política pública e social são substanciais. “Nossos dados vão de encontro a estereótipos comuns sobre os incrédulos”, afirma Lanman.

“Uma visão comum é que os incrédulos não teriam um senso de moralidade e propósito objetivos, nutrindo um conjunto de valores muito diferente do restante da população. Nossa pesquisa mostra que nada disso é verdade. Em um tempo em que as sociedades parecem estar cada vez mais polarizadas, tem sido interessante e encorajador ver que uma das supostas grandes divisões na vida humana —crentes x não crentes— pode não ser tão grande assim.”

 

https://www1.folha.uol.com.br/mundo/2019/05/por-que-o-vaticano-coracao-da-igreja-sedia-a-maior-conferencia-sobre-ateismo-no-mundo.shtml

| Sem categoria


Charlatães

Todo charlatão que se preza alega receber eflúvios energéticos do além túmulo. Em busca de alívio para os mais variados males, os crédulos vão até ele.

Basta correr o primeiro boato de que o parente do filho do amigo de algum vizinho sarou ao receber um passe para que a fama do charlatão se espalhe. Em pouco tempo, começam as romarias em sua porta.

Se o espertalhão aprendeu certos truques há mais de um século desmascarados pelos mágicos, como enfiar tesouras em narizes, raspar córneas e fazer cortes superficiais através dos quais retiram falsos tumores sem que os incautos sintam dor ou se deem conta da prestidigitação, os testemunhos de poderes extrassensoriais correm o mundo.

A credulidade humana não tem nacionalidade nem respeita fronteiras.

Ele se alimenta da insegurança do outro. Apregoa o dom de incorporar “entidades” que mobilizam energias transcendentais, capazes de restabelecer a ordem nas células do organismo enfermo.

Ilustração de Líbero para Drauzio Varela de 22.dez.2018.

Ninguém questiona a natureza dessa energia: cinética, térmica, potencial, atômica? Ninguém estranha por que ela não faz um tapete voar nem ferver a água de um copo.

O prestígio do charlatão é potencializado pelas personagens públicas que consegue atrair. Cada médico, juiz, presidente da República, intelectual ou artista de renome que procura seus serviços atrai publicidade e lhe confere atestado de idoneidade espiritual.

As motivações que levam gente esclarecida a ir atrás do sobrenatural são as mesmas que mobilizam a pessoa mais simplória. Credulidade é condição contagiosa, não respeita escolaridade, posição social, cultura ou talento artístico.

Trato de doentes com câncer há 50 anos. Assisti ao desapontamento de inúmeras famílias que viajaram centenas de quilômetros com seus entes queridos —muitas vezes debilitados—​ atrás da promessa de curas mágicas que jamais se concretizaram.

A vítima se aproxima do charlatão na esperança de um milagre. Poucos se conformam com a finitude da existência e aceitam as restrições impostas pelas leis da natureza: milagres não existem, são criações do imaginário humano.

Se existissem, em meio século de atividade profissional intensa com pacientes graves, eu teria visto pelo menos um, ainda que fosse uma redução ínfima nas dimensões de uma metástase. Cem por cento das chamadas curas espirituais que tive a oportunidade de avaliar não resistiram à análise racional mais elementar.

Como nem sempre estão bem definidos os limites de separação entre superstições, crendices e religião, quem ousa denunciar as artimanhas do charlatão é tido como contestador da religiosidade alheia e enfrenta a ira popular.

Duvidar da eficácia de suas ações é afrontar a palavra do “enviado de Deus” e as convicções dos fiéis. Tentar convencê-los de que são ludibriados por um malandro que lhes incute esperanças vãs é considerado sacrilégio.

Veja o caso desse cidadão autodenominado João de Deus. Durante décadas iludiu, trapaceou e cortou pessoas com instrumentos inadequados sem o menor cuidado com a esterilização.

Para retirar um ponto cirúrgico de um paciente em meu consultório, preciso de autorização explícita da Anvisa, sem a qual posso ser multado pela fiscalização caso guarde no armário uma pinça e uma tesoura cirúrgica. Tanto rigor com os médicos e permissividade covarde e conivente com esses incorporadores de espíritos.

A menos que tenha mediunidade suficiente para imobilizar vírus e bactérias, quantas infecções locais e transmissões de hepatite B e C, HIV e outras doenças esse curandeiro provocou impunemente?

A sociedade fica chocada ao saber que ele abusou de centenas de mulheres indefesas. Sinceramente, só me surpreendi com o número: esperar comportamento ético de alguém que ficou milionário explorando a boa fé de milhões de doentes é ingenuidade pueril.

Veja você, caríssima leitora, a situação humilhante da mulher no Brasil: no decorrer de 40 anos, um homem branco e poderoso se aproveita sexualmente de mulheres em situação de vulnerabilidade, sob o olhar complacente de auxiliares que com ele convivem, sem ser denunciado à polícia.

Não fossem os depoimentos apresentados no programa do Pedro Bial, quantas ainda seriam estupradas?

Que sensação de impotência, fragilidade, solidão e vergonha tantas mulheres viveram sem ter como reagir, com medo da opinião pública, acuadas pela influência religiosa e social de um criminoso desprezível.

Drauzio Varella
Médico cancerologista, autor de “Estação Carandiru”.
Fonte: https://www1.folha.uol.com.br/colunas/drauziovarella/2018/12/charlataes.shtml

| Sem categoria


A Era da Burrice
Discussões inúteis, intermináveis, agressivas. Gente defendendo as maiores asneiras, e se orgulhando disso. Pessoas perseguindo e ameaçando as outras. Um tsunami infinito de informações falsas. Reuniões, projetos, esforços que dão em nada. Decisões erradas. Líderes políticos imbecis. De uns tempos para cá, parece que o mundo está mergulhando na burrice. Você já teve essa sensação? Talvez não seja só uma sensação. Estudos realizados com dezenas de milhares de pessoas, em vários países, revelam algo inédito e assustador: aparentemente, a inteligência humana começou a cair.
Os primeiros sinais vieram da Dinamarca. Lá, todos os homens que se alistam no serviço militar são obrigados a se submeter a um teste de inteligência: o famoso, e ao mesmo tempo misterioso, teste de QI (mais sobre ele daqui a pouco). Os dados revelaram que, depois de crescer sem parar durante todo o século 20, o quociente de inteligência dos dinamarqueses virou o fio, e em 1998 iniciou uma queda contínua: está descendo 2,7 pontos a cada década. A mesma coisa acontece na Holanda (onde tem sido observada queda de 1,35 ponto por década), na Inglaterra (2,5 a 3,4 pontos de QI a menos por década, dependendo da faixa etária analisada), e na França (3,8 pontos perdidos por década). Noruega, Suécia e Finlândia – bem como Alemanha e Portugal, onde foram realizados estudos menores – detectaram efeito similar.
“Há um declínio contínuo na pontuação de QI ao longo do tempo. E é um fenômeno real, não um simples desvio”, diz o antropólogo inglês Edward Dutton, autor de uma revisão analítica(1) das principais pesquisas já feitas a respeito. A regressão pode parecer lenta; mas, sob perspectiva histórica, definitivamente não é. No atual ritmo de queda, alguns países poderiam regredir para QI médio de 80 pontos, patamar definido como “baixa inteligência”, já na próxima geração de adultos.
Não há dados a respeito no Brasil, mas nossos indicadores são terríveis. Um estudo realizado este ano pelo Ibope Inteligência com 2 mil pessoas revelou que 29% da população adulta é analfabeta funcional, ou seja, não consegue ler sequer um cartaz ou um bilhete. E o número de analfabetos absolutos, que não conseguem ler nada, cresceu de 4% para 8% nos últimos três anos (no limite da margem de erro da pesquisa, 4%).
No caso brasileiro, a piora pode ser atribuída à queda nos investimentos em educação, que já são baixos (o País gasta US$ 3.800 anuais com cada aluno do ensino básico, menos da metade da média das nações da OCDE) e têm caído nos últimos anos. Mas como explicar a aparente proliferação de burrice mesmo entre quem foi à escola? E a queda do QI nos países desenvolvidos? O primeiro passo é entender a base da questão: o que é, e como se mede, inteligência.
De 0 a 160
O primeiro teste de QI (quociente de inteligência) foi elaborado em 1905 pelos psicólogos franceses Alfred Binet e Théodore Simon, para identificar crianças com algum tipo de deficiência mental. Em 1916, o americano Lewis Terman, da Universidade Stanford, aperfeiçoou o exame, que acabou sendo adaptado e usado pelos EUA, na 1ª Guerra Mundial, para avaliar os soldados.
Mas o questionário tinha vários problemas – a começar pelo fato de que ele havia sido desenvolvido para aferir deficiência mental em crianças, não medir a inteligência de adultos. Inconformado com isso, o psicólogo romeno-americano David Wechsler resolveu começar do zero. E, em 1955, publicou o WAIS: Wechsler Adult Intelligence Scale, exame que se tornou o teste de QI mais aceito entre psicólogos, psiquiatras e demais pesquisadores da cognição humana (só neste ano, foi utilizado ou citado em mais de 900 estudos sobre o tema).
Ele leva em média 1h30, e deve ser aplicado por um psiquiatra ou psicólogo. Consiste numa bateria de perguntas e testes que avaliam 15 tipos de capacidade intelectual, divididos em quatro eixos: compreensão verbal, raciocínio, memória e velocidade de processamento. Isso inclui testes de linguagem (o psicólogo diz, por exemplo: “defina o termo abstrato”, e aí avalia a rapidez e a complexidade da sua resposta), conhecimentos gerais, aritmética, reconhecimento de padrões (você vê uma sequência de símbolos, tem de entender a relação entre eles e indicar o próximo), memorização avançada, visualização espacial – reproduzir formas 3D usando blocos de madeira – e outros exercícios.
O grau de dificuldade do exame é cuidadosamente calibrado para que a média das pessoas marque de 90 a 110 pontos. Esse é o nível que significa inteligência normal, média. Se você fizer mais de 130 pontos, é enquadrado na categoria mais alta, de inteligência “muito superior” (a pontuação máxima é 160).
Mas é preciso encarar esses números em sua devida perspectiva. O teste de QI não diz se uma pessoa vai ter sucesso na vida, nem determina seu valor como indivíduo. Não diz se você é sensato, arguto ou criativo, entre outras dezenas de habilidades intelectuais que um ser humano pode ter. O que ele faz é medir a cognição básica, ou seja, a sua capacidade de executar operações mentais elementares, que formam a base de todas as outras. É um mínimo denominador comum. E, por isso mesmo, pode ajudar a enxergar a evolução (ou involução) da inteligência.
Ao longo do século 20, o QI aumentou consistentemente no mundo todo – foram três pontos a mais por década, em média. É o chamado “efeito Flynn”, em alusão ao psicólogo americano James Flynn, que o identificou e documentou. Não é difícil entender essa evolução. Melhore a saúde, a nutrição e a educação das pessoas, e elas naturalmente se sairão melhor em qualquer teste de inteligência. O QI da população japonesa, por exemplo, chegou a crescer 7,7 pontos por década após a 2ª Guerra Mundial; uma consequência direta da melhora nas condições de vida por lá. Os cientistas se referem ao efeito atual, de queda na inteligência, como “efeito Flynn reverso”. Como explicá-lo?
Involução natural
A primeira hipótese é a mais simples, e a mais polêmica também. “A capacidade cognitiva é fortemente influenciada pela genética. E as pessoas com altos níveis dela vêm tendo menos filhos”, afirma o psicólogo Michael Woodley, da Universidade de Umeå, na Suécia. Há décadas a ciência sabe que boa parte da inteligência (a maioria dos estudos fala em 50%) é hereditária. E levantamentos realizados em mais de cem países, ao longo do século 20, constataram que há uma relação inversa entre QI e taxa de natalidade. Quanto mais inteligente uma pessoa é, menos filhos ela acaba tendo, em média.
Some uma coisa à outra e você concluirá que, com o tempo, isso tende a reduzir a proporção de pessoas altamente inteligentes na sociedade. Trata-se de uma teoria controversa, e com razão. No passado, ela levou à eugenia, uma pseudociência que buscava o aprimoramento da raça humana por meio de reprodução seletiva e esterilização de indivíduos julgados incapazes. Esses horrores ficaram para trás. Hoje ninguém proporia tentar “melhorar” a sociedade obrigando os mais inteligentes a ter mais filhos – ou impedindo as demais pessoas de ter.
Mas isso não significa que a matemática das gerações não possa estar levando a algum tipo de declínio na inteligência básica. Inclusive pela própria evolução da sociedade, que tornou a vida mais fácil. “Um caçador-coletor que não pensasse numa solução para conseguir comida e abrigo provavelmente morreria, assim como seus descendentes”, escreveu o biólogo Gerald Crabtree, da Universidade Stanford, em um artigo recente. “Já um executivo de Wall Street que cometesse um erro similar poderia até receber um bônus.”
Crabtree é um radical. Ele acha que a capacidade cognitiva pura, ou seja, o poder que temos de enfrentar um problema desconhecido e superá-lo, atingiu o ápice há milhares de anos e de lá para cá só caiu – isso teria sido mascarado pela evolução tecnológica, em que as inovações são realizadas por enormes grupos de pessoas, não gênios solitários. Outros pesquisadores, como Michael Woodley, endossam essa tese: dizem que o auge da inteligência individual ocorreu há cerca de cem anos.
Os fatos até parecem confirmar essa tese (Einstein escreveu a Relatividade sozinho; já o iPhone é projetado por milhares de pessoas, sendo 800 engenheiros trabalhando só na câmera), mas ela tem algo de falacioso. A humanidade cria e produz coisas cada vez mais complexas – e é por essa complexidade, não por uma suposta queda de inteligência individual, que as grandes invenções envolvem o trabalho de mais gente. Da mesma forma, as sociedades modernas permitem que cada pessoa abrace uma profissão e se especialize nela, deixando as demais tarefas para outros profissionais, ou a cargo de máquinas.
E não há nada de errado nisso. Mas há quem diga que o salto tecnológico dos últimos 20 anos, que transformou nosso cotidiano, possa ter começado a afetar a inteligência humana. Talvez aí esteja a explicação para o “efeito Flynn reverso” – que começou justamente nesse período, e se manifesta em países desenvolvidos onde o padrão de vida é mais igualitário e estável (sem diferenças ou oscilações que possam mascarar a redução de QI).
“Hoje, crianças de 7 ou 8 anos já crescem com o celular”, diz Mark Bauerlein, professor da Universidade Emory, nos EUA, e autor do livro The Dumbest Generation(“A Geração Mais Burra”, não lançado em português). “É nessa idade que as crianças deveriam consolidar o hábito da leitura, para adquirir vocabulário.” Pode parecer papo de ludita, mas há indícios de que o uso de smartphones e tablets na infância já esteja causando efeitos negativos. Na Inglaterra, por exemplo, 28% das crianças da pré-escola (4 e 5 anos) não sabem se comunicar utilizando frases completas, no nível que seria normal para essa idade. Segundo educadores, isso se deve ao tempo que elas ficam na frente de TVs, tablets e smartphones.
28% das crianças britânicas não sabem falar corretamente
O problema é considerado tão grave que o governo anunciou um plano para reduzir esse índice pela metade até 2028 – e o banimento de smartphones nas escolas é uma das medidas em discussão. O efeito também já é observado em adolescentes. Nos dois principais exames que os americanos fazem para entrar na faculdade, o SAT e o ACT, o desempenho médio vem caindo. Em 2016, a nota na prova de interpretação de texto do SAT foi a mais baixa em 40 anos.
As pessoas nunca leram e escreveram tanto; mas estão lendo e escrevendo coisas curtíssimas, em seus smartphones. Um levantamento feito pela Nokia constatou que os americanos checam o celular em média 150 vezes por dia. Dá uma vez a cada seis minutos, ou seja, é como se fosse um fumante emendando um cigarro no outro. E esse dado é de 2013; hoje, é provável que o uso seja ainda maior. A onda já preocupa até a Apple e o Google, que estão incluíndo medidores de uso nas novas versões do iOS e do Android – para que você possa saber quantas vezes pega o seu smartphone, e quanto tempo gasta com ele, a cada dia.
A mera presença do celular, mesmo desligado, afeta nossa capacidade de raciocinar. Adrian Ward, professor da Universidade do Texas, constatou isso ao avaliar o desempenho de 548 estudantes(3) em três situações: com o celular na mesa, virado para baixo; com o aparelho no bolso ou na bolsa; e com o celular em outra sala. Em todos os casos, o celular ficou desligado. Mas quanto mais perto ele estava da pessoa, pior o desempenho dela. “Você não está pensando no celular. Mas ele consome parte dos recursos cognitivos. É como um dreno cerebral”, conclui Ward.
Cada brasileiro gasta 3h39 min por dia nas redes sociais
Outra hipótese é que o uso intensivo das redes sociais, que são projetadas para consumo rápido (passamos poucos segundos lendo cada post) e consomem boa parte do tempo (cada brasileiro gasta 3h39 min por dia nelas, segundo pesquisa feita pela empresa GlobalWebIndex), esteja corroendo nossa capacidade de prestar atenção às coisas. Você já deve ter sentido isso: parece cada vez mais difícil ler um texto, ou até mesmo ver um vídeo do YouTube, até o final. E quando assistimos a algo mais longo, como um filme ou uma série do Netflix, geralmente nos esquecemos logo. São duas faces da mesma moeda. Levar no bolso a internet, com seu conteúdo infinito, baniu o tédio da vida humana. Mas, justamente por isso, também pode ter nos tornado mais impacientes, menos capazes de manter o foco.
Se prestamos menos atenção às coisas, elas obrigatoriamente têm de ser mais simples. E esse efeito se manifesta nos campos mais distintos, da música aos pronunciamentos políticos. Cientistas do Instituto de Pesquisa em Inteligência Artificial (IIIA), na Espanha, analisaram em computador 460 mil faixas lançadas nos últimos 50 anos, e concluíram(4) que a música está se tornando menos complexa e mais homogênea. Houve uma redução de 60% na quantidade de timbres (com menor variedade de instrumentos e técnicas de gravação), e de 50% na faixa dinâmica (variação de volume entre as partes mais baixas e mais altas de cada música). Tudo soa mais parecido – e mais simples.
Essa simplificação também é visível no discurso político. Um estudo da Universidade Carnegie Mellon, nos EUA, constatou que os políticos americanos falam como crianças(5). A pesquisa analisou o vocabulário e a sintaxe de cinco candidatos à última eleição presidencial (Donald Trump, Hillary Clinton, Ted Cruz, Marco Rubio e Bernie Sanders), e constatou que seus pronunciamentos têm o nível verbal de uma criança de 11 a 13 anos. Os pesquisadores também analisaram os discursos de ex-presidentes americanos, e encontraram um declínio constante. Abraham Lincoln se expressava no mesmo nível de um adolescente de 16 anos. Ronald Reagan, 14. Obama e Clinton, 13. Trump, 11. (O lanterna é George W. Bush, com vocabulário de criança de 10 anos.)
Isso não significa que os músicos sejam incompetentes e os políticos sejam burros. Eles estão sendo pragmáticos, e adaptando suas mensagens ao que seu público consegue entender – e, principalmente, está disposto a ouvir. Inclusive porque esse é outro pilar da burrice moderna: viver dentro de uma bolha que confirma as próprias crenças, e nunca mudar de opinião. Trata-se de um comportamento irracional, claro. Mas, como veremos a seguir, talvez a própria razão não seja assim tão racional.
Os limites da razão
Você certamente já discutiu com uma pessoa irracional, que manteve a própria opinião mesmo diante dos argumentos mais irrefutáveis. É um fenômeno normal, que os psicólogos chamam de “viés de confirmação”: a tendência que a mente humana tem de abraçar informações que apoiam suas crenças, e rejeitar dados que as contradizem.
Isso ficou claro num estudo famoso, e meio macabro, realizado em 1975 na Universidade Stanford. Cada participante recebeu 25 bilhetes suicidas (que as pessoas deixam antes de se matar), e tinha que descobrir quais deles eram verdadeiros e quais eram falsos. Alguns voluntários logo identificavam os bilhetes de mentirinha, forjados pelos cientistas. Outros quase sempre se deixavam enganar. Então os pesquisadores dividiram os participantes em dois grupos: um só com as pessoas que haviam acertado muito, e outro só com os que tinham acertado pouco.
Só que era tudo uma pegadinha. Os cientistas haviam mentido sobre a pontuação de cada pessoa. Eles abriram o jogo sobre isso, e então pediram que cada voluntário avaliasse o próprio desempenho. Aí aconteceu o seguinte. Quem havia sido colocado no “grupo dos bons” continuou achando que tinha ido bem (mesmo nos casos em que, na verdade, havia ido mal); já os do outro grupo se deram notas baixas, fosse qual fosse sua nota real. Conclusão: a primeira opinião que formamos sobre uma coisa é muito difícil de derrubar – mesmo com dados concretos.
Esse instinto de “mula empacada” afeta até os cientistas, como observou o psicólogo Kevin Dunbar, também de Stanford. Ao acompanhar a rotina de um laboratório de microbiologia durante um ano, ele viu que os cientistas iniciam suas pesquisas com uma tese e depois fazem testes para comprová-la, desconsiderando outras hipóteses. “Pelo menos 50% dos dados encontrados em pesquisas são inconsistentes com a tese inicial. Quando isso acontece, os cientistas refazem o experimento mudando detalhes, como a temperatura, esperando que o dado estranho desapareça”, diz Dunbar. Só uma minoria investiga resultados inesperados (justamente o caminho que muitas vezes leva a grandes descobertas). O cérebro luta para manter nossas opiniões – mesmo que isso signifique ignorar os fatos.
Quanto mais comprometido você está com uma teoria, mais tende a ignorar evidências contrárias. “Há informações demais à nossa volta, e os neurônios precisam filtrá-las”, afirma Dunbar. Há até uma região cerebral, o córtex pré-frontal dorsolateral, cuja função é suprimir informações que a mente considere “indesejadas”. Tem mais: nosso cérebro libera uma descarga de dopamina, neurotransmissor ligado à sensação de prazer, quando recebemos informações que confirmam nossas crenças. Somos programados para não mudar de opinião. Mesmo que isso signifique acreditar em coisas que não são verdade.
Nosso cérebro é tão propenso à irracionalidade que há quem acredite que a própria razão como a conhecemos (o ato de pensar fria e objetivamente, para encontrar a verdade e resolver problemas) simplesmente não exista. “A razão tem duas funções: produzir motivos para justificar a si mesmo e gerar argumentos para convencer os demais”, dizem os cientistas cognitivos Hugo Mercier e Dan Sperber, da Universidade Harvard, no livro The Enigma of Reason (“O Enigma da Razão”, não lançado em português). Eles dizem que a razão é relativa, altera-se conforme o contexto, e sua grande utilidade é construir acordos sociais – custe o que custar.
Na pré-história, isso fazia todo o sentido. Nossos ancestrais tinham de criar soluções para problemas básicos de sobrevivência, como predadores e falta de alimento, mas também precisavam lidar com os conflitos inerentes à vida em bando (se eles não se mantivessem juntos, seria difícil sobreviver). Só que o mundo de hoje, em que as pessoas opinam sobre todos os assuntos nas redes sociais, deu um nó nesse instrumento. “Os ambientes modernos distorcem a nossa habilidade de prever desacordos entre indivíduos. É um dos muitos casos em que o ambiente mudou rápido demais para que a seleção natural pudesse acompanhar”, dizem Mercier e Sperber.
Para piorar, a evolução nos pregou outra peça, ainda mais traiçoeira: quase toda pessoa se acha mais inteligente que as outras. Acha que toma as melhores decisões e sabe mais sobre rigorosamente todos os assuntos, de política a nutrição. É o chamado efeito Dunning-Kruger, em alusão aos psicólogos americanos David Dunning e Justin Kruger, autores dos estudos que o comprovaram. Num deles, 88% dos entrevistados disseram dirigir melhor que a média. Em outro, 32% dos engenheiros de uma empresa afirmaram estar no grupo dos 5% mais competentes.
Pesquisas posteriores revelaram que, quanto mais ignorante você é sobre um tema, mais tende a acreditar que o domina. No tempo das savanas, isso podia até ser bom. “A curto prazo, dá mais autoconfiança”, afirma Dunning. Agora aplique essa lógica ao mundo de hoje, e o resultado será o mar de conflitos que tomou conta do dia a dia. A era da cizânia – e da burrice.
Ela pode ser desesperadora. Mas nada indica que seja um caminho sem volta. Nos 300 mil anos da história do Homo sapiens, estamos apenas no mais recente – e brevíssimo – capítulo. Tudo pode mudar; e, como a história ensina, muda. Inclusive porque a inteligência humana ainda não desapareceu.
Ela continua viva e pronta, exatamente no mesmo lugar: dentro das nossas cabeças.
(1) The negative Flynn Effect: A systematic literature review. Edward Dutton e outros, Ulster Institute for Social Research, 2016.
(2) IQ and fertility: A cross-national study. Steven M. Shatz, Hofstra University, 2007.
(3) Brain Drain: The Mere Presence of One’s Own Smartphone Reduces Available Cognitive Capacity. Adrian F. Ward e outros, Universidade do Texas, 2017
(4) Measuring the Evolution of Contemporary Western Popular Music. Joan Serrà e outros, Spanish National Research Council, 2012
(5) A Readability Analysis of Campaign Speeches from the 2016 US Presidential Campaign. Elliot Schumacher e Maxine Eskenazi, Carnegie Mellon University, 2016.
https://super.abril.com.br/especiais/a-era-da-burrice/
| Sem categoria


“Não há possibilidade de deus” diz Stephen Hawking

De sua mesa na Universidade de Cambridge e além, Stephen Hawking enviou sua mente espiralando nas maiores profundezas dos buracos negros, irradiando através do cosmos infinito num grande vórtice através de bilhões de anos para testemunhar a primeira respiração do tempo. Ele viu a criação como um cientista, e quando foi chamado para discutir os grandes enigmas da criação – De onde viemos? Qual o nosso propósito? Estamos sozinhos? – Ele respondeu como um cientista, muitas vezes para o desgosto dos críticos religiosos.

Stephen Hawking's Final Book Says There's 'No Possibility' of God in Our Universe

Em seu livro final “Pequenas Respostas para Grandes Perguntas” o professor Hawking inicia uma série de 10 ensaios intergaláticos ao lidar com a mais antiga – e mais religiosamente carregada – pergunta de todas: Existe um deus?

A resposta de Hawking – garimpada de décadas de entrevistas, ensaios e discursos com o auxílio de sua família, colegas e do Instituto Stephen Hawking – não deveria ser uma surpresa para os leitores que seguiram seu trabalho, digamos, religiosamente.

“Eu penso que o universo foi espontaneamente criado do nada, de acordo com as leis da ciência”, escreveu Hawking, falecido em Março. “Se você aceitar, assim como eu, que as leis da natureza são fixas, então não demora muito para se questionar: Qual o papel que existe para deus?”.

Em vida, Hawking foi um defensor aguerrido da Teoria do Big Bang – a ideia de que o universo começou de uma explosão súbita oriunda de uma singularidade ultradensa menor que um átomo. Deste ponto emergiu toda a matéria, energia e espaço vazio que o universo teria, e todo este material cru evoluiu para o cosmos que nós percebemos hoje ao seguir um conjunto estrito de leis científicas. Para Hawking e muitos cientistas que seguem a mesma filosofia, as leis combinadas da gravitação, relatividade, física quântica e mais algumas outras poderia explicar tudo que já ocorreu e que ocorrerá em nosso universo.

“Se te agrada, você pode dizer que as leis são um trabalho de deus, mas isso é mais uma definição de deus que uma prova de sua existência”, escreveu Hawking.

Com o universo funcionando num piloto automático cientificamente guiado, o único papel para uma toda poderosa deidade poderia ser determinar as condições iniciais do universo, para que as leis tomassem forma – um criador divino que fez o Big Bang explodir, e então deu um passo para trás para observar o próprio trabalho.

“Será que deus criou as leis quânticas que permitiram a ocorrência do Big Bang?” escreveu Hawking. “Eu não tenho o desejo de ofender as pessoas de fé, mas penso que a ciência tenha uma explicação mais convincente que um criador divino”.

As explicações de Hawking começam com mecânica quântica, que explica como as partículas subatômicas se comportam. Em estudos quânticos, é comum ver partículas subatômicas como prótons e elétrons surgirem – aparentemente do nada, passearem um pouco e então desaparecer novamente em uma localização completamente diferente. Como o universo já foi do tamanho de uma partícula subatômica, é plausível que se comportou de maneira similar durante o Big Bang, escreveu Hawking.

“O próprio universo, em sua incompreensível vastidão e complexidade, poderia simplesmente ter surgido subitamente sem violar nenhuma lei conhecida da natureza”.

Isso ainda não explica a possibilidade de deus ter criado uma singularidade do tamanho de um próton, e então ter puxado a alavanca que ligou a mecânica quântica, fazendo com que o universo surgisse. Mas Hawking diz que a ciência também possui uma explicação para isso. Para ilustrar, ele utiliza a física de buracos negros – estrelas colapsadas tão densas que nem mesmo a luz consegue fugir do seu campo gravitacional.

Buracos negros, como o universo antes do Big Bang, condensam numa singularidade. Neste ultradenso ponto de massa, a gravidade é tão forte que distorce o tempo assim como a luz e o espaço. De maneira simples, nas profundezas de um buraco negro o tempo não existe.

Como o universo também começou como uma singularidade, o tempo não poderia ter existido antes do Big Bang. A resposta de Hawking, então, ao quê aconteceu antes do Big Bang é “não existia tempo antes do Big Bang”.

“Finalmente encontramos algo que não possui uma causa, porque não havia tempo para uma causa pudesse existir”, escreveu Hawking. “Para mim isso significa que não existe a possibilidade de um criador, porque não havia tempo para que um criador pudesse existir.”

Este argumento fará pouco para persuadir crentes teístas, mas esta nunca foi a intenção de Hawking. Como um cientista com uma devoção quase religiosa de compreender o cosmos, Hawking procurou “conhecer a mente de deus” ao aprender tudo que pôde sobre a autossuficiência do universo à nossa volta. Enquanto sua visão possa tornar um criador divino e as leis da natureza como coisas incompatíveis, ainda deixa um amplo espaço para fé, esperança, questionamentos e – especialmente – gratidão.

“Nós possuímos esta única vida para apreciar o grande design do universo,” Hawking conclui no primeiro capítulo de seu último livro, “e sou extremamente grato por isto”.

Publicação original

https://www.livescience.com/63854-stephen-hawking-says-no-god.html

Tradução by David R. José.

| Sem categoria