Porque fatos não nos fazem mudar de ideia

Novas descobertas sobre a mente humana mostram as limitações da razão

  • Nossos atuais Mecenas:
  • Selo dorel jpg
  • Vivara130x50 jpg

Antes da tradução de hoje, preciso te contar uma história. Na verdade, é quase um bastidor do PapodeHomem.

Para quem não sabe, assino quinzenalmente aqui no site uma coluna chamada Tecla SAP. A proposta é 'traduzir' conceitos complexos que estão presentes nas nossas vidas, mas não sabemos ou reconhecemos, a partir de termos acadêmicos, formais ou militares, e explicá-los.

Quando comecei, fora o fato de preencher uma lacuna no nosso projeto editorial, eu também via uma chance de fazer a série dar certo ao me conectar com coisas que as pessoas desconhecem mais gostariam de conhecer, além, é claro, de ter muito a ver com o momento que estamos passando. Seis meses depois, fico feliz de perceber que a série é um sucesso, mas fico mais feliz ainda de ter passado a explorar um território tão interessante de, entre outras coisas, vieses inconscientes.

Além de me impor a obrigação de passar a visitar sites, ouvir podcasts, ler artigos e ver filmes que falam sobre isso, me tornei quase um porta-voz desse assunto de modo que cada vez mais pessoas chegam até mim trazendo esse tipo de coisa. Foi assim com a tradução de hoje.

Esse artigo publicado originalmente em inglês, escrito pela vencedora de um Pulitzer, Elizabeth Kolbert, para a revista The New Yorker e traduzido para o português pela Julia Barreto, tem todos esses elementos. Além de apresentar uma série de estudos sobre nosso comportamento social e sobre os motivos que nos levaram a agir assim, ele se conecta amplamente com o momento atual pelo qual passamos.

No final, como não podia deixar de ser, você vai perceber um paralelo com a realidade estado-unidense, e é por isso mesmo que quero propor a vocês um exercício: façamos nós mesmos os paralelos cabíveis com a realidade brasileira (e global) nos comentários? Te vejo lá.

Porque fatos não nos fazem mudar de ideia

A alardeada aptidão humana para a razão talvez tenha mais a ver com vencer discussões do que com pensar direito. Ilustração por Gérard DuBois.

Em 1975, pesquisadores de Stanford convidaram um grupo de universitários para fazer parte de um estudo sobre suicídio. Deram ao grupo pares de cartas de suicídio. Em cada par, uma das cartas havia sido escrita por um indivíduo qualquer, e a outra por alguém que realmente cometeu suicídio. Pediram que os estudantes distinguissem as verdadeiras das falsas.

Alguns participantes descobriram que tinham um talento para a tarefa: dos 25 pares de cartas, identificaram a verdadeira corretamente 24 vezes. Outros descobriram que eram uma negação: identificaram as cartas legítimas apenas 10 vezes.

Como é muitas vezes o caso em estudos psicológicos, toda o esquema era uma farsa. Apesar de metade das cartas realmente serem genuínas — elas foram obtidas no escritório do médico legista do Condado de Los Angeles —, os resultados eram fictícios. Os estudantes a quem foi falado que estavam quase sempre certos foram, na média, tão perspicazes quanto aqueles a quem foi dito que estavam quase sempre errados.

Na segunda parte do estudo, a farsa foi revelada. Foi dito aos estudantes que o verdadeiro objetivo do experimento era conduzir suas respostas para pensarem que estavam certos ou errados. (Isso, como se viu depois, também era uma farsa.) Então pediram aos estudantes para estimar quantas cartas de suicídio eles realmente tinham categorizado de maneira correta, e quantas eles achavam que um estudante médio acertaria. Nessa altura, algo curioso ocorreu.

As pessoas do grupo de “maior acerto” disseram que haviam, de fato, ido razoavelmente bem – significativamente melhor que o estudante médio –, mesmo que, como tinham acabado de ser notificados, não tivessem nenhuma base para acreditar nisso. E, ao contrário, aqueles que foram designados ao grupo de “menor acerto” afirmaram que foram significativamente pior do que o estudante médio – uma conclusão igualmente infundada.

“Uma vez formadas,” os pesquisadores observaram que “impressões são notavelmente perseverantes”.

Alguns anos depois, um novo conjunto de alunos de Stanford foi recrutado para um estudo relacionado. Foram entregues kits de informações sobre um par de bombeiros, Frank K. e George H. A bio de Frank incluía que, entre outras coisas, ele tinha uma bebê e gostava de mergulhar. George tinha um filho pequeno e jogava golfe. Os kits também incluíam as respostas dos homens no que os pesquisadores chamavam de Teste de Escolha Arriscado-Conservador. De acordo com um dos kits, Frank era um bombeiro bem-sucedido que, no teste, quase sempre escolhia a opção mais segura. Na outra versão, Frank também escolhia a opção mais segura, mas era um bombeiro meia-boca que foi advertido por seus supervisores várias vezes. Novamente, os estudantes foram informados na metade do estudo que haviam sido enganados e que as informações que receberam eram todas fictícias. Foi pedido aos estudantes, então, que descrevessem suas próprias opiniões. Que tipo de atitude em relação a riscos eles achavam que um bombeiro bem-sucedido teria? Os estudantes que receberam o primeiro kit acharam que ele iria evitá-los. Os estudantes do segundo grupo acharam que ele iria encará-los.

Mesmo quando existe a evidência de que “suas crenças foram completamente refutadas, as pessoas não conseguem fazer as revisões adequadas dessas convicções,” notaram os pesquisadores. Nesse caso, o fracasso foi “particularmente impressionante”, já que dois pontos de dados nunca seriam informação o suficiente para conseguir generalizar a partir deles.

Os estudos de Stanford ficaram famosos. Vinda de um grupo de acadêmicos dos anos 1970, a polêmica afirmação de que as pessoas não conseguem pensar direito foi chocante. Hoje em dia não é mais. Milhares de estudos subsequentes confirmaram (e elaboraram em cima disso) essa descoberta. Como qualquer pessoa que acompanhou a pesquisa — ou que folheava ocasionalmente uma cópia de Psychology Today — sabe, qualquer pós-graduando com uma prancheta pode demonstrar que pessoas aparentemente sensatas são, com frequência, completamente irracionais. Poucas vezes esse insight pareceu mais relevante do que nos parece nos dias de hoje. No entanto, ainda falta uma peça importante no quebra-cabeça: Como nos tornamos assim?

Em seu novo livro, O enigma da razão (Harvard), os cientistas cognitivos Hugo Mercier e Dan Sperber tentam responder essa pergunta. Mercier, que trabalha num instituto de pesquisa francês em Lyon, e Sperber, hoje na Universidade da Europa Central, em Budapeste, apontam que a razão é um traço evolutivo, como o bipedismo ou o tricromatismo. Ele surgiu nas savanas da África e precisa ser compreendido nesse contexto.

Cortando bastante do que poderia ser considerado tecnicalidades da ciência cognitiva, o argumento de Mercier e Spencer se desenvolve mais ou menos desta maneira: a maior vantagem humana sobre outras espécies é sua habilidade de cooperar. Cooperação é algo difícil de se estabelecer e ainda mais difícil de se manter. Para qualquer indivíduo, a exploração de um outro indivíduo é o melhor curso de ação. A razão não se desenvolveu para nos permitir resolver problemas abstratos e lógicos ou para nos ajudar a tirar conclusões de dados estranhos, mas sim para resolvermos os problemas decorrentes de se viver em grupos colaborativos.

“Razão é uma adaptação que os humanos em nichos hipersociais desenvolveram para si”, Mercier e Sperber escrevem. Hábitos da mente que parecem estranhos ou atrapalhados ou simplesmente burros do ponto de vista “intelectualista” se mostram sagazes quando vistos de uma perspectiva “interacionista”.

Considere o que ficou conhecido como “viés de confirmação”: a tendência que as pessoas têm de acolher informações que suportam suas crenças e rejeitar informações que as contradizem. Das várias formas identificadas que o pensamento falho assume, o viés de confirmação é uma das melhores catalogadas; é o assunto principal de uma quantidade de experimentos dignas de um compêndio.

Um dos experimentos mais famosos a respeito foi feito, novamente, em Stanford. Pesquisadores reuniram um grupo de estudantes que tinham opiniões divergentes sobre a pena de morte. Metade dos alunos era a favor e acreditava que ela desencorajava crimes e a outra metade era contra e achava que a punição não tinha nenhum efeito na criminalidade.

Foi pedido que eles avaliassem dois estudos. Um fornecia dados que sustentavam o desencorajamento de crimes e o outro fornecia dados que questionavam isso. Ambos os estudos — você adivinhou — eram inventados, e foram projetados para apresentar estatísticas que eram igualmente persuasivas, objetivamente falando. Os estudantes que de início apoiavam a pena de morte avaliaram os dados pró-pena como altamente críveis e os anti-pena como duvidosos; os alunos que originalmente se opunham a pena de morte fizeram o contrário. No final do experimento, foi perguntado novamente aos estudantes sobre suas opiniões. Aqueles que começaram apoiando a pena capital estavam ainda mais a favor e aqueles que se opunham a ela estavam ainda mais contrários.

Se a razão é projetada para gerar julgamentos sólidos, então é difícil conceber um erro de projeto mais sério que o viés de confirmação. Imagine, Mercier e Sperber sugerem, um rato que pensa da mesma maneira que nós. Tal rato, “inclinado a confirmar sua crença de que não há gatos por perto”, se tornaria jantar rapidamente. Se chega-se ao ponto de que o viés de confirmação leva as pessoas a descartar evidências de ameaças novas ou subestimadas — o equivalente humano para o gato por perto —, essa é uma característica que deveria ter se extinguido na seleção natural. O fato de que tanto nós quanto essa característica sobreviveram,  dizem os cientistas, prova que ela deve ter alguma função adaptativa e que essa função está relacionada a nossa “hipersociabilidade”.

"Eu gostaria de uma segunda opinião."

Ambos os pesquisadores preferem o termo “viés do meu lado”. Segundo eles, os humanos não são crédulos aleatoriamente. Apresentados ao argumento de outra pessoa, nós somos bastante capazes de apontar suas fraquezas. Quase invariavelmente, somos cegos em relação a nossas opiniões.

Um experimento recente realizado por Mercier e alguns colegas europeus mostrou claramente essa assimetria. Foi pedido aos participantes que respondessem uma série de problemas simples de raciocínio. Depois foi pedido que eles explicassem suas respostas, e foi dada a possibilidade de modificá-las se as pessoas identificassem erros. A maioria ficou satisfeito com suas escolhas originais; e menos de 15% mudou de ideia na etapa dois.

Na etapa três, foi mostrado aos participantes um dos problemas, junto com suas respostas e com as respostas de outro participante, que havia chegado a outra conclusão. Novamente, foi dada aos participantes a chance de alterar sua resposta. Mas havia uma pegadinha: as respostas apresentadas como de outra pessoa na verdade eram as deles mesmos, e vice-versa. Cerca de metade dos participantes perceberam o que estava acontecendo. Mas na outra metade, as pessoas de repente se tornaram muito mais críticas. Quase 60% agora rejeitava as respostas que antes pareciam perfeitamente satisfatórias.

Essa assimetria, de acordo com Mercier e Sperber, reflete a tarefa que a razão evoluiu para realizar, que é nos prevenir de ser ferrado por outro membro de nosso grupo. Vivendo em pequenos bandos de caçadores, nossos ancestrais se preocupavam principalmente com sua posição social e com a certeza de que eles não seriam os únicos arriscando suas vidas nas caçadas enquanto outros vadiavam na caverna. Havia pouca vantagem em racionalizar claramente, e muito mais em ganhar discussões.

Entre as muitas e muitas questões que nossos antepassados não precisavam se preocupar estavam os efeitos da pena de morte ou os atributos ideais de um bombeiro. Eles também não precisavam lidar com estudos falsos, ou notícias falsas, ou Twitter. Não é de se admirar, portanto, que a racionalidade de hoje parece falhar conosco. Como Mercier e Sperber escreveram, “Esse é um dos vários casos em que o ambiente mudou rápido demais para a seleção natural conseguir acompanhar.”

“Obrigada de novo por vir. Normalmente acho essas festas de escritório muito desconfortáveis.”

Steven Sloman, professor na Brown, e Philip Fernbach, professor na Universidade do Colorado, também são cientistas cognitivos. Eles também acreditam que a sociabilidade é a chave para explicar como a mente humana funciona ou, talvez ainda mais pertinentemente, não funciona. Eles começaram seu livro, A ilusão do saber: porque nunca pensamos sozinhos (Riverhead), dando uma olhada em privadas.

Praticamente todo mundo nos Estados Unidos, e pelo mundo desenvolvido, está familiarizado com privadas. Uma privada típica tem uma bacia de cerâmica cheia de água. Quando a alavanca é pressionada, ou o botão empurrado, a água — e tudo que foi depositado nela — é sugada para um cano e depois para um sistema de esgoto. Mas como isso acontece de verdade?

Num estudo conduzido em Yale, foi pedido a pós-graduandos que avaliassem seu entendimento de dispositivos do dia a dia, incluindo privadas, zíperes e cilindros de fechaduras. Foi pedido que eles escrevessem explicações detalhadas, passo a passo, de como esses dispositivos funcionavam e que depois classificassem seus conhecimentos novamente. Aparentemente, o esforço revelou aos estudantes a própria ignorância, porque suas autoavaliações pioraram. (Privadas, como se descobriu, são mais complicadas do que parecem.)

Sloman e Fernbach veem esse efeito, que eles chamam de “ilusão da profundidade explicativa”, em quase todo lugar. As pessoas acreditam que sabem mais do que realmente sabem. O que nos permite manter essa crenças são as outras pessoas. No caso da minha privada, outra pessoa a projetou para que eu pudesse operá-la facilmente. Isso é algo em que os humanos são muito bons. Dependemos da experiência dos outros desde que descobrimos como caçar juntos, o que provavelmente foi a chave do nosso desenvolvimento na história evolutiva. Colaboramos tão bem que mal conseguimos notar onde nosso entendimento acaba e o de outra pessoa começa, conta a dupla.

“Uma implicação da naturalidade com que dividimos trabalho cognitivo é que não há nenhum limite claro entre as ideias e o conhecimento de uma pessoa e o de outros membros do grupo.”

Essa falta de fronteiras, ou, se você preferir, confusão, também é crucial para o que consideramos como progresso. À medida em que as pessoas inventavam ferramentas para novas maneiras de se viver, elas criaram simultaneamente novos âmbitos de ignorância; se todo mundo insistisse em, digamos, dominar os princípios de se trabalhar com metal antes de pegar uma faca, a Era do Bronze não teria valido muita coisa. Quando se trata de novas tecnologias, entendimento incompleto é empoderador.

Porém, o que nos causa problemas, de acordo com eles, é o domínio político. Uma coisa é eu apertar a descarga sem saber como uma privada opera, e outra coisa é favorecer (ou me opor) uma medida anti-imigração sem saber do que estou falando. Eles citam uma pesquisa conduzida em 2014, não muito depois da Rússia ter anexado o território ucraniano da Crimeia onde foi perguntado aos entrevistados como eles achavam que os EUA deveriam reagir, e se eles conseguiam identificar a Ucrânia no mapa. Quanto menos a pessoa sabia sobre a geografia, maiores eram as chances de ela ser a favor da intervenção militar. (Os entrevistados estavam tão incertos da localização da Ucrânia que o chute médio errava por três mil quilômetros, quase a distância entre Kiev e Madrid.)

Pesquisas sobre muitas outras questões levantaram resultados tão desanimadores quantos. “Como regra, sentimentos intensos sobre algo não surgem de entendimentos profundos”, escrevem. E aqui nossa dependência de outras mentes reforça o problema. Se sua posição sobre, digamos, o Obamacare é infundada e eu confio nela, então minha opinião também é infundada. Quando eu falo com Tom e ele decide concordar comigo, a opinião dele também é infundada, mas, agora que nós três concordamos, nos sentimos muito mais confiantes sobre nosso ponto de vista. Se agora dispensássemos qualquer informação que contradiz nossa opinião, você tem, bem, o Governo Trump.

“É assim que uma comunidade de saber pode se tornar perigosa”, observam. Os dois executaram sua própria versão do experimento da privada, substituindo dispositivos diários por políticas públicas. Num estudo conduzido em 2012, eles perguntaram para pessoas suas posições em relação a questões como: Deveria haver um único pagante do sistema de saúde? Ou salário meritocráticos para professores? Foi pedido aos participantes que avaliassem suas posições de acordo com o quão fortemente elas concordam ou discordam com as propostas. Depois, foram instruídos a explicar, com o máximo de detalhes possível, o impacto de implementar essas propostas. A maioria dos participantes se enrolaram nessa parte. Novamente eles avaliaram suas opiniões, mas diminuíram sua intensidade, então eles concordavam ou discordavam menos veementemente.

Para a tecnologia é ótimo que cada um domine e se aperfeiçoe apenas numa coisa, para a sociedade, nem tanto.

Os cientistas veem esse resultado como uma luz no fim do túnel nesse mundo sombrio. Se nós – ou nossos amigos ou os gurus na CNN – passarmos menos tempo palestrando e mais tempo tentando entender as implicações das propostas políticas, perceberíamos o quão ignorantes somos e moderaríamos nossas opiniões. Isso, eles escrevem, “talvez seja a única forma de pensamento que irá estilhaçar a ilusão da profundidade explicativa e mudar a atitude das pessoas”.

Uma maneira de olhar para ciência é como um sistema que corrige as inclinações naturais das pessoas. Num laboratório bem administrado, não há espaço para viés do meu lado; os resultados precisam ser reproduzíveis em outros laboratórios, por pesquisadores que não tem nenhuma razão para confirmá-las. E isso, pode ser argumentado, é o que torna o sistema tão bem-sucedido. Num momento ou outro o campo pode estar repleto de picuinhas, mas, no final, a metodologia prevalece. A ciência avança, mesmo quando nos permanecemos presos no mesmo lugar.

Em Negando até a morte: porque ignoramos os fatos que irão nos salvar (Oxford), Jack Gorman, um psiquiatra, e sua filha, Sara Gorman, uma especialista em saúde pública, investigam o buraco entre o que a ciência nos diz e o que nós dizemos a nós mesmos. A preocupação deles é com crenças persistentes que não só são comprovadamente falsas mas também potencialmente fatais, como a convicção de que vacinas são prejudiciais. É claro, o que é prejudicial é não ser vacinado; por isso que as vacinas foram criadas, em primeiro lugar. “Imunização é um dos triunfos da medicina moderna”, os Gormans apontam. Mas não importa quantos estudos científicos concluam que vacinas são seguras, e que não há nenhuma relação entre vacina e autismo, os anti-vacinação permanecem convictos (Eles agora têm do seu lado – de certa maneira – Donald Trump, que disse que, apesar de seu filho Barron ter sido vacinado, ele o foi depois do período recomendado por pediatras).

Os Gorman também defendem que maneiras de se pensar que hoje parecem autodestrutivas deveriam ser adaptativas em algum momento. Também dedicam muitas páginas ao viés de confirmação, que, eles clamam, tem um componente fisiológico. Citam pesquisas que sugerem que as pessoas experimentam prazer genuíno – uma dose de dopamina – ao processar informações que suportam suas crenças. “Nos sentimos bem ao ‘nos mantermos firmes em nossas convicções’ mesmo quando estamos errados”, eles observam.

Os Gorman não querem só catalogar as maneiras com que estamos errados; eles querem corrigi-las. Deve haver alguma maneira, eles defendem, de convencer as pessoas de que vacinas são boas para as crianças, e de que revólveres são perigosos. (Outra crença difundida mas estatisticamente equivocada que eles gostam de questionar é que ter uma arma te deixa mais seguro.) Mas aqui eles encontram exatamente os mesmos problemas que eles ajudaram a identificar. Fornecer às pessoas informações confiáveis não parece ajudar; eles simplesmente a descartam. Apelar para suas emoções talvez funcione melhor, mas fazer isso é obviamente antiético para o objetivo de promover dados científicos sólidos. “O desafio que permanece”, eles escrevem mais para o final do livro, “é descobrir como abordar tendências que levam a proposições cientificamente falsas”.

“O enigma da razão”, “A ilusão do saber” e “Negando a gravidade” foram todos escritos antes da eleição de novembro. E mesmo assim eles anteciparam Kellyanne Conway e a ascensão dos “fatos alternativos”. Esses dias parece que o país todo foi dominado por um vasto experimento psicológico conduzido ou por ninguém ou por Steven Bannon. Agentes racionais seriam capazes de pensar numa solução. Mas, nesse assunto, a literatura não nos é reconfortante.


publicado em 15 de Março de 2017, 00:10
Breno franca jpg

Breno França

Editor do PapodeHomem, é formado em jornalismo pela ECA-USP onde administrou a Jornalismo Júnior, organizou campeonatos da ECAtlética e presidiu o JUCA. Siga ele no Facebook e comente Brenão.


Puxe uma cadeira e comente, a casa é sua. Cultivamos diálogos não-violentos, significativos e bem humorados há mais de dez anos. Para saber como fazemos, leianossa política de comentários.

Nossos atuais Mecenas: