Por Peter Dockrill
Não há escassez de avisos por parte da comunidade científica de que a ciência, tal como a conhecemos, está a ser drasticamente afectada pelas pressões comerciais e pelas pressões institucionais que são exercidas sobre os pesquisadores nas revistas científicas mais importantes. Agora uma nova simulação revelou que a deterioração está de facto a acontecer.
Para chamar atenção para a forma como bons cientistas são pressionados para publicar má ciência (leia-se “resultados surpreendentes e sensacionais”), pesquisadores dos Estados Unidos desenvolveram um modelo informático para simular o que acontece quando os cientistas competem por prestígio e por empregos.
Neste modelo, desenvolvido por pesquisadores da “University of California, Merced”, todos os grupos de laboratório que eles colocaram neste cenário eram honestos – eles não mentiram e nem falsificaram intencionalmente os resultados. Mas eles receberiam mais recompensas se publicassem dados “novos” – tal como acontece no mundo real. Eles tinham também que levar a cabo mais esforços como forma de serem rigorosos nos seus métodos – algo que iria aumentar a qualidade das suas pesquisas mas diminuir a sua produção académica.
O pesquisador principal Paul Smaldino explicou ao The Conversation:
Resultado: Com o passar do tempo, os esforços diminuíram até ao seu valor mínimo, e a taxa de falsas descobertas aumentou.
Mais ainda, o modelo sugere que os “maus” cientistas (se se pode usar este termo) que tomam a via mais fácil em relação aos incentivos que estão à disposição acabam por transmitir os seus métodos à geração seguinte de cientistas que também trabalham nos seus laboratórios, gerando, para todos os efeitos, um enigma evolutivo que recebeu, por parte dos pesquisadores, o nome de “a selecção natural de má ciência”.
Smaldino disse o seguinte a Hannah Devlin do “The Guardian”:
Enquanto existirem incentivos para resultados inovadores e surpreendentes, algo que se passa mais em algumas revistas de alto relevo do que noutras, aspectos mais nuancizados da ciência, e prácticas de má-qualidade que maximizam a habilidade individual de gerar tais resultados, irão existir de forma desenfreada.
Não é a primeira vez que ouvimos alegações desta natureza – embora seja bem provável que nenhum pesquisador tenha de facto calculado as coisas através duma simulação computacional. A ciência encontra-se numa espécie de cruzamento, e os pesquisadores estão a salientar o que eles chamam de “crise de reprodutibilidade”.
Isto ocorre, de modo efectivo, devido à publicação de “falsas descobertas” – resultados científicos difíceis de reproduzir e que são algo como ruído dentro dos dados cientificos, mas que são escolhidos para publicação por parte dos cientistas das revistas científicas porque são novos, sensacionais e de alguma forma surpreendentes.
Este tipo de resultados cativa o nosso interesse humano devido à sua componente inovadora e chocante – mas eles arriscam-se a prejudicar a credibilidade da ciência, especialmente se os cientistas se sentem pressionados para embelezar os seus artigos de modo a que possam gerar este tipo de impressões.
Mas isto é um círculo vicioso visto que tais pesquisas espantosas geram imensa atenção e ajudam os pesquisadores a verem os seus artigos publicados, o que, por sua vez, os ajuda a obter financiamento da instituições para poderem continuar com as suas pesquisas. Smaldino escreve:
A evolução cultural da ciência de má qualidade em resposta aos incentivos para a publicação não requer uma estratégia, uma mentira ou esquemas conscientes por parte dos pesquisadores individuais. Sempre irão existir pesquisadores dedicados que usam métodos rigorosos e que se encontram vinculados à integridade científica. Mas enquanto os incentivos institucionais recompensarem os resultados novos e positivos, em detrimento do rigor, a taxa de má ciência irá, em média, aumentar.
E o problema é aumentado ainda mais com as medidas quantitativas criadas para avaliar a importância dos pesquisadores e dos seus artigos visto que este tipo de aferições, tal como o controverso valor-p, podem ser enganadores, gerando um rol de falsas impressões que, de forma geral, prejudicam a ciência.
Vince Walsh, da “University College London” no Reino Unido, e que não fez parte do estudo, afirma:
Concordo que a pressão para publicar seja corrosiva e anti-intelectual. Os cientistas são humanos, e se as organizações são suficientemente burras para os avaliar com base nas dados de venda, eles irão fazer descontos como forma de atingir os objectivos, tal como acontece com qualquer outra pessoa envolvida nas vendas.
Dito isto, qual é a solução? Bem, não será fácil, mas Smaldino afirma que, ao nível institucional, temos que nos afastar da mentalidade de aferir os cientistas quantitativamente.
No seu artigo, os pesquisadores escrevem:
Infelizmente, os custos a longo-prazo do uso métrica quantitativa simples para aferir o mérito do pesquisador são enormes. Se formos sérios nos esforços de garantir que a nossa ciência é, ao mesmo tempo, significativa e duplicável, temos que garantir que as nossas instituições incentivem este tipo de ciência.
Enquanto isso, estudos tais como este, que incidem uma luz crítica à ciência – estudos esses que são francamente “novos” e geradores de atenção em si mesmos – podem ajudar a manter as pessoas cientes do quão sério este assunto realmente é. Smaldino afirma:
Quanto mais pessoas cientes dos problemas que existem dentro da ciência, e pessoas dispostas a melhorar as instituições, existirem, mais cedo e mais facilmente ocorrerá a mudança institucional.
* * * * * *
Enquanto que os cientificamente ignorantes atribuem à ciência uma aura de infalibilidade inexistente, as pessoas que se encontra dentro do mundo da ciência afirmam que este mundo, tal como toda a área sob influência humana, está corrompida. Lembrem-se disto sempre que alguém disser que a publicação de um artigo é sinal de rigor científico. ou que a não publicação e sinal de falta do mesmo.
Pressões externas para interesses espúrios sempre existiram e sempre existirão em qualquer área do conhecimento humano. Exemplo disso são as maravilhas dos organismos transgênicos propagandeadas pelas empresas , principalmente vegetais. Na verdade essas empresas estão interessadas apenas em desenvolver organismos resistentes aos venenos que elas próprias produzem e estão pouco se lixando com a saúde de quem vai esses vegetais. Preocupam-se apenas com a sua saúde financeira.
Mas independente disso, a ciência é autocorretiva, e cedo ou tarde a verdade prevalecerá. Cientistas de renome já foram muito bem pagos para negligenciarem os efeitos do chumbo na saúde das pessoas para que o chumbo tetraetila continuasse sendo adicionado à gasolina. A verdade prevaleceu e hoje isso já foi abolido em todo o mundo.
LikeLike
Inclusive dentro da ciência, o que a torna tão falível como qualquer outra área humana.
Qualquer área humana é “auto-correctiva”, bastando haver vontade de se auto-corrigir.
De que forma é que isso invalida o facto do mundo da ciência ser tão falível como todas as áreas que dependam da moral e inteligência humana?
LikeLike
“Enquanto existirem incentivos para resultados inovadores e surpreendentes, algo que se passa mais em algumas revistas de alto relevo do que noutras, aspectos mais nuancizados da ciência, e prácticas de má-qualidade que maximizam a habilidade individual de gerar tais resultados, irão existir de forma desenfreada.”
Este é REALMENTE um assunto importante, que é fundamental debater, não só pelos cientistas, mas principalmente pela Sociedade (pela importância que a ciência e a tecnologia têm hoje em dia).
O problema é a “explosão” do número de cientistas que tem ocorrido em todo o mundo desde o século passado, associada à real diminuição do financiamento da investigação científica. Ou seja, existem cada vez mais cientistas a competir por um cada vez menor financiamento do seu trabalho.
Esta relação “número de cientistas” vs.”financiamento” criou um sério dilema na criação de critérios para a escolha dos cientistas “merecedores de financiamento”. No início do século XX a comunidade científica era pequena o suficiente para quase todos os físicos se conhecerem pessoalmente (em 1927 a Conferência Solvey, a mais importante em física da sua época, teve a presença de perto de 30 físicos!). Qualquer jovem cientista dessa época podia tentar a sua sorte (de financiamento) recorrendo a apenas uma ou mais cartas de recomendação, e ter trabalhado com um cientista famoso era muitas vezes suficiente para conseguir trabalho.
Hoje em dia, para uma mesma “subárea” científica” (como química orgânica, microbiologia ou astrofísica, etc) existem inúmeros grupos de investigação (ás vezes mais do que um numa mesma instituição) espalhados por todo o mundo. Qualquer congresso digno desse nome tem várias dezenas (quando não centenas) de cientistas inscritos. Ou seja: cartas de recomendação já não são suficientes hoje em dia para se conseguir financiamento.
Mais ainda, existem tantos cientistas a concorrer ao mesmo financiamento que seria impossível rever cuidadosamente cada uma das candidaturas por falta de tempo (é, por exemplo, impraticável fazer entrevistas pessoais a todos os cientistas candidatos). A alternativa é a quantificação do trabalho realizado pelo cientista candidato: quantos artigos escreveu, em que revistas foram esses artigos publicados, em quantos artigos foi “primeiro autor”, quantas vezes foram esses artigos citados, etc.
Foi esta aposta numa “avaliação quantitativa” para determinar se um cientista “merece” ou não novo financiamento que criou o problema referido no texto postado. Os cientistas têm grande consciência disso e das consequências danosas que dai advêm. Por exemplo existem áreas científicas com falta de cientistas exactamente porque são áreas pouco financiadas e os cientistas, humanos que são, precisam de comer.
O autor do texto postado indica outro consequência importante: Esta “avaliação quantitativa” é um “incentivo para resultados inovadores e surpreendentes” e leva à focalização em “aspectos mais nuancizados da ciência”. Os grupos de investigação têm tendência a escolher estudar “pormenores” que permitam escrever artigos com maior probabilidade de serem escolhidos pelas “revistas de alto relevo”.
Como eu disse, a comunidade científica tem “consciência” dos danos criados pela “avaliação quantitativa”. Os estudos feitos sobre este problema (são já vários e não apenas o que é referido no texto postado) só vêm comprovar que ele existe e que tem de ser “enfrentado”. E o próprio texto postado cita cientistas a identificar o problema e a propor soluções.
Porque falta agora saber como resolver este problema.
Como lidar com os problemas criados pela “avaliação quantitativa” para financiamento? Seria aqui importante a participação da Sociedade como um todo. Afinal, independentemente das razões que levam um cientista a “ser cientista”, a Sociedade é a maior beneficiária do que a Ciência faz.
Infelizmente, em vez de aproveitar o texto postado como um ponto de partida para este debate tão importante, o Mats usa-o para concluir “uma verdade de La Palice”. Sim, é verdade que o”mundo da ciência [é] tão falível como todas as áreas que dependam da moral e inteligência humana”. É verdade porque a ciência é “construída” por humanos!
E depois? E então?
Que conclusão é suposto tirar desta “evidência tão grande, que se torna ridícula”? (https://ciberduvidas.iscte-iul.pt/consultorio/perguntas/la-palice-ou-la-palisse/4990)
Responde o Mats: “Lembrem-se disto sempre que alguém disser que a publicação de um artigo é sinal de rigor científico. ou que a não publicação e sinal de falta do mesmo.”
Ou seja, o Mats usa uma das consequências da “avaliação quantitativa” do financiamento em Ciência como justificação para não darmos importância ao facto de que alguns cientistas (criacionistas, talvez?) não consigam publicar em “revistas de alto relevo”.
Na verdade não é propriamente porque “o mundo da ciência […] tal como toda a área sob influência humana, está corrompid[o]” que cientistas como os que integram a lista “A Scientific Dissent From Darwinism” não conseguem publicar em “revistas de alto relevo”. É mais porque, em geral, a argumentação usada por estes cientistas tem falhas suficientemente “visíveis” que até eu, uma não-cientista, as consegue detectar. Ora as “revistas de alto relevo” têm um “crivo”, chamado “avaliação pelos pares”: qualquer artigo proposto para publicação é analisado e verificado por especialistas (em geral é mais que UM) para detecção de falhas. Se até eu consigo “ver” as falhas, o que dizer de um profissional especialista na área?
LikeLike