Butera e List propuseram uma abordagem diferente para tentar contornar a crise de replicabilidade existente em ciências sociais. Muitas pesquisas que são divulgadas não são replicadas, o que impede de verificar se o método estava correto, se a amostra não era enviesada, se os pesquisadores não cometeram erros ou manipularam os resultados ou fizeram realmente a pesquisa, entre outros problemas. O assunto tem sido discutido extensamente e para que se interessar tem um site que apresenta algumas considerações interessantes: Replication Index. Outro endereço interessante, que aponta pesquisas que tiveram que se retratar é este aqui.
Os autores citados fizeram uma pesquisa e descobriram que aumentando a incerteza tem-se um aumento na cooperação entre as pessoas. Uma conclusão interessante. Mas em lugar de encaminhar o artigo para um periódico, com revisão por pares, Butera e List colocaram os dados online e fizeram uma promessa de não submeter para publicação. Em lugar disto, ofereceram co-autoria para algum interessado que replicasse o estudo. Neste segundo artigo, aí sim, seria submetido a um periódico.
Vide: Butera, L., & List, J. A. (2017). An economic approach to alleviate the crises of confidence in science: With an application to the public goods game (No. w23335). National Bureau of Economic Research.
Mostrando postagens com marcador replicação. Mostrar todas as postagens
Mostrando postagens com marcador replicação. Mostrar todas as postagens
22 março 2018
02 fevereiro 2018
Reprodutibilidade e Replicabilidade
Há uma diferença sutil entre reprodutibilidade e replicabilidade na ciência, segundo Leek:
Reprodutibilidade = tomar os dados de uma publicação anterior, reve-los e obter os mesmos resultados.
Replicabilidade = executar um experimento e obter resultados "consistentes" com o estudo original usando novos dados.
Eis um exemplo. Uma pesquisa testou a relação entre tamanho do ativo e margem líquida para as empresas abertas no ano de 2014. A reprodutibilidade significa pegar as mesmas empresas, os mesmos valores e recalcular os testes estatísticos. Já a replicabilidade é usar as técnicas do texto original e verificar se o mesmo se aplica aos resultados de 2017.
Segundo Leek, os resultados que não são reprodutíveis são difíceis de verificar e os resultados que não se replicam em novos estudos são mais difíceis de confiar. Mas uma boa ciência se faz com ambos. Para isto, o pesquisador deve guardar os resultados e disponibilizar quando necessário.
Um estudo de alguns anos atrás mostra a importância disto. Dois pesquisadores econômicos conhecidos cometeram um erro ao calcular a média em uma planilha Excel. A fórmula usada não contemplava todos os países. o estudo apontava uma média na taxa de crescimento de diversos países de -0,1% e o valor correto era de 2,2%. O erro só foi descoberto graças a reprodutibilidade.
Os problemas com a reprodutibilidade e a reprodutividade ocorrem, segundo Leek, por falta de treinamento em estatística e computação por parte dos cientistas, aos incentivos financeiros para publicar resultados desejáveis, os incentivos dos periódicos para publicar resultados inovadores, as limitações estatísticas dos estudos (tamanho da amostra, por exemplo), a não consideração de alternativas nas explicações para os resultados, entre outros aspectos. Como parecerista de artigos em periódicos tenho notado um descuido com ambas as questões; muitos textos preferem falar da classificação da pesquisa, do que esclarecer como a pesquisa foi feita.
Há um outro aspecto: o desprezo com a ética por parte de alguns pesquisadores. Tenho notado isso ao longo da vida acadêmica e isto inclui desde usar o “CRTL C CRTL V” até a tentativa de torturar os dados. Quem não segue este padrão é taxado de “preciosista” pelos colegas.
Reprodutibilidade = tomar os dados de uma publicação anterior, reve-los e obter os mesmos resultados.
Replicabilidade = executar um experimento e obter resultados "consistentes" com o estudo original usando novos dados.
Eis um exemplo. Uma pesquisa testou a relação entre tamanho do ativo e margem líquida para as empresas abertas no ano de 2014. A reprodutibilidade significa pegar as mesmas empresas, os mesmos valores e recalcular os testes estatísticos. Já a replicabilidade é usar as técnicas do texto original e verificar se o mesmo se aplica aos resultados de 2017.
Segundo Leek, os resultados que não são reprodutíveis são difíceis de verificar e os resultados que não se replicam em novos estudos são mais difíceis de confiar. Mas uma boa ciência se faz com ambos. Para isto, o pesquisador deve guardar os resultados e disponibilizar quando necessário.
Um estudo de alguns anos atrás mostra a importância disto. Dois pesquisadores econômicos conhecidos cometeram um erro ao calcular a média em uma planilha Excel. A fórmula usada não contemplava todos os países. o estudo apontava uma média na taxa de crescimento de diversos países de -0,1% e o valor correto era de 2,2%. O erro só foi descoberto graças a reprodutibilidade.
Os problemas com a reprodutibilidade e a reprodutividade ocorrem, segundo Leek, por falta de treinamento em estatística e computação por parte dos cientistas, aos incentivos financeiros para publicar resultados desejáveis, os incentivos dos periódicos para publicar resultados inovadores, as limitações estatísticas dos estudos (tamanho da amostra, por exemplo), a não consideração de alternativas nas explicações para os resultados, entre outros aspectos. Como parecerista de artigos em periódicos tenho notado um descuido com ambas as questões; muitos textos preferem falar da classificação da pesquisa, do que esclarecer como a pesquisa foi feita.
Há um outro aspecto: o desprezo com a ética por parte de alguns pesquisadores. Tenho notado isso ao longo da vida acadêmica e isto inclui desde usar o “CRTL C CRTL V” até a tentativa de torturar os dados. Quem não segue este padrão é taxado de “preciosista” pelos colegas.
Assinar:
Postagens (Atom)