Em formação

Publicações apressadas com base em dados falhos

Publicações apressadas com base em dados falhos



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Em 2014, o BICEP2 fez um comunicado à imprensa muito polêmico. Foi apressado, dado antes que qualquer artigo fosse publicado, porque eles temiam que seriam descobertos por outro experimento semelhante. No final, descobriu-se que a análise de seus dados era falha. Foi particularmente dramático porque, se eles estivessem corretos, teria sido um desenvolvimento significativo.

Existem casos semelhantes em biologia? Não é necessário uma situação idêntica, mas um resultado de alto nível que foi lançado às pressas que mais tarde se revelou incorreto.


Como as revistas médicas e a OMS foram descobertas sobre a hidroxicloroquina?

Alguns artigos científicos param o mundo em seu caminho. No meio de uma pandemia violenta, um estudo publicado no principal jornal de saúde global que parecia provar que o presidente Trump estava errado ao elogiar o medicamento hidroxicloroquina para Covid-19 sempre teria um impacto enorme. Sim, sim. Quando o jornal sinalizou um risco maior de morte com a droga, os testes foram interrompidos em todo o mundo, incluindo um pela Organização Mundial de Saúde.

Agora está em perigo de se desfazer.

Os dados de mais de 96.000 pacientes de 671 hospitais em todo o mundo estão sob o microscópio. Os erros já foram confirmados. Uma investigação do Guardian revelou problemas importantes com a pequena empresa norte-americana Surgisphere, dona do banco de dados. Duas revistas importantes - a Lancet, que publicou o artigo sobre a hidroxicloroquina, e o New England Journal of Medicine, que publicou um artigo anterior dos mesmos autores com dados da Surgisphere que absolvem medicamentos para pressão arterial de qualquer efeito adverso na Covid-19 - publicaram um Expressão de preocupação. Essa é uma declaração formal de que algo não está certo, mas que falta uma retratação. Dependendo do que a auditoria diz, uma retratação pode seguir.

Esse é um território difícil para os periódicos, que sem dúvida serão criticados se descobrirem que o material publicado apresenta falhas graves.

Mas é fácil ver por que eles considerariam este um artigo importante para publicar. No meio de uma pandemia, com respostas para tratamentos potenciais desesperadamente necessários, um presidente dos EUA está incitando as pessoas a tomarem drogas que podem ser potencialmente perigosas e que de repente estão em falta, mesmo para pessoas que precisam delas para outra condição - lúpus. Os países estão lutando para comprar ações na esperança de salvar vidas.

Enquanto isso, dezenas de artigos sobre hidroxicloroquina e sua versão mais antiga, cloroquina, estão sendo publicados online no que é chamado de forma pré-impressa, o que significa sem a revisão por pares que os grandes periódicos costumam fazer.

A revisão por pares é vista como uma proteção contra erros e fraudes. Os periódicos enviam estudos preliminares a uma série de especialistas no campo específico - talvez três ou quatro especialistas renomados que refletirão sobre o conteúdo, métodos e plausibilidade das descobertas, farão críticas e darão o seu polegar para cima ou para baixo para publicação, que o o editor não tem que aceitar.

O estudo do Prof Mandeep Mehra de Harvard e do Hospital Brigham and Women nos EUA sobre hidroxicloroquina e a cloroquina antimalárica original passou por uma forma de revisão por pares que foi mais rápida do que o normal por causa da pandemia.

Ninguém parece ter notado o erro que o Lancet corrigiu desde então em relação ao número de pacientes na Austrália - que acabaram por estar na Ásia. Isso pode ser porque eles estavam sobrecarregados e apressados, como os cientistas agora estão, mas também pode ser porque eles não viram o banco de dados.

Mas isso é normal. O banco de dados pertence ao Surgisphere. O papel da empresa no estudo era fornecer os dados dos hospitais sobre como os pacientes se saíram com os medicamentos ou sem os medicamentos. Foi por isso que Sapan Desai, CEO da Surgisphere, foi o segundo autor. Os autores de um artigo são responsáveis ​​pela exatidão dos dados que usam. Quando o obtiveram de uma empresa, normalmente fariam algumas verificações pontuais para ter certeza de que o que receberam para analisar é confiável.

Prof Mehra e os outros co-autores que não fazem parte da Surgisphere, consternados com as críticas, criaram urgentemente uma revisão independente dos dados - como e onde foram coletados, bem como sua precisão - de uma empresa de auditoria externa em Bethesda . Seu relatório é esperado até o final da semana. Mehra disse que nunca esperava que seu estudo observacional fosse a última palavra sobre essas drogas e enfatizou que eles usaram os dados que puderam encontrar porque o assunto era urgente.

“Tenho rotineiramente ressaltado a importância e o valor dos ensaios clínicos randomizados e articulado que tais ensaios serão necessários antes que qualquer conclusão possa ser alcançada”, disse ele em um comunicado.

“Até que os resultados desses estudos estejam disponíveis, dada a urgência da situação, usar o conjunto de dados disponível era uma etapa intermediária. Aguardo ansiosamente a palavra das auditorias independentes, cujos resultados irão informar qualquer ação futura. ”

Existem lições aqui. Uma é que a revisão por pares é um processo falho, como todos os cientistas dirão a você. É uma rede de segurança, mas depende de muitas coisas, incluindo o tempo que os revisores têm que despender em um estudo. E eles veem o rascunho do documento, não os dados nos quais ele se baseia. Portanto, não é de se surpreender que não tenham sido os especialistas selecionados que detectaram os erros, mas cientistas de todo o mundo que perceberam que o número de pacientes em alguns dos hospitais poderia não estar certo.

Mas o mais importante é que os estudos observacionais têm sérias fraquezas e nunca devem dar o veredicto final sobre os tratamentos com drogas. Este foi um estudo observacional muito grande, que poderia mostrar tendências, mas sempre há o perigo de não comparar iguais. Os pacientes que receberam hidroxicloroquina na Índia podem não ter sido tratados da mesma forma que os que receberam na França. O padrão ouro é o ensaio clínico randomizado, estabelecido propositalmente para responder à pergunta. O ensaio Recovery, com mais de 11.000 pacientes inscritos em todos os hospitais de urgência no Reino Unido, é o maior ensaio desse tipo no mundo. Está testando sete tratamentos, incluindo hidroxicloroquina. Em julho, devemos ter uma resposta genuína - não uma que apenas turva as águas.


Teste italiano de células-tronco baseado em dados falhos

Cientistas levantam sérias preocupações sobre uma patente que constitui a base de uma polêmica terapia com células-tronco.

Davide Vannoni, um psicólogo que se tornou empresário médico, polarizou a sociedade italiana no ano passado com uma tentativa de obter a autorização de sua marca especial de terapia com células-tronco. Ele ganhou o apoio público fervoroso com suas alegações de curar doenças fatais - e oposição igualmente fervorosa de muitos cientistas que dizem que seu tratamento não foi comprovado.

Agora, esses cientistas querem que o governo italiano retire um ensaio clínico de € 3 milhões (US $ 3,9 milhões) da terapia que prometeu apoiar em maio, após ceder à pressão do paciente. Eles alegam que o método de preparação de células-tronco de Vannoni é baseado em dados falhos.

E Da natureza A própria investigação sugere que as imagens usadas no pedido de patente de 2010, no qual Vannoni diz que seu método se baseia, são duplicadas de documentos anteriores não relacionados.

O julgamento é “um desperdício de dinheiro e dá falsas esperanças a famílias desesperadas”, diz Paolo Bianco, um pesquisador de células-tronco da Universidade de Roma e um dos cientistas que afirma que o pedido de Vannoni de 2010 ao escritório de patentes dos EUA não é válido até escrutínio.

“Não estou surpreso em saber disso”, disse Luca Pani, diretor-geral da Agência Italiana de Medicamentos (AIFA), que suspendeu as operações nos laboratórios da Fundação Stamina de Vannoni em maio de 2012, depois que os inspetores concluíram que os laboratórios iriam não ser capaz de garantir preparações de células-tronco livres de contaminação. Os inspetores não viram metodologias ou protocolos sistemáticos. “Vimos tanto caos lá, eu sabia que não existiria um método formal”, diz ele.

Mas as questões levantadas sobre a patente que sustenta a metodologia necessária para o julgamento podem ser dinamite política.

Bem mais de 100 pessoas com doenças que variam de Parkinson a doenças do neurônio motor e coma - quase metade delas crianças - já se inscreveram para participar do estudo patrocinado pelo governo, apesar de não haver nenhuma evidência publicada de que a terapia poderia ser eficaz.

A Stamina Foundation recebeu permissão para tratar mais de 80 pessoas por motivos de compaixão desde 2007, e Vannoni - que não publicou dados de acompanhamento dos pacientes - diz que outras centenas estavam em fila esperando pelo tratamento quando as operações do laboratório foram suspensas. Os apoiadores realizaram manifestações furiosas em toda a Itália no início deste ano.

Diferenciação forçada

A terapia envolve a extração de células da medula óssea dos pacientes, manipulando-as em vitroe, em seguida, injetá-los de volta nos mesmos pacientes. Vannoni tem evitado repetidamente revelar detalhes de seu método além dos disponíveis em seu pedido de patente, que ele referiu como completo.

Natureza confirmou independentemente que uma micrografia chave naquele pedido de patente, retratando duas células nervosas que aparentemente se diferenciaram das células do estroma da medula óssea, não é original. Um especialista sênior em células-tronco contatado por Natureza diz que a micrografia mostrada na Figura 3 da patente de Vannoni é idêntica à da Figura 2b de um artigo de pesquisa publicado em 2003 por uma equipe russa e ucraniana 1.

Elena Schegelskaya, bióloga molecular da Universidade Nacional de Medicina de Kharkov e co-autora do artigo de 2003, disse Natureza que a micrografia sob escrutínio se originou com sua equipe.

Como a patente de Vannoni, o artigo de Schegelskaya analisou o incentivo às células da medula óssea para se diferenciarem em células nervosas. Mas enquanto a patente de Vannoni diz que a transformação envolveu a incubação de células de medula óssea em cultura por duas horas em uma solução 18 micromolar de ácido retinóico dissolvido em etanol, o artigo de Schegelskaya usa uma solução de ácido retinóico com apenas um décimo dessa concentração e incuba o células por vários dias. Portanto, as figuras idênticas representam condições experimentais muito diferentes.

Schegelskaya também aponta que a Figura 4, uma micrografia monocromática na patente, é idêntica a uma micrografia colorida que ela havia publicado no Jornal Ucraniano de Neurocirurgia em 2006.

As células da medula óssea podem se diferenciar em apenas células ósseas, adiposas ou cartilaginosas. A ideia de que eles podem ser forçados a se transformar em outros tipos de células é a base do potencial terapêutico alegado na patente de Vannoni.

“Na verdade, ninguém jamais foi capaz de mostrar de forma convincente que as células da medula óssea podem ser convertidas em células nervosas”, diz Elena Cattaneo, pesquisadora de células-tronco que estuda a doença de Huntington na Universidade de Milão, Itália.

Vannoni, junto com outros proponentes da terapia com células estromais da medula óssea, diz que as células em seu tratamento podem funcionar localizando qualquer tecido danificado e reduzindo a inflamação ou promovendo o crescimento de vasos sangüíneos.

No ano passado, o Escritório de Patentes dos Estados Unidos emitiu uma rejeição "pré-final" da patente de Vannoni - que permite o reenvio, embora Vannoni ainda não tenha reenviado. A rejeição observou que o pedido incluía detalhes insuficientes sobre a metodologia, que era improvável que a diferenciação ocorresse durante o tempo de incubação muito curto descrito e que o aparecimento de células semelhantes a nervos na cultura provavelmente "refletisse alterações citotóxicas".

O ensaio clínico italiano patrocinado pelo governo deveria começar em 1º de julho, mas agora está sendo adiado porque Vannoni adiou três vezes os compromissos de revelar seu método ao comitê nomeado pelo governo que preparará os detalhes do ensaio.

Esse comitê inclui representantes da AIFA, do ministério da saúde italiano e vários especialistas científicos. É liderado pelo Instituto Superior de Saúde de Roma, o principal órgão de pesquisa biomédica da Itália. O presidente do instituto, Fabrizio Oleari, não quis comentar.

Natureza fez repetidas tentativas de contato com Vannoni por e-mail e telefone para comentários, desde a última quarta-feira, 26 de junho, mas não obteve resposta. A Stamina Foundation não respondeu aos e-mails.

Irving Weissman, diretor do Instituto Stanford de Biologia de Células Tronco e Medicina Regenerativa na Califórnia, diz que o governo italiano não seria sábio em apoiar um estudo com tão poucas evidências de eficácia.


Ponto de vista: Por que tantos estudos científicos são falhos e mal compreendidos

Devemos acreditar no EUA hoje manchete, “Beber quatro xícaras de café por dia reduz o risco de morte”? E o que devemos concluir, “O enxaguatório bucal pode desencadear a diabetes. . . ” ? Devemos realmente comer mais, e não menos, gordura? Esses tipos de conclusões, supostamente de “estudos científicos”, parecem variar de mês para mês, levando a recomendações de “especialistas” em constante mudança. No entanto, a maioria de suas admoestações são baseadas em “pesquisas” duvidosas que carecem de uma base científica válida e deveriam ser relegadas ao reino do folclore e anedotas.

A pesquisa falha e enganosa é cara para a sociedade porque grande parte dela é o resultado de financiamento governamental mal gasto, e muitas vezes dá origem a uma regulamentação imprudente. Um remédio seria uma maior alfabetização estatística que permitiria ao público - e seus líderes eleitos - rejeitar a ciência “lixo”.

A estatística é uma ferramenta matemática usada em muitas disciplinas científicas para analisar dados. A intenção é fornecer um resultado que revelará algo sobre os dados que, de outra forma, não seria óbvio, ao qual nos referiremos como um "achado" ou uma "alegação". Antes de fazer uma análise, um pesquisador formula uma hipótese - que é seu melhor palpite para o que ele espera que aconteça.

Um “valor p” é um termo usado em estatísticas para indicar se o achado confirma o resultado que o pesquisador esperava. Uma parte essencial deste processo é que antes realizando a análise, o pesquisador deve formular uma hipótese que ele espera que a análise tenderia a provar ou refutar com base no p-valor. Quanto mais baixo for o valor p, maior será a confiança de que o achado é válido.

Normalmente, uma hipótese de "espantalho" é avançada, por exemplo, que os tratamentos A e B são igualmente eficazes. Os dois tratamentos são então comparados e qualquer valor de p inferior a 0,05 (p & lt,05) é, por convenção, geralmente considerado "estatisticamente significativo ”E tende a refutar a hipótese do espantalho de que os efeitos dos tratamentos são os mesmos. A hipótese alternativa, A é diferente de B (por exemplo, aspirina é melhor do que uma pílula de açúcar, para aliviar uma dor de cabeça) agora é aceita.

No entanto, e este é um ponto-chave - um valor de p menor que 0,05 (p & lt,05) pode ocorrer por acaso, o que é conhecido como falso positivo. A abordagem científica padrão para identificar um falso positivo é tentar replicar o resultado possivelmente falso positivo. Se os resultados originais não forem replicados, presume-se que eles sejam falsos - e ficamos com a hipótese do "espantalho" original de que não há diferença entre A e B.

Mas as coisas podem ficar complicadas, porque a análise do valor p pode ser manipulada para que parece para apoiar uma afirmação falsa. Por exemplo, um cientista pode olhar para uma série de questões, o que é conhecido como "dragagem de dados", e formular uma hipótese depois de a análise é feita, que é conhecida como HARKing, H ypothesis Depois que o R esultado é conhecido. Juntos, eles violam o princípio científico fundamental de que um cientista deve começar com uma hipótese, não invente uma após o conjunto de dados ter sido submetido à análise.

Um exemplo simples de cara ou coroa ilustra esse ponto. Digamos que um cientista esteja analisando 61 lançamentos de uma moeda e, em algum ponto, haja cinco caras sucessivas em uma fileira. Vendo esse resultado, o cientista formula a hipótese de que esse resultado, inesperado tomado isoladamente, parece provar que a moeda é injusta. A percepção da injustiça da moeda pode ser reforçada por não revelar que houve 56 outros lançamentos da moeda na sequência.

A afirmação é, obviamente, um falso positivo porque na próxima série de 61 lançamentos de moeda é improvável que houvesse cinco caras sucessivas No mesmo lugar na nova sequência. Na Tabela 1, apresentamos dez sequências de 61 lançamentos. As sequências foram geradas por computador usando uma moeda justa 50:50. Marcamos onde há sequências de cinco ou mais caras, uma após a outra.

Em todas as sequências, exceto três, há uma sequência de pelo menos cinco cabeças. Assim, uma sequência de cinco cabeças tem uma probabilidade de 0,5 5 = 0,03125 (ou seja, menos de 0,05) de ocorrer. Observe que existem 57 oportunidades em uma sequência de 61 lançamentos para que ocorram cinco caras consecutivas. Podemos concluir que, embora uma sequência de cinco caras consecutivas seja relativamente rara tomada isoladamente, não é raro ver pelo menos uma sequência de cinco caras em 61 lances de moeda.

Tabela 1. São fornecidas 10 sequências de 61 lançamentos de moeda cada, 1 = cara e 0 = coroa. Observe que 5 cabeças consecutivas ocorrem (0,5) 5 = 0,03125 raramente,

3% das vezes, mas com 61 lançamentos, são encontrados em 7 das 10 sequências, com 61 lançamentos. Em nenhuma das 10 sequências as sequências de 5 cabeças aparecem no mesmo lugar na sequência.

Agora, consideremos um experimento de consumo alimentar. Simulamos os resultados de um questionário de frequência alimentar, ou QFA, com 61 alimentos diferentes e seus possíveis efeitos sobre a saúde. Nesse experimento, pergunta-se a um grande número de pessoas quanto desses 61 alimentos costumam comer. Posteriormente, as pessoas respondem a um questionário de saúde contendo perguntas sobre se tiveram hipertensão, refluxo gástrico, histórico de câncer de pâncreas, etc.

O primeiro estudo, de fato, investigou cerca de 61 alimentos. Muitos efeitos sobre a saúde foram coletados na pesquisa posterior. Para esta simulação, a fim de ilustrar a falácia de tais estudos, teremos 10 efeitos à saúde, que são numerados: HE 1 ... HE 10.

O tipo de pergunta de interesse para os investigadores pode ser: “Comer laranja todos os dias reduz o colesterol?” Assim, existem 61 x 10 questões em questão e elas podem ser organizadas em uma tabela de 61 por 10 (Tabela 2). É comum declarar & # 8220 significância estatística & # 8221 se o valor p de qualquer uma dessas 610 questões tiver um valor p & lt0,05 e podemos usar um computador para simular a significância estatística.

Na Tabela 2, colocamos um “1” onde o valor p simulado era menor ou igual a 0,05 e um “0” em qualquer célula onde o valor p simulado era maior que 0,05. Cada coluna da tabela representa um efeito de saúde separado. Observe que, nesta simulação, cada coluna (efeito de saúde) tem um valor p significativo. Quais são as chances de pelo menos uma correlação estatisticamente significativa - mas não real - em um experimento com 61 alimentos com apenas um efeito na saúde examinado? Acontece que a probabilidade é muito alta - cerca de 0,95, onde 1,00 significa que isso acontece todas as vezes.

Obviamente, observar mais efeitos sobre a saúde aumenta as chances de um resultado estatisticamente significativo em algum ponto do estudo. Com 61 alimentos e 10 efeitos para a saúde, a chance de um resultado nominalmente significativo por acaso apenas um resultado estatisticamente falso positivo, “falso” - é essencialmente garantida. Parece que estamos vendo uma máquina geradora de falso positivo.

Tabela 2. Existem 61 alimentos, linhas e 10 efeitos para a saúde, colunas. A & # 82201 & # 8221 indica significância estatística, p & lt0,05 e a & # 82200 & # 8221 indica nenhum efeito estatístico nominal. Cada “1” é um falso positivo estatístico. Para cada “1”, um artigo pode ser escrito sobre uma descoberta que não deveria ser replicada.

Mas certamente a diferença entre fazer uma pergunta (um alimento e um efeito na saúde) e fazer 610 perguntas é bem conhecida dos pesquisadores. Bem, sim, mas fazer muitas perguntas e fazer testes estatísticos fracos é parte do que está errado com o modelo de negócios de publicação / concessões que se auto-reforça. Basta fazer muitas perguntas, obter falsos positivos e criar uma história plausível para o alimento que causa um efeito na saúde com um valor de p inferior a 0,05: HARKing.

O primeiro Questionário de Frequência Alimentar (FFQ) publicado saiu da Harvard School of Public Health e tinha 61 perguntas. Para qualquer efeito na saúde, fazer 61 perguntas dá cerca de 95% de chance de obter um resultado estatisticamente significativo - que pode ou não ser “real” - para cada efeito na saúde. Assim, o ponto crítico é: Cuidado com qualquer estudo que faça muitas perguntas!

Mas, para muitos QFAs, 61 perguntas não eram suficientes. As versões mais recentes exigem ainda mais. Um artigo em 2008 usou um QFA com 131 perguntas, que foram feitas em dois momentos diferentes, dando um total de 262 perguntas. Eles relataram uma associação entre mulheres que comem cereais matinais e maiores chances de ter um filho menino. (Para registro, o sexo de um zigoto é determinado pelo fato de o esperma do homem contribuir com um cromossomo X ou Y.) Uma pesquisa do governo dos EUA usa um FFQ com 139 perguntas e um artigo recente publicado no jornal Coração e usaram um FFQ com 192 questões alimentares encontraram uma diminuição na fibrilação atrial associada ao consumo de chocolate.

A “dragagem de dados” e o HARKing que produz resultados falso-positivos também podem ser aplicados a experimentos com animais de laboratório, conforme explicado aqui pelo Dr. Josh Bloom, químico do Conselho Americano de Ciência e Saúde. Esses fenômenos também se aplicam a estudos clínicos. Considere esta advertência de um artigo no JAMA, que criticava um artigo sobre um dispositivo médico para prevenir acidente vascular cerebral durante a substituição da válvula aórtica por meio de um cateter:

Comparar estatisticamente um grande número de resultados usando o limite de significância usual de 0,05 pode ser enganoso porque há um alto risco de se concluir falsamente que um efeito significativo está presente quando não existe nenhum. Se forem feitas 17 comparações quando não houver efeito verdadeiro do tratamento, cada comparação tem 5% de chance de concluir falsamente que existe uma diferença observada, levando a 58% de chance de concluir falsamente que pelo menos 1 diferença existe.

Estudos FFQ espúrios são publicados constantemente. O inventor do FFQ tem a seu crédito (?) Mais de 1.700 papéis. O artigo FFQ original é citado mais de 3.300 vezes. Parece que virtualmente nenhum dos pesquisadores usando FFQs corrige sua análise para os fenômenos estatísticos discutidos aqui, e os autores de artigos FFQ são notavelmente criativos em fornecer razões plausíveis para as “associações” que descobrem - em outras palavras, HARKing.

Essa situação cria uma espécie de casquinha de sorvete que se lambe: os pesquisadores têm prosperado com a produção dessa pesquisa duvidosa desde o início dos anos 1990, e visto que a maior parte do trabalho em Questionários de Frequência Alimentar é financiado pelo governo - pelo Instituto Nacional do Câncer, entre outras entidades federais - está roubando os contribuintes e também os enganando. Curiosamente, editores e revisores de artigos de pesquisa não reconheceram e acabaram com essa má prática estatística, então caberá às agências de financiamento do governo cortar o apoio a estudos com design defeituoso e às universidades parar de recompensar a publicação de pesquisas ruins. Não somos otimistas.

O Dr. S. Stanley Young é um estatístico que trabalhou em empresas farmacêuticas e no Instituto Nacional de Ciências Estatísticas em questões de estatística aplicada. Ele é membro do Comitê Consultivo de Ciência do Ar Limpo da EPA.

Henry I. Miller, um médico e biólogo molecular, é o Robert Wesson Fellow em Filosofia Científica e Políticas Públicas na Hoover Institution da Universidade de Stanford. Ele foi o diretor fundador do Escritório de Biotecnologia do FDA. Siga-o no Twitter @henryimiller.


ARTIGOS RELACIONADOS

O primeiro-ministro canadense Justin Trudeau, o CEO da Microsoft Bill Gates, o presidente dos EUA Barack Obama, o presidente francês François Hollande e o primeiro-ministro indiano Narendra Modi na conferência mundial sobre mudança climática

O PM, o Príncipe e 'a pausa': David Cameron e o Príncipe Charles participaram da histórica conferência sobre mudança climática de 2015 em Paris com 150 líderes mundiais. Como resultado, Cameron comprometeu a Grã-Bretanha com um corte de emissões em toda a UE. E Charles, escrevendo neste artigo no mês passado, afirmou que não houve pausa no aquecimento global, influenciado pelo documento defeituoso da NOAA que fez essa afirmação

Em uma entrevista exclusiva, o Dr. Bates acusou o principal autor do artigo, Thomas Karl, que foi até o ano passado diretor da seção NOAA que produz dados climáticos - os Centros Nacionais de Informações Ambientais (NCEI) - de 'insistir em decisões científicas escolhas que maximizaram o aquecimento e minimizaram a documentação ... em um esforço para desacreditar a noção de uma pausa para o aquecimento global, apressou-se para que ele pudesse publicar o tempo para influenciar as deliberações nacionais e internacionais sobre a política climática '.

O Dr. Bates foi um dos dois Cientistas Principais do NCEI, com sede em Asheville, Carolina do Norte.

Delegações oficiais da América, Grã-Bretanha e da UE foram fortemente influenciadas pelo estudo defeituoso da NOAA enquanto elaboravam o Acordo de Paris - e comprometeram as nações avançadas a fazer grandes reduções no uso de combustível fóssil e a gastar £ 80 bilhões todos os anos em novos climas projetos de ajuda relacionados.

O escândalo tem ecos perturbadores do caso 'Climategate', que estourou pouco antes da cúpula do clima da ONU em 2009, quando o vazamento de milhares de e-mails entre cientistas climáticos sugeriu que eles haviam manipulado e ocultado dados. Alguns eram especialistas britânicos na influente Unidade de Pesquisa Climática da Universidade de East Anglia.

LEVOU A ESTES COMPROMISSOS VERDES

Dados publicados pela NOAA, a maior agência de dados climáticos do mundo, afirmam que o aquecimento global é pior do que se pensava. A informação foi publicada para coincidir com a conferência de mudança climática de Paris em 2015, onde os líderes mundiais concordaram.

US $ 100 bilhões serão dados a cada ano em ajuda extra 'relacionada ao clima' para o mundo em desenvolvimento pelas nações ricas

2 graus C sejam definidos como o limite para o aumento máximo da temperatura acima dos tempos pré-industriais

40% das emissões de CO2 seriam reduzidas em toda a UE até 2030

£ 320 bilhões ... o que as promessas do Reino Unido custarão à nossa economia até 2030

O artigo 'Pausebuster' de 2015 da NOAA foi baseado em dois novos conjuntos de dados de temperatura - um contendo medições de temperaturas na superfície do planeta em terra, o outro na superfície dos mares.

Ambos os conjuntos de dados apresentavam falhas. Este jornal soube que a NOAA decidiu agora que o conjunto de dados do mar terá de ser substituído e substancialmente revisado apenas 18 meses depois de ter sido publicado, porque usou métodos não confiáveis ​​que exageraram a velocidade do aquecimento. Os dados revisados ​​mostrarão temperaturas mais baixas e uma taxa mais lenta na tendência de aquecimento recente.

O conjunto de dados de temperatura da terra usado pelo estudo foi afetado por bugs devastadores em seu software que tornaram suas descobertas "instáveis".

O artigo baseou-se em uma versão 'alfa' preliminar dos dados que nunca foi aprovada ou verificada.

Uma versão final aprovada ainda não foi publicada. Nenhum dos dados nos quais o artigo foi baseado foi devidamente 'arquivado' - um requisito obrigatório que visa garantir que os dados brutos e o software usado para processá-los estejam acessíveis a outros cientistas, para que possam verificar os resultados do NOAA.

O Dr. Bates se aposentou da NOAA no final do ano passado, após uma carreira de 40 anos em meteorologia e ciências climáticas. Ainda em 2014, o governo Obama concedeu-lhe uma medalha de ouro especial por seu trabalho no estabelecimento de novos padrões supostamente vinculativos para “produzir e preservar registros de dados climáticos”.

No entanto, quando se tratou do jornal programado para influenciar a conferência de Paris, disse Bates, esses padrões foram flagrantemente ignorados.

O artigo foi publicado em junho de 2015 pela revista Science. Intitulado 'Possíveis artefatos de distorções de dados no recente hiato do aquecimento global', o documento afirma que a amplamente relatada 'pausa' ou 'desaceleração' é um mito.

Menos de dois anos antes, um relatório de sucesso do Painel Intergovernamental da ONU sobre Mudanças Climáticas (IPCC), que se baseou no trabalho de centenas de cientistas em todo o mundo, havia encontrado 'uma tendência de aumento muito menor nos últimos 15 anos 1998-2012 do que nos últimos 30 a 60 anos '. Explicar a pausa tornou-se uma questão chave para a ciência do clima. Ele foi aproveitado pelos céticos do aquecimento global, porque o nível de CO2 na atmosfera continuou a subir.

POR QUE O GURU VERDE DE OBAMA FARÁ TRUMP VER O VERMELHO

O chefe do clima da NOAA, Thomas Karl, abaixo à esquerda, tinha uma linha direta para a Casa Branca, por meio de sua longa associação com o conselheiro científico do presidente Obama, John Holdren.


Cientistas da NOAA falsamente acusados ​​de manipular dados sobre mudanças climáticas

Em 4 de fevereiro de 2017, o tabloide britânico Correio no domingo (e o site do Daily Mail) publicou um artigo de David Rose - um defensor de longa data das teorias de conspiração das mudanças climáticas cujas análises a comunidade científica amplamente considera como falhas e enganosas - alegando que cientistas da Administração Nacional Oceânica e Atmosférica (NOAA) usou dados enganosos para apressar a publicação de um estudo climático inovador e, assim, "enganar" os líderes mundiais:

O Mail on Sunday hoje revela evidências surpreendentes de que a organização que é a principal fonte mundial de dados climáticos apressou-se em publicar um documento marcante que exagerou o aquecimento global e foi programado para influenciar o histórico Acordo de Paris sobre as mudanças climáticas.

Um denunciante de alto nível disse a este jornal que a Administração Oceânica e Atmosférica dos Estados Unidos (NOAA) violou suas próprias regras sobre integridade científica quando publicou o relatório sensacional, mas falho, que visa causar o máximo impacto possível sobre os líderes mundiais, incluindo Barack Obama e David Cameron na conferência climática da ONU em Paris em 2015.

Em questão está um artigo de junho de 2015 publicado em Ciência intitulado "'Possíveis artefatos de distorções de dados no recente hiato de aquecimento global da superfície", de autoria de (entre outros) Thomas R. Karl, diretor dos Centros Nacionais de Informações Ambientais da NOAA.

Conforme descrito em uma análise que acompanha a peça em Ciência, o artigo tratou de uma questão que os negadores da mudança climática antropogênica se alinharam por anos - que houve uma desaceleração ou "hiato" no aquecimento global desde 1998, apesar dos níveis de CO2 continuamente crescentes:

Análises anteriores das tendências da temperatura global durante a primeira década do século 21 pareciam indicar que o aquecimento havia parado. Isso permitiu que os críticos da ideia do aquecimento global alegassem que a preocupação com a mudança climática estava fora de lugar. Karl et al. agora mostram que as temperaturas não se estabilizaram como se pensava e que o suposto “hiato” de aquecimento é apenas um artefato de análises anteriores. O aquecimento continuou em um ritmo semelhante ao da última metade do século 20, e a desaceleração foi apenas uma ilusão.

Por causa de seu ataque direto a um ponto de discussão popular entre os céticos da mudança climática, o estudo tem sido um alvo comum daqueles que buscam minar a ciência do clima. In this latest round of controversy, the Daily Mail article cited a “whistleblower” (retired NOAA scientist John Bates) who came forward to reveal what he described as ethical lapses in the way that study’s data were selected and archived by its authors.

The allegations made against Karl and his co-authors fall into three general groups:

1) That the team unethically selected flawed data that was supportive of their cause.

2) That they failed to archive their data as required by both NOAA and the journal Ciência.

3) That they rushed through the required internal review process to get the paper published before the 2015 Paris Climate Summit.

First, and most “astonishing,” were claims that the data used in Karl’s paper were manipulated to derive a specific result, according to Rose’s Daily Mail report:

The sea dataset used by Thomas Karl and his colleagues — known as Extended Reconstructed Sea Surface Temperatures version 4, or ERSSTv4, tripled the warming trend over the sea during the years 2000 to 2014 from just 0.036C per decade — as stated in version 3 — to 0.099C per decade …

But Dr Bates said this increase in temperatures was achieved by dubious means. Its key error was an upwards ‘adjustment’ of readings from fixed and floating buoys, which are generally reliable, to bring them into line with readings from a much more doubtful source — water taken in by ships. This, Dr Bates explained, has long been known to be questionable: ships are themselves sources of heat, readings will vary from ship to ship, and the depth of water intake will vary according to how heavily a ship is laden — so affecting temperature readings.

Here, Rose offered two implications. The first was that Karl’s methodology was intentionally opaque in order to hide the fact that it went against a well-known ship measurement bias. In reality, the entire methodology was spelled out in the paper, and the ship data correction Karl et al selected had previously been published. This correction, far from ignoring the differences between boat and buoy data, actually took into account the generally superior buoy data in its calculation:

Several studies have examined the differences between buoy- and ship-based data, noting that the ship data are systematically warmer than the buoy data. This is particularly important because much of the sea surface is now sampled by both observing systems, and surface-drifting and moored buoys have increased the overall global coverage by up to 15%. These changes have resulted in a time-dependent bias in the global SST record, and various corrections have been developed to account for the bias.

Recently, a new correction [Huang et al 2015] was developed and applied in the Extended Reconstructed Sea Surface Temperature (ERSST) data set version 4, which we used in our analysis. In essence, the bias correction involved calculating the average difference between collocated buoy and ship SSTs. The average difference globally was −0.12°C, a correction that is applied to the buoy SSTs at every grid cell in ERSST version 4. […] More generally, buoy data have been proven to be more accurate and reliable than ship data, with better-known instrument characteristics and automated sampling. Therefore, ERSST version 4 also considers this smaller buoy uncertainty in the reconstruction.

Conspicuously absent from Rose’s article was any mention of a 4 January 2017 study that critically investigated the choices referenced above, demonstrating that the record made by Karl et al tracked the buoy data and other modern sources of data more accurately than any other model. The lead author of that more recent study discussed those findings in response to the Daily Mail article:

I recently led a team of researchers that evaluated NOAA’s updates to their ocean temperature record. In a paper published last month in the journal Science Advances, we compared the old NOAA record and the new NOAA record to independent instrumentally homogenous records created from buoys, satellite radiometers, and Argo floats. Our results, as you can see in the chart below, show that the new NOAA record agrees quite well with all of these, while the old NOAA record shows much less warming.

This was due to two factors: the old NOAA record spliced together warmer ship data with colder buoy data without accounting for the offset between the two and the new NOAA record puts more weight on higher-quality buoy records and less weight on ship records (versus the old NOAA record which treated ships and buoys equally) …

The fact that the new NOAA record [Karl et al 2015] is effectively identical with records constructed only from higher quality instruments (buoys, satellite radiometers, and Argo floats) strongly suggests that NOAA got it right and that we have been underestimating ocean warming in recent years.

The second implication, that Karl et al intentionally selected data and corrections with the intent of exaggerating global warming, was a serious charge based only on Bates’ testimony. But in a 7 February 2016 interview with EE News, Bates explicitly stated that he did not mean to suggest that Karl et al had manipulated data:

Bates accused former colleagues of rushing their research to publication, in defiance of agency protocol. He specified that he did not believe that they manipulated the data upon which the research relied in any way.

“The issue here is not an issue of tampering with data, but rather really of timing of a release of a paper that had not properly disclosed everything it was,” he said.

With respect to the team’s use of this new correction, Rose reported that “Dr Bates said he gave the paper’s co-authors ‘a hard time’ about this, ‘and they never really justified what they were doing.”

However, Karl told us via e-mail that Bates’ only role in the paper was to organize the internal review process, during which time he says no such conversations regarding their use of ERSSTv4 ever took place:

[There were] no discussions, nor emails to me. Dr. Bates was asked to coordinate the internal review of the paper (I am not sure who made the request) since this was normally handled by Tom Peterson, but he was one of the authors. The responsibility of the coordinator for the internal review is to identify an individual within the [National Centers for Environmental Information] who could review the paper and pass those comments back to the authors for their response. In our case, there were no comments by the reviewer.

(Neither John Bates nor David Rose returned our requests for comments.)

Rose further alleged that Karl et al used a particular land-temperature dataset because it demonstrated findings more amenable to their cause, even though (according to Rose) that dataset was both too preliminary to be approved and was plagued by “devastating” computer bugs:

The second dataset used by the [Karl et al.] paper was a new version of NOAA’s land records, known as the Global Historical Climatology Network (GHCN) […]. This new version found past temperatures had been cooler than previously thought, and recent ones higher — so that the warming trend looked steeper. For the period 2000 to 2014, the paper increased the rate of warming on land from 0.15C to 0.164C per decade.

In the weeks after the [Karl et al.] paper was published, Dr Bates conducted a one-man investigation into this. His findings were extraordinary. Not only had Mr Karl [sic] and his colleagues failed to follow any of the formal procedures required to approve and archive their data, they had used a ‘highly experimental early run’ of a programme that tried to combine two previously separate sets of records …

As discussed above, Bates has asserted that he did not mean to suggest Karl and his colleagues manipulated the data by selecting (as Rose implied) a new buggy model in order to exaggerate the records. Instead, Bates said that he simply felt it improper to use that data without a disclaimer clearly indicating that it was derived from an experimental run, as discussed in a blog post authored by Bates:

Clearly labeling the dataset would have indicated this was a highly experimental early GHCN-M version 4 run rather than a routine, operational update. As such, according to NOAA scientific integrity guidelines, it would have required a disclaimer not to use the dataset for routine monitoring.

Bates, it should be noted, was the lead on a massive NOAA effort that aimed to overhaul procedures for the standardization of which datasets to use, as described in that same blog post:

As a climate scientist formerly responsible for NOAA’s climate archive, the most critical issue in archival of climate data is actually scientists who are unwilling to formally archive and document their data. I spent the last decade cajoling climate scientists to archive their data and fully document the datasets. I established a climate data records program that was awarded a U.S. Department of Commerce Gold Medal in 2014 for visionary work in the acquisition, production, and preservation of climate data records (CDRs), which accurately describe the Earth’s changing environment.

In that post, as well as in the Daily Mail piece, Bates made the claim that the use of the more experimental dataset by Karl et al contradicted NOAA policy because the new dataset had not undergone an “operational readiness review” (ORR). He also alleged that the use of this data set, and a computer failure, resulted in no record being created of what the paper’s authors did, putting that paper in conflict with both Ciência’s editorial standards and NOAA’s internal standards — a point Rose brought up multiple times:

The lack of archival of the GHCN-M V3.X [their experimental version of the land temperature data] and the global merged product is also in violation of Science policy on making data available. This policy states: “Climate data. Data should be archived in the NOAA climate repository or other public databases”. Did Karl et al. disclose to Science Magazine that they would not be following the NOAA archive policy, would not archive the data, and would only provide access to a non-machine readable version only on an FTP server?

Zeke Hausfather, the lead author on a 2017 study that looked into Karl et al’s use of this data, disputed Rose’s characterization:

In his [Daily Mail] article, David Rose relies on reports from a researcher at NOAA who was unhappy about the data archiving associated with the Karl et al paper. While I cannot speak to how well the authors followed internal protocols, they did release their temperature anomalies, spatially gridded data land and ocean data, and the land station data associated with their analysis. They put all of this up on NOAA’s FTP site in early June 2015, at the time that the Karl et al paper was published.

As someone who works on and develops surface temperature records, the data they provided would be sufficient for me to examine their analysis in detail and see how it compared to other groups. In fact, I used the data they provided shortly after the paper was published to do just that. While it would have been nice for them to publish their full analysis code online as well as the data, I’m sure they would have provided it to any researchers who asked.

For what it’s worth, Karl told us that he has no knowledge of a computer failure that wiped out critical information, saying that “This allegedly happened after I retired, but I have been informed that is simply not true.”

Indeed, information about the crash appears to have been secondhand information which Bates passed on to Rose, according to his blog post:

I later learned that the computer used to process the software had suffered a complete failure, leading to a tongue-in-cheek joke by some who had worked on it that the failure was deliberate to ensure the result could never be replicated.

The final class of allegations, that these missteps were accepted specifically to influence the Paris Climate Summit, relied (as did everything else) on the testimony of Bates, who is quoted in the Daily Mail piece as claiming that Karl “rushed so that he could time publication to influence national and international deliberations on climate policy.”

As reported by EENews, this issue is likely moot, as the State Department indicated that the NOAA study had little to no bearing on the outcome of the Paris meeting:

Whether the research was published to influence the Paris climate talks is a moot point, said Andrew Light, a senior member of the State Department’s climate talks negotiating team in 2015. He said the talks had already been underway for about four years when the paper was published and that 188 nations were relying on a tremendous amount of research to support their goal of reducing humans’ carbon emissions to slow the warming of the planet. They had also already crafted proposed reductions by the time the research was published, he said.

“I never heard it discussed once, let alone this one NOAA report, discussed in Paris, the run-up to Paris or anything after Paris, so this is really just an incredibly bizarre claim,” Light said.

All these claims of malfeasance used the testimony of a single scientist, upset with how more senior scientists dealt with data acquisition and archiving, to paint an excruciatingly technical matter as a worldwide conspiracy. Rose made no effort to contact Karl or other members of the team (according to Karl), and outside of Bates’ conversation with him, Rose provided no corroborating evidence or relevant background for his assertions.

Despite these discrepancies, the story gained additional traction when Texas representative Lamar Smith, chair of the U.S. House Committee on Science, Space, and Technology, tweeted the flawed narrative and issued a press release about it:

NOAA sr officials played fast & loose w/data in order 2 meet politically predetermined conclusion on climate change

While Karl et al might reasonably be criticized for having been less than rigorous in their data documentation, their findings have been independently verified, contrary to allegations that the authors manipulated data to reach a desired conclusion:

What David Rose fails to mention is that the new NOAA results have been validated by independent data from satellites, buoys and Argo floats and that many other independent groups, including Berkeley Earth and the UK’s Met Office Hadley Centre, get effectively the same results.

Rose’s claim that NOAA’s results “can never be verified” is patently incorrect, as we just published a paper independently verifying the most important part of NOAA’s results.


WHO CONDUCTS REVIEWS?

Peer reviews are conducted by scientific experts with specialized knowledge on the content of the manuscript, as well as by scientists with a more general knowledge base. Peer reviewers can be anyone who has competence and expertise in the subject areas that the journal covers. Reviewers can range from young and up-and-coming researchers to old masters in the field. Often, the young reviewers are the most responsive and deliver the best quality reviews, though this is not always the case. On average, a reviewer will conduct approximately eight reviews per year, according to a study on peer review by the Publishing Research Consortium (PRC) (7). Journals will often have a pool of reviewers with diverse backgrounds to allow for many different perspectives. They will also keep a rather large reviewer bank, so that reviewers do not get burnt out, overwhelmed or time constrained from reviewing multiple articles simultaneously.


Another Flawed Data Model from Imperial College to Blame for Latest UK Lockdown

The source behind the claim that a new COVID-19 strain in the UK is 70% more transmissible, Dr. Erik Volz of Imperial College, admits that the model that produced that statistic is flawed and that it is “too early to tell” if the strain is more easily spread.

On Saturday, UK Prime Minister Boris Johnson announced extreme new measures just before the holidays due to the emergence of a new COVID-19 variant. Per Johnson, as well as the UK’s Chief Medical Officer Chris Whitty who also spoke at Saturday’s press conference, the new strain – nicknamed VUI-202012/01 – is around 70% more transmissible, but no evidence shows it to be any more severe or deadly than previous strains.

De acordo com BBC, Johnson’s assertion that the new variant “may be up to 70% more transmissible,” was based on the information discussed the day prior by the UK government’s New and Emerging Respiratory Virus Threats Advisory Group, or NERVTAG. Yet, as the BBC notes, this figure apparently comes from a single source, a 10 minute presentation delivered by Dr. Erik Volz of Imperial College given last Friday, the same day as the NERVTAG meeting.

Volz – a close colleague of the discredited Neil Ferguson – delivered the presentation to COVID-19 Genomics UK (COG-UK), a research consortium largely funded by the UK government and the Wellcome Trust and, in particular, the Wellcome Sanger Institute. The Wellcome Sanger Institute recently came under fire for “misusing” the DNA of Africans to develop a “gene chip without proper legal agreements” and an upcoming Unlimited Hangout report will detail the ties of the Wellcome Trust to the UK eugenics movement, the Bill and Melinda Gates Foundation and the Oxford-AstraZeneca COVID-19 vaccine. Notably, the Wellcome-funded scientist behind that vaccine candidate, Adrian Hill, was recently quoted by the Washington Post as saying that “ We’re in the bizarre position of wanting COVID to stay, at least for a little while…But cases are declining.” The UK government, Google and other powerful stakeholders are positioned to profit from sales of that particular vaccine candidate.

According to Volz’s most recent publication, COG-UK “ has resulted in the generation of >40,000 SARS-CoV-2 sequences from the country in <6 months (approximately half of all genomes sequenced globally as of 7 July)” and “has facilitated the usage of robust and systematic sampling and shared bioinformatic and laboratory approaches and the collection of consistent core metadata, resulting in a large, high-resolution dataset capable of examining changes in virus biology in the United Kingdom.”

However, in his presentation last Friday, Volz repeatedly downplays the quality of COG-UK’s sampling and, by extension, the validity of the model used to justify the 70% figure, raising obvious questions as to why Boris Johnson would cite the figure so prominently and use it to justify draconian lockdown measures during the holiday season as well as the arbitrary creation of a new, more extreme lockdown tier.

In comparing the new strain, which Volz refers to in the presentation as N501Y, to another strain named A222V, Volz states that “We’re still basically in the very early stages, we basically have one month of growth for comparison, whereas we have now observed A222V for 3 months.” After noting the limited nature of the dataset for N501Y, Volz stated that “the growth [in cases for the new strain] does appear to be larger.” He then quickly adds the caveat that “trends you see early on don’t always pan out, you need to let more data accumulate.”

Volz then goes on to compare the transmissibility of A222V and N501Y. Regarding the model used to determine A222V’s transmissibility, Volz states that “model fit is not particularly good” given that “there are lots of outliers early on and there are lots of outliers quite late.” He concludes that “we wouldn’t expect that a logistical growth model is necessarily appropriate in this case.” However, he uses this “not necessarily appropriate” model of a poor fit to compare to the new strain.

Yet, even with the model for the new strain’s transmissibility, Volz states that it’s “too early to tell” what N501Y’s transmissibility even is, stating that the 70% figure estimated by the model is based on “the current state of our knowledge,” which again is based on 1 month of data and its trends, trends that Volz also noted “don’t always pan out.” Volz then adds that the sparse datasets used to develop the transmissibility model for the new strain had some issues, stating that “the sample frequency is very noisy and overdispersed.” Later on in the presentation, Volz states that the data, provided by COG-UK, was both “non-random and very noisy sampling,” bringing into question not only the limited amount of data in terms of time, but also the quality of that data. After noting the glaring flaws in both models he is comparing, and that it is “too early to tell” much of anything about N501Y, Volz states that N501Y is “growing faster than A222V ever grew.”

Volz’s presentation follows his release, alongside Imperial College professor and NERVTAG member Wendy Barclay, of the preliminary genomic characterization of the new strain. Volz’s presentation last Friday and this preliminary characterization, first published on December 19, were the main sources of data considered at the NERVTAG meeting. Notably, the study, written for the UK government and Wellcome Trust-funded COG-UK, has yet to be peer-reviewed and makes no mention of increased transmissibility or the 70% figure.

Ferguson’s Return

Volz’s colleague, Neil Ferguson, also played a key role in promoting the need for more restrictive lockdowns due to this new genetic variant. Ferguson was caught in May breaking the rules of previous lockdowns he had heavily promoted and arguably orchestrated in order to visit his lover. He has also previously attracted heavy criticism for a history of producing flawed models, particularly his wildly inaccurate predictions regarding the anticipated COVID-19 death toll that were largely used to justify earlier lockdowns in the UK. Despite his relatively recent fall from grace, Ferguson remains part of NERVTAG and was also part of last Friday’s meeting to discuss the new strain. That meeting was said to “have played a pivotal role in changing the Prime Minister’s mind – and led to Saturday’s announcement that Christmas was effectively canceled for millions.”

However, much like Volz’s tone within his presentation, the NERVTAG meeting did not authoritatively agree on the 70% transmissibility rate. Instead, a majority of the body’s members opposed any sort of “immediate action over the new mutation” and had wanted “to wait for more evidence.” The minutes of the meeting, as cited by the Daily Mail, noted that NERVTAG had only “moderate confidence” that the new strain was more transmissible and had concluded that there was “currently insufficient data to answer crucial questions on the new strain,” including its alleged increased transmissibility. Compounding the issue was also the fact that, as noted by NERVTAG’s meeting minutes, the new strain “can be challenging to sequence,” meaning that it is not easily identified relative to other strains.

Notably, while most NERVTAG members opposed the sort of “immediate action” that Johnson announced following their meeting, Ferguson appeared on the BBC the day of the NERVTAG meeting and claimed that the UK needed to go into a third lockdown more restrictive than any previous lockdown. Ferguson appears to be a key member of the “vocal minority which believes that… we should be panicking much more frequently” that a senior Whitehall source cited as “bullying” the UK government into taking more extreme actions in recent days in a recent conversation with the Daily Mail.

In the few days since the measures were announced, Ferguson has become the main source for claims that the new variant “has a higher propensity to infect children,” though he has also stated that “we haven’t established any sort of causality on that, but we can see it in the data.” However, he also notes that “we will need to gather more data” to actually determine if children are more easily infected by the new strain. Another NERVTAG member and also a professor from Imperial College, Wendy Barclay, also repeated the unproven claim that the new variant increasingly infects children, stating that “children are, perhaps, equally susceptible to this virus as adults.” Barclay’s laboratory at the Imperial College is funded by the UK government and the Wellcome Trust.

Despite Ferguson’s admission that there is no actual evidence to back up that claim, mainstream media headlines in the UK like “UK coronavirus variant may be more able to infect children – scientists” and others implied the statement was based on more than just speculation from incomplete, biased datasets. The over-hyped concern about children being reportedly more susceptible to the new variant could be used to justify increased vaccination of that demographic, which has been shown to be largely unaffected by previous COVID-19 strains relative to other age groups.

Critics of the questionable narrative already labeled “conspiracy theorists”

The lack of legitimate consensus from NERVTAG and related institutions like Imperial College on the new strain’s transmissibility has weakened Johnson’s claims that crippling Christmas lockdowns are necessary as well as his justifications for the further new restrictive lockdown measures, so much so that it has even drawn criticism from mainstream media sources outside of the UK, such as ABC News.

Despite the dubious justification for the lockdowns being glaring enough to be noted by the mainstream, the UK government is reportedly now “monitoring social media for conspiracy theorists” after government surveillance of social media reactions following Saturday’s press conference revealed that “many are unconcerned by the new variant” with some being “more skeptical” and noting the “concurrence of a new variant with the approval of a vaccine was suspicious timing.”

Media reports on the UK government’s monitoring for “misinformation” regarding the new strain stated that “t he conspiracies come despite the UK government’s New and Emerging Respiratory Virus Threats Advisory Group (NERV TAG) outlining the potential severity of the new variant.” Those reports failed to note that the NERVTAG minutes revealed a lack of consensus for the new lockdown and a lack of confidence the increased transmissibility of the new strain. Per this narrative, outlets like ABC News and even the majority of NERVTAG members who did not feel there was enough evidence to justify the claims of the new strain’s transmissibility, could be deemed “conspiracy theorists.”

The narrative surrounding the new strain and the affiliated lockdowns provides a clear example of how easily “expert opinion” can be manipulated to support a particular policy in the absence of any legitimate justification. The actual consensus of the NERVTAG meeting as well as the experts quoted by mainstream media outlets that dissent from those of the “vocal minority”, represented by Neil Ferguson and Wendy Barclay, have been largely ignored in UK mainstream media reports and the UK government itself, presumably because citing such inconvenient facts would delegitimize the resulting policy. Instead, those who dissent from the clearly questionable narrative are being quickly labeled “conspiracy theorists” by the UK government, a move that will likely result in an expansion of the UK’s already declared war against independent reporting and social media posts that dare to question and/or challenge the government’s favored narrative.


Biases in study design, implementation, and data analysis that distort the appraisal of clinical benefit and ESMO-Magnitude of Clinical Benefit Scale (ESMO-MCBS) scoring

Fundo: The European Society for Medical Oncology-Magnitude of Clinical Benefit Scale (ESMO-MCBS) is a validated, widely used tool developed to score the clinical benefit from cancer medicines reported in clinical trials. ESMO-MCBS scores assume valid research methodologies and quality trial implementation. Studies incorporating flawed design, implementation, or data analysis may generate outcomes that exaggerate true benefit and are not generalisable. Failure to either indicate or penalise studies with bias undermines the intention and diminishes the integrity of ESMO-MCBS scores. This review aimed to evaluate the adequacy of the ESMO-MCBS to address bias generated by flawed design, implementation, or data analysis and identify shortcomings in need of amendment.

Métodos: As part of a refinement of the ESMO-MCBS, we reviewed trial design, implementation, and data analysis issues that could bias the results. For each issue of concern, we reviewed the ESMO-MCBS v1.1 approach against standards derived from Helsinki guidelines for ethical human research and guidelines from the International Council for Harmonisation of Technical Requirements for Pharmaceuticals for Human Use, the Food and Drugs Administration, the European Medicines Agency, and European Network for Health Technology Assessment.

Resultados: Six design, two implementation, and two data analysis and interpretation issues were evaluated and in three, the ESMO-MCBS provided adequate protections. Seven shortcomings in the ability of the ESMO-MCBS to identify and address bias were identified. These related to (i) evaluation of the control arm, (ii) crossover issues, (iii) criteria for non-inferiority, (iv) substandard post-progression treatment, (v) post hoc subgroup findings based on biomarkers, (vi) informative censoring, and (vii) publication bias against quality-of-life data.

Conclusão: Interpretation of the ESMO-MCBS scores requires critical appraisal of trials to understand caveats in trial design, implementation, and data analysis that may have biased results and conclusions. These will be addressed in future iterations of the ESMO-MCBS.

Palavras-chave: ESMO-MCBS bias clinical trial analysis clinical trial design clinical trial implementation clinical trial reporting.

Copyright © 2021 The Author(s). Published by Elsevier Ltd.. All rights reserved.

Declaração de conflito de interesse

Disclosure TA personal fees and travel grants from Bristol-Myers Squibb (BMS), personal fees, grants and travel grants from Novartis, personal fees from Pierre Fabre, grants from Neracare, Sanofi, and SkylineDx, personal fees from CeCaVa outside the submitted work JBa reports grants, personal fees, and nonfinancial support from Ipsen personal fees and nonfinancial support from Pfizer, Novartis nonfinancial support from AAA, Nanostring, Roche grants and personal fees from Servier and personal fees from Nutricia outside the submitted work JBo is a statistician on the SAG-O (scientific advice committee oncology) for EMA, and scientific director of EORTC Headquarters. EORTC carries out clinical trials with many (most) pharma and some biotechs either with financial or material support, or with the company as the sponsor (intent to register new indication) he is co-responsible for the management of EORTC. AC has received honoraria/consulting fees from AstraZeneca, Boehringer-Ingelheim, Pfizer, Roche/Genentech, Eli Lilly and Company, Takeda, Novartis, Merck Sharp & Dohme (MSD), and BMS GC scientific advisory board for BMS, Roche, Novartis, Lilly, Pfizer, Seagen, AstraZeneca, Daichii Sankyo, and Veracyte UD Tumour Agnostic Evidence Generation Working Group Member, Roche BG reports receiving consulting fees from Vivio Health. CG-R BMS (institutional research and travel grants, speaker’s honoraria), Roche/Genentech (institutional research and travel grants, speaker’s honoraria), Pierre Fabre (travel and educational grants, speaker’s honoraria) MSD (travel grants) Eisai (speaker’s honoraria) Foundation Medicine (research grant, speaker’s honoraria) BK Honoraria for lectures from Ipsen, Novartis and MSD SO research grants from Celldex and Novartis to the institution AP received honoraria for consulting, advisory role or lectures from AstraZeneca, Agilent/Dako, Boehringer Ingelheim, BMS, Eli Lilly, Janssen, MSD, Pfizer and Roche Genentech GP received institutional financial support for advisory board/consultancy from Roche, Amgen, Merck, MSD, BMS, and institutional support for clinical trials or contracted research from Amgen, Roche, AstraZeneca, Pfizer, Merck, BMS, MSD, Novartis, Lilly MP consulting or advisory role: AstraZeneca, Lilly, MSD, Novartis, Pfizer, Roche, Genentech, Crescendo Biologics, Periphagen, Huya Bioscience, Debiopharm Group, Odante Therapeutics Consulting or Advisory Role: G1 Therapeutics, Menarini, Seattle Genetics, Camel-IDS, Immunomedics, Oncolytics, Radius Health Research Funding: AstraZeneca (Inst), Lilly (Inst), MSD (Inst), Novartis (Inst), Pfizer (Inst), Roche (Inst), Genentech (Inst), Radius Health (Inst), Synthon (Inst), Servier (Inst) Other Relationship: Radius Health JT personal financial interest in the form of scientific consultancy role for Array Biopharma, AstraZeneca, Bayer, Boehringer Ingelheim, Chugai, Daiichi Sankyo, F. Hoffmann-La Roche Ltd, Genentech, Inc., HalioDX SAS, Ikena Oncology, IQVIA, Imedex, Lilly, MSD, Menarini, Merck Serono, Mirati, Novartis, Peptomyc, Pfizer, Pierre Fabre, Samsung Bioepis, Sanofi, Seattle Genetics, Servier, Taiho, Tessa Therapeutics and TheraMyc. Institutional financial interest in the form of financial support for clinical trials or contracted research for Amgen Inc., Array Biopharma Inc., AstraZeneca Pharmaceuticals LP, Debiopharm International SA, F. Hoffmann-La Roche Ltd, Genentech Inc., Janssen-Cilag SA, MSD, Novartis Farmacéutica SA, Taiho Pharma USA Inc., Pharma Mar, Spanish Association Against Cancer Scientific Foundation and Cancer Research UK EGEdV declares: institutional financial support for advisory board/consultancy from Sanofi, Daiichi, Sankyo, NSABP, Pfizer and Merck, and institutional support for clinical trials or contracted research from Amgen, Genentech, Roche, AstraZeneca, Synthon, Nordic Nanovector, G1 Therapeutics, Bayer, Chugai Pharma, CytomX Therapeutics, Servier and Radius Health CZ consultancies and speaker’s honoraria: Roche, Novartis, BMS, MSD, Imugene, Ariad, Pfizer, Merrimack, Merck KGaA, Fibrogen, AstraZeneca, Tesaro, Gilead, Servier, Shire, Eli Lilly, Athenex. Institution (Central European Cooperative Oncology Group): BMS, MSD, Pfizer, AstraZeneca, Servier, Eli Lilly GZ received speaker’s honoraria from Amgen and Ipsen. All other authors have declared no conflicts of interest.


Whistle-Blower: ‘Global Warming’ Data Manipulated Before Paris Conference

26,101 FRANCOIS GUILLOT/AFP/Getty

A high-level whistleblower at the National Oceanic and Atmospheric Administration (NOAA) has revealed that the organization published manipulated data in a major 2015 report on climate change in order to maximize impact on world leaders at the UN climate conference in Paris in 2015.

According to a report in The Mail on Sunday, NOAA scientist Dr. John Bates has produced “irrefutable evidence” that the NOAA study denying the “pause” in global warming in the period since 1998 was based on false and misleading data.

The NOAA study was published in June 2015 by the journal Ciência under the title “Possible artifacts of data biases in the recent global surface warming hiatus.”

Dr. Bates accused the lead author of the paper, Thomas Karl, of “insisting on decisions and scientific choices that maximized warming and minimized documentation.” Bates says that Karl did so “in an effort to discredit the notion of a global warming pause, rushed so that he could time publication to influence national and international deliberations on climate policy.”

Bates said that NOAA bypassed its own protocol, never subjecting the report to NOAA’s strict internal evaluation process. Rather, NOAA superiors rushed the study through in a “blatant attempt to intensify the impact” of the paper on the Paris meeting on climate change, he said.

The “Pausebuster” paper produced by NOAA in 2015 was based on two new sets of temperature data—one measuring land temperatures and the other sea temperatures—both of which turned out to be flawed.

According to reports, NOAA has now decided to replace the sea temperature dataset just 18 months after it was issued, because it used “unreliable methods which overstated the speed of warming.”

A reported increase in sea surface temperatures was due to upwards adjustments of readings from fixed and floating buoys to agree with water temperature measured by ships, according to Bates.

Bates said that NOAA had good data from buoys but then “they threw it out and ‘corrected’ it by using the bad data from ships. You never change good data to agree with bad, but that’s what they did – so as to make it look as if the sea was warmer.”

The land temperature dataset, on the other hand, was the victim of software bugs that rendered its conclusions “unstable,” Bates said.

Climate change skeptics have long insisted that scientists are susceptible to political and social pressures to produce the “right kind” of data to back up specific policy decisions.

Dr. Duane Thresher, a climate scientist with a PhD from Columbia University and NASA GISS, has pointed to a “publication and funding bias” as a key to understanding how scientific consensus can be manipulated.

Although scientists are held up as models of independent thinkers and unbiased seekers of truth, the reality is that they depend on funding even more than other professions, and will study what they are paid to study.

The Obama administration, which persistently denied that a climate debate even existed, channeled billions of federal dollars into programs and studies that supported its claims, while silencing contrary opinions.

Thomas Karl, the lead author on the Pausebuster paper, had a longstanding relationship with President Obama’s chief science adviser, John Holdren, giving him a “hotline to the White House.” Holdren was an ardent advocate of vigorous measures to curb emissions.

“In reality, it’s the government, not the scientists, that asks the questions,” said David Wojick, an expert on climate research spending and a longtime government consultant.

Federal agencies order up studies that focus on their concerns, so politics ends up guiding science according to its particular interests.

“Government actions have corrupted science, which has been flooded by money to produce politically correct results,” said Dr. William Happer, professor emeritus of physics at Princeton University and a member of the National Academy of Sciences.

“It is time for governments to finally admit the truth about global warming. Warming is not the problem. Government action is the problem,” he said.

NOAA, the world’s leading source of climate data, not only produced a severely flawed study for political motives, it also mounted a cover-up when challenged over its data.

Not long after the study’s publication, the US House of Representatives Science Committee initiated an inquiry into its claims that no pause in global warming had existed. NOAA refused to comply with subpoenas demanding internal emails and falsely claimed that no one had raised concerns about the paper internally.

President Donald Trump has pledged he will withdraw from the Paris Agreement that binds signer countries to a series of stringent measures to lessen emissions.


Assista o vídeo: Jak sie zabezpieczyc przed utrata danych (Agosto 2022).