Segundo a plataforma, conteúdos que promovam tratamentos ineficazes, questionem vacinas aprovadas e neguem a existência de problemas de saúde, como a Covid-19, serão retirados do ar

O YouTube, rede social de vídeos do Google, anunciou nesta semana uma atualização de suas políticas sobre conteúdos de saúde. Segundo as novas regras, a plataforma diz que passará a remover publicações que promovam desinformação sobre o tema, como por meio da divulgação de tratamentos comprovadamente ineficazes e que vão na contramão de autoridades como a Organização Mundial da Saúde (OMS).

“Nosso objetivo é garantir que, quando se trata de áreas de consenso científico bem estudadas, o YouTube não seja uma plataforma para distribuição de informações que possam prejudicar as pessoas”, diz a plataforma em comunicado. A rede afirma que, na prática, simplificará dezenas de diretrizes para que se enquadrem em três principais categorias: prevenção, tratamento e negacionismo.

Em relação à primeira, diz que removerá vídeos que contradizem as orientações oficiais sobre como se proteger e evitar a transmissão de doenças, além de publicações que questionam a segurança e eficácia de vacinas aprovadas pelos órgãos reguladores.

Na área de tratamentos, conteúdos que promovam terapias em desacordo com as recomendações de autoridades, incluindo substâncias e práticas que podem trazer riscos ao paciente, serão retirados.

“Exemplos incluem conteúdo que incentiva remédios não comprovados em vez de procurar atendimento médico para condições específicas, como promover o cloreto de césio como tratamento para o câncer”, cita a rede.

Por fim, na categoria de negacionismo, a plataforma menciona que os alvos serão vídeos que contestam a própria existência de questões de saúde, como, por exemplo, publicações que negam a pandemia e que alegam não haver mortos pela Covid-19.

— Essas medidas de retirada de conteúdo com desinformação são fundamentais porque as pessoas utilizam, principalmente o YouTube no Brasil, para consumir diversos tipos de informação, inclusive sobre saúde. Lá existem informações legítimas, que ajudam as pessoas, mas também mentirosas, negacionistas, com tratamentos milagrosos. 

E fica difícil diferenciar um conteúdo do outro, porque os usuários não são especialistas — afirma a pesquisadora Rose Marie Santini, diretora do Laboratório de Estudos de Internet e Redes Sociais da Universidade Federal do Rio de Janeiro (NetLab-UFRJ).

Desafios para implementação

O Youtube, no entanto, diz que as diretrizes não serão destinadas a todos os conteúdos, mas sim a doenças, tratamentos e substâncias específicas, selecionadas pela plataforma com base na associação a um risco para a saúde pública, às orientações disponíveis pelas autoridades e a ser mais propenso, ou não, à desinformação.

Um exemplo citado pela rede é o tratamento contra o câncer, que se enquadra nas novas regras: “o risco à saúde pública é alto, pois o câncer é uma das principais causas de morte em todo o mundo, há um consenso estável sobre tratamentos seguros por parte das autoridades de saúde locais e globais e é um tópico sujeito a desinformação”, explica.

Por isso, já a partir desta semana, a rede diz que começará a remover conteúdos que promovam terapias ineficazes e potencialmente danosas e vídeos que desencorajem os usuários a procurar atendimento médico especializado. “Por exemplo, um vídeo que afirma “alho cura o câncer” ou “tome vitamina C em vez de radioterapia” seria removido”.

Para outras questões ligadas à saúde, porém, dependerá da avaliação prévia da plataforma. Além disso, Marie Santini cita que o grande volume de vídeos que circulam na rede com desinformação é um desafio para a implementação das diretrizes na prática.

— A quantidade de publicações no YouTube com informações falsas é gigantesca. Implementar uma política dessas com seriedade seria uma comprovação de que as plataformas de fato conseguem moderar conteúdos com muita eficiência, mas até agora não vimos esse tipo de investimento pelas empresas. Mas seria muito desejável socialmente que acontecesse — diz.

Em relação à experiência com o YouTube, ela afirma que diversos monitoramentos de pesquisadores que trabalham com desinformação nas redes, incluindo os realizados pelo próprio NetLab, já mostraram falhas no cumprimento de outras diretrizes.

— Nossa experiência é que o YouTube cria termos de uso, políticas de moderação, mas tem uma dificuldade enorme de fazer essa moderação principalmente quando a língua falada não é o inglês. Isso aconteceu no ano passado, em que houve um compromisso público da rede sobre conteúdos de desinformação durante as eleições, mas não vimos elas sendo aplicadas. Então ou as pessoas conseguem ultrapassar com muita facilidade as políticas, ou eles não investem nesse monitoramento — continua.

Regras abrem exceções

Em comunicado, o YouTube pondera ainda que as novas políticas da rede abrem algumas exceções, como vídeos que configurem “interesse público” devido ao contexto “educacional, documental, científico e artístico”.

“Isso significa que podemos permitir que conteúdo que seja suficientemente de interesse público permaneça no YouTube, mesmo que viole nossas políticas – por exemplo, um vídeo de uma audiência pública ou comentários feitos por candidatos políticos nacionais na campanha eleitoral que contestam a orientação da autoridade de saúde”, diz a rede.

Ela cita ainda que testemunhos pessoais ou conteúdos que discutam resultados de um estudo médico específico como exemplos que podem ser mantidos online. Mas destaca que podem “limitar a idade de alguns conteúdos ou exibir um painel de informações abaixo desses vídeos para fornecer contexto adicional aos espectadores”.


Fonte: O GLOBO