27.fev.2019 às 8h00
O Pinterest, uma plataforma digital popular entre os pais e mães dos Estados Unidos, tomou uma providência incomum para reprimir a proliferação da propaganda contra vacinas: bloqueou sua caixa de buscas.
Se você digitar “vacina”, nada aparecerá. “Vacinação” ou “antivacina”? Nada tampouco.
O Pinterest, que permite que pessoas salvem imagens em painéis virtuais, é muitas vezes usado para encontrar receitas que interessem a crianças que fazem manha para comer, decorações para festas infantis ou dicas de moda, mas também se tornou uma plataforma para os ativistas que se opõem à vacinação e espalham desinformação sobre o assunto usando a mídia social.
O Pinterest é uma maneira especialmente efetiva de atingir pais e mães. De acordo com dados da ComScore referentes a 2017, 80% das mães e 38% dos pais dos Estados Unidos usam a plataforma. A empresa tem mais de 250 milhões de usuários ativos a cada mês, e deve abrir seu capital neste ano.
Outras plataformas, como o Facebook e o YouTube, também foram infiltradas por desinformação sobre vacinas e estão tomando medidas para combatê-la. Uma das regras do YouTube é bloquear a veiculação de anúncios em vídeos que se oponham à vacinação.
Mas apenas o Pinterest, como noticiou inicialmente o The Wall Street Journal, optou por banir resultados associados a certos termos de busca quanto a vacinas, mesmo que os resultados não conduzam a conteúdo enganoso.
“No momento, bloquear os resultados de busca é uma solução temporária para impedir que as pessoas encontrem desinformação nociva”, disse a porta-voz da empresa, Jamie Favazza. O Pinterest disse que estava trabalhando com especialistas para desenvolver uma abordagem mais seletiva, no longo prazo.
As mudanças, que não foram anunciadas publicamente, foram adotadas em setembro e outubro.
A oposição à vacinação remonta à introdução das primeiras vacinas, no século 18. Com o tempo, a maioria das pessoas passou a aceitá-las, e a incidência das doenças que podiam ser prevenidas por meio de seu uso caiu. A queda foi tão grande, de fato, que o sucesso das vacinas pode ter servido para amenizar a percepção de perigo associada a essas doenças.
A Organização Mundial da Saúde (OMS) classificou a “hesitação sobre vacinas” como uma das maiores ameaças à saúde mundial neste ano.
“Para mim, isso é espantoso”, disse Gregory Poland, diretor do grupo de pesquisa de vacinas na Mayo Clinic, em Rochester, Minneapolis. “E mostra a magnitude do problema”.
A despeito das provas claras de que as vacinas são efetivas e seguras, algumas pessoas ainda optam por não participar da vacinação ou por não permitir que seus filhos o façam, o que contribuiu para uma disparada nos casos de sarampo em todo o mundo. Nos Estados Unidos, houve pelo menos cinco surtos de sarampo este ano, e no mínimo 127 casos individuais.
A doença altamente contagiosa causa entre uma e duas mortes entre cada mil crianças contaminadas. No ano passado, o sarampo matou 72 adultos na região europeia, onde a incidência da doença atingiu sua marca mais alta em duas décadas. Embora mortes por sarampo sejam raras nos países desenvolvidos, a doença pode ter consequências severas e duradouras, como a perda da visão.
Há diversas razões para a hesitação quanto a vacinas: preocupação com efeitos colaterais, preço, objeções morais ou religiosas, temores quanto a uma suposta conexão com o autismo (já negada), e falta de conhecimento sobre imunizações.
“Estamos vendo toda espécie de desinformação circulando na mídia social”, disse Arthur Caplan, diretor da divisão de ética médica na escola de medicina da Universidade de Nova York, que escreve sobre política de vacinação e as questões éticas associadas a essa prática há 25 anos.
“Notícias falsas, ciência falsa, todo mundo se acha especialista”, disse ele.
Na semana passada, o deputado federal Adam Schiff, democrata da Califórnia e presidente do comitê de inteligência da Câmara dos Deputados, escreveu uma carta a Mark Zuckerberg, presidente-executivo do Facebook, perguntando que medidas a empresa estava tomando para impedir que informações antivacinação circulem entre seus usuários. Ele enviou carta semelhante a Sundar Pichai, presidente-executivo do Google, que controla o YouTube.
O YouTube anunciou que havia começado a encaminhar conteúdo mais rigoroso a pessoas que fazem buscas sobre questões relacionadas às vacinas, desde o final de 2017, e que as mudanças em seu algoritmo se tornariam mais precisas com o tempo.
O YouTube informou também que não permite a veiculação de publicidade em vídeos antivacinas.
“Temos normas rigorosas que regulam os vídeos nos quais permitimos a veiculação de publicidade, e vídeos que promovem conteúdo antivacinação violam essas normas”, declarou uma porta-voz do YouTube. “Aplicamos essas normas vigorosamente, e se encontrarmos um vídeo que as viole tomamos providências imediatas e removemos a publicidade”.
Uma análise conduzida pelo site Daily Beast sobre sete páginas do Facebook que promovem posts antivacinação constatou que 147 anúncios haviam sido adquiridos nessas páginas, e que eles haviam sido vistos milhões de vezes. A maior parte dos anúncios era direcionada a mulheres com idade superior a 25 anos, de acordo com a análise.
“Tomamos medidas para reduzir a distribuição de desinformação relacionada a questões de saúde, no Facebook, mas sabemos que há mais a fazer”, afirmou Andrea Vallone, porta-voz do Facebook, em comunicado. “No momento estamos trabalhando em mudanças adicionais, que serão anunciadas em breve”.
A empresa anunciou que estava estudando reduzir ou remover a presença desse tipo de conteúdo em suas recomendações, e rebaixar sua posição nos resultados de busca.
Poland, especialista em medicina interna que trabalha há 35 anos no campo das vacinas, disse que muitas vezes encontra pacientes que confiam na mídia social para suas pesquisas sobre questões de saúde.
“Explico aos pacientes em detalhe as respostas para suas perguntas, e eles me olham e dizem que ‘é, mas vi no Facebook que…'”, afirmou o médico, deixando a frase no ar. “Dá vontade de arrancar os cabelos”.
O Twitter afirmou que não tem normas específicas para conter a difusão de desinformação sobre vacinas, mas afirmou que suas operações em tempo real representam um “poderoso antídoto”.
“Não deveríamos ser árbitros da verdade”, como empresa, afirmou Katie Rosborough, porta-voz do Twitter, em comunicado na sexta-feira, acrescentando que sua companhia trabalhava para destacar antes de tudo o conteúdo mais relevante e de melhor qualidade.
Para todas essas empresas, conter a veiculação de desinformação, especialmente sobre uma questão emocionalmente carregada como as vacinas, será um desafio duradouro, enquanto elas tentam encontrar um equilíbrio entre o medo de censura e a necessidade de promover conteúdo útil, dizem especialistas.
“É uma bagunça, e resolver o problema não será fácil”, disse Poland.
O Instagram anunciou recentemente que deixaria de permitir imagens explícitas de automutilação, por exemplo fotos que mostrem “cutting” (cortes), em sua plataforma. A mudança parece ter surgido em resposta à atenção do público quanto à suposta influência da rede social sobre o suicídio de uma menina de 14 anos.
Em comunicado no qual explica a mudança, Adam Mosseri, que comanda o Instagram, fez uma distinção entre imagens explícitas de automutilação e imagens não explícitas, por exemplo fotos de cicatrizes curadas. Imagens desse segundo tipo serão permitidas, mas o Instagram agirá de forma a tornar mais difícil que sejam encontradas, removendo-as de resultados de buscas, hashtags e conteúdo recomendado.
O Facebook, que adquiriu o Instagram em 2012 e está aplicando as mesmas mudanças ao seu site, apontou em um comunicado separado que as mudanças eram resposta direta à história de Molly Russell, uma adolescente britânica que se suicidou em 2017.
Ian Russell, o pai de Molly, declarou publicamente nas últimas semanas que conteúdo relacionado a automutilação, depressão e suicídio encontrado no Instagram contribuiu para a morte de sua filha.
Russell declarou em entrevista à imprensa britânica que depois da morte de Molly descobriu que ela seguia contas que postavam mensagens “fatalistas” desse tipo.
“Ela tinha muito conteúdo desse tipo”, disse Russell à BBC. “Parte do conteúdo parecia bastante positivo. Talvez grupos de pessoas que estavam tentando se ajudar, encontrar maneiras de se manterem positivas”.
“Mas parte do conteúdo é chocante por encorajar a automutilação, e vincular automutilação a suicídio”, ele acrescentou.
Mosseri afirmou em seu comunicado que a empresa havia consultado especialistas em suicídio em todo o mundo, para tomar sua decisão. Ao fazê-lo, o Instagram concluiu que embora conteúdo explícito sobre automutilação pudesse promover a prática não intencionalmente, remover o conteúdo não explícito “poderia estigmatizar ou isolar pessoas que estão sofrendo”.
“Pode haver uma imagem de uma cicatriz com a legenda ‘há 30 dias não me corto’, e essa é uma maneira importante de contar a história”, ele disse, em entrevista à BBC. “Esse tipo de conteúdo pode continuar presente no site”.
A implementação das mudanças “demorará algum tempo”, ele disse.
Daniel Reidenberg, diretor executivo da Save.org, uma organização de prevenção do suicídio, disse que ajudou a aconselhar o Facebook sobre sua decisão, na última semana, e que aplaude a empresa por levar o problema a sério.
Reidenberg disse que porque a companhia agora estava fazendo uma distinção nuançada entre conteúdo explícito e não explícito, haveria necessidade de trabalho de fiscalização considerável para decidir que imagens passam dos limites. Porque o tópico é muito delicado, ele afirmou, é pouco provável que a inteligência artificial baste para a tarefa.
“Imagine o caso de uma pessoa que tenha 150 cicatrizes curadas —isso ainda é bem explícito”, disse Reidenberg em entrevista. “Precisamos de seres humanos para tomar essas decisões”.
No comunicado do Instagram, Mosseri disse que o site continuaria a consultar especialistas sobre outras estratégias para minimizar os efeitos potencialmente nocivos desse tipo de conteúdo, o que inclui o uso de uma “tela de sensibilidade” que distorceria imagens não explícitas associadas à automutilação.
Ele disse que o Instagram também estava explorando maneiras de conduzir usuários que estejam realizando buscas e fazendo posts sobre automutilação a organizações capazes de lhes oferecer assistência.
Não é a primeira vez que o Facebook tem de tentar definir qual é a maneira correta de tratar ameaças de suicídio no site. No começo de 2017, diversas pessoas transmitiram tentativas de suicídio em streamings de vídeo pelo Facebook, o que levou a rede social a acelerar seu programa de prevenção do suicídio. Mais recentemente, o Facebook vem usando algoritmos e alertas enviadas por usuários para informar agências de polícia locais sobre possíveis ameaças de suicídio.
April Foreman, psicóloga e integrante do conselho da Associação Americana de Prevenção do Suicídio, disse em entrevista que não havia muitas pesquisas que indicassem que banir imagens explícitas de automutilação fosse uma forma efetiva de reduzir o risco de suicídio.
O suicídio é a segunda maior causa de morte entre as pessoas de 15 a 29 anos, em todo o mundo, de acordo com a Organização Mundial da Saúde (OMS). E era problema entre os jovens mesmo antes da ascensão da mídia social, disse Foreman.
Embora ela aprecie o trabalho do Facebook na área, disse que a decisão da empresa parecia ser uma tentativa de oferecer uma resposta simples em meio a um “pânico moral” quanto à contribuição da mídia social para o suicídio de jovens.
“Estamos fazendo coisas que parecem boas, que causam uma sensação boa, em lugar de fazermos coisas efetivas”, ela disse. “É mais fácil declarar alguma coisa sobre o suicídio do que fazer alguma coisa que ajude a reduzir os números”.