O Instagram anunciou que passará a ter mecanismos para
restringir imagens que estimulem a autoflagelação e o suicídio. Imagens
de pessoas se machucando, como atos de cortar partes de corpo, serão
proibidas na rede social.
As medidas foram uma reação à morte de uma adolescente
de 14 anos no Reino Unido, no mês passado. Após o suicídio, o caso gerou
questionamentos sobre o papel do Instagram, pela presença no perfil da
moça de conteúdos mostrando formas de autoflagelação e relacionados ao
suicídio. O pai da jovem, em entrevista a veículos de mídia,
responsabilizou diretamente a plataforma.
Além disso, outros conteúdos relacionados a essas
práticas, inclusive textos, não serão disponibilizadas nas buscas. Essas
mensagens, contudo, não serão removidas das redes sociais. O Instagram
justificou que a publicação de mensagens nesse sentido pode ter um papel
de expressão em pessoas que estejam convivendo com sofrimento e
sentimentos como esses.
Antes, a plataforma já proibia conteúdos que
promovessem essas práticas. Mas permitia mensagens relacionadas à
admissão delas (como uma pessoa relatando um desejo ou uma tentativa),
como forma de alertar amigos e familiares para reagir e prestar apoio.
Orientações de especialistas
Segundo o Facebook, empresa controladora do Instagram,
as mudanças foram formuladas a partir do diálogo com especialistas no
tema, de diferentes países. Eles teriam indicado o efeito negativo da
circulação de imagens de práticas de autoflagelação, como cortes. Elas
“podem ter um potencial de promover não intencionalmente a
autoflagelação, mesmo quando são compartilhadas no contexto da admissão
da prática ou no caminho para uma recuperação”, explicou o diretor
global de Segurança do Facebook, Antigone Davis.
Ele acrescentou que a equipe das plataformas ainda
avalia como tratar imagens de cicatrizes. Segundo o diretor, os
especialistas consultados indicaram ainda polêmicas nos estudos
acadêmicos sobre os efeitos desse tipo de imagem em pessoas suscetíveis a
cometer algum ato relacionado à prática.
As duas redes sociais, completou Davis, continuarão
fornecendo recursos para dar apoio em situações de sofrimento, como a
disponibilização, de forma acessível., de “linhas de ajuda” a pessoas
nas plataformas.
Transparência
Na avaliação da pesquisadora de proteção de dados
Marina Pita, do Instituto Alana, decisões como essa mostram a
importância da transparência por parte das plataformas no que se refere
às remoções de conteúdos e aos critérios usados nessas medidas. A
cobrança por critérios mais claros das redes sociais vêm sendo uma
demanda não somente no Brasil, como em outros países.
Além disso, acrescentou Pita, há a necessidade de
discutir a lógica de funcionamento dos algoritmos de curadoria dos
conteúdos mostrados aos usuários. Isso porque ao identificar uma
vulnerabilidade ou condição psicológica de uma pessoa, especialmente
adolescentes, o sistema passa a privilegiar conteúdos relacionados. “A
plataforma, a partir da visualização de um conteúdo, identifica que
aquele adolescente tem interesse naquele tipo de imagem e vai reforçar
isso”, alerta a pesquisadora.
Isso ocorre, completou, em casos em que muitas vezes os
usuários das redes sociais não têm consciência dessa forma de
funcionamento. Por isso, é importante discutir de forma transparente não
somente medidas como a anunciada, mas a própria dinâmica de segmentação
dos usuários e de veiculação de publicidade a partir dela, que pode ter
efeitos prejudiciais sobre os internautas.
(O Povo)



