12-02-2019

Facebook contra suicídios 

Nos últimos anos, o Facebook tem intensificado esforços na prevenção do suicídio. Porém, a tentativa da gigante da tecnologia trouxe, como consequência, uma série de questões relativas à ética médica, consentimento informado, e privacidade. 

Na prática, a rede social introduziu um algoritmo (conjunto de procedimentos lógicos pré-definidos, que levam à solução de um problema em um número finito de etapas), com o objetivo de reconhecer mensagens capazes de sinalizar o risco de um usuário tirar a própria vida, permitindo ainda que amigos on line sinalizem as mensagens. 

Quando identificadas como possível "risco iminente", a equipe do Facebook revisa essas postagens e contata as autoridades locais. Apenas nos EUA, equipes de saúde foram encaminhadas a “verificações de bem-estar” em mais de 3.500 vezes. 

Danos? 

Tal algoritmo está sendo usado desde 2017. Porém, há quem duvide de sua utilidade e segurança. Como John Torous, diretor da divisão de psiquiatria digital do Beth Israel Deaconess Medical Center (BIDMC), em Boston, EUA. “Não temos dados sobre o quão bem isso funciona. É seguro? Causa danos?”. 

Ele e outros especialistas reconheceram que os esforços do Facebook eventualmente conseguem conectar as pessoas com a ajuda necessária. Porém, sem os dados resultantes, os benefícios não são claros. Além disso, a rede social está fazendo algo que pode ser considerado “pesquisa médica” e admitindo usuários como “participantes de estudo”, sem consentimento informado, nem dar garantias de proteção sobre as informações obtidas. 

“Abordagens inovadoras são importantes. Mas só porque as pessoas são suicidas, estão tristes e deprimidas, enfim, em crise, não significa que não mereçam direitos” disse Torous, coautor de um novo artigo sobre os esforços de prevenção do suicídio do Facebook, publicado em 11 de fevereiro em Annals of Internal Medicine (veja abstract). 

“O fato de ser inovador, de ser novidade, prova que o que está acontecendo é essencialmente pesquisa", argumenta, considerando que a rede extrapola seu papel, ao avaliar informações, e tomar decisões sobre o estado mental de alguém, e ativar o socorro em saúde para intervir. 

Na visão de Antigone Davis, chefe global de segurança do Facebook, a rede ocupa uma posição única, no sentido de propiciar que os amigos on line de alguém percebam os riscos de morte e ofereçam suporte. Emily Cain, porta-voz da rede, acrescenta: o algoritmo não está compilando dados de saúde.  “A tecnologia não mede o risco total de suicídio para um indivíduo, nem nada sobre a saúde mental deste".

Já Mason Marks, especialista em direito da saúde e membro visitante da Escola de Direito de Yale, que escreveu extensamente sobre os esforços de prevenção do suicídio do Facebook, considera que “essa triagem ao suicidio nunca foi feita de verdade”. Para ele, a rede não está aderindo a nenhuma das etapas padrão para conduzir pesquisas, como publicar seus dados para revisão por pares.

Fontes: Bioethics.com e site Start 


Esta página teve 41 acessos.

(11) 4349-9983
cbio@cremesp.org.br
Twitter twitter.com/CBioetica

Rua Frei Caneca, 1282 - Consolação - São Paulo/SP - CEP: 01307-002

CENTRAL DE ATENDIMENTO TELEFÔNICO - (11) 4349-9900 das 8h às 20h

HORÁRIO DE EXPEDIENTE - das 9h às 18h