Resumo:
Pesquisadores estão desenvolvendo aplicativos de smartphone baseados em IA para detectar sinais de depressão de forma não invasiva. Um sistema, o PupilSense, monitora os reflexos pupilares para identificar potenciais episódios depressivos com 76% de precisão. Outra ferramenta, o FacePsy, analisa expressões faciais e movimentos de cabeça para detectar mudanças sutis de humor, com descobertas inesperadas, como aumento de sorrisos potencialmente ligados à depressão. Essas ferramentas oferecem uma maneira acessível e de proteção à privacidade de identificar a depressão precocemente, aproveitando o uso diário do smartphone.
A saúde mental envolve o bem-estar emocional, psicológico e social, afetando como pensamos, sentimos e agimos. Problemas de saúde mental, como a depressão e a ansiedade, são uma das principais causas de incapacidade no mundo, afetando milhões de pessoas. Muitas vezes, esses problemas começam no início da vida adulta, e se não forem tratados, podem prejudicar o desempenho escolar, o trabalho e os relacionamentos.
Durante a pandemia de COVID-19, o distanciamento social fez com que muitos buscassem ajuda para a saúde mental online, como a telepsiquiatria. Em 2020, os níveis de ansiedade e depressão atingiram um pico, mas começaram a cair em 2021. Apesar disso, muitos ainda sofrem com esses problemas de saúde mental e dor crônica.
Estudos sugerem que a depressão pode ser identificada por sinais não verbais, como expressões faciais e movimentos da cabeça. Um novo sistema, chamado FacePsy, tenta usar smartphones para detectar esses sinais automaticamente, sem invadir a privacidade dos usuários.
Ele coleta informações como o estado dos olhos (abertos ou fechados), sorrisos e a posição da cabeça para prever episódios de depressão. Embora promissor, o sistema ainda está sendo testado para garantir que funcione bem em situações da vida real, vamos dar mais detalhes logo a frente.
Em geral, esses estudos mostram que pessoas deprimidas tendem a exibir menos expressões faciais felizes e menos movimento de cabeça, com uma expressividade facial reduzida. Especificamente, é comum que pacientes com depressão demonstrem menos sinais de felicidade e menos movimentos faciais no geral. Além disso, outros estudos indicam que essas pessoas apresentam respostas pupilares mais fracas.
No entanto, a relação entre a depressão e expressões faciais negativas ainda é objeto de debate. Enquanto alguns estudos associam a depressão com um aumento de expressões faciais negativas, outros sugerem que, em certos casos, indivíduos deprimidos podem até exibir expressões positivas com mais frequência.
Para estudar essas variações, a análise de expressões faciais através de tecnologia de computação afetiva tem sido uma abordagem promissora. Pesquisadores têm utilizado sinais não verbais, como unidades de ação facial (AUs) e técnicas de modelagem facial para detectar padrões associados à depressão.
Por exemplo, expressões como a "covinha" (AU14) e o abaixamento do canto do lábio (AU15) têm sido úteis para prever níveis de gravidade da depressão em estudos controlados. Mais recentemente, há o uso de algoritmos e sensores de câmeras móveis para capturar e analisar as expressões faciais e pupilas, como no estudo do MoodCapture, que coleta imagens faciais automaticamente para prever níveis de depressão.
Essas abordagens ainda levantam questões sobre privacidade, já que a maioria dos sistemas processa dados em servidores externos. O estudo mais recente propõe uma solução onde todo o processamento ocorre no próprio dispositivo do usuário, garantindo mais segurança e privacidade.
Essas pesquisas abrem caminhos para ferramentas automatizadas capazes de prever depressão através de expressões faciais, mas a implementação em ambientes não controlados e o respeito à privacidade continuam sendo grandes desafios. Os avanços na detecção de depressão por meio de dispositivos móveis, com foco em sistemas que monitoram sinais comportamentais e fisiológicos.
Exemplos de pesquisas incluem Chikersal et al., que usaram a estrutura AWARE para rastrear dados de smartphones e dispositivos vestíveis, alcançando mais de 85% de precisão na detecção de depressão em estudantes. Asare et al. também utilizaram essa estrutura para monitorar dados de sono, atividade física e uso de telefone, resultando em uma precisão de 81,43%. No entanto, essas abordagens, embora eficazes, ainda enfrentam limitações na implementação de intervenções em tempo real devido à complexidade dos processos de dados.
Outro estudo relevante é o de Pedrelli et al., que combinaram dados de rastreadores vestíveis e smartphones para monitorar mudanças fisiológicas, como frequência cardíaca e temperatura da pele, com o objetivo de detectar depressão. No entanto, o uso de dispositivos como o Empatica E4, que custa cerca de US$ 1.690, torna essas soluções caras e invasivas, resultando em baixa adesão dos participantes.
As soluções atuais baseadas em dispositivos móveis focam principalmente nos aspectos comportamentais da depressão, mas têm dificuldade em capturar sinais fisiológicos ricos em detalhes emocionais. Embora estudos em laboratórios tenham mostrado potencial na detecção de depressão por meio de sinais fisiológicos e emocionais, ainda falta uma implementação eficaz no mundo real.
O FacePsy, um sistema proposto no artigo publicado na ACM Journal por pesquisadores da Stevens Institute of Technology, com o protótipo apresentado na Conferência Internacional sobre Computação de Atividade e Comportamento no Japão e também na Conferência Internacional da ACM sobre Interação Humano-Computador Móvel (MobileHCI) na Austrália, visa superar essas limitações ao detectar sinais faciais passivamente durante o uso cotidiano de smartphones. Ele oferece uma solução de código aberto, com processamento local no dispositivo, buscando modularidade para facilitar a colaboração e a evolução da ferramenta.
A coleta de dados acontece de forma discreta, quando o usuário desbloqueia o telefone ou usa aplicativos, permitindo uma análise contínua do estado emocional e mental, em tempo quase real.
O FacePsy foi projetado para capturar primitivas de comportamento facial em tempo real enquanto os usuários interagem com seus smartphones. O aplicativo opera com uma taxa de resposta de 2,5 Hz, balanceando eficiência e consumo de energia. Ele utiliza a câmera frontal para capturar imagens faciais durante interações específicas, como desbloqueio do dispositivo e uso de aplicativos.
A arquitetura do FacePsy incorpora tecnologias avançadas, como a detecção de marcos faciais e unidades de ação facial (AUs), sendo todas processadas localmente no dispositivo. Isso protege a privacidade dos usuários e reduz a necessidade de transmissão de dados sensíveis.
O sistema calcula com precisão os diâmetros das pupilas, em comparação com as íris ao redor dos olhos, a partir de fluxos de fotos "burst" de 10 segundos capturados enquanto os usuários estão abrindo seus telefones ou acessando certas mídias sociais e outros aplicativos.
Exemplo do teste de imagem na captura de características faciais e diâmetro de pupila
Em um teste inicial do sistema com 25 voluntários ao longo de um período de quatro semanas, o sistema — incorporado aos smartphones desses voluntários — analisou aproximadamente 16.000 interações com telefones depois que os dados de imagem da pupila foram coletados. Depois de ensinar uma IA a diferenciar entre respostas "normais" e anormais, Bae e Islam, os autores do artigo, processaram os dados da foto e os compararam com os humores relatados pelos voluntários.
A melhor iteração do PupilSense — conhecida como TSF, que usa apenas pontos de dados selecionados e de alta qualidade — provou ser 76% precisa em momentos de sinalização quando as pessoas realmente se sentiam deprimidas. Isso é melhor do que o melhor sistema baseado em smartphone atualmente sendo desenvolvido e testado para detecção de depressão, uma plataforma conhecida como AWARE.
Características principais do FacePsy:
Captura de dados facial em tempo real: O sistema é configurável para amostrar dados faciais durante interações específicas, como o desbloqueio do telefone ou o uso de aplicativos.
Processamento no dispositivo: Todo o processamento de dados faciais é realizado localmente, garantindo que nenhuma imagem saia do dispositivo, promovendo a privacidade e a eficiência de energia.
Coleta de dados discreta e eficiente: O sistema grava a uma taxa de 2,5 Hz, com sessões de 10 segundos, o que otimiza a coleta de dados sem sobrecarregar o dispositivo.
Flexibilidade para pesquisadores: O FacePsy permite que os pesquisadores configurem parâmetros de coleta de dados, como gatilhos e taxas de amostragem, adequando o sistema às necessidades de cada estudo.
O modelo de previsão de episódios depressivos que atinge 81% de AUROC.
“Não sabíamos exatamente quais gestos faciais ou movimentos oculares corresponderiam à depressão auto-relatada quando começamos”, explica Bae. “Alguns deles eram esperados, e alguns deles foram surpreendentes.”
Visão geral de como o FacePsy funciona
O aumento do sorriso, por exemplo, pareceu no estudo piloto correlacionar-se não com a felicidade, mas com sinais potenciais de um humor e afeto depressivos. Isso pode ser um mecanismo de enfrentamento, por exemplo, pessoas colocando uma ‘cara corajosa’ para si mesmas e para os outros quando estão realmente se sentindo para baixo, diz Bae. “Ou pode ser um artefato do estudo. Mais pesquisas são necessárias.”
Outros sinais aparentes de depressão revelados nos primeiros dados incluíram menos movimentos faciais durante as horas da manhã e certos padrões muito específicos de movimento dos olhos e da cabeça. (Movimentos de guinada ou de um lado para o outro da cabeça durante a manhã pareciam estar fortemente ligados ao aumento dos sintomas depressivos, por exemplo.)
Curiosamente, uma maior detecção dos olhos mais abertos durante a manhã e a noite também foi associada à depressão potencial — sugerindo que expressões externas de alerta ou felicidade podem às vezes mascarar sentimentos depressivos por baixo.
"Outros sistemas que usam IA para detectar depressão exigem o uso de um dispositivo, ou mesmo vários dispositivos", conclui Bae. "Achamos que este estudo piloto do FacePsy é um ótimo primeiro passo em direção a uma ferramenta de diagnóstico compacta, barata e fácil de usar.
LEIA MAIS;
FacePsy: An Open-Source Affective Mobile Sensing System - Analyzing Facial Behavior and Head Gesture for Depression Detection in Naturalistic Settings
Rahul Islam and Sang Won Bae
Proceedings of the ACM on Human-Computer Interaction doi.org/10.1145/3676505
Abstract:
Depression, a prevalent and complex mental health issue affecting millions worldwide, presents significant challenges for detection and monitoring. While facial expressions have shown promise in laboratory settings for identifying depression, their potential in real-world applications remains largely unexplored due to the difficulties in developing efficient mobile systems. In this study, we aim to introduce FacePsy, an open-source mobile sensing system designed to capture affective inferences by analyzing sophisticated features and generating real-time data on facial behavior landmarks, eye movements, and head gestures - all within the naturalistic context of smartphone usage with 25 participants. Through rigorous development, testing, and optimization, we identified eye-open states, head gestures, smile expressions, and specific Action Units (2, 6, 7, 12, 15, and 17) as significant indicators of depressive episodes (AUROC=81%). Our regression model predicting PHQ-9 scores achieved moderate accuracy, with a Mean Absolute Error of 3.08. Our findings offer valuable insights and implications for enhancing deployable and usable mobile affective sensing systems, ultimately improving mental health monitoring, prediction, and just-in-time adaptive interventions for researchers and developers in healthcare.
Comments