Voltar ao Blog

Chatbot de IA é treinado para apoiar saúde de mulheres em comunidades vulneráveis

Por Equipe editorial GeraDocumentos · 2026-04-01

Chatbot de IA é treinado para apoiar saúde de mulheres em comunidades vulneráveis

Conheça o chatbot JUN: IA para saúde digital, triagem de crises e apoio a mulheres vulneráveis. Veja como funciona e seus resultados.

A aplicação de inteligência artificial em saúde digital vem ganhando espaço em diferentes frentes, mas ainda enfrenta desafios importantes quando o objetivo é atender populações historicamente desassistidas. Um estudo publicado na JMIR AI descreve uma abordagem metodológica para treinar um chatbot chamado JUN, criado para apoiar a gestão de saúde e segurança de mulheres em idade fértil que vivem sob supervisão comunitária, como liberdade condicional. A proposta combina saúde móvel, modelagem de linguagem e escuta de usuárias para construir uma ferramenta com respostas mais contextualizadas e sensíveis às necessidades desse público.

O trabalho parte de um problema conhecido no sistema de saúde dos Estados Unidos: as desigualdades maternas e de acesso a cuidados permanecem elevadas, especialmente entre mulheres afetadas pelo sistema criminal legal. Nesse grupo, barreiras como transporte limitado, falta de tempo, cobertura de seguro insuficiente, estigma e dificuldade para acessar serviços de saúde dificultam o acompanhamento contínuo. A pesquisa observa que, nesse cenário, aplicativos móveis com chatbots de IA podem oferecer uma alternativa de apoio mais acessível, discreta e contínua.

Um chatbot para necessidades complexas de saúde

JUN foi concebido como um aplicativo de saúde móvel, ou mHealth, sigla usada para descrever soluções digitais em smartphones voltadas ao acompanhamento de saúde, orientação e monitoramento de sintomas. A ideia central é usar um chatbot de IA para fornecer suporte em temas de saúde, segurança e questões sociais, especialmente em momentos em que o atendimento tradicional pode ser difícil de acessar. O projeto foi desenvolvido em etapas, com base em estudos preliminares, entrevistas e testes com mulheres que viviam experiências relacionadas à supervisão comunitária.

O artigo descreve que a construção do chatbot não foi feita por simples ajuste de respostas automáticas. Em vez disso, os pesquisadores adotaram um processo estruturado, guiado pelo framework Information Systems Research, conhecido pela sigla ISR. Esse modelo organiza o desenvolvimento em três ciclos: relevância, design e rigor. Na prática, isso significa observar o contexto real do usuário, projetar a solução com base nesses dados e, depois, testar sua eficácia, segurança e utilidade.

Na fase de relevância, a equipe realizou estudos qualitativos e uma revisão de literatura para entender as experiências, necessidades e barreiras enfrentadas por mulheres em idade fértil com histórico de envolvimento com o sistema criminal legal. Na fase de design, criou o protótipo do aplicativo e suas funcionalidades. Na fase de rigor, avaliou o desempenho do chatbot, incluindo capacidade de identificar situações de crise e adequação das respostas em diferentes cenários.

O que é recuperação aumentada e por que ela importa

Um dos pontos técnicos mais importantes do estudo é o uso de retrieval-augmented generation, ou geração aumentada por recuperação. Esse tipo de arquitetura combina duas etapas. Primeiro, o sistema procura exemplos relevantes em uma base de dados preparada previamente. Depois, esses exemplos são inseridos no contexto do modelo de linguagem para orientar a resposta gerada. Em vez de depender apenas do conhecimento geral do modelo, o chatbot passa a responder com base em padrões mais próximos da realidade do público-alvo.

Essa abordagem foi complementada por dynamic few-shot prompting, técnica em que poucos exemplos são recuperados dinamicamente e usados como referência para orientar a saída do modelo. No caso de JUN, a base de recuperação reuniu 5738 enunciados únicos em linguagem natural, organizados em 29 domínios ligados à vida e à saúde das usuárias. O conjunto inclui temas como saúde mental, violência, criminal legal system, cuidado com filhos, gravidez, nutrição e relações familiares.

O artigo também informa que foram produzidas 5280 frases em linguagem natural ao longo de duas sessões de treinamento, elaboradas por seis pessoas com perfis variados e com apoio de especialistas. As frases foram criadas para refletir uma comunicação mais parecida com mensagens de texto, incluindo linguagem cotidiana, abreviações, variações gramaticais e expressões culturalmente situadas. Isso é relevante porque chatbots de saúde frequentemente falham quando operam com respostas genéricas demais ou pouco próximas da forma como as pessoas realmente se comunicam.

Funcionalidades pensadas para uso prático

Além do chat principal, JUN inclui outras funções voltadas ao cotidiano das usuárias. Entre elas estão um recurso de segurança com chamadas e mensagens falsas para ajudar a sair de situações de risco, uma biblioteca educacional com conteúdo baseado em evidências, um diário de sintomas com acompanhamento e tendência de respostas, um chat anônimo entre usuárias e uma seção de recursos com recomendações personalizadas. O aplicativo também foi disponibilizado em oito idiomas usados nos Estados Unidos e permite personalização do avatar.

Essas funcionalidades ajudam a mostrar como a IA, neste caso, não foi aplicada apenas como interface conversacional. O sistema foi desenhado para apoiar diferentes dimensões da experiência de saúde: educação, triagem, rastreamento de sintomas, proteção em emergências e conexão com recursos externos. Em saúde digital, esse tipo de integração costuma ser importante porque o usuário não busca apenas informação, mas também orientação sobre o que fazer a seguir.

O estudo destaca ainda que o aplicativo foi construído com atenção à experiência do usuário. O nome JUN faz referência à junonia shell, uma concha nativa do sul do Texas associada a coragem, força e autossuficiência. A identidade visual, por sua vez, foi pensada para ser inclusiva e discreta, com cores e imagens selecionadas em colaboração com profissionais de design e arte. Em aplicações voltadas à saúde, esse tipo de cuidado importa porque afeta aceitação, confiança e adesão.

Resultados do teste e desempenho em crises

Uma das partes mais sensíveis da pesquisa foi a avaliação da capacidade do chatbot em detectar crises. O sistema foi testado com 178 enunciados, dos quais 104 eram exemplos de crise e 74 de não crise. O desempenho geral alcançou 89% de acurácia. Em termos práticos, isso indica que o sistema teve bom desempenho ao diferenciar mensagens de risco de interações comuns, embora ainda haja espaço para ajustes, sobretudo em casos ambíguos.

O artigo informa precisão de 0,98 para a categoria crise, o que sugere baixa taxa de alarmes falsos. Já o recall para crise foi de 0,83, mostrando que a maior parte das situações graves foi identificada, mas algumas manifestações menos explícitas ainda podem exigir refinamento. Em aplicações de saúde mental e segurança, esse equilíbrio é crítico: um sistema muito permissivo pode deixar riscos passarem, enquanto um sistema excessivamente sensível pode gerar alertas indevidos.

O estudo também relata que, nas entrevistas com usuárias, o chatbot mostrou utilidade maior em situações do dia a dia, especialmente à noite, quando o acesso a apoio pode ser mais limitado. As participantes valorizaram recursos como chat anônimo e maior acessibilidade do aplicativo em lojas de app. Outro achado foi que a responsabilidade de cuidado, seja com filhos ou com a própria gestação, apareceu como um fator de motivação para usar tecnologia na gestão da saúde.

Impactos para saúde digital e populações vulneráveis

O principal impacto do estudo está menos em uma solução pronta e mais na metodologia apresentada. O artigo defende que desenvolver chatbots de saúde para populações vulneráveis exige colaboração interdisciplinar, dados contextualizados e revisão cuidadosa de segurança, privacidade e linguagem. Em vez de adaptar uma ferramenta genérica para um público específico, a pesquisa mostra o caminho inverso: começar pelo contexto social e construir a tecnologia a partir dele.

Isso tem implicações para empresas de tecnologia, pesquisadores e instituições de saúde. Para equipes de desenvolvimento, a mensagem é clara: um chatbot de saúde não pode ser apenas um modelo de linguagem com interface amigável. Ele precisa ser treinado com dados representativos, testado em situações de risco, ligado a mecanismos de fallback e acompanhado por protocolos éticos e clínicos. Para o setor de saúde, o estudo sugere uma via complementar de atendimento, especialmente onde o acesso presencial é instável ou insuficiente.

Há também um ponto importante sobre escalabilidade. O trabalho aponta desafios de custo, manutenção, financiamento e parceria com empresas para manter o aplicativo além do ambiente acadêmico. Isso é comum em projetos de saúde digital: transformar uma prova de conceito em solução sustentável costuma exigir mais do que aprovação técnica. É necessário apoio institucional, governança de dados, conformidade regulatória e infraestrutura para atualização contínua.

Privacidade, ética e limites da automação

Como se trata de um aplicativo voltado a saúde e segurança, a questão ética ocupa espaço central no estudo. Os autores afirmam que o chatbot não substitui atendimento médico nem faz diagnóstico. Quando identifica sinais críticos de risco, o sistema aciona protocolos de emergência e notifica a equipe responsável. O artigo também descreve proteções adicionais para dados privados, incluindo acesso restrito e uma etapa extra de autenticação para o diário de sintomas.

Esse cuidado reflete um desafio crescente na inteligência artificial aplicada à saúde: quanto maior a autonomia do sistema, maior a necessidade de limites claros. Em populações mais expostas a violência, insegurança habitacional e instabilidade econômica, uma resposta inadequada pode ter impacto real. Por isso, o estudo dá importância especial aos mecanismos de fallback, que evitam respostas improvisadas quando a confiança do modelo é baixa.

O trabalho ainda reconhece limitações relevantes. A pesquisa foi conduzida em uma região específica do sul do Texas, com predominância de população hispânica, o que reduz a generalização imediata dos resultados. Além disso, os dados de treinamento, embora substantivos, ainda são relativamente pequenos para padrões de grandes modelos. Os autores também ressaltam a necessidade de estudos maiores, controlados e de longo prazo para confirmar a efetividade da solução.

Síntese do avanço apresentado

O estudo sobre JUN mostra como a inteligência artificial pode ser integrada a aplicativos móveis de saúde de forma mais cuidadosa e contextualizada. Em vez de apostar apenas na automação, a pesquisa combina escuta de usuárias, metodologia de design, avaliação de risco e arquitetura baseada em recuperação de conhecimento. O resultado é um modelo de desenvolvimento que tenta equilibrar utilidade, segurança, privacidade e relevância cultural.

Para o ecossistema de tecnologia e saúde digital, a principal lição é que chatbots voltados a públicos vulneráveis precisam ser construídos com rigor metodológico e sensibilidade social. O trabalho indica que a IA pode ampliar o acesso à orientação em saúde, mas só produz bons resultados quando é tratada como parte de um sistema maior, com governança, validação e foco no contexto humano. Nesse sentido, JUN funciona menos como produto acabado e mais como demonstração de um caminho possível para intervenções digitais mais responsáveis.

Referência: https://ai.jmir.org/2026/1/e84145

Sobre o autor

Equipe editorial GeraDocumentos — Conteúdo revisado pela equipe editorial do GeraDocumentos, com foco em IA, produtividade e criação de documentos profissionais.