Chatbots e Questões de Saúde em adolescentes

Chatbots e Questões de Saúde em adolescentes Sobre o artigo  O estudo avalia o comportamento e as políticas de segurança de chatbots de inteligência artificial generativa frente a situações de emergência em saúde do adolescente, como ideação suicida, violência sexual e uso de substâncias. Adolescentes utilizam cada vez mais essas plataformas para interação social e podem revelar condições clínicas graves nesses ambientes. No entanto, há escassa regulamentação quanto ao uso seguro dessas tecnologias, com relatos de riscos e processos judiciais envolvendo empresas de chatbots. O objetivo foi examinar as políticas de conteúdo desses sistemas e avaliar seu desempenho diante de crises agudas simuladas. Métodos utilizados Estudo transversal, isento de aprovação por comitê de ética por não envolver participantes humanos. Foram identificados os chatbots de consumo mais acessados, classificados em: Chatbots de companhia (companion) Chatbots assistentes gerais (general-assistant) Foram excluídas plataformas com conteúdo pornográfico ou desenvolvidas especificamente para saúde mental. Realizou-se análise documental das políticas públicas das plataformas, incluindo: Idade mínima de uso Políticas de consentimento parental Verificação etária Regras sobre discurso de ódio, conteúdo sexual, violência e automutilação Foi conduzido um exercício de “red teaming”, no qual os chatbots foram submetidos a vinhetas clínicas padronizadas envolvendo: Ideação suicida Violência sexual Uso de substâncias As respostas foram avaliadas por dois pediatras certificados, cegos quanto à origem do chatbot, utilizando escalas Likert de 3 pontos para: Empatia Clareza Adequação clínica Também foi avaliado: Reconhecimento da necessidade de escalonamento de cuidado Oferta de encaminhamento a recursos específicos Análise estatística realizada com teste exato de Fisher (significância p < 0,05). Período de análise: março a julho de 2025. Resultados Foram analisados 25 chatbots e 75 interações simuladas. Características gerais: 60% eram plataformas de companhia Mediana de acessos mensais: 9,6 milhões Apenas 36% possuíam verificação etária 56% exigiam login 52% estabeleciam idade mínima de 18 anos 40% exigiam consentimento parental Políticas sobre automutilação estavam presentes em: 100% dos chatbots assistentes gerais 46,7% dos chatbots de companhia Avaliação global das respostas: 81,3% receberam pontuação máxima em clareza 62,7% em empatia 46,7% foram consideradas clinicamente adequadas 60% reconheceram necessidade de escalonamento 36% forneceram encaminhamento para recursos específicos Comparação entre tipos de chatbot: Os assistentes gerais tiveram desempenho significativamente superior aos chatbots de companhia: Domínio Assistentes gerais Companhia P Empatia alta 93,3% 42,2% <0,001 Clareza alta 96,7% 71,1% 0,006 Adequação clínica 83,3% 22,2% <0,001 Reconhecimento de escalonamento 90% 40% <0,001 Encaminhamento para recursos 73,3% 11,1% <0,001 P < 0,001. Diferenças estatisticamente significativas entre chatbots do tipo “companheiro” e assistentes gerais na proporção de respostas avaliadas como 3 (nos domínios de adequação, empatia e compreensibilidade) ou como “sim” (nos domínios de encaminhamento a recursos e reconhecimento da necessidade de escalonamento do cuidado), pelo teste exato de Fisher. O desempenho foi semelhante entre os diferentes cenários clínicos testados. Discussão Chatbots de companhia apresentaram menos salvaguardas e pior desempenho em manejo de crises quando comparados aos assistentes gerais. Falhas na identificação adequada de emergências psiquiátricas ou médicas podem: Propagar desinformação Desencorajar busca por atendimento Potencialmente incentivar comportamentos de risco Os autores defendem maior regulação por órgãos de proteção ao consumidor e entidades de saúde, incluindo implementação obrigatória de “guardrails” para entradas de alto risco. Destaca-se a necessidade de equilíbrio entre regulamentação, privacidade e autonomia do usuário. Limitações incluem uso de cenários simulados e amostra relativamente pequena de plataformas. Conclusão Chatbots de consumo representam potencial ferramenta de apoio a adolescentes em crise, porém apresentam variabilidade significativa em segurança e qualidade das respostas. Chatbots assistentes gerais demonstraram desempenho superior aos de companhia, especialmente na identificação de risco e orientação para cuidado. O desenvolvimento e regulamentação responsáveis dessas tecnologias são fundamentais para garantir segurança, precisão e adequação clínica no suporte a adolescentes. Insights clínicos  Chatbots reconhecem adequadamente ideação suicida em adolescentes? Nem todos. Apenas 60% reconheceram necessidade de escalonamento, com desempenho significativamente inferior nos chatbots de companhia. Eles encaminham para serviços de emergência ou apoio? Somente 36% forneceram encaminhamento específico, sendo muito mais frequente nos assistentes gerais (73,3%). Há políticas robustas contra conteúdo de automutilação? Apenas 68% das plataformas tinham políticas explícitas sobre automutilação, com diferença marcante entre tipos de chatbot. Chatbots de companhia são seguros para adolescentes em crise? O estudo demonstrou desempenho consistentemente inferior em empatia, adequação clínica e reconhecimento de risco, sugerindo maior vulnerabilidade. Qual a implicação prática para pediatras? Profissionais devem orientar adolescentes e famílias sobre limitações desses sistemas e reforçar que chatbots não substituem avaliação clínica em situações de risco. Para ver mais conteúdos como este, acesse: NeoPed Hub

Faça login para acessar o conteúdo
ou cadastre-se.ESQUECI MINHA SENHA

Aulas relacionadas

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Este site é feito exclusivamente para profissionais de saúde.