Por Maria Paula Abrahão Aquino Protegendo nossos pacientes, preservando nossa prática: ética e desafios do uso da tecnologia A tecnologia está transformando o sistema de saúde — e, quando o assunto é pediatria, ela traz desafios éticos e de segurança únicos. Esse tema ganhou destaque no Congresso Americano de Pediatria, refletindo a preocupação crescente sobre como equilibrar inovação e proteção no cuidado infantil. Disparidade de investimento Embora as crianças representem 22% da população dos EUA, o investimento médio de capital de risco em tecnologia de saúde digital pediátrica foi de apenas 1.7% do total de pesquisa e desenvolvimento em saúde digital entre 2011 e 2019. Princípios éticos e direitos legais Os princípios fundamentais que guiam o uso da tecnologia incluem beneficência, não-maleficência, autonomia e assentimento, justiça, e o direito à privacidade e proteção. A Convenção das Nações Unidas sobre os Direitos da Criança afirma que os direitos das crianças se aplicam online, e o melhor interesse da criança deve orientar o design e a política digital. Consentimento x Assentimento: Consentimento é a autorização legal/ética dada pelo pai/responsável. Assentimento é o acordo afirmativo da criança com a participação, obtido após uma explicação apropriada para a idade. O assentimento respeita a autonomia em desenvolvimento da criança. Exemplos: cirurgia robótica guiada por IA (consentimento), uso de IA no ambiente (assentimento). Perspectiva geral do paciente sobre IA na saúde Uma pesquisa do Pew Research Center mostrou que 60% dos americanos se sentem desconfortáveis com a ideia de seus médicos usarem inteligência artificial no cuidado à saúde. Cerca de 40% acreditam que a IA pode ajudar a reduzir erros médicos. A maioria, porém, teme que a relação médico paciente piore com o uso da tecnologia, e poucos acreditam que ela possa melhorar essa interação. As opiniões sobre os resultados também se dividem: 38% acham que a IA traria benefícios, enquanto 33% acreditam que poderia piorar os desfechos clínicos. As visões sobre o uso da IA variam significativamente dependendo da aplicação médica específica: Rastreio de câncer de pele: a visão é amplamente positiva, com 65% dos pacientes confortáveis com o uso de IA para rastreamento de câncer de pele. Protecting our patientes, preserving our practice: Ethics and Challenges of Using Technology 1 Cirurgia robótica: 59% dos entrevistados disseram que não gostariam que robôs movidos a IA fossem usados em suas cirurgias. Gerenciamento da dor: 67% dos entrevistados não gostariam que a IA fosse usada para recomendações de gerenciamento da dor. Chats de bate-papo de saúde mental: as visões são amplamente negativas (79%). Confiança e necessidade de transparência De acordo com dados apresentados na palestra, pacientes que confiam mais em seus médicos e no sistema de saúde tendem a ver a inteligência artificial como uma aliada. Ainda assim, pesquisas nos Estados Unidos revelam um cenário de cautela: a maioria das pessoas não confia totalmente que a IA será usada de forma segura e responsável. Para 62% dos entrevistados, é essencial ser avisado quando a tecnologia participa de seus cuidados médicos. A discussão também levantou questões sobre privacidade e ética. Espera-se que os sistemas de IA sejam seguros, eficazes e livres de discriminação, além de protegerem os dados pessoais dos pacientes. Outro ponto importante é a liberdade de escolha — os pacientes devem poder optar por atendimento humano sempre que desejarem. Desafios éticos e vieses algorítmicos O viés de dados ocorre quando os sistemas de IA são treinados em dados que não são representativos, levando a disparidades no tratamento. Viés racial e de gênero: sistemas de reconhecimento facial demonstraram taxas de erro significativamente mais altas para mulheres de pele mais escura (34.7%) em comparação com homens de pele mais clara (0.8%). Viés na saúde: em pacientes com tons de pele mais escuros, há risco de superestimação da saturação de oxigênio por oxímetros de pulso, o que pode levar à hipoxemia não detectada, resultando em menos encaminhamentos para pacientes igualmente doentes. Viés específico em pediatria: Modelos de IA treinados com radiografias de tórax de adultos podem ter pior desempenho em crianças menores de 2 anos, confundindo estruturas normais da anatomia pediátrica com doenças. Algoritmos de IA que priorizam detectar o máximo de casos possíveis podem acabar identificando doenças que não existem, levando a diagnósticos em excesso e tratamentos desnecessários, como em rastreamentos de câncer. O avanço da inteligência artificial também levanta alertas na área da saúde mental e no diagnóstico infantil. Especialistas destacam que chats de IA usados como apoio terapêutico podem falhar em reconhecer situações de alto risco, além de reproduzir estigmas ou oferecer respostas inadequadas em momentos de crise — algo preocupante diante do crescente uso dessas plataformas por pessoas em busca de ajuda emocional. Protecting our patientes, preserving our practice: Ethics and Challenges of Using Technology 2 O estudo “Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers” (A expressão de estigma e respostas inadequadas impede que os LLMs substituam com segurança os provedores de saúde mental) analisou se sistemas de IA poderiam atuar como terapeutas. Para isso, os pesquisadores compararam orientações de grandes instituições médicas com as respostas dadas pelos chats, avaliando se a IA conseguia seguir os princípios de uma relação terapêutica adequada. Conclusões dos Pesquisadores: Os chats foram encontrados expressando estigma em relação a indivíduos com condições de saúde mental. Eles respondem de forma perigosa e inapropriada a certas condições comuns. Existe o risco de que a IA falhe em sinalizar uma mensagem de alto risco, atrasando a intervenção de crise. O sistema pode gerar respostas de emergência desnecessárias devido a algoritmos excessivamente sensíveis. Se os adolescentes descobrirem que seus "chats privados" estão sendo monitorados sem consentimento claro, isso pode levar ao desengajamento na busca por ajuda. Este uso de IA levanta preocupações éticas relacionadas à não-maleficência e justiça. Outro ponto de atenção é o risco de superdiagnóstico de TDAH. Ferramentas de IA integradas a prontuários eletrônicos podem ser influenciadas por dados com vieses raciais e de gênero, o que aumenta a chance de diagnósticos equivocados. Além disso, a tecnologia pode confundir o TDAH com outras condições que
Faça login para acessar o conteúdo
ou cadastre-se. | ESQUECI MINHA SENHA