Um Número Significativo de Médicos Já Está Integrando IA no Cuidado Médico

Um Número Significativo de Médicos Já Está Integrando IA no Cuidado Médico

Crédito: Pixabay

Uma pesquisa recente com aproximadamente 1.000 clínicos gerais do Reino Unido revelou que um em cada cinco médicos usa ferramentas de IA generativa — como o ChatGPT da OpenAI ou o Gemini do Google — para apoiar a prática clínica.

Os médicos relataram o uso da IA generativa para tarefas como a criação de documentos após as consultas, apoio na tomada de decisões clínicas e fornecimento de informações aos pacientes — como resumos de alta e planos de tratamento em linguagem acessível.

O Papel da IA na Transformação da Saúde

Dado o entusiasmo em torno da IA e as pressões atuais sobre os sistemas de saúde, não é surpreendente que médicos e formuladores de políticas considerem a IA essencial para modernizar e transformar os cuidados de saúde.

No entanto, a IA generativa (GenAI) é um desenvolvimento recente que desafia nossa abordagem à segurança do paciente, e ainda há muito a ser entendido antes que ela possa ser incorporada com segurança na prática clínica de rotina. Tradicionalmente, as aplicações de IA foram projetadas para tarefas específicas. Por exemplo, as redes neurais de deep learning são eficazes em tarefas de classificação, como a análise de mamografias para apoiar o rastreamento de câncer de mama.

A Versatilidade da IA Generativa

Contudo, a GenAI não se limita a uma única tarefa definida. Construída com base em modelos fundamentais, esses sistemas possuem amplas capacidades, permitindo a geração de texto, imagens, áudio ou uma mistura desses formatos. Essas habilidades podem ser ajustadas para diversos usos, como responder perguntas, programar ou criar imagens, com aplicações limitadas apenas pela criatividade do usuário.

Um desafio importante é que a GenAI não foi projetada com um propósito específico, tornando incertas as aplicações seguras na saúde, o que a torna inadequada para uso clínico em larga escala no momento.

Outro problema com a GenAI na saúde é a conhecida ocorrência de “alucinações” — respostas que são incoerentes ou incorretas em relação ao que foi solicitado.

As alucinações da GenAI foram estudadas quando utilizada para resumir textos. Um estudo descobriu que várias ferramentas de GenAI, às vezes, faziam conexões incorretas com base no texto ou incluíam informações inexistentes no conteúdo original.

Essas alucinações ocorrem porque a GenAI se baseia em probabilidade — prevendo a próxima palavra provável em um determinado contexto — e não em uma verdadeira “compreensão” como fazem os seres humanos. Como resultado, as respostas da GenAI são muitas vezes plausíveis, mas nem sempre precisas.

Essa dependência da plausibilidade em vez da precisão torna a GenAI insegura para uso regular na prática médica atualmente.

Por exemplo, uma ferramenta de GenAI que escute consultas de pacientes e gere notas resumidas poderia permitir que médicos e enfermeiros se concentrem mais no paciente. No entanto, a ferramenta também pode criar notas com base no que “acha” que é verdade.

Os Riscos de Resumos Inaccurados da GenAI na Saúde

O resumo gerado pela GenAI poderia alterar incorretamente a frequência ou gravidade dos sintomas, adicionar sintomas que o paciente nunca mencionou ou incluir detalhes que não foram discutidos. Os profissionais de saúde precisariam, então, revisar cuidadosamente essas notas e confiar na memória para identificar informações plausíveis, mas incorretas.

Em um ambiente tradicional de atendimento familiar, onde o médico conhece bem o paciente, identificar essas imprecisões pode não ser um problema significativo. No entanto, em um sistema de saúde fragmentado, onde os pacientes são frequentemente atendidos por diferentes profissionais, as imprecisões nos registros podem levar a sérios riscos para a saúde, incluindo atrasos, tratamentos incorretos e diagnósticos errados.

Os riscos associados às alucinações são consideráveis. No entanto, é importante notar que pesquisadores e desenvolvedores estão trabalhando ativamente para minimizar essas ocorrências.

Outra razão pela qual a GenAI não está pronta para o setor de saúde é que a segurança do paciente depende da avaliação de suas interações em contextos específicos — analisando como a tecnologia funciona com as pessoas, se alinha com regulamentos e pressões e se ajusta à cultura e às prioridades de um sistema de saúde mais amplo. Essa visão baseada no sistema é essencial para determinar se a GenAI pode ser usada com segurança.

A Natureza Adaptativa da IA Generativa

Entretanto, o design aberto da GenAI a torna adaptável para usos que podem ser difíceis de prever. Além disso, os desenvolvedores atualizam continuamente a GenAI com novas capacidades genéricas, o que pode alterar o comportamento da ferramenta.

Além disso, danos ainda podem ocorrer, mesmo se a GenAI funcionar conforme o esperado, dependendo do contexto de uso.

Por exemplo, o uso de chatbots GenAI para triagem pode impactar a disposição dos pacientes de se envolverem com os serviços de saúde. Aqueles com menor alfabetização digital, falantes não nativos de inglês ou pacientes não verbais podem enfrentar dificuldades com a GenAI, o que pode levar a resultados desiguais. Assim, embora a tecnologia possa “funcionar”, ela pode inadvertidamente prejudicar certos usuários.

Esses riscos são difíceis de prever por meio de análises de segurança convencionais, que geralmente examinam como as falhas podem causar danos em situações específicas. Embora a GenAI e outras ferramentas de IA tenham potencial para a saúde, a adoção em larga escala exigirá padrões de segurança mais adaptáveis e uma supervisão regulatória à medida que essas tecnologias evoluem.

Os desenvolvedores e reguladores também devem colaborar com as comunidades que utilizam essas ferramentas para garantir que possam ser integradas com segurança na prática clínica de rotina.


Leia o Artigo Original 

Leia mais 

Share this post

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *