Usando Inteligência Artificial para Prever a Demanda de Oxigénio para Pacientes com COVID

Usando Inteligência Artificial para Prever a Demanda de Oxigénio para Pacientes com COVID

O Hospital Addenbrooke em Cambridge e 20 outros hospitais em todo o mundo e a NVIDIA, líder em tecnologia de saúde, utilizaram inteligência artificial (IA) para prever as necessidades de oxigénio dos pacientes da Covid em escala global.

A pandemia desencadeou o estudo de pesquisa e começou a desenvolver uma ferramenta de IA para prever quanto oxigénio adicional um paciente Covid-19 pode necessitar nos primeiros dias de atendimento hospitalar, utilizando dados de quatro continentes.

A técnica, chamada aprendizado federado, utilizava um algoritmo para analisar radiografias de tórax e também dados eletrónicos de saúde de pacientes hospitalares com sintomas de Covid.

Para manter o sigilo absoluto do paciente, os dados do paciente foram completamente anónimos e um algoritmo foi entregue a cada hospital, de forma que nenhum dado foi compartilhado ou saiu da sua localização.

A análise foi unida para construir uma ferramenta de IA que pudesse antecipar as necessidades de oxigénio dos pacientes do hospital Covid em qualquer lugar do globo assim que o algoritmo “aprendesse” os dados.

Publicado em 15 de setembro na Nature Medicine, o estudo denominado EXAM (para EMR CXR AI Version) está entre os mais extensos e variados estudos clínicos de aprendizagem federada até hoje.

Para verificar a precisão do EXAME, ele foi testado em muitos hospitais nos cinco continentes, incluindo o Hospital de Addenbrooke. Os resultados mostraram que previu o oxigénio necessário dentro de 24 horas da chegada de uma pessoa no departamento de emergência, com um nível de sensibilidade de 95 por cento e uma especificidade de mais de 88 por cento.

“O aprendizado federado tem o imenso poder transformador de trazer o avanço da IA ​​para o fluxo de trabalho clínico”, disse a professora Fiona Gilbert, que liderou a pesquisa em Cambridge e é radiologista consultora honorária do Addenbrooke’s Hospital e cadeira de radiologia na University of Cambridge School of Clinical Remédio.

“ O nosso trabalho contínuo com o EXAM mostra que esses tipos de colaborações internacionais são repetíveis e também mais eficientes, para garantir que possamos atender às demandas dos médicos para enfrentar complicados obstáculos de saúde e futuras epidemias.”

O primeiro autor da pesquisa, Dr. Ittai Dayan, do Mass General Bingham, nos Estados Unidos, onde o algoritmo EXAM foi criado, afirmou:

“Normalmente, no desenvolvimento de IA, quando você produz um algoritmo nos dados de um hospital, ele não funciona bem em nenhum outro hospital. Ao criar o modelo EXAM usando aprendizado federado e informações objetivas e multimodais de diferentes continentes, conseguimos construir um ‘design’ generalizável que pode ajudar os médicos de linha de frente em todo o mundo”.

Combinando parceiros nas Américas do Norte e do Sul, Europa e Ásia, o estudo de pesquisa EXAM levou duas semanas de ‘aprendizado’ de IA para atingir previsões de alta qualidade.

“O Aprendizado Federado permitiu que os pesquisadores se unissem e estabeleçam um novo padrão do que podemos fazer em todo o mundo, usando o poder da IA”, afirmou a Dra. Mona G Flores, Diretora Global de IA Médica da NVIDIA. “Isso avançará a IA para cuidados médicos e em todos os setores que pretendem construir modelos duráveis ​​sem comprometer a privacidade”.

Os resultados de cerca de 10.000 indivíduos COVID de todo o mundo foram analisados ​​na pesquisa, incluindo 250 que envolveram o Hospital de Addenbrooke na primeira onda da pandemia em março / abril de 2020.

O Instituto Nacional de Pesquisa em Saúde (NIHR) e o Centro de Pesquisa Biomédica de Cambridge (BRC) apoiaram a pesquisa.

O desenvolvimento do modelo de exame prosseguiu. O Mass General Brigham e o NIHR Cambridge BRC estão atualmente trabalhando com a startup Rhino Health da NVIDIA Inception, cofundada pelo Dr. Dayan, para realizar estudos de pesquisa potenciais utilizando o EXAM.

O professor Gilbert incluiu: “O desenvolvimento de software para corresponder ao desempenho de nossos melhores radiologistas são complicados, mas é uma aspiração transformadora. Quanto mais pudermos integrar com segurança as informações de diferentes fontes, utilizando aprendizagem e cooperação federadas, e tiver o espaço necessário para inovar, mais rápido os académicos poderão tornar esses objetivos transformadores um fato. ”


Originalmente publicado em Sciencedaily.com . Leia o artigo original.

Referência: Ittai Dayan, Holger R. Roth, Aoxiao Zhong, Ahmed Harouni, Amilcare Gentili, Anas Z. Abidin, Andrew Liu, Anthony Beardsworth Costa, Bradford J. Wood, Chien-Sung Tsai, Chih-Hung Wang, Chun-Nan Hsu, CK Lee, Peiying Ruan, Daguang Xu, Dufan Wu, Eddie Huang, Felipe Campos Kitamura, Griffin Lacey, Gustavo César de Antônio Corradi, Gustavo Nino, Hao-Hsin Shin, Hirofumi Obinata, Hui Ren, Jason C. Crane, Jesse Tetreault, Jiahui Guan, John W. Garrett, Joshua D. Kaggie, Jung Gil Park, Keith Dreyer, Krishna Juluru, Kristopher Kersten, Marcio Aloisio Bezerra Cavalcanti Rockenbach, Marius George Linguraru, Masoom A. Haider, Meena AbdelMaseeh, Nicola Rieke, Pablo F. Damasceno, Pedro Mario Cruz e Silva, Pochuan Wang, Sheng Xu, Shuichi Kawano, Sira Sriswasdi, Soo Young Park, Thomas M. Grist, Varun Buch, Watsamon Jantarabenjakul, Weichung Wang, Won Young Tak,Xiang Li, Xihong Lin, Young Joon Kwon, Abood Quraini, Andrew Feng, Andrew N. Priest, Baris Turkbey, Benjamin Glicksberg, Bernardo Bizzo, Byung Seok Kim, Carlos Tor-Díez, Chia-Cheng Lee, Chia-Jung Hsu, Chin Lin, Chiu-Ling Lai, Christopher P. Hess, Colin Compas, Deepeksha Bhatia, Eric K. Oermann, Evan Leibovitz, Hisashi Sasaki, Hitoshi Mori, Isaac Yang, Jae Ho Sohn, Krishna Nand Keshava Murthy, Li-Chen Fu, Matheus Ribeiro Furtado de Mendonça, Mike Fralick, Min Kyu Kang, Mohammad Adil, Natalie Gangai, Peerapon Vateekul, Pierre Elnajjar, Sarah Hickman, Sharmila Majumdar, Shelley L. McLeod, Sheridan Reed, Stefan Gräf, Stephanie Harmon, Tatsuya Kodama, Thanyawee, Thanyawee, Tony Mazzulli, Vitor Lima de Lavor, Yothin Rakvongthai, Yu Rim Lee, Yuhong Wen, Fiona J. Gilbert, Mona G. Flores, Quanzheng Li.Andrew Feng, Andrew N. Priest, Baris Turkbey, Benjamin Glicksberg, Bernardo Bizzo, Byung Seok Kim, Carlos Tor-Díez, Chia-Cheng Lee, Chia-Jung Hsu, Chin Lin, Chiu-Ling Lai, Christopher P. Hess, Colin Compas, Deepeksha Bhatia, Eric K. Oermann, Evan Leibovitz, Hisashi Sasaki, Hitoshi Mori, Isaac Yang, Jae Ho Sohn, Krishna Nand Keshava Murthy, Li-Chen Fu, Matheus Ribeiro Furtado de Mendonça, Mike Fralick, Min Kyu Kang, Mohammad Adil, Natalie Gangai, Peerapon Vateekul, Pierre Elnajjar, Sarah Hickman, Sharmila Majumdar, Shelley L. McLeod, Sheridan Reed, Stefan Gräf, Stephanie Harmon, Tatsuya Kodama, Thanyawee Puthanakit, Tony Mazzulli, Vitor Lima de Lavor, Yothin Rakvong, Vitor Lima de Lavor, Yothin Rakv Lee, Yuhong Wen, Fiona J. Gilbert, Mona G. Flores, Quanzheng Li.Andrew Feng, Andrew N. Priest, Baris Turkbey, Benjamin Glicksberg, Bernardo Bizzo, Byung Seok Kim, Carlos Tor-Díez, Chia-Cheng Lee, Chia-Jung Hsu, Chin Lin, Chiu-Ling Lai, Christopher P. Hess, Colin Compas, Deepeksha Bhatia, Eric K. Oermann, Evan Leibovitz, Hisashi Sasaki, Hitoshi Mori, Isaac Yang, Jae Ho Sohn, Krishna Nand Keshava Murthy, Li-Chen Fu, Matheus Ribeiro Furtado de Mendonça, Mike Fralick, Min Kyu Kang, Mohammad Adil, Natalie Gangai, Peerapon Vateekul, Pierre Elnajjar, Sarah Hickman, Sharmila Majumdar, Shelley L. McLeod, Sheridan Reed, Stefan Gräf, Stephanie Harmon, Tatsuya Kodama, Thanyawee Puthanakit, Tony Mazzulli, Vitor Lima de Lavor, Yothin Rakvong, Vitor Lima de Lavor, Yothin Rakv Lee, Yuhong Wen, Fiona J. Gilbert, Mona G. Flores, Quanzheng Li.Carlos Tor-Díez, Chia-Cheng Lee, Chia-Jung Hsu, Chin Lin, Chiu-Ling Lai, Christopher P. Hess, Colin Compas, Deepeksha Bhatia, Eric K. Oermann, Evan Leibovitz, Hisashi Sasaki, Hitoshi Mori, Isaac Yang , Jae Ho Sohn, Krishna Nand Keshava Murthy, Li-Chen Fu, Matheus Ribeiro Furtado de Mendonça, Mike Fralick, Min Kyu Kang, Mohammad Adil, Natalie Gangai, Peerapon Vateekul, Pierre Elnajjar, Sarah Hickman, Sharmila Majumdar, Shelley L. McLeod , Sheridan Reed, Stefan Gräf, Stephanie Harmon, Tatsuya Kodama, Thanyawee Puthanakit, Tony Mazzulli, Vitor Lima de Lavor, Yothin Rakvongthai, Yu Rim Lee, Yuhong Wen, Fiona J. Gilbert, Mona G. Flores, Quanzheng Li.Carlos Tor-Díez, Chia-Cheng Lee, Chia-Jung Hsu, Chin Lin, Chiu-Ling Lai, Christopher P. Hess, Colin Compas, Deepeksha Bhatia, Eric K. Oermann, Evan Leibovitz, Hisashi Sasaki, Hitoshi Mori, Isaac Yang , Jae Ho Sohn, Krishna Nand Keshava Murthy, Li-Chen Fu, Matheus Ribeiro Furtado de Mendonça, Mike Fralick, Min Kyu Kang, Mohammad Adil, Natalie Gangai, Peerapon Vateekul, Pierre Elnajjar, Sarah Hickman, Sharmila Majumdar, Shelley L. McLeod , Sheridan Reed, Stefan Gräf, Stephanie Harmon, Tatsuya Kodama, Thanyawee Puthanakit, Tony Mazzulli, Vitor Lima de Lavor, Yothin Rakvongthai, Yu Rim Lee, Yuhong Wen, Fiona J. Gilbert, Mona G. Flores, Quanzheng Li.Krishna Nand Keshava Murthy, Li-Chen Fu, Matheus Ribeiro Furtado de Mendonça, Mike Fralick, Min Kyu Kang, Mohammad Adil, Natalie Gangai, Peerapon Vateekul, Pierre Elnajjar, Sarah Hickman, Sharmila Majumdar, Shelley L. McLeod, Sheridan Reed, Gräf, Stephanie Harmon, Tatsuya Kodama, Thanyawee Puthanakit, Tony Mazzulli, Vitor Lima de Lavor, Yothin Rakvongthai, Yu Rim Lee, Yuhong Wen, Fiona J. Gilbert, Mona G. Flores, Quanzheng Li.Krishna Nand Keshava Murthy, Li-Chen Fu, Matheus Ribeiro Furtado de Mendonça, Mike Fralick, Min Kyu Kang, Mohammad Adil, Natalie Gangai, Peerapon Vateekul, Pierre Elnajjar, Sarah Hickman, Sharmila Majumdar, Shelley L. McLeod, Sheridan Reed, Gräf, Stephanie Harmon, Tatsuya Kodama, Thanyawee Puthanakit, Tony Mazzulli, Vitor Lima de Lavor, Yothin Rakvongthai, Yu Rim Lee, Yuhong Wen, Fiona J. Gilbert, Mona G. Flores, Quanzheng Li.Quanzheng Li.Quanzheng Li. Aprendizagem federada para predizer resultados clínicos em pacientes com COVID-19 . Nature Medicine , 2021; DOI:  10.1038 / s41591-021-01506-3

na J. Gilbert, Mona G. Flores, Quanzheng Li. Federated learning for predicting clinical outcomes in patients with COVID-19Nature Medicine, 2021; DOI: 10.1038/s41591-021-01506-3

Share this post