O uso de IA nas aplicações em Saúde mostram invariavelmente que elas envolvem a coleta, integração, e processamento de grandes bases de dados, tipicamente multimodais, por meio de métodos complexos. Promover a execução eficiente dessas aplicações é fundamental para as mesmas evoluírem do ponto de vista de qualidade dos resultados por meio da utilização de modelos e métodos cada vez mais elaborados e que, ao mesmo tempo, sejam capazes de processar e se beneficiar de bases de dados cada vez maiores e mais informativas. Assim, os sistemas computacionais precisam atender a urgência de cada aplicação em saúde, escondendo do usuário, seja ele paciente, médico ou gestor, as dificuldades intrínsecas da execução eficiente da diversidade de aplicações e técnicas de IA usadas em saúde. Logo, o grande desafio dessa área refere-se a: “Como prover os recursos computacionais necessários para atender os requisitos de urgência e escala de aplicações de IA em saúde de maneira transparente?”
Essa pergunta é desafiadora sob a perspectiva de sistemas, hardware e redes de computadores, pois ela envolve aspectos decisórios complexos em relação a “onde a computação deve ser localizada (em qual data center, usando qual tipo de elemento de processamento — GPU, FPGA, CPU) de forma a cumprir os requisitos de aplicação?”. Os três principais aspectos que impactam nessa decisão e estão relacionados com a ideia de gravidade dos dados (data gravity) são: (1) o tamanho dos dados de entrada, (2) a complexidade da computação executada e (3) a urgência dos resultados, que é um aspecto crucial no domínio médico. Do ponto de vista de sistemas, é preciso executar as aplicações atendendos suas demandas independentemente de suas características. Os diversos domínios de aplicação têm requisitos significativamente distintos. Por exemplo, em Anamnese (com fusão de exames laboratoriais, wearables, prontuário) encontramos aplicações usualmente com urgência da ordem de minutos, dados pequenos (KB-MB) e intensidade computacional média a baixa, por outro lado, em tele-cirurgia a urgência é da ordem de milisegundos, os dados são maiores (MB-GB) e a computação executada é de intensidade maior (média). Lidar com essa diversidade de forma transparente em sistemas de computação distribuídos complexos é desafiador. Nesse contexto, dados maiores tendem a atrair a computação para próximo deles, enquanto a intensidade computacional dos modelos utilizados atrai os dados para processadores específicos. A urgência, por sua vez, limita ou flexibiliza as relações anteriores ao alterar as demandas computacionais e de entrada e saída.
A determinação do local, bem como a movimentação dos dados e/ou código, para a realização da computação de IA em dados médicos é influenciada pela na arquitetura dos sistemas de processamento e como eles se comunicam, motivando assim o desenvolvimento de novos processadores ou dispositivos específicos. Vários aspectos destas arquiteturas são tópicos de pesquisa em aberto, pois grande parte das ferramentas utilizadas em IA focam em aspectos relacionados à otimização de algoritmos ou padrões de computação particulares localmente, enquanto nesse projeto abordaremos a execução eficiente sob uma perspectiva global.
Como produto final, teremos uma plataforma heterogênea, composta por dispositivos embarcados e servidores em nuvem e locais, que se adapta às demandas de urgência, volume de dados e capacidade de processamento das aplicações de saúde, identificando automaticamente onde executar cada tarefa de IA. Para alcançar esse resultado, neste projeto propomos: (1) implementar ou estender um gerenciador de carga de trabalho para ambientes computacionais distribuídos (e.g., SLURM), capaz de lidar com a execução concorrente de aplicações e ciente da urgência das mesmas; (2) implementar algoritmos para determinação do local da computação com uma visão macro (wearable ou datacenter, e qual datacenter127) e micro (dentro do datacenter ou do dispositivo); e (3) propor e implementar estratégias de escalonamento para ambientes híbridos, equipados com CPUs, GPUs, FPGAs, etc. Em trabalho anterior 128 demonstramos os potenciais dessas estratégias na maximização da vazão na execução. No contexto deste projeto, entretanto, a urgência das aplicações exigem novas abordagens globais capazes de lidar com deadlines, localidade de dados e novas formas de heterogeneidade computacional; (iv) propor e desenvolver novas arquiteturas de processamento e E/S (computação neuromórfica, arquiteturas não von Neumann e novas tecnologias de transistores, e.g., QCA129) para acelerar a execução de padrões computacionais relevantes que não são eficientemente executados por processadores de prateleira; (v) projetar protocolos para transporte confiável, de baixa latência e alta largura de banda, propor novos padrões e arquiteturas de redes de comunicação130, novos dispositivos de E/S 131 e algoritmos eficientes para auto-gerenciamento das redes de comunicação usando técnicas de IA 132; e (vi) desenvolver novos sensores para aquisição de dados com precisão e frequência apropriados a problemas específicos e com baixo grau de invasividade.
Pesquisadores Principais: Philippe Navaux, Deborah Malta, Antonio Ribeiro, Marco Romano-Silva
Referências:
127. Neto JLD, Yu S, Macedo DF, Nogueira JMS, Langar R, Secci S. ULOOF: A User Level Online Offloading Framework for Mobile Edge Computing. IEEE Trans Mob Comput. 2018 Nov;17(11):2660–74.
128. Teodoro G, Hartley TDR, Catalyurek U. Run-time optimizations for replicated dataflows on heterogeneous environments. Proceedings of the 19th [Internet]. 2010; Available from: https://dl.acm.org/doi/abs/10.1145/1851476.1851479
129. Cesar TF, Vieira LFM, Vieira MAM, Neto OPV. Cellular automata-based byte error correction in QCA. Nano Commun Netw. 2020 Feb 1;23:100278.
130. Matheus L, Pires L, Vieira A, Vieira LFM, Vieira MAM, Nacif JA. The internet of light: Impact of colors in LED-to-LED visible light communication systems [Internet]. Vol. 2, Internet Technology Letters. 2019. p. e78. Available from: http://dx.doi.org/10.1002/itl2.78
131. Boito FZ, Inacio EC, Bez JL, Navaux POA. A checkpoint of research on parallel i/o for high-performance computing. ACM Computing [Internet]. 2018; Available from: https://dl.acm.org/doi/abs/10.1145/3152891
132. Moura HD, Macedo DF, Vieira MAM. Wireless control using reinforcement learning for practical web QoE. Comput Commun. 2020 Mar 15;154:331–46.