Confiança é fundamental em qualquer questão que envolva saúde, principalmente quando um componente “artificial” é inserido em processos decisórios ou operacionais. Diagnósticos incorretos ou violações de privacidade por sistemas de IA são exemplos de situações que podem levar à perda de confiança nas relações entre prestadores de serviços de saúde e pacientes. A adoção crescente de tecnologias de IA em diversas áreas da atividade humana e, em especial, naquelas ligadas a saúde e bem estar humanos, vem trazendo à discussão, por órgãos governamentais, organismos internacionais e comunidade científica, várias questões relativas à ética e suas implicações nos algoritmos e na interação humano-computador (IHC) 88. Nesse sentido, no uso de IA, torna-se importante estabelecer princípios associados a valores como: inclusão, transparência, privacidade, responsabilidade e confiabilidade. Um dos principais desafios para a construção de sistemas de IA é garantir que os diferentes usuários (e.g., gestores, profissionais da saúde, pacientes, público em geral), ao utilizarem tais sistemas, tenham suas expectativas positivamente garantidas nesses aspectos.
O desenvolvimento de tecnologias e aplicações de IA nos eixos temáticos deve considerar uma série de requisitos que preservam a autonomia humana, segurança, imparcialidade e explicabilidade fim-a-fim (i.e., perpassando todos os componentes da solução) das decisões de IA, reforçando o “sentimento” de confiança do usuário nas informações apresentadas e decisões sugeridas decorrente da confiabilidade demonstrada pelos sistemas. Sendo assim, o objetivo geral desta linha de pesquisa é garantir que as estratégias de IA desenvolvidas no contexto dos eixos temáticos preservem o equilíbrio exigido pelas implicações éticas e valores humanos no que se refere à transparência, privacidade e segurança, responsabilidade, confiabilidade, imparcialidade e explicabilidade. Esse balanço deve ser considerado em todos os níveis pertinentes, nos dispositivos e processos de aquisição de dados, métodos de integração de bases de dados, algoritmos de aprendizagem de máquina e nas interfaces por meio das quais os usuários se comunicam com os sistemas. Usabilidade e acessibilidade de interfaces são fundamentais para que todos usuários consigam compreender e usar o sistema, seja ele autônomo ou não, e, sobretudo, confiar nas informações apresentadas. Especial atenção deve ser dada a situações que envolvam grupos vulneráveis, como crianças, pessoas com necessidades especiais, ou em condições adversas de saúde, historicamente desfavorecidas ou em risco de exclusão, ou em situações caracterizadas por assimetrias de poder ou informação.
O uso de tecnologias de IA amplia os desafios na área de IHC para considerar a maior integração entre pessoas e sistemas, levando a interação ao estágio de colaboração entre pessoas e sistemas de software autônomos 107. Esta ampliação traz a necessidade de desenvolvimento de novas técnicas e métodos de projeto e avaliação 108, como, por exemplo, métodos que incorporem e façam o balanceamento entre valores para diferentes stakeholders no projeto de sistemas e algoritmos, e interfaces que comunicam eficientemente para os usuários os princípios considerados em seu comportamento (e.g., privacidade, imparcialidade, transparência, entre os demais com implicações éticas) 109. Além de contemplar os perfis, necessidades e valores de diferentes stakeholders, o projeto de sistemas de IA para saúde deve considerar as condições da nossa população, com imensas diferenças socioeconômicas, culturais e de acessibilidade a serviços. Tais condições diferenciadas requerem soluções originais e específicas, que, além dos aspectos já mencionados, considerem também condições ambientais, tecnológicas e temporais.
Pesquisas recentes apontam para desafios relacionados ao desenvolvimento de métricas e índices para ética em algoritmos de IA88. Tais métricas e índices são passo fundamental para a criação de um arcabouço metodológico para projeto de algoritmos e ferramentas que sejam consistentes com especificações éticas predefinidas e de mecanismos de avaliação da confiança nos sistemas desenvolvidos a partir destas especificações. Além de vários estudos independentes abordando aspectos como transparência e vieses, iniciativas recentes buscam uma padronização na proposta de um arcabouço para projeto de sistemas inteligentes que priorize questões de privacidade e segurança, bem como a monitoração de esforços atuais para integrar questões de ética ao desenvolvimento de soluções de IA 88. Sobre segurança e privacidade, observa-se que inúmeras organizações de saúde não lançam mão dos seus dados por falta de soluções eficazes. Por exemplo, frequentemente, hospitais desejam agregar seus dados confidenciais para, posteriormente, utilizá-los para treinar modelos descritivos e preditivos 92. Porém, tal iniciativa esbarra nas questões de regulação e sigilo dos dados de pacientes, sendo que dados de diversas fontes poderiam ser rearranjados de modo a revelar condições de um paciente e, assim, aprimorar diagnóstico. Neste sentido, diversas soluções empregando protocolos criptográficos e esquemas eficientes de aprendizagem colaborativa segura 110, incluindo aprendizado federado (federated learning) vem sendo propostas para sanar o problema de agregação de dados confidenciais 111.
Essa linha de pesquisa aborda a construção de um arcabouço para estratégias de IA para saúde que contemple os princípios mencionados anteriormente relativos à ética e a valores humanos sempre com foco no stakeholder. Essas estratégias perpassam ou interagem com todas as outras linhas de pesquisa em IA. Para tanto, pretende-se: (1) criar um mapa de questões de relevância para o contexto específico de IA para saúde 112; (2) desenvolver estudos experimentais com dados públicos de saúde e dados de provedores privados (e.g., UNIMED) para identificar vieses e desequilíbrios de diferentes naturezas (e.g., raciais, regionais, socioeconômicas, de gênero, culturais, idioma, religião e doenças prévias) 113; (3) investigar os requisitos para transparência e explicabilidade fim-a-fim; (4) criar mecanismos para a manutenção do sigilo de dados e preservação da privacidade de indivíduos em conformidade com a Lei Geral de Proteção de Dados Pessoais (LGPD – Lei n° 13.709/2018); (5) desenvolver novas técnicas de visualização e interação que traduzam esses princípios éticos para os diferentes stakeholders, trazendo confiança nos resultados gerados, e (6) desenvolver novos tipos de interfaces que possam se adaptar e evoluir com os indivíduos dependendo das fases da vida do paciente e condições de saúde.
De modo geral, nosso foco será na busca de soluções que abordem os compromissos entre os vários aspectos e requisitos já mencionados visando melhor atender as necessidades dos diferentes stakeholders, tratando adequadamente diferentes tipos de vieses e desbalanceamentos e contando sempre que possível com a participação direta dos usuários, ou seja, o “humano-no-loop”. Ressalta-se que alguns desses compromissos envolvem desafios não triviais e objetivos possivelmente conflitantes. Como exemplo, a criação de modelos de IA efetivos deve utilizar o máximo de dados disponíveis de múltiplas fontes, ao mesmo tempo em que garante a privacidade dos indivíduos, utilizando técnicas como federated learning, que preservam a segurança e privacidade em bases de dados distribuídas.
Pesquisadores Principais: Carla Freitas, Jussara Almeida, César Victora, Deborah Malta
Referências:
88. Perrault R, Shoham Y, Brynjolfsson E, Clark J, Etchemendy J, Grosz B, et al. The AI Index 2019 Annual Report. AI Index Steering Committee, Human-Centered AI Institute, Stanford University, Stanford, CA. 2019;
89. Huang D, Wu Z. Forecasting outpatient visits using empirical mode decomposition coupled with back-propagation artificial neural networks optimized by particle swarm optimization. PLoS One. 2017 Feb 21;12(2):e0172539.
90. Yousefi M, Yousefi M, Ferreira RPM, Kim JH, Fogliatto FS. Chaotic genetic algorithm and Adaboost ensemble metamodeling approach for optimum resource planning in emergency departments. Artif Intell Med. 2018 Jan;84:23–33.
91. Castro MC, de Carvalho LR, Chin T, Kahn R, Franca GVA, Macario EM, et al. Demand for hospitalization services for COVID-19 patients in Brazil. MedRxiv. 2020;
92. Halevy A, Norvig P, Pereira F. The Unreasonable Effectiveness of Data. IEEE Intell Syst. 2009 Mar;24(2):8–12.
93. dal Bianco G, Gonçalves MA, Duarte D. BLOSS: Effective meta-blocking with almost no effort. Inf Syst. 2018 Jun 1;75:75–89.
94. Feeley TW, Mohta NS. Transitioning payment models: fee-for-service to value-based care. 2018; Available from: https://www.hbs.edu/faculty/Pages/item.aspx?num=55281
95. van Egdom LSE, Lagendijk M, van der Kemp MH, van Dam JH, Mureau MAM, Hazelzet JA, et al. Implementation of Value Based Breast Cancer Care. Eur J Surg Oncol. 2019 Jul;45(7):1163–70.
96. Cunha W, Canuto S, Viegas F, Salles T, Gomes C, Mangaravite V, et al. Extended pre-processing pipeline for text classification: On the role of meta-feature representations, sparsification and selective sampling [Internet]. Vol. 57, Information Processing & Management. 2020. p. 102263. Available from: http://dx.doi.org/10.1016/j.ipm.2020.102263
97. Velupillai S, Suominen H, Liakata M, Roberts A, Shah AD, Morley K, et al. Using clinical Natural Language Processing for health outcomes research: Overview and actionable suggestions for future advances. J Biomed Inform. 2018 Dec;88:11–9.
98. Aboelmaged M, Hashem G. RFID application in patient and medical asset operations management: A technology, organizational and environmental (TOE) perspective into key enablers and impediments. Int J Med Inform. 2018 Oct;118:58–64.
99. Bragazzi NL, Dai H, Damiani G, Behzadifar M, Martini M, Wu J. How Big Data and Artificial Intelligence Can Help Better Manage the COVID-19 Pandemic. Int J Environ Res Public Health [Internet]. 2020 May 2;17(9). Available from: http://dx.doi.org/10.3390/ijerph17093176
100. Candido D da S, Claro IM, de Jesus JG, Souza WM de, Moreira FRR, Dellicour S, et al. Evolution and epidemic spread of SARS-CoV-2 in Brazil [Internet]. Infectious Diseases (except HIV/AIDS). medRxiv; 2020. Available from: https://www.medrxiv.org/content/10.1101/2020.06.11.20128249v1
101. Guzzetta G, Marques-Toledo CA, Rosà R, Teixeira M, Merler S. Quantifying the spatial spread of dengue in a non-endemic Brazilian metropolis via transmission chain reconstruction. Nat Commun. 2018 Jul 19;9(1):2837.
102. Marini G, Guzzetta G, Marques Toledo CA, Teixeira M, Rosà R, Merler S. Effectiveness of Ultra-Low Volume insecticide spraying to prevent dengue in a non-endemic metropolitan area of Brazil. PLoS Comput Biol. 2019 Mar;15(3):e1006831.
103. Marques-Toledo CA, Bendati MM, Codeço CT, Teixeira MM. Probability of dengue transmission and propagation in a non-endemic temperate area: conceptual model and decision risk levels for early alert, prevention and control. Parasit Vectors. 2019 Jan 16;12(1):38.
104. Adeola FO. Hazardous Wastes, Industrial Disasters, and Environmental Health Risks [Internet]. 2011. Available from: http://dx.doi.org/10.1057/9780230339538
105. Shultz JM. Perspectives on disaster public health and disaster behavioral health integration [Internet]. Vol. 2, Disaster Health. 2014. p. 69–74. Available from: http://dx.doi.org/10.4161/dish.24861
106. Goldstein BD. Broadening the Mandate of the Incident Command System to Address Community Mental and Behavioral Health Effects as Part of the Federal Response to Disasters. Curr Environ Health Rep [Internet]. 2020 Jun 27; Available from: http://dx.doi.org/10.1007/s40572-020-00283-4
107. Farooq U, Grudin J. Human-computer integration. Interactions. 2016 Oct 26;23(6):26–32.
108. Stephanidis C, Salvendy G, Antona M, Chen JYC, Dong J, Duffy VG, et al. Seven HCI Grand Challenges. International Journal of Human–Computer Interaction. 2019 Aug 27;35(14):1229–69.
109. Xu W. Toward human-centered AI: a perspective from human-computer interaction. Interactions. 2019 Jun 26;26(4):42–6.
110. Nikolaenko V, Weinsberg U, Ioannidis S, Joye M, Boneh D, Taft N. Privacy-Preserving Ridge Regression on Hundreds of Millions of Records. In: 2013 IEEE Symposium on Security and Privacy. 2013. p. 334–48.
111. Dwork C. Differential Privacy: A Survey of Results. In: Theory and Applications of Models of Computation. Springer Berlin Heidelberg; 2008. p. 1–19.
112. Mittelstadt BD, Allo P, Taddeo M, Wachter S, Floridi L. The ethics of algorithms: Mapping the debate. Big Data & Society. 2016 Dec 1;3(2):2053951716679679.
113. Schiebinger L. Scientific research must take gender into account. Nature. 2014 Mar 6;507(7490):9.