Inteligência Artificial na saúde coletiva: desafios e oportunidades em debate no Centro de Estudos da ENSP
A discussão sobre o uso da Inteligência Artificial (IA) nas pesquisas e publicações científicas da saúde coletiva ganhou destaque durante o Ceensp especial, realizado nesta quarta-feira (12/3), como parte das atividades da 'Semana de Abertura do Ano Letivo da ENSP'. O objetivo do debate foi promover uma reflexão crítica sobre as possibilidades e limitações dessas tecnologias, incentivando seu uso ético e responsável. O evento contou com a participação de alunos, pesquisadores e profissionais da área.
+ Assista no YouTube!
Luciana Dias Lima, pesquisadora da ENSP e vice-diretora de Pesquisa e Inovação, coordenou a mesa. Ela abriu o evento ressaltando a importância do Centro de Estudos como um espaço de debate acadêmico e enfatizou a relevância das contribuições dos alunos e orientadores, destacando que o evento representa uma oportunidade de aprendizado e engajamento para todos. "Este é um espaço de vocês, onde debates e apresentações sobre temas essenciais para a saúde coletiva são promovidos", destacou.
O tema central da discussão foi o uso da Inteligência Artificial em pesquisas e publicações científicas na área de saúde coletiva. A crescente presença dessas tecnologias no cotidiano acadêmico e na prática profissional levanta questões sobre seus benefícios e desafios, incluindo as implicações éticas de seu uso. Luciana enfatizou que as ferramentas de IA já estão sendo aplicadas em diversas áreas da saúde, ajudando a melhorar diagnósticos, apoiar políticas públicas e otimizar a gestão do SUS. "Essas ferramentas têm o potencial de transformar a saúde pública, mas também exigem atenção quanto à ética, integridade e transparência nas pesquisas", afirmou.
Ceensp sobre o uso de inteligência artificial nas pesquisas e publicações científicas da saúde coletiva.
A aplicação da IA também abre espaço para discussões sobre como garantir a originalidade dos trabalhos acadêmicos e a privacidade de dados sensíveis. Luciana alertou para a necessidade de diretrizes claras que assegurem a qualidade e a confiabilidade das informações geradas por essas tecnologias. "A IA deve ser vista como uma ferramenta de apoio ao pensamento crítico, não como uma substituição da capacidade criativa e analítica dos pesquisadores", concluiu.
O evento contou com apresentações de especialistas da área, que compartilharam suas experiências sobre o uso da IA na saúde. O debate proporcionou uma visão abrangente sobre o impacto da inteligência artificial nas pesquisas científicas e na gestão da saúde pública. “Com o crescente papel da IA na sociedade, a ENSP reforça seu compromisso com a formação crítica e ética de seus alunos, promovendo debates que conectam o avanço tecnológico às necessidades sociais e de saúde coletiva”, reforçou a vice-diretora.
Inteligência Artificial na saúde: desafios e potencial transformador
O pesquisador do Instituto Tecgraf de Desenvolvimento de Software Técnico-Científico da PUC/Rio, Alimed Celecia Ramos, destacou as diversas possibilidades de aplicação dessas ferramentas no setor. Em sua apresentação, ele compartilhou uma visão abrangente sobre o estado atual da IA e suas perspectivas futuras, especialmente no campo da saúde. Para ele, a Inteligência Artificial não se limita apenas a algoritmos matemáticos, mas envolve a criação de sistemas capazes de realizar tarefas complexas. Ele explicou que, dentro dessa área, existem diversas subáreas que têm se mostrado cruciais na pesquisa e no desenvolvimento de novas tecnologias.
Alimed fez uma retrospectiva histórica sobre o avanço da IA, desde os primeiros modelos propostos na década de 1950 até os recentes desenvolvimentos de IA generativa, uma subárea que visa à criação de novos dados a partir de grandes volumes de informação. “Esse tipo de IA, já utilizado em áreas como finanças, manufatura e saúde, promete revolucionar a forma como lidamos com dados, permitindo a geração de conteúdos como textos, imagens e até diagnósticos médicos”, explicou.
Além disso, ele abordou a utilização da IA para otimizar a alocação de recursos em hospitais, gerenciar cronogramas de cirurgias e até para detectar fraudes no sistema de saúde. Esses modelos têm o potencial de aumentar a eficiência do sistema público de saúde, reduzir custos e melhorar a qualidade do atendimento, especialmente em áreas remotas onde o acesso a médicos é limitado.
No entanto, Alimed ressaltou que, apesar dos benefícios, o uso da IA na saúde exige cuidados éticos, como garantir a privacidade dos dados dos pacientes e a transparência dos algoritmos. "A IA não deve substituir os médicos, mas sim complementá-los, acelerando diagnósticos e otimizando o atendimento", afirmou.
A discussão levantada por Ramos reforça a importância da Inteligência Artificial como ferramenta de transformação no setor da saúde, oferecendo soluções inovadoras, mas também exigindo um olhar atento para as questões éticas e de governança na sua implementação. Sobre o impacto da IA na pesquisa, especialmente na área de saúde, ele explicou que a IA generativa tem invadido a pesquisa científica com grande força. “Essas ferramentas têm grande potencial para otimizar a produção científica, tanto no processo de análise de dados quanto em outras fases da metodologia de pesquisa. O que precisamos fazer é nos adaptar a essas ferramentas, criar normas para seu uso responsável e, acima de tudo, educar os pesquisadores sobre os riscos e benefícios", afirmou.
Por fim, ele ressaltou a importância de considerar os desafios éticos e as limitações dos modelos de IA. “A governança desses sistemas é essencial, e devemos garantir a atualização contínua dos modelos, auditorias periódicas e a transparência das respostas geradas por esses sistemas”.
Inteligência Artificial e ciência de dados: reflexões e desafios éticos na pesquisa acadêmica
Luciana Correa Alves, do Núcleo de Estudos de População da Unicamp e coeditora-chefe de Cadernos de Saúde Pública da ENSP/Fiocruz, compartilhou sua experiência e conhecimentos sobre o impacto da Inteligência Artificial (IA) na pesquisa acadêmica. Em sua palestra, abordou o papel crescente da IA generativa e dos grandes modelos de linguagem (LLMs), discutindo suas implicações éticas e a responsabilidade da academia diante dessas tecnologias.
Ela explicou que os LLMs, que são treinados em grandes volumes de textos, funcionam por meio de redes neurais profundas e têm a capacidade de gerar novos conteúdos com base nos padrões aprendidos. “Esses modelos de IA não apenas produzem textos, mas também imagens, códigos e até áudio. Eles funcionam com base em probabilidades estatísticas, o que significa que há uma margem para erros, algo que devemos ter em mente ao utilizá-los na pesquisa", afirmou.
A docente enfatizou que, ao lidar com essas novas tecnologias, é fundamental garantir que a integridade e a ética na pesquisa sejam preservadas. “A IA pode ser uma aliada poderosa, mas sua implementação deve ser feita com responsabilidade, especialmente no que diz respeito ao uso de dados sensíveis e à transparência no processo de geração de conteúdo", apontou Luciana.
Luciana também mencionou como a IA generativa tem transformado a forma de produzir ciência e impactado as publicações acadêmicas. "Ela altera a maneira como pensamos e criamos, porque agora é possível gerar textos complexos e estruturados de forma coerente", explicou.
A especialista também abordou o fato de que, embora a utilização de ferramentas como os LLMs possa parecer intimidante, é essencial que os pesquisadores compreendam as dinâmicas que envolvem esses sistemas. Luciana concluiu sua fala convidando os participantes a refletirem sobre o papel da IA na academia e a importância de se manter uma postura ética diante de tais inovações tecnológicas.
Inteligência Artificial e Ética: o desafio contemporâneo na pesquisa e na sociedade
Transparência significa que os sistemas de IA devem ser compreensíveis e explicáveis, permitindo que os usuários entendam como as decisões são tomadas. Justiça refere-se à necessidade de desenvolver algoritmos que evitem vieses e discriminação, tratando todos os indivíduos de forma equitativa. Privacidade e Segurança de Dados envolve a proteção rigorosa das informações pessoais utilizadas e geradas por sistemas de IA. Responsabilidade pressupõe a definição clara de quem é responsável pelas decisões tomadas por esses sistemas. E, por fim, Beneficência, o quinto pilar da ética em IA, significa que os sistemas devem ser desenvolvidos, implementados e utilizados com o objetivo de promover o bem-estar humano e social, sem causar danos.
Cassius destacou: “Não podemos ignorar os desafios éticos que surgem com a IA. Cada avanço tecnológico traz consigo novos dilemas, e a sociedade, com o auxílio de especialistas e regulamentações, deve trabalhar para definir os limites do uso ético da IA, garantindo que ela seja usada para promover o bem comum e não para infringir direitos ou prejudicar indivíduos. Esse é o grande desafio: garantir que a IA seja usada para o benefício coletivo, em um equilíbrio entre inovação tecnológica e proteção dos direitos humanos”, concluiu.
Nenhum comentário para: Inteligência Artificial na saúde coletiva: desafios e oportunidades em debate no Centro de Estudos da ENSP
Comente essa matéria: