‘De certa forma, ChatGPT é o novo Dr. Google’, diz pesquisador
Em congresso realizado em Paris, Jakob Kather, professor de IA Clínica na Alemanha, debateu usos da tecnologia e necessidade de educar pacientes

PARIS* – O uso da inteligência artificial em tarefas que utilizam dados e padrões já se tornou um caminho sem volta e não é diferente na medicina, mais precisamente na oncologia. Esse movimento tem alimentado uma preocupação com a qualidade das informações e com a interpretação feita por leigos diante de doenças graves, caso do câncer de pulmão, que ainda acende muitas dúvidas nos pacientes, especialmente nos recém-diagnosticados. Em meio aos avanços para extração de dados de exames de imagem, treinamento de algoritmos e métodos para validação de ferramentas, um dos painéis do Congresso Europeu de Câncer de Pulmão (ELCC, na sigla em inglês), evento realizado na semana passada em Paris, se dedicou à importância de educar os pacientes para lidar com a IA.
Em 20 minutos, médico oncologista e pesquisador Jakob Kather, professor de Inteligência Artificial Clínica na Universidade Técnica de Dresden, na Alemanha, discorreu sobre o aumento da complexidade da oncologia, mas também da medicina de precisão, a partir do progresso de métodos que estão trazendo benefícios para médicos e pacientes.
Com as novas tecnologias, é possível treinar uma inteligência artificial para cada tarefa, obtendo respostas que vão desde os biomarcadores capazes de mostrar o tratamento mais preciso até fazer a predição de respostas ao tratamento a partir de exames.
Pesquisadores, oncologistas e radiologistas têm se dedicado a estudos sobre o tema, no entanto, os modelos de linguagem de grande escala (LLMs, na sigla em inglês), como o ChatGPT, estão disponíveis para todos e têm sido utilizados para a compreensão de resultados de exames, diagnósticos e buscas sobre enfermidades, inclusive o câncer de pulmão. É como se fosse o “Dr. Google” dos tempos atuais.
“Mesmo em perguntas ingênuas e superficiais, você precisa ser cuidadoso e precisamos educar a população a procurar informações de acordo com os guidelines (diretrizes médicas). Os pacientes estão lidando diretamente com informações da inteligência artificial para saber sobre os sintomas e os médicos precisam oferecer as ferramentas”, afirmou, em sua apresentação.
Com a agenda apertada no evento, Kather concedeu entrevista a VEJA por e-mail e falou sobre os impactos do uso da inteligência artificial do contexto do câncer de pulmão. Leia abaixo.
Em sua palestra, o senhor falou sobre a educação para o uso da inteligência artificial. Como isso pode ser feito da melhor forma possível? A inteligência artificial — e especificamente os grandes modelos de linguagem — estão rapidamente se tornando onipresentes em nossa sociedade. Eles já estão transformando uma ampla gama de setores, incluindo suporte ao cliente, marketing, engenharia de software, direito e muitos outros. Naturalmente, a oncologia também está sendo afetada, e muitos oncologistas e pacientes já estão experimentando ferramentas de IA. Como acontece com qualquer nova tecnologia poderosa, há riscos importantes a serem considerados — preocupações com privacidade, potencial desqualificação da força de trabalho e, especialmente, questões relacionadas à tomada de decisões clínicas. É por isso que uma das etapas mais críticas que precisamos tomar é educar nossa força de trabalho de oncologia sobre o uso responsável de ferramentas de IA, particularmente modelos de linguagem grande. Isso é especialmente relevante no câncer de pulmão, onde a IA pode ajudar a melhorar os resultados, mas deve ser usada com cuidado.
Na sua opinião, o ChatGPT pode ser considerado um novo tipo de “Dr, Google”? Por quê? O ChatGPT é uma espécie de novo “Dr. Google”? De certa forma, sim. Muitos pacientes agora estão usando o ChatGPT em vez de pesquisar seus sintomas no Google, o que é completamente compreensível. Queremos que as pessoas sejam informadas e se sintam fortalecidas quando se trata de sua saúde. No entanto, assim como o Google, o ChatGPT não é um dispositivo médico. Ele nunca deve ser usado para tomada de decisão clínica real, a menos que seja aprovado como um dispositivo médico — esse deve ser sempre o papel dos profissionais de saúde por enquanto.
Mas a inteligência artificial generativa pode ser considerada mais perigosa do que o Google, quando pensamos em saúde, considerando os riscos de alucinações? As alucinações estão se tornando menos frequentes com modelos mais novos, que estão melhorando rapidamente. Mas elas não desapareceram completamente. Então, é sempre importante que os usuários — pacientes e clínicos — não desliguem seu pensamento crítico ao usar qualquer ferramenta.
Como as ferramentas de inteligência artificial podem melhorar o diagnóstico e o tratamento do câncer de pulmão? Olhando para o futuro, acredito que a IA desempenhará um papel importante na melhoria da qualidade e velocidade dos cuidados de saúde. Mas ela não substituirá (e não deve substituir) um dos princípios fundamentais da medicina moderna: a prática baseada em evidências. Qualquer ferramenta ou intervenção baseada em IA deve ser rigorosamente avaliada, e precisamos de bons dados para saber quanta confiança podemos depositar nesses sistemas.
* A repórter viajou para o Congresso Europeu de Câncer de Pulmão a convite da Johnson & Johnson Innovative Medicine no Brasil