A inteligência artificial não reconhece o “não” – e isso é um grande problema para aplicações médicas

A inteligência artificial tem dificuldade em reconhecer negações – um problema sério para robôs médicos. Diagnósticos mal interpretados podem levar a erros graves. Como podemos resolver esse problema?

Inteligência Artificial na Medicina: diagnósticos assistidos por IA e seu papel no apoio aos médicos – um o crucial para o futuro dos cuidados médicos.

Nos últimos anos, a inteligência artificial (IA) fez um progresso impressionante na análise de dados de imagem e texto, especialmente por meio de modelos de linguagem de visão (VLMs) que vinculam imagens e texto.

Esses modelos têm aplicações promissoras na área médica, ajudando a analisar imagens médicas, como raios-X ou ressonâncias magnéticas, e combinando-as com descrições de texto correspondentes para auxiliar a equipe médica a fazer diagnósticos.

No entanto, uma fraqueza significativa dos sistemas de IA atuais, que muitas vezes é ignorada, é sua incapacidade de detectar negações corretamente.

A importância da negação no diagnóstico médico

Na medicina, a distinção precisa entre a presença e a ausência de sintomas ou sinais de doença é crucial.

A capacidade de identificar corretamente “não” ou “nenhum sinal de” é essencial na análise de imagens médicas.

Um sistema de IA que interpreta erroneamente uma imagem como “sinais de doença” quando na verdade ela não mostra “nenhum sinal de doença” pode causar diagnósticos incorretos graves.

Tais erros podem fazer com que os pacientes recebam tratamentos desnecessários ou, pior, que uma condição real seja ignorada.

Taxa de erro na detecção de negação

Os modelos atuais de visão e linguagem que combinam imagens e texto têm dificuldades consideráveis em interpretar corretamente as negações.

Em testes onde os modelos tiveram que pesquisar imagens com base na presença ou ausência de certos objetos, eles mostraram alta precisão na hora de identificar objetos. Mas quando eles foram solicitados a procurar imagens que não continham um objeto específico, a precisão caiu significativamente.

Isso ocorre porque esses modelos geralmente são focados na confirmação e na afirmação positiva. Isso significa que eles tendem a confirmar a presença de algo em vez de detectar sua ausência — um problema que pode levar a erros graves, especialmente na análise de imagens médicas.

A dimensão ética e a necessidade de modelos precisos de IA

Na aplicação médica das tecnologias de IA, é particularmente importante entender o significado das negações e implementá-las corretamente.

Na prática clínica, as negações podem fazer a diferença entre um diagnóstico correto e um incorreto.

Um modelo incapaz de detectar que “não há sinais de pneumonia” pode dar um resultado falsamente positivo, levando a tratamentos desnecessários ou até mesmo a decisões médicas incorretas.

Soluções e melhorias

Já existem abordagens iniciais para resolver os problemas com a detecção de negação. Uma solução possível seria treinar especificamente modelos de IA com conjuntos de dados que contenham negações.

Dessa forma, os modelos poderiam aprender a reconhecer e processar corretamente o significado de “não” ou “não” em um contexto médico. No entanto, este ainda é um primeiro o.

Rastreadores de saúde vestíveis e IA: monitoramento contínuo de dados de saúde para dar e a diagnósticos precisos e melhores decisões médicas.

É importante que desenvolvimentos futuros não apenas melhorem a capacidade da IA de detectar negação, mas também sua capacidade de entender o contexto de uma situação e responder corretamente.

E agora?

A incapacidade dos modelos de IA de interpretar corretamente as negações representa um obstáculo significativo ao uso generalizado dessas tecnologias na medicina. Apesar do progresso feito na melhoria das capacidades de detecção de negativos, ainda há muito trabalho a ser feito.

Somente dessa forma a inteligência artificial poderá ser utilizada como ferramenta segura e eficiente no diagnóstico e tratamento médico.

Referência da notícia

Vision-Language Models Do Not Understand Negation. 16 de janeiro, 2025. Alhamoud, et al.