Inteligência artificial do MIT aprende a dizer “não sei”
Novo modelo evita respostas erradas e abre caminho para sistemas mais confiáveis e éticos
Um dos maiores desafios da inteligência artificial generativa é a chamada alucinação, quando o sistema “inventa” informações com aparente segurança. Isso pode gerar desinformação, decisões erradas e perda de confiança. Para enfrentar esse problema, pesquisadores do MIT (Instituto de Tecnologia de Massachusetts) desenvolveram uma IA capaz de reconhecer quando não sabe a resposta — e se recusar a responder nesses casos.
A tecnologia foi apresentada no final de junho e representa um avanço importante na busca por modelos mais responsáveis e transparentes.
O que há de novo nesse modelo?
Batizado de “Confident Learning”, o modelo desenvolvido pelo MIT incorpora uma espécie de autocrítica algorítmica. Isso significa que, antes de dar uma resposta, a IA avalia:
Se está segura sobre a informação solicitada;
Se possui dados suficientes em sua base de conhecimento;
Se a pergunta entra em áreas de incerteza estatística.
Caso identifique baixo nível de confiança, o sistema informa ao usuário que não sabe ou não tem certeza, evitando gerar respostas potencialmente incorretas ou enganosas.
Por que isso é tão importante?
A maioria das IAs atuais — inclusive as mais populares, como ChatGPT, Gemini e Claude — tende a responder mesmo quando não possui base suficiente, gerando o que os pesquisadores chamam de “alucinação”.
Isso representa riscos sérios em áreas como:
Saúde: recomendações erradas podem colocar vidas em risco;
Direito: erros em interpretações legais podem ter consequências jurídicas;
Educação: desinformação compromete o aprendizado;
Jornalismo e mídia: proliferação de fake news geradas por IA.
Ao ensinar a IA a reconhecer seus próprios limites, o MIT avança na criação de modelos mais éticos, seguros e alinhados com as expectativas humanas.
Como funciona o sistema?
O sistema do MIT é treinado em dois níveis:
Base de conhecimento tradicional, com textos, códigos e imagens;
Meta-aprendizado, onde o modelo analisa a própria performance histórica e aprende a identificar padrões de incerteza.
O diferencial é que essa IA não responde automaticamente: ela pode optar por abster-se de opinar, algo que está sendo considerado como um marco no desenvolvimento de IA confiável (Trustworthy AI).
Aplicações futuras
Esse tipo de IA poderá ser integrado em:
Sistemas médicos assistivos, como diagnósticos por IA que alertam médicos quando não há confiança suficiente;
Assistentes jurídicos, que indicam falta de base normativa para determinadas consultas;
Plataformas de educação e pesquisa, onde é fundamental diferenciar entre fato, hipótese e incerteza.
Empresas como OpenAI e Google já estudam incorporar princípios semelhantes em futuras versões de seus modelos.
Este conteúdo foi produzido com apoio de ferramentas de IA, com curadoria, edição e responsabilidade editorial de Romulo Bacchiega. Para saber mais, acesse a nossa seção “Sobre” (clique aqui).