A inteligência artificial (IA) já faz parte de um salto tecnológico que abrange cada vez mais aspectos da vida cotidiana, do trabalho aos relacionamentos pessoais. É um processo imparável, independentemente da nossa posição. Agora, a Apple Research publicou um estudo surpreendente que questiona a capacidade dos chamados large reasoning models (LRMs), modelos avançados de IA projetados para decompor problemas complexos, resolvendo quebra-cabeças lógicos com níveis de dificuldade crescentes.
Para analisar essas informações, é preciso dizer que por trás de tudo isso há uma guerra direta entre empresas do setor para conquistar uma posição de mercado mais forte, especialmente contra a OpenAI e o Google. E a Apple é a que tem ficado para trás nessa corrida. É por isso que muitos veem isso como uma tentativa de desacreditar a empresa sediada em Cupertino, Califórnia. Segundo seus pesquisadores, esses sistemas apresentam um "colapso total de precisão" quando a complexidade ultraa um determinado limite, piorando até mesmo seu desempenho em comparação com modelos menos sofisticados.
A pesquisa aponta que esse fenômeno não apenas expõe uma fraqueza específica, mas também uma falha estrutural de escala: à medida que a dificuldade aumenta, os LRMs reduzem seus esforços de raciocínio em vez de intensificá-los, algo semelhante à rendição. Em tarefas de dificuldade média, os LRMs obtêm um pequeno benefício ao assumir uma estratégia de pensamento, mas em níveis mais altos, todos os modelos entram em colapso completamente, mesmo quando equipados com o algoritmo correto para resolvê-los, como relata o site The Guardian.
Segundo a Apple, por trás do aparente raciocínio dos LRMs existe, na verdade, uma elegante simulação baseada em padrões. Os sistemas emulam cadeias de pensamento, mas, como alegado, não aplicam algoritmos explícitos ou lógica formal: eles respondem por associação.
Apple researchers say reasoning models are flawed!
— Kirk Borne (@KirkDBorne) June 9, 2025
See research paper: "The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity" https://t.co/4OpjSkuwAK#AI #MachineLearning #DeepLearning #GenAI #LLMs pic.twitter.com/Gd3BtVvCAy
É por isso que eles falham quando o problema exige seguir regras mecânicas, como na Torre de Hanoi: mesmo que recebam uma solução o a o, preferem seguir caminhos incorretos e, quando surge um ponto crítico, "desistem". Essa incapacidade de pensar está alinhada a vieses humanos documentados na psicologia cognitiva. Vieses como a ilusão de validade: avaliar decisões com excesso de confiança com base em padrões superficiais.
A causa, segundo outros estudos, pode ser atribuída ao que os pesquisadores chamam de "rigidez de raciocínio" ou dependência de padrões familiares. Um artigo do Instituto de Tecnologia de Massachusetts (MIT) mostra que as IAs, mesmo quando recebem instruções claras, tendem a ignorá-las e repetir estruturas familiares. Além disso, trabalhos anteriores sobre transformadores identificaram limitações em sua capacidade composicional: eles funcionam bem com padrões seriais, mas falham quando níveis mais complexos de raciocínio são exigidos.
O novo estudo (da perspectiva da Apple) sugere três fatores-chave que contribuem para o colapso: (1) uma dependência excessiva de padrões de treinamento, (2) uma lógica rígida que impede a adaptação a novas afirmações e (3) uma otimização que recompensa respostas rápidas em detrimento do raciocínio correto. Isso leva o sistema a desistir quando as etapas se tornam realmente desafiadoras. Essa combinação resulta em sistemas que se destacam em tarefas familiares, mas fracassam diante do desconhecido, incapazes de ampliar seu raciocínio.
Essas limitações lançam uma sombra sobre as perspectivas da IA de uso geral. A metáfora do colapso não é acidental: diante de quebra-cabeças cada vez mais complexos, as IAs não apenas falham, mas também desistem, um sintoma que pode afetar aplicações críticas onde o raciocínio não é opcional.
A comunidade científica já está debatendo novos caminhos: alguns propõem revisar arquiteturas neurais, outros propõem incorporar lógica simbólica ou dar maior ênfase ao aprendizado por meio de regras explícitas. A Apple, sem dúvida, abalou o paradigma: não basta imitar padrões; precisamos projetar sistemas capazes de raciocinar de forma consistente, adaptando-se e verificando seus próprios os, assim como humanos rigorosos fazem em matemática e ciências.