O desenvolvimento da Inteligência Artificial está sendo levado para um beco sem saída por um “efeito manada”. O alerta é de Gary Marcus, cientista cognitivo e um dos pioneiros da área, que critica a concentração de esforços em uma única abordagem tecnológica.
Segundo Marcus, a indústria de tecnologia está excessivamente focada nos grandes modelos de linguagem (LLMs). Essa é a tecnologia por trás de ferramentas como o ChatGPT, da OpenAI, e de produtos similares do Google e da Meta.
Essa concentração de investimentos e talentos em uma única direção está sufocando a exploração de outras abordagens. Para ele, a estratégia atual está se mostrando limitada e com falhas fundamentais que não são facilmente corrigíveis, conforme aponta o portal InfoMoney.
Marcus destaca que os LLMs atuais sofrem com problemas significativos, como as “alucinações”. Este termo descreve a tendência dos modelos de inventar fatos, fontes e informações de forma convincente, mas completamente falsa.
Ele argumenta que esses não são pequenos defeitos, mas sim falhas intrínsecas ao design da tecnologia. A natureza dos LLMs, baseada em prever a próxima palavra em uma sequência, torna a veracidade uma questão secundária e de difícil controle.
Além da falta de confiabilidade, o custo de treinamento e operação desses modelos é extremamente elevado. Isso cria uma barreira para a inovação fora das grandes corporações de tecnologia, que são as únicas com recursos para competir nesse cenário.
O “efeito manada” é alimentado por um ciclo de hype e pela pressão de investidores. Empresas como Microsoft, Anthropic e Cohere também estão na corrida, investindo bilhões para não ficarem para trás na competição dos LLMs.
Essa corrida, no entanto, prioriza demonstrações impressionantes em detrimento da construção de sistemas verdadeiramente confiáveis e robustos. O foco está em avanços incrementais na mesma linha, ignorando os problemas fundamentais.
Gary Marcus é uma voz respeitada no setor. Ele é autor, empreendedor e professor emérito de psicologia e neurociência na Universidade de Nova York. Sua experiência confere peso às suas críticas sobre a direção atual da indústria de IA.
Anteriormente, ele fundou a Geometric Intelligence, uma empresa de machine learning. A startup foi adquirida pelo Uber em 2016, o que demonstra seu histórico de sucesso na criação de tecnologias de ponta.
Como solução, Marcus defende a adoção de modelos híbridos de IA. Essa abordagem combina o aprendizado profundo (deep learning), que é excelente no reconhecimento de padrões, com a IA simbólica clássica, que lida melhor com regras, lógica e raciocínio.
A combinação das duas técnicas permitiria a criação de sistemas mais confiáveis e capazes de compreender o mundo de forma mais estruturada. Seria um caminho para superar as limitações inerentes aos LLMs puros.
Atualmente, Marcus lidera a Robust.AI, uma empresa que ele cofundou. O objetivo da companhia é justamente desenvolver uma plataforma de IA que seja inerentemente mais segura, confiável e escalável do que as soluções atuais.
A Robust.AI foca em aplicações onde a segurança é crítica, como no setor de robótica. A empresa busca construir uma base de software que permita aos desenvolvedores criar sistemas de IA que possam ser verdadeiramente confiáveis em ambientes complexos.
Para o pioneiro, a bolha do hype em torno dos LLMs eventualmente irá estourar. Isso ocorrerá quando as empresas perceberem que os custos e a falta de confiabilidade da tecnologia superam os benefícios para muitas aplicações práticas e críticas.
Ele prevê que, nesse momento, o mercado se abrirá novamente para abordagens mais diversificadas e robustas. A indústria será forçada a buscar soluções que vão além da simples previsão de texto, focando em compreensão e confiabilidade real.
📌 Leia mais: Descubra como a IA está transformando o mercado financeiro
📱 Siga o FintechNode no Instagram para não perder nenhuma novidade do mercado financeiro!