|
Abstract:
|
Este trabalho realiza uma primeira reflexão comparativa entre o processamento de linguagem humano e os Large Language Models (LLMs), com base em uma revisão bibliográfica que integra contribuições da linguística, neurociência, filosofia da mente e ciência da computação. Partindo de marcos teóricos como a Gramática Universal de Chomsky (1955) e a pobreza do estímulo, o estudo contrasta a hipótese da faculdade linguística inata humana – recursiva, criativa e ancorada em experiências sensoriais e contextuais – com a arquitetura probabilística e baseada em dados dos LLMs, característica do cognitivismo. A hipótese central é que, embora os LLMs tenham alcançado notável capacidade de geração de texto (superando, em alguns contextos, o Teste de Turing (1950)), sua operação permanece fundamentalmente estatística, destituída de compreensão semântica, intencionalidade ou criatividade genuína. Por meio da análise de experimentos recentes (Linzen & Leonard, 2018; Amouyal et al., 2024; Houghton et al., 2023), demonstra-se que os modelos computacionais falham em replicar mecanismos cognitivos humanos, como a generalização a partir de dados limitados, a interpretação contextualizada e a ancoragem referencial no mundo real. Conclui-se que a diferença essencial reside na natureza experiencial da cognição humana, que integra linguagem, corpo e mundo, em contraste com o funcionalismo computacional dos LLMs, que opera por recombinação estatística de padrões linguísticos. A pesquisa sugere, portanto, que a capacidade humana de criar significado novo, imprevisível e intencional constitui uma fronteira ainda intransponível para a inteligência artificial. |