LLMs: o muro já é um espelho

dezembro 26, 2024 § Deixe um comentário

Em novembro, escrevi sobre como os Large Language Models (LLMs) pareciam estar batendo em um muro. Meu texto, “Chegamos ao ponto de retorno decrescente dos LLMs, e agora?”, explorou os desafios de escalar esses modelos e a crescente percepção de que força bruta e maiores conjuntos de dados não seriam suficientes para empurrá-los rumo à inteligência artificial geral. Argumentei que, embora os LLMs se destaquem em reconhecimento de padrões e fluência sintática, sua falta de raciocínio mais profundo e compreensão genuína expõe limitações críticas.

No último dia 05 de dezembro, Sundar Pichai confirmou em um evento do The New York Times o que a The Information havia noticiado no mês anterior.

Publicação da The Information – 05 de dezembro de 2024.

Durante o tal evento, o DealBook Summit, o CEO do Google fez uma observação reveladora: “O progresso vai se tornar mais difícil em 2025. Os frutos mais baixos já foram colhidos. A subida agora é mais íngreme”. Pichai destacou que a próxima onda de avanços na Inteligência Artificial dependerá de “rupturas técnicas” em áreas críticas, como o raciocínio e a capacidade de executar sequências de ações de forma mais confiável. Essa visão reforça o ponto que venho defendendo: superar as limitações atuais dos modelos de linguagem não será uma questão de apenas ampliar a escala, mas de abordar desafios fundamentais que exigem soluções inovadoras e uma reavaliação do que significa, de fato, avançar nesse campo de pesquisa.

Gary Marcus, em uma de suas recentes postagens no Substack, contribuiu com seus próprios insights sobre o tema, “Which CEO Will Be the Last to See the Truth About Generative AI?”. Marcus não apenas reforça a ideia de que os LLMs chegaram a um platô, mas vai além, questionando a fixação da indústria em tê-los como uma panaceia para o avanço da IA. Ele aponta como a obsessão com a IA generativa pode desviar a atenção de questões estruturais que precisam ser resolvidas para que esses sistemas realmente evoluam.

O artigo do Gary me chamou a atenção porque destaca uma questão fundamental com a qual tenho refletido: a inclinação de executivos e empreendedores da indústria da IA em exagerar nas promessas sobre capacidades e entregar menos no quesito robustez. Como ele observa, esse descompasso entre a hype e a realidade pode colocar em risco o progresso do campo da IA como um todo.

Meu texto de novembro focou principalmente nas limitações técnicas. Gary, por sua vez, traz à tona as deficiências culturais e estratégicas da indústria. Ele destaca o “tech FOMO” (medo de ficar para trás), que faz muitos CEOs insistirem em sistemas falhos, mesmo quando as falhas se tornam cada vez mais evidentes.

A verdadeira questão, como ambos parecemos concordar, não é se os LLMs podem continuar produzindo respostas inteligentes, mas se o próximo avanço na IA exigirá uma redefinição fundamental do que entendemos por inteligência. Acredito que essa transformação pode passar pela adoção de abordagens interdisciplinares — integrando perspectivas da ciência cognitiva, neurociência e até filosofia — para desenvolver sistemas que vão além da simples imitação da linguagem.

Isso me traz à mente uma lição valiosa: às vezes, topar com uma parede não é apenas um sinal para parar, mas uma oportunidade de olhar no espelho e refletir sobre as perguntas difíceis que precisam ser feitas para escolhermos o próximo passo.

E você, o que acha? Estamos prontos para enxergar além da parede — ou estamos tão fascinados com o nosso próprio reflexo que não conseguimos perceber o que está do outro lado?

Este artigo também pode ser lido em Update or Die. Publicado em 25 de dezembro de 2024.

LLMs: The Wall Is Now a Mirror

dezembro 6, 2024 § Deixe um comentário

From The Information — Dec 5th 2024

Back in November, I wrote about how Large Language Models (LLMs) seem to be hitting a wall. My piece, “LLMs Are Hitting the Wall: What’s Next?”, explored the challenges of scaling these models and the growing realization that brute force and larger datasets aren’t enough to push them closer to true intelligence. I argued that while LLMs excel in pattern recognition and syntactic fluency, their lack of deeper reasoning and genuine understanding exposes critical limitations.

Read the full essay now on Medium and Substack.

LLMs  Progresso Algorítmico – Parte 2

julho 8, 2024 § Deixe um comentário

Segundo vídeo sobre o progresso algorítmico dos LLMs. Aqui conversamos sobre o que esperar do futuro dos LLMs.

Material adicional:

Sistemas de pensamento: https://www.uiux.pt/2021/04/01/how-we-think-and-make-decisions/

Tree of Thoughts: https://arxiv.org/abs/2305.10601

AlphaGo: https://www.zdnet.com/article/deepmind-alphago-zero-learns-on-its-own-without-meatbag-intervention/

Diplomacy: https://arxiv.org/abs/2210.05492

Self-improvement looping (Imagination-Searching-Criticizing): https://www.linkedin.com/pulse/toward-self-improvement-llms-via-imagination-vlad-bogolin-cnzje/

PIT reward model: https://hackernoon.com/ai-self-improvement-how-pit-revolutionizes-llm-enhancement

LLMs Progresso Algorítmico – Parte 1

julho 1, 2024 § Deixe um comentário

Primeiro vídeo sobre o progresso algorítmico dos LLMs. Aqui vemos como é avaliado o progresso dos LLMs.

Material adicional:

Evolução dos modelos de IA: https://epochai.org/data/notable-ai-models#explore-the-data

Leis de dimensionamento (scale laws): https://medium.com/@zaiinn440/training-at-scale-chinchilla-scaling-laws-for-compute-optimal-training-of-llms-eca49f58c358

Multimodalidade (visão): https://blog.codepen.io/2023/03/15/gpt-4-demo-turns-a-crude-sketch-of-a-my-joke-website-into-a-functional-website-for-revealing-jokes/

Multimodalidade (áudio): https://openai.com/index/chatgpt-can-now-see-hear-and-speak/

Onde estou?

Você está navegando em publicações marcadas com LLMs em Marcelo Tibau.