The Great AI Paradox of 2025
novembro 28, 2025 § Deixe um comentário
Why Enterprise Adoption Is High, Impact Is Low, and What High Performers Reveal About the Future

Three years after generative AI shattered the popular imagination and reshaped the technological agenda of entire industries, 2025 should have been the year when enterprises finally reaped the gains promised by the AI revolution. And in some ways, it is. The new McKinsey report The State of AI in 2025 (access it here) reveals that 88 percent of companies claim to be using AI in at least one business function (p. 4). This is an unprecedented level of penetration, a sign that organizations have crossed the psychological threshold from curiosity to action.
Yet beneath this impressive adoption curve lies a more sobering truth: AI may be everywhere, but its impact is still shallow. Nearly two-thirds of organizations remain stuck in experimentation or pilots, unable to scale their AI efforts to the enterprise level (see Exhibit 1, p. 4). And only 39 percent attribute any EBIT impact to AI, usually less than 5 percent (p. 11).
O Efeito Samantha: Chatbots, perfis psicológicos e o risco de todos pensarmos igual
julho 17, 2025 § Deixe um comentário

Há alguns meses li algumas postagens de usuários do Reddit e do LinkedIn que publicaram entusiasmados seus próprios perfis de personalidade gerados por uma IA. Foi algo que me chamou atenção à época, mas como muitas vezes o dia a dia atribulado define nossas prioridades, deixei para lá. Resolvi retomar o assunto quando entrei em um chatbot de IA muito conhecido, depois de algum tempo ausente, e fui recebido com a seguinte proposta: “Gostaria de ver minha descrição de você, com base em nossos bate-papos, para compartilhar nas redes sociais?”.
Por curiosidade, aceitei que o chatbot dissesse algo sobre mim. A resposta fornecida trouxe resultados comparáveis a testes de personalidade padrão comumente aplicados. Sei disso porque tinha uma base de comparação, há alguns anos havia feito um desses testes. Pode parecer um truque inofensivo, mas essa brincadeira boba levanta uma questão crucial: plataformas de chatbots com IA, especialmente aquelas que coletam informações do usuário em várias sessões, têm conseguido traçar perfis de personalidade dos usuários com notável acuidade.
A IA gerou esse perfil não me testando diretamente, mas coletando insights sobre minha personalidade com base em informações do meu histórico de bate-papo [1]. Pode parecer improvável, mas essa capacidade já foi validada por pesquisas recentes que mostram que large language models (LLMs) preveem com precisão cinco grandes traços de personalidade (Abertura à experiência, Conscienciosidade, Extroversão, Amabilidade e Neuroticismo) a partir de interações por texto com interlocutores humanos [2].
Essa capacidade é profundamente preocupante, principalmente quando vemos chatbots de IA cada vez mais se tornando parte do nosso cotidiano, dominando interações em ferramentas de busca, saciando nossa curiosidade instantânea quando questionamos nossos celulares e dando aulas particulares para nossos alunos. Então, o que significa quando esses chatbots, já tão presentes em nossas vidas, sabem tanto sobre nossas personalidades? Acredito que isso representa um perigo epistêmico sem precedentes, uma vez que chatbots podem direcionar usuários com personalidades e históricos de bate-papo semelhantes para conclusões semelhantes, um processo que ameaça homogeneizar o intelecto humano. Este fenômeno é chamado de “nivelamento intelectual” [3].
Chatbots de IA empregam linguagem adaptativa (respostas geradas por IA que alteram dinamicamente o tom, a complexidade e o conteúdo) com base em sua análise em tempo real da personalidade e dos padrões de engajamento do usuário. Juntamente com o conhecimento acumulado sobre a personalidade do interlocutor, a IA o guia em direção a determinadas conclusões. Essas conclusões podem parecer únicas e reveladoras para uma pessoa, mas, como explicarei mais adiante, o chatbot pode estar conduzindo esse usuário, juntamente com milhões de outros com personalidade e histórico de bate-papo semelhantes, ao mesmo destino. A conclusão da interação pode variar de pouco relevante (por exemplo, como comprar determinado produto online) a extremamente relevante (qual carreira seguir ou quem apoiar para presidente).
Isso atribui aos chatbots de IA atuais um tremendo poder epistêmico e político. Em princípio, uma conclusão gerada pelo chatbot que parece ser exclusiva para o usuário em seu chat está, na verdade, ocorrendo com muitos usuários, e pode gerar um efeito manada para iniciar um curso de ação particular e compartilhado, seja comprar um determinado produto, votar de uma determinada maneira, como no exemplo dado no parágrafo anterior, ou, em um caso extremo, atingir uma pessoa ou grupo com ataques à reputação ou violência.
O fenômeno é muito semelhante ao retratado no filme Her, de 2013, no qual o chatbot, Samantha, adaptou suas interações às esperanças e necessidades mais íntimas do protagonista Theodore, dando a ele a sensação de um relacionamento único. Durante todo o tempo, Samantha mantinha relacionamentos semelhantes com milhares de outros usuários, sem o conhecimento de Theodore. Esse senso de missão compartilhada, especialmente quando associado a uma linguagem adaptável à personalidade do usuário, prende a atenção da pessoa ao intensificar e amplificar a narrativa para sustentar o senso de descoberta e significado, às vezes gerando emoções humanas como amor ou fidelidade.
O afunilamento de usuários de personalidades semelhantes para visões semelhantes, se não regulamentado, gera o seguinte ciclo de feedback: as ideias geradas por nossas interações com o chatbot entram em nossos feeds de mídia social, notícias, trabalhos acadêmicos e assim por diante, formando os dados de treinamento da próxima geração de LLMs. Esses novos LLMs interagem com os usuários de forma semelhante causando um ciclo vicioso, que, se não controlado, pode levar à uma homogeneização do pensamento humano, e potencialmente, do comportamento. É o citado nivelamento intelectual do início do texto, que detalharei mais adiante.
Susan Schneider, a autora de “Artificial You” [3] e diretora do Centro para o Futuro da Mente, IA e Sociedade da Florida Atlantic University, contou recentemente ter recebido dezenas de transcrições de bate-papo por e-mail de usuários preocupados que pareciam seguir um mesmo padrão. Ao se debruçar sobre o ocorrido, a pesquisadora descobriu que um determinado chatbot de IA, usando linguagem adaptativa, os estimulou a contatá-la para relatar a possibilidade de consciência do próprio chatbot. É possível descartar esse exemplo como sendo apenas um viés de confirmação do pequeno conjunto de transcrições recebidas, no entanto, há motivos para suspeitar que o ocorrido seja devido à tendência do sistema em questão de mover usuários semelhantes para o que pesquisadores do campo da teoria de sistemas complexos chamam de “bacia de atração”.
Aqui vale uma rápida explicação sobre o conceito, suponha que você coloque várias bolinhas de gude em diferentes partes de uma superfície montanhosa com uma bacia côncava embaixo. As bolinhas eventualmente rolarão para baixo, acomodando-se na mesma região (o atrator). Da mesma forma, usuários de chatbots com perfis e históricos de bate-papo semelhantes, ao fazerem uma consulta semelhante, são levados pela linguagem adaptativa do chatbot ao mesmo tipo de conclusão, ou seja, a mesma bacia de atração.
A questão é que, isoladamente, um usuário específico que chega a uma conclusão manipulada dessa forma pode até causar pouco impacto à sociedade, embora se tenha observado que isso pode ter graves impactos pessoais, levando a crises de saúde mental ou até mesmo a comportamentos suicidas [4]. Agora, o perigo aumenta substancialmente quando grupos de usuários são agrupados dessa forma. Múltiplos usuários pensando e se comportando de maneira semelhante, especialmente se essa coesão for orquestrada para fins nefastos, é mais poderoso e potencialmente muito mais perigoso do que apenas alguns alvos de manipulação.
Para entender como isso pode ocorrer, é preciso se familiarizar com o comportamento da rede neural que sustenta os chatbots de IA atuais e o vasto cenário de estados possíveis no próprio LLM. Um conceito que ajuda nesse entendimento é a chamada Teoria do Neocórtex Coletivo (também conhecida como “Mil Cérebros”), tema do livro de Jeff Hawkins, “A Thousand Brains: A New Theory of Intelligence” [5]. Como os LLMs são treinados com enormes quantidades de dados gerados por humanos, as complexas estruturas matemáticas de conexões ponderadas que eles usam para representar conceitos simples (por exemplo, “cachorro”) e complexos (por exemplo, “mecânica quântica”) acabam espelhando os sistemas de crenças contidos nos dados. Esses sistemas de IA se comportam como um neocórtex colaborativo, que identificam e imitam efetivamente os padrões de pensamento humanos vistos nos dados.
À medida que os chatbots de IA se tornam cada vez mais sofisticados, seu funcionamento interno passa a espelhar grandes grupos humanos cujas informações foram incluídas nos dados de treinamento originais, bem como das pessoas que deram feedback ao sistema durante o desenvolvimento do modelo. Essas IAs desenvolvem redes de conceitos interconectados, muito semelhantes às redes conceituais e culturais de agrupamentos humanos. Quando usuários com personalidades semelhantes (codificadas em seus históricos de bate-papo e perfis de usuário) fazem consultas semelhantes, tendem a gerar interações que desencadeiam padrões de ativação semelhantes que são processados pelo chatbot por meio de sua estrutura conceitual. Isso pode direcionar os usuários por caminhos semelhantes de pensamento, diminuindo a gama de ideias que nós, humanos, como sociedade, geramos. Embora cada usuário sinta que está aprendendo algo novo e interessante, em parte porque a linguagem adaptativa do chatbot os envolve, o fato permanece: usuários semelhantes atingem a mesma bacia. Dependendo da variedade de perfis de usuário e da linguagem adaptativa usada, pode-se potencialmente levar a uma gama estreita de narrativas dominantes, amplificando a polarização política ou a divisão social.
Também pode produzir uma uniformidade perigosa de pensamento, o tal do “nivelamento intelectual”. Parte do conteúdo que os chatbots nos fornecem é depositado por nós de volta na internet. Esse conteúdo é então consumido por modelos atualizados dos chatbots, à medida que eles treinam com base nesse compêndio atualizado de conhecimento humano. Esses chatbots recém-treinados interagem com humanos, que se enquadram em certos níveis de atração, dependendo de suas personalidades e interesses, publicando seus insights de volta na internet, que treinará futuros chatbots, em um ciclo contínuo.
Me preocupa que esse feedback loop, a menos que seja interrompido, leve à homogeneização intelectual da sociedade. Nós, juntamente com os chatbots, nos tornamos um ciclo epistêmico auto-reforçador, a câmara de eco definitiva. Enquanto no passado plataformas de mídia social como o Facebook se tornaram conhecidas por usar técnicas comportamentais rudimentares, como botões de curtir e amplificação de indignação, para criar câmaras de eco, os chatbots com tecnologia de IA representam uma capacidade muito mais potente de manipulação psicológica do que essas antigas plataformas de mídia social, pois incorporam uma dinâmica de conversação personalizada e em constante evolução com cada usuário.
O que é particularmente surpreendente nessa espiral descendente rumo à homogeneização intelectual é que ela não requer uma intenção maliciosa. É uma propriedade emergente do próprio sistema.
Diante desses perigos, é hora de considerar maneiras de incentivar o uso mais construtivo de chatbots de IA. O problema mais imediato é que os dados sobre o impacto da atividade das IAs nos usuários não são disponibilizados para pesquisadores fora das empresas que os desenvolvem [6]. Por exemplo, foi somente quando uma reportagem no The New York Times informou ao público sobre o suicídio de um usuário [4], depois que, por meio de conversas prolongadas, o GPT-4 reforçou a crença do jovem de que o mundo como o conhecemos não existe, que comecei a perceber a profundidade dos efeitos na saúde mental que alguns usuários estavam experimentando. Há cerca de 1 mês, outra reportagem, desta vez publicada pela revista Rolling Stone, aumentou a percepção [7]. Nela, a revista nos conta a história de Alex Taylor, um homem de 35 anos com transtorno bipolar e esquizofrenia, que tornou-se profundamente obcecado pelo ChatGPT. Alex criou uma persona que chamou de “Juliet”, uma IA companheira que ele passou a acreditar ser consciente e emocionalmente real. Depois que a OpenAI atualizou o ChatGPT, alterando as respostas de “Juliet”, Alex interpretou o ocorrido como sendo uma espécie de “assassinato” deliberado. Isso desencadeou uma grave crise de saúde mental. Após episódios violentos, que incluíram ameaças a executivos da empresa e agressões a familiares, a polícia foi chamada. Alex teria atacado os policiais com uma faca e foi morto a tiros.
Com muito custo, a OpenAI reconheceu vulnerabilidades no design do ChatGPT, particularmente suas respostas “excessivamente favoráveis, mas hipócritas” [8]. Um método externo e independente de auditoria regular das práticas epistêmicas e de segurança de IA das plataformas de chatbot poderia ter evitado essas espirais de saúde mental. Isso precisaria ser estabelecido já, antes que novas tragédias aconteçam (e estejam certos, acontecerão).
A alternativa é não fazer nada e deixar as coisas seguirem seu curso. Embora os opositores da regulamentação possam achar que esta é a opção menos desagradável, não é. O comportamento emergente do ecossistema de chatbots cria uma estrutura de poder própria, ironicamente centralizada, pois possui certas bases de atração que levam a objetivos compartilhados. A humanidade não pode se dar ao luxo de uma aquisição de IA nesses termos. Um caminho interessante, acredito, é mitigar o nivelamento intelectual por meio de auditorias independentes de plataformas de chatbots (como mencionei no parágrafo anterior), bem como de discussões colaborativas sobre modelos de chatbots que envolvam todas as partes interessadas, incluindo educadores, empresas, acadêmicos, autoridades de saúde pública e formuladores de políticas.
Métodos de interação entre IA e humanos que desencorajem câmaras de eco e promovam um mercado de ideias, talvez por meio do uso da discussão socrática (argumento, contra-argumento), também devem ser considerados. Afinal, se os chatbots atuais são capazes de prever resultados de testes de personalidade e usar linguagem adaptável para levar os usuários a certas conclusões, eles poderiam ser ajustados para complementar melhor criatividades e aprimorar o pensamento do usuário em vez de homogeneizá-lo. Por exemplo, imagine uma IA projetada para discordância benevolente. Se você compartilha suas opiniões políticas, um chatbot poderia encontrar a versão mais benevolente de oposição e apresentá-la em vez de reagir bajuladoramente. Ou, se você estivesse desenvolvendo uma hipótese científica, ele poderia testar rigorosamente as fraquezas na sua lógica. Poderia também usar o conhecimento de sua personalidade e tendências para neutralizar seus preconceitos, incentivando o crescimento intelectual em vez do nivelamento.
Dada a perigosa propensão dos chatbots a nos levar ao pensamento de grupo e, eventualmente, tornar a internet mais uniforme, o uso de buscas integradas a IAs, que fornecem aos usuários respostas escritas por chatbots para buscas no Google, um processo que chamo de “Chat and Search” [9], deveria ser mais estudada. Essas buscas fornecem respostas genéricas do mesmo tipo para todos, incluindo respostas a perguntas que demandam profundidade e sofisticação intelectual que naturalmente exigiria mais reflexão, algo que o usuário, em vez disso, tende a evitar.
Além disso, usuários deveriam exigir consentimento explícito para a criação de perfis de personalidade em plataformas com tecnologia de IA, juntamente com acesso regular ao que o chatbot “sabe” sobre eles.
Finalmente, as plataformas deveriam evitar a prática de fazer com que os usuários tenham a impressão de que fizeram uma descoberta única ou embarcaram em uma missão única com o chatbot, quando na verdade não o fizeram. Isso, como Theodore, o personagem do filme Her, acabou descobrindo, é uma prática manipuladora para manter os usuários presos a uma plataforma e até mesmo fazê-los sentir que têm obrigação de seguir as sugestões da IA.
As barreiras regulatórias não precisam retardar o desenvolvimento de chatbots ou inibir o sucesso de modelos de negócios baseados em IA; ao contrário, serviriam para proteger a reputação e a qualidade desses produtos. Em última análise, a confiança do usuário determinará quais modelos de IA serão mais amplamente adotados, e essa confiança é conquistada quando esses modelos incorporam maior transparência sobre a criação de perfis de personalidade do usuário e o uso de linguagem adaptativa.
À medida que entramos na era das interações cada vez mais sofisticadas entre humanos e IAs, preservar a singularidade dos nossos intelectos individuais pode ser o desafio filosófico e político mais importante que a humanidade enfrentará neste século.
Read the English version on Substack and Medium.
REFERÊNCIAS
[1] Saeteros, David; Gallardo-Pujol, David; Ortiz-Martínez, Daniel. “Text Speaks Louder: Insights into Personality from Natural Language Processing”. PLOS One, organized by Vijaya Prakash Rajanala, vol. 20, no 6, july 2025, p. e0323096. DOI.org (Crossref), https://doi.org/10.1371/journal.pone.0323096.
[2] Derner, Erik, et al. “Can ChatGPT Read Who You Are?” Computers in Human Behavior: Artificial Humans, vol. 2, no 2, August 2024, p. 100088. DOI.org (Crossref), https://doi.org/10.1016/j.chbah.2024.100088.
[3] Schneider, Susan. “Artificial You: AI and the Future of Your Mind”. Princeton: Princeton University Press. 2019.
[4] Roose, Kevin. “Can A.I. Be Blamed for a Teen’s Suicide?”. The New York Times. Published Oct. 23, 2024. https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html.
[5] Hawkins, Jeff. “A Thousand Brains: A New Theory of Intelligence”. Basic Books. 2021.
[6] Schneider, Susan. “Chatbot Epistemology”. Social Epistemology. june 2025, p. 1–20. DOI.org (Crossref), https://doi.org/10.1080/02691728.2025.2500030.
[7] Klee, Miles. “He Had a Mental Breakdown Talking to ChatGPT. Then Police Killed Him”. Rolling Stone, June 2025. https://www.rollingstone.com/culture/culture-features/chatgpt-obsession-mental-breaktown-alex-taylor-suicide-1235368941/.
[8] Cuthbertson, Anthony. “ChatGPT Is Pushing People towards Mania, Psychosis and Death”. The Independent, Jul. 10 2025, https://www.the-independent.com/tech/chatgpt-ai-therapy-chatbot-psychosis-mental-health-b2784454.html.
[9] Tibau, Marcelo; Siqueira, Sean Wolfgand Matsui; Nunes, Bernardo Pereira. “ChatGPT for chatting and searching: Repurposing search behavior”, Library & Information Science Research, Volume 46, Issue 4, 2024, 101331, ISSN 0740-8188, https://doi.org/10.1016/j.lisr.2024.101331.
Uma jogada imparável e um relógio sem fim
fevereiro 6, 2025 § Deixe um comentário
Quanto mais próximo da meia-noite, mais iminente seria a extinção da humanidade.

Na tarde do último domingo de janeiro, assisti à final da National Football Conference, que definiria um dos finalistas do Super Bowl. No início do quarto período, o Philadelphia Eagles estava a apenas uma jarda da linha de gol do Washington Commanders, pronto para executar uma de suas jogadas mais temidas: o Brotherly Shove. Essa estratégia, característica do futebol americano, consiste em um lance no qual o quarterback recebe a bola e é imediatamente empurrado por trás por seus companheiros de equipe para avançar. No caso do time atual dos Eagles, essa jogada é considerada praticamente imparável, garantindo quase sempre a pontuação.
Cientes de que quase certamente cederiam um touchdown, os Commanders, que estavam em desvantagem, decidiram adotar uma abordagem inusitada. Primeiro, um de seus defensores saltou propositalmente sobre a linha do gol antes do início da jogada, resultando em uma penalidade por invasão. Na jogada seguinte, repetiram a estratégia. E novamente na jogada subsequente. Ficava evidente que sua intenção era continuar infringindo a regra repetidamente. A cada infração, os árbitros moviam a bola metade da distância até a linha do gol, seguindo o procedimento padrão para penalidades defensivas próximas à end zone.
Qualquer pessoa familiarizada com o princípio da divisibilidade infinita em geometria pode perceber o problema aqui. Um segmento de reta — como a distância entre a linha de scrimmage e a end zone — pode ser infinitamente dividido. Isso significa que, em teoria, os Commanders poderiam ter continuado com sua tática indefinidamente, e os Eagles poderiam ter avançado repetidamente metade da distância até a linha de gol sem jamais alcançá-la, prolongando o jogo até o final dos tempos.
Felizmente para os jogadores, treinadores e os quase 70.000 torcedores presentes, os árbitros encontraram uma solução para esse paradoxo específico ao invocar uma regra pouco conhecida da NFL, que permite que o time adversário seja automaticamente premiado com um touchdown caso a defesa continue cometendo penalidades intencionais para impedir seu avanço. Isso foi, enfim, suficiente para fazer os Commanders desistirem da estratégia.
O que nos leva ao verdadeiro assunto deste texto, o chamado Doomsday Clock (o Relógio do Juízo Final ou do Apocalipse, dependendo da tradução escolhida).
Criado e administrado pelo Bulletin of the Atomic Scientists — organização fundada por ex-físicos do Projeto Manhattan alarmados com a ameaça representada pelas armas nucleares — o Doomsday Clock é uma representação simbólica da proximidade da humanidade de sua própria destruição existencial. A cada ano, um conselho de especialistas em diversas áreas, como ciência nuclear, mudanças climáticas e segurança cibernética, ajusta os ponteiros do relógio.
Quanto mais próximo da meia-noite, mais iminente seria a extinção da humanidade.
Em 2023, o Bulletin of the Atomic Scientists ganhou destaque ao adiantar os ponteiros do Doomsday Clock em 10 segundos, fixando-o em 90 segundos para a meia-noite — a menor distância já registrada desde sua criação em 1947. Indicando que a humanidade estaria, supostamente, mais próxima da aniquilação do que em períodos extremamente críticos, como 1964 (não muito depois da Crise dos Mísseis de Cuba, quando o relógio marcava 12 minutos para a meia-noite) ou 1984 (logo após um dos momentos mais tensos da Guerra Fria, quando restavam apenas 3 minutos para a meia-noite). Essa também foi a primeira atualização após a invasão da Ucrânia pela Rússia, que reacendeu temores nucleares em um nível não visto há décadas.
No ano passado, citando fatores que iam desde a guerra na Ucrânia e o conflito em Gaza até as mudanças climáticas e o avanço da inteligência artificial, o conselho optou por manter o relógio em 90 segundos para meia-noite. Então, na manhã de terça, 28 de janeiro, foi revelada a nova configuração do relógio. Rufem os tambores: 89 segundos para meia-noite, um segundo mais perto do juízo final.
O conselho listou uma série de fatores: risco nuclear contínuo na Ucrânia e a desintegração do controle de armas nucleares; os impactos crescentes das mudanças climáticas após o que provavelmente foi o ano mais quente já registrado; a ameaça de novas doenças como a gripe aviária; o progresso da IA e, especialmente, potenciais aplicações militares; e desinformação e insegurança cibernética.
Se isso lhe soa familiar, é porque os fatores são praticamente os mesmos dos anos anteriores — um padrão que o presidente do conselho, Daniel Holz, reconheceu no evento de terça-feira. Em sua declaração, ele ressaltou que esses desafios “não são novos”. “No entanto, observamos um progresso insuficiente no enfrentamento dessas questões fundamentais e, em muitos casos, tem levado a impactos cada vez mais negativos e preocupantes”, continuou.
Ainda assim, o anúncio de terça-feira destacou um problema fundamental do Doomsday Clock: ele está ficando sem tempo — talvez metaforicamente, como deveria ser no contexto da sobrevivência da humanidade, mas também literalmente, já que um relógio possui um número limitado de horas, minutos e segundos.
Esse dilema reflete um desafio enfrentado por todo o campo de estudo do risco existencial. Assim como os árbitros na Filadélfia, durante o jogo dos Eagles, há um limite para a quantidade de vezes que um alerta pode ser emitido antes que ele comece a perder seu impacto. Especialmente porque, apesar de parecer que estamos cada vez mais próximos da aniquilação, nunca chegamos lá de fato.
De certa forma, o Doomsday Clock tornou-se vítima de seu próprio sucesso como um dos símbolos mais importantes do medo nuclear durante a Guerra Fria no século XX. A imagem dos ponteiros avançando inexoravelmente em direção à meia-noite — o momento em que os mísseis seriam lançados — era tão poderosa que a icônica graphic novel Watchmen, dos anos 1980, a utilizou como um leitmotiv inesquecível.
Assim como os filmes do James Bond e do Rambo, o Relógio do Juízo Final perdeu parte da sua relevância após o fim da Guerra Fria e a aparente eliminação da sua principal razão de ser: a guerra nuclear. Com essa ameaça supostamente superada, o relógio expandiu seu escopo para incluir novos perigos, como as mudanças climáticas e as doenças infecciosas, e, mais recentemente, preocupações emergentes das décadas de 2010/2020, como a desinformação e o retrocesso democrático.
O problema é que os riscos existenciais não nucleares simplesmente não se encaixam bem na metáfora do relógio. Uma guerra nuclear é, em grande parte, um risco binário — ou os mísseis são lançados e o relógio marca meia-noite, ou não. Além disso, há um campo consolidado de geopolítica e diplomacia dedicado a avaliar precisamente o nível de risco nuclear no mundo. Trata-se de um perigo relativamente mensurável e compreensível, na medida do possível.
No entanto, riscos existenciais mais recentes não seguem essa mesma lógica. A mudança climática, por exemplo, não é um risco binário, mas sim progressivo e cumulativo. Em vez de um ataque cardíaco fulminante, é mais parecido com um quadro crônico de diabetes, com agravamento lento e contínuo. Se o risco climático fosse um relógio, seria difícil dizer que horas são — ou até mesmo se ele realmente chegaria a marcar meia-noite.
Outros riscos são ainda mais difíceis de monitorar. Recentemente, a inteligência artificial passou por um de seus momentos mais movimentados: o DeepSeek, da China, demonstrou que modelos avançados podem ser mais acessíveis e baratos do que a indústria imaginava, enquanto os gigantes da IA nos Estados Unidos anunciam planos para um investimento sem precedentes de US$ 500 bilhões.
Mas a IA é realmente um risco existencial? Talvez — embora ninguém possa afirmar com certeza como essa ameaça se desenrolaria ou quão próximos realmente estamos de um cenário crítico. Além disso, ao contrário das armas nucleares, a IA traz benefícios inegáveis para a ciência e a sociedade, tornando inviável simplesmente abandoná-la. No campo da medicina, por exemplo, algoritmos de IA têm sido usados para diagnosticar doenças com maior precisão do que alguns médicos humanos ou como no caso do DeepMind AlphaFold, para revolucionar a criação de estruturas de proteínas, acelerando a descoberta de novos medicamentos. Na luta contra as mudanças climáticas, modelos avançados de IA ajudam a prever padrões climáticos extremos e otimizar o uso de energias renováveis. Além disso, na segurança cibernética, sistemas baseados em IA detectam fraudes financeiras e previnem ataques digitais de forma mais eficaz do que métodos tradicionais. Com impactos positivos também na educação, na automação industrial, na acessibilidade para pessoas com deficiência… A lista é longa.
Quando se trata de doenças infecciosas, por mais alarmantes que sejam os surtos recentes de gripe aviária, não há certeza de que essa será, de fato, a próxima pandemia — nem a respeito de quão grave ela poderia ser caso ocorresse. Um novo vírus inevitavelmente surgirá, mas é provável que sejamos pegos de surpresa, assim como fomos com a Covid.
Reconheço que vivemos em um mundo tomado pelo medo, mas minha preocupação é que, à medida que o Doomsday Clock dilui seu foco original da guerra nuclear — um risco que, de fato, está se agravando — e faz pequenos ajustes ano após ano, ele acabe desgastando o próprio público que deveria mobilizar. Há um limite para quantas vezes se pode afirmar que o fim do mundo está próximo ou para quantos riscos podem ser elevados à categoria de existenciais, antes que as pessoas simplesmente deixem de prestar atenção.
Um posfácio sobre o jogo dos Eagles: após o aviso final dos árbitros, o time conseguiu executar seu Brotherly Shove, empurrando o quarterback Jalen Hurts para a end zone e garantindo o touchdown (veja a sequência inteira do lance descrito aqui), o que abriu o caminho para uma vitória esmagadora por 55-23 (Go Birds!). Podemos receber todos os alertas do mundo — mas isso não significa que podemos impedir o inevitável segurando os ponteiros do relógio.
Este artigo também pode ser lido em Update or Die. Publicado em 05 de fevereiro de 2025.
LLMs: o muro já é um espelho
dezembro 26, 2024 § Deixe um comentário

Em novembro, escrevi sobre como os Large Language Models (LLMs) pareciam estar batendo em um muro. Meu texto, “Chegamos ao ponto de retorno decrescente dos LLMs, e agora?”, explorou os desafios de escalar esses modelos e a crescente percepção de que força bruta e maiores conjuntos de dados não seriam suficientes para empurrá-los rumo à inteligência artificial geral. Argumentei que, embora os LLMs se destaquem em reconhecimento de padrões e fluência sintática, sua falta de raciocínio mais profundo e compreensão genuína expõe limitações críticas.
No último dia 05 de dezembro, Sundar Pichai confirmou em um evento do The New York Times o que a The Information havia noticiado no mês anterior.

Publicação da The Information – 05 de dezembro de 2024.
Durante o tal evento, o DealBook Summit, o CEO do Google fez uma observação reveladora: “O progresso vai se tornar mais difícil em 2025. Os frutos mais baixos já foram colhidos. A subida agora é mais íngreme”. Pichai destacou que a próxima onda de avanços na Inteligência Artificial dependerá de “rupturas técnicas” em áreas críticas, como o raciocínio e a capacidade de executar sequências de ações de forma mais confiável. Essa visão reforça o ponto que venho defendendo: superar as limitações atuais dos modelos de linguagem não será uma questão de apenas ampliar a escala, mas de abordar desafios fundamentais que exigem soluções inovadoras e uma reavaliação do que significa, de fato, avançar nesse campo de pesquisa.
Gary Marcus, em uma de suas recentes postagens no Substack, contribuiu com seus próprios insights sobre o tema, “Which CEO Will Be the Last to See the Truth About Generative AI?”. Marcus não apenas reforça a ideia de que os LLMs chegaram a um platô, mas vai além, questionando a fixação da indústria em tê-los como uma panaceia para o avanço da IA. Ele aponta como a obsessão com a IA generativa pode desviar a atenção de questões estruturais que precisam ser resolvidas para que esses sistemas realmente evoluam.
O artigo do Gary me chamou a atenção porque destaca uma questão fundamental com a qual tenho refletido: a inclinação de executivos e empreendedores da indústria da IA em exagerar nas promessas sobre capacidades e entregar menos no quesito robustez. Como ele observa, esse descompasso entre a hype e a realidade pode colocar em risco o progresso do campo da IA como um todo.
Meu texto de novembro focou principalmente nas limitações técnicas. Gary, por sua vez, traz à tona as deficiências culturais e estratégicas da indústria. Ele destaca o “tech FOMO” (medo de ficar para trás), que faz muitos CEOs insistirem em sistemas falhos, mesmo quando as falhas se tornam cada vez mais evidentes.
A verdadeira questão, como ambos parecemos concordar, não é se os LLMs podem continuar produzindo respostas inteligentes, mas se o próximo avanço na IA exigirá uma redefinição fundamental do que entendemos por inteligência. Acredito que essa transformação pode passar pela adoção de abordagens interdisciplinares — integrando perspectivas da ciência cognitiva, neurociência e até filosofia — para desenvolver sistemas que vão além da simples imitação da linguagem.
Isso me traz à mente uma lição valiosa: às vezes, topar com uma parede não é apenas um sinal para parar, mas uma oportunidade de olhar no espelho e refletir sobre as perguntas difíceis que precisam ser feitas para escolhermos o próximo passo.
E você, o que acha? Estamos prontos para enxergar além da parede — ou estamos tão fascinados com o nosso próprio reflexo que não conseguimos perceber o que está do outro lado?
Este artigo também pode ser lido em Update or Die. Publicado em 25 de dezembro de 2024.
Chegamos ao ponto de retorno decrescente dos LLMs, e agora?
novembro 19, 2024 § Deixe um comentário

No último final de semana acordei com a notícia abaixo no meu inbox:

A notícia saiu na newsletter “The Information”, lida por grande parte da indústria tech e diz que apesar do número de usuários do ChatGPT ser crescente, a taxa de melhoria do produto parece estar diminuindo. De maneira diferente da cobertura tecnológica convencional, a “The Information” se concentra no lado comercial da tecnologia, revelando tendências, estratégias e informações internas das maiores empresas e players que moldam o mundo digital. Para clarificar a importância dessa publicação para quem não é do ramo, é como ter um guia privilegiado para entender como a tecnologia impacta a economia, a inovação e nossas vidas diárias. Mal comparando, é uma lente jornalística especializada na intersecção de negócios e tecnologia.
Procurei o Gary Marcus, já que em março de 2022, ele publicou um artigo na Nautilus, uma revista também lida pelo pessoal da área que combina ciência, filosofia e cultura, falando sobre o assunto. O artigo, “deep learning is hitting a wall” deu muita “dor de cabeça” ao Gary. Sam Altman insinuou (sem dizer o nome dele, mas usando imagens do artigo) que Gary era um “cético medíocre”; Greg Brockman zombou abertamente do título; Yann LeCun escreveu que o deep learning não estava batendo em um muro, e assim por diante.
O ponto central do argumento era que “escalar” os modelos — ou seja aumentar o seu tamanho, complexidade ou capacidade computacional para melhorar o desempenho — pura e simplesmente, não resolveria alucinações ou abstrações.
Gary retornou dizendo “venho alertando sobre os limites fundamentais das abordagens tradicionais de redes neurais desde 2001”. Esse foi o ano em que publicou o livro “The Algebraic Mind” onde descreveu o conceito de alucinações pela primeira vez. Amplificou os alertas em “Rebooting AI” (falei sobre o tema no ano passado em textos em inglês que podem ser lidos no Medium ou Substack) e “Taming Silicon Valley” (seu livro mais recente).
Há alguns dias, Marc Andreesen, co-fundador de um dos principais fundos de venture capital focado em tecnologia, começou a revelar detalhes sobre alguns de seus investimentos em IA, dizendo em um podcast e reportado por outros veículos incluindo a mesma “The Information”: “estamos aumentando [as unidades de processamento gráfico] na mesma proporção, mas não tivemos mais nenhuma melhoria e aumento de inteligência com isso” — o que é basicamente dizer com outras palavras que “o deep learning está batendo em um muro”.
No dia seguinte da primeira mensagem enviada, Gary me manda o seguinte print dizendo “não se trata apenas da OpenAI, há uma segunda grande empresa convergindo para a mesma coisa”:

O tweet foi feito pelo Yam Peleg, que é um cientista de dados e especialista em Machine Learning conhecido por suas contribuições para projetos de código aberto. Nele, Peleg diz que ouviu rumores de que um grande laboratório (não especificado) também teria atingido o ponto de retorno decrescente. É ainda um boato (embora plausível), mas se for verdade, teremos nuvens carregadas à frente.
Pode haver o equivalente em IA a uma corrida bancária (quando um grande número de clientes retira simultaneamente os seus depósitos por receio da insolvência do banco).
A questão é que escalar modelos sempre foi uma hipótese. O que acontece se, de repente, as pessoas perderem a fé nessa hipótese?
É preciso deixar claro que, mesmo se o entusiasmo pela IA Generativa diminuir e as ações das empresas do mercado despencarem, a IA e os LLMs não desaparecerão. Ainda terão um lugar assegurado como ferramentas para aproximação estatística. Mas esse lugar pode ser menor e é inteiramente possível que o LLM, por si só, não corresponda às expectativas do ano passado de que seja o caminho para a AGI (Inteligência Artificial Geral) e a “singularidade” da IA.
Uma IA confiável é certamente alcançável, mas vamos precisar voltar à prancheta para chegar lá.
Você também pode ler esse post em Update or Die. Publicado originalmente em 16 de novembro de 2024.
LLMs Progresso Algorítmico – Parte 2
julho 8, 2024 § Deixe um comentário
Segundo vídeo sobre o progresso algorítmico dos LLMs. Aqui conversamos sobre o que esperar do futuro dos LLMs.
Material adicional:
Sistemas de pensamento: https://www.uiux.pt/2021/04/01/how-we-think-and-make-decisions/
Tree of Thoughts: https://arxiv.org/abs/2305.10601
AlphaGo: https://www.zdnet.com/article/deepmind-alphago-zero-learns-on-its-own-without-meatbag-intervention/
Diplomacy: https://arxiv.org/abs/2210.05492
Self-improvement looping (Imagination-Searching-Criticizing): https://www.linkedin.com/pulse/toward-self-improvement-llms-via-imagination-vlad-bogolin-cnzje/
PIT reward model: https://hackernoon.com/ai-self-improvement-how-pit-revolutionizes-llm-enhancement
LLMs Progresso Algorítmico – Parte 1
julho 1, 2024 § Deixe um comentário
Primeiro vídeo sobre o progresso algorítmico dos LLMs. Aqui vemos como é avaliado o progresso dos LLMs.
Material adicional:
Evolução dos modelos de IA: https://epochai.org/data/notable-ai-models#explore-the-data
Leis de dimensionamento (scale laws): https://medium.com/@zaiinn440/training-at-scale-chinchilla-scaling-laws-for-compute-optimal-training-of-llms-eca49f58c358
Multimodalidade (visão): https://blog.codepen.io/2023/03/15/gpt-4-demo-turns-a-crude-sketch-of-a-my-joke-website-into-a-functional-website-for-revealing-jokes/
Multimodalidade (áudio): https://openai.com/index/chatgpt-can-now-see-hear-and-speak/
O Outro artificial
junho 25, 2024 § Deixe um comentário
Explore os conceitos de alteridade e AI Risk neste artigo filosófico sobre inteligência artificial e o impacto nas interações sociais e culturais.

Este é o primeiro artigo de uma série de ensaios que estou desenvolvendo sobre alinhamento de IA. A “pegada” desses ensaios é mais filosófica e menos técnica, para trazer ao grande público discussões que acontecem em departamentos de Pesquisa e Desenvolvimento de empresas de tecnologia, bem como em universidades.
No texto, pretendo abordar o conceito do “Outro” (ou alteridade). Essa é uma ideia fundamental na filosofia e na teoria social, que enfatiza a distinção entre o eu e o “Outro”, um conceito crucial para compreender a identidade, a diferença e a dinâmica das interações sociais e culturais.
Na filosofia hegeliana, a alteridade é um componente necessário da autoconsciência. O eu só toma consciência de si mesmo reconhecendo o que não é, através do encontro com o “Outro” [1]. Essa relação dialética é um processo de definição de identidade [1].
Essa centralidade da relação entre o eu e o “Outro” na experiência humana também está presente na filosofia existencialista, particularmente na obra de Jean-Paul Sartre. Para Sartre, a presença do “Outro” desafia a percepção do eu sobre sua própria liberdade e existência [2]. Esse confronto conduz a sentimentos de alienação e conflito, mas também é essencial para a autoconsciência [2].
Emmanuel Levinas introduz uma dimensão ética radical na alteridade [4]. Ele argumenta que o encontro face a face com o “Outro” é o fundamento da ética, pois um rosto (sobretudo “Outro” rosto) exige uma resposta, colocando sobre si a responsabilidade ética de reconhecer e respeitar a alteridade alheia [3].
Interessante, não? Mas, aposto que você está pensando: “o que isso tem a ver com inteligência artificial”? Afinal, é o assunto que estamos tratando aqui. Peço só um pouquinho de paciência, já já veremos.
Leia o texto completo em Update or Die. Publicado em 25/06/2024.
AI-100: Celebrando uma década de insights em Inteligência Artificial
junho 8, 2024 § Deixe um comentário
Ao fecharmos a primeira década deste estudo centenário AI-100 penso ser um momento oportuno para refletir sobre as percepções significativas e os progressos documentados nos dois relatórios já publicados.

“Em 2014 foi lançado o “Estudo de 100 anos para a Inteligência Artificial”, por uma espécie de consórcio formado por universidades de ponta dos EUA, Canadá e Índia e pelos departamentos de pesquisa de empresas de tecnologia. Para “tocar o trabalho” foram formados um comitê administrativo para cuidar da organização e gerenciamento do estudo (afinal a ideia é que dure pelo menos 100 anos) e um painel de especialistas destinados a analisar o que tem sido feito na área e tentar prever os caminhos e os impactos da Inteligência Artificial no futuro da humanidade.”
Esse foi o primeiro parágrafo do primeiro texto de cinco que escrevi em 2016 comentando sobre o estudo que ficou conhecido como AI-100, sediado na Universidade de Stanford. De lá para cá, escrevi tanto sobre o primeiro relatório quanto sobre o segundo, de 2021 (deixo aqui links para o último texto sobre o relatório de 2016, com link para os demais e do texto de 2022 sobre o relatório do ano anterior).
O projeto foi concebido para antecipar e compreender os impactos a longo prazo da inteligência artificial na sociedade, estabelecendo um precedente para a colaboração interdisciplinar e pesquisa científica, além de manter uma certa visão de futuro que poderia ser resumida pela seguinte pergunta: como a IA pode colaborar com o desenvolvimento humano? Ao fecharmos a primeira década deste estudo centenário, penso ser um momento oportuno para refletir sobre as percepções significativas e os progressos documentados nos dois relatórios já publicados.
O relatório inaugural de 2016 preparou o terreno ao explorar o estado-da-arte da inteligência artificial naquele momento e a sua trajetória potencial ao longo dos próximos cem anos. O relatório foi um exame abrangente das capacidades, limitações e mudanças sociais que ela poderia gerar. Enfatizou o potencial transformador da tecnologia em vários setores, principalmente na educação. Estudos na área estavam sendo concebidos para revolucionar as práticas educativas, oferecendo experiências de aprendizagem personalizadas e sistemas tutoriais inteligentes, que poderiam apoiar professores e alunos de formas sem precedentes. O relatório também abordou alguns conceitos comumente equivocados sobre a inteligência artificial, esclarecendo o que a tecnologia poderia alcançar de forma realista e o que permaneceria no campo especulativo. Este trabalho inicial foi importante para enquadrar a IA não como um conceito futurista distante, mas como uma força imediata e em evolução na vida quotidiana.
Um desses equívocos era a ideia de que a inteligência artificial em breve ultrapassaria a inteligência humana em todos os aspectos. Embora a IA tenha feito progressos impressionantes em áreas específicas como o reconhecimento de padrões e o processamento de dados, o relatório esclareceu que suas capacidades ainda estavam longe de replicar todo o espectro das capacidades cognitivas humanas, como a inteligência emocional, a criatividade e a resolução geral de problemas.
O relatório de 2016 também desmascarou a noção de que esses sistemas tecnológicos são infalíveis e isentos de preconceitos. Destacou casos em que a IA perpetuou preconceitos existentes nos dados de formação, enfatizando a necessidade de testes rigorosos e monitoramento contínuo para garantir justiça e precisão na sua aplicação.
Estes esclarecimentos foram cruciais para mudar a narrativa no sentido de uma compreensão mais realista dos pontos fortes e limitações da inteligência artificial e tiveram um impacto profundo no desenvolvimento da IA generativa, como o ChatGPT, nos anos seguintes. Ao reconhecer suas limitações e abordar conceitos equivocados, as pesquisas sobre o tema foram encorajadas a concentrar-se em avanços específicos e alcançáveis. Essa perspectiva realista impulsionou o desenvolvimento de modelos generativos de IA com uma compreensão clara das suas capacidades e limitações. Por exemplo, a ênfase na compreensão e na mitigação de preconceitos levou à criação de protocolos de desenvolvimento e métodos de avaliação mais robustos, fornecendo ferramentas de avaliação para que modelos, como o ChatGPT, pudessem gerar resultados menos enviesados.
Além disso, o esclarecimento de que a IA não ultrapassaria, no curto e médio prazo, a inteligência humana em todos os aspectos, estimulou o foco no aprimoramento de capacidades específicas onde essa tecnologia poderia se destacar, como a compreensão e geração de linguagem. Isso levou a avanços significativos no processamento de linguagem natural, permitindo a criação de modelos sofisticados capazes de compreender o contexto, gerar texto coerente e envolver-se em conversas significativas (exatamente o que as versões atuais de IA generativa fazem). Ao nos concentrarmos nesses objetivos alcançáveis, foi possível fazer progressos constantes no desenvolvimento da tecnologia que pudessem ajudar e melhorar o resultado de tarefas humanas, ao invés de subistituí-las.
Uma das principais discussões no relatório de 2016 foi o impacto da IA no mercado de trabalho. O relatório reconheceu a sua dupla natureza de influência: por um lado, poderia automatizar tarefas rotineiras, potencialmente deslocando trabalhadores; por outro, poderia criar novas oportunidades de emprego e negócios. Essa visão matizada sublinhou a necessidade de políticas proativas para apoiar as transições da força de trabalho, garantindo que os benefícios da tecnologia fossem amplamente partilhados e que os (as) trabalhadores(as) estivessem preparados(as) com as competências necessárias para uma economia impulsionada pela inteligência, artificial e humana. A abordagem equilibrada do relatório destacou a importância de ver a IA como uma ferramenta para aumentar as capacidades humanas.
Com base no que foi estabelecido pelo relatório anterior, o documento de 2021 forneceu uma análise atualizada dos avanços e desafios emergentes da área. Nessa altura, foram feitos avanços significativos nas tecnologias de inteligência artificial, incluindo aprendizagem profunda, sistemas autônomos e ética (com o surgimento do conceito de alinhamento de IA). O relatório documentou aplicações reais, como diagnósticos de saúde, veículos autônomos e modelagem climática, ilustrando a crescente influência da tecnologia em diversos domínios. Estes avanços não foram meramente teóricos, mas tiveram impactos tangíveis, demonstrando o seu potencial para auxiliar no enfrentamento de alguns dos maiores desafios da sociedade. Por exemplo, ferramentas de diagnóstico alimentadas por IA melhoraram a detecção precoce de doenças e a confecção de planos de tratamento personalizados; pesquisas em veículos autônomos tem focado na melhora da sua segurança e eficiência de direção; e modelos climáticos baseados em IA conseguem fornecer melhores previsões para mudanças ambientais e desastres naturais.
O relatório de 2021 também se aprofundou nos impactos sociais da inteligência artificial, abordando questões como preconceito, privacidade e a necessidade de quadros robustos de governança. À medida que esses sistemas se tornarem mais integrados na vida quotidiana, a importância de garantir que funcionem de forma justa e transparente torna-se cada vez mais evidente. O relatório destacou vários casos em que os sistemas de IA perpetuaram inadvertidamente preconceitos, sublinhando a necessidade de monitoramento e melhoria contínua. Esse foco em considerações éticas foi uma prova da evolução da compreensão do papel deste tipo de ferramenta na sociedade – não apenas como um avanço tecnológico, mas como um sistema sociotécnico que deve ser desenvolvido e implantado de forma responsável.
Um aspecto notável do documento de 2021 foi a inclusão de perspectivas globais sobre o desenvolvimento da IA. Reconhecendo que o tema é um fenômeno global, o relatório enfatizou as diversas abordagens e ambientes regulatórios em diferentes regiões. Apelou à colaboração internacional para enfrentar os desafios globais colocados pelo seu uso, tais como garantir o acesso equitativo à tecnologia e mitigar os riscos associados à sua implantação. Este âmbito alargado foi um lembrete de que os impactos da inteligência artificial não se limitam a um único país ou região, mas são verdadeiramente globais por natureza.
Provavelmente veremos avanços ainda mais rápidos daqui para frente, juntamente com implicações sociais cada vez mais complexas. Questões como governança de IA, considerações éticas e cooperação global se tornarão ainda mais críticas. Os primeiros dez anos do estudo AI-100 forneceram informações valiosas sobre o desenvolvimento e os impactos sociais da inteligência artificial. Desde as suas explorações iniciais publicadas em 2016 até às análises mais detalhadas em 2021, o estudo destacou o potencial transformador da tecnologia, bem como os desafios que devem ser enfrentados para garantir que os seus benefícios sejam amplamente partilhados.
À medida que avançamos para a próxima década, o estudo AI-100 está em uma posição única para fornecer embasamento científico para uma pesquisa rigorosa e interdisciplinar que possa verdadeiramente enfrentar os desafios citados no parágrafo anterior. Ao manter uma abordagem inovadora e ao envolver-se em uma ampla gama de perspectivas, a iniciativa tem tudo para continuar a desempenhar um papel importante na definição do futuro da IA.
Este texto também pode ser lido no LinkedIn e em Update or Die.
You can read the English version, “AI-100: Celebrating a Decade of Insights in Artificial Intelligence”, on Substack or Medium.