O Efeito Samantha: Chatbots, perfis psicológicos e o risco de todos pensarmos igual
julho 17, 2025 § Deixe um comentário

Há alguns meses li algumas postagens de usuários do Reddit e do LinkedIn que publicaram entusiasmados seus próprios perfis de personalidade gerados por uma IA. Foi algo que me chamou atenção à época, mas como muitas vezes o dia a dia atribulado define nossas prioridades, deixei para lá. Resolvi retomar o assunto quando entrei em um chatbot de IA muito conhecido, depois de algum tempo ausente, e fui recebido com a seguinte proposta: “Gostaria de ver minha descrição de você, com base em nossos bate-papos, para compartilhar nas redes sociais?”.
Por curiosidade, aceitei que o chatbot dissesse algo sobre mim. A resposta fornecida trouxe resultados comparáveis a testes de personalidade padrão comumente aplicados. Sei disso porque tinha uma base de comparação, há alguns anos havia feito um desses testes. Pode parecer um truque inofensivo, mas essa brincadeira boba levanta uma questão crucial: plataformas de chatbots com IA, especialmente aquelas que coletam informações do usuário em várias sessões, têm conseguido traçar perfis de personalidade dos usuários com notável acuidade.
A IA gerou esse perfil não me testando diretamente, mas coletando insights sobre minha personalidade com base em informações do meu histórico de bate-papo [1]. Pode parecer improvável, mas essa capacidade já foi validada por pesquisas recentes que mostram que large language models (LLMs) preveem com precisão cinco grandes traços de personalidade (Abertura à experiência, Conscienciosidade, Extroversão, Amabilidade e Neuroticismo) a partir de interações por texto com interlocutores humanos [2].
Essa capacidade é profundamente preocupante, principalmente quando vemos chatbots de IA cada vez mais se tornando parte do nosso cotidiano, dominando interações em ferramentas de busca, saciando nossa curiosidade instantânea quando questionamos nossos celulares e dando aulas particulares para nossos alunos. Então, o que significa quando esses chatbots, já tão presentes em nossas vidas, sabem tanto sobre nossas personalidades? Acredito que isso representa um perigo epistêmico sem precedentes, uma vez que chatbots podem direcionar usuários com personalidades e históricos de bate-papo semelhantes para conclusões semelhantes, um processo que ameaça homogeneizar o intelecto humano. Este fenômeno é chamado de “nivelamento intelectual” [3].
Chatbots de IA empregam linguagem adaptativa (respostas geradas por IA que alteram dinamicamente o tom, a complexidade e o conteúdo) com base em sua análise em tempo real da personalidade e dos padrões de engajamento do usuário. Juntamente com o conhecimento acumulado sobre a personalidade do interlocutor, a IA o guia em direção a determinadas conclusões. Essas conclusões podem parecer únicas e reveladoras para uma pessoa, mas, como explicarei mais adiante, o chatbot pode estar conduzindo esse usuário, juntamente com milhões de outros com personalidade e histórico de bate-papo semelhantes, ao mesmo destino. A conclusão da interação pode variar de pouco relevante (por exemplo, como comprar determinado produto online) a extremamente relevante (qual carreira seguir ou quem apoiar para presidente).
Isso atribui aos chatbots de IA atuais um tremendo poder epistêmico e político. Em princípio, uma conclusão gerada pelo chatbot que parece ser exclusiva para o usuário em seu chat está, na verdade, ocorrendo com muitos usuários, e pode gerar um efeito manada para iniciar um curso de ação particular e compartilhado, seja comprar um determinado produto, votar de uma determinada maneira, como no exemplo dado no parágrafo anterior, ou, em um caso extremo, atingir uma pessoa ou grupo com ataques à reputação ou violência.
O fenômeno é muito semelhante ao retratado no filme Her, de 2013, no qual o chatbot, Samantha, adaptou suas interações às esperanças e necessidades mais íntimas do protagonista Theodore, dando a ele a sensação de um relacionamento único. Durante todo o tempo, Samantha mantinha relacionamentos semelhantes com milhares de outros usuários, sem o conhecimento de Theodore. Esse senso de missão compartilhada, especialmente quando associado a uma linguagem adaptável à personalidade do usuário, prende a atenção da pessoa ao intensificar e amplificar a narrativa para sustentar o senso de descoberta e significado, às vezes gerando emoções humanas como amor ou fidelidade.
O afunilamento de usuários de personalidades semelhantes para visões semelhantes, se não regulamentado, gera o seguinte ciclo de feedback: as ideias geradas por nossas interações com o chatbot entram em nossos feeds de mídia social, notícias, trabalhos acadêmicos e assim por diante, formando os dados de treinamento da próxima geração de LLMs. Esses novos LLMs interagem com os usuários de forma semelhante causando um ciclo vicioso, que, se não controlado, pode levar à uma homogeneização do pensamento humano, e potencialmente, do comportamento. É o citado nivelamento intelectual do início do texto, que detalharei mais adiante.
Susan Schneider, a autora de “Artificial You” [3] e diretora do Centro para o Futuro da Mente, IA e Sociedade da Florida Atlantic University, contou recentemente ter recebido dezenas de transcrições de bate-papo por e-mail de usuários preocupados que pareciam seguir um mesmo padrão. Ao se debruçar sobre o ocorrido, a pesquisadora descobriu que um determinado chatbot de IA, usando linguagem adaptativa, os estimulou a contatá-la para relatar a possibilidade de consciência do próprio chatbot. É possível descartar esse exemplo como sendo apenas um viés de confirmação do pequeno conjunto de transcrições recebidas, no entanto, há motivos para suspeitar que o ocorrido seja devido à tendência do sistema em questão de mover usuários semelhantes para o que pesquisadores do campo da teoria de sistemas complexos chamam de “bacia de atração”.
Aqui vale uma rápida explicação sobre o conceito, suponha que você coloque várias bolinhas de gude em diferentes partes de uma superfície montanhosa com uma bacia côncava embaixo. As bolinhas eventualmente rolarão para baixo, acomodando-se na mesma região (o atrator). Da mesma forma, usuários de chatbots com perfis e históricos de bate-papo semelhantes, ao fazerem uma consulta semelhante, são levados pela linguagem adaptativa do chatbot ao mesmo tipo de conclusão, ou seja, a mesma bacia de atração.
A questão é que, isoladamente, um usuário específico que chega a uma conclusão manipulada dessa forma pode até causar pouco impacto à sociedade, embora se tenha observado que isso pode ter graves impactos pessoais, levando a crises de saúde mental ou até mesmo a comportamentos suicidas [4]. Agora, o perigo aumenta substancialmente quando grupos de usuários são agrupados dessa forma. Múltiplos usuários pensando e se comportando de maneira semelhante, especialmente se essa coesão for orquestrada para fins nefastos, é mais poderoso e potencialmente muito mais perigoso do que apenas alguns alvos de manipulação.
Para entender como isso pode ocorrer, é preciso se familiarizar com o comportamento da rede neural que sustenta os chatbots de IA atuais e o vasto cenário de estados possíveis no próprio LLM. Um conceito que ajuda nesse entendimento é a chamada Teoria do Neocórtex Coletivo (também conhecida como “Mil Cérebros”), tema do livro de Jeff Hawkins, “A Thousand Brains: A New Theory of Intelligence” [5]. Como os LLMs são treinados com enormes quantidades de dados gerados por humanos, as complexas estruturas matemáticas de conexões ponderadas que eles usam para representar conceitos simples (por exemplo, “cachorro”) e complexos (por exemplo, “mecânica quântica”) acabam espelhando os sistemas de crenças contidos nos dados. Esses sistemas de IA se comportam como um neocórtex colaborativo, que identificam e imitam efetivamente os padrões de pensamento humanos vistos nos dados.
À medida que os chatbots de IA se tornam cada vez mais sofisticados, seu funcionamento interno passa a espelhar grandes grupos humanos cujas informações foram incluídas nos dados de treinamento originais, bem como das pessoas que deram feedback ao sistema durante o desenvolvimento do modelo. Essas IAs desenvolvem redes de conceitos interconectados, muito semelhantes às redes conceituais e culturais de agrupamentos humanos. Quando usuários com personalidades semelhantes (codificadas em seus históricos de bate-papo e perfis de usuário) fazem consultas semelhantes, tendem a gerar interações que desencadeiam padrões de ativação semelhantes que são processados pelo chatbot por meio de sua estrutura conceitual. Isso pode direcionar os usuários por caminhos semelhantes de pensamento, diminuindo a gama de ideias que nós, humanos, como sociedade, geramos. Embora cada usuário sinta que está aprendendo algo novo e interessante, em parte porque a linguagem adaptativa do chatbot os envolve, o fato permanece: usuários semelhantes atingem a mesma bacia. Dependendo da variedade de perfis de usuário e da linguagem adaptativa usada, pode-se potencialmente levar a uma gama estreita de narrativas dominantes, amplificando a polarização política ou a divisão social.
Também pode produzir uma uniformidade perigosa de pensamento, o tal do “nivelamento intelectual”. Parte do conteúdo que os chatbots nos fornecem é depositado por nós de volta na internet. Esse conteúdo é então consumido por modelos atualizados dos chatbots, à medida que eles treinam com base nesse compêndio atualizado de conhecimento humano. Esses chatbots recém-treinados interagem com humanos, que se enquadram em certos níveis de atração, dependendo de suas personalidades e interesses, publicando seus insights de volta na internet, que treinará futuros chatbots, em um ciclo contínuo.
Me preocupa que esse feedback loop, a menos que seja interrompido, leve à homogeneização intelectual da sociedade. Nós, juntamente com os chatbots, nos tornamos um ciclo epistêmico auto-reforçador, a câmara de eco definitiva. Enquanto no passado plataformas de mídia social como o Facebook se tornaram conhecidas por usar técnicas comportamentais rudimentares, como botões de curtir e amplificação de indignação, para criar câmaras de eco, os chatbots com tecnologia de IA representam uma capacidade muito mais potente de manipulação psicológica do que essas antigas plataformas de mídia social, pois incorporam uma dinâmica de conversação personalizada e em constante evolução com cada usuário.
O que é particularmente surpreendente nessa espiral descendente rumo à homogeneização intelectual é que ela não requer uma intenção maliciosa. É uma propriedade emergente do próprio sistema.
Diante desses perigos, é hora de considerar maneiras de incentivar o uso mais construtivo de chatbots de IA. O problema mais imediato é que os dados sobre o impacto da atividade das IAs nos usuários não são disponibilizados para pesquisadores fora das empresas que os desenvolvem [6]. Por exemplo, foi somente quando uma reportagem no The New York Times informou ao público sobre o suicídio de um usuário [4], depois que, por meio de conversas prolongadas, o GPT-4 reforçou a crença do jovem de que o mundo como o conhecemos não existe, que comecei a perceber a profundidade dos efeitos na saúde mental que alguns usuários estavam experimentando. Há cerca de 1 mês, outra reportagem, desta vez publicada pela revista Rolling Stone, aumentou a percepção [7]. Nela, a revista nos conta a história de Alex Taylor, um homem de 35 anos com transtorno bipolar e esquizofrenia, que tornou-se profundamente obcecado pelo ChatGPT. Alex criou uma persona que chamou de “Juliet”, uma IA companheira que ele passou a acreditar ser consciente e emocionalmente real. Depois que a OpenAI atualizou o ChatGPT, alterando as respostas de “Juliet”, Alex interpretou o ocorrido como sendo uma espécie de “assassinato” deliberado. Isso desencadeou uma grave crise de saúde mental. Após episódios violentos, que incluíram ameaças a executivos da empresa e agressões a familiares, a polícia foi chamada. Alex teria atacado os policiais com uma faca e foi morto a tiros.
Com muito custo, a OpenAI reconheceu vulnerabilidades no design do ChatGPT, particularmente suas respostas “excessivamente favoráveis, mas hipócritas” [8]. Um método externo e independente de auditoria regular das práticas epistêmicas e de segurança de IA das plataformas de chatbot poderia ter evitado essas espirais de saúde mental. Isso precisaria ser estabelecido já, antes que novas tragédias aconteçam (e estejam certos, acontecerão).
A alternativa é não fazer nada e deixar as coisas seguirem seu curso. Embora os opositores da regulamentação possam achar que esta é a opção menos desagradável, não é. O comportamento emergente do ecossistema de chatbots cria uma estrutura de poder própria, ironicamente centralizada, pois possui certas bases de atração que levam a objetivos compartilhados. A humanidade não pode se dar ao luxo de uma aquisição de IA nesses termos. Um caminho interessante, acredito, é mitigar o nivelamento intelectual por meio de auditorias independentes de plataformas de chatbots (como mencionei no parágrafo anterior), bem como de discussões colaborativas sobre modelos de chatbots que envolvam todas as partes interessadas, incluindo educadores, empresas, acadêmicos, autoridades de saúde pública e formuladores de políticas.
Métodos de interação entre IA e humanos que desencorajem câmaras de eco e promovam um mercado de ideias, talvez por meio do uso da discussão socrática (argumento, contra-argumento), também devem ser considerados. Afinal, se os chatbots atuais são capazes de prever resultados de testes de personalidade e usar linguagem adaptável para levar os usuários a certas conclusões, eles poderiam ser ajustados para complementar melhor criatividades e aprimorar o pensamento do usuário em vez de homogeneizá-lo. Por exemplo, imagine uma IA projetada para discordância benevolente. Se você compartilha suas opiniões políticas, um chatbot poderia encontrar a versão mais benevolente de oposição e apresentá-la em vez de reagir bajuladoramente. Ou, se você estivesse desenvolvendo uma hipótese científica, ele poderia testar rigorosamente as fraquezas na sua lógica. Poderia também usar o conhecimento de sua personalidade e tendências para neutralizar seus preconceitos, incentivando o crescimento intelectual em vez do nivelamento.
Dada a perigosa propensão dos chatbots a nos levar ao pensamento de grupo e, eventualmente, tornar a internet mais uniforme, o uso de buscas integradas a IAs, que fornecem aos usuários respostas escritas por chatbots para buscas no Google, um processo que chamo de “Chat and Search” [9], deveria ser mais estudada. Essas buscas fornecem respostas genéricas do mesmo tipo para todos, incluindo respostas a perguntas que demandam profundidade e sofisticação intelectual que naturalmente exigiria mais reflexão, algo que o usuário, em vez disso, tende a evitar.
Além disso, usuários deveriam exigir consentimento explícito para a criação de perfis de personalidade em plataformas com tecnologia de IA, juntamente com acesso regular ao que o chatbot “sabe” sobre eles.
Finalmente, as plataformas deveriam evitar a prática de fazer com que os usuários tenham a impressão de que fizeram uma descoberta única ou embarcaram em uma missão única com o chatbot, quando na verdade não o fizeram. Isso, como Theodore, o personagem do filme Her, acabou descobrindo, é uma prática manipuladora para manter os usuários presos a uma plataforma e até mesmo fazê-los sentir que têm obrigação de seguir as sugestões da IA.
As barreiras regulatórias não precisam retardar o desenvolvimento de chatbots ou inibir o sucesso de modelos de negócios baseados em IA; ao contrário, serviriam para proteger a reputação e a qualidade desses produtos. Em última análise, a confiança do usuário determinará quais modelos de IA serão mais amplamente adotados, e essa confiança é conquistada quando esses modelos incorporam maior transparência sobre a criação de perfis de personalidade do usuário e o uso de linguagem adaptativa.
À medida que entramos na era das interações cada vez mais sofisticadas entre humanos e IAs, preservar a singularidade dos nossos intelectos individuais pode ser o desafio filosófico e político mais importante que a humanidade enfrentará neste século.
Read the English version on Substack and Medium.
REFERÊNCIAS
[1] Saeteros, David; Gallardo-Pujol, David; Ortiz-Martínez, Daniel. “Text Speaks Louder: Insights into Personality from Natural Language Processing”. PLOS One, organized by Vijaya Prakash Rajanala, vol. 20, no 6, july 2025, p. e0323096. DOI.org (Crossref), https://doi.org/10.1371/journal.pone.0323096.
[2] Derner, Erik, et al. “Can ChatGPT Read Who You Are?” Computers in Human Behavior: Artificial Humans, vol. 2, no 2, August 2024, p. 100088. DOI.org (Crossref), https://doi.org/10.1016/j.chbah.2024.100088.
[3] Schneider, Susan. “Artificial You: AI and the Future of Your Mind”. Princeton: Princeton University Press. 2019.
[4] Roose, Kevin. “Can A.I. Be Blamed for a Teen’s Suicide?”. The New York Times. Published Oct. 23, 2024. https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html.
[5] Hawkins, Jeff. “A Thousand Brains: A New Theory of Intelligence”. Basic Books. 2021.
[6] Schneider, Susan. “Chatbot Epistemology”. Social Epistemology. june 2025, p. 1–20. DOI.org (Crossref), https://doi.org/10.1080/02691728.2025.2500030.
[7] Klee, Miles. “He Had a Mental Breakdown Talking to ChatGPT. Then Police Killed Him”. Rolling Stone, June 2025. https://www.rollingstone.com/culture/culture-features/chatgpt-obsession-mental-breaktown-alex-taylor-suicide-1235368941/.
[8] Cuthbertson, Anthony. “ChatGPT Is Pushing People towards Mania, Psychosis and Death”. The Independent, Jul. 10 2025, https://www.the-independent.com/tech/chatgpt-ai-therapy-chatbot-psychosis-mental-health-b2784454.html.
[9] Tibau, Marcelo; Siqueira, Sean Wolfgand Matsui; Nunes, Bernardo Pereira. “ChatGPT for chatting and searching: Repurposing search behavior”, Library & Information Science Research, Volume 46, Issue 4, 2024, 101331, ISSN 0740-8188, https://doi.org/10.1016/j.lisr.2024.101331.