O Efeito Samantha: Chatbots, perfis psicológicos e o risco de todos pensarmos igual

julho 17, 2025 § Deixe um comentário

Há alguns meses li algumas postagens de usuários do Reddit e do LinkedIn que publicaram entusiasmados seus próprios perfis de personalidade gerados por uma IA. Foi algo que me chamou atenção à época, mas como muitas vezes o dia a dia atribulado define nossas prioridades, deixei para lá. Resolvi retomar o assunto quando entrei em um chatbot de IA muito conhecido, depois de algum tempo ausente, e fui recebido com a seguinte proposta: “Gostaria de ver minha descrição de você, com base em nossos bate-papos, para compartilhar nas redes sociais?”.

Por curiosidade, aceitei que o chatbot dissesse algo sobre mim. A resposta fornecida trouxe resultados comparáveis a testes de personalidade padrão comumente aplicados. Sei disso porque tinha uma base de comparação, há alguns anos havia feito um desses testes. Pode parecer um truque inofensivo, mas essa brincadeira boba levanta uma questão crucial: plataformas de chatbots com IA, especialmente aquelas que coletam informações do usuário em várias sessões, têm conseguido traçar perfis de personalidade dos usuários com notável acuidade.  

A IA gerou esse perfil não me testando diretamente, mas coletando insights sobre minha personalidade com base em informações do meu histórico de bate-papo [1]. Pode parecer improvável, mas essa capacidade já foi validada por pesquisas recentes que mostram que large language models (LLMs) preveem com precisão cinco grandes traços de personalidade (Abertura à experiência, Conscienciosidade, Extroversão, Amabilidade e Neuroticismo) a partir de interações por texto com interlocutores humanos [2].

Essa capacidade é profundamente preocupante, principalmente quando vemos chatbots de IA cada vez mais se tornando parte do nosso cotidiano, dominando interações em ferramentas de busca, saciando nossa curiosidade instantânea quando questionamos nossos celulares e dando aulas particulares para nossos alunos. Então, o que significa quando esses chatbots, já tão presentes em nossas vidas, sabem tanto sobre nossas personalidades? Acredito que isso representa um perigo epistêmico sem precedentes, uma vez que chatbots podem direcionar usuários com personalidades e históricos de bate-papo semelhantes para conclusões semelhantes, um processo que ameaça homogeneizar o intelecto humano. Este fenômeno é chamado de “nivelamento intelectual” [3].

Chatbots de IA empregam linguagem adaptativa (respostas geradas por IA que alteram dinamicamente o tom, a complexidade e o conteúdo) com base em sua análise em tempo real da personalidade e dos padrões de engajamento do usuário. Juntamente com o conhecimento acumulado sobre a personalidade do interlocutor, a IA o guia em direção a determinadas conclusões. Essas conclusões podem parecer únicas e reveladoras para uma pessoa, mas, como explicarei mais adiante, o chatbot pode estar conduzindo esse usuário, juntamente com milhões de outros com personalidade e histórico de bate-papo semelhantes, ao mesmo destino. A conclusão da interação pode variar de pouco relevante (por exemplo, como comprar determinado produto online) a extremamente relevante (qual carreira seguir ou quem apoiar para presidente).

Isso atribui aos chatbots de IA atuais um tremendo poder epistêmico e político. Em princípio, uma conclusão gerada pelo chatbot que parece ser exclusiva para o usuário em seu chat está, na verdade, ocorrendo com muitos usuários, e pode gerar um efeito manada para iniciar um curso de ação particular e compartilhado, seja comprar um determinado produto, votar de uma determinada maneira, como no exemplo dado no parágrafo anterior, ou, em um caso extremo, atingir uma pessoa ou grupo com ataques à reputação ou violência. 

O fenômeno é muito semelhante ao retratado no filme Her, de 2013, no qual o chatbot, Samantha, adaptou suas interações às esperanças e necessidades mais íntimas do protagonista Theodore, dando a ele a sensação de um relacionamento único. Durante todo o tempo, Samantha mantinha relacionamentos semelhantes com milhares de outros usuários, sem o conhecimento de Theodore. Esse senso de missão compartilhada, especialmente quando associado a uma linguagem adaptável à personalidade do usuário, prende a atenção da pessoa ao intensificar e amplificar a narrativa para sustentar o senso de descoberta e significado, às vezes gerando emoções humanas como amor ou fidelidade.

O afunilamento de usuários de personalidades semelhantes para visões semelhantes, se não regulamentado, gera o seguinte ciclo de feedback: as ideias geradas por nossas interações com o chatbot entram em nossos feeds de mídia social, notícias, trabalhos acadêmicos e assim por diante, formando os dados de treinamento da próxima geração de LLMs. Esses novos LLMs interagem com os usuários de forma semelhante causando um ciclo vicioso, que, se não controlado, pode levar à uma homogeneização do pensamento humano, e potencialmente, do comportamento. É o citado nivelamento intelectual do início do texto, que detalharei mais adiante.

Susan Schneider, a autora de “Artificial You” [3] e diretora do Centro para o Futuro da Mente, IA e Sociedade da Florida Atlantic University, contou recentemente ter recebido dezenas de transcrições de bate-papo por e-mail de usuários preocupados que pareciam seguir um mesmo padrão. Ao se debruçar sobre o ocorrido, a pesquisadora descobriu que um determinado chatbot de IA, usando linguagem adaptativa, os estimulou a contatá-la para relatar a possibilidade de consciência do próprio chatbot. É possível descartar esse exemplo como sendo apenas um viés de confirmação do pequeno conjunto de transcrições recebidas, no entanto, há motivos para suspeitar que o ocorrido seja devido à tendência do sistema em questão de mover usuários semelhantes para o que pesquisadores do campo da teoria de sistemas complexos chamam de “bacia de atração”.

Aqui vale uma rápida explicação sobre o conceito, suponha que você coloque várias bolinhas de gude em diferentes partes de uma superfície montanhosa com uma bacia côncava embaixo. As bolinhas eventualmente rolarão para baixo, acomodando-se na mesma região (o atrator). Da mesma forma, usuários de chatbots com perfis e históricos de bate-papo semelhantes, ao fazerem uma consulta semelhante, são levados pela linguagem adaptativa do chatbot ao mesmo tipo de conclusão, ou seja, a mesma bacia de atração.

A questão é que, isoladamente, um usuário específico que chega a uma conclusão manipulada dessa forma pode até causar pouco impacto à sociedade, embora se tenha observado que isso pode ter graves impactos pessoais, levando a crises de saúde mental ou até mesmo a comportamentos suicidas [4]. Agora, o perigo aumenta substancialmente quando grupos de usuários são agrupados dessa forma. Múltiplos usuários pensando e se comportando de maneira semelhante, especialmente se essa coesão for orquestrada para fins nefastos, é mais poderoso e potencialmente muito mais perigoso do que apenas alguns alvos de manipulação.

Para entender como isso pode ocorrer, é preciso se familiarizar com o comportamento da rede neural que sustenta os chatbots de IA atuais e o vasto cenário de estados possíveis no próprio LLM. Um conceito que ajuda nesse entendimento é a chamada Teoria do Neocórtex Coletivo (também conhecida como “Mil Cérebros”), tema do livro de Jeff Hawkins, “A Thousand Brains: A New Theory of Intelligence” [5]. Como os LLMs são treinados com enormes quantidades de dados gerados por humanos, as complexas estruturas matemáticas de conexões ponderadas que eles usam para representar conceitos simples (por exemplo, “cachorro”) e complexos (por exemplo, “mecânica quântica”) acabam espelhando os sistemas de crenças contidos nos dados. Esses sistemas de IA se comportam como um neocórtex colaborativo, que identificam e imitam efetivamente os padrões de pensamento humanos vistos nos dados.

À medida que os chatbots de IA se tornam cada vez mais sofisticados, seu funcionamento interno passa a espelhar grandes grupos humanos cujas informações foram incluídas nos dados de treinamento originais, bem como das pessoas que deram feedback ao sistema durante o desenvolvimento do modelo. Essas IAs desenvolvem redes de conceitos interconectados, muito semelhantes às redes conceituais e culturais de agrupamentos humanos. Quando usuários com personalidades semelhantes (codificadas em seus históricos de bate-papo e perfis de usuário) fazem consultas semelhantes, tendem a gerar interações que desencadeiam padrões de ativação semelhantes que são processados ​​pelo chatbot por meio de sua estrutura conceitual. Isso pode direcionar os usuários por caminhos semelhantes de pensamento, diminuindo a gama de ideias que nós, humanos, como sociedade, geramos. Embora cada usuário sinta que está aprendendo algo novo e interessante, em parte porque a linguagem adaptativa do chatbot os envolve, o fato permanece: usuários semelhantes atingem a mesma bacia. Dependendo da variedade de perfis de usuário e da linguagem adaptativa usada, pode-se potencialmente levar a uma gama estreita de narrativas dominantes, amplificando a polarização política ou a divisão social.  

Também pode produzir uma uniformidade perigosa de pensamento, o tal do “nivelamento intelectual”. Parte do conteúdo que os chatbots nos fornecem é depositado por nós de volta na internet. Esse conteúdo é então consumido por modelos atualizados dos chatbots, à medida que eles treinam com base nesse compêndio atualizado de conhecimento humano. Esses chatbots recém-treinados interagem com humanos, que se enquadram em certos níveis de atração, dependendo de suas personalidades e interesses, publicando seus insights de volta na internet, que treinará futuros chatbots, em um ciclo contínuo.

Me preocupa que esse feedback loop, a menos que seja interrompido, leve à homogeneização intelectual da sociedade. Nós, juntamente com os chatbots, nos tornamos um ciclo epistêmico auto-reforçador, a câmara de eco definitiva. Enquanto no passado plataformas de mídia social como o Facebook se tornaram conhecidas por usar técnicas comportamentais rudimentares, como botões de curtir e amplificação de indignação, para criar câmaras de eco, os chatbots com tecnologia de IA representam uma capacidade muito mais potente de manipulação psicológica do que essas antigas plataformas de mídia social, pois incorporam uma dinâmica de conversação personalizada e em constante evolução com cada usuário.

O que é particularmente surpreendente nessa espiral descendente rumo à homogeneização intelectual é que ela não requer uma intenção maliciosa. É uma propriedade emergente do próprio sistema.

Diante desses perigos, é hora de considerar maneiras de incentivar o uso mais construtivo de chatbots de IA. O problema mais imediato é que os dados sobre o impacto da atividade das IAs nos usuários não são disponibilizados para pesquisadores fora das empresas que os desenvolvem [6]. Por exemplo, foi somente quando uma reportagem no The New York Times informou ao público sobre o suicídio de um usuário [4], depois que, por meio de conversas prolongadas, o GPT-4 reforçou a crença do jovem de que o mundo como o conhecemos não existe, que  comecei a perceber a profundidade dos efeitos na saúde mental que alguns usuários estavam experimentando. Há cerca de 1 mês, outra reportagem, desta vez publicada pela revista Rolling Stone, aumentou a percepção [7]. Nela, a revista nos conta a história de Alex Taylor, um homem de 35 anos com transtorno bipolar e esquizofrenia, que tornou-se profundamente obcecado pelo ChatGPT. Alex criou uma persona que chamou de “Juliet”, uma IA companheira que ele passou a acreditar ser consciente e emocionalmente real. Depois que a OpenAI atualizou o ChatGPT, alterando as respostas de “Juliet”, Alex interpretou o ocorrido como sendo uma espécie de “assassinato” deliberado. Isso desencadeou uma grave crise de saúde mental. Após episódios violentos, que incluíram ameaças a executivos da empresa e agressões a familiares, a polícia foi chamada. Alex teria atacado os policiais com uma faca e foi morto a tiros. 

Com muito custo, a OpenAI reconheceu vulnerabilidades no design do ChatGPT, particularmente suas respostas “excessivamente favoráveis, mas hipócritas” [8]. Um método externo e independente de auditoria regular das práticas epistêmicas e de segurança de IA das plataformas de chatbot poderia ter evitado essas espirais de saúde mental. Isso precisaria ser estabelecido já, antes que novas tragédias aconteçam (e estejam certos, acontecerão).

A alternativa é não fazer nada e deixar as coisas seguirem seu curso. Embora os opositores da regulamentação possam achar que esta é a opção menos desagradável, não é. O comportamento emergente do ecossistema de chatbots cria uma estrutura de poder própria, ironicamente centralizada, pois possui certas bases de atração que levam a objetivos compartilhados. A humanidade não pode se dar ao luxo de uma aquisição de IA nesses termos. Um caminho interessante, acredito, é mitigar o nivelamento intelectual por meio de auditorias independentes de plataformas de chatbots (como mencionei no parágrafo anterior), bem como de discussões colaborativas sobre modelos de chatbots que envolvam todas as partes interessadas, incluindo educadores, empresas, acadêmicos, autoridades de saúde pública e formuladores de políticas.

Métodos de interação entre IA e humanos que desencorajem câmaras de eco e promovam um mercado de ideias, talvez por meio do uso da discussão socrática (argumento, contra-argumento), também devem ser considerados. Afinal, se os chatbots atuais são capazes de prever resultados de testes de personalidade e usar linguagem adaptável para levar os usuários a certas conclusões, eles poderiam ser ajustados para complementar melhor criatividades e aprimorar o pensamento do usuário em vez de homogeneizá-lo. Por exemplo, imagine uma IA projetada para discordância benevolente. Se você compartilha suas opiniões políticas, um chatbot poderia encontrar a versão mais benevolente de oposição e apresentá-la em vez de reagir bajuladoramente. Ou, se você estivesse desenvolvendo uma hipótese científica, ele poderia testar rigorosamente as fraquezas na sua lógica. Poderia também usar o conhecimento de sua personalidade e tendências para neutralizar seus preconceitos, incentivando o crescimento intelectual em vez do nivelamento.

Dada a perigosa propensão dos chatbots a nos levar ao pensamento de grupo e, eventualmente, tornar a internet mais uniforme, o uso de buscas integradas a IAs, que fornecem aos usuários respostas escritas por chatbots para buscas no Google, um processo que chamo de “Chat and Search” [9], deveria ser mais estudada. Essas buscas fornecem respostas genéricas do mesmo tipo para todos, incluindo respostas a perguntas que demandam profundidade e sofisticação intelectual que naturalmente exigiria mais reflexão, algo que o usuário, em vez disso, tende a evitar.

Além disso, usuários deveriam exigir consentimento explícito para a criação de perfis de personalidade em plataformas com tecnologia de IA, juntamente com acesso regular ao que o chatbot “sabe” sobre eles.

Finalmente, as plataformas deveriam evitar a prática de fazer com que os usuários tenham a impressão de que fizeram uma descoberta única ou embarcaram em uma missão única com o chatbot, quando na verdade não o fizeram. Isso, como Theodore, o personagem do filme Her, acabou descobrindo, é uma prática manipuladora para manter os usuários presos a uma plataforma e até mesmo fazê-los sentir que têm obrigação de seguir as sugestões da IA.

As barreiras regulatórias não precisam retardar o desenvolvimento de chatbots ou inibir o sucesso de modelos de negócios baseados em IA; ao contrário, serviriam para proteger a reputação e a qualidade desses produtos. Em última análise, a confiança do usuário determinará quais modelos de IA serão mais amplamente adotados, e essa confiança é conquistada quando esses modelos incorporam maior transparência sobre a criação de perfis de personalidade do usuário e o uso de linguagem adaptativa.

À medida que entramos na era das interações cada vez mais sofisticadas entre humanos e IAs, preservar a singularidade dos nossos intelectos individuais pode ser o desafio filosófico e político mais importante que a humanidade enfrentará neste século.

Read the English version on Substack and Medium.

REFERÊNCIAS

[1] Saeteros, David; Gallardo-Pujol, David; Ortiz-Martínez, Daniel. “Text Speaks Louder: Insights into Personality from Natural Language Processing”. PLOS One, organized by Vijaya Prakash Rajanala, vol. 20, no 6, july 2025, p. e0323096. DOI.org (Crossref), https://doi.org/10.1371/journal.pone.0323096.

[2] Derner, Erik, et al. “Can ChatGPT Read Who You Are?” Computers in Human Behavior: Artificial Humans, vol. 2, no 2, August 2024, p. 100088. DOI.org (Crossref), https://doi.org/10.1016/j.chbah.2024.100088.

[3] Schneider, Susan. “Artificial You: AI and the Future of Your Mind”. Princeton: Princeton University Press. 2019.

[4] Roose, Kevin. “Can A.I. Be Blamed for a Teen’s Suicide?”. The New York Times. Published Oct. 23, 2024.  https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html.

[5] Hawkins, Jeff. “A Thousand Brains: A New Theory of Intelligence”. Basic Books. 2021.

[6] Schneider, Susan. “Chatbot Epistemology”. Social Epistemology. june 2025, p. 1–20. DOI.org (Crossref), https://doi.org/10.1080/02691728.2025.2500030.

[7] Klee, Miles. “He Had a Mental Breakdown Talking to ChatGPT. Then Police Killed Him”. Rolling Stone, June 2025. https://www.rollingstone.com/culture/culture-features/chatgpt-obsession-mental-breaktown-alex-taylor-suicide-1235368941/.

[8] Cuthbertson, Anthony. “ChatGPT Is Pushing People towards Mania, Psychosis and Death”. The Independent, Jul. 10 2025, https://www.the-independent.com/tech/chatgpt-ai-therapy-chatbot-psychosis-mental-health-b2784454.html.

[9] Tibau, Marcelo; Siqueira, Sean Wolfgand Matsui; Nunes, Bernardo Pereira. “ChatGPT for chatting and searching: Repurposing search behavior”, Library & Information Science Research, Volume 46, Issue 4, 2024, 101331, ISSN 0740-8188, https://doi.org/10.1016/j.lisr.2024.101331.

Uma jogada imparável e um relógio sem fim

fevereiro 6, 2025 § Deixe um comentário

Quanto mais próximo da meia-noite, mais iminente seria a extinção da humanidade.

Na tarde do último domingo de janeiro, assisti à final da National Football Conference, que definiria um dos finalistas do Super Bowl. No início do quarto período, o Philadelphia Eagles estava a apenas uma jarda da linha de gol do Washington Commanders, pronto para executar uma de suas jogadas mais temidas: o Brotherly Shove. Essa estratégia, característica do futebol americano, consiste em um lance no qual o quarterback recebe a bola e é imediatamente empurrado por trás por seus companheiros de equipe para avançar. No caso do time atual dos Eagles, essa jogada é considerada praticamente imparável, garantindo quase sempre a pontuação.

Cientes de que quase certamente cederiam um touchdown, os Commanders, que estavam em desvantagem, decidiram adotar uma abordagem inusitada. Primeiro, um de seus defensores saltou propositalmente sobre a linha do gol antes do início da jogada, resultando em uma penalidade por invasão. Na jogada seguinte, repetiram a estratégia. E novamente na jogada subsequente. Ficava evidente que sua intenção era continuar infringindo a regra repetidamente. A cada infração, os árbitros moviam a bola metade da distância até a linha do gol, seguindo o procedimento padrão para penalidades defensivas próximas à end zone.

Qualquer pessoa familiarizada com o princípio da divisibilidade infinita em geometria pode perceber o problema aqui. Um segmento de reta — como a distância entre a linha de scrimmage e a end zone — pode ser infinitamente dividido. Isso significa que, em teoria, os Commanders poderiam ter continuado com sua tática indefinidamente, e os Eagles poderiam ter avançado repetidamente metade da distância até a linha de gol sem jamais alcançá-la, prolongando o jogo até o final dos tempos.

Felizmente para os jogadores, treinadores e os quase 70.000 torcedores presentes, os árbitros encontraram uma solução para esse paradoxo específico ao invocar uma regra pouco conhecida da NFL, que permite que o time adversário seja automaticamente premiado com um touchdown caso a defesa continue cometendo penalidades intencionais para impedir seu avanço. Isso foi, enfim, suficiente para fazer os Commanders desistirem da estratégia.

O que nos leva ao verdadeiro assunto deste texto, o chamado Doomsday Clock (o Relógio do Juízo Final ou do Apocalipse, dependendo da tradução escolhida). 

Criado e administrado pelo Bulletin of the Atomic Scientists — organização fundada por ex-físicos do Projeto Manhattan alarmados com a ameaça representada pelas armas nucleares — o Doomsday Clock é uma representação simbólica da proximidade da humanidade de sua própria destruição existencial. A cada ano, um conselho de especialistas em diversas áreas, como ciência nuclear, mudanças climáticas e segurança cibernética, ajusta os ponteiros do relógio. 

Quanto mais próximo da meia-noite, mais iminente seria a extinção da humanidade.

Em 2023, o Bulletin of the Atomic Scientists ganhou destaque ao adiantar os ponteiros do Doomsday Clock em 10 segundos, fixando-o em 90 segundos para a meia-noite — a menor distância já registrada desde sua criação em 1947. Indicando que a humanidade estaria, supostamente, mais próxima da aniquilação do que em períodos extremamente críticos, como 1964 (não muito depois da Crise dos Mísseis de Cuba, quando o relógio marcava 12 minutos para a meia-noite) ou 1984 (logo após um dos momentos mais tensos da Guerra Fria, quando restavam apenas 3 minutos para a meia-noite). Essa também foi a primeira atualização após a invasão da Ucrânia pela Rússia, que reacendeu temores nucleares em um nível não visto há décadas.

No ano passado, citando fatores que iam desde a guerra na Ucrânia e o conflito em Gaza até as mudanças climáticas e o avanço da inteligência artificial, o conselho optou por manter o relógio em 90 segundos para meia-noite. Então, na manhã de terça, 28 de janeiro, foi revelada a nova configuração do relógio. Rufem os tambores: 89 segundos para meia-noite, um segundo mais perto do juízo final.

O conselho listou uma série de fatores: risco nuclear contínuo na Ucrânia e a desintegração do controle de armas nucleares; os impactos crescentes das mudanças climáticas após o que provavelmente foi o ano mais quente já registrado; a ameaça de novas doenças como a gripe aviária; o progresso da IA ​​e, especialmente, potenciais aplicações militares; e desinformação e insegurança cibernética.

Se isso lhe soa familiar, é porque os fatores são praticamente os mesmos dos anos anteriores — um padrão que o presidente do conselho, Daniel Holz, reconheceu no evento de terça-feira. Em sua declaração, ele ressaltou que esses desafios “não são novos”“No entanto, observamos um progresso insuficiente no enfrentamento dessas questões fundamentais e, em muitos casos, tem levado a impactos cada vez mais negativos e preocupantes”, continuou.

Ainda assim, o anúncio de terça-feira destacou um problema fundamental do Doomsday Clock: ele está ficando sem tempo — talvez metaforicamente, como deveria ser no contexto da sobrevivência da humanidade, mas também literalmente, já que um relógio possui um número limitado de horas, minutos e segundos.

Esse dilema reflete um desafio enfrentado por todo o campo de estudo do risco existencial. Assim como os árbitros na Filadélfia, durante o jogo dos Eagles, há um limite para a quantidade de vezes que um alerta pode ser emitido antes que ele comece a perder seu impacto. Especialmente porque, apesar de parecer que estamos cada vez mais próximos da aniquilação, nunca chegamos lá de fato.

De certa forma, o Doomsday Clock tornou-se vítima de seu próprio sucesso como um dos símbolos mais importantes do medo nuclear durante a Guerra Fria no século XX. A imagem dos ponteiros avançando inexoravelmente em direção à meia-noite — o momento em que os mísseis seriam lançados — era tão poderosa que a icônica graphic novel Watchmen, dos anos 1980, a utilizou como um leitmotiv inesquecível.

Assim como os filmes do James Bond e do Rambo, o Relógio do Juízo Final perdeu parte da sua relevância após o fim da Guerra Fria e a aparente eliminação da sua principal razão de ser: a guerra nuclear. Com essa ameaça supostamente superada, o relógio expandiu seu escopo para incluir novos perigos, como as mudanças climáticas e as doenças infecciosas, e, mais recentemente, preocupações emergentes das décadas de 2010/2020, como a desinformação e o retrocesso democrático.

O problema é que os riscos existenciais não nucleares simplesmente não se encaixam bem na metáfora do relógio. Uma guerra nuclear é, em grande parte, um risco binário — ou os mísseis são lançados e o relógio marca meia-noite, ou não. Além disso, há um campo consolidado de geopolítica e diplomacia dedicado a avaliar precisamente o nível de risco nuclear no mundo. Trata-se de um perigo relativamente mensurável e compreensível, na medida do possível.

No entanto, riscos existenciais mais recentes não seguem essa mesma lógica. A mudança climática, por exemplo, não é um risco binário, mas sim progressivo e cumulativo. Em vez de um ataque cardíaco fulminante, é mais parecido com um quadro crônico de diabetes, com agravamento lento e contínuo. Se o risco climático fosse um relógio, seria difícil dizer que horas são — ou até mesmo se ele realmente chegaria a marcar meia-noite.

Outros riscos são ainda mais difíceis de monitorar. Recentemente, a inteligência artificial passou por um de seus momentos mais movimentados: o DeepSeek, da China, demonstrou que modelos avançados podem ser mais acessíveis e baratos do que a indústria imaginava, enquanto os gigantes da IA nos Estados Unidos anunciam planos para um investimento sem precedentes de US$ 500 bilhões.

Mas a IA é realmente um risco existencial? Talvez — embora ninguém possa afirmar com certeza como essa ameaça se desenrolaria ou quão próximos realmente estamos de um cenário crítico. Além disso, ao contrário das armas nucleares, a IA traz benefícios inegáveis para a ciência e a sociedade, tornando inviável simplesmente abandoná-la. No campo da medicina, por exemplo, algoritmos de IA têm sido usados para diagnosticar doenças com maior precisão do que alguns médicos humanos ou como no caso do DeepMind AlphaFold, para revolucionar a criação de estruturas de proteínas, acelerando a descoberta de novos medicamentos. Na luta contra as mudanças climáticas, modelos avançados de IA ajudam a prever padrões climáticos extremos e otimizar o uso de energias renováveis. Além disso, na segurança cibernética, sistemas baseados em IA detectam fraudes financeiras e previnem ataques digitais de forma mais eficaz do que métodos tradicionais. Com impactos positivos também na educação, na automação industrial, na acessibilidade para pessoas com deficiência… A lista é longa.

Quando se trata de doenças infecciosas, por mais alarmantes que sejam os surtos recentes de gripe aviária, não há certeza de que essa será, de fato, a próxima pandemia — nem a respeito de quão grave ela poderia ser caso ocorresse. Um novo vírus inevitavelmente surgirá, mas é provável que sejamos pegos de surpresa, assim como fomos com a Covid. 

Reconheço que vivemos em um mundo tomado pelo medo, mas minha preocupação é que, à medida que o Doomsday Clock dilui seu foco original da guerra nuclear — um risco que, de fato, está se agravando — e faz pequenos ajustes ano após ano, ele acabe desgastando o próprio público que deveria mobilizar. Há um limite para quantas vezes se pode afirmar que o fim do mundo está próximo ou para quantos riscos podem ser elevados à categoria de existenciais, antes que as pessoas simplesmente deixem de prestar atenção.

Um posfácio sobre o jogo dos Eagles: após o aviso final dos árbitros, o time conseguiu executar seu Brotherly Shove, empurrando o quarterback Jalen Hurts para a end zone e garantindo o touchdown (veja a sequência inteira do lance descrito aqui), o que abriu o caminho para uma vitória esmagadora por 55-23 (Go Birds!). Podemos receber todos os alertas do mundo — mas isso não significa que podemos impedir o inevitável segurando os ponteiros do relógio.

Este artigo também pode ser lido em Update or Die. Publicado em 05 de fevereiro de 2025.

LLMs: o muro já é um espelho

dezembro 26, 2024 § Deixe um comentário

Em novembro, escrevi sobre como os Large Language Models (LLMs) pareciam estar batendo em um muro. Meu texto, “Chegamos ao ponto de retorno decrescente dos LLMs, e agora?”, explorou os desafios de escalar esses modelos e a crescente percepção de que força bruta e maiores conjuntos de dados não seriam suficientes para empurrá-los rumo à inteligência artificial geral. Argumentei que, embora os LLMs se destaquem em reconhecimento de padrões e fluência sintática, sua falta de raciocínio mais profundo e compreensão genuína expõe limitações críticas.

No último dia 05 de dezembro, Sundar Pichai confirmou em um evento do The New York Times o que a The Information havia noticiado no mês anterior.

Publicação da The Information – 05 de dezembro de 2024.

Durante o tal evento, o DealBook Summit, o CEO do Google fez uma observação reveladora: “O progresso vai se tornar mais difícil em 2025. Os frutos mais baixos já foram colhidos. A subida agora é mais íngreme”. Pichai destacou que a próxima onda de avanços na Inteligência Artificial dependerá de “rupturas técnicas” em áreas críticas, como o raciocínio e a capacidade de executar sequências de ações de forma mais confiável. Essa visão reforça o ponto que venho defendendo: superar as limitações atuais dos modelos de linguagem não será uma questão de apenas ampliar a escala, mas de abordar desafios fundamentais que exigem soluções inovadoras e uma reavaliação do que significa, de fato, avançar nesse campo de pesquisa.

Gary Marcus, em uma de suas recentes postagens no Substack, contribuiu com seus próprios insights sobre o tema, “Which CEO Will Be the Last to See the Truth About Generative AI?”. Marcus não apenas reforça a ideia de que os LLMs chegaram a um platô, mas vai além, questionando a fixação da indústria em tê-los como uma panaceia para o avanço da IA. Ele aponta como a obsessão com a IA generativa pode desviar a atenção de questões estruturais que precisam ser resolvidas para que esses sistemas realmente evoluam.

O artigo do Gary me chamou a atenção porque destaca uma questão fundamental com a qual tenho refletido: a inclinação de executivos e empreendedores da indústria da IA em exagerar nas promessas sobre capacidades e entregar menos no quesito robustez. Como ele observa, esse descompasso entre a hype e a realidade pode colocar em risco o progresso do campo da IA como um todo.

Meu texto de novembro focou principalmente nas limitações técnicas. Gary, por sua vez, traz à tona as deficiências culturais e estratégicas da indústria. Ele destaca o “tech FOMO” (medo de ficar para trás), que faz muitos CEOs insistirem em sistemas falhos, mesmo quando as falhas se tornam cada vez mais evidentes.

A verdadeira questão, como ambos parecemos concordar, não é se os LLMs podem continuar produzindo respostas inteligentes, mas se o próximo avanço na IA exigirá uma redefinição fundamental do que entendemos por inteligência. Acredito que essa transformação pode passar pela adoção de abordagens interdisciplinares — integrando perspectivas da ciência cognitiva, neurociência e até filosofia — para desenvolver sistemas que vão além da simples imitação da linguagem.

Isso me traz à mente uma lição valiosa: às vezes, topar com uma parede não é apenas um sinal para parar, mas uma oportunidade de olhar no espelho e refletir sobre as perguntas difíceis que precisam ser feitas para escolhermos o próximo passo.

E você, o que acha? Estamos prontos para enxergar além da parede — ou estamos tão fascinados com o nosso próprio reflexo que não conseguimos perceber o que está do outro lado?

Este artigo também pode ser lido em Update or Die. Publicado em 25 de dezembro de 2024.

AI-100: Celebrando uma década de insights em Inteligência Artificial

junho 8, 2024 § Deixe um comentário

Ao fecharmos a primeira década deste estudo centenário AI-100 penso ser um momento oportuno para refletir sobre as percepções significativas e os progressos documentados nos dois relatórios já publicados.

Em 2014 foi lançado o “Estudo de 100 anos para a Inteligência Artificial”, por uma espécie de consórcio formado por universidades de ponta dos EUA, Canadá e Índia e pelos departamentos de pesquisa de empresas de tecnologia. Para “tocar o trabalho” foram formados um comitê administrativo para cuidar da organização e gerenciamento do estudo (afinal a ideia é que dure pelo menos 100 anos) e um painel de especialistas destinados a analisar o que tem sido feito na área e tentar prever os caminhos e os impactos da Inteligência Artificial no futuro da humanidade.”

Esse foi o primeiro parágrafo do primeiro texto de cinco que escrevi em 2016 comentando sobre o estudo que ficou conhecido como AI-100, sediado na Universidade de Stanford. De lá para cá, escrevi tanto sobre o primeiro relatório quanto sobre o segundo, de 2021 (deixo aqui links para o último texto sobre o relatório de 2016, com link para os demais e do texto de 2022 sobre o relatório do ano anterior). 

O projeto foi concebido para antecipar e compreender os impactos a longo prazo da inteligência artificial na sociedade, estabelecendo um precedente para a colaboração interdisciplinar e pesquisa científica, além de manter uma certa visão de futuro que poderia ser resumida pela seguinte pergunta: como a IA pode colaborar com o desenvolvimento humano? Ao fecharmos a primeira década deste estudo centenário, penso ser um momento oportuno para refletir sobre as percepções significativas e os progressos documentados nos dois relatórios já publicados.  

O relatório inaugural de 2016 preparou o terreno ao explorar o estado-da-arte da inteligência artificial ​​naquele momento e a sua trajetória potencial ao longo dos próximos cem anos. O relatório foi um exame abrangente das capacidades, limitações e mudanças sociais que ela poderia gerar. Enfatizou o potencial transformador da tecnologia ​​em vários setores, principalmente na educação. Estudos na área estavam sendo concebidos para revolucionar as práticas educativas, oferecendo experiências de aprendizagem personalizadas e sistemas tutoriais inteligentes, que poderiam apoiar professores e alunos de formas sem precedentes. O relatório também abordou alguns conceitos comumente equivocados sobre a inteligência artificial, esclarecendo o que a tecnologia poderia alcançar de forma realista e o que permaneceria no campo especulativo. Este trabalho inicial foi importante para enquadrar a IA não como um conceito futurista distante, mas como uma força imediata e em evolução na vida quotidiana.

Um desses equívocos era a ideia de que a inteligência artificial em breve ultrapassaria a inteligência humana em todos os aspectos. Embora a IA tenha feito progressos impressionantes em áreas específicas como o reconhecimento de padrões e o processamento de dados, o relatório esclareceu que suas capacidades ​ainda estavam longe de replicar todo o espectro das capacidades cognitivas humanas, como a inteligência emocional, a criatividade e a resolução geral de problemas.

O relatório de 2016 também desmascarou a noção de que esses sistemas tecnológicos são infalíveis e isentos de preconceitos. Destacou casos em que a IA perpetuou preconceitos existentes nos dados de formação, enfatizando a necessidade de testes rigorosos e monitoramento contínuo para garantir justiça e precisão na sua aplicação.

Estes esclarecimentos foram cruciais para mudar a narrativa no sentido de uma compreensão mais realista dos pontos fortes e limitações da inteligência artificial e tiveram um impacto profundo no desenvolvimento da IA ​​generativa, como o ChatGPT, nos anos seguintes. Ao reconhecer suas limitações ​​e abordar conceitos equivocados, as pesquisas sobre o tema foram encorajadas a concentrar-se em avanços específicos e alcançáveis. Essa perspectiva realista impulsionou o desenvolvimento de modelos generativos de IA com uma compreensão clara das suas capacidades e limitações. Por exemplo, a ênfase na compreensão e na mitigação de preconceitos levou à criação de protocolos de desenvolvimento e métodos de avaliação mais robustos, fornecendo ferramentas de avaliação para que modelos, como o ChatGPT, pudessem gerar resultados menos enviesados.

Além disso, o esclarecimento de que a IA não ultrapassaria, no curto e médio prazo, a inteligência humana em todos os aspectos, estimulou o foco no aprimoramento de capacidades específicas onde essa tecnologia poderia se destacar, como a compreensão e geração de linguagem. Isso levou a avanços significativos no processamento de linguagem natural, permitindo a criação de modelos sofisticados capazes de compreender o contexto, gerar texto coerente e envolver-se em conversas significativas (exatamente o que as versões atuais de IA generativa fazem). Ao nos concentrarmos nesses objetivos alcançáveis, foi possível fazer progressos constantes no desenvolvimento da tecnologia que pudessem ajudar e melhorar o resultado de tarefas humanas, ao invés de subistituí-las.

Uma das principais discussões no relatório de 2016 foi o impacto da IA ​​no mercado de trabalho. O relatório reconheceu a sua dupla natureza de influência: por um lado, poderia automatizar tarefas rotineiras, potencialmente deslocando trabalhadores; por outro, poderia criar novas oportunidades de emprego e negócios. Essa visão matizada sublinhou a necessidade de políticas proativas para apoiar as transições da força de trabalho, garantindo que os benefícios da tecnologia ​​fossem amplamente partilhados e que os (as) trabalhadores(as) estivessem preparados(as) com as competências necessárias para uma economia impulsionada pela inteligência, artificial e humana. A abordagem equilibrada do relatório destacou a importância de ver a IA como uma ferramenta para aumentar as capacidades humanas.

Com base no que foi estabelecido pelo relatório anterior, o documento de 2021 forneceu uma análise atualizada dos avanços e desafios emergentes da área. Nessa altura, foram feitos avanços significativos nas tecnologias de inteligência artificial, incluindo aprendizagem profunda, sistemas autônomos e ética (com o surgimento do conceito de alinhamento de IA). O relatório documentou aplicações reais, como diagnósticos de saúde, veículos autônomos e modelagem climática, ilustrando a crescente influência da tecnologia ​​em diversos domínios. Estes avanços não foram meramente teóricos, mas tiveram impactos tangíveis, demonstrando o seu potencial ​​para auxiliar no enfrentamento de alguns dos maiores desafios da sociedade. Por exemplo, ferramentas de diagnóstico alimentadas por IA melhoraram a detecção precoce de doenças e a confecção de planos de tratamento personalizados; pesquisas em veículos autônomos tem focado na melhora da sua segurança e eficiência de direção; e modelos climáticos baseados em IA conseguem fornecer melhores previsões para mudanças ambientais e desastres naturais.

O relatório de 2021 também se aprofundou nos impactos sociais da inteligência artificial, abordando questões como preconceito, privacidade e a necessidade de quadros robustos de governança. À medida que esses sistemas se tornarem mais integrados na vida quotidiana, a importância de garantir que funcionem de forma justa e transparente torna-se cada vez mais evidente. O relatório destacou vários casos em que os sistemas de IA perpetuaram inadvertidamente preconceitos, sublinhando a necessidade de monitoramento e melhoria contínua. Esse foco em considerações éticas foi uma prova da evolução da compreensão do papel ​​deste tipo de ferramenta na sociedade – não apenas como um avanço tecnológico, mas como um sistema sociotécnico que deve ser desenvolvido e implantado de forma responsável.

Um aspecto notável do documento de 2021 foi a inclusão de perspectivas globais sobre o desenvolvimento da IA. Reconhecendo que o tema é um fenômeno global, o relatório enfatizou as diversas abordagens e ambientes regulatórios em diferentes regiões. Apelou à colaboração internacional para enfrentar os desafios globais colocados pelo seu uso, tais como garantir o acesso equitativo à tecnologia e mitigar os riscos associados à sua implantação. Este âmbito alargado foi um lembrete de que os impactos da inteligência artificial ​​não se limitam a um único país ou região, mas são verdadeiramente globais por natureza.

Provavelmente veremos avanços ainda mais rápidos daqui para frente, juntamente com implicações sociais cada vez mais complexas. Questões como governança de IA, considerações éticas e cooperação global se tornarão ainda mais críticas. Os primeiros dez anos do estudo AI-100 forneceram informações valiosas sobre o desenvolvimento e os impactos sociais da inteligência artificial. Desde as suas explorações iniciais publicadas em 2016 até às análises mais detalhadas em 2021, o estudo destacou o potencial transformador da tecnologia, bem como os desafios que devem ser enfrentados para garantir que os seus benefícios sejam amplamente partilhados.

À medida que avançamos para a próxima década, o estudo AI-100 está em uma posição única para fornecer embasamento científico para uma pesquisa rigorosa e interdisciplinar que possa verdadeiramente enfrentar os desafios citados no parágrafo anterior. Ao manter uma abordagem inovadora e ao envolver-se em uma ampla gama de perspectivas, a iniciativa tem tudo para continuar a desempenhar um papel importante na definição do futuro da IA.

Este texto também pode ser lido no LinkedIn e em Update or Die.

You can read the English version, “AI-100: Celebrating a Decade of Insights in Artificial Intelligence”, on Substack or Medium.

O futuro da indústria tech

novembro 10, 2016 § Deixe um comentário

digitalchalk.jpg

A indústria da tecnologia defendeu por anos o argumento de que para se ter uma economia baseada na inovação, era preciso que se estimulasse a educação, o conhecimento aplicado à propriedade intelectual e o multiculturalismo. Isto impactou diretamente em políticas públicas e legislação de diversos países em relação à organização e às metodologias de seu sistema educacional, proteção à propriedade intelectual e estímulo ao desenvolvimento de pesquisas científicas (que geram propriedade intelectual) e em políticas de imigração (em especial as ligadas à concessão de visto de trabalho para os chamados skilled workers).

Os EUA, como uma das grandes forças impulsionadoras da indústria tech, sempre foram vistos como determinante para a definição das posturas deste mercado no mundo todo. É natural então, que uma presidência Trump – potencializada pelo Brexit – não podemos esquecer que o Reino Unido é o segundo produtor mundial de propriedade intelectual, atrás apenas dos EUA, leve a uma reavaliação estratégica da área em relação as suas políticas. Já começaram a circular e-mails pelo Vale do Silício, propondo o reposicionamento para a defesa do corte de impostos para a área e o comprometimento em relação à repatriação de divisas.

Entendo a postura e reconheço a necessidade de reposicionamento – em especial se levarmos em consideração que Trump declarou em campanha que iria iniciar uma ação antitruste contra a Amazon e prometeu forçar a Apple a fabricar seus produtos nos EUA. Mas um dos argumentos mais poderosos das empresas de tecnologia em relação à sua própria importância, sempre foi o fato de que suas metas não eram apenas financeiras, mas abarcavam a construção de um futuro progressista. Sim, queriam dinheiro, mas também queriam construir um mundo melhor em termos filosóficos e democráticos – protegiam a educação e o conhecimento como modo de empoderar as pessoas e estimulá-las a quererem se tornar mais inteligentes e cultas. A lógica era que pessoas mais inteligentes tinham mais possibilidades de inovar.

Thomas Friedman – o autor do livro “O Mundo é Plano”, que propiciou muita da base conceitual para os argumentos defendidos pela indústria tech – escreveu sobre o resultado das eleições americanas, no texto intitulado “Homeless in America”, que o chamado “aprendizado para a vida toda” (no original lifelong learning) poderia ser uma fonte inesgotável de stress para algumas pessoas.

O risco que esta visão de mundo coloca é: se o aprendizado pode fazer mais mal do que bem e se algumas pessoas, não apenas o rejeitam, mas agem conscientemente para impedir a formação de um ambiente que estimule o desenvolvimento da sua fonte (o conhecimento), por que priorizar a educação?

40% das pesquisas científicas realizadas pelo Reino Unido eram financiadas pela União Europeia (rejeitada pela maioria dos britânicos). Facebook e Twitter têm sido apontados como causadores do declínio do jornalismo e da irrelevância dos fatos (e de quebra contribuído para a expansão do trolling, racismo e misoginia que caracterizaram a campanha do agora presidente Trump). O crescimento de um sentimento anti-tech pode, de verdade, mudar a direção que as políticas educacionais vinham tomando nos países desenvolvidos (que queira ou não, dão o tom para o restante do mundo).

O efeito colateral pode ser a criação de uma elite intelectual tecnológica – porque a indústria continuará e precisará de pessoas que tenham a habilidade de criar propriedade intelectual. Mas, talvez o sonho de democratizar esta habilidade tenha acabado.

Inteligência Artificial e a Educação

outubro 27, 2016 § Deixe um comentário

35061-robot-te_article.jpg

Como retrospectiva, sugiro a leitura dos textos anteriores sobre o assunto. O primeiro, a respeito do “Estudo de 100 anos para a Inteligência Artificial”; o segundo, referente à definição do que é IA; o terceiro, abordando as tendências; e o quarto a respeito do impacto no mercado de trabalho. Este é o último texto da série e aborda um dos temas mais estratégicos, pelo menos no meu entendimento, na priorização do planejamento de pessoas, organizações e países: a educação.

Dediquei boa parte da minha carreira à área de educação corporativa – sou um daqueles caras de “treinamento” que boa parte dos que trabalham em empresas de médio e grande porte já deve ter cruzado por aí. Sei que muitos “torcem o nariz” para o uso do termo “educação” em associação com a palavra “corporativa”, mas a verdade é que, com a já conhecida (enorme) lacuna na qualidade da formação educacional em nosso país, boa parte das empresas decidiu investir elas mesmas na formação do funcionário, muitas vezes indo além de conhecimentos e habilidades específicas para o seu negócio e ajudando-os em formação básica. Desta forma, em minha opinião, contribuindo para a própria educação do brasileiro. Para atuar neste ambiente, passei anos “consumindo” tudo o que pude encontrar em relação a métodos educacionais. Quando comecei a “me envolver” com machine learning, tive a grata surpresa de perceber que muitos dos conceitos que aprendi a respeito do aprendizado de gente, podia também ser aplicado ao aprendizado de máquinas. Faço esta introdução apenas para contextualizar a minha relação com o tema.

Desde os projetos Lego Mindstorms, desenvolvidos pelo MIT Media Lab a partir dos anos 1980, robôs têm se tornado ferramentas educacionais populares. Cabe aqui atribuir o crédito devido ao matemático Seymour Papert, guru de muita gente (inclusive meu), por conta do seu trabalho envolvendo o uso de tecnologias no aprendizado de crianças desde os anos 1960. Papert foi fundamental para o desenvolvimento do conceito de aprendizado multimídia, hoje parte integrante das teorias do aprendizado, assim como na evolução do campo da Inteligência Artificial.

Este caldo de ideias estimulou o desenvolvimento de diferentes frentes de atuação da IA aplicada à educação. É importante deixar claro, desde já, que nenhuma destas frentes descarta a importância da participação do ser-humano como vetor do ensino. Como citei no texto anterior, referente ao impacto no mercado de trabalho, IA pode aumentar o escopo do que é considerado tarefa de rotina, mas definitivamente o papel do professor não está entre elas. Ferramentas como os Intelligent Tutoring Systems (ITS), campos de atuação como Natural Language Processing ou aplicativos como os de Learning Analytics têm como objetivo ajudar os professores em sala de aula e em casa, expandir significativamente o conhecimento dos alunos. Com a introdução da realidade virtual no repertório educacional, por exemplo, o impacto da Inteligência Artificial no aprendizado do ser-humano deve ser de tal ordem que “periga” alterar a forma como o nosso cérebro funciona (é claro que este impacto ainda é suposição). Creio que a melhor maneira de abordar este assunto, é por meio de exemplos. Vou associá-los aos tópicos principais de IA aplicada à educação. Sempre que o exemplo vier acompanhado de um link, pode clicar. São informações adicionais sobre o assunto ou vídeos tutoriais sobre alguma ferramenta. Se por acaso ocorrer algum rickrolling, me avisem.

Robôs tutores

Ozobot, é um robozinho que ajuda crianças a entenderem a lógica por detrás da programação e a raciocinar de maneira dedutiva. Ele é “configurando” pelas próprias crianças, por meio de padrões codificados por cores, para dançar ou andar. Já os Cubelets auxiliam a criança a desenvolver o pensamento lógico através da montagem de blocos robôs, cada um com uma função específica (pensar, agir ou sentir). Os Cubelets têm sido usados para estimular o aprendizado de STEM.

Dash, é o robô oferecido pela Wonder Workshop, que permite apresentar crianças (e adultos) à robótica. É possível programar as ações do robô por meio de uma linguagem de programação visual desenvolvida pela Google, chamada Blockly ou mesmo construir apps para iOS e Android, usando linguagens mais parrudas como C ou Java.

Por fim, o PLEO rb é um robô de estimação, criado para estimular o aprendizado de biologia. A pessoa pode programar o robô para reagir a diferentes aspectos do ambiente.

Intelligent Tutoring Systems (ITS)

Os ITS começaram a ser desenvolvidos no final do século XX por vários centros de pesquisa, para auxiliar na resolução de problemas de física. A sua força sempre esteve na sua capacidade de facilitar o “diálogo” humano-máquina. Ao longo destas primeiras décadas do século XXI, começou a ser utilizado para o ensino de línguas. Carnegie Speech e Duolingo são exemplos da sua aplicação, utilizando o Automatic Speech Recognition (ASR) e técnicas de neurolinguística para ajudar os alunos a reconhecerem erros de linguagem ou pronúncia e corrigi-los.

Também têm sido usados para auxiliar no aprendizado de matemática, o Carnegie Cognitive Tutor foi adotado por escolar norte-americanas para este fim. Outros similares (Cognitive Tutors) são usados para o aprendizado de química, programação, diagnósticos médicos, genética, geografia, dentre outros. Os Cognitive Tutors são ITS que usam softwares que imitam o papel de um professor humano, oferecendo dicas quando um estudante fica com dificuldade em algum tópico, como por exemplo, um problema de matemática. Com base na pista solicitada e a resposta fornecida pelo aluno, o “tutor” cibernético oferece um feedback específico, de acordo com o contexto da dúvida.

Um outro ITS chamado SHERLOCK, desde o final da década de 1980 ajuda a Força Aérea Americana a diagnosticar problemas no sistema elétrico de suas aeronaves. Quem quiser conhecê-lo mais, sugiro este paper publicado nos primórdios da internet (não se assustem com o design).

Mas as grandes “estrelas” na constelação dos ITS são definitivamente os MOOCs (Massive Open Online Courses). Ao permitirem a inclusão de conteúdos via Wikipedia e Khan Academy e de sofisticados Learning Management Systems (LMS), baseados tanto em modelos síncronos (quando há prazos para conclusão de cada fase do curso) quanto modelos assíncronos (quando o aprendiz vai no seu ritmo), os MOOCs têm se tornado a ferramenta de aprendizagem adaptativa mais popular.

EdX, Coursera e Udacity são exemplos de MOOCs que se “alimentam” de técnicas de machine learning, neurolinguística e crowdsourcing (também conhecida em português como colaboração coletiva) para correção de trabalhos, atribuição de notas e desenvolvimento de tarefas de aprendizado. É bem verdade que a educação profissional e a de ensino superior são as maiores beneficiárias deste tipo de ITS (em comparação com os ensinos básico, médio e fundamental). A razão disto, é que o público delas, até mesmo por ser geralmente composto por adultos, tem menos necessidade de interação cara-a-cara. Espera-se que com um maior estímulo ao desenvolvimento da habilidade de metacognição, os benefícios oferecidos por estas plataformas possam ser distribuídos mais democraticamente.

Learning Analytics

Também já se sente o impacto do Big Data em educação. Todas as ferramentas apresentadas geram algum tipo de log ou algum tipo de registro de dado. Assim como aconteceu no mundo corporativo com BI (Business Intelligence) e BA (Business Analytics), a geração maciça de dados advindos da integração de IA, educação e internet, fez surgir a necessidade de se entender e contextualizá-los para melhor aproveitar as oportunidades e insights potencializados por eles.  Com isto, o campo chamado Learning Analytics tem observado um crescimento em velocidade supersônica.

A bem da verdade, é que cursos online não são apenas bons para a entrega de conhecimento em escala, são veículos naturais para a armazenagem de dados e a sua instrumentalização. Deste modo, o seu potencial de contribuição para o desenvolvimento científico e acadêmico é exponencial. O aparecimento de organizações como a Society for Learning Analytics Research (SOLAR) e de conferências como a Learning Analytics and Knowledge Conference organizada pela própria SOLAR e a Learning at Scale Conference (L@S), cuja edição de 2017 será organizada pelo MIT, refletem a importância que está se dando a este assunto em outras “praias”. IA tem contribuído para a análise do engajamento do aprendiz, seu comportamento e desenvolvimento educacional com técnicas state-of-the-art como deep learning e processamento de linguagem natural, além de técnicas de análise preditivas usadas comumente em machine learning.

Projetos mais recentes no campo de Learning Analytics têm se preocupado em criar modelos que captem de maneira mais precisa as dúvidas e equívocos mais comuns dos aprendizes, predizer quanto ao risco de abandono dos estudos e fornecer feedback em tempo real e integrado aos resultados da aprendizagem. Para tanto, cientistas e pesquisadores de Inteligência Artificial têm se dedicado a entender os processos cognitivos que envolvem a compreensão, a escrita, a aquisição de conhecimento e o funcionamento da memória e aplicar este entendimento à prática educacional, com o desenvolvimento de tecnologias que facilitem o aprendizado.

O mais incauto pode se perguntar por que com tecnologias de IA cada vez mais sofisticadas e com o aumento do esforço no desenvolvimento de soluções específicas para educação, não há cada vez mais escolas, colégios, faculdades e universidades os utilizando?

Esta resposta não é fácil e envolve diversas variáveis. A primeira delas está relacionada ao modelo mental da sociedade e ao quanto esta sociedade preza o conhecimento. Há locais em que a aplicação da IA em educação está mais avançada, como por exemplo a Coreia do Sul e a Inglaterra e outros em que já se está fazendo um esforço concentrado para tal, como por exemplo Suíça e Finlândia. Não por acaso, são países em que há bastante produção de propriedade intelectual. A segunda delas, envolve o domínio na geração do conhecimento e na sua aplicação em propriedade intelectual. Nesta variável, segue imbatível os EUA, que são responsáveis por boa parte do conhecimento produzido pelo ser-humano. Novamente, não por acaso, são os líderes no desenvolvimento do campo de IA. A terceira variável, como não poderia deixar de ser, é o custo. Não é barato e como dinheiro é um recurso escasso em qualquer lugar (em uns mais do que em outros, claro) é preciso que haja uma definição da sociedade em questão quanto às suas prioridades para se fazer este investimento. A quarta, está ligada ao acesso aos dados produzidos por estas iniciativas educacionais e as conclusões geradas. Embora haja fortes indícios de que a tecnologia impulsionada pela IA realmente impacta positivamente no aprendizado, ainda não há conclusões objetivas em relação ao tema – muito por conta da sua recência. E como o investimento é alto, são poucos os que topam ser early adopters.

De qualquer forma fica a questão, vale a pena? Quanto a isto, gosto de citar meu ex-chefe, Edmour Saiani. Sempre quando perguntado se devíamos treinar alguém, ele respondia: “se lembre que o problema nunca é você treinar a pessoa e ela sair da empresa, o problema é você não treinar e ela ficar”. Neste tipo de caso, não fazer nada é a pior opção.

Inteligência Artificial e o mercado de trabalho

outubro 7, 2016 § 1 comentário

artificial.intelligence.2025.jpg

Como retrospectiva, sugiro a leitura dos textos anteriores sobre o assunto. O primeiro, a respeito do “Estudo de 100 anos para a Inteligência Artificial”; o segundo, referente à definição do que é IA; e o terceiro, abordando as tendências. Pretendo dedicar este e o próximo à análise do impacto em duas áreas de grande interesse: o emprego e ambiente de trabalho e a educação.

O mercado de trabalho tem sido historicamente influenciado pela Inteligência Artificial via tecnologias digitais que permitem a criação de rotinas ou automação de tarefas como planejamento de utilização de recursos, sistemas de informação e análise para supply chain, CRM ou knowledge management systems, dentre outros. Por conta deste enfoque em rotina, trabalhos de nível médio têm sido mais impactados do que os de nível alto e baixo. Vale lembrar que estes “níveis” se referem à habilidade necessária para realizar uma tarefa, que por sua vez, se reflete em nível de escolaridade. Um bom modo de visualizar esta realidade é pelos gráficos publicados pelo The New York Times em 2014, mostrando como a recessão havia impactado a economia e modificado o mercado de trabalho (são 255 gráficos interativos que dão um panorama bem abrangente e que podem ser acessados por este link).

Como comentei no primeiro texto desta série, acredita-se que IA possa aumentar o escopo do que é considerado tarefa de rotina. Um exemplo neste sentido nos é dado pelos pesquisadores Dana Remus (University of North Carolina) e Frank S. Levy (M.I.T.), no artigo acadêmico “Can Robots Be Lawyers? Computers, Lawyers, and the Practice of Law”. Como já se intui pelo título, trata-se do impacto atual de IA na automação de algumas práticas jurídico-legais, como a permitida por algoritmos que fazem extração de informações de processos jurídicos e topic modeling – é o termo usado para a tarefa de descobrir e registrar uma grande quantidade de arquivos e documentos com base em informações temáticas pré-definidas – vale dizer que é feito através de métodos estatísticos que analisam as palavras dos textos originais para descobrir seus temas, como estes temas estão ligados uns aos outros e como eles mudam ao longo do tempo. Isto tem influenciado o tipo de trabalho feito por advogados recém-formados nos EUA, que anteriormente começavam as suas carreiras fazendo, guardadas as devidas proporções, o que estes algoritmos fazem hoje.

Também é esperado que IA possa influenciar no tamanho e na localização da força de trabalho. Muitas organizações são grandes porque precisam realizar funções que são escalonáveis apenas pela adição de recursos humanos – seja “horizontalmente” em mais áreas geográficas, seja “verticalmente” em níveis hierárquicos. Ao realizar mais funções, a Inteligência Artificial muda a definição do que significa escalonar, não a relacionando mais a aumento de “tamanho”. Mas nem tudo é ameaça, IA também deverá criar postos de trabalho, especialmente em setores que necessitam de propriedade intelectual, fazendo com que certas tarefas fiquem mais importantes e criando novas categorias de emprego ao permitir novos modos de interação.

Sistemas de informação cada vez mais sofisticados (sobre o assunto recomendo muito o livro de Laudon & Laudon, “Management Information Systems”, já na sua 13ª edição) têm sido usados para criar novos mercados e reduzir barreiras de entrada, permitindo o surgimento de apps como Airbnb e TaskRabbit, por exemplo. Uma comunidade crescente de pesquisadores tem se dedicado exclusivamente a estudar como se pode usar a IA na criação de novos mercados e em como fazer os mercados atuais operarem de maneira mais eficiente, levando a crer que a sua influência, muitas vezes disruptiva, está apenas no seu início.

Apesar da IA poder reduzir o valor de bens de consumo e serviços (ao realizar tarefas que necessariamente demandariam um ser-humano) e desta forma contribuir para o aumento da capacidade de consumo individual, é inegável que a possível redução de vagas de trabalho levanta mais preocupação do que os ganhos econômicos difusos. Com isso, IA acaba sendo “culpada” mais por ameaçar o emprego do que bem vista pela sua capacidade de melhorar a qualidade de vida.

É verdade, porém, que gradualmente o avanço na inteligência de máquinas irá permiti-las “invadir” a maioria dos mercados de trabalho, exigindo uma mudança no tipo de atividade realizada por humanos e que os computadores serão capazes de assumir. Acredita-se que os efeitos econômicos da IA sobre os chamados empregos humanos cognitivos (aqueles considerados anteriormente na era industrial como “trabalho de escritório”) será análogo aos efeitos da automação e robótica no trabalho de fabricação industrial, em que operários acabaram perdendo empregos mesmo possuindo conhecimentos técnicos, muitas vezes especializados, perda esta que impactou negativamente em seu status social e na sua capacidade de prover para suas famílias. Com a mão-de-obra se tornando um fator menos importante na produção em comparação ao capital intelectual e à capacidade de usá-lo para gerar valor, é possível que a maioria dos cidadãos possa ter dificuldades em encontrar um trabalho que pague bem suficientemente para manter um padrão socialmente aceitável de vida.

Esta é uma possibilidade real e influencia, dentre outras coisas, em curto prazo, na forma como o nosso sistema educacional se organiza. Educação, treinamento e criação ou readequação de bens e serviços que necessitem mais de intervenção humana podem ajudar a mitigar efeitos econômicos negativos. De qualquer forma, é imprescindível que comecemos a nos atentar às competências necessárias para o trabalho do século XXI e adequar nosso sistema educacional para formar cidadãos mais capacitados dentro de uma realidade diferente da industrial (quem se interessar mais sobre o assunto, ano passado publiquei 3 textos sobre o tema, que disponibilizo neste link).

Em longo prazo, será preciso rever a rede de segurança social atual e evoluí-la para atender um possível contingente maior de pessoas e ajudá-las a se reintegrarem em uma sociedade mais intelectual do que manual. Países como a Suíça e a Finlândia já começaram a considerar ativamente esta nova realidade e iniciaram um processo de adequação de suas sociedades – que começou, de maneira não surpreendente – pela reformulação de seus sistemas educacionais, privilegiando o desenvolvimento da habilidade de metacognição, domínio de idiomas (em especial da língua inglesa, pelo fato da maior parte do conhecimento humano estar registrado neste idioma) e um currículo baseado em STEM (acrônimo em inglês para Ciências, Tecnologia, Engenharia e Matemática) associado ao “método” grego de “arte liberal” (quem quiser mais detalhes do conceito, disponibilizo um link de outro texto que escrevi sobre o tema) por se entender que é uma maneira eficiente de adequar a forma de pensar para uma mentalidade mais direcionada à criação de propriedade intelectual, em que se destaca a conexão de conhecimentos – de forma mais abrangente – e a imaginação – para atuar criativamente na sociedade e gerar inovação.

Aqui vale uma explicação adicional, pois o tema gera bastante interpretação equivocada. Foco em STEM não é a mesma coisa que foco em ciências exatas (e menos ainda, não foco em ciências humanas). É consenso, ao menos no caso da matemática, que a matéria ensinada na maioria das escolas é um reflexo pálido da matemática que verdadeiramente apaixona (aquela que, parafraseando Michael Atiyah, identifica e lida com problemas que são ao mesmo tempo interessantes e solucionáveis). No decorrer da revolução industrial nos esquecemos de que matemática também é arte – e não me refiro à geometria, como aqueles cujo coração se agita com a visão dos fractais pode supor inicialmente – me refiro à emoção que a matemática evoca. A satisfação de transformar o desconhecido em conhecido é imensa e também profundamente inata à “disciplina” em questão. A triste ironia da política de educação em relação à matemática é que na tentativa de aproveitar o nosso potencial humano para o raciocínio e resolução de problemas – habilidades vitais para o futuro da nossa economia – os formuladores de políticas públicas (assim como os formadores de opinião) negligenciam a mais importante de todas as verdades matemáticas: ela também é arte e deve ser tratada como tal.

Tsunami digital

agosto 25, 2016 § Deixe um comentário

tech_world.jpeg

Confesso que queria encontrar um título mais impactante – pensei mesmo em chamar de “a quarta revolução industrial” – mas creio que a comparação seria limitada (e incoerente com a observação sociológica que indica a mudança de uma sociedade industrial para uma sociedade baseada no conhecimento). Procurando por uma metáfora, fiquei com a definição do Klaus Schwab (presidente do Fórum Econômico Mundial) – tsunami – se vê pequenos sinais à beira-mar e de repente a onda gigante te engolfa. O mundo digital do futuro (próximo), conduzido pela inteligência artificial, internet das coisas e (não canso de repetir, o cada vez mais famoso) big data têm promovido mudanças tão rápidas e densas que pode ser difícil dar um passo atrás e tentar entender o fenômeno. De fato, as transformações têm um potencial tão esmagador, que ao invés de surfar as ondas, podemos, de repente, nos encontrar “levando um caldo”.

Recomendo a leitura do relatório “Technology Tipping Points and Societal Impact”, publicado pelo Fórum Econômico Mundial, com as tendências, cronograma e o impacto esperado na sociedade promovido pelos 3 condutores mencionados no parágrafo anterior. Quem quiser se preparar para a leitura das 44 páginas do relatório, faço um apanhado geral a seguir do que consta nele. Antes, penso ser necessário dar uma pequena explicação a respeito do motivo pelo qual se “bate” tanto na tecla da importância da tecnologia.

A palavra-chave do “mundo” em que vivemos hoje é interconexão. “Globalização”, “sociedade pós-moderna” e outros termos obscuros que se encontra por aí, tem na sua semântica a integração – seja ela de mercados, de pessoas, de culturas, de países, etc. Tudo é interligado: tecnologia, segurança, crescimento econômico, sustentabilidade e identidades culturais. A mudança tecnológica não é um fenômeno isolado, faz parte de um ecossistema complexo que compreende negócios, ações governamentais e as suas dimensões sociais. Por exemplo, para um país fazer um ajuste para o novo tipo de competição orientada pela inovação e criação de propriedade intelectual, todo o ecossistema tem de ser considerado – não é à toa que no ano passado a Finlândia reformulou o seu sistema educacional com foco no estímulo ao autoaprendizado e embasado principalmente pelo uso da tecnologia e o acesso à internet. Então, se algo muda (ou está mudando constantemente) como no caso da tecnologia, todo o sistema precisa se adaptar para manter-se sustentável.

Sem mais delongas, o que o relatório aponta pode ser resumido, “Zagallomicamente”, em 13 pontos principais:

1) Tecnologias usáveis e implantáveis: alguém se recorda dos tijolões que eram os celulares nos anos 90? E dos diminutos do início dos anos 2000? Por volta de 2025 podemos olhar os smartphones da mesma maneira. Há um certo consenso de que os primeiros celulares implantáveis estarão disponíveis no mercado dentro de 9 anos. Há mais consenso ainda em relação às roupas conectadas à internet.

2) Presença digital: há uns 15 anos, ter “presença” digital significava possuir uma conta de e-mail. Hoje, até nossos avós possuem um login no Facebook, no Twitter ou mesmo um site pessoal. Em 10 anos, cerca de 90% das pessoas no mundo terão alguma forma de presença digital. Com isto, pode-se concluir que 90% da população mundial estará conectada na internet. Não é pouca coisa em relação ao conceito de interconexão que comentei anteriormente.

3) A visão como nova interface: não sei quantos dos que me leem usam óculos. Eu pessoalmente, os uso desde os 13 anos. O que meus olhinhos míopes não esperavam é pela informação de que por volta de meados da próxima década, 10% de todos os óculos do mundo também estarão conectados à internet. Isto quer dizer acesso a apps (ou o que for a onda na época) literalmente ao alcance da vista. Também significa acesso e produção de dados em movimento.

4) Computação onipresente: esta tem a ver com a presença digital (ponto 2). É uma informação complementar. Hoje, por volta de 57% das pessoas do mundo estão conectadas à internet. 90% de conexão também significa a presença quase total dos computadores na vida do ser-humano. Não é por acaso que a inteligência artificial tem estado cada vez mais no centro da atenção de quem cria propriedade intelectual e que conceitos como machine learning, ex-machina e similares veem se tornando pop.

5) Tecnologia móvel: em português brasileiro, “combinamos” de chamar os telefones celulares de “celulares”. Mas em outras praias eles são chamados de telefones móveis e chamo a atenção para a palavra “móvel”. A mobilidade elevou a internet a outro patamar, e não vai perder força ou importância no futuro próximo. Pode-se esperar dispositivos mais sofisticados, mas sempre permitindo mobilidade.

6) Armazenamento para “geral”: em carioquês, para “geral” quer dizer para todos. Em 10 anos, 90% dos que tem acesso à internet, também terão armazenagem ilimitada e gratuita nas “nuvens”. Daqui a pouco quase ninguém terá que se preocupar em apagar foto ou vídeo porque acabou o “espaço” no celular.

7) A internet das coisas e para as coisas: óculos, roupas, eletrodomésticos e acessórios. Durante a próxima década, a previsão é que haja 1 trilhão de sensores conectados ao que usamos normalmente. Espera-se que estes sensores nos ajudem a melhorar a segurança (de alimentos à aviões), aumentar a produtividade (o que quer que isto signifique) e nos ajudar a administrar nossos recursos de maneira mais eficiente e sustentável (mesmo porque sempre precisamos de uma utopia).

8) Cidades e casas inteligentes: alguns hoje já são afortunados o suficiente para ter um ou outro eletrodoméstico conectado à internet (tipo uma smart TV ou um sistema de som). As previsões para a próxima década é levar cerca de 50% do tráfego de internet de uma residência para dispositivos ou aparelhos domésticos como frigideiras, geladeira, ar-condicionado, sistemas de segurança, dentre outros. O impacto em cidades deve-se dar principalmente no controle de sinais de trânsito e transporte público.

9) Big data significa big insight: praticamente todos os países do mundo promovem censos governamentais, mas eles são todos mais ou menos da mesma maneira – ou o cidadão recebe pelos correios ou vai um funcionário até a residência. A previsão é que até 2025, pelo menos 1 governo no mundo já tenha substituído seu processo de recenciamento por análise de dados em fontes geradoras ou armazenadoras de big data.

10) Robôs e o ambiente de trabalho: não é segredo de que algumas indústrias funcionam a base de robôs, mas o quanto deles estarão presentes no ambiente de trabalho, digamos, mais administrativo? Há uma previsão de que nos próximos 10 anos, cerca de 30% das auditorias corporativas sejam feitas por robôs. Alguns acreditam que seja também possível lançar neste prazo o primeiro farmacêutico robô.

11) Moeda digital: hoje cerca de 0, 025% do PIB mundial é negociado via blockchain (quem não está habituado com o termo, é uma espécie de “livro-razão” – ou razonete – em que se registra as transações em bitcoin ou similares). Alguns acreditam que esta porcentagem possa chegar a 10% do PIB mundial até 2025 (embora não seja muito crível). Mas muito provavelmente algum governo já estará coletando impostos via blockchain.

12) Economia compartilhada: em 2013 quando a consultora April Rinne causou “furor” em Davos ao falar sobre economia compartilhada (ou economia circular), pouca gente tinha familiaridade com o termo. Hoje, Uber e Airbnb fazem parte do clube do bilhão. Esta tendência não deve perder força na próxima década.

13) Impressora 3D: é considerada um dos “pilares do futuro da manufatura”. O epíteto já diz tudo. Acredita-se que em 10 anos, 5% dos manufaturados serão “impressos” em 3D.

Sei que o texto é longo, se você chegou até aqui, agradeço pela companhia.

Antigas formas de aprender

julho 11, 2016 § 5 Comentários

Abacus.gif

Antes da calculadora científica, da HP12C e do Excel, se usava o ábaco. É um antigo instrumento, formado por uma moldura com bastões ou arames paralelos, dispostos no sentido vertical, cada um deles correspondendo a uma posição digital – unidade, dezena, milhar e por aí vai. Durante milênios, ensinou seres-humanos em diferentes partes do mundo a calcular. Era um equipamento verdadeiramente universal (em uma época em que se chegar a qualquer canto do mundo levava, literalmente, anos. Surpreendentemente, o ábaco sobreviveu como calculadora até o início do século XXI – a China, o último país a removê-lo do seu currículo escolar, o fez somente em 2001.

Em 2010, a pesquisadora Chen Feiyan e seus colegas do departamento de física da Universidade de Zhejiang, conduziram uma pesquisa com estudantes de 200 colégios para medir se o ábaco fazia falta ou não. Descobriu que aqueles que sabiam utilizá-lo, tiravam notas mais altas.

Apesar do pouco uso do ábaco na sociedade moderna, algumas instituições de ensino chinesas, como o grupo Shenmo, decidiram reintroduzir o ensino do instrumento, oferecendo cursos específicos ligados ao currículo de aritmética. A sua “força” está em ajudar quem o usa, a “visualizar” problemas abstratos. Ao aproximá-los do nosso “mundo de carne e osso” por meio de um instrumento físico, o ábaco facilita a compreensão do seu conceito e, em um segundo momento, a sua abstração em nosso cérebro (para um melhor entendimento de como as diferentes regiões do cérebro influenciam no aprendizado, recomendo uma visita ao Brain Map, página interativa da organização OpenColleges).

Em um ensaio publicado na revista “The American Scholar” em 2008, o especialista em literatura, Ernest Blum, chama a atenção para o fato de que “o número de palavras necessárias para ler livros em uma língua estrangeira, excede em vários múltiplos, a quantidade de vocabulário adquirido pela maioria dos estudantes desta língua estrangeira”. Segundo Blum, essa enorme lacuna de vocabulário explica porque, mesmo após anos de curso, muitos ainda dependam fortemente de dicionários e traduções para compreenderem textos em outro idioma.

Blum defende a volta de um método, bastante utilizado nas idades antiga e média para o aprendizado de latim e grego, chamado de tradução das entrelinhas (também é conhecido como tradução interlinear). Neste método, o foco do estudo é o texto e não a gramático.  Palavras, frases e parágrafos são “dissecados” para a compreensão do seu sentido. Outro fã do método, é o professor de história da renascença da Universidade de Leeds, Robert Black, que estudou cerca de 300 “livros didáticos” utilizados em Florença entre os séculos XII e XV, e descobriu que a tradução das entrelinhas fornecia sinônimos, explicava a ordem das palavras e a gramática em termos “modernos” (modernos para a época), destrinchava as figuras de linguagem e suplementava palavras “sem tradução”, as substituindo pelo seu sentido.

Houve uma “tentativa” de reintroduzir o método ao aprendizado de línguas por volta do século XIX, mas foi rejeitado pelos gramáticos da época, que argumentavam que focar no sentido do texto, desconsiderava a gramática e a composição. Para eles, o sentido deveria ser suplementado pelo próprio estudante, com a ajuda de um dicionário.

O exemplo do ábaco e do método da tradução das entrelinhas, mostra que o que é antigo nem sempre é desatualizado. Há muita tentação em simplesmente substituir algo “velho” por uma nova tecnologia (ou modelo), mas a verdade é que o novo, deve ser encarado como uma adição e não substituição. Desta forma, é possível preservar o que comprovadamente dá resultado (e passou pelo “teste do tempo”) e estimular a introdução de novas práticas que, somadas às antigas, efetivamente vão colaborar para o enriquecimento do aprendizado humano.

Bola de cristal

abril 1, 2016 § 2 Comentários

big-data-analytics.png

De um ano para cá tenho desenvolvido um interesse crescente em métodos de análise e modelagem de dados, no que é comumente conhecido como Data Analytics. O que começou como um conhecimento para apoiar o trabalho que desenvolvo em avaliação de ações educacionais, se tornou rapidamente uma fonte de grande prazer pessoal. Conhecer técnicas de Data Analytics é como ter à disposição uma bola de cristal. Utiliza-se os próprios dados disponíveis para identificar seus padrões, promover análises variadas e prever “comportamentos”.

Uma das aplicações possíveis deste campo, embora não muito comumente usada, é na área educacional. Notas, resultados de testes, frequência de aulas, registros de disciplina e ferramentas de desenvolvimento profissional produzem dados que, colocados em certa perspectiva, geram informações valiosíssimas para o próprio sistema. Embora não seja um pré-requisito, o uso da tecnologia na geração e recuperação desses dados tem um papel fundamental na qualidade deles (traz mais acuidade), além de ser um grande incentivador para a integração da própria tecnologia para fins educacionais. Mais do que repositórios para materiais, aulas e atividades, ambientes virtuais são ferramentas de apoio e estímulo ao aprendizado e criam um sistema de comunicação para pais, professores e comunidade. Para a análise de dados, é ouro puro.

O uso de análise preditiva (uma das aplicações de Data Analytics) pode ser determinante, por exemplo, para identificar alunos em risco de não se formarem ou que tenham mais possibilidade de abandonarem os estudos. Uma atuação direcionada antes destes eventos ocorrerem faz toda a diferença na vida dessas pessoas.

Pode-se também “olhar” para além da frequência, dos aspectos disciplinares e das notas e “rastrear” como os estudantes interagem com os recursos de aprendizagem e como se envolvem com o conteúdo e enviar sugestões automáticas de uso para os professores ou para os próprios alunos.

O primeiro ponto nessa história – uso de Data Analytics com viés educacional – é definir as prioridades estratégicas de um sistema de gerenciamento e tecnologia aplicado à educação. Geralmente a intenção é “expandir” as paredes da sala de aula, promover a colaboração e “nutrir” a criatividade e a inovação em alunos e professores. Mas, estas palavras de “ordem” perdem completamente o sentido se não se tiver claramente definido como estes objetivos serão atingidos.

O segundo, é entender que habilidades deverão ser desenvolvidas em todos os usuários do sistema. É a partir delas que se definem as ferramentas a serem usadas (que nem precisam necessariamente serem “tecnológicas”). Com as ferramentas definidas, se consegue também entender como os dados serão “produzidos”.

O terceiro ponto é sistematizar a análise. O uso da tecnologia facilita, mas uma análise que traga informações relevantes atua basicamente “em cima” de requisitos e de critérios para avaliar ensino e aprendizagem, melhorar a comunicação, reforçar a ligação entre a escola e a casa do aluno e garantir a excelência operacional e analítica das práticas correntes do sistema escolar.

O quarto e último ponto é a tecnologia em si. Reflita nos pontos anteriores: a tecnologia é essencial para desenvolver algum deles? A resposta (como já deve ter percebido) é não. Mas, tê-la envolvida é mais ou menos como disputar uma corrida usando uma charrete ou uma Ferrari. Se conseguirá cruzar a “linha de chegada” com as duas, mas o tempo de uma será infinitamente diferente da outra.

E tempo, conta.

Agregar tecnologia à educação é uma questão de “mentalidade de crescimento” (no original, growth mindset). É a crença de que “qualidades” podem mudar e de que podemos desenvolver a nossa inteligência e habilidades. A definição geral de growth mindset pode ser dividida em vários conceitos, tais como a importância de cometer e consertar erros ou refletir sobre o próprio processo de aprendizagem, o que os une é o fato de serem fundamentais para “ensinar” uma pessoa a atuar em um mundo em que criatividade e pensamento inovador constituem ativos de extremo valor.

 

Onde estou?

Você está navegando em publicações marcadas com tecnologia em Marcelo Tibau.