Inteligência Artificial e a Educação
outubro 27, 2016 § Deixe um comentário

Como retrospectiva, sugiro a leitura dos textos anteriores sobre o assunto. O primeiro, a respeito do “Estudo de 100 anos para a Inteligência Artificial”; o segundo, referente à definição do que é IA; o terceiro, abordando as tendências; e o quarto a respeito do impacto no mercado de trabalho. Este é o último texto da série e aborda um dos temas mais estratégicos, pelo menos no meu entendimento, na priorização do planejamento de pessoas, organizações e países: a educação.
Dediquei boa parte da minha carreira à área de educação corporativa – sou um daqueles caras de “treinamento” que boa parte dos que trabalham em empresas de médio e grande porte já deve ter cruzado por aí. Sei que muitos “torcem o nariz” para o uso do termo “educação” em associação com a palavra “corporativa”, mas a verdade é que, com a já conhecida (enorme) lacuna na qualidade da formação educacional em nosso país, boa parte das empresas decidiu investir elas mesmas na formação do funcionário, muitas vezes indo além de conhecimentos e habilidades específicas para o seu negócio e ajudando-os em formação básica. Desta forma, em minha opinião, contribuindo para a própria educação do brasileiro. Para atuar neste ambiente, passei anos “consumindo” tudo o que pude encontrar em relação a métodos educacionais. Quando comecei a “me envolver” com machine learning, tive a grata surpresa de perceber que muitos dos conceitos que aprendi a respeito do aprendizado de gente, podia também ser aplicado ao aprendizado de máquinas. Faço esta introdução apenas para contextualizar a minha relação com o tema.
Desde os projetos Lego Mindstorms, desenvolvidos pelo MIT Media Lab a partir dos anos 1980, robôs têm se tornado ferramentas educacionais populares. Cabe aqui atribuir o crédito devido ao matemático Seymour Papert, guru de muita gente (inclusive meu), por conta do seu trabalho envolvendo o uso de tecnologias no aprendizado de crianças desde os anos 1960. Papert foi fundamental para o desenvolvimento do conceito de aprendizado multimídia, hoje parte integrante das teorias do aprendizado, assim como na evolução do campo da Inteligência Artificial.
Este caldo de ideias estimulou o desenvolvimento de diferentes frentes de atuação da IA aplicada à educação. É importante deixar claro, desde já, que nenhuma destas frentes descarta a importância da participação do ser-humano como vetor do ensino. Como citei no texto anterior, referente ao impacto no mercado de trabalho, IA pode aumentar o escopo do que é considerado tarefa de rotina, mas definitivamente o papel do professor não está entre elas. Ferramentas como os Intelligent Tutoring Systems (ITS), campos de atuação como Natural Language Processing ou aplicativos como os de Learning Analytics têm como objetivo ajudar os professores em sala de aula e em casa, expandir significativamente o conhecimento dos alunos. Com a introdução da realidade virtual no repertório educacional, por exemplo, o impacto da Inteligência Artificial no aprendizado do ser-humano deve ser de tal ordem que “periga” alterar a forma como o nosso cérebro funciona (é claro que este impacto ainda é suposição). Creio que a melhor maneira de abordar este assunto, é por meio de exemplos. Vou associá-los aos tópicos principais de IA aplicada à educação. Sempre que o exemplo vier acompanhado de um link, pode clicar. São informações adicionais sobre o assunto ou vídeos tutoriais sobre alguma ferramenta. Se por acaso ocorrer algum rickrolling, me avisem.
Robôs tutores
Ozobot, é um robozinho que ajuda crianças a entenderem a lógica por detrás da programação e a raciocinar de maneira dedutiva. Ele é “configurando” pelas próprias crianças, por meio de padrões codificados por cores, para dançar ou andar. Já os Cubelets auxiliam a criança a desenvolver o pensamento lógico através da montagem de blocos robôs, cada um com uma função específica (pensar, agir ou sentir). Os Cubelets têm sido usados para estimular o aprendizado de STEM.
Dash, é o robô oferecido pela Wonder Workshop, que permite apresentar crianças (e adultos) à robótica. É possível programar as ações do robô por meio de uma linguagem de programação visual desenvolvida pela Google, chamada Blockly ou mesmo construir apps para iOS e Android, usando linguagens mais parrudas como C ou Java.
Por fim, o PLEO rb é um robô de estimação, criado para estimular o aprendizado de biologia. A pessoa pode programar o robô para reagir a diferentes aspectos do ambiente.
Intelligent Tutoring Systems (ITS)
Os ITS começaram a ser desenvolvidos no final do século XX por vários centros de pesquisa, para auxiliar na resolução de problemas de física. A sua força sempre esteve na sua capacidade de facilitar o “diálogo” humano-máquina. Ao longo destas primeiras décadas do século XXI, começou a ser utilizado para o ensino de línguas. Carnegie Speech e Duolingo são exemplos da sua aplicação, utilizando o Automatic Speech Recognition (ASR) e técnicas de neurolinguística para ajudar os alunos a reconhecerem erros de linguagem ou pronúncia e corrigi-los.
Também têm sido usados para auxiliar no aprendizado de matemática, o Carnegie Cognitive Tutor foi adotado por escolar norte-americanas para este fim. Outros similares (Cognitive Tutors) são usados para o aprendizado de química, programação, diagnósticos médicos, genética, geografia, dentre outros. Os Cognitive Tutors são ITS que usam softwares que imitam o papel de um professor humano, oferecendo dicas quando um estudante fica com dificuldade em algum tópico, como por exemplo, um problema de matemática. Com base na pista solicitada e a resposta fornecida pelo aluno, o “tutor” cibernético oferece um feedback específico, de acordo com o contexto da dúvida.
Um outro ITS chamado SHERLOCK, desde o final da década de 1980 ajuda a Força Aérea Americana a diagnosticar problemas no sistema elétrico de suas aeronaves. Quem quiser conhecê-lo mais, sugiro este paper publicado nos primórdios da internet (não se assustem com o design).
Mas as grandes “estrelas” na constelação dos ITS são definitivamente os MOOCs (Massive Open Online Courses). Ao permitirem a inclusão de conteúdos via Wikipedia e Khan Academy e de sofisticados Learning Management Systems (LMS), baseados tanto em modelos síncronos (quando há prazos para conclusão de cada fase do curso) quanto modelos assíncronos (quando o aprendiz vai no seu ritmo), os MOOCs têm se tornado a ferramenta de aprendizagem adaptativa mais popular.
EdX, Coursera e Udacity são exemplos de MOOCs que se “alimentam” de técnicas de machine learning, neurolinguística e crowdsourcing (também conhecida em português como colaboração coletiva) para correção de trabalhos, atribuição de notas e desenvolvimento de tarefas de aprendizado. É bem verdade que a educação profissional e a de ensino superior são as maiores beneficiárias deste tipo de ITS (em comparação com os ensinos básico, médio e fundamental). A razão disto, é que o público delas, até mesmo por ser geralmente composto por adultos, tem menos necessidade de interação cara-a-cara. Espera-se que com um maior estímulo ao desenvolvimento da habilidade de metacognição, os benefícios oferecidos por estas plataformas possam ser distribuídos mais democraticamente.
Learning Analytics
Também já se sente o impacto do Big Data em educação. Todas as ferramentas apresentadas geram algum tipo de log ou algum tipo de registro de dado. Assim como aconteceu no mundo corporativo com BI (Business Intelligence) e BA (Business Analytics), a geração maciça de dados advindos da integração de IA, educação e internet, fez surgir a necessidade de se entender e contextualizá-los para melhor aproveitar as oportunidades e insights potencializados por eles. Com isto, o campo chamado Learning Analytics tem observado um crescimento em velocidade supersônica.
A bem da verdade, é que cursos online não são apenas bons para a entrega de conhecimento em escala, são veículos naturais para a armazenagem de dados e a sua instrumentalização. Deste modo, o seu potencial de contribuição para o desenvolvimento científico e acadêmico é exponencial. O aparecimento de organizações como a Society for Learning Analytics Research (SOLAR) e de conferências como a Learning Analytics and Knowledge Conference organizada pela própria SOLAR e a Learning at Scale Conference (L@S), cuja edição de 2017 será organizada pelo MIT, refletem a importância que está se dando a este assunto em outras “praias”. IA tem contribuído para a análise do engajamento do aprendiz, seu comportamento e desenvolvimento educacional com técnicas state-of-the-art como deep learning e processamento de linguagem natural, além de técnicas de análise preditivas usadas comumente em machine learning.
Projetos mais recentes no campo de Learning Analytics têm se preocupado em criar modelos que captem de maneira mais precisa as dúvidas e equívocos mais comuns dos aprendizes, predizer quanto ao risco de abandono dos estudos e fornecer feedback em tempo real e integrado aos resultados da aprendizagem. Para tanto, cientistas e pesquisadores de Inteligência Artificial têm se dedicado a entender os processos cognitivos que envolvem a compreensão, a escrita, a aquisição de conhecimento e o funcionamento da memória e aplicar este entendimento à prática educacional, com o desenvolvimento de tecnologias que facilitem o aprendizado.
O mais incauto pode se perguntar por que com tecnologias de IA cada vez mais sofisticadas e com o aumento do esforço no desenvolvimento de soluções específicas para educação, não há cada vez mais escolas, colégios, faculdades e universidades os utilizando?
Esta resposta não é fácil e envolve diversas variáveis. A primeira delas está relacionada ao modelo mental da sociedade e ao quanto esta sociedade preza o conhecimento. Há locais em que a aplicação da IA em educação está mais avançada, como por exemplo a Coreia do Sul e a Inglaterra e outros em que já se está fazendo um esforço concentrado para tal, como por exemplo Suíça e Finlândia. Não por acaso, são países em que há bastante produção de propriedade intelectual. A segunda delas, envolve o domínio na geração do conhecimento e na sua aplicação em propriedade intelectual. Nesta variável, segue imbatível os EUA, que são responsáveis por boa parte do conhecimento produzido pelo ser-humano. Novamente, não por acaso, são os líderes no desenvolvimento do campo de IA. A terceira variável, como não poderia deixar de ser, é o custo. Não é barato e como dinheiro é um recurso escasso em qualquer lugar (em uns mais do que em outros, claro) é preciso que haja uma definição da sociedade em questão quanto às suas prioridades para se fazer este investimento. A quarta, está ligada ao acesso aos dados produzidos por estas iniciativas educacionais e as conclusões geradas. Embora haja fortes indícios de que a tecnologia impulsionada pela IA realmente impacta positivamente no aprendizado, ainda não há conclusões objetivas em relação ao tema – muito por conta da sua recência. E como o investimento é alto, são poucos os que topam ser early adopters.
De qualquer forma fica a questão, vale a pena? Quanto a isto, gosto de citar meu ex-chefe, Edmour Saiani. Sempre quando perguntado se devíamos treinar alguém, ele respondia: “se lembre que o problema nunca é você treinar a pessoa e ela sair da empresa, o problema é você não treinar e ela ficar”. Neste tipo de caso, não fazer nada é a pior opção.
Inteligência Artificial e o mercado de trabalho
outubro 7, 2016 § 1 comentário

Como retrospectiva, sugiro a leitura dos textos anteriores sobre o assunto. O primeiro, a respeito do “Estudo de 100 anos para a Inteligência Artificial”; o segundo, referente à definição do que é IA; e o terceiro, abordando as tendências. Pretendo dedicar este e o próximo à análise do impacto em duas áreas de grande interesse: o emprego e ambiente de trabalho e a educação.
O mercado de trabalho tem sido historicamente influenciado pela Inteligência Artificial via tecnologias digitais que permitem a criação de rotinas ou automação de tarefas como planejamento de utilização de recursos, sistemas de informação e análise para supply chain, CRM ou knowledge management systems, dentre outros. Por conta deste enfoque em rotina, trabalhos de nível médio têm sido mais impactados do que os de nível alto e baixo. Vale lembrar que estes “níveis” se referem à habilidade necessária para realizar uma tarefa, que por sua vez, se reflete em nível de escolaridade. Um bom modo de visualizar esta realidade é pelos gráficos publicados pelo The New York Times em 2014, mostrando como a recessão havia impactado a economia e modificado o mercado de trabalho (são 255 gráficos interativos que dão um panorama bem abrangente e que podem ser acessados por este link).
Como comentei no primeiro texto desta série, acredita-se que IA possa aumentar o escopo do que é considerado tarefa de rotina. Um exemplo neste sentido nos é dado pelos pesquisadores Dana Remus (University of North Carolina) e Frank S. Levy (M.I.T.), no artigo acadêmico “Can Robots Be Lawyers? Computers, Lawyers, and the Practice of Law”. Como já se intui pelo título, trata-se do impacto atual de IA na automação de algumas práticas jurídico-legais, como a permitida por algoritmos que fazem extração de informações de processos jurídicos e topic modeling – é o termo usado para a tarefa de descobrir e registrar uma grande quantidade de arquivos e documentos com base em informações temáticas pré-definidas – vale dizer que é feito através de métodos estatísticos que analisam as palavras dos textos originais para descobrir seus temas, como estes temas estão ligados uns aos outros e como eles mudam ao longo do tempo. Isto tem influenciado o tipo de trabalho feito por advogados recém-formados nos EUA, que anteriormente começavam as suas carreiras fazendo, guardadas as devidas proporções, o que estes algoritmos fazem hoje.
Também é esperado que IA possa influenciar no tamanho e na localização da força de trabalho. Muitas organizações são grandes porque precisam realizar funções que são escalonáveis apenas pela adição de recursos humanos – seja “horizontalmente” em mais áreas geográficas, seja “verticalmente” em níveis hierárquicos. Ao realizar mais funções, a Inteligência Artificial muda a definição do que significa escalonar, não a relacionando mais a aumento de “tamanho”. Mas nem tudo é ameaça, IA também deverá criar postos de trabalho, especialmente em setores que necessitam de propriedade intelectual, fazendo com que certas tarefas fiquem mais importantes e criando novas categorias de emprego ao permitir novos modos de interação.
Sistemas de informação cada vez mais sofisticados (sobre o assunto recomendo muito o livro de Laudon & Laudon, “Management Information Systems”, já na sua 13ª edição) têm sido usados para criar novos mercados e reduzir barreiras de entrada, permitindo o surgimento de apps como Airbnb e TaskRabbit, por exemplo. Uma comunidade crescente de pesquisadores tem se dedicado exclusivamente a estudar como se pode usar a IA na criação de novos mercados e em como fazer os mercados atuais operarem de maneira mais eficiente, levando a crer que a sua influência, muitas vezes disruptiva, está apenas no seu início.
Apesar da IA poder reduzir o valor de bens de consumo e serviços (ao realizar tarefas que necessariamente demandariam um ser-humano) e desta forma contribuir para o aumento da capacidade de consumo individual, é inegável que a possível redução de vagas de trabalho levanta mais preocupação do que os ganhos econômicos difusos. Com isso, IA acaba sendo “culpada” mais por ameaçar o emprego do que bem vista pela sua capacidade de melhorar a qualidade de vida.
É verdade, porém, que gradualmente o avanço na inteligência de máquinas irá permiti-las “invadir” a maioria dos mercados de trabalho, exigindo uma mudança no tipo de atividade realizada por humanos e que os computadores serão capazes de assumir. Acredita-se que os efeitos econômicos da IA sobre os chamados empregos humanos cognitivos (aqueles considerados anteriormente na era industrial como “trabalho de escritório”) será análogo aos efeitos da automação e robótica no trabalho de fabricação industrial, em que operários acabaram perdendo empregos mesmo possuindo conhecimentos técnicos, muitas vezes especializados, perda esta que impactou negativamente em seu status social e na sua capacidade de prover para suas famílias. Com a mão-de-obra se tornando um fator menos importante na produção em comparação ao capital intelectual e à capacidade de usá-lo para gerar valor, é possível que a maioria dos cidadãos possa ter dificuldades em encontrar um trabalho que pague bem suficientemente para manter um padrão socialmente aceitável de vida.
Esta é uma possibilidade real e influencia, dentre outras coisas, em curto prazo, na forma como o nosso sistema educacional se organiza. Educação, treinamento e criação ou readequação de bens e serviços que necessitem mais de intervenção humana podem ajudar a mitigar efeitos econômicos negativos. De qualquer forma, é imprescindível que comecemos a nos atentar às competências necessárias para o trabalho do século XXI e adequar nosso sistema educacional para formar cidadãos mais capacitados dentro de uma realidade diferente da industrial (quem se interessar mais sobre o assunto, ano passado publiquei 3 textos sobre o tema, que disponibilizo neste link).
Em longo prazo, será preciso rever a rede de segurança social atual e evoluí-la para atender um possível contingente maior de pessoas e ajudá-las a se reintegrarem em uma sociedade mais intelectual do que manual. Países como a Suíça e a Finlândia já começaram a considerar ativamente esta nova realidade e iniciaram um processo de adequação de suas sociedades – que começou, de maneira não surpreendente – pela reformulação de seus sistemas educacionais, privilegiando o desenvolvimento da habilidade de metacognição, domínio de idiomas (em especial da língua inglesa, pelo fato da maior parte do conhecimento humano estar registrado neste idioma) e um currículo baseado em STEM (acrônimo em inglês para Ciências, Tecnologia, Engenharia e Matemática) associado ao “método” grego de “arte liberal” (quem quiser mais detalhes do conceito, disponibilizo um link de outro texto que escrevi sobre o tema) por se entender que é uma maneira eficiente de adequar a forma de pensar para uma mentalidade mais direcionada à criação de propriedade intelectual, em que se destaca a conexão de conhecimentos – de forma mais abrangente – e a imaginação – para atuar criativamente na sociedade e gerar inovação.
Aqui vale uma explicação adicional, pois o tema gera bastante interpretação equivocada. Foco em STEM não é a mesma coisa que foco em ciências exatas (e menos ainda, não foco em ciências humanas). É consenso, ao menos no caso da matemática, que a matéria ensinada na maioria das escolas é um reflexo pálido da matemática que verdadeiramente apaixona (aquela que, parafraseando Michael Atiyah, identifica e lida com problemas que são ao mesmo tempo interessantes e solucionáveis). No decorrer da revolução industrial nos esquecemos de que matemática também é arte – e não me refiro à geometria, como aqueles cujo coração se agita com a visão dos fractais pode supor inicialmente – me refiro à emoção que a matemática evoca. A satisfação de transformar o desconhecido em conhecido é imensa e também profundamente inata à “disciplina” em questão. A triste ironia da política de educação em relação à matemática é que na tentativa de aproveitar o nosso potencial humano para o raciocínio e resolução de problemas – habilidades vitais para o futuro da nossa economia – os formuladores de políticas públicas (assim como os formadores de opinião) negligenciam a mais importante de todas as verdades matemáticas: ela também é arte e deve ser tratada como tal.
Inteligência Artificial e suas tendências
outubro 3, 2016 § 2 Comentários

Para facilitar o entendimento, sugiro como leitura prévia 2 textos anteriores em que abordo este mesmo tema. O primeiro, a respeito do “Estudo de 100 anos para a Inteligência Artificial” e o segundo, referente à definição do que é IA.
Nos últimos 15 anos, IA conseguiu cumprir a sua expectativa histórica de permear a vida do ser-humano. É verdade que um dos grandes responsáveis por isto são os “pequenos” equipamentos que carregamos em nossos bolsos e bolsas diariamente, os smartphones. De todo modo, ao se tornar uma força central em nossa sociedade, a própria IA vem se modificando. O grande objetivo das mentes por trás do seu desenvolvimento, não é mais construir sistemas que são inteligentes, mas construir sistemas inteligentes que são confiáveis e focados no ser-humano.
Pode parecer um simples “jogo de palavras”, mas a realidade é que esta visão traz uma mudança profunda no direcionamento das pesquisas no campo da IA. Para resumir este direcionamento, usarei apenas um termo: dados. Quem tem familiaridade com a hierarquia DIKW percebe imediatamente o que isto quer dizer. Dados são a base em que se constrói o conhecimento. Ao focar neles, as pesquisas em Inteligência Artificial se aproximam cada vez mais do que transforma o ser-humano em ser-humano, a alta capacidade de aprendizagem – de transformar conhecimento em sabedoria.
Não é de se estranhar, portanto, que uma das áreas da IA que mais cresce é a de machine learning. O aprendizado de máquinas vem se desenvolvendo enormemente com o suporte dos recursos de computação em nuvem e com a coleta generalizada de dados baseados na web. Este ambiente também vem sendo impulsionado pelo deep learning, utilizado para treinar (sim, o termo é o mesmo usado em referência ao ser-humano) redes neurais convolucionais. Trocando em miúdos, pode ser resumido como um modo de ensinar máquinas usando o modelo de redes neurais.
Bom, o resultado disto foi um salto na performance de algoritmos de processamento de informação (vale lembrar que informação significa dado contextualizado), acompanhado de outro salto significativo em tecnologia de detecção, percepção e reconhecimento de objetos. Aliados a plataformas e mercados impulsionados por dados, este ambiente estimulou a concentração de pesquisas em algumas áreas específicas da IA.
Aprendizado de máquinas em grande escala (large-scale machine learning): um dos maiores desafios em termos de machine learning atualmente é aumentar a extensão de algoritmos existentes para possibilitar que trabalhem com banco de dados extremamente grandes (o chamado big data). Em banco de dados tradicionais, um algoritmo de aprendizado de máquinas pode se dar o “luxo” de checar várias vezes o mesmo conjunto de dados (afinal, para os padrões das máquinas não são extensos –possuem “apenas” alguns milhões de linhas). Quando se trata de big data, a coisa muda de figura, não se pode repetir este padrão com bilhões e bilhões de linhas de dados – um processador atual poderia “travar” realizando uma ação destas. A solução é otimizar métodos que permitam processar apenas uma vez os dados ou que os dividam em conjuntos. É por este caminho que segue esta tendência de estudo (para aqueles que possuem conhecimentos em modelagem matemática ou estatística, fiquem de “olho” nesta área).
Deep Learning: sei que parece título de filme B, mas penso que vale a pena dar uma explicação um pouco mais técnica aqui do que na “palhinha” de algumas linhas acima. É chamado de aprendizado profundo, a habilidade de se treinar com sucesso redes neurais convolucionais (em teoria da informação, convolucional é um tipo de código para detecção de erros). Em machine learning, a rede neural convolucional funciona de maneira inspirada no córtex visual dos animais, reconhecendo largura e altura de um volume e se ativando quando “vê” algo similar em uma determinada posição espacial. Um dos campos que mais se beneficiam disto é o da visão computacional, que pode ser aplicada em reconhecimento de objetos (e atividades gerais de reconhecimento) e áreas de percepção artificial como voz e linguagem natural (os idiomas que falamos). Sei que a maioria não ligará “o nome à pessoa”, mas saibam que coisas comuns que usamos – como os filtros para fotos de aplicativos como Instagram – se beneficiam destes conhecimentos.
Aprendizado por reforço (reinforcement learning): não sei quantos dos que me leem tiveram a experiência de terem “aulas de reforço” no colégio. Lembro do drama que era para mim chegar duas horas antes das aulas às quintas-feiras, para ter aula de reforço em português. O objetivo deste tipo de aula era, no meu caso, utilizar a língua portuguesa em situações práticas reais (escrever cartas, interpretar textos e entender suas implicações). Funciona de modo similar no caso das máquinas, envolve ensiná-las a aprender algo necessário para executar ações no mundo real. O modo de se fazer isto é através de estruturas sequenciais para tomada de decisão baseada em experiência. Este campo, estagnado há décadas, tomou um impulso com o surgimento do deep learning. Um exemplo prático é o AlphaGo, desenvolvido pela Google, para ensinar máquinas a jogar o jogo chinês Go (para mais detalhes tanto de um quanto de outro, incluí links que direcionam ao site do AlphaGo e à explicação do jogo original na Wikipédia). O AlphaGo foi treinado inicialmente através de um banco de dados criado por especialistas humanos no jogo e posteriormente, via aprendizado por reforço, praticando através de jogos contra si mesmo. A aplicação desta área é bem dinâmica, atua desde viagens espaciais até extração de petróleo em grandes profundezas (como no caso do nosso pré-sal).
Robótica: os esforços atuais se concentram em treinar os robôs a interagirem com o mundo a sua volta de maneira geral e previsível. Um dos caminhos é utilizar deep learning e aprendizado por reforço para ajudá-los a explorar o ambiente e “rodar” sua programação sem espaço para cometer erros que possam ser prejudiciais para seus sistemas e para os que estiverem à volta. Este é o problema, por exemplo, dos carros automáticos – aqueles que se dirigem sozinhos e que já estão sendo testados. O desafio é aumentar a percepção da máquina, incluindo sua “visão”, “força” e sensibilidade “tátil”.
Visão computacional: esta é a forma mais proeminente de percepção da máquina hoje. É uma das áreas de IA que teve a sua evolução impulsionada pelo aparecimento do deep learning. Pela primeira vez, os computadores são capazes de executar algumas tarefas de classificação visual melhor do que as pessoas. Combinada com computação gráfica, tem sido a responsável pela “explosão” da tendência de realidade aumentada.
Processamento de linguagem natural: muitas vezes usado em conjunto com o reconhecimento automático de voz, o processamento de linguagem natural é outra forte tendência da área de percepção da máquina. 20% das consultas ao Google já são feitas por voz e alguns testes já mostram a possibilidade real de usá-lo para tradução em tempo real. O foco dos estudos está se concentrando cada vez mais no desenvolvimento de sistemas capazes de interagir com as pessoas por meio do diálogo (e não simplesmente reagir a comandos digitados).
Internet das Coisas: também conhecida pela sigla IoT (Internet of Things), é um dos grandes focos de pesquisas na área de Inteligência Artificial. Está relacionada à ideia de que uma grande quantidade de dispositivos (ou coisas) podem ser interconectados para coletar e compartilhar seus dados sensoriais (eletrodomésticos, veículos, edifícios, máquinas fotográficas e roupas são alguns exemplos). Embora seja uma questão que envolva em grande parte a criação de tecnologia e a utilização de rede sem fio para conectar os dispositivos, há um enorme desafio no processamento e uso inteligente destas imensas quantidades de dados (a serem) gerados que ainda precisa ser equacionado. Outro ponto, é que atualmente esses dispositivos utilizam uma quantidade grande de protocolos de comunicação incompatíveis. IA está sendo utilizada tanto para desenvolver soluções para lidar com esta possibilidade exponencial de big data quanto para ajudar a domar a “Torre de Babel”.
Há ainda outras tendências que de tão específicas, prefiro não abordar – como computação neuromórfica (neuromorphic computing), criação de algoritmos baseados na teoria dos jogos, sistemas colaborativos, dentre outros. O que une estas tendências não citadas e as demais que comentei é a sua característica human-aware (centrada no ser-humano – como mencionado no início do texto). Isto quer dizer que por mais complicado que possa parecer, todas estas iniciativas são especificamente modeladas e desenvolvidas com o foco nas pessoas que se espera que elas interajam. Por enquanto não há o risco de se criar algo como o sistema Skynet – do Exterminador do Futuro. O maior risco trazido pelo deep learning para o aprendizado da máquina, é o processo conhecido como overfitting. Assim como nós, seres-humanos, as máquinas também apreciam a boa e velha decoreba. Quando percebem que uma resposta não muda, elas simplesmente a decoram. O overfitting ocorre quando tentam generalizar algo que é específico, usando o que decoraram. Como se pode ver, o que faz a diferença em qualquer aprendizado é o contexto.
Inteligência Artificial, essa incompreendida
setembro 21, 2016 § 3 Comentários

Em um texto anterior comentei a respeito do “Estudo de 100 anos para a Inteligência Artificial” e fiz uma pequena introdução do primeiro relatório produzido pelo painel de especialistas. Também terminei o texto convidando o leitor a compartilhar as suas impressões. Muito dos feedbacks que recebi giraram em torno do que afinal é IA (o título, inclusive, foi sugestão de um dos leitores). Não me refiro ao conceito popular, dos filmes – que invariavelmente a apresenta como ex-machina (que explicarei rapidamente ao final do texto) – mas o seu conceito “acadêmico”. Minha intenção é tentar explicá-lo neste texto e nos próximos, abordar com mais detalhes as tendências da Inteligência Artificial e os impactos nas áreas do “emprego e ambiente de trabalho” e “educação”.
Conhecer do que se trata o campo da Inteligência Artificial ajuda a “jogar luz” em um tema que para muitos ainda é ficção científica (embora já seja mais realidade do que nunca) e ajuda a tornar mais real as oportunidades – e as possibilidades de ruptura – que irão influenciar a nossa sociedade.
Em primeiro lugar, é preciso entender porque este assunto vem sendo tratado com tanta importância. Existe uma mudança de modelo econômico em curso no mundo. Desde a primeira revolução industrial, nossa sociedade vem se organizando (sim, os modelos econômicos determinam a forma como a sociedade é) com base em um modelo mental fundamentado em processo de manufatura. É inegável que o modelo industrial estimulou o desenvolvimento tecnológico, social e cultural dos últimos três séculos e modificou a forma como pensamos e enxergamos nosso lugar no mundo. Mas também sedimentou na nossa cabeça, o conceito de que fazemos parte de um processo industrial que tem começo, meio e fim – estudamos, trabalhamos e aposentamos; recebemos estudo fundamental, médio e superior; trabalhamos produzindo insumos, produtos manufaturados ou serviços agregados; namoramos, casamos e temos filhos – os exemplos são inúmeros, a similaridade deles está no seu modelo de processo por etapas.
Embora o modelo industrial esteja em “nosso sangue”, o que possibilitou as revoluções industriais – pelo menos na sociedade ocidental – foram os conceitos iluministas de produção de conhecimento (e que levaram à mudança social máxima da sociedade contemporânea: a separação de Igreja e Estado). A produção do conhecimento, neste estágio, atuou como produto de base da indústria – era encarado como um insumo ou recurso para o fim maior: a produção industrial.
Esta lógica vem se modificando há pelo menos 25 anos. A produção do conhecimento vem deixando de ser um acessório do modelo econômico para se tornar a razão do próprio modelo econômico (talvez o maior exemplo da margem de lucro permitida pela produção do conhecimento seja a Apple com o IPhone – gastou algumas dezenas de milhões de dólares no seu desenvolvimento e faturou em retorno bilhões das “verdinhas” americanas). Cada vez mais, a capacidade de produção de propriedade intelectual vem se tornando a habilidade principal desejada por empresas e o que determina que selecionem alguns candidatos e não outros (isto vem inclusive modificando o processo seletivo em algumas áreas – um exemplo é o processo seletivo da empresa The Information Lab, que paga uma bolsa para os candidatos participarem de um curso de 4 meses e fecha contrato com os que mostrarem as melhores performances quanto à capacidade de produção de propriedade intelectual). É claro que esta é ainda uma realidade distante do Brasil, mas em algum momento teremos que nos inserir neste contexto sob o risco de ficarmos muito (mas muito) para trás.
Desta forma, estamos passando de um modelo econômico focado em produção manufatureira para outro baseado em produção de propriedade intelectual. E a Inteligência Artificial é o diamante desta coroa – afinal ela congrega o que pode vir a ser a própria definição do trabalho do futuro: alta capacidade de cognição humana sendo potencializada pela alta capacidade de cognição artificial.
Quanto à elucidação que prometi, a verdade é que não há uma definição precisa e universalmente aceita para Inteligência Artificial. Curiosamente, foi exatamente por falta desta definição que o campo de estudos floresceu. Ainda assim, uma definição é importante e o professor de ciência da computação, Nils J. Nilsson (Nilsson, Nils J. “The Quest for Artificial Intelligence: A History of Ideas and Achievements”. Cambridge University Press, 2010) fornece uma útil: “a inteligência artificial é a atividade dedicada a fazer máquinas inteligentes. Inteligência é a qualidade que permite que uma entidade possa funcionar de forma adequada e com clarividência no seu ambiente”.
Desta perspectiva, caracterizar IA depende muito do que o ser-humano está disposto a considerar “funcionamento adequado” e “clarividência” em se tratando de hardwares e softwares. Uma simples calculadora eletrônica faz cálculos muito mais rápidos do que o cérebro humano e com muito menos erro. Uma calculadora eletrônica é inteligente? Para responder, precisamos deixar de lado o nosso modelo mental industrial e entender inteligência em um espectro multidimensional (isto quer dizer que há mais do que um tipo de inteligência – vide Howard Gardner).
De acordo com esta visão, a diferença entre uma calculadora eletrônica e um cérebro humano não é de espécie, mas de escala, velocidade, grau de autonomia e generalidade. Estes mesmos fatores podem ser usados para avaliar qualquer instância de inteligência (obviamente, o que o ser-humano considera como inteligência), seja ela natural, artificial (e quem sabe um dia, extraterrestre) e posicioná-la adequadamente dentro do espectro. Softwares de reconhecimento de voz, de geoposicionamento, de controle de navegação de veículos, de termostatos, de jogos go-play (tipo Pokemon) – dentre outros – têm sua inteligência avaliada da mesma forma como a inteligência humana o é. Aprendizagem de máquinas (o machine learning), por exemplo, é avaliada da mesma maneira como é a capacidade cognitiva humana: pela taxinomia de Bloom.
Notavelmente, a caracterização de inteligência como um espectro não concede nenhum status especial ao cérebro humano. Mas é preciso reconhecer que até o presente momento, a inteligência humana não tem correspondência na biologia e nos mundos artificiais em relação à sua pura versatilidade e habilidade para “raciocinar, alcançar objetivos, compreender e gerar linguagem, perceber e responder a estímulos sensoriais, provar teoremas matemáticos, jogar jogos desafiadores, sintetizar e resumir informações, criar arte e música, e até mesmo escrever histórias” (novamente utilizo as palavras do Nilsson).
O grande desafio que uma definição de Inteligência Artificial encontra para se sedimentar na sabedoria popular, é a eterna perda da reivindicação em relação às suas conquistas. Este é um padrão que constantemente se repete desde que o campo surgiu (também conhecido como “efeito IA” ou “paradoxo estranho”). Ocorre da seguinte forma, IA traz à tona uma nova tecnologia, as pessoas se acostumam a esta tecnologia, ela deixa de ser considerada Inteligência Artificial e um novo “mercado” surge. Talvez seja por esta razão que a ideia de IA no imaginário popular esteja relacionada ao conceito de ex-machina. Ex-machina é o santo graal da Inteligência Artificial, o seu objetivo máximo. Criar uma forma de inteligência que se aproxime tanto, mas tanto da inteligência humana, que tenhamos de parar de considerá-la máquina e classificá-la como alguma outra coisa.
Inteligência Artificial e os próximos 100 anos
setembro 8, 2016 § 4 Comentários

Em 2014 foi lançado o “Estudo de 100 anos para a Inteligência Artificial”, por uma espécie de consórcio formado por universidades de ponta dos EUA, Canadá e Índia e pelos departamentos de pesquisa de empresas de tecnologia. Para “tocar o trabalho” foram formados um comitê administrativo para cuidar da organização e gerenciamento do estudo (afinal a ideia é que dure pelo menos 100 anos) e um painel de especialistas destinados a analisar o que tem sido feito na área e tentar prever os caminhos e os impactos da Inteligência Artificial no futuro da humanidade.
Há poucos dias foi liberado o primeiro relatório produzido pelo estudo, com os potenciais avanços que se têm pela frente e os desafios e as oportunidades que esses avanços trazem para os campos da ética, economia, tecnologia, ciências sociais e da cognição humana (mais sobre o projeto, pode ser encontrado no site criado pela Universidade de Stanford).
Sei que a primeira pergunta que provavelmente vem à mente é “o que isto tem a ver com a gente”? Bom, levando em consideração como o campo da IA vem se desenvolvendo nos últimos 70 anos – desde a publicação do texto “Computing Machinery and Intelligence” pelo matemático Alan Turing – e pelas perspectivas que traz para campos como transporte, saúde, educação e relações sociais e humanas (em especial o impacto no emprego e locais de trabalho), ter pelo menos uma indicação do que pode vir por aí é uma excelente ferramenta para ajudar na definição de políticas públicas e estratégias de ações dos próprios indivíduos no sentido de se adequarem à uma realidade que tende a ser bem diferente da atual.
Duas áreas em especial me chamam a atenção, “emprego e ambiente de trabalho” e “educação” (principalmente a última). Abordá-las na íntegra em um texto é impossível, portanto pretendo dar uma pequena introdução neste e comentar mais detalhadamente em textos futuros.
No quesito emprego e ambiente de trabalho, IA tende a substituir certos tipos de ocupações que envolvam controles repetitivos ou tarefas de rotina, por conta do impacto esperado em outras áreas – como por exemplo a relação transportes e condução de veículos automotores. Espera-se que as máquinas substituam as pessoas mais nas tarefas do que nos empregos propriamente ditos. No entanto, crescendo o espectro de tarefas que os sistemas digitais podem fazer e com a evolução dos sistemas de Inteligência Artificial, é possível que também cresça o escopo do que é considerado “de rotina”. Não se descarta a hipótese de se incluir serviços profissionais que historicamente não são realizados por máquinas. Desta forma, é possível que seja necessário pensar em “redes de segurança” sociais que protejam as pessoas de impactos muito profundos na economia, em um movimento muito parecido com o que ocorreu entre as décadas de 30 e 50 do século passado.
O impacto em educação tende a envolver uma dose de interação mais fluida entre máquinas e humanos. Embora seja consenso de que educação em alto nível envolva necessariamente relações humanas, com a de “mestre” e “aprendiz” – o que faz com que a profissão de “professor” seja uma das menos “ameaçadas” por sistemas digitais – ela é, simultaneamente, uma das que possuem maior possibilidade de ser “impactada” pelo uso de “máquinas” no seu “ambiente de trabalho”, principalmente pela possibilidade de “escalabilidade” da personalização. Tutoriais conduzidos por máquinas já são usados para ensinar alunos em áreas como matemática e programação. Máquinas com capacidade de processar linguagem natural (e não codificada), alinhadas com algoritmos de machine learning, têm impulsionado cursos que envolvem a aprendizagem formal e a autoaprendizagem integradas e professores com habilidade de “multiplicar” o tamanho de suas salas de aula, ao mesmo tempo que tem capacidade de abordar simultaneamente as necessidades de aprendizagem e os estilos individuais dos estudantes. Os responsáveis por isto são os sistemas de aprendizados online e os learning analytics (que usam dados coletados dos próprios sistemas online para analisar a performance e a evolução dos alunos e oferecer insights).
As tendências na área de machine learning (o aprendizado de máquinas, que se tornou uma das bases da Inteligência Artificial) é um bom indicativo do que pode vir por aí. Termos como deep learning, aprendizado de larga escala de máquinas (large-scale machine learning), visão do computador (computer vision) e aprendizado por reforço (reinforcement learning) devem se tornar mais comuns e populares a exemplo de data analytics e big data (que também são usados para instigar o desenvolvimento da Inteligência Artificial). Este tópico, aliás, é um bom começo para entender o que vem por aí. Mas este já é um assunto para um próximo “papo”. Por enquanto, convido a quem quiser, que compartilhe seus pensamentos, medos ou esperanças em relação ao que foi comentado até o momento. Sei que esse tipo de assunto, ao mesmo tempo em que é fascinante, é controverso. Portanto ter ideia de como é entendido pelos que me leem, me ajudará no desenvolvimento da abordagem dos próximos textos.
Inteligência Digital
setembro 1, 2016 § Deixe um comentário

Não é segredo que temos passado cada vez mais tempo na companhia de aparelhos digitais, seja profissionalmente ou como entretenimento. Para evitar simplificações, vou utilizar a definição dada pelo departamento de ciência computacional e da informação do Brooklyn College para o tipo de equipamento – “é o conjunto de aparelhos que convertem informações em números e permitem seu armazenamento, transporte e compartilhamento”. Estamos “falando” de smartphones, computadores e tablets – mas também de tecnologias mais “antigas” como telégrafo, calculadora, relógio de pulso ou telefone fixo.
Este é um fato que transcende faixa etária. Crianças, por exemplo, passam em média, sete horas diárias em frente a alguma tela digital – segundo artigo da Academia Americana de Pediatria. Para efeito de comparação, é mais tempo do que passam na escola ou em companhia dos pais. Mais do que isto, existe ainda a lacuna – chamada de gap geracional digital – em relação à percepção e uso da tecnologia digital. Crianças e adultos a percebem de forma diferente e esta diferença é hoje o maior “desafio” enfrentado por pais e educadores em relação ao que é apropriado fazer em termos de “educação digital” e mesmo em torno do que é considerado um comportamento aceitável no mundo online.
Alguns conceitos têm surgido para ajudar no entendimento desta realidade. Alguns deles têm saído da academia para assumir a forma de propostas e iniciativas que efetivamente contribuam para a educação dos seres-humanos do século XXI. Uma delas, envolve o conceito de Inteligência Digital e da sua métrica proposta, chamada de coeficiente de inteligência digital.
Inteligência Digital é o conjunto de habilidades sociais, emocionais e cognitivas que permitem aos indivíduos desenvolverem a capacidade necessária para enfrentar os desafios e se adaptar às exigências da vida digital. Essas habilidades podem ser genericamente divididas em oito áreas interligadas. Minha intenção é apresentar rapidamente cada uma delas.
Identidade digital, é a capacidade que um indivíduo tem de criar e gerenciar a sua identidade e reputação digital. Isto inclui a consciência a respeito da sua persona online e a gestão do impacto, em curto e longo prazo, da sua presença na internet.
Uso digital, é a capacidade de usar aparelhos e suportes digitais, incluindo a habilidade de encontrar um equilíbrio saudável entre a vida online e offline. Vale reforçar que este equilíbrio é individual – cada um define o seu – embora as consequências de extrapolá-lo possam ser percebidas de maneira coletiva, como por exemplo, distúrbios psicológicos.
Segurança digital, é a capacidade de “gerenciar” os riscos online, por exemplo, cyberbullying, aliciamento, catfishing (para quem não está familiarizado com a definição, catfish corresponde à pessoa que assume uma falsa identidade na internet), bem como lidar com conteúdos “problemáticos” (como violência e obscenidade). Em resumo, é a habilidade para evitar ou limitar esses riscos.
Proteção digital, é a capacidade de detectar ameaças virtuais (como pirataria, fraudes, malware), entender as melhores práticas de utilização dos conteúdos disponibilizados (conceitos como o de curadoria digital, por exemplo) e do uso das ferramentas de segurança adequadas à proteção de dados.
Inteligência emocional digital, é a capacidade de ser compreensivo e construir boas relações com os outros online.
Comunicação digital, é a capacidade de se comunicar e colaborar com outras pessoas, usando tecnologias digitais e de mídia.
Alfabetização digital, é a capacidade de encontrar, avaliar, utilizar, compartilhar e criar conteúdo digital (novamente envolvendo o conceito de curadoria), bem como a competência em programação computacional e raciocínio lógico, além do desenvolvimento do pensamento crítico.
Direitos digitais, é a capacidade de compreender e defender os direitos pessoais e coletivos, nomeadamente os direitos à privacidade, propriedade intelectual, liberdade de expressão e proteção contra discursos de ódio.
Bom, se prestarmos bem atenção, veremos que a raiz da Inteligência Digital são os valores bem humanos do respeito, empatia, prudência e cidadania – desejáveis em qualquer sociedade. Quem se interessar e quiser implementar o modelo, sugiro a plataforma digital izhero.net, até 31 de dezembro a adesão a ela é gratuita.
Quem se interessar em explorar conceitualmente o assunto, sugiro procurar a seguinte bibliografia.
Barlett, C. P., Gentile, D. A., & Chew, C. (2014). Predicting cyber-bullying from anonymity. Psychology of Popular Media Culture.
Gentile, D. A. (2013). Catharsis and media violence: A conceptual analysis. Societies, 3, 491–510;
Gentile, D. A., Choo, H., Liau, A., Sim, T., Li, D., Fung, D., & Khoo, A. (2011). Pathological video game use among youth: A two-year longitudinal study. Pediatrics, 127, e319-329.
Gentile, D. A., Reimer, R. A., Nathanson, A. I., Walsh, D. A., & Eisenmann, J. C. (2014). A prospective study of the protective effects of parental monitoring of children’s media use. JAMAPediatrics, 168, 479-484 doi:10.1001/jamapediatrics. 2014.146
Maheshwari, Anil. (214). Data Analytics Made Accessible.
Maier, J. A., Gentile, D. A., Vogel, D., & Kaplan, S. (2014). Media influences on self-stigma of seeking psychological services: The importance of media portrayals and person perception. Psychology of Popular Media Culture.
Mithas, Sunil. (2012). Digital Intelligence: What Every Smart Manager Must Have for Success in an Information Age. Finerplanet.
Ostrov, J., Gentile, D. A., & Mullins, A. D. (2013). Evaluating the effect of educational media exposure on aggression in early childhood. Journal of Applied Developmental Psychology, 34, 38-44.
Prot, S. & Gentile, D. A. (2014). Applying risk and resilience models to predicting the effects of media violence on development. Advances in Child Development and Behavior, 46, 215-244.
Tsunami digital
agosto 25, 2016 § Deixe um comentário

Confesso que queria encontrar um título mais impactante – pensei mesmo em chamar de “a quarta revolução industrial” – mas creio que a comparação seria limitada (e incoerente com a observação sociológica que indica a mudança de uma sociedade industrial para uma sociedade baseada no conhecimento). Procurando por uma metáfora, fiquei com a definição do Klaus Schwab (presidente do Fórum Econômico Mundial) – tsunami – se vê pequenos sinais à beira-mar e de repente a onda gigante te engolfa. O mundo digital do futuro (próximo), conduzido pela inteligência artificial, internet das coisas e (não canso de repetir, o cada vez mais famoso) big data têm promovido mudanças tão rápidas e densas que pode ser difícil dar um passo atrás e tentar entender o fenômeno. De fato, as transformações têm um potencial tão esmagador, que ao invés de surfar as ondas, podemos, de repente, nos encontrar “levando um caldo”.
Recomendo a leitura do relatório “Technology Tipping Points and Societal Impact”, publicado pelo Fórum Econômico Mundial, com as tendências, cronograma e o impacto esperado na sociedade promovido pelos 3 condutores mencionados no parágrafo anterior. Quem quiser se preparar para a leitura das 44 páginas do relatório, faço um apanhado geral a seguir do que consta nele. Antes, penso ser necessário dar uma pequena explicação a respeito do motivo pelo qual se “bate” tanto na tecla da importância da tecnologia.
A palavra-chave do “mundo” em que vivemos hoje é interconexão. “Globalização”, “sociedade pós-moderna” e outros termos obscuros que se encontra por aí, tem na sua semântica a integração – seja ela de mercados, de pessoas, de culturas, de países, etc. Tudo é interligado: tecnologia, segurança, crescimento econômico, sustentabilidade e identidades culturais. A mudança tecnológica não é um fenômeno isolado, faz parte de um ecossistema complexo que compreende negócios, ações governamentais e as suas dimensões sociais. Por exemplo, para um país fazer um ajuste para o novo tipo de competição orientada pela inovação e criação de propriedade intelectual, todo o ecossistema tem de ser considerado – não é à toa que no ano passado a Finlândia reformulou o seu sistema educacional com foco no estímulo ao autoaprendizado e embasado principalmente pelo uso da tecnologia e o acesso à internet. Então, se algo muda (ou está mudando constantemente) como no caso da tecnologia, todo o sistema precisa se adaptar para manter-se sustentável.
Sem mais delongas, o que o relatório aponta pode ser resumido, “Zagallomicamente”, em 13 pontos principais:
1) Tecnologias usáveis e implantáveis: alguém se recorda dos tijolões que eram os celulares nos anos 90? E dos diminutos do início dos anos 2000? Por volta de 2025 podemos olhar os smartphones da mesma maneira. Há um certo consenso de que os primeiros celulares implantáveis estarão disponíveis no mercado dentro de 9 anos. Há mais consenso ainda em relação às roupas conectadas à internet.
2) Presença digital: há uns 15 anos, ter “presença” digital significava possuir uma conta de e-mail. Hoje, até nossos avós possuem um login no Facebook, no Twitter ou mesmo um site pessoal. Em 10 anos, cerca de 90% das pessoas no mundo terão alguma forma de presença digital. Com isto, pode-se concluir que 90% da população mundial estará conectada na internet. Não é pouca coisa em relação ao conceito de interconexão que comentei anteriormente.
3) A visão como nova interface: não sei quantos dos que me leem usam óculos. Eu pessoalmente, os uso desde os 13 anos. O que meus olhinhos míopes não esperavam é pela informação de que por volta de meados da próxima década, 10% de todos os óculos do mundo também estarão conectados à internet. Isto quer dizer acesso a apps (ou o que for a onda na época) literalmente ao alcance da vista. Também significa acesso e produção de dados em movimento.
4) Computação onipresente: esta tem a ver com a presença digital (ponto 2). É uma informação complementar. Hoje, por volta de 57% das pessoas do mundo estão conectadas à internet. 90% de conexão também significa a presença quase total dos computadores na vida do ser-humano. Não é por acaso que a inteligência artificial tem estado cada vez mais no centro da atenção de quem cria propriedade intelectual e que conceitos como machine learning, ex-machina e similares veem se tornando pop.
5) Tecnologia móvel: em português brasileiro, “combinamos” de chamar os telefones celulares de “celulares”. Mas em outras praias eles são chamados de telefones móveis e chamo a atenção para a palavra “móvel”. A mobilidade elevou a internet a outro patamar, e não vai perder força ou importância no futuro próximo. Pode-se esperar dispositivos mais sofisticados, mas sempre permitindo mobilidade.
6) Armazenamento para “geral”: em carioquês, para “geral” quer dizer para todos. Em 10 anos, 90% dos que tem acesso à internet, também terão armazenagem ilimitada e gratuita nas “nuvens”. Daqui a pouco quase ninguém terá que se preocupar em apagar foto ou vídeo porque acabou o “espaço” no celular.
7) A internet das coisas e para as coisas: óculos, roupas, eletrodomésticos e acessórios. Durante a próxima década, a previsão é que haja 1 trilhão de sensores conectados ao que usamos normalmente. Espera-se que estes sensores nos ajudem a melhorar a segurança (de alimentos à aviões), aumentar a produtividade (o que quer que isto signifique) e nos ajudar a administrar nossos recursos de maneira mais eficiente e sustentável (mesmo porque sempre precisamos de uma utopia).
8) Cidades e casas inteligentes: alguns hoje já são afortunados o suficiente para ter um ou outro eletrodoméstico conectado à internet (tipo uma smart TV ou um sistema de som). As previsões para a próxima década é levar cerca de 50% do tráfego de internet de uma residência para dispositivos ou aparelhos domésticos como frigideiras, geladeira, ar-condicionado, sistemas de segurança, dentre outros. O impacto em cidades deve-se dar principalmente no controle de sinais de trânsito e transporte público.
9) Big data significa big insight: praticamente todos os países do mundo promovem censos governamentais, mas eles são todos mais ou menos da mesma maneira – ou o cidadão recebe pelos correios ou vai um funcionário até a residência. A previsão é que até 2025, pelo menos 1 governo no mundo já tenha substituído seu processo de recenciamento por análise de dados em fontes geradoras ou armazenadoras de big data.
10) Robôs e o ambiente de trabalho: não é segredo de que algumas indústrias funcionam a base de robôs, mas o quanto deles estarão presentes no ambiente de trabalho, digamos, mais administrativo? Há uma previsão de que nos próximos 10 anos, cerca de 30% das auditorias corporativas sejam feitas por robôs. Alguns acreditam que seja também possível lançar neste prazo o primeiro farmacêutico robô.
11) Moeda digital: hoje cerca de 0, 025% do PIB mundial é negociado via blockchain (quem não está habituado com o termo, é uma espécie de “livro-razão” – ou razonete – em que se registra as transações em bitcoin ou similares). Alguns acreditam que esta porcentagem possa chegar a 10% do PIB mundial até 2025 (embora não seja muito crível). Mas muito provavelmente algum governo já estará coletando impostos via blockchain.
12) Economia compartilhada: em 2013 quando a consultora April Rinne causou “furor” em Davos ao falar sobre economia compartilhada (ou economia circular), pouca gente tinha familiaridade com o termo. Hoje, Uber e Airbnb fazem parte do clube do bilhão. Esta tendência não deve perder força na próxima década.
13) Impressora 3D: é considerada um dos “pilares do futuro da manufatura”. O epíteto já diz tudo. Acredita-se que em 10 anos, 5% dos manufaturados serão “impressos” em 3D.
Sei que o texto é longo, se você chegou até aqui, agradeço pela companhia.
Big Brother Corporativo
agosto 17, 2016 § Deixe um comentário

A empresa em que você trabalha te deu um smartphone. Você está dando uma checada nele quando percebe um daqueles e-mails do LinkedIn: “estas empresas estão procurando candidatos como você”. Apesar de não estar particularmente interessado(a) em algo, mas sempre aberto(a) a oportunidades – e um tanto quanto curioso(a) – você clica no link. Alguns minutos depois, seu chefe aparece na sua mesa e diz: “notamos que você tem passado mais tempo no LinkedIn ultimamente, vamos conversar a respeito da sua carreira e se está feliz conosco”?
É um cenário digno de big brother, mas não tão improvável. É sabido que o custo de se trocar um funcionário nunca é barato (nem o de mantê-lo), mas em muitos setores, o custo de se perder bons funcionários está incrivelmente maior por conta da natureza cada vez mais colaborativa dos postos de trabalho. Este é inclusive um dos efeitos colaterais do trabalho em equipe, quando se forma uma “bem azeitada”, não é nada trivial trocar um “jogador”. Desta forma, é até natural que empresas intensifiquem seus esforços em prever os riscos de algum funcionário “abandonar o barco”. As táticas usadas variam da pura e simples “espionagem” a análises de padrões de atividade em rede sociais.
Não quero entrar em discussões a respeito da moralidade da prática ou mesmo da sua legalidade. Em muitos sentidos, os dados gerados na internet ainda são (e talvez o sejam por muito tempo) como “águas internacionais” – pode-se até envolver algum tipo legislação para tentar regular sua utilização – mas é incrivelmente difícil garantir a sua efetiva aplicação. Sem contar ainda com os dados produzidos dentro de uma organização – que indiscutivelmente são dela. O ponto que gostaria de abordar gira em torno dos métodos e medidas que um número cada vez maior de empresas tem tomado para identificar os riscos de se perder um “colaborador”.
As principais razões têm-se mantido estáveis por anos: problemas com os chefes; falta de oportunidade de crescimento; um emprego mais desafiador ou melhor salário. Uma nova pesquisa, conduzida pela CEB – uma empresa de pesquisa tecnológica – com sede em Washington, decidiu focar sua análise não apenas no “por que”, mas também no “quando”. Segundo o diretor da empresa, Brian Kropp, o que estimula alguém a querer mudar de emprego é a comparação que a pessoa faz de como está em relação aos seus conhecidos ou então como deseja estar em determinado momento da vida. O interessa da CEB era saber quais momentos estimulavam a comparação.
Algumas descobertas não trazem muitas surpresas, “aniversários de empresa” (antigamente conhecido como “tempo de casa”) são momentos naturais para reflexões e o aumento de 6% a 9% na procura de novos empregos nesta época confirmam a crença. Momentos sem ligação direta com o trabalho também são incentivos para autoavaliações, como aniversários – principalmente de números redondos, como 40 ou 50 anos – aumento de 12% na procura. Encontros de turma (colégio, faculdade, etc.) também incentivam a busca por “novas oportunidades” (aumento de 16%).
Voltando ao monitoramento, a maior possibilidade de acesso à gigantesca quantidade de dados que produzimos diariamente (o cada vez mais famoso big data) e em especial ao que é conhecido como dark data – que de maneira similar à “matéria escura” da física, constitui a maior parte dos dados de qualquer organização e que quase nenhuma delas se interessava em conhecer – tem permitido identificar possíveis padrões de comportamento de funcionários que pensam em sair. O já citado e-mail LinkedIn é um exemplo. Outro comum é o monitoramento do crachá (conhecido como badge swipe), que verifica o uso do crachá para entrada e saída do prédio (ou da garagem) e identifica padrões que possam sugerir uma “escapada” para entrevista. Se parece exagero a princípio, saiba que algumas empresas, como a Jobrate, têm se especializado neste tipo de análise e prestam consultoria para inúmeras multinacionais. Grandes investidores também têm baseado suas estratégias de investimento levando em conta informações que sugerem mudanças em posições chave nas empresas as quais estão interessados.
Uma perspectiva bem tensa, não? Mas é preciso se lembrar que nem tudo deve ser encarado como “teoria da conspiração”. É claro que as informações podem ser usadas em relações de “mais valia” (esta tirei do fundo da cartola), afinal estamos lidando com seres-humanos, mas não é este o enfoque. Empresas como a Credit Suisse, usa suas informações para melhorar seu relacionamento com funcionários “insatisfeitos”. Como base nelas, por exemplo, avisa funcionários sobre vagas disponíveis em outros setores ou a respeito de oportunidades internas. Com isto, a empresa estima ter economizado de US$ 75 milhões a US$ 100 milhões em custos de recrutamento, seleção e treinamento, somente em 2014.
Ações preventivas para se manter um funcionário parecem ser um “melhor negócio” do que, por exemplo, esperar “a coisa acontecer” e fazer uma contraoferta. Os dados da CEB mostram que cerca de 50% dos funcionários que decidem ficar por conta de uma contraoferta, acabam saindo nos 12 meses seguintes. A maneira como as informações geradas por estas análises de dados está sendo utilizada atualmente, sugere que o big brother é invertido. Manter na casa ao invés de eliminar.
Fonte: pesquisa CEB, “The New Path Forward: Creating Compelling Careers for Employees and Organizations,”
A regra das 5 horas
agosto 2, 2016 § Deixe um comentário

Aos 10 anos, Benjamin Franklin deixou de lado a educação formal e virou aprendiz do próprio pai. Na adolescência não demonstrava nenhum talento particular – além da paixão pelos livros. Quando morreu, em 1790 aos 84 anos, era um dos estadistas mais respeitados dos EUA, o seu inventor mais famoso (entre outras coisas, inventou o para-raios – usado até hoje), além de autor e pesquisador, com trabalhos nos campos da meteorologia, teoria da eletricidade, demografia, entre outros.
O que aconteceu nesses 74 anos entre um ponto e outro?
Durante toda a sua vida adulta, Ben Franklin investiu consistentemente 1 hora do seu dia, durante os dias úteis, em aprendizado. Esta prática ficou conhecida como “a regra das 5 horas”. Segundo o escritor Michael Simmons, a rotina de Franklin consistia em algo parecido com o abaixo:
- Na parte da manhã estudava e escrevia sobre o que havia lido (a tal da 1 hora);
- Definia metas pessoais de crescimento (as conhecidas 13 virtudes);
- Se reunia frequentemente com pessoas de interesse similar para troca de ideias e melhores práticas;
- Transformava suas ideias em experimentos;
- Criava questões a respeito dos assuntos que estudava para refletir ao longo do dia, quando tinha mais tempo livre.
“A regra das 5 horas” pode ser considerada a “avó” de uma abordagem conhecida como aprendizagem ao longo da vida (ou lifelong learning), que considera que o aprendizado deve ser visto de forma acumulativa e feito de maneira constante e consciente durante toda a vida e não se restringir a um lugar e tempo para adquirir conhecimentos (escola) e a um lugar e tempo para aplicar os conhecimentos adquiridos (local de trabalho).
O que Warren Buffet, Bill Gates, Elon Musk e Mark Zuckerberg têm em comum (além de serem bilionários)?
Todos são adeptos da aprendizagem ao longo da vida e a fazem basicamente pela leitura. Warren Buffet passa de 5 a 6 horas do seu dia lendo – de jornais a relatórios financeiros e artigos acadêmicos – estimadas 500 páginas. Bill Gates, por sua vez, lê 50 livros por ano. Mark Zuckerberg se desafiou em 2015 a ler 1 livro a cada duas semanas. Elon Musk, segundo seu irmão, constantemente “devorava” dois livros em um dia quando garoto.
Obviamente ninguém precisa (e nem tem tempo) de ficar lendo o dia todo, mas implementar a regrinha do Ben Franklin é extremamente viável. Outro ponto que vale tocar é o fato da leitura ser a forma principal de aprendizado escolhida dos exemplos citados (inclusive do próprio Franklin). É a mais fácil de ser implementada (não é necessário nenhum equipamento especial – a não ser que se queira), livros, revistas e artigos impressos podem ser carregados sem muita dificuldade. Podem também serem lidos em horários variados, inclusive aqueles em que não se tem muito o que fazer – como a ida e volta do trabalho (se for de transporte público, claro). Além de permitir um aprofundamento maior dos assuntos estudados.
De qualquer maneira, uma coisa é essencial para colocá-la em prática: arrumar um tempo livre. Não tem jeito, este é o primeiro passo e o mais importante. É claro que meia hora é melhor do que nenhuma hora, mas é interessante focar nos 60 minutos por uma questão de conveniência – se dormimos 8 horas (pelo menos é o sugerido), 1 hora por dia representa 1/16 do tempo que ficamos acordados. Se trabalhamos alegadas 8 horas (alegadas pela CLT, pelo menos), 1 hora representa 1/8 do tempo fora do trabalho. Não é pouco, mas também não é muito.
Para melhor aproveitar este tempo, aí vão algumas dicas:
Planeje o aprendizado: pense cuidadosamente no que quer aprender. O que ajuda nessa hora é pensar no que se quer realizar com o aprendizado, definir as metas daí é “um pulo”.
Prática deliberada: ao invés de fazer as coisas de maneira automática, aplique os princípios da prática deliberada. Atividades como procurar um feedback honesto a respeito do que você sabe e colocar em pratica habilidades específicas que quer desenvolver ajudam na retenção do conhecimento.
Ruminação: o nome não é muito bonito, mas o sentido é ficar “matutando” o que aprendeu, pensando em suas perspectivas e assimilando seu contexto. Alguns compositores, como Tchaikovsky e Beethoven adoravam dar caminhadas. Steve Jobs também era fã da prática. Na verdade, a ruminação pode ser feita em qualquer lugar, ela acontece na sua cabeça – o que é necessário é estimulá-la conscientemente.
Separe um tempo para o aprendizado: sei que venho dizendo no decorrer do texto, mas vale repetir. Recomendo a leitura, mas pode ser feito de outras formas: conversando, assistindo vídeos, observando outros e, claro, frequentando aulas.
Resolva problemas assim que surgirem: muitos costumam “jogar pra debaixo do tapete” quando surge algum problema no aprendizado. Não faça isto. Não adianta passar para outro assunto, se você não entendeu o anterior. Mesmo porque probleminhas viram problemões se deixados de lado.
Experimente o que aprendeu: mesmo que não dê certo a princípio ou seja um pouco complicado, tente colocar em prática o que for aprendendo. Praticar é um dos melhores modos de testar uma ideia e aprender com seus resultados.
Uma das consequências da aprendizagem ao longo da vida é o estímulo ao autoaprendizado. Em um mundo em que o conhecimento (e sua produção) é um ativo valioso, depender apenas de aprendizado formal ou informal para adquiri-lo é arriscado – mesmo porque se formos pagar para alguém ensinar tudo o que temos que aprender, muito provavelmente não teremos recursos suficientes para tal. Encontrar formas de estimular a metacognição é francamente um dos maiores presentes que podemos nos dar.
Criar, aprender e se fazer as perguntas certas
julho 21, 2016 § Deixe um comentário

Criar é tão antigo quanto aprender. De ferramentas de pedra a desenhos nas cavernas, a criação humana se confunde com a própria atividade da nossa espécie. Podemos afirmar, com pouca dúvida, que “está em nosso sangue”. Por que então nosso sistema educacional – com raras exceções – se preocupa tanto com o conceito, muitas vezes em detrimento da própria aplicação prática? Talvez a resposta esteja em nossas próprias diretrizes educacionais.
A Lei 9.394/1996, também conhecida como “Lei de Diretrizes e Bases da Educação Nacional”, estipula em seu artigo 32 os objetivos do ensino fundamental, que se inicia aos 6 anos de idade e tem duração de 9 anos. Como é um pouco longo, sugiro que quem tiver interesse de lê-lo na íntegra, baixe gratuitamente o livro “Legislação Brasileira sobre Educação”, editado pela Câmara dos Deputados. De qualquer forma, um pequeno resumo se faz necessário: temos como objetivos desenvolver a capacidade de aprendizado (leitura, escrita e cálculo como elementos para tal) e de aprendizagem (conhecimento, habilidades, atitudes e valores), a compreensão do ambiente da sociedade e o fortalecimento dos vínculos sociais. Com exceção de uma referência tímida ao desenvolvimento de habilidades (que está ligada à implementação), a maior parte dos objetivos do sistema educacional brasileiro está ligado diretamente à conceptualização (tanto no aprendizado quanto na socialização). Para facilitar o entendimento, dou como exemplo o ensino de literatura. Muito provavelmente, se estivermos aprendendo literatura, seremos orientados a ler determinados livros e nosso entendimento da narrativa literária será avaliado por meio da nossa capacidade de conceptualização dela (redação, prova, etc.). Dificilmente seremos instigados a “implementar” a narrativa, por meio da encenação de uma peça, por exemplo.
Pensadores educacionais como Johann Pestalozzi, Maria Montessori, Seymour Papert – além dos nossos próprios Anísio Teixeira e Darcy Ribeiro – ajudaram a pavimentar o caminho alternativo do que vem sendo chamado atualmente de “maker movement” (movimento criador ou fabricante), salientando a importância da aprendizagem significativamente centrada na implementação prática do conhecimento. Ao invés de verem a aprendizagem como a transmissão de conhecimentos de professor para aluno, esses pensadores abraçaram a ideia de que os seres-humanos aprendem melhor quando encorajados a descobrir, reproduzir e experimentar.
No coração do “movimento”, está a crença de que todos os alunos são criadores. Em vez de apenas receberem materiais que estimulem a memorização para testes, os aprendizes são incentivados a usar o que sabem para projetar e construir, seja utilizando objetos do cotidiano para explorar a tecnologia ou usando uma impressora 3D para construir uma prótese mecânica para uma criança. Colocar a “mão na massa” tem um papel fundamental nesse processo, tanto que o local de aprendizado se parece mais com uma oficina do que com uma sala de aula. Apostilas ou livros didáticos são mais propensos a serem utilizados como referência – uma ferramenta para ajudar os alunos a experimentarem e construírem – ao contrário das aulas tradicionais, onde memorizar o livro muitas vezes é o próprio objetivo.
Um dos métodos mais utilizados nesta metodologia é o project-based learning (aprendizado baseado em projetos), que abordei em outros textos (quem se interessar, um link compilatório). O citei apenas como referência, o que gostaria realmente de abordar a seguir é a mentalidade envolvida no processo. Mais do que ferramentas ou tecnologia, a metodologia incentiva o aprendiz a formular as próprias perguntas e perseguir as respostas de forma orgânica. Em contraste com a abordagem da “única resposta correta”, a mentalidade envolve a busca de maneiras de se aproximar dela através da experimentação e a “jogar” com as possíveis resoluções dos problemas. Os erros são entendidos como parte da aprendizagem, uma vez que incentivam os aprendizes a ultrapassarem os limites das suas capacidades atuais. Como todo bom cientista entende, cada erro cometido é uma oportunidade de incorporar o que foi aprendido com ele e a testar uma nova maneira de resolver os desafios – muitos deles, nem previstos anteriormente. Em uma cultura educacional que coloca um enfoque excessivo em provas conceituais, há um alto risco de se formar adultos focados em encontrar as “respostas certas”, quando deveriam pensar prioritariamente nas “perguntas certas”.
O questionamento é uma forma poderosa de aprendizagem. Barron e Darling-Hammond, em pesquisa publicada em 2008, mostram que os alunos aprendem de maneira mais profunda quando têm a oportunidade de aplicar conhecimentos adquiridos em sala de aula nos problemas do mundo real. Fazer perguntas fornece contexto, que por sua vez, ajuda a reforçar a aprendizagem. Isto acontece, porque desta forma quem aprende é estimulado a transferir a sua aprendizagem para novos tipos de situações, incluindo aquelas que ocorrem fora da sala de aula.
Como a maioria de nós, fui criado em um modelo educacional que estimula a conceptualização excessiva e tive muita dificuldade em colocar “na vida real” o que aprendi no colégio e na faculdade. Felizmente, encontrei em minha vida profissional pessoas que me incentivaram a pensar em formas de aplicar o que sabia e tiveram a paciência de não me demitir quando algo não saia como deveria. Confesso que tive sorte e que esta não é a realidade da maioria, portanto o quanto antes se comece a incentivar a aplicação do conhecimento, melhor para a sociedade.
Para melhor fluidez do texto, evitei colocar as referências acadêmicas do “maker movement”. Corrijo isto, compartilhando a bibliografia logo abaixo para quem tiver interesse em explorar mais a metodologia.
Bibliografia
- Barron, B. & Darling-Hammond, L. (2008).Teaching for Meaningful Learning: A Review of Research on Inquiry-Based and Cooperative Learning (PDF) Book Excerpt. George Lucas Educational Foundation.
- Dougherty, D. (2013). “The Maker Mindset.” In M. Honey & D.E. Kanter (Eds.) (2013),Design, make, play: Growing the next generation of STEM innovators (pp.7-11). New York: Routledge.
- Eddy, S.L. & Hogan, K.A. (2014). “Getting under the hood: how and for whom does increasing course structure work?“CBE-Life Sciences Education, 13(3), pp.453-468.
- Halverson, E.R. & Sheridan, K. (2014). “The maker movement in education.”Harvard Educational Review, 84(4), pp.495-504.
- Kontra, C., Lyons, D.J., Fischer, S.M., & Beilock, S.L. (2015). “Physical experience enhances science learning.”Psychological science, 26(6), pp.737-749.
- Martinez, S. & Stager, G. (2014).The maker movement: A learning revolution. Arlington, VA: International Society for Technology in Education (ISTE).
- National Science Foundation (2015).Women, Minorities, and Persons with Disabilities in Science and Engineering: 2015. Arlington, VA: National Center for Science and Engineering Statistics.
- Riskowski, J.L., Todd, C.D., Wee, B., Dark, M., & Harbor, J. (2009). “Exploring the effectiveness of an interdisciplinary water resources engineering module in an eighth grade science course” (PDF).International Journal of Engineering Education, 25(1), p.181.
- Wittemyer, R., McAllister, B., Faulkner, S., McClard, A., & Gill K. (2014).MakeHers: Engaging Girls and Women in Technology Through Making, Creating, and Inventing (PDF). Intel.