Inteligência Artificial e a Educação

outubro 27, 2016 § Deixe um comentário

35061-robot-te_article.jpg

Como retrospectiva, sugiro a leitura dos textos anteriores sobre o assunto. O primeiro, a respeito do “Estudo de 100 anos para a Inteligência Artificial”; o segundo, referente à definição do que é IA; o terceiro, abordando as tendências; e o quarto a respeito do impacto no mercado de trabalho. Este é o último texto da série e aborda um dos temas mais estratégicos, pelo menos no meu entendimento, na priorização do planejamento de pessoas, organizações e países: a educação.

Dediquei boa parte da minha carreira à área de educação corporativa – sou um daqueles caras de “treinamento” que boa parte dos que trabalham em empresas de médio e grande porte já deve ter cruzado por aí. Sei que muitos “torcem o nariz” para o uso do termo “educação” em associação com a palavra “corporativa”, mas a verdade é que, com a já conhecida (enorme) lacuna na qualidade da formação educacional em nosso país, boa parte das empresas decidiu investir elas mesmas na formação do funcionário, muitas vezes indo além de conhecimentos e habilidades específicas para o seu negócio e ajudando-os em formação básica. Desta forma, em minha opinião, contribuindo para a própria educação do brasileiro. Para atuar neste ambiente, passei anos “consumindo” tudo o que pude encontrar em relação a métodos educacionais. Quando comecei a “me envolver” com machine learning, tive a grata surpresa de perceber que muitos dos conceitos que aprendi a respeito do aprendizado de gente, podia também ser aplicado ao aprendizado de máquinas. Faço esta introdução apenas para contextualizar a minha relação com o tema.

Desde os projetos Lego Mindstorms, desenvolvidos pelo MIT Media Lab a partir dos anos 1980, robôs têm se tornado ferramentas educacionais populares. Cabe aqui atribuir o crédito devido ao matemático Seymour Papert, guru de muita gente (inclusive meu), por conta do seu trabalho envolvendo o uso de tecnologias no aprendizado de crianças desde os anos 1960. Papert foi fundamental para o desenvolvimento do conceito de aprendizado multimídia, hoje parte integrante das teorias do aprendizado, assim como na evolução do campo da Inteligência Artificial.

Este caldo de ideias estimulou o desenvolvimento de diferentes frentes de atuação da IA aplicada à educação. É importante deixar claro, desde já, que nenhuma destas frentes descarta a importância da participação do ser-humano como vetor do ensino. Como citei no texto anterior, referente ao impacto no mercado de trabalho, IA pode aumentar o escopo do que é considerado tarefa de rotina, mas definitivamente o papel do professor não está entre elas. Ferramentas como os Intelligent Tutoring Systems (ITS), campos de atuação como Natural Language Processing ou aplicativos como os de Learning Analytics têm como objetivo ajudar os professores em sala de aula e em casa, expandir significativamente o conhecimento dos alunos. Com a introdução da realidade virtual no repertório educacional, por exemplo, o impacto da Inteligência Artificial no aprendizado do ser-humano deve ser de tal ordem que “periga” alterar a forma como o nosso cérebro funciona (é claro que este impacto ainda é suposição). Creio que a melhor maneira de abordar este assunto, é por meio de exemplos. Vou associá-los aos tópicos principais de IA aplicada à educação. Sempre que o exemplo vier acompanhado de um link, pode clicar. São informações adicionais sobre o assunto ou vídeos tutoriais sobre alguma ferramenta. Se por acaso ocorrer algum rickrolling, me avisem.

Robôs tutores

Ozobot, é um robozinho que ajuda crianças a entenderem a lógica por detrás da programação e a raciocinar de maneira dedutiva. Ele é “configurando” pelas próprias crianças, por meio de padrões codificados por cores, para dançar ou andar. Já os Cubelets auxiliam a criança a desenvolver o pensamento lógico através da montagem de blocos robôs, cada um com uma função específica (pensar, agir ou sentir). Os Cubelets têm sido usados para estimular o aprendizado de STEM.

Dash, é o robô oferecido pela Wonder Workshop, que permite apresentar crianças (e adultos) à robótica. É possível programar as ações do robô por meio de uma linguagem de programação visual desenvolvida pela Google, chamada Blockly ou mesmo construir apps para iOS e Android, usando linguagens mais parrudas como C ou Java.

Por fim, o PLEO rb é um robô de estimação, criado para estimular o aprendizado de biologia. A pessoa pode programar o robô para reagir a diferentes aspectos do ambiente.

Intelligent Tutoring Systems (ITS)

Os ITS começaram a ser desenvolvidos no final do século XX por vários centros de pesquisa, para auxiliar na resolução de problemas de física. A sua força sempre esteve na sua capacidade de facilitar o “diálogo” humano-máquina. Ao longo destas primeiras décadas do século XXI, começou a ser utilizado para o ensino de línguas. Carnegie Speech e Duolingo são exemplos da sua aplicação, utilizando o Automatic Speech Recognition (ASR) e técnicas de neurolinguística para ajudar os alunos a reconhecerem erros de linguagem ou pronúncia e corrigi-los.

Também têm sido usados para auxiliar no aprendizado de matemática, o Carnegie Cognitive Tutor foi adotado por escolar norte-americanas para este fim. Outros similares (Cognitive Tutors) são usados para o aprendizado de química, programação, diagnósticos médicos, genética, geografia, dentre outros. Os Cognitive Tutors são ITS que usam softwares que imitam o papel de um professor humano, oferecendo dicas quando um estudante fica com dificuldade em algum tópico, como por exemplo, um problema de matemática. Com base na pista solicitada e a resposta fornecida pelo aluno, o “tutor” cibernético oferece um feedback específico, de acordo com o contexto da dúvida.

Um outro ITS chamado SHERLOCK, desde o final da década de 1980 ajuda a Força Aérea Americana a diagnosticar problemas no sistema elétrico de suas aeronaves. Quem quiser conhecê-lo mais, sugiro este paper publicado nos primórdios da internet (não se assustem com o design).

Mas as grandes “estrelas” na constelação dos ITS são definitivamente os MOOCs (Massive Open Online Courses). Ao permitirem a inclusão de conteúdos via Wikipedia e Khan Academy e de sofisticados Learning Management Systems (LMS), baseados tanto em modelos síncronos (quando há prazos para conclusão de cada fase do curso) quanto modelos assíncronos (quando o aprendiz vai no seu ritmo), os MOOCs têm se tornado a ferramenta de aprendizagem adaptativa mais popular.

EdX, Coursera e Udacity são exemplos de MOOCs que se “alimentam” de técnicas de machine learning, neurolinguística e crowdsourcing (também conhecida em português como colaboração coletiva) para correção de trabalhos, atribuição de notas e desenvolvimento de tarefas de aprendizado. É bem verdade que a educação profissional e a de ensino superior são as maiores beneficiárias deste tipo de ITS (em comparação com os ensinos básico, médio e fundamental). A razão disto, é que o público delas, até mesmo por ser geralmente composto por adultos, tem menos necessidade de interação cara-a-cara. Espera-se que com um maior estímulo ao desenvolvimento da habilidade de metacognição, os benefícios oferecidos por estas plataformas possam ser distribuídos mais democraticamente.

Learning Analytics

Também já se sente o impacto do Big Data em educação. Todas as ferramentas apresentadas geram algum tipo de log ou algum tipo de registro de dado. Assim como aconteceu no mundo corporativo com BI (Business Intelligence) e BA (Business Analytics), a geração maciça de dados advindos da integração de IA, educação e internet, fez surgir a necessidade de se entender e contextualizá-los para melhor aproveitar as oportunidades e insights potencializados por eles.  Com isto, o campo chamado Learning Analytics tem observado um crescimento em velocidade supersônica.

A bem da verdade, é que cursos online não são apenas bons para a entrega de conhecimento em escala, são veículos naturais para a armazenagem de dados e a sua instrumentalização. Deste modo, o seu potencial de contribuição para o desenvolvimento científico e acadêmico é exponencial. O aparecimento de organizações como a Society for Learning Analytics Research (SOLAR) e de conferências como a Learning Analytics and Knowledge Conference organizada pela própria SOLAR e a Learning at Scale Conference (L@S), cuja edição de 2017 será organizada pelo MIT, refletem a importância que está se dando a este assunto em outras “praias”. IA tem contribuído para a análise do engajamento do aprendiz, seu comportamento e desenvolvimento educacional com técnicas state-of-the-art como deep learning e processamento de linguagem natural, além de técnicas de análise preditivas usadas comumente em machine learning.

Projetos mais recentes no campo de Learning Analytics têm se preocupado em criar modelos que captem de maneira mais precisa as dúvidas e equívocos mais comuns dos aprendizes, predizer quanto ao risco de abandono dos estudos e fornecer feedback em tempo real e integrado aos resultados da aprendizagem. Para tanto, cientistas e pesquisadores de Inteligência Artificial têm se dedicado a entender os processos cognitivos que envolvem a compreensão, a escrita, a aquisição de conhecimento e o funcionamento da memória e aplicar este entendimento à prática educacional, com o desenvolvimento de tecnologias que facilitem o aprendizado.

O mais incauto pode se perguntar por que com tecnologias de IA cada vez mais sofisticadas e com o aumento do esforço no desenvolvimento de soluções específicas para educação, não há cada vez mais escolas, colégios, faculdades e universidades os utilizando?

Esta resposta não é fácil e envolve diversas variáveis. A primeira delas está relacionada ao modelo mental da sociedade e ao quanto esta sociedade preza o conhecimento. Há locais em que a aplicação da IA em educação está mais avançada, como por exemplo a Coreia do Sul e a Inglaterra e outros em que já se está fazendo um esforço concentrado para tal, como por exemplo Suíça e Finlândia. Não por acaso, são países em que há bastante produção de propriedade intelectual. A segunda delas, envolve o domínio na geração do conhecimento e na sua aplicação em propriedade intelectual. Nesta variável, segue imbatível os EUA, que são responsáveis por boa parte do conhecimento produzido pelo ser-humano. Novamente, não por acaso, são os líderes no desenvolvimento do campo de IA. A terceira variável, como não poderia deixar de ser, é o custo. Não é barato e como dinheiro é um recurso escasso em qualquer lugar (em uns mais do que em outros, claro) é preciso que haja uma definição da sociedade em questão quanto às suas prioridades para se fazer este investimento. A quarta, está ligada ao acesso aos dados produzidos por estas iniciativas educacionais e as conclusões geradas. Embora haja fortes indícios de que a tecnologia impulsionada pela IA realmente impacta positivamente no aprendizado, ainda não há conclusões objetivas em relação ao tema – muito por conta da sua recência. E como o investimento é alto, são poucos os que topam ser early adopters.

De qualquer forma fica a questão, vale a pena? Quanto a isto, gosto de citar meu ex-chefe, Edmour Saiani. Sempre quando perguntado se devíamos treinar alguém, ele respondia: “se lembre que o problema nunca é você treinar a pessoa e ela sair da empresa, o problema é você não treinar e ela ficar”. Neste tipo de caso, não fazer nada é a pior opção.

Anúncios

Inteligência Artificial e o mercado de trabalho

outubro 7, 2016 § 1 comentário

artificial.intelligence.2025.jpg

Como retrospectiva, sugiro a leitura dos textos anteriores sobre o assunto. O primeiro, a respeito do “Estudo de 100 anos para a Inteligência Artificial”; o segundo, referente à definição do que é IA; e o terceiro, abordando as tendências. Pretendo dedicar este e o próximo à análise do impacto em duas áreas de grande interesse: o emprego e ambiente de trabalho e a educação.

O mercado de trabalho tem sido historicamente influenciado pela Inteligência Artificial via tecnologias digitais que permitem a criação de rotinas ou automação de tarefas como planejamento de utilização de recursos, sistemas de informação e análise para supply chain, CRM ou knowledge management systems, dentre outros. Por conta deste enfoque em rotina, trabalhos de nível médio têm sido mais impactados do que os de nível alto e baixo. Vale lembrar que estes “níveis” se referem à habilidade necessária para realizar uma tarefa, que por sua vez, se reflete em nível de escolaridade. Um bom modo de visualizar esta realidade é pelos gráficos publicados pelo The New York Times em 2014, mostrando como a recessão havia impactado a economia e modificado o mercado de trabalho (são 255 gráficos interativos que dão um panorama bem abrangente e que podem ser acessados por este link).

Como comentei no primeiro texto desta série, acredita-se que IA possa aumentar o escopo do que é considerado tarefa de rotina. Um exemplo neste sentido nos é dado pelos pesquisadores Dana Remus (University of North Carolina) e Frank S. Levy (M.I.T.), no artigo acadêmico “Can Robots Be Lawyers? Computers, Lawyers, and the Practice of Law”. Como já se intui pelo título, trata-se do impacto atual de IA na automação de algumas práticas jurídico-legais, como a permitida por algoritmos que fazem extração de informações de processos jurídicos e topic modeling – é o termo usado para a tarefa de descobrir e registrar uma grande quantidade de arquivos e documentos com base em informações temáticas pré-definidas – vale dizer que é feito através de métodos estatísticos que analisam as palavras dos textos originais para descobrir seus temas, como estes temas estão ligados uns aos outros e como eles mudam ao longo do tempo. Isto tem influenciado o tipo de trabalho feito por advogados recém-formados nos EUA, que anteriormente começavam as suas carreiras fazendo, guardadas as devidas proporções, o que estes algoritmos fazem hoje.

Também é esperado que IA possa influenciar no tamanho e na localização da força de trabalho. Muitas organizações são grandes porque precisam realizar funções que são escalonáveis apenas pela adição de recursos humanos – seja “horizontalmente” em mais áreas geográficas, seja “verticalmente” em níveis hierárquicos. Ao realizar mais funções, a Inteligência Artificial muda a definição do que significa escalonar, não a relacionando mais a aumento de “tamanho”. Mas nem tudo é ameaça, IA também deverá criar postos de trabalho, especialmente em setores que necessitam de propriedade intelectual, fazendo com que certas tarefas fiquem mais importantes e criando novas categorias de emprego ao permitir novos modos de interação.

Sistemas de informação cada vez mais sofisticados (sobre o assunto recomendo muito o livro de Laudon & Laudon, “Management Information Systems”, já na sua 13ª edição) têm sido usados para criar novos mercados e reduzir barreiras de entrada, permitindo o surgimento de apps como Airbnb e TaskRabbit, por exemplo. Uma comunidade crescente de pesquisadores tem se dedicado exclusivamente a estudar como se pode usar a IA na criação de novos mercados e em como fazer os mercados atuais operarem de maneira mais eficiente, levando a crer que a sua influência, muitas vezes disruptiva, está apenas no seu início.

Apesar da IA poder reduzir o valor de bens de consumo e serviços (ao realizar tarefas que necessariamente demandariam um ser-humano) e desta forma contribuir para o aumento da capacidade de consumo individual, é inegável que a possível redução de vagas de trabalho levanta mais preocupação do que os ganhos econômicos difusos. Com isso, IA acaba sendo “culpada” mais por ameaçar o emprego do que bem vista pela sua capacidade de melhorar a qualidade de vida.

É verdade, porém, que gradualmente o avanço na inteligência de máquinas irá permiti-las “invadir” a maioria dos mercados de trabalho, exigindo uma mudança no tipo de atividade realizada por humanos e que os computadores serão capazes de assumir. Acredita-se que os efeitos econômicos da IA sobre os chamados empregos humanos cognitivos (aqueles considerados anteriormente na era industrial como “trabalho de escritório”) será análogo aos efeitos da automação e robótica no trabalho de fabricação industrial, em que operários acabaram perdendo empregos mesmo possuindo conhecimentos técnicos, muitas vezes especializados, perda esta que impactou negativamente em seu status social e na sua capacidade de prover para suas famílias. Com a mão-de-obra se tornando um fator menos importante na produção em comparação ao capital intelectual e à capacidade de usá-lo para gerar valor, é possível que a maioria dos cidadãos possa ter dificuldades em encontrar um trabalho que pague bem suficientemente para manter um padrão socialmente aceitável de vida.

Esta é uma possibilidade real e influencia, dentre outras coisas, em curto prazo, na forma como o nosso sistema educacional se organiza. Educação, treinamento e criação ou readequação de bens e serviços que necessitem mais de intervenção humana podem ajudar a mitigar efeitos econômicos negativos. De qualquer forma, é imprescindível que comecemos a nos atentar às competências necessárias para o trabalho do século XXI e adequar nosso sistema educacional para formar cidadãos mais capacitados dentro de uma realidade diferente da industrial (quem se interessar mais sobre o assunto, ano passado publiquei 3 textos sobre o tema, que disponibilizo neste link).

Em longo prazo, será preciso rever a rede de segurança social atual e evoluí-la para atender um possível contingente maior de pessoas e ajudá-las a se reintegrarem em uma sociedade mais intelectual do que manual. Países como a Suíça e a Finlândia já começaram a considerar ativamente esta nova realidade e iniciaram um processo de adequação de suas sociedades – que começou, de maneira não surpreendente – pela reformulação de seus sistemas educacionais, privilegiando o desenvolvimento da habilidade de metacognição, domínio de idiomas (em especial da língua inglesa, pelo fato da maior parte do conhecimento humano estar registrado neste idioma) e um currículo baseado em STEM (acrônimo em inglês para Ciências, Tecnologia, Engenharia e Matemática) associado ao “método” grego de “arte liberal” (quem quiser mais detalhes do conceito, disponibilizo um link de outro texto que escrevi sobre o tema) por se entender que é uma maneira eficiente de adequar a forma de pensar para uma mentalidade mais direcionada à criação de propriedade intelectual, em que se destaca a conexão de conhecimentos – de forma mais abrangente – e a imaginação – para atuar criativamente na sociedade e gerar inovação.

Aqui vale uma explicação adicional, pois o tema gera bastante interpretação equivocada. Foco em STEM não é a mesma coisa que foco em ciências exatas (e menos ainda, não foco em ciências humanas). É consenso, ao menos no caso da matemática, que a matéria ensinada na maioria das escolas é um reflexo pálido da matemática que verdadeiramente apaixona (aquela que, parafraseando Michael Atiyah, identifica e lida com problemas que são ao mesmo tempo interessantes e solucionáveis). No decorrer da revolução industrial nos esquecemos de que matemática também é arte – e não me refiro à geometria, como aqueles cujo coração se agita com a visão dos fractais pode supor inicialmente – me refiro à emoção que a matemática evoca. A satisfação de transformar o desconhecido em conhecido é imensa e também profundamente inata à “disciplina” em questão. A triste ironia da política de educação em relação à matemática é que na tentativa de aproveitar o nosso potencial humano para o raciocínio e resolução de problemas – habilidades vitais para o futuro da nossa economia – os formuladores de políticas públicas (assim como os formadores de opinião) negligenciam a mais importante de todas as verdades matemáticas: ela também é arte e deve ser tratada como tal.

Inteligência Artificial e suas tendências

outubro 3, 2016 § 2 Comentários

Artificial Intelligence-HITN.png

Para facilitar o entendimento, sugiro como leitura prévia 2 textos anteriores em que abordo este mesmo tema. O primeiro, a respeito do “Estudo de 100 anos para a Inteligência Artificial” e o segundo, referente à definição do que é IA.

Nos últimos 15 anos, IA conseguiu cumprir a sua expectativa histórica de permear a vida do ser-humano. É verdade que um dos grandes responsáveis por isto são os “pequenos” equipamentos que carregamos em nossos bolsos e bolsas diariamente, os smartphones. De todo modo, ao se tornar uma força central em nossa sociedade, a própria IA vem se modificando. O grande objetivo das mentes por trás do seu desenvolvimento, não é mais construir sistemas que são inteligentes, mas construir sistemas inteligentes que são confiáveis e focados no ser-humano.

Pode parecer um simples “jogo de palavras”, mas a realidade é que esta visão traz uma mudança profunda no direcionamento das pesquisas no campo da IA. Para resumir este direcionamento, usarei apenas um termo: dados. Quem tem familiaridade com a hierarquia DIKW percebe imediatamente o que isto quer dizer. Dados são a base em que se constrói o conhecimento. Ao focar neles, as pesquisas em Inteligência Artificial se aproximam cada vez mais do que transforma o ser-humano em ser-humano, a alta capacidade de aprendizagem – de transformar conhecimento em sabedoria.

Não é de se estranhar, portanto, que uma das áreas da IA que mais cresce é a de machine learning. O aprendizado de máquinas vem se desenvolvendo enormemente com o suporte dos recursos de computação em nuvem e com a coleta generalizada de dados baseados na web. Este ambiente também vem sendo impulsionado pelo deep learning, utilizado para treinar (sim, o termo é o mesmo usado em referência ao ser-humano) redes neurais convolucionais. Trocando em miúdos, pode ser resumido como um modo de ensinar máquinas usando o modelo de redes neurais.

Bom, o resultado disto foi um salto na performance de algoritmos de processamento de informação (vale lembrar que informação significa dado contextualizado), acompanhado de outro salto significativo em tecnologia de detecção, percepção e reconhecimento de objetos. Aliados a plataformas e mercados impulsionados por dados, este ambiente estimulou a concentração de pesquisas em algumas áreas específicas da IA.

Aprendizado de máquinas em grande escala (large-scale machine learning): um dos maiores desafios em termos de machine learning atualmente é aumentar a extensão de algoritmos existentes para possibilitar que trabalhem com banco de dados extremamente grandes (o chamado big data). Em banco de dados tradicionais, um algoritmo de aprendizado de máquinas pode se dar o “luxo” de checar várias vezes o mesmo conjunto de dados (afinal, para os padrões das máquinas não são extensos –possuem “apenas” alguns milhões de linhas). Quando se trata de big data, a coisa muda de figura, não se pode repetir este padrão com bilhões e bilhões de linhas de dados – um processador atual poderia “travar” realizando uma ação destas. A solução é otimizar métodos que permitam processar apenas uma vez os dados ou que os dividam em conjuntos. É por este caminho que segue esta tendência de estudo (para aqueles que possuem conhecimentos em modelagem matemática ou estatística, fiquem de “olho” nesta área).

Deep Learning: sei que parece título de filme B, mas penso que vale a pena dar uma explicação um pouco mais técnica aqui do que na “palhinha” de algumas linhas acima. É chamado de aprendizado profundo, a habilidade de se treinar com sucesso redes neurais convolucionais (em teoria da informação, convolucional é um tipo de código para detecção de erros). Em machine learning, a rede neural convolucional funciona de maneira inspirada no córtex visual dos animais, reconhecendo largura e altura de um volume e se ativando quando “vê” algo similar em uma determinada posição espacial. Um dos campos que mais se beneficiam disto é o da visão computacional, que pode ser aplicada em reconhecimento de objetos (e atividades gerais de reconhecimento) e áreas de percepção artificial como voz e linguagem natural (os idiomas que falamos). Sei que a maioria não ligará “o nome à pessoa”, mas saibam que coisas comuns que usamos – como os filtros para fotos de aplicativos como Instagram – se beneficiam destes conhecimentos.

Aprendizado por reforço (reinforcement learning): não sei quantos dos que me leem tiveram a experiência de terem “aulas de reforço” no colégio. Lembro do drama que era para mim chegar duas horas antes das aulas às quintas-feiras, para ter aula de reforço em português. O objetivo deste tipo de aula era, no meu caso, utilizar a língua portuguesa em situações práticas reais (escrever cartas, interpretar textos e entender suas implicações). Funciona de modo similar no caso das máquinas, envolve ensiná-las a aprender algo necessário para executar ações no mundo real. O modo de se fazer isto é através de estruturas sequenciais para tomada de decisão baseada em experiência. Este campo, estagnado há décadas, tomou um impulso com o surgimento do deep learning. Um exemplo prático é o AlphaGo, desenvolvido pela Google, para ensinar máquinas a jogar o jogo chinês Go (para mais detalhes tanto de um quanto de outro, incluí links que direcionam ao site do AlphaGo e à explicação do jogo original na Wikipédia). O AlphaGo foi treinado inicialmente através de um banco de dados criado por especialistas humanos no jogo e posteriormente, via aprendizado por reforço, praticando através de jogos contra si mesmo. A aplicação desta área é bem dinâmica, atua desde viagens espaciais até extração de petróleo em grandes profundezas (como no caso do nosso pré-sal).

Robótica: os esforços atuais se concentram em treinar os robôs a interagirem com o mundo a sua volta de maneira geral e previsível. Um dos caminhos é utilizar deep learning e aprendizado por reforço para ajudá-los a explorar o ambiente e “rodar” sua programação sem espaço para cometer erros que possam ser prejudiciais para seus sistemas e para os que estiverem à volta. Este é o problema, por exemplo, dos carros automáticos – aqueles que se dirigem sozinhos e que já estão sendo testados. O desafio é aumentar a percepção da máquina, incluindo sua “visão”, “força” e sensibilidade “tátil”.

Visão computacional: esta é a forma mais proeminente de percepção da máquina hoje. É uma das áreas de IA que teve a sua evolução impulsionada pelo aparecimento do deep learning. Pela primeira vez, os computadores são capazes de executar algumas tarefas de classificação visual melhor do que as pessoas. Combinada com computação gráfica, tem sido a responsável pela “explosão” da tendência de realidade aumentada.

Processamento de linguagem natural: muitas vezes usado em conjunto com o reconhecimento automático de voz, o processamento de linguagem natural é outra forte tendência da área de percepção da máquina. 20% das consultas ao Google já são feitas por voz e alguns testes já mostram a possibilidade real de usá-lo para tradução em tempo real. O foco dos estudos está se concentrando cada vez mais no desenvolvimento de sistemas capazes de interagir com as pessoas por meio do diálogo (e não simplesmente reagir a comandos digitados).

Internet das Coisas: também conhecida pela sigla IoT (Internet of Things), é um dos grandes focos de pesquisas na área de Inteligência Artificial. Está relacionada à ideia de que uma grande quantidade de dispositivos (ou coisas) podem ser interconectados para coletar e compartilhar seus dados sensoriais (eletrodomésticos, veículos, edifícios, máquinas fotográficas e roupas são alguns exemplos). Embora seja uma questão que envolva em grande parte a criação de tecnologia e a utilização de rede sem fio para conectar os dispositivos, há um enorme desafio no processamento e uso inteligente destas imensas quantidades de dados (a serem) gerados que ainda precisa ser equacionado. Outro ponto, é que atualmente esses dispositivos utilizam uma quantidade grande de protocolos de comunicação incompatíveis. IA está sendo utilizada tanto para desenvolver soluções para lidar com esta possibilidade exponencial de big data quanto para ajudar a domar a “Torre de Babel”.

Há ainda outras tendências que de tão específicas, prefiro não abordar – como computação neuromórfica (neuromorphic computing), criação de algoritmos baseados na teoria dos jogos, sistemas colaborativos, dentre outros. O que une estas tendências não citadas e as demais que comentei é a sua característica human-aware (centrada no ser-humano – como mencionado no início do texto). Isto quer dizer que por mais complicado que possa parecer, todas estas iniciativas são especificamente modeladas e desenvolvidas com o foco nas pessoas que se espera que elas interajam. Por enquanto não há o risco de se criar algo como o sistema Skynet – do Exterminador do Futuro. O maior risco trazido pelo deep learning para o aprendizado da máquina, é o processo conhecido como overfitting. Assim como nós, seres-humanos, as máquinas também apreciam a boa e velha decoreba. Quando percebem que uma resposta não muda, elas simplesmente a decoram. O overfitting ocorre quando tentam generalizar algo que é específico, usando o que decoraram. Como se pode ver, o que faz a diferença em qualquer aprendizado é o contexto.

Inteligência Artificial, essa incompreendida

setembro 21, 2016 § 3 Comentários

IAshutterstock_181640888.jpg

Em um texto anterior comentei a respeito do “Estudo de 100 anos para a Inteligência Artificial” e fiz uma pequena introdução do primeiro relatório produzido pelo painel de especialistas. Também terminei o texto convidando o leitor a compartilhar as suas impressões. Muito dos feedbacks que recebi giraram em torno do que afinal é IA (o título, inclusive, foi sugestão de um dos leitores). Não me refiro ao conceito popular, dos filmes – que invariavelmente a apresenta como ex-machina (que explicarei rapidamente ao final do texto) – mas o seu conceito “acadêmico”. Minha intenção é tentar explicá-lo neste texto e nos próximos, abordar com mais detalhes as tendências da Inteligência Artificial e os impactos nas áreas do “emprego e ambiente de trabalho” e “educação”.

Conhecer do que se trata o campo da Inteligência Artificial ajuda a “jogar luz” em um tema que para muitos ainda é ficção científica (embora já seja mais realidade do que nunca) e ajuda a tornar mais real as oportunidades – e as possibilidades de ruptura – que irão influenciar a nossa sociedade.

Em primeiro lugar, é preciso entender porque este assunto vem sendo tratado com tanta importância. Existe uma mudança de modelo econômico em curso no mundo. Desde a primeira revolução industrial, nossa sociedade vem se organizando (sim, os modelos econômicos determinam a forma como a sociedade é) com base em um modelo mental fundamentado em processo de manufatura. É inegável que o modelo industrial estimulou o desenvolvimento tecnológico, social e cultural dos últimos três séculos e modificou a forma como pensamos e enxergamos nosso lugar no mundo. Mas também sedimentou na nossa cabeça, o conceito de que fazemos parte de um processo industrial que tem começo, meio e fim – estudamos, trabalhamos e aposentamos; recebemos estudo fundamental, médio e superior; trabalhamos produzindo insumos, produtos manufaturados ou serviços agregados; namoramos, casamos e temos filhos – os exemplos são inúmeros, a similaridade deles está no seu modelo de processo por etapas.

Embora o modelo industrial esteja em “nosso sangue”, o que possibilitou as revoluções industriais – pelo menos na sociedade ocidental – foram os conceitos iluministas de produção de conhecimento (e que levaram à mudança social máxima da sociedade contemporânea: a separação de Igreja e Estado). A produção do conhecimento, neste estágio, atuou como produto de base da indústria – era encarado como um insumo ou recurso para o fim maior: a produção industrial.

Esta lógica vem se modificando há pelo menos 25 anos. A produção do conhecimento vem deixando de ser um acessório do modelo econômico para se tornar a razão do próprio modelo econômico (talvez o maior exemplo da margem de lucro permitida pela produção do conhecimento seja a Apple com o IPhone – gastou algumas dezenas de milhões de dólares no seu desenvolvimento e faturou em retorno bilhões das “verdinhas” americanas). Cada vez mais, a capacidade de produção de propriedade intelectual vem se tornando a habilidade principal desejada por empresas e o que determina que selecionem alguns candidatos e não outros (isto vem inclusive modificando o processo seletivo em algumas áreas – um exemplo é o processo seletivo da empresa The Information Lab, que paga uma bolsa para os candidatos participarem de um curso de 4 meses e fecha contrato com os que mostrarem as melhores performances quanto à capacidade de produção de propriedade intelectual). É claro que esta é ainda uma realidade distante do Brasil, mas em algum momento teremos que nos inserir neste contexto sob o risco de ficarmos muito (mas muito) para trás.

Desta forma, estamos passando de um modelo econômico focado em produção manufatureira para outro baseado em produção de propriedade intelectual. E a Inteligência Artificial é o diamante desta coroa – afinal ela congrega o que pode vir a ser a própria definição do trabalho do futuro: alta capacidade de cognição humana sendo potencializada pela alta capacidade de cognição artificial.

Quanto à elucidação que prometi, a verdade é que não há uma definição precisa e universalmente aceita para Inteligência Artificial. Curiosamente, foi exatamente por falta desta definição que o campo de estudos floresceu. Ainda assim, uma definição é importante e o professor de ciência da computação, Nils J. Nilsson (Nilsson, Nils J. “The Quest for Artificial Intelligence: A History of Ideas and Achievements”. Cambridge University Press, 2010) fornece uma útil: “a inteligência artificial é a atividade dedicada a fazer máquinas inteligentes. Inteligência é a qualidade que permite que uma entidade possa funcionar de forma adequada e com clarividência no seu ambiente”.

Desta perspectiva, caracterizar IA depende muito do que o ser-humano está disposto a considerar “funcionamento adequado” e “clarividência” em se tratando de hardwares e softwares. Uma simples calculadora eletrônica faz cálculos muito mais rápidos do que o cérebro humano e com muito menos erro. Uma calculadora eletrônica é inteligente? Para responder, precisamos deixar de lado o nosso modelo mental industrial e entender inteligência em um espectro multidimensional (isto quer dizer que há mais do que um tipo de inteligência – vide Howard Gardner).

De acordo com esta visão, a diferença entre uma calculadora eletrônica e um cérebro humano não é de espécie, mas de escala, velocidade, grau de autonomia e generalidade. Estes mesmos fatores podem ser usados para avaliar qualquer instância de inteligência (obviamente, o que o ser-humano considera como inteligência), seja ela natural, artificial (e quem sabe um dia, extraterrestre) e posicioná-la adequadamente dentro do espectro. Softwares de reconhecimento de voz, de geoposicionamento, de controle de navegação de veículos, de termostatos, de jogos go-play (tipo Pokemon) – dentre outros – têm sua inteligência avaliada da mesma forma como a inteligência humana o é. Aprendizagem de máquinas (o machine learning), por exemplo, é avaliada da mesma maneira como é a capacidade cognitiva humana: pela taxinomia de Bloom.

Notavelmente, a caracterização de inteligência como um espectro não concede nenhum status especial ao cérebro humano. Mas é preciso reconhecer que até o presente momento, a inteligência humana não tem correspondência na biologia e nos mundos artificiais em relação à sua pura versatilidade e habilidade para “raciocinar, alcançar objetivos, compreender e gerar linguagem, perceber e responder a estímulos sensoriais, provar teoremas matemáticos, jogar jogos desafiadores, sintetizar e resumir informações, criar arte e música, e até mesmo escrever histórias” (novamente utilizo as palavras do Nilsson).

O grande desafio que uma definição de Inteligência Artificial encontra para se sedimentar na sabedoria popular, é a eterna perda da reivindicação em relação às suas conquistas. Este é um padrão que constantemente se repete desde que o campo surgiu (também conhecido como “efeito IA” ou “paradoxo estranho”).  Ocorre da seguinte forma, IA traz à tona uma nova tecnologia, as pessoas se acostumam a esta tecnologia, ela deixa de ser considerada Inteligência Artificial e um novo “mercado” surge. Talvez seja por esta razão que a ideia de IA no imaginário popular esteja relacionada ao conceito de ex-machina. Ex-machina é o santo graal da Inteligência Artificial, o seu objetivo máximo. Criar uma forma de inteligência que se aproxime tanto, mas tanto da inteligência humana, que tenhamos de parar de considerá-la máquina e classificá-la como alguma outra coisa.

Inteligência Artificial e os próximos 100 anos

setembro 8, 2016 § 4 Comentários

ia_1.jpg

Em 2014 foi lançado o “Estudo de 100 anos para a Inteligência Artificial”, por uma espécie de consórcio formado por universidades de ponta dos EUA, Canadá e Índia e pelos departamentos de pesquisa de empresas de tecnologia. Para “tocar o trabalho” foram formados um comitê administrativo para cuidar da organização e gerenciamento do estudo (afinal a ideia é que dure pelo menos 100 anos) e um painel de especialistas destinados a analisar o que tem sido feito na área e tentar prever os caminhos e os impactos da Inteligência Artificial no futuro da humanidade.

Há poucos dias foi liberado o primeiro relatório produzido pelo estudo, com os potenciais avanços que se têm pela frente e os desafios e as oportunidades que esses avanços trazem para os campos da ética, economia, tecnologia, ciências sociais e da cognição humana (mais sobre o projeto, pode ser encontrado no site criado pela Universidade de Stanford).

Sei que a primeira pergunta que provavelmente vem à mente é “o que isto tem a ver com a gente”? Bom, levando em consideração como o campo da IA vem se desenvolvendo nos últimos 70 anos – desde a publicação do texto “Computing Machinery and Intelligence” pelo matemático Alan Turing – e pelas perspectivas que traz para campos como transporte, saúde, educação e relações sociais e humanas (em especial o impacto no emprego e locais de trabalho), ter pelo menos uma indicação do que pode vir por aí é uma excelente ferramenta para ajudar na definição de políticas públicas e estratégias de ações dos próprios indivíduos no sentido de se adequarem à uma realidade que tende a ser bem diferente da atual.

Duas áreas em especial me chamam a atenção, “emprego e ambiente de trabalho” e “educação” (principalmente a última). Abordá-las na íntegra em um texto é impossível, portanto pretendo dar uma pequena introdução neste e comentar mais detalhadamente em textos futuros.

No quesito emprego e ambiente de trabalho, IA tende a substituir certos tipos de ocupações que envolvam controles repetitivos ou tarefas de rotina, por conta do impacto esperado em outras áreas – como por exemplo a relação transportes e condução de veículos automotores. Espera-se que as máquinas substituam as pessoas mais nas tarefas do que nos empregos propriamente ditos. No entanto, crescendo o espectro de tarefas que os sistemas digitais podem fazer e com a evolução dos sistemas de Inteligência Artificial, é possível que também cresça o escopo do que é considerado “de rotina”. Não se descarta a hipótese de se incluir serviços profissionais que historicamente não são realizados por máquinas. Desta forma, é possível que seja necessário pensar em “redes de segurança” sociais que protejam as pessoas de impactos muito profundos na economia, em um movimento muito parecido com o que ocorreu entre as décadas de 30 e 50 do século passado.

O impacto em educação tende a envolver uma dose de interação mais fluida entre máquinas e humanos. Embora seja consenso de que educação em alto nível envolva necessariamente relações humanas, com a de “mestre” e “aprendiz” – o que faz com que a profissão de “professor” seja uma das menos “ameaçadas” por sistemas digitais – ela é, simultaneamente, uma das que possuem maior possibilidade de ser “impactada” pelo uso de “máquinas” no seu “ambiente de trabalho”, principalmente pela possibilidade de “escalabilidade” da personalização. Tutoriais conduzidos por máquinas já são usados para ensinar alunos em áreas como matemática e programação. Máquinas com capacidade de processar linguagem natural (e não codificada), alinhadas com algoritmos de machine learning, têm impulsionado cursos que envolvem a aprendizagem formal e a autoaprendizagem integradas e professores com habilidade de “multiplicar” o tamanho de suas salas de aula, ao mesmo tempo que tem capacidade de abordar simultaneamente as necessidades de aprendizagem e os estilos individuais dos estudantes. Os responsáveis por isto são os sistemas de aprendizados online e os learning analytics (que usam dados coletados dos próprios sistemas online para analisar a performance e a evolução dos alunos e oferecer insights).

As tendências na área de machine learning (o aprendizado de máquinas, que se tornou uma das bases da Inteligência Artificial) é um bom indicativo do que pode vir por aí. Termos como deep learning, aprendizado de larga escala de máquinas (large-scale machine learning), visão do computador (computer vision) e aprendizado por reforço (reinforcement learning) devem se tornar mais comuns e populares a exemplo de data analytics e big data (que também são usados para instigar o desenvolvimento da Inteligência Artificial). Este tópico, aliás, é um bom começo para entender o que vem por aí. Mas este já é um assunto para um próximo “papo”. Por enquanto, convido a quem quiser, que compartilhe seus pensamentos, medos ou esperanças em relação ao que foi comentado até o momento. Sei que esse tipo de assunto, ao mesmo tempo em que é fascinante, é controverso. Portanto ter ideia de como é entendido pelos que me leem, me ajudará no desenvolvimento da abordagem dos próximos textos.

Inteligência Digital

setembro 1, 2016 § Deixe um comentário

kid_300.jpg

Não é segredo que temos passado cada vez mais tempo na companhia de aparelhos digitais, seja profissionalmente ou como entretenimento. Para evitar simplificações, vou utilizar a definição dada pelo departamento de ciência computacional e da informação do Brooklyn College para o tipo de equipamento – “é o conjunto de aparelhos que convertem informações em números e permitem seu armazenamento, transporte e compartilhamento”. Estamos “falando” de smartphones, computadores e tablets – mas também de tecnologias mais “antigas” como telégrafo, calculadora, relógio de pulso ou telefone fixo.

Este é um fato que transcende faixa etária. Crianças, por exemplo, passam em média, sete horas diárias em frente a alguma tela digital – segundo artigo da Academia Americana de Pediatria. Para efeito de comparação, é mais tempo do que passam na escola ou em companhia dos pais. Mais do que isto, existe ainda a lacuna – chamada de gap geracional digital – em relação à percepção e uso da tecnologia digital. Crianças e adultos a percebem de forma diferente e esta diferença é hoje o maior “desafio” enfrentado por pais e educadores em relação ao que é apropriado fazer em termos de “educação digital” e mesmo em torno do que é considerado um comportamento aceitável no mundo online.

Alguns conceitos têm surgido para ajudar no entendimento desta realidade. Alguns deles têm saído da academia para assumir a forma de propostas e iniciativas que efetivamente contribuam para a educação dos seres-humanos do século XXI. Uma delas, envolve o conceito de Inteligência Digital e da sua métrica proposta, chamada de coeficiente de inteligência digital.

Inteligência Digital é o conjunto de habilidades sociais, emocionais e cognitivas que permitem aos indivíduos desenvolverem a capacidade necessária para enfrentar os desafios e se adaptar às exigências da vida digital. Essas habilidades podem ser genericamente divididas em oito áreas interligadas. Minha intenção é apresentar rapidamente cada uma delas.

Identidade digital, é a capacidade que um indivíduo tem de criar e gerenciar a sua identidade e reputação digital. Isto inclui a consciência a respeito da sua persona online e a gestão do impacto, em curto e longo prazo, da sua presença na internet.

Uso digital, é a capacidade de usar aparelhos e suportes digitais, incluindo a habilidade de encontrar um equilíbrio saudável entre a vida online e offline. Vale reforçar que este equilíbrio é individual – cada um define o seu – embora as consequências de extrapolá-lo possam ser percebidas de maneira coletiva, como por exemplo, distúrbios psicológicos.

Segurança digital, é a capacidade de “gerenciar” os riscos online, por exemplo, cyberbullying, aliciamento, catfishing (para quem não está familiarizado com a definição, catfish corresponde à pessoa que assume uma falsa identidade na internet), bem como lidar com conteúdos “problemáticos” (como violência e obscenidade). Em resumo, é a habilidade para evitar ou limitar esses riscos.

Proteção digital, é a capacidade de detectar ameaças virtuais (como pirataria, fraudes, malware), entender as melhores práticas de utilização dos conteúdos disponibilizados (conceitos como o de curadoria digital, por exemplo) e do uso das ferramentas de segurança adequadas à proteção de dados.

Inteligência emocional digital, é a capacidade de ser compreensivo e construir boas relações com os outros online.

Comunicação digital, é a capacidade de se comunicar e colaborar com outras pessoas, usando tecnologias digitais e de mídia.

Alfabetização digital, é a capacidade de encontrar, avaliar, utilizar, compartilhar e criar conteúdo digital (novamente envolvendo o conceito de curadoria), bem como a competência em programação computacional e raciocínio lógico, além do desenvolvimento do pensamento crítico.

Direitos digitais, é a capacidade de compreender e defender os direitos pessoais e coletivos, nomeadamente os direitos à privacidade, propriedade intelectual, liberdade de expressão e proteção contra discursos de ódio.

Bom, se prestarmos bem atenção, veremos que a raiz da Inteligência Digital são os valores bem humanos do respeito, empatia, prudência e cidadania – desejáveis em qualquer sociedade. Quem se interessar e quiser implementar o modelo, sugiro a plataforma digital izhero.net, até 31 de dezembro a adesão a ela é gratuita.

Quem se interessar em explorar conceitualmente o assunto, sugiro procurar a seguinte bibliografia.

Barlett, C. P., Gentile, D. A., & Chew, C. (2014). Predicting cyber-bullying from anonymity. Psychology of Popular Media Culture.

Gentile, D. A. (2013). Catharsis and media violence: A conceptual analysis. Societies, 3, 491–510;

Gentile, D. A., Choo, H., Liau, A., Sim, T., Li, D., Fung, D., & Khoo, A. (2011). Pathological video game use among youth: A two-year longitudinal study. Pediatrics, 127, e319-329.

Gentile, D. A., Reimer, R. A., Nathanson, A. I., Walsh, D. A., & Eisenmann, J. C. (2014). A prospective study of the protective effects of parental monitoring of children’s media use. JAMAPediatrics, 168, 479-484 doi:10.1001/jamapediatrics. 2014.146

Maheshwari, Anil. (214). Data Analytics Made Accessible.

Maier, J. A., Gentile, D. A., Vogel, D., & Kaplan, S. (2014). Media influences on self-stigma of seeking psychological services: The importance of media portrayals and person perception. Psychology of Popular Media Culture.

Mithas, Sunil. (2012). Digital Intelligence: What Every Smart Manager Must Have for Success in an Information Age. Finerplanet.

Ostrov, J., Gentile, D. A., & Mullins, A. D. (2013). Evaluating the effect of educational media exposure on aggression in early childhood. Journal of Applied Developmental Psychology, 34, 38-44.

Prot, S. & Gentile, D. A. (2014). Applying risk and resilience models to predicting the effects of media violence on development. Advances in Child Development and Behavior, 46, 215-244.

Tsunami digital

agosto 25, 2016 § Deixe um comentário

tech_world.jpeg

Confesso que queria encontrar um título mais impactante – pensei mesmo em chamar de “a quarta revolução industrial” – mas creio que a comparação seria limitada (e incoerente com a observação sociológica que indica a mudança de uma sociedade industrial para uma sociedade baseada no conhecimento). Procurando por uma metáfora, fiquei com a definição do Klaus Schwab (presidente do Fórum Econômico Mundial) – tsunami – se vê pequenos sinais à beira-mar e de repente a onda gigante te engolfa. O mundo digital do futuro (próximo), conduzido pela inteligência artificial, internet das coisas e (não canso de repetir, o cada vez mais famoso) big data têm promovido mudanças tão rápidas e densas que pode ser difícil dar um passo atrás e tentar entender o fenômeno. De fato, as transformações têm um potencial tão esmagador, que ao invés de surfar as ondas, podemos, de repente, nos encontrar “levando um caldo”.

Recomendo a leitura do relatório “Technology Tipping Points and Societal Impact”, publicado pelo Fórum Econômico Mundial, com as tendências, cronograma e o impacto esperado na sociedade promovido pelos 3 condutores mencionados no parágrafo anterior. Quem quiser se preparar para a leitura das 44 páginas do relatório, faço um apanhado geral a seguir do que consta nele. Antes, penso ser necessário dar uma pequena explicação a respeito do motivo pelo qual se “bate” tanto na tecla da importância da tecnologia.

A palavra-chave do “mundo” em que vivemos hoje é interconexão. “Globalização”, “sociedade pós-moderna” e outros termos obscuros que se encontra por aí, tem na sua semântica a integração – seja ela de mercados, de pessoas, de culturas, de países, etc. Tudo é interligado: tecnologia, segurança, crescimento econômico, sustentabilidade e identidades culturais. A mudança tecnológica não é um fenômeno isolado, faz parte de um ecossistema complexo que compreende negócios, ações governamentais e as suas dimensões sociais. Por exemplo, para um país fazer um ajuste para o novo tipo de competição orientada pela inovação e criação de propriedade intelectual, todo o ecossistema tem de ser considerado – não é à toa que no ano passado a Finlândia reformulou o seu sistema educacional com foco no estímulo ao autoaprendizado e embasado principalmente pelo uso da tecnologia e o acesso à internet. Então, se algo muda (ou está mudando constantemente) como no caso da tecnologia, todo o sistema precisa se adaptar para manter-se sustentável.

Sem mais delongas, o que o relatório aponta pode ser resumido, “Zagallomicamente”, em 13 pontos principais:

1) Tecnologias usáveis e implantáveis: alguém se recorda dos tijolões que eram os celulares nos anos 90? E dos diminutos do início dos anos 2000? Por volta de 2025 podemos olhar os smartphones da mesma maneira. Há um certo consenso de que os primeiros celulares implantáveis estarão disponíveis no mercado dentro de 9 anos. Há mais consenso ainda em relação às roupas conectadas à internet.

2) Presença digital: há uns 15 anos, ter “presença” digital significava possuir uma conta de e-mail. Hoje, até nossos avós possuem um login no Facebook, no Twitter ou mesmo um site pessoal. Em 10 anos, cerca de 90% das pessoas no mundo terão alguma forma de presença digital. Com isto, pode-se concluir que 90% da população mundial estará conectada na internet. Não é pouca coisa em relação ao conceito de interconexão que comentei anteriormente.

3) A visão como nova interface: não sei quantos dos que me leem usam óculos. Eu pessoalmente, os uso desde os 13 anos. O que meus olhinhos míopes não esperavam é pela informação de que por volta de meados da próxima década, 10% de todos os óculos do mundo também estarão conectados à internet. Isto quer dizer acesso a apps (ou o que for a onda na época) literalmente ao alcance da vista. Também significa acesso e produção de dados em movimento.

4) Computação onipresente: esta tem a ver com a presença digital (ponto 2). É uma informação complementar. Hoje, por volta de 57% das pessoas do mundo estão conectadas à internet. 90% de conexão também significa a presença quase total dos computadores na vida do ser-humano. Não é por acaso que a inteligência artificial tem estado cada vez mais no centro da atenção de quem cria propriedade intelectual e que conceitos como machine learning, ex-machina e similares veem se tornando pop.

5) Tecnologia móvel: em português brasileiro, “combinamos” de chamar os telefones celulares de “celulares”. Mas em outras praias eles são chamados de telefones móveis e chamo a atenção para a palavra “móvel”. A mobilidade elevou a internet a outro patamar, e não vai perder força ou importância no futuro próximo. Pode-se esperar dispositivos mais sofisticados, mas sempre permitindo mobilidade.

6) Armazenamento para “geral”: em carioquês, para “geral” quer dizer para todos. Em 10 anos, 90% dos que tem acesso à internet, também terão armazenagem ilimitada e gratuita nas “nuvens”. Daqui a pouco quase ninguém terá que se preocupar em apagar foto ou vídeo porque acabou o “espaço” no celular.

7) A internet das coisas e para as coisas: óculos, roupas, eletrodomésticos e acessórios. Durante a próxima década, a previsão é que haja 1 trilhão de sensores conectados ao que usamos normalmente. Espera-se que estes sensores nos ajudem a melhorar a segurança (de alimentos à aviões), aumentar a produtividade (o que quer que isto signifique) e nos ajudar a administrar nossos recursos de maneira mais eficiente e sustentável (mesmo porque sempre precisamos de uma utopia).

8) Cidades e casas inteligentes: alguns hoje já são afortunados o suficiente para ter um ou outro eletrodoméstico conectado à internet (tipo uma smart TV ou um sistema de som). As previsões para a próxima década é levar cerca de 50% do tráfego de internet de uma residência para dispositivos ou aparelhos domésticos como frigideiras, geladeira, ar-condicionado, sistemas de segurança, dentre outros. O impacto em cidades deve-se dar principalmente no controle de sinais de trânsito e transporte público.

9) Big data significa big insight: praticamente todos os países do mundo promovem censos governamentais, mas eles são todos mais ou menos da mesma maneira – ou o cidadão recebe pelos correios ou vai um funcionário até a residência. A previsão é que até 2025, pelo menos 1 governo no mundo já tenha substituído seu processo de recenciamento por análise de dados em fontes geradoras ou armazenadoras de big data.

10) Robôs e o ambiente de trabalho: não é segredo de que algumas indústrias funcionam a base de robôs, mas o quanto deles estarão presentes no ambiente de trabalho, digamos, mais administrativo? Há uma previsão de que nos próximos 10 anos, cerca de 30% das auditorias corporativas sejam feitas por robôs. Alguns acreditam que seja também possível lançar neste prazo o primeiro farmacêutico robô.

11) Moeda digital: hoje cerca de 0, 025% do PIB mundial é negociado via blockchain (quem não está habituado com o termo, é uma espécie de “livro-razão” – ou razonete – em que se registra as transações em bitcoin ou similares). Alguns acreditam que esta porcentagem possa chegar a 10% do PIB mundial até 2025 (embora não seja muito crível). Mas muito provavelmente algum governo já estará coletando impostos via blockchain.

12) Economia compartilhada: em 2013 quando a consultora April Rinne causou “furor” em Davos ao falar sobre economia compartilhada (ou economia circular), pouca gente tinha familiaridade com o termo. Hoje, Uber e Airbnb fazem parte do clube do bilhão. Esta tendência não deve perder força na próxima década.

13) Impressora 3D: é considerada um dos “pilares do futuro da manufatura”. O epíteto já diz tudo. Acredita-se que em 10 anos, 5% dos manufaturados serão “impressos” em 3D.

Sei que o texto é longo, se você chegou até aqui, agradeço pela companhia.