Inteligência Artificial e a Educação

outubro 27, 2016 § Deixe um comentário

35061-robot-te_article.jpg

Como retrospectiva, sugiro a leitura dos textos anteriores sobre o assunto. O primeiro, a respeito do “Estudo de 100 anos para a Inteligência Artificial”; o segundo, referente à definição do que é IA; o terceiro, abordando as tendências; e o quarto a respeito do impacto no mercado de trabalho. Este é o último texto da série e aborda um dos temas mais estratégicos, pelo menos no meu entendimento, na priorização do planejamento de pessoas, organizações e países: a educação.

Dediquei boa parte da minha carreira à área de educação corporativa – sou um daqueles caras de “treinamento” que boa parte dos que trabalham em empresas de médio e grande porte já deve ter cruzado por aí. Sei que muitos “torcem o nariz” para o uso do termo “educação” em associação com a palavra “corporativa”, mas a verdade é que, com a já conhecida (enorme) lacuna na qualidade da formação educacional em nosso país, boa parte das empresas decidiu investir elas mesmas na formação do funcionário, muitas vezes indo além de conhecimentos e habilidades específicas para o seu negócio e ajudando-os em formação básica. Desta forma, em minha opinião, contribuindo para a própria educação do brasileiro. Para atuar neste ambiente, passei anos “consumindo” tudo o que pude encontrar em relação a métodos educacionais. Quando comecei a “me envolver” com machine learning, tive a grata surpresa de perceber que muitos dos conceitos que aprendi a respeito do aprendizado de gente, podia também ser aplicado ao aprendizado de máquinas. Faço esta introdução apenas para contextualizar a minha relação com o tema.

Desde os projetos Lego Mindstorms, desenvolvidos pelo MIT Media Lab a partir dos anos 1980, robôs têm se tornado ferramentas educacionais populares. Cabe aqui atribuir o crédito devido ao matemático Seymour Papert, guru de muita gente (inclusive meu), por conta do seu trabalho envolvendo o uso de tecnologias no aprendizado de crianças desde os anos 1960. Papert foi fundamental para o desenvolvimento do conceito de aprendizado multimídia, hoje parte integrante das teorias do aprendizado, assim como na evolução do campo da Inteligência Artificial.

Este caldo de ideias estimulou o desenvolvimento de diferentes frentes de atuação da IA aplicada à educação. É importante deixar claro, desde já, que nenhuma destas frentes descarta a importância da participação do ser-humano como vetor do ensino. Como citei no texto anterior, referente ao impacto no mercado de trabalho, IA pode aumentar o escopo do que é considerado tarefa de rotina, mas definitivamente o papel do professor não está entre elas. Ferramentas como os Intelligent Tutoring Systems (ITS), campos de atuação como Natural Language Processing ou aplicativos como os de Learning Analytics têm como objetivo ajudar os professores em sala de aula e em casa, expandir significativamente o conhecimento dos alunos. Com a introdução da realidade virtual no repertório educacional, por exemplo, o impacto da Inteligência Artificial no aprendizado do ser-humano deve ser de tal ordem que “periga” alterar a forma como o nosso cérebro funciona (é claro que este impacto ainda é suposição). Creio que a melhor maneira de abordar este assunto, é por meio de exemplos. Vou associá-los aos tópicos principais de IA aplicada à educação. Sempre que o exemplo vier acompanhado de um link, pode clicar. São informações adicionais sobre o assunto ou vídeos tutoriais sobre alguma ferramenta. Se por acaso ocorrer algum rickrolling, me avisem.

Robôs tutores

Ozobot, é um robozinho que ajuda crianças a entenderem a lógica por detrás da programação e a raciocinar de maneira dedutiva. Ele é “configurando” pelas próprias crianças, por meio de padrões codificados por cores, para dançar ou andar. Já os Cubelets auxiliam a criança a desenvolver o pensamento lógico através da montagem de blocos robôs, cada um com uma função específica (pensar, agir ou sentir). Os Cubelets têm sido usados para estimular o aprendizado de STEM.

Dash, é o robô oferecido pela Wonder Workshop, que permite apresentar crianças (e adultos) à robótica. É possível programar as ações do robô por meio de uma linguagem de programação visual desenvolvida pela Google, chamada Blockly ou mesmo construir apps para iOS e Android, usando linguagens mais parrudas como C ou Java.

Por fim, o PLEO rb é um robô de estimação, criado para estimular o aprendizado de biologia. A pessoa pode programar o robô para reagir a diferentes aspectos do ambiente.

Intelligent Tutoring Systems (ITS)

Os ITS começaram a ser desenvolvidos no final do século XX por vários centros de pesquisa, para auxiliar na resolução de problemas de física. A sua força sempre esteve na sua capacidade de facilitar o “diálogo” humano-máquina. Ao longo destas primeiras décadas do século XXI, começou a ser utilizado para o ensino de línguas. Carnegie Speech e Duolingo são exemplos da sua aplicação, utilizando o Automatic Speech Recognition (ASR) e técnicas de neurolinguística para ajudar os alunos a reconhecerem erros de linguagem ou pronúncia e corrigi-los.

Também têm sido usados para auxiliar no aprendizado de matemática, o Carnegie Cognitive Tutor foi adotado por escolar norte-americanas para este fim. Outros similares (Cognitive Tutors) são usados para o aprendizado de química, programação, diagnósticos médicos, genética, geografia, dentre outros. Os Cognitive Tutors são ITS que usam softwares que imitam o papel de um professor humano, oferecendo dicas quando um estudante fica com dificuldade em algum tópico, como por exemplo, um problema de matemática. Com base na pista solicitada e a resposta fornecida pelo aluno, o “tutor” cibernético oferece um feedback específico, de acordo com o contexto da dúvida.

Um outro ITS chamado SHERLOCK, desde o final da década de 1980 ajuda a Força Aérea Americana a diagnosticar problemas no sistema elétrico de suas aeronaves. Quem quiser conhecê-lo mais, sugiro este paper publicado nos primórdios da internet (não se assustem com o design).

Mas as grandes “estrelas” na constelação dos ITS são definitivamente os MOOCs (Massive Open Online Courses). Ao permitirem a inclusão de conteúdos via Wikipedia e Khan Academy e de sofisticados Learning Management Systems (LMS), baseados tanto em modelos síncronos (quando há prazos para conclusão de cada fase do curso) quanto modelos assíncronos (quando o aprendiz vai no seu ritmo), os MOOCs têm se tornado a ferramenta de aprendizagem adaptativa mais popular.

EdX, Coursera e Udacity são exemplos de MOOCs que se “alimentam” de técnicas de machine learning, neurolinguística e crowdsourcing (também conhecida em português como colaboração coletiva) para correção de trabalhos, atribuição de notas e desenvolvimento de tarefas de aprendizado. É bem verdade que a educação profissional e a de ensino superior são as maiores beneficiárias deste tipo de ITS (em comparação com os ensinos básico, médio e fundamental). A razão disto, é que o público delas, até mesmo por ser geralmente composto por adultos, tem menos necessidade de interação cara-a-cara. Espera-se que com um maior estímulo ao desenvolvimento da habilidade de metacognição, os benefícios oferecidos por estas plataformas possam ser distribuídos mais democraticamente.

Learning Analytics

Também já se sente o impacto do Big Data em educação. Todas as ferramentas apresentadas geram algum tipo de log ou algum tipo de registro de dado. Assim como aconteceu no mundo corporativo com BI (Business Intelligence) e BA (Business Analytics), a geração maciça de dados advindos da integração de IA, educação e internet, fez surgir a necessidade de se entender e contextualizá-los para melhor aproveitar as oportunidades e insights potencializados por eles.  Com isto, o campo chamado Learning Analytics tem observado um crescimento em velocidade supersônica.

A bem da verdade, é que cursos online não são apenas bons para a entrega de conhecimento em escala, são veículos naturais para a armazenagem de dados e a sua instrumentalização. Deste modo, o seu potencial de contribuição para o desenvolvimento científico e acadêmico é exponencial. O aparecimento de organizações como a Society for Learning Analytics Research (SOLAR) e de conferências como a Learning Analytics and Knowledge Conference organizada pela própria SOLAR e a Learning at Scale Conference (L@S), cuja edição de 2017 será organizada pelo MIT, refletem a importância que está se dando a este assunto em outras “praias”. IA tem contribuído para a análise do engajamento do aprendiz, seu comportamento e desenvolvimento educacional com técnicas state-of-the-art como deep learning e processamento de linguagem natural, além de técnicas de análise preditivas usadas comumente em machine learning.

Projetos mais recentes no campo de Learning Analytics têm se preocupado em criar modelos que captem de maneira mais precisa as dúvidas e equívocos mais comuns dos aprendizes, predizer quanto ao risco de abandono dos estudos e fornecer feedback em tempo real e integrado aos resultados da aprendizagem. Para tanto, cientistas e pesquisadores de Inteligência Artificial têm se dedicado a entender os processos cognitivos que envolvem a compreensão, a escrita, a aquisição de conhecimento e o funcionamento da memória e aplicar este entendimento à prática educacional, com o desenvolvimento de tecnologias que facilitem o aprendizado.

O mais incauto pode se perguntar por que com tecnologias de IA cada vez mais sofisticadas e com o aumento do esforço no desenvolvimento de soluções específicas para educação, não há cada vez mais escolas, colégios, faculdades e universidades os utilizando?

Esta resposta não é fácil e envolve diversas variáveis. A primeira delas está relacionada ao modelo mental da sociedade e ao quanto esta sociedade preza o conhecimento. Há locais em que a aplicação da IA em educação está mais avançada, como por exemplo a Coreia do Sul e a Inglaterra e outros em que já se está fazendo um esforço concentrado para tal, como por exemplo Suíça e Finlândia. Não por acaso, são países em que há bastante produção de propriedade intelectual. A segunda delas, envolve o domínio na geração do conhecimento e na sua aplicação em propriedade intelectual. Nesta variável, segue imbatível os EUA, que são responsáveis por boa parte do conhecimento produzido pelo ser-humano. Novamente, não por acaso, são os líderes no desenvolvimento do campo de IA. A terceira variável, como não poderia deixar de ser, é o custo. Não é barato e como dinheiro é um recurso escasso em qualquer lugar (em uns mais do que em outros, claro) é preciso que haja uma definição da sociedade em questão quanto às suas prioridades para se fazer este investimento. A quarta, está ligada ao acesso aos dados produzidos por estas iniciativas educacionais e as conclusões geradas. Embora haja fortes indícios de que a tecnologia impulsionada pela IA realmente impacta positivamente no aprendizado, ainda não há conclusões objetivas em relação ao tema – muito por conta da sua recência. E como o investimento é alto, são poucos os que topam ser early adopters.

De qualquer forma fica a questão, vale a pena? Quanto a isto, gosto de citar meu ex-chefe, Edmour Saiani. Sempre quando perguntado se devíamos treinar alguém, ele respondia: “se lembre que o problema nunca é você treinar a pessoa e ela sair da empresa, o problema é você não treinar e ela ficar”. Neste tipo de caso, não fazer nada é a pior opção.

Inteligência Artificial e o mercado de trabalho

outubro 7, 2016 § 1 comentário

artificial.intelligence.2025.jpg

Como retrospectiva, sugiro a leitura dos textos anteriores sobre o assunto. O primeiro, a respeito do “Estudo de 100 anos para a Inteligência Artificial”; o segundo, referente à definição do que é IA; e o terceiro, abordando as tendências. Pretendo dedicar este e o próximo à análise do impacto em duas áreas de grande interesse: o emprego e ambiente de trabalho e a educação.

O mercado de trabalho tem sido historicamente influenciado pela Inteligência Artificial via tecnologias digitais que permitem a criação de rotinas ou automação de tarefas como planejamento de utilização de recursos, sistemas de informação e análise para supply chain, CRM ou knowledge management systems, dentre outros. Por conta deste enfoque em rotina, trabalhos de nível médio têm sido mais impactados do que os de nível alto e baixo. Vale lembrar que estes “níveis” se referem à habilidade necessária para realizar uma tarefa, que por sua vez, se reflete em nível de escolaridade. Um bom modo de visualizar esta realidade é pelos gráficos publicados pelo The New York Times em 2014, mostrando como a recessão havia impactado a economia e modificado o mercado de trabalho (são 255 gráficos interativos que dão um panorama bem abrangente e que podem ser acessados por este link).

Como comentei no primeiro texto desta série, acredita-se que IA possa aumentar o escopo do que é considerado tarefa de rotina. Um exemplo neste sentido nos é dado pelos pesquisadores Dana Remus (University of North Carolina) e Frank S. Levy (M.I.T.), no artigo acadêmico “Can Robots Be Lawyers? Computers, Lawyers, and the Practice of Law”. Como já se intui pelo título, trata-se do impacto atual de IA na automação de algumas práticas jurídico-legais, como a permitida por algoritmos que fazem extração de informações de processos jurídicos e topic modeling – é o termo usado para a tarefa de descobrir e registrar uma grande quantidade de arquivos e documentos com base em informações temáticas pré-definidas – vale dizer que é feito através de métodos estatísticos que analisam as palavras dos textos originais para descobrir seus temas, como estes temas estão ligados uns aos outros e como eles mudam ao longo do tempo. Isto tem influenciado o tipo de trabalho feito por advogados recém-formados nos EUA, que anteriormente começavam as suas carreiras fazendo, guardadas as devidas proporções, o que estes algoritmos fazem hoje.

Também é esperado que IA possa influenciar no tamanho e na localização da força de trabalho. Muitas organizações são grandes porque precisam realizar funções que são escalonáveis apenas pela adição de recursos humanos – seja “horizontalmente” em mais áreas geográficas, seja “verticalmente” em níveis hierárquicos. Ao realizar mais funções, a Inteligência Artificial muda a definição do que significa escalonar, não a relacionando mais a aumento de “tamanho”. Mas nem tudo é ameaça, IA também deverá criar postos de trabalho, especialmente em setores que necessitam de propriedade intelectual, fazendo com que certas tarefas fiquem mais importantes e criando novas categorias de emprego ao permitir novos modos de interação.

Sistemas de informação cada vez mais sofisticados (sobre o assunto recomendo muito o livro de Laudon & Laudon, “Management Information Systems”, já na sua 13ª edição) têm sido usados para criar novos mercados e reduzir barreiras de entrada, permitindo o surgimento de apps como Airbnb e TaskRabbit, por exemplo. Uma comunidade crescente de pesquisadores tem se dedicado exclusivamente a estudar como se pode usar a IA na criação de novos mercados e em como fazer os mercados atuais operarem de maneira mais eficiente, levando a crer que a sua influência, muitas vezes disruptiva, está apenas no seu início.

Apesar da IA poder reduzir o valor de bens de consumo e serviços (ao realizar tarefas que necessariamente demandariam um ser-humano) e desta forma contribuir para o aumento da capacidade de consumo individual, é inegável que a possível redução de vagas de trabalho levanta mais preocupação do que os ganhos econômicos difusos. Com isso, IA acaba sendo “culpada” mais por ameaçar o emprego do que bem vista pela sua capacidade de melhorar a qualidade de vida.

É verdade, porém, que gradualmente o avanço na inteligência de máquinas irá permiti-las “invadir” a maioria dos mercados de trabalho, exigindo uma mudança no tipo de atividade realizada por humanos e que os computadores serão capazes de assumir. Acredita-se que os efeitos econômicos da IA sobre os chamados empregos humanos cognitivos (aqueles considerados anteriormente na era industrial como “trabalho de escritório”) será análogo aos efeitos da automação e robótica no trabalho de fabricação industrial, em que operários acabaram perdendo empregos mesmo possuindo conhecimentos técnicos, muitas vezes especializados, perda esta que impactou negativamente em seu status social e na sua capacidade de prover para suas famílias. Com a mão-de-obra se tornando um fator menos importante na produção em comparação ao capital intelectual e à capacidade de usá-lo para gerar valor, é possível que a maioria dos cidadãos possa ter dificuldades em encontrar um trabalho que pague bem suficientemente para manter um padrão socialmente aceitável de vida.

Esta é uma possibilidade real e influencia, dentre outras coisas, em curto prazo, na forma como o nosso sistema educacional se organiza. Educação, treinamento e criação ou readequação de bens e serviços que necessitem mais de intervenção humana podem ajudar a mitigar efeitos econômicos negativos. De qualquer forma, é imprescindível que comecemos a nos atentar às competências necessárias para o trabalho do século XXI e adequar nosso sistema educacional para formar cidadãos mais capacitados dentro de uma realidade diferente da industrial (quem se interessar mais sobre o assunto, ano passado publiquei 3 textos sobre o tema, que disponibilizo neste link).

Em longo prazo, será preciso rever a rede de segurança social atual e evoluí-la para atender um possível contingente maior de pessoas e ajudá-las a se reintegrarem em uma sociedade mais intelectual do que manual. Países como a Suíça e a Finlândia já começaram a considerar ativamente esta nova realidade e iniciaram um processo de adequação de suas sociedades – que começou, de maneira não surpreendente – pela reformulação de seus sistemas educacionais, privilegiando o desenvolvimento da habilidade de metacognição, domínio de idiomas (em especial da língua inglesa, pelo fato da maior parte do conhecimento humano estar registrado neste idioma) e um currículo baseado em STEM (acrônimo em inglês para Ciências, Tecnologia, Engenharia e Matemática) associado ao “método” grego de “arte liberal” (quem quiser mais detalhes do conceito, disponibilizo um link de outro texto que escrevi sobre o tema) por se entender que é uma maneira eficiente de adequar a forma de pensar para uma mentalidade mais direcionada à criação de propriedade intelectual, em que se destaca a conexão de conhecimentos – de forma mais abrangente – e a imaginação – para atuar criativamente na sociedade e gerar inovação.

Aqui vale uma explicação adicional, pois o tema gera bastante interpretação equivocada. Foco em STEM não é a mesma coisa que foco em ciências exatas (e menos ainda, não foco em ciências humanas). É consenso, ao menos no caso da matemática, que a matéria ensinada na maioria das escolas é um reflexo pálido da matemática que verdadeiramente apaixona (aquela que, parafraseando Michael Atiyah, identifica e lida com problemas que são ao mesmo tempo interessantes e solucionáveis). No decorrer da revolução industrial nos esquecemos de que matemática também é arte – e não me refiro à geometria, como aqueles cujo coração se agita com a visão dos fractais pode supor inicialmente – me refiro à emoção que a matemática evoca. A satisfação de transformar o desconhecido em conhecido é imensa e também profundamente inata à “disciplina” em questão. A triste ironia da política de educação em relação à matemática é que na tentativa de aproveitar o nosso potencial humano para o raciocínio e resolução de problemas – habilidades vitais para o futuro da nossa economia – os formuladores de políticas públicas (assim como os formadores de opinião) negligenciam a mais importante de todas as verdades matemáticas: ela também é arte e deve ser tratada como tal.

Inteligência Artificial e suas tendências

outubro 3, 2016 § 2 Comentários

Artificial Intelligence-HITN.png

Para facilitar o entendimento, sugiro como leitura prévia 2 textos anteriores em que abordo este mesmo tema. O primeiro, a respeito do “Estudo de 100 anos para a Inteligência Artificial” e o segundo, referente à definição do que é IA.

Nos últimos 15 anos, IA conseguiu cumprir a sua expectativa histórica de permear a vida do ser-humano. É verdade que um dos grandes responsáveis por isto são os “pequenos” equipamentos que carregamos em nossos bolsos e bolsas diariamente, os smartphones. De todo modo, ao se tornar uma força central em nossa sociedade, a própria IA vem se modificando. O grande objetivo das mentes por trás do seu desenvolvimento, não é mais construir sistemas que são inteligentes, mas construir sistemas inteligentes que são confiáveis e focados no ser-humano.

Pode parecer um simples “jogo de palavras”, mas a realidade é que esta visão traz uma mudança profunda no direcionamento das pesquisas no campo da IA. Para resumir este direcionamento, usarei apenas um termo: dados. Quem tem familiaridade com a hierarquia DIKW percebe imediatamente o que isto quer dizer. Dados são a base em que se constrói o conhecimento. Ao focar neles, as pesquisas em Inteligência Artificial se aproximam cada vez mais do que transforma o ser-humano em ser-humano, a alta capacidade de aprendizagem – de transformar conhecimento em sabedoria.

Não é de se estranhar, portanto, que uma das áreas da IA que mais cresce é a de machine learning. O aprendizado de máquinas vem se desenvolvendo enormemente com o suporte dos recursos de computação em nuvem e com a coleta generalizada de dados baseados na web. Este ambiente também vem sendo impulsionado pelo deep learning, utilizado para treinar (sim, o termo é o mesmo usado em referência ao ser-humano) redes neurais convolucionais. Trocando em miúdos, pode ser resumido como um modo de ensinar máquinas usando o modelo de redes neurais.

Bom, o resultado disto foi um salto na performance de algoritmos de processamento de informação (vale lembrar que informação significa dado contextualizado), acompanhado de outro salto significativo em tecnologia de detecção, percepção e reconhecimento de objetos. Aliados a plataformas e mercados impulsionados por dados, este ambiente estimulou a concentração de pesquisas em algumas áreas específicas da IA.

Aprendizado de máquinas em grande escala (large-scale machine learning): um dos maiores desafios em termos de machine learning atualmente é aumentar a extensão de algoritmos existentes para possibilitar que trabalhem com banco de dados extremamente grandes (o chamado big data). Em banco de dados tradicionais, um algoritmo de aprendizado de máquinas pode se dar o “luxo” de checar várias vezes o mesmo conjunto de dados (afinal, para os padrões das máquinas não são extensos –possuem “apenas” alguns milhões de linhas). Quando se trata de big data, a coisa muda de figura, não se pode repetir este padrão com bilhões e bilhões de linhas de dados – um processador atual poderia “travar” realizando uma ação destas. A solução é otimizar métodos que permitam processar apenas uma vez os dados ou que os dividam em conjuntos. É por este caminho que segue esta tendência de estudo (para aqueles que possuem conhecimentos em modelagem matemática ou estatística, fiquem de “olho” nesta área).

Deep Learning: sei que parece título de filme B, mas penso que vale a pena dar uma explicação um pouco mais técnica aqui do que na “palhinha” de algumas linhas acima. É chamado de aprendizado profundo, a habilidade de se treinar com sucesso redes neurais convolucionais (em teoria da informação, convolucional é um tipo de código para detecção de erros). Em machine learning, a rede neural convolucional funciona de maneira inspirada no córtex visual dos animais, reconhecendo largura e altura de um volume e se ativando quando “vê” algo similar em uma determinada posição espacial. Um dos campos que mais se beneficiam disto é o da visão computacional, que pode ser aplicada em reconhecimento de objetos (e atividades gerais de reconhecimento) e áreas de percepção artificial como voz e linguagem natural (os idiomas que falamos). Sei que a maioria não ligará “o nome à pessoa”, mas saibam que coisas comuns que usamos – como os filtros para fotos de aplicativos como Instagram – se beneficiam destes conhecimentos.

Aprendizado por reforço (reinforcement learning): não sei quantos dos que me leem tiveram a experiência de terem “aulas de reforço” no colégio. Lembro do drama que era para mim chegar duas horas antes das aulas às quintas-feiras, para ter aula de reforço em português. O objetivo deste tipo de aula era, no meu caso, utilizar a língua portuguesa em situações práticas reais (escrever cartas, interpretar textos e entender suas implicações). Funciona de modo similar no caso das máquinas, envolve ensiná-las a aprender algo necessário para executar ações no mundo real. O modo de se fazer isto é através de estruturas sequenciais para tomada de decisão baseada em experiência. Este campo, estagnado há décadas, tomou um impulso com o surgimento do deep learning. Um exemplo prático é o AlphaGo, desenvolvido pela Google, para ensinar máquinas a jogar o jogo chinês Go (para mais detalhes tanto de um quanto de outro, incluí links que direcionam ao site do AlphaGo e à explicação do jogo original na Wikipédia). O AlphaGo foi treinado inicialmente através de um banco de dados criado por especialistas humanos no jogo e posteriormente, via aprendizado por reforço, praticando através de jogos contra si mesmo. A aplicação desta área é bem dinâmica, atua desde viagens espaciais até extração de petróleo em grandes profundezas (como no caso do nosso pré-sal).

Robótica: os esforços atuais se concentram em treinar os robôs a interagirem com o mundo a sua volta de maneira geral e previsível. Um dos caminhos é utilizar deep learning e aprendizado por reforço para ajudá-los a explorar o ambiente e “rodar” sua programação sem espaço para cometer erros que possam ser prejudiciais para seus sistemas e para os que estiverem à volta. Este é o problema, por exemplo, dos carros automáticos – aqueles que se dirigem sozinhos e que já estão sendo testados. O desafio é aumentar a percepção da máquina, incluindo sua “visão”, “força” e sensibilidade “tátil”.

Visão computacional: esta é a forma mais proeminente de percepção da máquina hoje. É uma das áreas de IA que teve a sua evolução impulsionada pelo aparecimento do deep learning. Pela primeira vez, os computadores são capazes de executar algumas tarefas de classificação visual melhor do que as pessoas. Combinada com computação gráfica, tem sido a responsável pela “explosão” da tendência de realidade aumentada.

Processamento de linguagem natural: muitas vezes usado em conjunto com o reconhecimento automático de voz, o processamento de linguagem natural é outra forte tendência da área de percepção da máquina. 20% das consultas ao Google já são feitas por voz e alguns testes já mostram a possibilidade real de usá-lo para tradução em tempo real. O foco dos estudos está se concentrando cada vez mais no desenvolvimento de sistemas capazes de interagir com as pessoas por meio do diálogo (e não simplesmente reagir a comandos digitados).

Internet das Coisas: também conhecida pela sigla IoT (Internet of Things), é um dos grandes focos de pesquisas na área de Inteligência Artificial. Está relacionada à ideia de que uma grande quantidade de dispositivos (ou coisas) podem ser interconectados para coletar e compartilhar seus dados sensoriais (eletrodomésticos, veículos, edifícios, máquinas fotográficas e roupas são alguns exemplos). Embora seja uma questão que envolva em grande parte a criação de tecnologia e a utilização de rede sem fio para conectar os dispositivos, há um enorme desafio no processamento e uso inteligente destas imensas quantidades de dados (a serem) gerados que ainda precisa ser equacionado. Outro ponto, é que atualmente esses dispositivos utilizam uma quantidade grande de protocolos de comunicação incompatíveis. IA está sendo utilizada tanto para desenvolver soluções para lidar com esta possibilidade exponencial de big data quanto para ajudar a domar a “Torre de Babel”.

Há ainda outras tendências que de tão específicas, prefiro não abordar – como computação neuromórfica (neuromorphic computing), criação de algoritmos baseados na teoria dos jogos, sistemas colaborativos, dentre outros. O que une estas tendências não citadas e as demais que comentei é a sua característica human-aware (centrada no ser-humano – como mencionado no início do texto). Isto quer dizer que por mais complicado que possa parecer, todas estas iniciativas são especificamente modeladas e desenvolvidas com o foco nas pessoas que se espera que elas interajam. Por enquanto não há o risco de se criar algo como o sistema Skynet – do Exterminador do Futuro. O maior risco trazido pelo deep learning para o aprendizado da máquina, é o processo conhecido como overfitting. Assim como nós, seres-humanos, as máquinas também apreciam a boa e velha decoreba. Quando percebem que uma resposta não muda, elas simplesmente a decoram. O overfitting ocorre quando tentam generalizar algo que é específico, usando o que decoraram. Como se pode ver, o que faz a diferença em qualquer aprendizado é o contexto.

Onde estou?

Você está atualmente visualizando os arquivos para outubro, 2016 em Marcelo Tibau.