O futuro da indústria tech

novembro 10, 2016 § Deixe um comentário

digitalchalk.jpg

A indústria da tecnologia defendeu por anos o argumento de que para se ter uma economia baseada na inovação, era preciso que se estimulasse a educação, o conhecimento aplicado à propriedade intelectual e o multiculturalismo. Isto impactou diretamente em políticas públicas e legislação de diversos países em relação à organização e às metodologias de seu sistema educacional, proteção à propriedade intelectual e estímulo ao desenvolvimento de pesquisas científicas (que geram propriedade intelectual) e em políticas de imigração (em especial as ligadas à concessão de visto de trabalho para os chamados skilled workers).

Os EUA, como uma das grandes forças impulsionadoras da indústria tech, sempre foram vistos como determinante para a definição das posturas deste mercado no mundo todo. É natural então, que uma presidência Trump – potencializada pelo Brexit – não podemos esquecer que o Reino Unido é o segundo produtor mundial de propriedade intelectual, atrás apenas dos EUA, leve a uma reavaliação estratégica da área em relação as suas políticas. Já começaram a circular e-mails pelo Vale do Silício, propondo o reposicionamento para a defesa do corte de impostos para a área e o comprometimento em relação à repatriação de divisas.

Entendo a postura e reconheço a necessidade de reposicionamento – em especial se levarmos em consideração que Trump declarou em campanha que iria iniciar uma ação antitruste contra a Amazon e prometeu forçar a Apple a fabricar seus produtos nos EUA. Mas um dos argumentos mais poderosos das empresas de tecnologia em relação à sua própria importância, sempre foi o fato de que suas metas não eram apenas financeiras, mas abarcavam a construção de um futuro progressista. Sim, queriam dinheiro, mas também queriam construir um mundo melhor em termos filosóficos e democráticos – protegiam a educação e o conhecimento como modo de empoderar as pessoas e estimulá-las a quererem se tornar mais inteligentes e cultas. A lógica era que pessoas mais inteligentes tinham mais possibilidades de inovar.

Thomas Friedman – o autor do livro “O Mundo é Plano”, que propiciou muita da base conceitual para os argumentos defendidos pela indústria tech – escreveu sobre o resultado das eleições americanas, no texto intitulado “Homeless in America”, que o chamado “aprendizado para a vida toda” (no original lifelong learning) poderia ser uma fonte inesgotável de stress para algumas pessoas.

O risco que esta visão de mundo coloca é: se o aprendizado pode fazer mais mal do que bem e se algumas pessoas, não apenas o rejeitam, mas agem conscientemente para impedir a formação de um ambiente que estimule o desenvolvimento da sua fonte (o conhecimento), por que priorizar a educação?

40% das pesquisas científicas realizadas pelo Reino Unido eram financiadas pela União Europeia (rejeitada pela maioria dos britânicos). Facebook e Twitter têm sido apontados como causadores do declínio do jornalismo e da irrelevância dos fatos (e de quebra contribuído para a expansão do trolling, racismo e misoginia que caracterizaram a campanha do agora presidente Trump). O crescimento de um sentimento anti-tech pode, de verdade, mudar a direção que as políticas educacionais vinham tomando nos países desenvolvidos (que queira ou não, dão o tom para o restante do mundo).

O efeito colateral pode ser a criação de uma elite intelectual tecnológica – porque a indústria continuará e precisará de pessoas que tenham a habilidade de criar propriedade intelectual. Mas, talvez o sonho de democratizar esta habilidade tenha acabado.

Anúncios

Sobre dados

abril 14, 2016 § 1 comentário

data-analysis-charts.png

Passadas as definições estratégicas de um projeto de Data Analytics com viés educacional, é hora de pensar especificamente no seu “coração”, os dados. É preciso ter claro alguns pontos: qual informação se quer conhecer; quais conjuntos de dados expressam essa necessidade, como eles serão conseguidos e finalmente, como serão usados.

Vamos focar no primeiro ponto, o mais básico deles: qual é a informação que o projeto deve entregar? Para responder esta pergunta, é preciso refletir nos benefícios que se espera atingir com ele. Se quisermos melhorar o nível de aprendizagem, é necessário focar em obter informações que demonstrem o nível de retenção e os conhecimentos que geram mais dúvidas. As “mídias” em que este conteúdo é entregue, também podem ajudar bastante na análise posterior e definição da estratégia para melhorar a aprendizagem. Se o benefício que se deseja for outro, como por exemplo, desestimular o abandono, as informações geradas também mudam. Foca-se em tempo gasto em estudo, performance em exames, interação, dentre outros.

O importante é ter em mente que informação é dado contextualizado, se não se souber que informação se deseja, não há como saber que dado procurar. Daí o segundo ponto, definir os conjuntos de dados que expressam essa necessidade. Como já abordei alguns exemplos de dados associados a informações, vale focar em uma outra questão importante neste momento. Fora as informações já relacionadas como importantes, existem outras que possam emprestar contexto ou adicional valor à sua análise? É importante ter em mente esta resposta, porque ela pode acrescentar outros dados contextuais à análise.

O ponto seguinte gira em torno da definição – ou melhor – localização das fontes que contém esses conjuntos de dados. Banco de dados que contenham informações acadêmicas, disciplinares, acesso a sistemas online, rankings de performance, são tantas as fontes possíveis, que neste momento é possível que o projeto de Data Analytics se transforme em um projeto de Big Data Analytics. É aqui que se sentirá a importância de se ter “parado” antes para realizar a definição estratégica do projeto. Ela mantém claros o motivo e o objetivo que se quer alcançar, neste momento em que é fácil perder o “horizonte” do escopo.

Aqui também vale abordar o tópico, comumente chamado na área de análise de dados, de dark data. A definição mais aceita, diz que são os dados gerados durante as atividades regulares que não são usados. Similar à “matéria escura” da física, os dark data constituem a maior parte dos dados de qualquer organização. A Gartner, uma das maiores empresas de pesquisa e consultoria de TI do mundo, descobriu que boa parte das organizações usa apenas 15% dos dados que gera. O resto fica escondido em locais de difícil acesso ou localização, em sistemas legados ou em data stores. Não haveria problema, se não fosse o fato de já se estar pagando para armazenar todos esses dados, por que então não considerá-los?

Como os dados serão usados?

Para abordar o último ponto citado no início do texto, vale levar em consideração 5 elementos, que vão ditar o que precisa ser feito para cada conjunto de dados (ou big data, dependendo da evolução do projeto).

1) Preparar-se para o volume: é preciso ter em mente que quando se “trabalha” com dados, se “trabalha” com volume. É muito importante “classificar” seus dados, isto faz toda a diferença quando o volume começa a aumentar. Para fazer essa classificação, baseie seus dados em dimensões. Por exemplo, valor (gastos de manutenção do sistema, por aluno, por disciplina, etc.); uso (frequência de acesso, de presença, etc.); tamanho (gigabytes, terabytes); complexidade (dados relacionais, gerados por interação com máquinas, automáticos, etc.), tipos (vídeo, texto, imagem, etc.); permissão de acesso (usuário comum, administrador, desenvolvedor, etc.). Sei que cansa só de ler, imagine quando estiver disponível em alguma tela ou documento de análise. Dimensões ajudam a priorizar o que olhar e em que momento.

2) Levar em consideração a variedade: o aspecto mais desafiador da análise de dados é a imensidão de formatos e estruturas que devem ser conciliadas. É preciso integrar inúmeras fontes e manter “espaço” para integrar novas. Por exemplo, se em algum momento do projeto se quiser conhecer o impacto social das ações educacionais (é uma realidade caso se esteja usando algum financiamento de terceiros, como ONGs ou do próprio governo), estes novos dados terão que “conversar” com as fontes de dados já utilizadas (banco de dados relacionais, sistemas legados, mainframes com informações públicas, dentre outros). Considerar a variedade é essencial para ser assertivo.

3) Manusear com velocidade: a combinação de fluxo de dados em tempo real (os chamados real-time data streaming – que nada mais são do que os dados gerados pelos usuários durante o acesso) e os dados históricos (que já estão “guardados” em algum banco de dados) aumenta o “poder preditivo” da análise, portanto é interessante considerar no projeto tecnologias de streaming analytic e infraestrutura lógica para gerenciar estes dados com a velocidade necessária.

4) Garantir a veracidade: a melhor análise de dados feita não servirá para nada se as pessoas que receberem estas informações não confiarem na veracidade dos dados utilizados. Quanto mais dados houverem, mais importante se torna garantir a qualidade deles. A qualidade de um dado está ligada à sua “preparação”. Preparar um dado significa realizar sua curadoria e limpeza. Alguns tipos de dados, como os financeiros por exemplo, precisam ainda de certificação de veracidade ou de compliance, que geralmente são emitidos por institutos independentes ou agências governamentais. O ideal é criar categorias de dados, baseadas no nível de preparação, que pode variar de dados brutos à altamente cuidados. Deixe claro, em todos os momentos, para todos os envolvidos, o nível de preparação a que os seus dados foram submetidos.

5) Definir requisitos de conformidade: os diferentes conjuntos de dados usados “virão” com diferentes estipulações ou requisitos de segurança. Para cada um deles, deve-se pensar no custo (financeiro e de esforço) e nas maneiras para tornar os dados “anônimos”, com base em políticas de segurança ou confidencialidade. Para isto, é necessário entender quais são e onde estão os dados sensíveis, mantê-los seguramente criptografados e controlar o acesso a eles.

Para que um projeto de Data Analytics – de uma maneira geral e não apenas com viés educacional – se torne realidade e seja útil, é preciso torná-lo realístico. Os pontos que abordei neste texto ajudam nesse objetivo, considerá-los ao planejar e implementar pode ser a diferença entre não ir além do piloto – segundo a já citada Gartner, até 2017 60% dos projetos de Data e Big Data podem estar nesta situação – ou implementar com sucesso um sistema inteligente de análise de dados.

Esquentando os motores

janeiro 6, 2016 § 1 comentário

large_startyourengines.png

Com 2016 prometendo ser um ano “agitado” (novo ministro da fazenda, olimpíadas no Rio, eleições municipais…), nada melhor do que focar em que é realmente importante: como atuar em uma sociedade que tende, cada vez mais, ser baseada no conhecimento. Embora esta não seja uma preocupação prioritária da nossa sociedade brasileira (pelo menos com base no que vejo por aí – mas posso estar enganado), creio ser essencial que cada um, por conta própria, comece a olhar essa realidade com mais atenção. Gosto de lembrar que só pegamos o “bonde” da revolução industrial na sua terceira etapa, em pleno século XX (só para efeito de comparação, a primeira etapa se deu no século XVIII – quem quiser relembrar, um resumo da Wikipedia), temos a chance de não repetir o mesmo padrão neste momento de mudança de uma sociedade industrial (a mesma gerada pela citada “revolução”) para uma sociedade baseada no conhecimento.

Voltando ao foco principal, nada melhor do que conhecer o que tem sido feito por pessoas que já estão atuando nesta nova realidade. Portanto, como “resolução de ano novo”, pretendo apresentar alguns casos que possam servir como exemplo prático e inspirar ações com o mesmo propósito. O primeiro deles a seguir:

Katie Feather, uma inglesa que dá aulas na Escola Internacional das Nações Unidas (conhecida pela sigla UNIS) – instituição fundada pelas famílias de funcionários da ONU – em Nova York, percebeu o potencial para melhorar a comunicação, os recursos didáticos e o aprendizado de seus alunos utilizando a LMS (Learning Management System ou Sistema de Gestão da Aprendizagem) disponibilizada pela escola. Aqui vale um “parêntesis”, a UNIS vem desenvolvendo uma iniciativa pedagógica baseada em blended learning, que une estratégias instrucionais presenciais e online. Vale a pena conhecer um pouco mais o programa (disponibilizo o link AQUI), chamo a atenção para uma das disciplinas ensinadas, “Teoria do Conhecimento”, que tem como objetivo estimular o entendimento e o contato com os diversos “pontos de entrada” do conhecimento (percepção sensorial, razão, emoção, fé, imaginação, intuição, memória, linguagem, dentre outros) e dar um embasamento teórico aos estudantes que os ajudem a “navegar” por estes “pontos”. Nada mais apropriado para estes tempos contemporâneos.

Katie ensina biologia e com a ajuda da própria escola, que promoveu uma conferência durante as férias escolares, em que os professores debateram estratégias instrucionais conjuntas, começou a dar mais enfoque ao design visual de suas aulas e a procurar interfaces que proporcionassem mais interatividade aos alunos para utilizarem os conteúdos passados em aula. Uma destas interfaces foi a Visme, uma ferramenta online para criação de apresentações e infográficos. Um dos infográficos criados, trazia as atividades de aprendizado e avaliação dos estudantes, integrados com os documentos e materiais que deveriam ser utilizados (Katie gentilmente disponibilizou um pequeno vídeo mostrando o material e um screenshot dele).

São pequenas iniciativas que promovem grandes mudanças. Para começarmos a atuar em uma sociedade do conhecimento não é preciso esperar uma emenda constitucional ou uma legislação específica, basta começar a modificar a sua percepção em relação ao que é conhecimento e como se adquire. No mais, ele está por aí, literalmente a um clique de distância.

Learning Analytics – parte 2

outubro 9, 2015 § 2 Comentários

youtube-analytics4

Terminei o post anterior com um teaser “prometendo” abordar como o conceito pode afetar no futuro o nosso entendimento a respeito do que é educação. Ao invés de “entrar direto” nesse assunto, gostaria de começar com os pontos fracos do modelo. Por mais que se acredite em algo, é preciso considerar os seus possíveis problemas. É apenas desta forma que podemos nos preparar para enfrentá-los, caso se apresentem.

A primeira “leva” deles diz respeito às suas limitações e custos. Quando indicadores (ou qualquer tipo de métrica) são utilizados para interpretar termos subjetivos (por exemplo, engajamento do aprendiz, interesses, etc.), a possibilidade de erros de interpretação é significativa. É preciso considerar esse cenário e entender que muitas vezes se atuará como em um “jogo” de tentativa e erro. Mesmo porque, dificilmente se terá condições de padronização (criar padrões que possam tornar a interpretação mais objetiva).

Dados levantados por organizações[1] voltadas à educação mostraram que de 70% a 85% da análise dos dados levantados por modelos que utilizam o conceito “Learning Analytics” precisam ser feitas por seres humanos. Isto quer dizer que atividades como limpeza, formatação e alinhamento de dados serão feitas por pessoas (e não algoritmos). Não vou negar que isto aumenta (bastante) o custo de um projeto desses.

A segunda “leva” de possíveis problemas explica, de certa forma, porque o conceito ainda não é amplamente usado. Ainda há restrições, tanto de aprendizes quanto de professores, a respeito da privacidade. Quem tem acesso aos dados? Como serão usados? Que tipo de informação pessoal precisa ser usada? São considerações que influenciam na motivação de quem utiliza e que são essenciais quando a quase totalidade dos dados passam por seres humanos. Compreender essas limitações é fundamental para uma “entrega” eficiente utilizando o conceito.

Mudando um pouco o enfoque, vamos pensar nos possíveis impactos do conceito “learning analytics” no futuro da educação. O principal é a mudança no modo de entendermos o aprendizado. Sairemos do entendimento via hipóteses – como é atualmente, baseado em conceitualização, sobretudo teórica – para um entendimento baseado em análise de dados. Isto, por si só, não é pouca coisa porque acrescenta à formação teórica de profissionais de educação a necessidade de entender modelos analíticos. Isto envolve:

  • Capacitar educadores a diferenciar via “learning analytics” aprendizes que iniciam lentamente e aceleram em um momento posterior dos que realmente estão com dificuldades no aprendizado.
  • Possibilitar que os aprendizes realmente “customizem” o seu aprendizado, fornecendo um retrato amplo da sua performance.
  • Introduzir o conceito de peer grading (algo como classificação pelos pares) e self-grading (algo como auto-classificação) associados à classificação pela performance (a temível meritocracia, tão combatida em nosso país) para determinar o nível de graduação dos aprendizes, já que o conceito “meio que” inviabiliza a divisão em turmas ou séries, por ser altamente “customizador”.
  • Acrescentar “mais um papel” às várias personas do professor. Além de instrutor e facilitador, também analista. É preciso checar se não é muito papel para uma pessoa só e se a vocação pessoal permite esta inclusão. É muito simples “deixar nas costas” de quem está na ponta esses “pormenores”. Não é pormenor e não são todos os professores dispostos a fazer esse papel. Penso que esse ponto é o maior entrave para o conceito e que não é algo facilmente resolvido. Talvez seja necessário ter vários tipos de profissionais dedicados a promover o aprendizado atuando na ponta, mas obviamente, aumenta (e muito) o custo de uma educação formal.

Vale também acrescentar a necessidade de se estimular desde cedo a habilidade do autoaprendizado. Não adianta criar um ambiente que permita “personalizar” o processo de aprendizado se quem for aprender não tiver a capacidade de conduzir este processo.

Há 3 anos, estudos mostravam um horizonte para a adoção desse conceito por uma quantidade mais ampla de pessoas para 2 ou 3 anos. Esse tempo já transcorreu sem que a previsão se concretizasse. Sou da opinião de que no período de 1 ou 2 gerações (de 25 a 50 anos) teremos um sistema educacional muito diferente do que temos hoje. Quem estava na “escola” por volta de 1990 pode atestar o quanto já mudou nos últimos 25 anos. Como diz o personagem Buzz Lightyear:  “ao infinito… e além”.

[1] Organizações como OpenColleges, Edudemics e Educause.

Desenvolvendo mentes curiosas – parte 1

setembro 15, 2015 § 4 Comentários

Terminei o post passado sinalizando a importância de se pensar em como estruturar um ambiente de aprendizagem que possa estimular o desenvolvimento de mentes mais curiosas (e de quebra, uma visão mais abrangente). Penso que a primeira pergunta a ser respondida nesse sentido é: o que precisamos mudar no nosso ambiente atual para estimular o desenvolvimento de mentes curiosas?

Creio que é uma pergunta que estimula muita reflexão – assim como somos 200 milhões de “técnicos” da seleção brasileira durante qualquer copa do mundo de futebol – possivelmente cada um tem as suas convicções a respeito desse tema. Pretendo contribuir com algumas linhas a respeito do assunto.

Penso que poucos devem discordar de que foi correto o enfoque dado nos últimos 20 anos ao estímulo da universalização do ensino no Brasil. Com cada vez mais pessoas buscando (e recebendo) algum tipo de qualificação, conseguimos ao menos instigar a percepção de que o estudo é fundamental para alguém que pretende de alguma forma “melhorar de vida”. Creio que é hora de abrangermos agora o enfoque e refletir se o que as pessoas estão aprendendo e como estão se preparando para serem produtivas é a melhor opção. Quanto mais penso nesta questão, mais percebo a resposta como sendo no mínimo dúbia. Para pensar de verdade “no futuro”, ele precisa abranger mais do que 2, 4 ou mesmo 8 anos. Muito do que tem sido discutido a respeito de novas metodologias educacionais e conceitos, como “aprendizes do século XXI” ou “nativos digitais”[1], é feito sob a estrutura do século XX. É “super atual” ser digital, mas creio que os objetivos educacionais ainda continuam os mesmos: estudar para se formar e arrumar um emprego – de preferência na administração pública[2].

Mas, voltando à pergunta do início do post, o que precisamos mudar para estimular o desenvolvimento de mentes curiosas?

Na minha opinião, para começarmos a responder, é preciso primeiro mudar os objetivos do nosso sistema educacional. Se queremos de verdade estimular o aparecimento de inovadores – como 10 entre 10 políticos, empresários e especialistas dizem – temos que focar em desenvolver o indivíduo e a sua capacidade de pensamento. Embora a nossa legislação declare que o objetivo do nosso sistema educacional é estimular o pensamento crítico e reflexivo, a bem da verdade é que isso, na prática, não está acontecendo. Já que o objetivo pessoal de muita gente ainda é estudar para se formar e arrumar um emprego.

A razão disto, para mim, reside na maneira como a nossa sociedade está estruturada (e o sistema educacional é “retrato” da sociedade). Estamos estruturados de maneira linear, como em uma linha de produção. Para muitos, as coisas só fazem sentido quando vem em passo a passo, há muito pouco estímulo para perceber a conectividade entre elas.

Para não ficar “só reclamando”, pretendo no próximo (e talvez, nos próximos) post(s), abordar pequenas mudanças que penso podem contribuir para mudarmos o enfoque e estimular um pensamento mais “big picture”.

[1] O conceito de nativos digitais foi cunhado pelo educador e pesquisador Marc Prensky (2001) para descrever a geração de jovens nascidos a partir da disponibilidade de informações rápidas e acessíveis na internet.

[2] Antes que alguém interprete como uma crítica a quem trabalha ou quer trabalhar na administração pública, deixe-me dar algumas explicações. Primeiro, não considero de forma alguma um trabalho fácil, a pessoa tem a sua discricionariedade extremamente limitada por legislações, regulações e normas burocráticas; segundo, precisa enfrentar o imaginário popular que a vê como incompetente e pouco afeita ao trabalho; terceiro, tem seus méritos e esforços muito pouco reconhecidos por superiores – e pela própria sociedade. É um trabalho que, ao meu ver, exige vocação verdadeira. Mas, é fato que o salário médio pago pela administração pública, especialmente a federal, é muito superior à média do mercado, o que estimula muita gente, que nem sempre tem a vocação, a prestar concurso público. Penso apenas que o país só teria a se beneficiar com mais pessoas com o objetivo de criar propriedade intelectual e não de arrumar um emprego e esta é a verdadeira intenção que pretendi dar à frase.

STEM e a gente

maio 28, 2015 § Deixe um comentário

STEM é o acrônimo para Ciências, Tecnologia, Engenharia e Matemática (em inglês, science, technology, engineering e mathematic). O termo é utilizado para nomear políticas educacionais e curriculares feitas especificamente para as áreas. O interesse vem crescendo em diversos países pelo fato da maioria das projeções para criação de vagas de emprego no mundo, sinalizarem um aumento para os 4 campos. Não por acaso, são os campos de trabalho que mais geram inovação. Vale também uma explicação específica do termo “engenharia”. No Brasil, geralmente o relacionamos à engenharia civil, mas ele é mais amplo abarcando cerca de 30 tipos de engenharia, incluindo da computação, ambiental, elétrica, etc. O que une todas é o fato de serem ciências exatas.

stem jobs graph

Outro ponto importante é o fato do pensamento criativo ser uma das habilidades básicas destas profissões, portanto um currículo baseado nas 4 áreas estimula o seu desenvolvimento e impacta o sistema educacional como um todo. Alguns consideram o currículo baseado em STEM o benefício mais importante que uma “escola moderna” pode oferecer aos seus alunos.

Mas, o que isso tem a ver com a gente? A lei das diretrizes e bases da educação (lei 9394 de 1996) define que os estabelecimentos de ensino são responsáveis por “elaborar e executar sua proposta pedagógica”. Isto quer dizer que é incumbência de cada escola e instituição de ensino no Brasil definir o seu currículo, metodologia e método de ensino. Liberdade total, no papel. Há um porém, devem necessariamente respeitar “as normas comuns e as do seu sistema de ensino” que trocando em miúdos quer dizer que devem seguir as orientações dadas pela União, Estados e Municípios, o que muitas vezes limita a “liberdade” da escola. De qualquer maneira ainda há muito espaço para trabalhar, principalmente nos quesitos metodologia e método de ensino.

Nos EUA há uma linha orçamentária federal destinada a estimular a implementação de um currículo baseado em STEM nas escolas públicas e algumas delas já encorajam seus alunos a construírem robôs e ferramentas, usando tecnologias como impressoras 3D. Aqui no Brasil há iniciativas voltadas à formação dos professores das áreas de Ciências, Tecnologia, Engenharia e Matemática para que possam preparar alunos de escolas públicas para a faculdade e uma carreira mais próspera, como a promovida pela organização STEM Brasil.

O que une as duas iniciativas (americana e brasileira)? A metodologia baseada em projetos (project-based learning) que comentei alguns posts atrás. Fica a dica para nossas escolas se inteirarem mais a respeito da obra do John Dewey.

Onde estou?

Você está navegando em publicações marcadas com sistema educacional em Marcelo Tibau.