A “desculpa” da política

abril 27, 2016 § 2 Comentários

hands-vote-politics-112238508-S

People raising their hands

Há tempos tomei a decisão de não discutir política – que cá entre nós, me fez um enorme bem. Um pouco por perceber a política cada vez mais parecida com futebol e religião, dogmática. Cada um no seu lado e o resto adversário. Como não pretendo discutir política, apenas compartilhar impressões, me reservo o espaço para tal.

Percebo nos tempos atuais um comportamento político irresoluto. Frequentemente, disputas políticas não geram conclusões aceitáveis ou concordância relutante. Geram apenas acusações de roubo, rótulos de ilegitimidade e uma determinação em neutralizar o vitorioso, anular resultados ou revertê-los o mais rápido possível. Aconteceu nas eleições de 2014 e aconteceu agora, no processo de impeachment. Não é privilégio de nenhuma corrente política, mas um comportamento geral, compartilhado por todos.

A bem da verdade é que não é nem um “privilégio” brasileiro, acontece o mesmo comportamento em várias partes do mundo. É possível observá-lo, em todo seu “esplendor”, nas primárias americanas, onde os líderes do partido republicano insistem em tentar barrar a indicação de Donald Trump, mesmo sendo ele o favorito da maioria dos eleitores do partido e mesmo sem oferecerem um substituto viável – todos os demais concorrentes tem uma rejeição dos filiados maior do que a dele. O mesmo ocorre no partido democrata, em que os apoiadores do candidato Bernie Sanders insistem em dizer que a adversária, Hillary Clinton, frauda os resultados. Mesmo com ela sendo apoiada pela maioria dos eleitores do partido, com exceção de universitários brancos e artistas de hollywood.

Voltando à terra brasilis, eleições não “encerram” disputas porque há uma crença perniciosa de que elas não são um referendo do estado de espírito do povo e sim um intricado jogo de tabuleiro, com peças marcadas. Talvez pelo nosso passado autocrata, talvez pela falta de confiança crônica entre os brasileiros, mas a verdade é que se alguém considera que foi “passado para trás” ao invés de ter “perdido no voto”, qual o motivo para declarar trégua ou cooperar futuramente?

O processo democrático nunca foi suave e as derrotas raramente aceitas de maneira dócil. Frank Bruni, jornalista americano, conta que o ex-presidente Teddy Roosevelt criou em 1912 o partido progressivo apenas porque os republicanos indicaram o também ex-presidente William Howard Taft como candidato ao invés dele. Portanto, é natural um político não aceitar uma derrota. O que não é comum é a mesma atitude ser tomada pela maioria dos eleitores e mais incomum ainda, é o esforço coletivo em deslegitimar os vencedores – sejam eles quem forem.

Esta atitude diz muito a respeito da nossa sociedade: a grosseria do nosso discurso, o tribalismo cego dos nossos “debates”, a elevação do individualismo muito acima do propósito coletivo e o ethos de que todos são por direito de nascença vencedores na competição da vida (e não por conquista pessoal).

Esta forma de pensar leva seguidamente aos pedidos de “reforma política”, mais como uma “desculpa” para justificar o comportamento do que uma vontade genuína de melhorar o processo. Mudança verdadeira é muito diferente de rejeitar resultados desagradáveis. Se as mágoas nunca forem postas de lado, o processo democrático não tem chance. Se tudo for fraude, então como no amor e na guerra, tudo é válido. E nós, continuaremos a ter anos à frente de inércia e inépcia, seja quem for que esteja no poder. O Brasil é e será o que os brasileiros quiserem fazer dele. O quanto antes tomemos consciência deste fato, melhor para o país.

Anúncios

Sobre dados

abril 14, 2016 § 1 comentário

data-analysis-charts.png

Passadas as definições estratégicas de um projeto de Data Analytics com viés educacional, é hora de pensar especificamente no seu “coração”, os dados. É preciso ter claro alguns pontos: qual informação se quer conhecer; quais conjuntos de dados expressam essa necessidade, como eles serão conseguidos e finalmente, como serão usados.

Vamos focar no primeiro ponto, o mais básico deles: qual é a informação que o projeto deve entregar? Para responder esta pergunta, é preciso refletir nos benefícios que se espera atingir com ele. Se quisermos melhorar o nível de aprendizagem, é necessário focar em obter informações que demonstrem o nível de retenção e os conhecimentos que geram mais dúvidas. As “mídias” em que este conteúdo é entregue, também podem ajudar bastante na análise posterior e definição da estratégia para melhorar a aprendizagem. Se o benefício que se deseja for outro, como por exemplo, desestimular o abandono, as informações geradas também mudam. Foca-se em tempo gasto em estudo, performance em exames, interação, dentre outros.

O importante é ter em mente que informação é dado contextualizado, se não se souber que informação se deseja, não há como saber que dado procurar. Daí o segundo ponto, definir os conjuntos de dados que expressam essa necessidade. Como já abordei alguns exemplos de dados associados a informações, vale focar em uma outra questão importante neste momento. Fora as informações já relacionadas como importantes, existem outras que possam emprestar contexto ou adicional valor à sua análise? É importante ter em mente esta resposta, porque ela pode acrescentar outros dados contextuais à análise.

O ponto seguinte gira em torno da definição – ou melhor – localização das fontes que contém esses conjuntos de dados. Banco de dados que contenham informações acadêmicas, disciplinares, acesso a sistemas online, rankings de performance, são tantas as fontes possíveis, que neste momento é possível que o projeto de Data Analytics se transforme em um projeto de Big Data Analytics. É aqui que se sentirá a importância de se ter “parado” antes para realizar a definição estratégica do projeto. Ela mantém claros o motivo e o objetivo que se quer alcançar, neste momento em que é fácil perder o “horizonte” do escopo.

Aqui também vale abordar o tópico, comumente chamado na área de análise de dados, de dark data. A definição mais aceita, diz que são os dados gerados durante as atividades regulares que não são usados. Similar à “matéria escura” da física, os dark data constituem a maior parte dos dados de qualquer organização. A Gartner, uma das maiores empresas de pesquisa e consultoria de TI do mundo, descobriu que boa parte das organizações usa apenas 15% dos dados que gera. O resto fica escondido em locais de difícil acesso ou localização, em sistemas legados ou em data stores. Não haveria problema, se não fosse o fato de já se estar pagando para armazenar todos esses dados, por que então não considerá-los?

Como os dados serão usados?

Para abordar o último ponto citado no início do texto, vale levar em consideração 5 elementos, que vão ditar o que precisa ser feito para cada conjunto de dados (ou big data, dependendo da evolução do projeto).

1) Preparar-se para o volume: é preciso ter em mente que quando se “trabalha” com dados, se “trabalha” com volume. É muito importante “classificar” seus dados, isto faz toda a diferença quando o volume começa a aumentar. Para fazer essa classificação, baseie seus dados em dimensões. Por exemplo, valor (gastos de manutenção do sistema, por aluno, por disciplina, etc.); uso (frequência de acesso, de presença, etc.); tamanho (gigabytes, terabytes); complexidade (dados relacionais, gerados por interação com máquinas, automáticos, etc.), tipos (vídeo, texto, imagem, etc.); permissão de acesso (usuário comum, administrador, desenvolvedor, etc.). Sei que cansa só de ler, imagine quando estiver disponível em alguma tela ou documento de análise. Dimensões ajudam a priorizar o que olhar e em que momento.

2) Levar em consideração a variedade: o aspecto mais desafiador da análise de dados é a imensidão de formatos e estruturas que devem ser conciliadas. É preciso integrar inúmeras fontes e manter “espaço” para integrar novas. Por exemplo, se em algum momento do projeto se quiser conhecer o impacto social das ações educacionais (é uma realidade caso se esteja usando algum financiamento de terceiros, como ONGs ou do próprio governo), estes novos dados terão que “conversar” com as fontes de dados já utilizadas (banco de dados relacionais, sistemas legados, mainframes com informações públicas, dentre outros). Considerar a variedade é essencial para ser assertivo.

3) Manusear com velocidade: a combinação de fluxo de dados em tempo real (os chamados real-time data streaming – que nada mais são do que os dados gerados pelos usuários durante o acesso) e os dados históricos (que já estão “guardados” em algum banco de dados) aumenta o “poder preditivo” da análise, portanto é interessante considerar no projeto tecnologias de streaming analytic e infraestrutura lógica para gerenciar estes dados com a velocidade necessária.

4) Garantir a veracidade: a melhor análise de dados feita não servirá para nada se as pessoas que receberem estas informações não confiarem na veracidade dos dados utilizados. Quanto mais dados houverem, mais importante se torna garantir a qualidade deles. A qualidade de um dado está ligada à sua “preparação”. Preparar um dado significa realizar sua curadoria e limpeza. Alguns tipos de dados, como os financeiros por exemplo, precisam ainda de certificação de veracidade ou de compliance, que geralmente são emitidos por institutos independentes ou agências governamentais. O ideal é criar categorias de dados, baseadas no nível de preparação, que pode variar de dados brutos à altamente cuidados. Deixe claro, em todos os momentos, para todos os envolvidos, o nível de preparação a que os seus dados foram submetidos.

5) Definir requisitos de conformidade: os diferentes conjuntos de dados usados “virão” com diferentes estipulações ou requisitos de segurança. Para cada um deles, deve-se pensar no custo (financeiro e de esforço) e nas maneiras para tornar os dados “anônimos”, com base em políticas de segurança ou confidencialidade. Para isto, é necessário entender quais são e onde estão os dados sensíveis, mantê-los seguramente criptografados e controlar o acesso a eles.

Para que um projeto de Data Analytics – de uma maneira geral e não apenas com viés educacional – se torne realidade e seja útil, é preciso torná-lo realístico. Os pontos que abordei neste texto ajudam nesse objetivo, considerá-los ao planejar e implementar pode ser a diferença entre não ir além do piloto – segundo a já citada Gartner, até 2017 60% dos projetos de Data e Big Data podem estar nesta situação – ou implementar com sucesso um sistema inteligente de análise de dados.

Bola de cristal

abril 1, 2016 § 2 Comentários

big-data-analytics.png

De um ano para cá tenho desenvolvido um interesse crescente em métodos de análise e modelagem de dados, no que é comumente conhecido como Data Analytics. O que começou como um conhecimento para apoiar o trabalho que desenvolvo em avaliação de ações educacionais, se tornou rapidamente uma fonte de grande prazer pessoal. Conhecer técnicas de Data Analytics é como ter à disposição uma bola de cristal. Utiliza-se os próprios dados disponíveis para identificar seus padrões, promover análises variadas e prever “comportamentos”.

Uma das aplicações possíveis deste campo, embora não muito comumente usada, é na área educacional. Notas, resultados de testes, frequência de aulas, registros de disciplina e ferramentas de desenvolvimento profissional produzem dados que, colocados em certa perspectiva, geram informações valiosíssimas para o próprio sistema. Embora não seja um pré-requisito, o uso da tecnologia na geração e recuperação desses dados tem um papel fundamental na qualidade deles (traz mais acuidade), além de ser um grande incentivador para a integração da própria tecnologia para fins educacionais. Mais do que repositórios para materiais, aulas e atividades, ambientes virtuais são ferramentas de apoio e estímulo ao aprendizado e criam um sistema de comunicação para pais, professores e comunidade. Para a análise de dados, é ouro puro.

O uso de análise preditiva (uma das aplicações de Data Analytics) pode ser determinante, por exemplo, para identificar alunos em risco de não se formarem ou que tenham mais possibilidade de abandonarem os estudos. Uma atuação direcionada antes destes eventos ocorrerem faz toda a diferença na vida dessas pessoas.

Pode-se também “olhar” para além da frequência, dos aspectos disciplinares e das notas e “rastrear” como os estudantes interagem com os recursos de aprendizagem e como se envolvem com o conteúdo e enviar sugestões automáticas de uso para os professores ou para os próprios alunos.

O primeiro ponto nessa história – uso de Data Analytics com viés educacional – é definir as prioridades estratégicas de um sistema de gerenciamento e tecnologia aplicado à educação. Geralmente a intenção é “expandir” as paredes da sala de aula, promover a colaboração e “nutrir” a criatividade e a inovação em alunos e professores. Mas, estas palavras de “ordem” perdem completamente o sentido se não se tiver claramente definido como estes objetivos serão atingidos.

O segundo, é entender que habilidades deverão ser desenvolvidas em todos os usuários do sistema. É a partir delas que se definem as ferramentas a serem usadas (que nem precisam necessariamente serem “tecnológicas”). Com as ferramentas definidas, se consegue também entender como os dados serão “produzidos”.

O terceiro ponto é sistematizar a análise. O uso da tecnologia facilita, mas uma análise que traga informações relevantes atua basicamente “em cima” de requisitos e de critérios para avaliar ensino e aprendizagem, melhorar a comunicação, reforçar a ligação entre a escola e a casa do aluno e garantir a excelência operacional e analítica das práticas correntes do sistema escolar.

O quarto e último ponto é a tecnologia em si. Reflita nos pontos anteriores: a tecnologia é essencial para desenvolver algum deles? A resposta (como já deve ter percebido) é não. Mas, tê-la envolvida é mais ou menos como disputar uma corrida usando uma charrete ou uma Ferrari. Se conseguirá cruzar a “linha de chegada” com as duas, mas o tempo de uma será infinitamente diferente da outra.

E tempo, conta.

Agregar tecnologia à educação é uma questão de “mentalidade de crescimento” (no original, growth mindset). É a crença de que “qualidades” podem mudar e de que podemos desenvolver a nossa inteligência e habilidades. A definição geral de growth mindset pode ser dividida em vários conceitos, tais como a importância de cometer e consertar erros ou refletir sobre o próprio processo de aprendizagem, o que os une é o fato de serem fundamentais para “ensinar” uma pessoa a atuar em um mundo em que criatividade e pensamento inovador constituem ativos de extremo valor.

 

Onde estou?

Você está atualmente visualizando os arquivos para abril, 2016 em Marcelo Tibau.