segunda-feira, 15 de junho de 2009
Inversão de valores...
Nota: Recebi essa charge por email. Infelizmente, não tenho a referência. Se alguém tiver, por favor, mande para mim.
sábado, 13 de junho de 2009
Professores pré-históricos na Era da Informação - Parte III
Agora, a Wolfram Research, desenvolvedora do já conhecido Mathematica, lançou o Wolfram Alpha, uma ferramenta on-line de computação de conhecimento, com uma certa capacidade de processamento de linguagem natural, que é capaz de solucionar problemas em diversas áreas do conhecimento, com uma interface quase tão simples e fácil de usar quanto a do Google.

Assim como o Google trouxe grande mudança na forma como alunos buscam soluções para seus trabalhos escolares, provocando profundas discussões entre professores sobre o mérito dos alunos na elaboração desses trabalhos, o Wolfram Alpha promete o mesmo.
Esse artigo traz uma excelente discussão sobre o receio que alguns professores estão enfrentando com o lançamento dessa nova ferramenta. Resumi abaixo algumas citações:
"Considerando que ainda há professores e departamentos nos EUA onde calculadoras gráficas ainda não são permitidas, alguns professores provavelmente irão reagir com resistência (em adotar essa ferramenta em suas aulas), ou mesmo com acusações de que seu uso possa ser considerado como uma forma de trapaça." -- Prof. Maria Andersen, Teaching College Math.Para mim, o problema não está no uso dessas novas ferramentas e recursos tecnológicos, e sim na forma como os professores tentam avaliar o desempenho de seus alunos.
"Nos próximos semestres, nós teremos estudantes em nossas aulas perguntando 'Por que não podemos usar o Wolfram Alpha?'. Estamos tentando discutir ao máximo essa questão agora, para que nossos colegas não sejam surpreendidos por esse tipo de questionamento." -- Prof. Derek Bruff, Walpha Wiki - Teaching Undergraduate Math with Wolfram|Alpha
Na minha época de estudante, os professores pediam que fôssemos a uma biblioteca, para "pesquisar" sobre um determinado tema. O que os alunos faziam? iam até a biblioteca (*), tiravam fotocópias de um texto qualquer sobre aquele assunto (geralmente de uma enciclopédia), e depois transcreviam esse texto à mão (**), mudando algumas palavras, para tentar disfarçar.
Hoje, os professores continuam pedindo os mesmos tipos de trabalhos, mas os alunos se modernizaram: eles sentam-se diante de um computador, digitam o tema do trabalho no Google, copiam o primeiro texto que aparece como resposta (CTRL-C), colam no editor de textos (CTRL-V), imprimem com uma capa bacana, e pronto.

Nada mudou. Professores passam tarefas desinteressantes, mecânicas, e os alunos procuram o jeito mais fácil de se livrar daquela chatice. No passado, os alunos ainda podiam memorizar alguma coisa, enquanto copiavam o texto à mão. Hoje, os alunos não têm a menor chance de memorizar, porque a cópia e impressão são automáticas. Mas não podemos atribuir essa "piora de desempenho" à nova tecnologia! - a raiz do problema reside na forma irracional como os professores elaboram as tarefas.
Com o Wolfram Alpha, os alunos podem obter as soluções, passo a passo, para todos os problemas das tradicionais "listas de exercícios", com a mesma facilidade com que obtêm textos para os "trabalhos escolares" através do Google. Se os professores de matemática continuarem pedindo para os alunos resolverem apenas equações, eles passarão a aplicar a mesma técnica CTRL-C / CTRL-V que já aplicam para as outras disciplinas.
Para o próprio Stephen Wolfram, "essa é a natureza do progresso (...) a tecnologia sempre permite fazer mais e mais coisas automaticamente."
A escola precisa entender e aceitar isso. É preciso reformular as tarefas escolares, e todo o processo de avaliação do desempenho do aluno, colocando o foco na compreensão, interpretação e raciocínio, em vez da reprodução de conteúdos e técnicas.
Se uma ferramenta permite resolver e visualizar automaticamente problemas algébricos complicados, isso é ótimo! pois permite que eu explore mais e mais problemas, situações e variações com meus alunos!
Se os alunos podem usar essa ferramenta para responder automaticamente suas listas de exercícios, cabe ao professor elaborar questões onde o raciocínio seja mais importante que a técnica algébrica!
Na Era da Informação, encontrar as respostas certas tornou-se muito fácil... que tal, então, estimular os alunos a fazerem as perguntas certas???
Essa é a parte III de uma série. Leia também as partes I e II.
(*) - estou falando dos anos 1980... a web ainda não existia, e muito menos o Google!
(**) - pois é... também não era muito comum ter computadores e impressoras em casa, nem na escola, naquela época
Deixe o seu comentário!
Professores pré-históricos na Era da Informação - Parte II
O caso não é único, e expõe uma ferida aberta na forma como professores tentam avaliar o desempenho individual de seus alunos, em plena era do compartilhamento da informação.

Esse ilustre professor certamente não refletiu que, ao argumentar que o aluno estaria ajudando os colegas das próximas turmas a "colar" nos trabalhos da disciplina, ele estaria assumindo que as tarefas de sua disciplina permanecem sempre as mesmas, semestre após semestre. Ou será que esse professor considera isso uma coisa normal?
Professores têm que compreender, urgentemente, duas coisas:
- Eles não são a única fonte de informação.
Existe um mundo inteiro lá fora, onde os estudantes podem (e devem) trocar informações, conhecimentos, e experiências. Quando a tarefa é bem elaborada, e estimula a busca por soluções criativas e não apenas a regurgitação da "matéria dada", a troca de soluções e experiências entre estudantes pode ser muito mais proveitosa que dezenas de aulas. - O trabalho acadêmico precisa ter utilidade.
Chega de mandar estudantes escreverem trabalhos repetitivos, cujos resultados ninguém está interessado em ler. É preciso trabalhar com problemas reais, estimulantes, cujo ciclo de desenvolvimento seja maior que a duração da própria disciplina, e cujos resultados sejam úteis como material para as próximas edições da disciplina.
Felizmente, nesse caso, o bom senso falou mais alto e, após uma longa disputa, a instituição posicionou-se a favor do aluno, afirmando que professores não têm o direito de proibir que alunos divulguem seus próprios códigos-fonte.
Essa é a Parte II de uma série. Leia também as partes I e III.
Deixe seu comentário!
Professores pré-históricos na Era da Informação - Parte I
Quando eu estava no curso técnico de Eletrônica, tive uma professora de matemática que proibia o uso de calculadora(*), e nos obrigava a usar tabelas trigonométricas e de logaritmos para resolver os problemas (se você não sabe que tabelas são essas, sorte sua!). Um dia, quando eu questionei essa arbitrariedade, ela argumentou que "se você ficar dependente da calculadora, o que fará no dia que esquecê-la em casa?"; o meu contra-argumento, na bucha, foi: "e o que a senhora fará no dia que esquecer suas tabelas em casa?". Isso rendeu um grande bate-boca, que se estendeu por todo o período.
Algum tempo depois, já no curso de Engenharia, deparei-me com um professor de Desenho que queria nos ensinar métodos arcanos para dividir uma circunferência em n partes iguais, usando somente compasso e esquadros. Eu juro que tentei ficar calado, mas não resisti. Depois do quarto ou quinto método, questionei: "professor, porque não podemos simplesmente dividir 360 / n e marcar as divisões usando um transferidor?"(**). Você imagina qual foi a resposta dele? - acredite se quiser: seu argumento foi: "e o que você fará quando não tiver um transferidor por perto?"... impressionante! professores tão distantes, no espaço e no tempo, tinham o mesmo argumento irracional! - e eu já tinha uma resposta na ponta da língua para esse argumento!A lista é longa, e eu poderia contar aqui vários outros casos semelhantes. O fato é que professores se habituam a ensinar alguma coisa que já foi útil em alguma época, e muitas vezes não param para refletir sobre a utilidade daquilo no momento presente. Pior: esses dois casos demonstram que professores tendem a confundir um método particular com o conceito geral. Não importa a época, sempre será necessário usar logaritmos ou trigonometria; esses são conceitos que devem ser bem compreendidos, independente da época. O método de resolução, entretanto, depende da tecnologia disponível na época. No passado, usavam-se tabelas e réguas de cálculo, depois calculadoras, planilhas eletrônicas, e aplicativos para manipulação algébrica.
Infelizmente, muitos professores continuam proibindo (ou tentando proibir) o acesso dos alunos a novas ferramentas e tecnologias, julgando que elas tiram do aluno o "mérito" pela resolução do problema. Nessa semana, coincidentemente, li dois artigos discutindo casos como esses, em escolas americanas.
Discuto esses dois casos nas partes II e III deste artigo.
(*) - isso foi em 1986, e antes que algum engraçadinho pergunte, já existiam calculadoras eletrônicas nessa época, sim!
(**) - isso foi em 1990, e os CADs ainda não eram tão acessíveis como hoje - o desenho era feito no papel, mesmo, usando-se lápis, esquadros, compasso e... transferidor.
terça-feira, 2 de junho de 2009
ARM espera estar em 6 milhões de netbooks, em 2010
Com forte presença em dispositivos portáteis e dedicados, como celulares, smartphones, câmeras, consoles de jogos e eletrodomésticos, e notáveis pelo seu baixíssimo consumo de energia, os processadores ARM nunca tiveram espaço no mundo dos poderosos processadores para PCs, dominados pela arquitetura x86. Com o surgimento dos netbooks, abre-se a porta para a quebra dessa hegemonia.
Os novos processadores ARM Cortex A8, e o Cortex A9, com quatro núcleos, que serão usados nessa nova geração de netbooks, prometem desempenho compatível com aplicações de desktops, enquanto consomem dez vezes menos energia que um Intel Atom.Essa é uma importante notícia, para o segmento que promete ser o mais inovador dos últimos anos. A primeira geração de netbooks foi construída simplesmente como notebooks reduzidos: a mesma velha arquitetura x86, com menos memória, menos periféricos. Nada foi realmente redesenhado especificamente para esse novo fim. Agora, com o grande sucesso desse segmento, as indústrias começam a investir em novos projetos, novas arquiteturas.
A segunda geração de netbooks promete mudanças mais radicais: uso de novas arquiteturas, buscando melhores relações de desempenho e consumo de energia, e desenvolvimento de novas interfaces, que permitam uma experiência totalmente nova ao usuário.
Pela primeira vez, a hegemonia Windows / Intel pode ser ameaçada. As versões do Windows para dispositivos móveis rodam na arquitetura ARM, mas as versões para desktops rodam somente na arquitetura x86. A entrada da arquitetura ARM no mundo dos PCs, ainda que através do segmento dos netbooks, representa uma oportunidade de mudanças num cenário há muito estagnado.
Taí uma briga que eu vou querer acompanhar bem de perto!
Referências:
- ARM Says 6 Million Netbooks May Use Its Chips in 2010
- ARM looks solid as sales and profits increase
- ARM Cortex Processor Family
sábado, 9 de maio de 2009
Desenvolvedores de Software devem ser responsabilizados por seus códigos?
Com base nessa notícia, o Linux Journal abriu uma interessante discussão sobre esse assunto, tentando avaliar os lados positivos e negativos de tal proposta, iniciando com um argumento para cada lado:
Bruce Schneier é favorável à proposta, defendendo que
Em nenhuma outra indústria, produtos de má qualidade são vendidos para um público que já espera por problemas frequentes, e onde os consumidores é que devem se virar para solucioná-los. Se um fabricante de automóveis tem um problema com uma série, e lança uma nota de recall, isso é um evento raro, e um bom negócio - você pode levar seu automóvel e ele será consertado, de graça. Computadores são o único item no mercado de consumo em massa que coloca toda a responsabilidade nas costas do consumidor, exigindo que ele tenha alto nível de conhecimento técnico apenas para sobreviver.Por outro lado, Alan Cox é contrário à proposta. Segundo ele,
(...)
O caminho para resolver isso é responsabilizar o produtor de software. Computadores são também o único item de consumo em massa onde os fabricantes não se responsabilizam por falhas. A razão pela qual os automóveis são tão bem construídos é que seus fabricantes são responsabilizados se algo der errado. A falta de responsabilização para o software é, efetivamente, um vasto subsídio do governo para a indústria de TI. Isso permite que eles produzam mais produtos em menos tempo, com menos preocupação quanto à confiabilidade, segurança, e qualidade.
Seria difícil responsabilizar desenvolvedores de código aberto por seus códigos, pela própria natureza do desenvolvimento do código aberto. Como desenvolvedores compartilham códigos por toda a comunidade, a responsabilidade é coletiva. "Potencialmente, não há como responsabilizar alguém".O concenso entre os dois pontos de vista parece estar na separação entre software livre, onde não há uma relação comercial entre desenvolvedor e consumidor, e o software proprietário, licenciado, onde há uma relação comercial explícita, com contrato que estabelece direitos e deveres de cada parte.
E você? qual a sua opinião?
Referências:
Deixe o seu comentário!
domingo, 3 de maio de 2009
GRIPEBRANDA E LULA TRÊS
Rui Martins
Berna (Suiça) - Será que sou o único tonto do planeta ?
Por favor leitores, pode ser que as artérias entupiram e começo a falar besteira. Neste caso, me avisem para eu praticar minha eutanásia.
Vejam bem, na semana passada estive em Genebra fazendo uma reportagem sobre a malária. Durante mais de 40 anos, os laboratórios farmacêuticos se negaram a fabricar um produto derivado de uma planta chinesa, da família das artemísias, porque os beneficiários desse remédio, principalmente os africanos e alguns países asiáticos, não tinham poder de compra.
E, enquanto isso, um milhão de africanos por ano, a maioria crianças, continua morrendo.
Agora algumas fundações de trilionários mais um imposto por passageiro de avião, criado pelo ex-presidente francês Chirac e o nosso Lula, permitem o financiamento da compra e distribuição em massa desse remédio, coisa de 250 milhões de doses para começar, e os africanos vão poder se curar da malária porque os laboratórios decidiram fabricar.
Dizem mesmo que, em algumas décadas, a malária poderá ser erradicada porque diminuindo o número de infectados os mosquitos vetores continuarão picando as pessoas mas sem transmitir o parasita.
Perceberam? Os laboratórios farmacêuticos podem ter o remédio mas só comercializam se houver um bom mercado, que garanta um bom rendimento.
Um milhão de mortos por ano, na África. Ou será que quando se tem a pele preta se vale menos? Pode ser isso também.
Ora, no último telejornal que vi, aparecia um mapa da Europa cobrindo toda a tela e os números 1, 3, 2, 4, 2, 2, 1 espalhados em cima dos países da União Européia. Sabem o que eram esses números? O de mortos com a atual gripe A, ou suína ou mexicana.
Será que estou dizendo besteira? A OMS colocou a gripe A no nível 5, os jornais e tevê só falam nisso, e talvez aqui se possa usar o linguajar da Folha de São Paulo, aqui sim talvez se possa falar em gripebranda. A histeria levou o governo egípcio, que não come porco, a mandar exterminar 250 mil porcos, deixando os coptas cristãos sem ter o que comer.
Mas, na minha santa ignorância, pergunto – por que a malária na África não foi nunca colocada no nível 6, mesmo se ela mata um milhão por ano e se pode pegar malária até no avião? Por que, ao contrário do que ocorreu com as granjas de frangos de rendimento intensivo em Hong-Kong e China, quase nada se fala ou se mostra das criações mexicanas intensivas de porcos onde surgiu o vírus da gripe suína? E quanto os países estão gastando com o Tamiflu da Roche ?
E se essa gripe suína for tão forte como aquela que peguei no ano passado e que só mata mesmo desnutrido?
Será que o tonto sou eu ou somos todos nós ?
EM TEMPO: Na quarta-feira escrevi se não é o caso de se perguntar ao povo se gostaria de reeleger Lula. Afinal, como disseram alguns leitores nos seus comentários, na democracia é o desejo do povo que vale e, se o presidente tem 76% ou mais de apoio, deve haver muita gente querendo isso.
E já que a descrença nos partidos é geral, por que não se fazer uma sondagem? Não interessa à imprensa fazer tal sondagem? Então, por que não sondamos nós mesmos o terreno?
Aqui no Direto da Redação e em outros blogs que reproduziram a coluna, como o do Azenha, houve uma explosão de reações.
Como metade dos comentários foi favorável à reeleição de Lula, peço para quem ler esta coluna num outro site que não o Direto da Redação, para me contatar pelo email ruimartins@hispeed.ch caso seja favorável a um plebiscito por um terceiro mandato de Lula.
quinta-feira, 30 de abril de 2009
Adote uma linha de código!
Hoje, surpreendi-me com um modelo inusitado: a adoção voluntária de uma linha de código.
No mesmo modelo de campanhas do tipo "adote um aluno", ou "adote uma árvore", que pedem uma doação mensal para custear o desenvolvimento de uma determinada ação, essa campanha, lançada pela equipe de desenvolvimento do Miro (um player para vídeos online) pede que você adote uma linha de código.

Ao adotar uma linha de código, no valor de $4,00 por mês por cada linha, você recebe um certificado de adoção, tem o seu nome incluído nos créditos do aplicativo, e pode até visualizar e acompanhar a evolução da linha que você adotou.
A princípio, essa parece ser uma ideia absurda, afinal, quem é que vai pagar $4,00 por mês, para entrar nessa??? A resposta é simples: para cidadãos americanos, a doação é 100% dedutível do imposto de renda, daí, faz todo o sentido: se você vai ter mesmo que pagar aquele valor, então que seja para algo do seu interesse!
Ainda não dá pra saber se esse modelo vai funcionar ou não, mas a proposta é interessante, principalmente para empresas (pessoas jurídicas) que tenham interesse no desenvolvimento dessa software. É uma forma de direcionar a aplicação do seu imposto para um fim que lhe seja útil, ou interessante - portanto, pode ser uma forma de investimento.
Será que a legislação brasileira permitiria algo assim???
sábado, 25 de abril de 2009
Modelos de Negócios baseados em Software Livre (v2.0)
O objetivo principal dessa apresentação continua o mesmo: derrubar alguns mitos e preconceitos que ainda pesam sobre o conceito de Software Livre, principalmente quando relacionados à sua exploração como atividade lucrativa. Mesmo entre profissionais de TI, há muita desinformação sobre esse assunto.
Não pretendo evangelizar ninguém, nem afirmar que todos devem adotar o software livre em seus modelos de negócios. Quero apenas passar algumas informações, além da minha visão sobre o assunto, para que cada um tire suas próprias conclusões.
Se você gostar do conteúdo, sinta-se livre para copiá-la, incorporá-la em seu blog, ou mesmo modificá-la. Afinal, essa é a essência do que nós estamos falando: Liberdade para propagar o conhecimento. Caso modifique, ou tenha sugestões para modificações, será um prazer receber o seu comentário.
ATENÇÃO: Você pode visualizar a apresentação aqui, ou fazer o download do arquivo no formato odp (BrOffice), com as anotações para cada slide.
Deixe seu comentário
domingo, 19 de abril de 2009
Servidor de baixo consumo com Netbooks

Utilizando hardware de netbooks, pesquisadores da Carnegie-Mellon University desenvolveram uma arquitetura com capacidade para atuar como um servidor, mas que consome menos que uma lâmpada.
A arquitetura, chamada de FAWN (fast array of wimpy nodes), pode reduzir para menos de um décimo a potência normalmente consumida por infraestruturas tradicionais de servidores. Se confirmado, esse fato pode ter um importante impacto nos custos operacionais e ambientais de grandes instalações de servidores e data-centers, como as usadas pelo Google, Microsoft, Facebook, e outros gigantes da internet.
O consumo de energia elétrica é um dos principais custos na operação de um data-center. Segundo esse relatório da Agência de Proteção Ambiental (EPA), responsável pelo programa EnergyStar, o consumo total de energia em 2006, em servidores e data-centers, somente nos Estados Unidos, foi estimado em 61 bilhões de kilowatt-hora (kWh), o que corresponde a 1.5% de toda a energia consumida naquele país, e representa um custo de cerca de U$4,5 bilhões. O mesmo relatório estima, ainda, que o consumo de energia nesse setor dobrou no período entre 2000 e 2006 e que, mantidas as tendências atuais, deverá duplicar novamente, até 2011.
A arquitetura criada pelo professor David Andersen e sua equipe aborda esse problema com a combinação de processadores de baixo consumo e memórias Flash, em substituição aos processadores de alto desempenho e unidades de armazenamento em disco. O resultado, um tanto surpreendente, é que essa arquitetura consegue relações de desempenho por watt centenas de vezes superior às dos servidores tradicionais, para aplicações que acessam pequenos lotes de informação, de forma aleatória - exatamente a característica dos principais serviços na internet.
A justificativa para esse resultado é simples. Enquando os chamados "processadores de alto desempenho" tornam-se mais rápidos (ao custo de mais consumo de energia), as unidades mecânicas de armazenamento em disco, os HDs, não evoluem na mesma velocidade. Isso gera uma grande disparidade entre a velocidade com que o processador consegue processar os dados, e a capacidade que os HDs têm para fornecer esses dados, fazendo com que o processador passe muito tempo parado, esperando pelos dados a serem processados.
Para melhorar o desempenho desses sistemas, as arquiteturas têm incluído uma grande quantidade de circuitos lógicos que tentam prever quais dados serão acessados pelo processador, para então antecipar a busca, e copiar lotes desses dados em memória, na tentativa de, assim, manter o processador ocupado por mais tempo. Esse processo pode funcionar bem, quando os dados são previsíveis. Quando não, isso representa somente um imenso desperdício de energia.
A proposta da arquitetura FAWN é diminuir a diferença entre as velocidades do processador e do amazenamento, pelas suas pontas: substituir as unidades mecânicas de disco por memórias Flash, que são muito mais rápidas para acesso aleatório, e simplesmente usar processadores mais lentos - e muito mais econômicos - uma vez que será inútil tentar usar um processador ultra-rápido, se ficar maior parte do tempo esperando pelo acesso aos dados.
O protótipo atual foi montado com 21 unidades, compostas por um processador AMD Geode de 500MHz, 256MB de RAM e um cartão de 4GB de memória Flash. No total, consome apenas 85W, em condições normais de operação.
Referências:
Deixe o seu comentário!
