Thursday 21 January 2010

Reflexões sobre ensino, pesquisa, revisão crítica e avaliação

As reflexões do título foram feitas no contexto da Sociedade Brasileira de Automática, da área de controle e automação e da revista Controle e Automação da SBA, e estão baseadas nas seguintes hipóteses/querelas:

1. A maioria de nós, pesquisadores das áreas de controle e automação, não envia os melhores trabalhos para esta revista.

2. Mesmo que enviasse, não temos massa crítica para conseguir revisões de alta qualidade para tais artigos no Brasil, levando em consideração que a participação de revisores estrangeiros está limitada por vários motivos [nem todos os artigos são escritos em inglês, a revista ainda não tem fama suficiente para atrair mão de obra voluntária, ainda mais estrangeira, etc.]

3. Ao longo dos anos, a revista vai perdendo o foco: hoje publica muitos artigos de outras áreas (potência, eletrônica de potência etc.) que têm pouco ou nada a ver com a missão original evocado pelo título da revista. Mesmo com essa abrangência mais ampla, artigos publicados nela recebem pouquíssimas citações (44 citações ao todo, para todos os anos e todos os artigos, desde que pertence à base SCIELO, utilizando a ferramenta de SCIELO. 36 dessas citações são oriundos de artigos da própria revista).

4. Os melhores artigos (pelo menos os premiados) geralmente são surveys e/ou didáticos.

5. As universidades federais, e a própria CAPES (cuja missão é avaliar Educação e Ensino) valorizam o quesito pesquisa muito mais do que o quesito ensino. Como prova disso, podem-se citar muitos fatos. Vou me contentar com apenas dois. A maioria das universidades federais não possui avaliação séria do ensino, não premia bom ensino (embora haja premiação das melhores teses). A progressão na carreira universitária é baseada maciçamente na produtividade em pesquisa; quanto ao ensino, há uma simulação de que está sendo levado em consideração, mas sabe-se que na realidade, não há mecanismos para fazê-lo.

Dadas essas hipóteses, e o gosto que temos pelo ensino (pessoalmente, pelo menos!), a pergunta que se coloca é a seguinte: como podemos agir para melhorar o quadro desenhado acima?

Antes de entrar no mérito desta questão, queria colocar mais algumas observações sobre revistas técnicas e científicas. Em minha opinião, os formatos atuais das revistas bem como o processo atual de revisão estragam bons artigos. Especificamente, mesmo com versões eletrônicas de quase todas as revistas importantes, parece que limitações de papel ainda são impostas aos autores. As seqüelas disso são retiradas de material didático [considerado elementar], supressão de abordagens e exemplos que não dão certo, etc. [muitas vezes quase tão importantes quanto os que dão certo]: processos que tornam o artigo menos compreensível e certamente menos didático. Quanto ao processo de revisão, deparamos com a perversidade de revisores anônimos. Justifico minha escolha de palavras. Hoje, com o acesso fácil a quase toda a produção científica do mundo, uma revista se tornou nada mais do que uma lista de leitura indicada. Indicada por quem? Os revisores, é claro. Leríamos um romance cuja contracapa traz recomendações anônimas, por melhores que fossem? Creio que não. Creio, portanto, que os revisores devem se identificar. Isto traria outros benefícios. Por exemplo, levaria a uma redução drástica de comentários levianos, mal-justificados ou simplesmente mal-educados, que, certamente, todos nos recebemos algumas vezes nas nossas carreiras.

Aonde quero chegar? Quero sugerir a criação de uma “magazine” da revista Controle e Automação, que teria existência apenas eletrônica, com forte foco didático. Seria no formato Wiki, contendo o artigo, os comentários e contribuições dos revisores, assim como as contribuições e comentários dos leitores (que incluiriam texto, imagens, áudio, vídeo, código [em MATLAB, Scilab, Java, you name it]). Poderíamos imaginar um contador de “hits” relevantes (isso teria que ter a intervenção de um ou mais editores), e no final do ano, os 10 artigos mais acessados e que receberam mais contribuições relevantes da comunidade receberiam o grande prêmio CAPES de ENSINO, com conseqüências positivas para a avaliação do departamento/programa que abriga o(s) autor(es). O acesso seria gratuito, mas potenciais autores e leitores teriam que se cadastrar (login e senha). Seriam aceitos artigos didáticos, notas que sugerem como abordar um assunto em sala de aula (um vídeo de uma aula sobre um determinado assunto, por exemplo, no formato YouTube). Enfim, our imagination is the limit! Eu imaginaria o dia em que esse magazine engoliria a eminência parda (revista atual)...

Em tom mais sério, vejo algumas vantagens. Enquanto sabemos que há falta de revisores qualificados para assuntos mais técnicos de pesquisa, temos plena consciência de que há muitos docentes que possuem excelente didática, geram ótimo material didático que se perde quando se aposentam, e que, em geral, estes docentes se sentem pouco prestigiados pelo sistema vigente. Ou seja, temos massa crítica de sobra, e, mais ainda, uma massa cinzenta nesta área que quer mostrar seu valor e, atualmente, não possui instrumentos para isso.

Para finalizar, se esta proposta funcionasse, poderíamos imaginar um futuro no qual a CAPES avaliaria apenas ensino, usando mecanismos como esse, ao passo que o CNPq faria o que ele já faz, avalia pesquisa. Como um programa é um conjunto de docentes que são avaliados em relação aos quesitos de pesquisa e ensino, só restaria discutir como agregar os dados individuais de ensino (CAPES) e de pesquisa (CNPq) dos membros de um programa para gerar uma avaliação completa do conjunto. Radical? Muito distante? Pode ser, mas creio que vale a pena pensar em começar, ainda que fosse com um passo inicial pequeno.

No comments:

Post a Comment