Pages

Qualis

Do A Terra É Redonda, 30 de abril 2026
Por LUIS FELIPE MIGUEL*



Imagem: DuoNguyen

A transição para métricas bibliométricas e a hegemonia do impacto digital ameaçam a soberania da produção científica nacional e a autonomia das humanidades

1.
Sempre fui crítico do Qualis, o sistema de ranqueamento de periódicos científicos da CAPES. Ele guarda muitas inconsistências e, nos últimos tempos, tornou-se vítima das publicações predatórias. Tenho certeza que não existe pesquisador no Brasil que não receba dezenas de e-mails por mês de revistas que exibem seus Qualis altos e prometem publicação rápida e segura em troca de uma taxa “modesta”.

A CAPES nunca foi capaz de combater esse avanço, embora me parecesse relativamente simples fazer uma lista negra (expressão que, ao contrário do que diz a polícia identitária da linguagem, nunca teve qualquer conotação racial) de periódicos e aplicar pontuação zero ou mesmo negativa para os artigos que aparecem neles.

Mais complicado é alcançar critérios que sejam razoáveis. Como, de fato, medir a qualidade, a importância ou o impacto de um periódico científico? Aliás, o problema começa até antes. Importância, qualidade e impacto não são a mesma coisa. O que queremos medir?

Lembro de uma situação envolvendo a Revista brasileira de ciência política, que estávamos criando na UnB com o apoio imprescindível da então diretora do Instituto de Ciência Política, professora Marilde de Loiola Menezes. A gente queria entrar no Scielo, que é o maior portal brasileiro de periódicos de acesso aberto. Mas o Scielo só aceitava revistas com classificação no Qualis de B1 para cima. Na reunião de coordenadores da área, na CAPES, descobrimos que só faltava um requisito para revista ser classificada como B1: estar no Scielo.

(Apesar de alguma resistência, em particular de um “colega”, o bom senso prevaleceu, a revista foi reclassificada e logo passou a integrar o Scielo.)

É difícil, porque os critérios não são objetivos, porque há muita diferença até mesmo dentro de cada área disciplinar, porque critérios que se querem cegos a essa diversidade são injustos e aqueles que não são cegos acabam enviesados por pressões políticas.

Revistas com Qualis baixo entram num círculo vicioso, já que se tornam cada vez menos atrativas para os pesquisadores mais maduros, exatamente aqueles cujos textos chamariam a atenção para a publicação e poderiam aumentar sua reputação ou influência.

2.
As revistas nacionais com Qualis alto ficam sobrecarregadas de tal maneira que algumas delas chegam a recusar novas submissões de artigos, o que é algo que contraria frontalmente as boas práticas da publicação científica. Só que elas simplesmente não dão conta de processar o material que chega.

Mas as mudanças indicadas pela CAPES me parecem uma fuga para a frente, agravando os problemas em vez de resolvê-los.

Serão três critérios concorrentes, a serem combinados pelas áreas de avaliação.

O primeiro seria ainda uma avaliação da qualidade ou relevância do periódico, como no Qualis de sempre, mas agora exclusivamente a partir de dados bibliométricos.

O segundo é a medição do impacto de cada artigo isoladamente, por meio, mais uma vez, de bibliometria (sobretudo número de citações feitas ao texto em outras publicações científicas).

Dados bibliométricos, como número de citações ou de acessos ao texto nas plataformas das revistas na internet, parecem objetivos, mas têm um monte de problemas. As contagens favorecem artigos em língua inglesa, que não apenas têm difusão maior como são privilegiados na hora de rastrear as citações. O rasrtreamento também privilegia as revistas publicadas pelos tubarões da edição científica, que são também, muitas vezes, os responsáveis pela elaboração das métricas. Mas, mesmo que se admita que os números são corretos, surgem questões.

O viés em favor da língua inglesa é um deles. As simulações apontam para a virtual destruição das revistas acadêmicas em português.

Significa abrir mão da nossa língua, a quinta mais falada no mundo, como língua de produção de ciência. Reduz a possibilidade de diálogo com a sociedade que nos financia. E, sobretudo para as áreas em que a construção do argumento em linguagem natural é central, como as humanidades, nos obriga a produzir conhecimento com ferramentas emprestadas.

Nossos textos em inglês, em geral em mau inglês, mesmo com o auxílio de tradutores de Inteligência artificial, despertam pouco interesse lá fora e alienam boa parte dos nossos leitores potenciais aqui dentro, uma vez que a maior parte dos nossos estudantes não lê ou lê com dificuldade a língua inglesa.

A diretriz da CAPES fala em “valorização de periódicos nacionais”, mas é bem vago. Não há indício de como ocorrerá.

Além disso, as áreas e sub-áreas disciplinares são muito diversas entre si. É possível que um artigo altamente especializado sobre uma questão espinhosa de matemática avançada não tenha mais do que uma dúzia de pessoas, no mundo todo, capazes de entendê-lo. Vai ganhar poucas citações, mas essas poucas significam uma grande proporção do público ao qual ele se dirige. É meio que inevitável que uma pesquisa sobre um tema da moda tenha muito mais citações, mesmo que sua contribuição seja irrelevante. Vamos incentivar, então, uma concentração das publicações em temas mais populares.

Ainda que se use o índice FWCI, que pondera as citações pelos campos disciplinares, o problema não é resolvido. Passando para uma área com que tenho mais familiaridade, um artigo medíocre sobre “polarização” ou “populismo” provavelmente terá mais citações do que um estudo revolucionário sobre o pensamento de Guicciardini. Ambos serão ponderados pela média do campo da ciência política.

Sem falar nas panelinhas de citação mútua, tão comuns. Hoje já há revistas que exigem que artigos publicados nela sejam citados para aprovar uma submissão.

É que, tão inevitável quanto a morte ou os impostos, é o fato de que, onde quer que exista uma métrica, surgirão estratégias para maquiar os números.

3.
Outro problema é que a “meia vida” de uma pesquisa, isto é, o período em que ela continua bastante presente para outros pesquisadores, varia muito de área para área. A repercussão de um artigo nas ciências duras é quase que imediata. É absorvido e some. Nas ciências humanas, ela pode ser muito lenta. Continuamos lendo Pierre Bourdieu, Max Weber e Karl Marx, para não falar de Nicolau Maquiavel ou de Aristóteles. Não é possível avaliar o impacto de um texto da forma tão apressada quanto a atribuição de nota pela CAPES exigiria.

O que leva a uma outra questão. A avaliação dos programas de pós-graduação, que é fortemente impactada pela classificação da produção científica dos docentes, ocorre em ciclos de quatro anos. A próxima, salvo engano meu, vai analisar as atividades entre 2025 e 2028. O que significa que vai colocar no mesmo balaio textos que tiveram quatro anos para serem citados e outros com alguns poucos meses. Parece que todos devem preferir publicar no começo do quadriênio.

Embora não tenha sido incluído no documento da CAPES, todo mundo entendeu que a primeira preocupação do autor deve ser dar visibilidade a seu texto. O caminho óbvio? Criar burburinho causado em mídias sociais.

A valorização da visibilidade nas plataformas sociodigitais joga o pesquisador para a posição de influencer. Obriga a um gasto de tempo de que muitas vezes não dispomos e à absorção de habilidades que nada têm a ver com a ciência. Em vez de ler o estado da arte em nossa área, estar em nossos laboratórios, ir a campo, orientar nossos estudantes, vamos todos ter que aprender os passos das dancinhas da moda no TikTok.

É uma medida indefensável e, sobretudo, não é inócua: é um instrumento de redução da autonomia do campo científico.

Não é o único. A tranquilidade com que a CAPES incorpora a adesão aos “objetivos do desenvolvimento sustentável” como critério de avaliação mostra como a ideia de autonomia da pesquisa científica se tornou démodée nestes tempos neoliberais.

(É verdade que os “objetivos do desenvolvimento sustentável” servem apenas à retórica e neles cabe o universo e além. Mas a questão é de princípio.)

Por fim, o terceiro critério de ranqueamento dos artigos prevê uma avaliação da qualidade do texto, que será definido numa escala de excelente a ruim, de acordo com aquela que seria sua contribuição para o avanço do conhecimento.

Eu queria entender quem vai formar a banca que vai definir essa nota. Quem vai ler milhares de artigos e decidir o quanto cada um deles colabora para o avanço do conhecimento científico. O “milhares” não é retórico; mesmo em áreas pequenas, como a Ciência Política, certamente chegamos nisso. Para áreas grandes, como Letras ou Medicina, podemos falar de dezenas de milhares…

*Luis Felipe Miguel é professor titular de ciência política na Universidade de Brasília (UnB). Autor, entre outros livros, de Democracia na periferia capitalista: impasses do Brasil (Autêntica)[https://amzn.to/45NRwS2].

Publicado originalmente nas redes sociais do autor.

Nenhum comentário:

Postar um comentário