top of page

INTELIGÊNCIA ARTIFICIAL NA ESCRITA CIENTÍFICA: INTEGRIDADE, EQUIDADE E BOAS PRÁTICAS

O CISM realizou, a 20 de Fevereiro, uma Oficina Científica, em formato webinar, dedicada a um dos temas mais relevantes da actualidade académica: o uso responsável da Inteligência Artificial (AI) na escrita científica. O evento, moderado pelo Gestor do Centro de Dados do CISM, Arsénio Nhacolo, reuniu académicos e profissionais de saúde para uma reflexão crítica sobre os desafios e oportunidades destas tecnologias. A sessão contou com a participação de Julianne Chaccour, coordenadora de projectos no grupo ATLANTES do observatório da Organização Mundial da Saúde para os cuidados paliativos, integrado no Instituto Cultura y Sociedad da Universidade de Navarra, em Espanha.


De acordo com Julianne, a IA já faz parte do nosso quotidiano académico. “A questão não é se vamos usá-la, mas como vamos usá-la, afirmou, sublinhando que o que chamamos de IA não é um ser que pensa, entende, ou se importa com a verdade. “Trata-se de modelos matemáticos que calculam probabilidades e prevêm respostas ou sequências de palavras.”


Apesar do seu potencial, a oradora defendeu que, no processo de escrita científica, a IA deve ser usada apenas como ferramenta de auxílio e não de produção de conhecimento científico. Citando evidências publicadas na PLoS Biology, referiu que cientistas não nativos podem gastar até 91% mais tempo na leitura de artigos científicos em inglês. Nesse contexto, ferramentas de IA podem contribuir para reduzir barreiras linguísticas, ajudando na tradução de textos e na melhoria da escrita. No entanto, advertiu que devem substituir o raciocínio científico nem a substituir a responsabilidade dos autores. “A IA pode ajudar a escrever melhor, mas não a pensar melhor”, enfatizou.


Durante a apresentação, a investigadora alertou para riscos concretos que já estão a afectar a credibilidade científica. Entre eles estão as chamadas “alucinações”, fenómeno em que sistemas de IA apresentam informação incorrecta como se fosse factual. Como exemplo, referiu conteúdos problemáticos publicados na revista Frontiers in Cell Development and Biology e o caso do termo inexistente vegetative electron microscopy, que surgiu de um erro de tradução automatizada e passou a circular em artigos científicos. “Isso levanta uma questão importante: quantos outros termos sem sentido já estão incorporados nos modelos?”, questionou.


O evento contou com participantes do CISM e outros interessados
O evento contou com participantes do CISM e outros interessados

Estudos recentes divulgados na revista Research Integrity and Peer Review apontam ainda para o crescimento de situações de fraude associadas ao uso inadequado destas ferramentas, incluindo a geração de referências fabricadas.


Outro fenómeno destacado foi o chamado “ChatGPT speak”, caracterizado pelo uso excesso de adjectivos, metáforas grandiosas e estruturas retóricas repetitivas. Segundo a oradora, este estilo pode comprometer a clareza científica e até afectar a indexação em bases de dados como a PubMed. A substituição excessiva de termos técnicos por sinónimos reduz a probabilidade de um artigo ser encontrado em pesquisas especializadas. Acrescentou ainda que os modelos treinados com dados históricos tendem a reproduzir preconceitos, reforçando estereótipos de género, raça ou origem geográfica, o que representa um desafio ético adicional.


Juliane referiu também que uma percentagem significativa de resumos submetidos a grandes conferências internacionais contém texto gerado por IA, mas poucos autores declaram essa utilização. “A responsabilidade continua a ser nossa”, sublinhou, defendendo o princípio do author in the loop, no qual o investigador deve manter controlo intelectual sobre o conteúdo, verificar os resultados e assumir integralmente a responsabilidade pelo trabalho.


Recordando as directrizes de autoria internacionalmente reconhecidas, enfatizou que nenhum sistema de IA pode cumprir critérios como responsabilidade final, revisão crítica do conteúdo intelectual ou garantia de integridade dos dados.


Ao concluir, Juliane Chaccour reforçou que a escrita científica não se resume à produção de texto: trata-se de preservar a confiança pública na ciência. “A IA deve servir esse objectivo, nunca miná-lo”, afirmou, apelando à formação contínua, à adopção de boas práticas e ao uso consciente destas ferramentas. Segundo destacou, a reputação institucional e a credibilidade científica dependem, acima de tudo, da integridade humana.

 

Endereços e contactos

SEDE, MANHIÇA, BAIRRO CAMBEVE

Rua 12, CP 1929

Telf: (+258)  82 316 85 30 /  84 398 68 23

fundacao.manhica@manhica.net

ESCRITÓRIO DA CIDADE DE MAPUTO

Avenida Cahora Bassa, Nº 92

ESCRITÓRIO DE QUELIMANE

Av. da Libertação Nacional nr 1035, Unidade de Sinacura

Email: dinoca.gesse@manhica.net

ESCRITÓRIO DE MOPEIA

Rua Principal, Mopeia Sede

(Enfrente a praça dos trabalhadores)

Email: humberto.munguambe@manhica.net 

Uma iniciativa de

bottom of page