Os desafios éticos e editoriais da Inteligência Artificial na produção do conhecimento para os Estudos Urbanos

Rodrigo Firmino, editor associado da revista urbe, Curitiba, Paraná, Brasil.

Logo do periódico urbe. Revista Brasileira de Gestão UrbanaO avanço recente da Inteligência Artificial (IA) na pesquisa científica, na redação de manuscritos e nos fluxos editoriais recoloca, em novos termos, questões que há tempos atravessam o campo dos Estudos Urbanos: mediação tecnológica, assimetrias de poder, opacidade dos sistemas e produção desigual do espaço e do conhecimento. No contexto da ciência aberta, essa discussão precisa ser tratada não como simples atualização técnica, mas como problema epistemológico, ético e político. A declaração da Rede SciELO em apoio à ciência aberta com IDEIA explicita esse horizonte ao associar impacto, diversidade, equidade, inclusão e acessibilidade à necessidade de boas práticas éticas ao longo de todo o ciclo de pesquisa, em modelos que reconheçam diferenças entre áreas, instituições e regiões.

No campo urbano, esse debate é particularmente sensível. As tecnologias nunca operam como instrumentos neutros: elas participam da constituição de territorialidades, distribuem visibilidades e invisibilidades, redefinem fronteiras e naturalizam formas específicas de controle. Essa formulação ajuda a pensar a IA também no domínio da produção científica: trata-se de uma infraestrutura sociotécnica que, ao operar de maneira opaca e assimétrica, pode reconfigurar silenciosamente os critérios de legibilidade, autoridade e validação do conhecimento.

O primeiro problema ético, portanto, é o da opacidade. Sistemas generativos produzem textos, resumos, pareceres preliminares, revisões linguísticas e sínteses bibliográficas com reduzida inteligibilidade sobre como chegaram àquele resultado. Nos Estudos Urbanos, em que contexto, historicidade e posição de enunciação são decisivos, essa opacidade não é irrelevante. Ela pode apagar mediações, dissolver conflitos e transformar desigualdades concretas em descrições abstratas e semanticamente aceitáveis. O risco não está apenas em “erros” factuais ou referências inventadas, mas na fabricação de uma aparência de coerência que torna menos visíveis os processos de simplificação, exclusão e enquadramento operados pelo sistema.

O segundo problema é o da responsabilização. Ferramentas de IA não assumem autoria, não respondem por escolhas analíticas e não podem sustentar compromisso ético com dados, interlocutores ou consequências interpretativas. É por isso que políticas editoriais, em geral, convergem para a recusa da IA como autora e para a exigência de transparência sempre que seu uso interferir substantivamente na produção textual, analítica ou imagética. Também se consolida o entendimento de que pareceristas não devem inserir manuscritos em plataformas de IA generativa, justamente porque isso compromete a confidencialidade da avaliação, a integridade do processo editorial e, potencialmente, os direitos autorais sobre textos ainda inéditos. Esse ponto é central. Se a avaliação por pares depende de confiança, sigilo e responsabilidade intelectual, sua terceirização, ainda que parcial, a sistemas opacos corrói a própria legitimidade do processo.

Observa-se, no debate editorial recente, a consolidação de um núcleo normativo mínimo para o uso da IA na comunicação científica. Há convergência, por exemplo, quanto à impossibilidade de atribuir autoria a sistemas de IA, à exigência de transparência quando ferramentas generativas interferem substantivamente na redação ou na elaboração de materiais, e à vedação do envio de manuscritos em avaliação para plataformas externas. Essa convergência é significativa porque evidencia que a questão já não se limita ao uso instrumental da tecnologia, mas alcança princípios estruturantes da produção científica: responsabilidade intelectual, rastreabilidade metodológica, confidencialidade editorial e proteção de direitos autorais. A preocupação, portanto, não diz respeito apenas à exatidão do conteúdo gerado, mas às próprias condições institucionais de legitimidade do conhecimento publicado.

 

 

Ao mesmo tempo, permanecem importantes zonas de ambiguidade. Enquanto o uso de IA para revisão linguística tende a ser mais facilmente aceito, seu emprego para geração de imagens, tratamento de dados, apoio analítico ou elaboração de pareceres aparece cercado de restrições, ressalvas e formulações ainda pouco estáveis. Isso mostra que se trata de um campo regulatório em formação, no qual certos limites éticos já foram reconhecidos, mas outros seguem em disputa. Para os Estudos Urbanos, essa indefinição é especialmente problemática, porque abre espaço para o uso naturalizado de sistemas que podem distorcer evidências, simplificar contextos complexos, reforçar vieses e comprometer a integridade interpretativa de pesquisas assentadas em realidades territoriais profundamente desiguais. Daí a importância de políticas editoriais claras, situadas e publicamente justificadas, capazes de enfrentar não apenas os riscos técnicos da IA, mas também suas implicações epistemológicas e políticas.

Há ainda um terceiro eixo ético, menos debatido, mas decisivo para a ciência aberta: o da assimetria geopolítica na produção do conhecimento. Modelos generativos são treinados sobre bases desiguais, com forte concentração linguística, editorial e geográfica. Em consequência, tendem a privilegiar estilos argumentativos, repertórios bibliográficos e regimes de evidência mais próximos dos centros hegemônicos de circulação científica. Para um campo como o dos Estudos Urbanos, isso pode reforçar uma dupla marginalização: a dos objetos urbanos periféricos e a das formas não hegemônicas de narrar, interpretar e teorizar a cidade. Ao invés de ampliar a pluralidade epistêmica, a IA pode contribuir para a padronização da linguagem científica e para a reprodução de hierarquias já estabelecidas na geopolítica do conhecimento.

É nesse ponto que a articulação com IDEIA se torna mais substantiva. O impacto não pode ser confundido com aceleração produtivista; a diversidade não se resume à multiplicação formal de vozes, se os sistemas de mediação tendem a homogeneizá-las; a equidade exige reconhecer desigualdades materiais de acesso a infraestrutura computacional e letramento técnico; a inclusão demanda atenção às formas pelas quais certos modos de escrever e conhecer são silenciosamente desautorizados; e a acessibilidade deve incluir a transparência sobre como textos, pareceres e decisões foram produzidos. Pensar a IA de forma crítica e a partir desses princípios significa deslocar o debate do entusiasmo tecnológico para o terreno das condições concretas de produção, circulação e validação do conhecimento científico.

Por isso, mais do que admitir ou proibir genericamente a IA, periódicos científicos precisam formular políticas específicas, públicas e verificáveis para autores(as), avaliadores(as) e equipes editoriais. As políticas editoriais da Revista urbe, atualizadas recentemente, orientam sua comunidade editorial a distinguir apoio técnico de intervenção substantiva; exigir a declaração de uso quando houver impacto na redação, na análise ou na produção de imagens; vedar o envio de manuscritos a sistemas externos durante a avaliação; e reafirmar, em todos os casos, a responsabilidade humana integral pelo conteúdo publicado. A iniciativa não apenas responde a uma tendência tecnológica, mas reafirma um posicionamento editorial coerente com a defesa de uma ciência aberta comprometida com a produção de conhecimento urbano situado na América Latina.

O desafio, portanto, não está em aderir ou resistir abstratamente à IA, mas em construir formas de governança editorial e científica capazes de submeter essas ferramentas a princípios públicos, responsabilidades explícitas e critérios transparentes. Para os Estudos Urbanos, isso significa insistir que inovação sem reflexividade aprofunda assimetrias, que abertura sem regulação pode comprometer direitos, e que integridade científica, hoje, depende também da capacidade de tornar visíveis os limites, riscos e condições de uso dessas tecnologias.

Links externos

urbe. Revista Brasileira de Gestão Urbana – SciELO

urbe. Revista Brasileira de Gestão Urbana – Redes Sociais: Facebook | X | Instagram

Pontifícia Universidade Católica do Paraná (PUCPR) – Redes Sociais: Facebook | X | Instagram

 

Como citar este post [ISO 690/2010]:

FIRMINO, R. Os desafios éticos e editoriais da Inteligência Artificial na produção do conhecimento para os Estudos Urbanos [online]. SciELO em Perspectiva: Humanas, 2026 [viewed ]. Available from: https://humanas.blog.scielo.org/blog/2026/05/06/os-desafios-eticos-e-editoriais-da-inteligencia-artificial-na-producao-do-conhecimento-para-os-estudos-urbanos/

 

Leave a Reply

Your email address will not be published. Required fields are marked *

Post Navigation