![]() |
Fronteiras da Engenharia de SoftwareLanguage: pt Genres: Technology Contact email: Get it Feed URL: Get it iTunes ID: Get it Trailer: |
Listen Now...
Qualidade e Manutenção de Software, com Carla Bezerra (UFC Quixadá)
Episode 62
Tuesday, 4 November, 2025
Neste episódio do Fronteiras da Engenharia de Software, Adolfo Neto e Maria Claudia Emer conversam com Carla Bezerra, professora da Universidade Federal do Ceará (UFC) – Campus Quixadá, sobre Qualidade e Manutenção de Software.Na primeira parte, Carla fala sobre sua trajetória acadêmica e profissional, sua experiência em melhoria de processos e testes de software, e sua atuação no Programa de Pós-Graduação em Computação (PCOMP).A conversa aborda os fundamentos de qualidade e manutenção de software, exemplos práticos de problemas de pesquisa, e destaca trabalhos recentes, como o artigo “On the Effectiveness of Trivial Refactorings in Predicting Non-trivial Refactorings” (JSERD 2024) e o estudo “Avaliação da qualidade dos testes Python gerados por grandes modelos de linguagem” (EASE 2025).Também são discutidos os resultados do artigo sobre code smells em aplicações React com TypeScript, publicado na Information and Software Technology, e a continuidade dessa linha de pesquisa para outros frameworks.Na parte final, Carla comenta sua co-coordenação da Trilha de Educação do SBES 2026, convida novos alunos e colaboradores, e compartilha sua visão sobre a próxima fronteira da engenharia de software.🎧 Fronteiras da Engenharia de Software é um podcast para refletir sobre o presente e o futuro da nossa área, parte da Rede Emílias de Podcasts.Pessoa entrevistada:Carla Bezerra: https://www.quixada.ufc.br/docente/carla-ilane-moreira-bezerra/ Entrevistadores:Adolfo Neto (PPGCA UTFPR): https://bit.ly/FES_AdolfoNeto Maria Claudia Emer (PPGCA UTFPR): https://bit.ly/FES_MariaClaudia Artigos:On the Effectiveness of Trivial Refactorings in Predicting Non-trivial RefactoringsSobre a eficácia das refatorações triviais na previsão de refatorações não triviaishttps://doi.org/10.5753/jserd.2024.3324 Avaliação da qualidade dos testes Python gerados por grandes modelos de linguagemQuality Assessment of Python Tests Generated by Large Language Modelshttps://arxiv.org/abs/2506.14297 Detecção de code smells em aplicações React com TypeScriptDetection of code smells in React with TypeScript applicationshttps://doi.org/10.1016/j.infsof.2025.107835 Contributing to open-source projects in refactoring code smells: A practical experience in teaching Software Maintenancehttps://doi.org/10.5753/sbes.2024.3507 Detecting Test Smells in Python Test Code Generated by LLM: An Empirical Study with GitHub Copilothttps://doi.org/10.5753/sbes.2024.3561




