|国家预印本平台
首页|Leveraging LLMs for Semantic Conflict Detection via Unit Test Generation

Leveraging LLMs for Semantic Conflict Detection via Unit Test Generation

Leveraging LLMs for Semantic Conflict Detection via Unit Test Generation

来源:Arxiv_logoArxiv
英文摘要

Semantic conflicts arise when a developer introduces changes to a codebase that unintentionally affect the behavior of changes integrated in parallel by other developers. Traditional merge tools are unable to detect such conflicts, so complementary tools like SMAT have been proposed. SMAT relies on generating and executing unit tests: if a test fails on the base version, passes on a developer's modified version, but fails again after merging with another developer's changes, a semantic conflict is indicated. While SMAT is effective at detecting conflicts, it suffers from a high rate of false negatives, partly due to the limitations of unit test generation tools such as Randoop and Evosuite. To investigate whether large language models (LLMs) can overcome these limitations, we propose and integrate a new test generation tool based on Code Llama 70B into SMAT. We explore the model's ability to generate tests using different interaction strategies, prompt contents, and parameter configurations. Our evaluation uses two samples: a benchmark with simpler systems from related work, and a more significant sample based on complex, real-world systems. We assess the effectiveness of the new SMAT extension in detecting conflicts. Results indicate that, although LLM-based test generation remains challenging and computationally expensive in complex scenarios, there is promising potential for improving semantic conflict detection. -- Conflitos sem^anticos surgem quando um desenvolvedor introduz mudanças em uma base de código que afetam, de forma n~ao intencional, o comportamento de alteraç~oes integradas em paralelo por outros desenvolvedores. Ferramentas tradicionais de merge n~ao conseguem detectar esse tipo de conflito, por isso ferramentas complementares como o SMAT foram propostas. O SMAT depende da geraç~ao e execuç~ao de testes de unidade: se um teste falha na vers~ao base, passa na vers~ao modificada por um desenvolvedor, mas volta a falhar após o merge com as mudanças de outro desenvolvedor, um conflito sem^antico é identificado. Embora o SMAT seja eficaz na detecç~ao de conflitos, apresenta alta taxa de falsos negativos, em parte devido às limitaç~oes das ferramentas de geraç~ao de testes como Randoop e Evosuite. Para investigar se modelos de linguagem de grande porte (LLMs) podem superar essas limitaç~oes, propomos e integramos ao SMAT uma nova ferramenta de geraç~ao de testes baseada no Code Llama 70B. Exploramos a capacidade do modelo de gerar testes utilizando diferentes estratégias de interaç~ao, conteúdos de prompts e configuraç~oes de par^ametros. Nossa avaliaç~ao utiliza duas amostras: um benchmark com sistemas mais simples, usados em trabalhos relacionados, e uma amostra mais significativa baseada em sistemas complexos e reais. Avaliamos a eficácia da nova extens~ao do SMAT na detecç~ao de conflitos. Os resultados indicam que, embora a geraç~ao de testes por LLM em cenários complexos ainda seja desafiadora e custosa computacionalmente, há potencial promissor para aprimorar a detecç~ao de conflitos sem^anticos.

Nathalia Barbosa、Paulo Borba、Léuson Da Silva

计算技术、计算机技术

Nathalia Barbosa,Paulo Borba,Léuson Da Silva.Leveraging LLMs for Semantic Conflict Detection via Unit Test Generation[EB/OL].(2025-07-09)[2025-07-23].https://arxiv.org/abs/2507.06762.点此复制

评论