Use este identificador para citar ou linkar para este item: https://ric.cps.sp.gov.br/handle/123456789/34768
Título: Estudo comparativo de diferentes artefatos de código front-end gerados por modelos de linguagem de grande escala (LLMS)
Título(s) alternativo(s): Comparative study of different front-end code artifacts generated by large-scale language models (LLMS)
Autor(es): SANTOS, Gabriel Antonio dos
NASCIMENTO, Kassio Claudio Souza do
PEREIRA, Pedro Henrique Posmão
Orientador(es): MARTINATI, Rafael Rodrigo
Outro(s) contribuidor(es): BODÊ, Jonas
PARIZOTTO, Lucas Serafim
Tipo documental: Monografia
Palavras-chave: Inteligência artificial;Desenvolvimento de software
Data do documento: 28-Jun-2025
Editor: 004
Referência Bibliográfica: SANTOS, Gabriel Antonio dos, MASCIMENTO, Kassio Claudio Souza do, PEREIRA, Pedro Henrique Posmão. Estudo comparativo de diferentes artefatos de código front-end gerados por modelos de linguagem de grande escala (LLMS), 2025. Trabalho de conclusão de curso (Curso Superior de Tecnologia em Análise e Desenvolvimento de Sistemas) - Faculdade de Tecnologia "Ministro Ralph Biasi" Americana, Americana, 2025
Resumo: Esta monografia faz um estudo comparativo entre a capacidade de diferentes Modelos de Linguagem de Grande Escala (LLMs) na geração de código em desenvolvimento front-end, com foco nas ferramentas mais utilizadas, conhecidas e parametrizadas dentro do campo: HTML, CSS e JavaScript. O estudo faz uma contextualização geral sobre a importância da produção e pesquisa contínua das ferramentas de inteligência artificial, por meio de uma abordagem empírica, aplicada e comparativa, além de ressaltar aspectos importantes sobre o impacto desta tecnologia em campos atrelados ao desenvolvimento, como educação e mercado de trabalho. Foram conduzidos experimentos com quatro modelos amplamente utilizados: GPT, Claude, Gemini e Grok — identificados nesta pesquisa como Modelos A, B, C e D, respectivamente. A escolha metodológica baseou-se na observação direta dos resultados, na aplicação de tarefas práticas em diferentes níveis de complexidade e na comparação sistemática entre os modelos em contextos controlados. Nessa etapa, os objetivos da metodologia incluíram a avaliação técnica, a identificação de limitações e a definição de métricas quantitativas, além de insights práticos para aplicação profissional. Foram selecionados artefatos de desenvolvimento comumente utilizados na prática, como formulários simples, componentes interativos e um editor de código ao vivo, a fim de testar desde habilidades básicas até capacidades mais sofisticadas dos modelos. Os resultados indicam que os LLMs demonstram proficiência na resolução de tarefas de baixa e média complexidade, com geração de código funcional e aderente às instruções fornecidas. O Modelo B destacou-se com melhor desempenho em tarefas intermediárias, oferecendo soluções mais completas, ainda que mais extensas. Contudo, todos os modelos apresentaram dificuldades consideráveis na tarefa de maior complexidade, revelando limitações em manipulações avançadas do DOM e na criação de interatividade dinâmica sem auxílio de bibliotecas externas. Por fim, a análise crítica dos dados aponta que os LLMs têm elevado potencial como ferramentas de assistência ao desenvolvimento, promovendo ganhos em produtividade e acessibilidade. No entanto, persistem desafios importantes, como a necessidade de supervisão humana contínua, a presença de vieses e a limitada capacidade em resolver problemas altamente complexos. Conclui-se, portanto, que os LLMs podem ser integrados de forma vantajosa aos fluxos de trabalho, desde que utilizados com critérios técnicos e éticos rigorosos.
This monograph presents a comparative study on the capabilities of different Large Language Models (LLMs) in generating front-end development code, focusing on the most widely used, well-known, and parameterized tools in the field: HTML, CSS, and JavaScript. The study provides a general contextualization of the importance of continuous research and development of artificial intelligence tools through an empirical, applied, and comparative approach. It also highlights the impact of this technology in related areas such as education and the job market. Experiments were conducted using four widely known models: GPT, Claude, Gemini, and Grok — referred to in this research as Models A, B, C, and D, respectively. The methodological choice was based on direct observation of results, the application of practical tasks at varying levels of complexity, and systematic comparison between models in controlled environments. At this stage, the methodological objectives included technical evaluation, identification of limitations, and the definition of quantitative metrics, as well as practical insights for professional application. Common development artifacts were selected, such as simple forms, interactive components, and a live code editor, to test both basic and more advanced model capabilities. The results indicate that LLMs show proficiency in handling low and medium-complexity tasks, generating functional code aligned with the given instructions. Model B stood out in intermediate tasks, providing more complete—though lengthier—solutions. However, all models showed significant difficulties in the most complex task, revealing limitations in advanced DOM manipulation and in creating dynamic interactivity without external libraries. Finally, a critical analysis of the data suggests that LLMs have strong potential as development support tools, promoting gains in productivity and accessibility. Nonetheless, key challenges remain, including the need for continuous human oversight, the presence of biases, and limited problem-solving ability in highly complex scenarios. It is concluded that LLMs can be advantageously integrated into development workflows, provided they are used with rigorous technical and ethical standards.
URI: https://ric.cps.sp.gov.br/handle/123456789/34768
Aparece nas coleções:Trabalhos de Conclusão de Curso



Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.