Please use this identifier to cite or link to this item: https://ric.cps.sp.gov.br/handle/123456789/35260
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorCARVALHO, Luciano Gonçalves de-
dc.contributor.authorMORAIS, Bianca Lopes G. de-
dc.contributor.authorFRANCO, Gustavo Henrique Braz-
dc.contributor.authorREIS, Lucas Araújo Silva dos-
dc.date.accessioned2025-08-27T20:04:48Z-
dc.date.available2025-08-27T20:04:48Z-
dc.date.issued2024-
dc.identifier.citationMORAIS, Bianca Lopes G. de; FRANCO, Gustavo Henrique Braz; REIS, Lucas Araújo Silva dos. Avaliação comparativa de modelos de linguagem de pequeno porte na tradução para o português, 2024. Trabalho de conclusão de curso (Curso Superior de Tecnologia em Análise e Desenvolvimento de Sistemas) - Faculdade de Tecnologia de Mogi das Cruzes, Mogi das Cruzes, 2024pt_BR
dc.identifier.urihttps://ric.cps.sp.gov.br/handle/123456789/35260-
dc.descriptionArtigo publicado Revista Eletrônica Anima Terra, Faculdade de Tecnologia de Mogi das Cruzes – FATEC-MC. Mogi das Cruzes-SP., n°18, ano IX, p.16-30, 2° semestre de 2024. ISSN 2526-1940.pt_BR
dc.description.abstractEste estudo avalia o desempenho de dois modelos de linguagem open source amplamente reconhecidos em 2024: Llama 3.1 8B Instruct e Mistral Instruct 7B, com foco na tradução do inglês para o português. As traduções foram analisadas com base nas métricas BLEU e METEOR, que são baseadas em n-gramas (sequências de tokens). Os experimentos utilizaram conjuntos de dados abertos disponíveis do OPUS e foram conduzidos localmente. O Llama 3.1 8B Instruct apresentou maior consistência e melhor desempenho geral, enquanto o Mistral Instruct mostrou maior variação de desempenho. Ambos os modelos demonstraram limitações ao lidar com expressões e construções mais complexas, mas, com os resultados apresentados, há uma possibilidade de uso para determinadas atividades.pt_BR
dc.description.abstractThis study evaluates the performance of two widely recognized open-source language models in 2024: Llama 3.1 8B Instruct and Mistral Instruct 7B, focusing on the translation from English to Portuguese. The translations were analyzed based on the BLEU and METEOR metrics, which are based on n-grams (sequences of tokens). The experiments utilized publicly available open datasets from OPUS and were conducted locally. The Llama 3.1 8B Instruct demonstrated greater consistency and better overall performance, while the Mistral Instruct showed more variation in performance. Both models exhibited limitations when dealing with expressions and more complex constructions; however, given the results presented, there is potential for use in certain activities.pt_BR
dc.description.sponsorshipCurso Superior de Tecnologia em Análise e Desenvolvimento de Sistemaspt_BR
dc.language.isopt_BRpt_BR
dc.publisher184pt_BR
dc.subjectProcessamento de textopt_BR
dc.subjectTraduçãopt_BR
dc.subjectLíngua inglesapt_BR
dc.subjectLíngua portuguesapt_BR
dc.subject.otherInformação e Comunicaçãopt_BR
dc.titleAvaliação comparativa de modelos de linguagem de pequeno porte na tradução para o portuguêspt_BR
dc.typeArtigo Científicopt_BR
dcterms.type-pt_BR
Appears in Collections:Trabalhos de Conclusão de Curso

Files in This Item:
File Description SizeFormat 
analiseedesenvolvimentodesistemas_2024_2_biancalopesgdemorais_avaliacaocomparativademodelosde.pdf
  Restricted Access
187.23 kBAdobe PDFView/Open Request a copy


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.