Use este identificador para citar ou linkar para este item:
https://ric.cps.sp.gov.br/handle/123456789/21692
Título: | Análise preditiva e equitativa com AI Fairness 360 |
Título(s) alternativo(s): | Predictive and equitable analysys with AI Fairness 360 |
Autor(es): | FREITAS, Camila Cardoso |
Orientador(es): | ROCCIA, Clerivaldo José |
Outro(s) contribuidor(es): | ALVES, Thiago Salhab BRANCO, Luciene Maria Garbuio Castello |
Tipo documental: | Artigo científico |
Palavras-chave: | Inteligência artificial;Algoritmos;Machine learning |
Data do documento: | 18-Jun-2024 |
Editor: | 004 |
Referência Bibliográfica: | FREITAS, Camila Cardoso. Análise preditiva e equitativa com AI Fairness 360, 2024. Trabalho de conclusão de curso (Curso Superior de Tecnologia "Ministro Ralph Biasi" Americana, Americana, 2024 |
Resumo: | A inteligência artificial é uma tecnologia que trouxe muitos benefícios para a humanidade, em questão de otimização de tempo e praticidade quanto aos serviços prestados, e por consequência, as ações comportamentais do ser humano passaram a ser armazenadas e analisadas, para posteriormente indicarem uma predição comportamental referente a serviços personalizados de cada indivíduo, englobando algoritmos de vieses discriminatórios já enraizados na sociedade. Portanto, o artigo abordará como a análise preditiva impacta diretamente as estratégias de negócios e as tomadas de decisões de mercado na economia da informação, resultando em implicações éticas, sociais e econômicas e como mitigar esses vieses em modelos de aprendizagem de máquina utilizando a ferramenta AI Fairness 360 em um estudo de caso, onde foi detectado vieses em atributos sensíveis de raça e gênero e conforme a aplicação de métodos e métricas de avaliação para o treinamento do modelo é perceptível uma redução nos efeitos negativos de dados preconceituosos resultando em análises preditivas mais justas e equitativas Artificial intelligence is a technology that has brought many benefits to humanity, in terms of time optimization and practicality in the services provided. Consequently, human behavioral actions have started to be stored and analyzed to predict personalized service behaviors for each individual, encompassing algorithms with discriminatory biases deeply rooted in society. Therefore, this article will address how predictive analysis directly impacts business strategies and market decision-making in the information economy, resulting in ethical, social, and economic implications, and how to mitigate these biases in machine learning models using the AI Fairness 360 tool in a case study. In this study, biases in sensitive attributes such as race and gender were identified, and through the application of evaluation methods and metrics for model training, a reduction in the negative effects of prejudiced data is observed, resulting in fairer and more equitable predictive analyses. |
URI: | https://ric.cps.sp.gov.br/handle/123456789/21692 |
Aparece nas coleções: | Trabalhos de Conclusão de Curso |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
20241S_Camila Cardoso Freitas_OD2145.pdf | 652.43 kB | Adobe PDF | Visualizar/Abrir | |
FA - Camila Cardoso Freitas.pdf Restricted Access | 135.2 kB | Adobe PDF | Visualizar/Abrir Solictar uma cópia | |
TA - Camila Cardos Freitas.pdf Restricted Access | 1.09 MB | Adobe PDF | Visualizar/Abrir Solictar uma cópia |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.