Notícias Notícias

Voltar

Doutorando em Ciência da Computação da UFPE tem artigo premiado em Workshop do ICCV 2023

A Conferência Internacional em Visão Computacional aconteceu em Paris de 2 a 6 de outubro

O artigo intitulado “Exploring Image Classification Robustness and Interpretability with Right for the Right Reasons Data Augmentation”, de autoria de Flávio Santos, doutorando em Ciência da Computação no Centro de Informática (CIn) da UFPE, foi premiado na categoria “Best Full Paper” do Workshop LatinX in Computer Vision da Conferência Internacional em Visão Computacional (ICCV) 2023. O trabalho foi orientado pelo professor Cleber Zanchettin, e será publicado nos anais da conferência pelo IEEE (Institute of Electrical and Electronic Engineers). O artigo foi apresentado no Workshop LatinX in Computer Vision, no dia 3 de outubro, no Centro de Convenções de Paris na França.

O ICCV ocorreu de 2 a 6 de outubro. Esse é o principal evento internacional de visão computacional, e compreende a conferência principal e vários workshops e tutoriais colocalizados. “O LXAI acontece dentro do ICCV. Ele tem como objetivo criar um espaço de acesso e compartilhamento de pesquisas de alto impacto da comunidade da América Latina para abordarem e discutirem desafios acadêmicos e industriais, além de destacar profissionais Latinx proeminentes e promover conexões”, afirma o estudante Flávio Santos.

O artigo aborda como modelos de aprendizagem de máquina às vezes usam atalhos no aprendizado de suas tarefas para tomar decisões, que apesar de corretas, não estão baseadas nas informações essenciais do problema solucionado. Além de apresentar esses insights o artigo apresenta o método “Right for the Right Reasons Data Augmentation” (RRDA), uma nova abordagem que aprimora o foco do modelo durante o seu treinamento para que considere as features mais relevantes em vez de eventuais ruidosos e features menos importantes. A abordagem provou aumentar a robustez do modelo no processo de classificação de imagens, superando outras técnicas, como GradMask e ActDiff. 

De acordo com Flávio Santos, “diariamente, observamos novas abordagens e modelos de Deep Learning, bem como novas aplicações utilizando essa tecnologia. No entanto, pouco se fala sobre os problemas e limitações associados a estes modelos e como eles podem impactar sua aplicabilidade em cenários reais. Nosso trabalho visa oferecer ferramentas que permitam treinar esses modelos para que tomem decisões corretas com base também nas informações corretas, aumentando assim nossa confiança em suas recomendações, aliando acurácia com robustez e interpretabilidade”.

Data da última modificação: 16/11/2023, 15:45