Notícias Notícias

Voltar

Ciência da Computação promove quatro defesas de dissertação e de tese na segunda-feira (12)

Defesas vão acontecer de modo virtual

O Programa de Pós-Graduação em Ciência da Computação da UFPE promove quatro defesas de dissertação e de tese na segunda-feira (12). As defesas vão acontecer de modo virtual. Para assistir as defesas é necessário entrar em contato com os estudantes via e-mail. 

Confira a seguir as informações sobre cada apresentação e seus horários

A defesa da tese de doutorado “Um modelo taxonômico das máquinas sociais baseados na teoria da classificação facetada”, apresentada por Brunno Wagner Lemos de Souza, orientada pelo professor Silvio Romero de Lemos Meira e coorientada pelo professor Cleyton Mário de Oliveira Rodrigues (UFRPE/DC), ocorrerá às 8h. Os componentes da banca examinadora são os professores Hermano Perrelli de Moura (UFPE/Centro de Informática), Ivaldir Honório de Farias Júnior (UPE/Campus Garanhuns), Higor Ricardo Monteiro Santos (UPE/Escola Politécnica de PE), Jeferson Kenedy Morais Vieira (UFC/Campus Quixadá) e Dorgival Pereira da Silva Netto (UFCA/Centro de Ciências e Tecnologia). Para assistir a defesa da tese, é necessário entrar em contato com o estudante através do e-mail bwls@cin.ufpe.br.

A defesa seguinte, às 9h, é da dissertação de mestrado de Lucas de Lima Nogueira, com o título: “Learning to Transfer What, Where and Which: Método de transfer learning entre redes convolucionais de arquiteturas diferentes”. O projeto foi orientado pelo professor Fernando Maciano de Paula Neto e coorientado por professor Cleber Zanchettin. A banca examinadora é formada pelos professores Adriano Lorena Inacio de Oliveira (UFPE/Centro de Informática), Bruno José Torres Fernande (UPE/Escola Politécnica de PE) e professor Cleber Zanchettin (UFPE/Centro de Informática). Quem se interessar deve entrar em contato com o estudante via endereço eletrônico lin@cin.ufpe.br.

A terceira defesa do dia, às 10h, é da dissertação de mestrado, realizada por Juliandson Estanislau Ferreira, com o título “Specification is Law: Safe Creation and Upgrade of Ethereum Smart Contracts.” O projeto é orientado pelo professor Augusto Cezar Alves Sampaio e coorientado pelo professor Pedro Ribeiro Gonçalves Antonino (Universidade de Oxford). A banca examinadora é composta pelos professores Alexandre Cabral Mota (UFPE/Centro de Informática), Fabiola Gonçalves Pereira Greve (UFBA/Departamento de Ciência da Computação) e Augusto Cezar Alves Sampaio (UFPE/Centro de Informática). Para assistir é preciso entrar em contato via e-mail, no seguinte endereço jef@cin.ufpe.br

Por fim, às 14h, Jair Galvão de Araújo defende a tese “Sequências de baixa discrepância na aceleração da avaliação da qualidade de imagem digital”, orientado pelo professor Tsang Ing Ren e coorientado pelo professor Francisco Madeiro Bernardino Junior (Unicap). Fazem parte da banca examinadora os professores Carlos Alexandre Barros de Mello (UFPE/Centro de Informática), George Darmiton da Cunha Cavalcanti (UFPE/Centro de Informática), Cleber Zanchettin (UFPE/Centro de Informática), Mylène Christine Queiroz de Farias (UnB/Departamento de Engenharia Elétrica) e professor Ricardo da Silva Torres (Norwegian University of Science and Technology/Department of ICT and Natural Sciences). Para assistir a defesa do trabalho, virtualmente, basta entrar em contato via jga@cin.ufpe.br

Resumo 1

Com o crescente interesse em Sistemas de Informação (SI) baseados na Web, começou-se a investigar uma classe específica: as Máquinas Sociais (do inglês, Social Machines, SM). As Máquinas Sociais representam sistemas sociotécnicos que estabelecem ligações através de determinadas restrições para lidar com a complexidade de serviços e operações. Analogamente, com a disseminação da Web como uma plataforma de desenvolvimento de software, juntamente com o aumento da interatividade e conectividade de aplicativos, modificou-se a compreensão da natureza da computação. A incorporação da computação na sociedade através de dispositivos pessoais tem conduzido à discussão de Computação Social e Máquinas Sociais. Além disso, representam o desenvolvimento tecnológico que concatena o comportamento humano (e, portanto, social) com sistemas computacionais, guiando a existência ainda maior de relacionamentos entre pessoas e máquinas para solução de problemas. Ainda que estes problemas sejam no âmbito governamental, na saúde, na segurança ou no combate à violência, na educação, dentre outras áreas relevantes, fazendo com que as gerações de software elevassem o nível de relacionamento e conectividade que antes era desconhecido. Contudo, as tendências e desafios de pesquisas relacionadas às Máquinas Sociais iniciam desde a dificuldade nas definições da área, por não serem padronizadas, dificultando a compreensão e consolidação dos conceitos relacionados, minando a criação de novas pesquisas nesta temática. O objetivo desta pesquisa é, portanto, definir um esquema taxonômico sobre as máquinas sociais, utilizando uma abordagem facetada. Para tanto, utilizou-se de uma metodologia baseada em: revisão exploratória da literatura, mapeamento sistemático, métodos de prospecção e um método taxonômico. A pesquisa aborda a classificação dos conceitos, das tecnologias utilizadas, do comportamento (como funciona/como é?), das funcionalidades (a finalidade/para que?), da evolução (análise comportamental) e das perspectivas (tendências) das Máquinas Sociais. A principal contribuição deste estudo é a elaboração de um instrumento para representar o conhecimento na área das Máquinas Sociais permitindo a tradução desse domínio através de um modelo de classificação. Foram observados nos trabalhos levantados que há a falta de uma taxonomia (classificação) referentes às pesquisas relacionadas às Máquinas Sociais. Inclusive, além de ser importante a construção de uma taxonomia, em que trabalhos mencionam poder existir, também é interessante caracterizar as Máquinas Sociais, podendo estes ser tratados como um modelo taxonômico ou modelo classificatório. Isso inclui um estudo comportamental e evolutivo das Máquinas Sociais e suas perspectivas, focando a atenção em problemas e soluções de maneira mais pontuais. Ao mesmo tempo em que o resultado deve permitir um aprofundamento na compreensão da natureza dos fenômenos relacionados ao tema, dando existência à construção de uma Teoria da Classificação Facetada (TCF) das Máquinas Sociais. O resultado alcançado é um primeiro passo em direção à consolidação e formalização da temática, o que abrirá espaços para a construção de novos modelos (por exemplo, representações semanticamente anotadas) que possam servir de suporte inclusive à tomada de decisões em um ambiente cada vez mais socialmente conectado.

Resumo 2

Atualmente, os modelos de deep learning estão sendo utilizados para solucionar uma grande variedade de problemas. No entanto, esse tipo de algoritmo usualmente necessita de grandes quantidades de dados para alcançar bons desempenhos. Apesar do crescimento da quantidade de dados disponíveis devido à digitalização da informação, essa ainda não é uma realidade para diversos problemas, além da necessidade de um alto custo computacional, dependendo da complexidade envolvida. Nesse sentido, técnicas de transferência de aprendizagem vêm sendo desenvolvidas para transacionar essa barreira. Algumas técnicas propostas recentemente envolvem conectar camadas e/ou channels entre redes convolucionais, de forma a transferir o conhecimento de uma rede pré-treinada para uma nova. Neste trabalho, é proposto estender essa ideia, conectando unidades de ativação, além de camadas e channels, de forma a refinar a transferência de conhecimento, aumentando o desempenho do processo. Nesse sentido, foram realizados testes em diversos datasets e o método proposto se demonstrou superior ao método anterior em um cenário essencial de quantidade limitada de dados de treinamento, alcançando um aumento de até 3.75% na acurácia.

Resumo 3

Contratos inteligentes são a base do paradigma "code is law". O código do contrato inteligente descreve indiscutivelmente como seus ativos devem ser gerenciados – uma vez criado, seu código normalmente é imutável. Contratos inteligentes com falhas apresentam significativa evidência contra a praticidade desse paradigma; os bugs resultaram em perdas de ativos no valor de milhões de dólares. Para resolver esse problema, a comunidade Ethereum propôs (i) ferramentas e processos para auditar/analisar contratos inteligentes e (ii) padrões de design que implementam um mecanismo para tornar o código do contrato mutável. Individualmente, (i) e (ii) abordam apenas parcialmente os desafios levantados pelo paradigma “code is law”. Neste trabalho, combinamos elementos de (i) e (ii) para criar uma estrutura sistemática que se afasta do “code is law” e dá origem a um novo paradigma “specification is law”. Ele permite que contratos sejam criados e atualizados, mas somente se eles atenderem a uma especificação formal correspondente. A estrutura é centrada em um trusted deployer: um serviço off-chain que verifica e reforça formalmente essa noção de conformidade. Com essa estrutura, contratos com falhas devem ser impedidos de serem implantados e atualizações seguras podem ser realizadas para otimizar o código do contrato, por exemplo. Prototipamos essa estrutura e investigamos sua aplicabilidade a contratos que implementam três padrões Ethereum amplamente usados: o ERC20 Token Standard, ERC3156 Flash Loans e ERC1155 Multi Token Standard.

Resumo 4

O aumento no uso de aplicações que manipulam imagem e vídeo digital é crescente. Neste cenário, a Avaliação da Qualidade de Imagem (IQA) desempenha um papel importante na qualidade e experiência dos usuários no processamento de imagens digitais. A Avaliação da Qualidade de Imagem pode ser dividida em avaliação subjetiva e objetiva. A IQA subjetiva obtém o julgamento através da apresentação das imagens ao Sistema Visual Humano (HSV), já a IQA objetiva busca desenvolver algoritmos para reproduzir a avaliação subjetiva do HSV. No entanto, os algoritmos IQA objetivos podem exigir grande número de operações matemáticas para realizar a avaliação. Além disso, os algoritmos IQA baseados em Redes Neurais Convolucionais exigem longo tempo de treinamento de aprendizagem. Baseado no alto custo computacional e tempo gasto no processo da avaliação da qualidade, é proposta a estratégia de amostragem com sequências de baixa discrepância no processo de IQA. Primeiramente, a estratégia utiliza sequências Van der Corput-Halton, Sobol e amostragem Uniforme para coletar pixels ao redor da imagem e formar uma representação reduzida. As imagens amostradas foram comparadas com as transformações \emph{Resize} e \emph{Cropped} com mesma quantidade de pixel amostrado. Em seguida, essas imagens foram avaliadas por métodos de IQA com e sem a presença da imagem de referência. Os resultados dos experimentos revelam que a estratégia de amostragem foi suficiente para obter as mesmas correlações SROCC e LCC de qualidade ao utilizar aproximadamente $8\%$ dos pixels das imagens da base Live e $7\%$ da TID2013 quando comparado com as correlações obtidas com as imagens integrais pelos métodos PSNR e SSIM. Outrossim, o método Learned Perceptual Image Patch Similarity (LPIPS), treinado a partir de imagens amostradas com sequência VDH, obtém $68,30\%$ de taxa de acerto sobre a base 
Berkeley-Adobe Perceptual Patch Similarity (BAPPS). A economia de tempo no treinamento do método \emph{Deep Image Quality Measure for FR} (DIQaM-FR) foi de $220\%$ e $136\%$ para as bases Live e TID2013, respectivamente.

Data da última modificação: 09/09/2022, 14:50