Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UNIFEI

2021
Dissertações
1
  • Caio Pinheiro Santana
  • A Meta-analysis of Machine Learning Classification Tools Using rs-fMRI Data For Autism Spectrum Disorder Diagnosis

  • Orientador : GUILHERME SOUSA BASTOS
  • MEMBROS DA BANCA :
  • RICARDO ZORZETTO NICOLIELLO VENCIO
  • ADLER DINIZ DE SOUZA
  • GUILHERME SOUSA BASTOS
  • LUCELMO LACERDA DE BRITO
  • RAFAEL DE MAGALHAES DIAS FRINHANI
  • Data: 24/02/2021

  • Mostrar Resumo
  • O Transtorno do Espectro Autista (TEA) é uma condição complexa e heterogênea que afeta o desenvolvimento cerebral e é caracterizada por disfunções cognitivas, comportamentais e sociais. Muito esforço vem sendo feito para identificar biomarcadores baseados em imagens cerebrais e desenvolver ferramentas que poderiam facilitar o diagnóstico do TEA - atualmente baseado em critérios comportamentais, através de um processo longo e demorado. Em particular, o uso de algoritmos de Aprendizado de Máquina para classificação de dados de Imagens de Ressonância Magnética funcional em estado de repouso (rs-fMRI) é promissor, mas há uma necessidade contínua de pesquisas adicionais a respeito da precisão desses classificadores. Assim, este trabalho realiza uma revisão sistemática e meta-análise de modo a resumir e agregar as evidências disponíveis na literatura da área até o momento. A busca sistemática por artigos resultou na seleção de 93 deles, que tiveram seus dados extraídos e analisados através da revisão sistemática. Um modelo meta-analítico bivariado de efeitos aleatórios foi implementado para investigar a sensibilidade e especificidade dos 55 estudos (132 amostras independentes) que ofereceram informação suficiente para serem utilizados na análise quantitativa. Os resultados obtidos indicaram estimativas gerais de sensibilidade e especificidade de 73.8% (95% IC: 71.8-75.8%) e 74.8% (95% IC: 72.3-77.1%), respectivamente, e os classificadores baseados em SVM (do inglês, Support Vector Machine) se destacaram como os mais utilizados, apresentando estimativas acima de 76%. Estudos que utilizaram amostras maiores tenderam a obter piores resultados de precisão, com exceção do subgrupo composto por classificadores baseados em Redes Neurais Artificiais. O uso de outros tipos de imagens cerebrais ou dados fenotípicos para complementar as informações obtidas através da rs-fMRI se mostrou promissor, alcançando especialmente sensibilidades mais altas (p = 0.002) em relação aos estudos que utilizaram apenas dados de rs-fMRI (84.7% - 95% IC: 78.5-89.4% - versus 72.8% - 95% IC: 70.6-74.8%). Valores menores de sensibilidade/especificidade foram encontrados quando o número de Regiões de Interesse (ROIs, do inglês Regions of Interest) aumentou. Vale destacar também o desempenho das abordagens utilizando o atlas AAL (do inglês, Automated Anatomical Labelling) com 116 ROIs. Em relação às features usadas para treinar os classificadores, foram encontrados melhores resultados nos estudos que utilizaram a correlação de Pearson em conjunto com a transformação Z de Fisher ou outras features em comparação ao uso da correlação de Pearson sem modificações. Finalmente, a análise revelou valores da área sob a curva ROC (do inglês, Receiver Operating Characteristic) entre aceitável e excelente. Entretanto, considerando as várias limitações que são indicadas no estudo, mais estudos bem desenhados são necessários para estender o uso potencial desses algoritmos de classificação a ambientes clínicos.


  • Mostrar Abstract
  • The Autism Spectrum Disorder (ASD) is a complex and heterogeneous neurodevelopmental condition characterized by cognitive, behavioral, and social dysfunction. Much effort is being made to identify brain imaging biomarkers and develop tools that could facilitate its diagnosis - currently based on behavioral criteria through a lengthy and time-consuming process. In particular, the use of Machine Learning (ML) classifiers based on resting-state functional Magnetic Resonance Imaging (rs-fMRI) data is promising, but there is an ongoing need for further research on their accuracy. Therefore, we conducted a systematic review and meta-analysis to summarize and aggregate the available evidence in the literature so far. The systematic search resulted in the selection of 93 articles, whose data were extracted and analyzed through the systematic review. A bivariate random-effects meta-analytic model was implemented to investigate the sensitivity and specificity across the 55 studies (132 independent samples) that offered sufficient information for a quantitative analysis. Our results indicated overall summary sensitivity and specificity estimates of 73.8% (95% CI: 71.8-75.8%) and 74.8% (95% CI: 72.3-77.1%), respectively, and Support Vector Machine (SVM) stood out as the most used classifier, presenting summary estimates above 76%. Studies with bigger samples tended to obtain worse accuracies, except in the subgroup analysis for Artificial Neural Network (ANN) classifiers. The use of other brain imaging or phenotypic data to complement rs-fMRI information seem to be promising, achieving specially higher sensitivities (p = 0.002) when compared to rs-fMRI data alone (84.7% - 95% CI: 78.5-89.4% - versus 72.8% - 95% CI: 70.6-74.8%). Lower values of sensitivity/specificity were found when the number of Regions of Interest (ROIs) increased. We also highlight the performance of the approaches using the Automated Anatomical Labelling atlas with 116 ROIs (AAL116). Regarding the features used to train the classifiers, we found better results using the Pearson Correlation (PC) Fisher-transformed or other features in comparison to the use of the PC without modifications. Finally, our analysis showed AUC values between acceptable and excellent, but given the many limitations indicated in our study, further well-designed studies are warranted to extend the potential use of those classification algorithms to clinical settings.

2
  • IGOR DUARTE RODRIGUES
  • Identificação de Regiões do Cérebro para Classificação de Severidade do TEA Utilizando Machine Learning e fMRI

  • Orientador : GUILHERME SOUSA BASTOS
  • MEMBROS DA BANCA :
  • GUILHERME SOUSA BASTOS
  • RAFAEL DE MAGALHAES DIAS FRINHANI
  • RICARDO ZORZETTO NICOLIELLO VENCIO
  • Data: 26/02/2021

  • Mostrar Resumo
  • O Transtorno do Espectro Autista (TEA) é uma condição neurológica vitalícia relacionada à idade e ao sexo, caracterizada principalmente por disparidades sociais. A prevalência atual do TEA indica que uma em cada 59 crianças estão dentro do espectro. O Autism Diagnostic Observation Schedule, Second Edition (ADOS-2) é um processo de diagnóstico que classifica o TEA de acordo com a gravidade do transtorno. ADOS-2 classifica sintomas mais graves como casos de ``autismo'' e os que manifestam sintomas mais leves como casos de ``TEA não autista'' (TEA-NA). Muitos artigos objetivam criar algoritmos para diagnosticar TEA por meio de aprendizado de máquina (do inglês Machine Learning - ML) e imagens de ressonância magnética funcional (do Inglês Functional Magnetic Resonance Imaging - fMRI). Essas abordagens avaliam o fluxo de oxigênio no cérebro para classificar os indivíduos como TEA ou com desenvolvimento típico. No entanto, em geral, esses trabalhos não fornecem informações sobre a gravidade do transtorno.
    Esse trabalho tem como objetivo a identificação de regiões do cérebro com diferença funcional entre indivíduos TEA-NA e autistas, como possível biomarcador para a severidade das características TEA. Para isso, o trabalho utilizou dados de fMRI de 202 indivíduos, e suas respectivas pontuações ADOS-2 disponíveis no consórcio ABIDE para determinar a subclasse de TEA correta para cada um. Esses dados foram utilizados para alimentar um algoritmo de ML, de aprendizado supervisionado, o Support Vector Machine (SVC), de forma a selecionar as regiões com maior diferença funcional para os indivíduos da amostra. Os resultados corroboram a hipótese inicial de diferenças funcionais entre as subclasses de TEA, com algumas regiões do cérebro onde a diferença funcional foi suficiente para criar 74% de precisão na classificação. Este trabalho apresenta limitações quanto ao número total de amostras. No entanto, a abordagem mostra-se promissora para o diagnóstico de severidade do TEA.


  • Mostrar Abstract
  • Autism Spectrum Disorder (ASD) is an age- and sex-related lifelong neurodevelopmental disorder characterized primarily by social impairments. Current ASD prevalence indicates that 1/59 children are diagnosed inside the spectrum. The Autism Diagnostic Observation Schedule, Second Edition (ADOS-2) classifies ASD according to the disorder severity. ADOS-2 classifies as 'autism' cases that manifest more severe symptoms and as 'ASD non-autism' cases that exhibit milder symptoms. Many papers aimed to create algorithms to diagnose ASD through Machine Learning (ML) and functional Magnetic Resonance Images (fMRI). Such approaches evaluate the oxygen flow in the brain to classify the subjects as ASD or typical development. However, most of these works, do not provided information regarding the disorder severity. This paper aims to use ML and fMRI to classify the disorder severity, aim to find brain regions potentially related to the disorder severity. We used fMRI data of 202 subjects and their ADOS-2 scores available at the ABIDE consortium to determine the correct ASD sub-class for each one. Our results corroborate the initial hypothesis of functional differences within ASD, with some brain regions where the functional difference was enough to create classification accuracy of 74%. This paper has limitations regarding the total number of samples. However, it shows a promising approach to ASD diagnosis.

3
  • VINICIUS DE ALMEIDA PAIVA
  • GASS-Metal: um servidor web para identificação de sítios metálicos similares em proteínas baseado em algoritmos genéticos paralelos

  • Orientador : SANDRO CARVALHO IZIDORO
  • MEMBROS DA BANCA :
  • VALDETE MARIA GONÇALVES DE ALMEIDA
  • GIOVANI BERNARDES VITOR
  • SABRINA DE AZEVEDO SILVEIRA
  • SANDRO CARVALHO IZIDORO
  • Data: 05/03/2021

  • Mostrar Resumo
  • Metais estão presentes em mais de 30% das proteínas encontradas na natureza e desempenham funções biológicas importantes, além de atuarem na manutenção da estrutura de proteínas. Íons metálicos em proteínas estão ligados a grupos de átomos e a esse conjunto é dado o nome de sítio metálico. Um sítio metálico pode exercer funções catalíticas, estruturais, transporte e transferência de elétrons em uma proteína.

    Métodos tradicionais e experimentais para a predição de sítios metálicos geralmente encontram empecilhos relacionados a tempo e custo de execução, e por isso cresce a necessidade de ferramentas computacionais que possam auxiliar em predições. Diversos métodos na literatura têm empenhado esforços na predição de sítios metálicos e tem mostrado grandes resultados, porém ainda encontram barreiras por questões relacionadas ao tamanho da proteína, tipo de íons e ligantes, capacidade de encontrar resíduos interdomínio e até mesmo ao obter taxas de acerto não satisfatórias.

    O objetivo desta dissertação é adaptar o algoritmo GASS (Genetic Active Site Search), inicialmente proposto para a predição de sítios catalíticos, para a busca de sítios metálicos. O método criado, GASS-Metal, divide os resíduos de uma proteína no espaço tridimensional e utiliza paralelismo de algoritmos genéticos para encontrar sítios metálicos candidatos que sejam próximos em relação à distância de templates curados provenientes dos M-CSA e MetalPDB.

    Os resultados dos testes de sanidade e com proteínas homólogas mostraram que o GASS-Metal é um método robusto, capaz de encontrar sítios metálicos em diversos tipos de íons diferentes e não restringe sua busca a uma única cadeia. Além disso, ao usar mutações conservativas, a taxa de acerto na predição melhora ainda mais, ajudando a encontrar sítios em situações onde antes era inviável, pela falta de resíduos em determinadas proteínas.

    Em comparação a preditores estado da arte, o GASS-Metal conseguiu desempenho satisfatório na predição de sítios metálicos de diferentes íons. Os resultados mostraram que o método foi superior na predição em 5 dos 12 íons metálicos avaliados e ainda obteve performance equivalente em outros 6 sítios metálicos diferentes.



  • Mostrar Abstract
  • Metals are present in more than 30% of proteins found in nature and perform important biological functions, in addition they act in the maintenance of protein structure. Metal ions in proteins are bounded to groups of atoms and this set is called a metal-binding site. Metal-binding sites can perform catalytic, structural, transport and electron transfer functions in a protein.

    Traditional and experimental techniques for metal-binding site prediction usually find obstacles related to time and cost of execution, making computational tools that can assist in predictions become even more important. Several methods in the literature have made efforts to predict metal-binding sites and have shown great results, but they still encounter barriers due to issues related to protein size, type of ions and ligands, ability to find inter-domain residues and even when obtaining not good accuracy rates.

    The main goal of this master thesis is to adapt GASS algorithm (Genetic Active Site Search), initially proposed for the prediction of catalytic sites, to search for metal-binding sites. The method developed, GASS-Metal, divides residues of a protein in three-dimensional space and uses parallelism of genetic algorithms to find candidate sites that are close in relation to the distance of cured templates from M-CSA and MetalPDB.

    The results of the sanity and homologous protein tests showed that GASS-Metal is a robust method, capable of finding metal-binding sites in different types of ions and does not restrict its search to a single chain. In addition, when using conservative mutations, the prediction accuracy rate improves even more, helping to find sites in situations where it was previously impossible, due to the lack of residues in certain proteins.

    In comparison to state-of-the-art predictors, GASS-Metal achieved satisfactory performance in predicting metal-binding sites of different ions. The results showed that the method was superior in the prediction in 5 of the 12 metal ions evaluated and still obtained equivalent performance in other 6 different metal-binding sites.


2020
Dissertações
1
  • WICTOR SOUZA MARTINS
  • Modelo de Otimização para Arquiteturas de aplicações de Big Data

  • Orientador : BRUNO TARDIOLE KUEHNE
  • MEMBROS DA BANCA :
  • BRUNO TARDIOLE KUEHNE
  • EDMILSON MARMO MOREIRA
  • LOURENCO ALVES PEREIRA JUNIOR
  • Data: 14/02/2020

  • Mostrar Resumo
  • A tecnologia de Big Data está cada vez mais presente na indústria e em pesquisas acadêmicas por proporcionar valor à análise massiva de dados. O aprimoramento desta tecnologia faz-se necessário devido ao crescimento expressivo de informação provida por diversas fontes presentes no nosso dia a dia, tais como sensores de ambientes, câmeras, smartphones e redes sociais. Um grande desafio para aplicações Big Data é equilibrar seus desempenhos em relação a seus custos de operação. Dessa forma, o provedor da aplicação Big Data necessita monitorar continuamente seu sistema para identificar pontos de melhoria dentro de sua arquitetura. Nesse contexto, este trabalho desenvolve um método de referência para avaliação de desempenho para arquiteturas de Big Data, intitulado de (Optimization Model for Big Data Architectures - OMBDA) visando melhorar o desempenho da arquitetura elevando a qualidade do serviço prestado. Sua principal contribuição está direcionada às pequenas empresas e startups que possuem recursos financeiros limitados, portanto investir em soluções prontas existentes no mercado é inviável. O método proposto considera a relação de processos dentro de um fluxo de tratamento de dados para encontrar possíveis gargalos e pontos de otimização. Para tanto, o OMBDA coleta logs do sistema para compor métricas funcionais (por exemplo, tempo de processamento) e métricas não-funcionais (por exemplo, utilização de CPU e memória, e outros recursos de infraestrutura de computação em nuvem). Essas métricas são armazenadas em uma ferramenta externa de análise de dados que investiga a correlação de desempenho entre os processos. Neste trabalho, o modelo é aplicado na arquitetura de uma aplicação Big Data, que provê soluções em logística de frotas. Por meio da aplicação do OMBDA foi possível identificar gargalos de desempenho, possibilitando a reconfiguração da arquitetura para aumentar a qualidade de serviço com o menor custo possível.


  • Mostrar Abstract
  • Big data technology is increasingly present in industry and academic research by providing value to massive data analysis. Improvement of this technology is necessary due to the exponential growth of information provided by various sources present in our daily lives, such as environment sensors, cameras, smartphones and social networks. A big challenge for big data applications is balancing their performance against their operating costs. Thus, the Big Data application provider needs to continuously monitor their system to identify improvement points within their architecture. In this context, this work develops a refernce method for performance evaluation for Big Data architectures, called by Optimization Model for Big Data Architectures (OMBDA) aimming to improve the performance and consequently raising quality of service provided. Its main contribution is directed to small companies and startups that have limited financial resources, so investing in ready-made solutions in the market is impossible. The proposed model considers the relationship of processes within a data processing flow to find possible bottlenecks and optimization points. To this end, OMBDA collects system logs to compose functional metrics (e.g., processing time) and non-functional metrics (e.g., CPU and memory utilization, and other cloud computing infrastructure resources). These metrics are stored in an external data analysis tool that investigates the correlation of performance between processes. In this work, the model is applied to the architecture of a Big Data application, which provides solutions in fleet logistics. Through the application of OMBDA it was possible to identify performance bottlenecks, enabling the architecture reconfiguration to increase the quality of service at the lowest possible cost.

2
  • LUIZ GUSTAVO MIRANDA PINTO
  • Análise e Desenvolvimento de uma Técnica de Aprendizado Profundo com OCR - SSD para Rastreamento Ativo de Carros e Posicionamento em Tempo Real em um Quadricóptero

  • Orientador : ALEXANDRE CARLOS BRANDAO RAMOS
  • MEMBROS DA BANCA :
  • ALEXANDRE CARLOS BRANDAO RAMOS
  • ELCIO HIDEITI SHIGUEMORI
  • ROBERTO AFFONSO DA COSTA JUNIOR
  • Data: 17/02/2020

  • Mostrar Resumo
  • Este trabalho tem o objetivo de apresentar uma t´ecnica constru´ıda `a partir de modelo de aprendizado profundo para rastreamento de objetos em tempo real denominada SingleShot MultiBox Detector - SSD, usada como meio de detec¸ca˜o para os objetos em imagens, em conjunto com uma biblioteca gratuita de Reconhecimento ´Otico de Caracteres (OCR), usada para Reconhecimento Autom´atico de Placas de Ve´ıculos (ALPR), chamada OpenALPR, sendo usada para o reconhecimento das placas dos ve´ıculos em tempo real, e o MAVSDK, um kit de desenvolvimento de software do protocolo MAVLink, servindo de assistˆencia para determinar o posicionamento e rastreamento em tempo real para quadrico´ptero durante voˆos autonomos guiados por software. O algoritmo foi todo implementado na linguagem de programa¸c˜ao Python em conjunto com a biblioteca OpenCV para processamento de v´ıdeo e imagem, o MAVSDK para controle remoto do PX4, o software de controle de voˆo do drone, o OpenALPR para o reconhecimento das placas e um modelo de aprendizado profundo SSD treinado usando os frameworks Caffe e TensorFlow. Uma mini-cˆamera FPV foi usada como dispositivo para a captura das imagens em tempo real para a rede SSD e o OpenALPR, sendo processadas pela biblioteca OpenCV e coordenadas pelo MAVSDK, tornando possivel o controle de rastreamento e posicionamento. Ambos experimentos simulados e em ambiente aberto foram conduzidos para coletar resultados sobre o rastreamento e posicionamento a fim de serem utilizados para futuras an´alises e refinamento.


  • Mostrar Abstract
  • This work has the goal of presenting a technique build with a deep learning algorithm for real-time object tracking called Single-Shot MultiBox Detector – SSD as a source for object detection in images, in combination with a Optical Character Recognition OCR open library for Automatic License Plate Recognition - ALPR, called OpenALPR, for a vehicle real-time license plate recognition, and MAVSDK, a MAVLink protocol SDK, serving as assistance for determining the real-time positioning and tracking for a F450 quadrotor during software assisted autonomous flight. The whole algorithm was implemented in Python programming language as a combination of OpenCV library for video and image processing, remote PX4 control with MAVSDK, which is the drone flight stack, OpenALPR for plate recognition and a custom SSD deep learning model trained using Caffe and TensorFlow frameworks. A mini FPV camera was used as a real-time streaming source for the SSD and OpenALPR, being processed by OpenCV and coordinated by MAVSDK, which made it possible to achieve both position and track control. Both simulated and outdoor experiments were conducted to collect results from both positioning and tracking for further analysis and refinement.

3
  • PEDRO LUCAS DE BRITO

  • Uma Análise do Uso de Processamento de Imagem e Redes Neurais para Travessia de Janelas em um Drone Autônomo

  • Orientador : ALEXANDRE CARLOS BRANDAO RAMOS
  • MEMBROS DA BANCA :
  • ALEXANDRE CARLOS BRANDAO RAMOS
  • ROBERTO CLAUDINO DA SILVA
  • ELCIO HIDEITI SHIGUEMORI
  • Data: 17/02/2020

  • Mostrar Resumo
  • Este trabalho investiga a implementa ̧c ̃ao de um sistema de controle autˆonomo para
    drones, esse sistema ́e capaz de realizar o travessia de janelas em vˆoos por locais fechados,
    atrav ́es do processamento de imagens e uso de redes neurais convolucionais. A estrat ́egia
    utilizada ́e a detec ̧c ̃ao de objetos, por meio de sua localiza ̧c ̃ao na imagem capturada ́e
    poss ́ıvel realizar um percurso program ́avel para o drone. Neste estudo, essa localiza ̧c ̃ao
    do objeto foi estabelecida por caixas delimitadoras, que definem o quadril ́atero em torno
    do objeto encontrado. O sistema foi baseado no uso de um piloto autom ́atico de c ́odigo
    aberto, a Pixhawk, que possui um ambiente de controle e simula ̧c ̃ao capaz de realizar
    o trabalho. Duas t ́ecnicas de detec ̧c ̃ao foram estudadas, a primeira baseada em filtros
    de processamento de imagem, que capturavam pol ́ıgonos que representam uma passagem
    dentro de uma janela. A outra abordagem foi estudada para um ambiente mais real,
    implementada com o uso de redes neurais convolucionais de detec ̧c ̃ao de objetos, com
    esse tipo de rede ́e poss ́ıvel detectar um grande n ́umero de janelas. O sistema tamb ́em
    envolve a implementa ̧c ̃ao de um m ́etodo de controle, o qual ́e capaz de aplicar os dados
    capturados pelos detectores e realizar o c ́alculo da velocidade de movimento adequada. O
    estudo traz avalia ̧c ̃oes do sistema e demonstra ̧c ̃oes dos testes realizados para sua valida ̧c ̃ao.


  • Mostrar Abstract
  • This work investigates the implementation of an autonomous control system for dro-
    nes, this system is capable of crossing windows on flights through closed places, through

    image processing and the use of convolutional neural networks. The strategy used is the
    detection of objects, through its location in the captured image it is possible to carry out

    a programmable route for the drone. In this study, this location of the object was esta-
    blished by bounding boxes, which define the quadrilateral around the found object. The

    system was based on the use of an open source autopilot, Pixhawk, which has a control

    and simulation environment capable of doing the job. Two detection techniques were stu-
    died, the first based on image processing filters, which captured polygons that represent

    a passage inside a window. The other approach was studied for a more real environment,
    implemented with the use of convolutional neural networks for object detection, with this

    type of network it is possible to detect a large number of windows. The system also in-
    volves the implementation of a control method, which is able to apply the data captured

    by the detectors and perform the calculation of the appropriate movement speed. The
    study brings evaluations of the system and demonstrations of the tests performed for its
    validation.

4
  • PAULO RICARDO ZAMBELLI TAVEIRA
  • Identificação Não Intrusiva de Cargas por Floresta Aleatória com Otimização Fogos de Artifício

  • Orientador : CARLOS HENRIQUE VALERIO DE MORAES
  • MEMBROS DA BANCA :
  • CARLOS HENRIQUE VALERIO DE MORAES
  • ISABELA NEVES DRUMMOND
  • LUIZ EDUARDO DA SILVA
  • Data: 14/04/2020

  • Mostrar Resumo
  • O controle de gastos relacionado à energia elétrica vem apresentando um grande cresci-
    mento, principalmente em ambientes residenciais. O monitoramento das cargas elétricas

    acionadas e removidas de uma residência é realizado frequentemente através de smart-
    plugs, fornecendo aos consumidores o intervalo de funcionamento e a potência consumida

    por cada equipamento. Apesar de uma solução prática de controle e redução de gastos

    de energia elétrica, possui um custo elevado devido à quantidade de medidores neces-
    sários. O problema do custo elevado pode ser contornado utilizando uma proposta de

    monitoramento de cargas não intrusivo (NILM), onde as medições de tensão e corrente
    são realizadas na entrada da residência, em contra partida demanda uma etapa extra de
    processamento. Nessa etapa extra, é necessário calcular a potência, identificar a ocorrência
    dos eventos e por fim, a identificar qual equipamento foi ligado ou desligado. As propostas
    desse trabalho foram utilizar um novo padrão de cálculo de potência proposto pela IEEE

    (1459-2010), a elaboração de um detector de evento do tipo heurístico utilizando jane-
    las de análise flutuante para localização de zonas de estabilidade nos sinais de potência

    após indicação de uma variação de potência acima de um valor pré-determinado, testes
    da melhor forma de disposição dos dados do identificador de eventos para a identificação

    de qual carga foi adicionada ou removida do circuito monitorado, e otimização dos pa-
    râmetros do classificador Floresta Aleatória (RF-Random Forest) utilizando o algoritmo

    de otimização fogos de artifício (Fireworks Algorithm- FA). Os testes do identificador de

    eventos proposto e do classificador utilizado foram realizados no dataset BLUED, que con-
    tém dados coletados em uma residência norte-americana em um período de uma semana.

    Para os testes do classificador foram utilizados quatro formas diferentes de entrada de da-
    dos inicialmente, e posteriormente as duas formas que obtiveram melhores desempenhos

    foram utilizadas no processo de otimização do classificador. O desempenho do identifica-
    dor de evento proposto foi comparado com outras publicação que utilizaram abordagens

    diferentes e obtiveram resultados satisfatórios. E os resultados das classificações foram

    comparadas entre si, por utilizarem formas de entrada de dados diferentes, e como tam-
    bém um classificador ideal, onde também foram observados uma melhora dos resultados

    quando comparados com os resultados de um classificador com parâmetros normalmente
    utilizados, um número maior de árvores foi utilizada em cada RF, mas com limitação
    na profundidade de cada árvore. E a importância das variáveis envolvidas no processo
    de classificação também foi calculada, destacando a importância da utilização do novo
    padrão de potência proposto pela IEEE.


  • Mostrar Abstract
  • The control of expenses related to electricity has been showing a great growth, especially
    in residential environments. Monitoring of electrical loads that are turning on and off from
    a home are often performed using smart-plugs, providing to the consumers information
    about operation intervals and power consumed by each device. Despite a practical solution
    to control and reduce electricity costs, it has a high cost due to the amount of meters
    required. The high cost problem can be worked around by using a non-intrusive load
    monitoring proposal (NILM), where voltage and current measurements are taken at the
    home entrance, in counterpart demand a extra processing step. In this extra step, it is
    necessary to calculate the powers, identification of the occurrence of events and finally,
    the identification of which equipment was turned on or off. The proposals of this work
    were to use a new power calculation standard proposed by the IEEE (1459-2010), the
    elaboration of a heuristic event detector using floating analysis windows to locate stability
    zones in the power signals after indicating a power variation above a predetermined value,
    testing the best way to dispose of event identifier data to identify which load has been
    added or removed from the monitored circuit, and optimization of the parameters of the
    Random Forest classifier using the fireworks optimization algorithm (FA). The proposed
    event identifier and classifier tests were performed on the dataset BLUED, which contains
    data collected at a north american residence over a period of one week. For the classifier
    tests, four different forms of data entry were used, and subsequently the two forms that
    obtained the best performances were used in the classifier optimization process. The event
    identifier results were compared with other publications that used different approaches
    and obtained satisfactory results. And the results of the classifications were compared
    to each other, for using different data entry forms, and also as an ideal classifier, where
    an improvement in the results was also observed when compared with the results of a
    classifier with commonly used parameters, presenting a larger number of trees used in
    each RF, but with a limited depth of each tree. And the importance of the variables
    involved in the classification process were calculated.

5
  • JOSÉ WAGNER DE ANDRADE JÚNIOR
  • Estruturas de dados retroativas: Aplicações na dinamização de algoritmos

  • Orientador : RODRIGO DUARTE SEABRA
  • MEMBROS DA BANCA :
  • MAYRON CESAR DE OLIVEIRA MOREIRA
  • PEDRO HENRIQUE DEL BIANCO HOKAMA
  • RODRIGO DUARTE SEABRA
  • Data: 09/06/2020

  • Mostrar Resumo
  • A retroatividade em programação é um conceito que pode ser definido como o estudo da modificação da linha temporal em uma estrutura de dados, bem como a análise dos efeitos dessa modificação através de toda a sua existência. Em geral, essa análise e implementação tendem a serem mais custosas do ponto de vista computacional, observando-se que uma modificação no passado pode gerar um efeito cascata por toda a existência dessa estrutura. O conceito de retroatividade gera ferramentas e estruturas que otimizam as soluções para a natureza desses problemas temporais. Esse tipo de estrutura pode ser utilizada nas aplicações das mais diversas naturezas, desde em algoritmos de caminho mínimo, aplicações em segurança e até em aplicações geométricas. Nessa dissertação, tem-se os subsídios teóricos sobre essas estruturas, um material detalhado sobre a implementação das estruturas mais comuns utilizando o paradigma da retroatividade, e a implementação de alguns problemas que podem ser resolvidos utilizando técnicas de retroatividade, como, por exemplo, o algoritmo de árvore geradora mínima totalmente dinâmica. Para cada estrutura, foram executados testes práticos sobre as estruturas retroativas e seu desempenho foi comparado às outras implementações dessas mesmas estruturas. Os testes mostraram que as implementações retroativas propostas por Demaine et. al (2007) obtiveram os melhores resultados do ponto de vista temporal. Além disso, foram propostos dois algoritmos que utilizam os conceitos de retroatividade para sua construção: o algoritmo para o problema da árvore geradora mínima totalmente retroativa e o algoritmo do caminho mínimo a partir de um vértice inicial fixo em grafos dinâmicos. Seja m o tamanho da linha temporal em que a estrutura está implementada, V (G) e A(G) o conjunto de vértices e arestas de um grafo G respectivamente. Foi alcançada a complexidade de tempo amortizada de O( √m · lg |V (G)|) por operação de atualização ou consulta, para o problema da árvore geradora mínima totalmente retroativa. Para o algoritmo do caminho mínimo, a partir de um vértice inicial fixo em grafos dinâmicos, por meio do algoritmo
    proposto por Sunita et. al [52], foi obtida a complexidade temporal de O(|A(G)| · lg |V (G)|) por modificação, utilizando filas de prioridade com retroatividade não-consistente.


  • Mostrar Abstract
  • The retroactivity in programming is the study of a modification in a timeline for a data structure and the effects that this modification exerts throughout its existence. In general, the analysis and implementation tend to be more costly computationally, because a modification on these data structure in the past can generate a cascade effect through all the data structure timeline. The concept of retroactivity generates tools and structures that optimize the solutions facing these temporal problems. This type of data structure can be used in, for example, shortest path algorithms, security applications, and geometric problems. In
    this thesis, we have the theoretical subsidies about these data structures, a detailed material about the implementation of this structures, using retroactivity, and the implementation of some problems that retroactivity can be used, for example, the fully dynamic minimum spanning tree problem. For each data structure, we executed practical tests about this data retroactive data structures and a comparison between these solutions and other approaches. The tests showed that the retroactive implementations proposed by Demaine et. al (2007) obtained the best results from a temporal point of view. It was proposed two algorithms which used the retroactivity concepts inside its development: the fully retroactive minimum spanning tree and the single source dynamic shortest path problem in dynamic graphs. Let m be data structure’s timeline, V (G) and A(G) the sets of vertices and edges from graph G. We reached an amortized time complexity O( √m · lg |V (G)|) per query/update operation in the fully retroactive minimum spanning tree algorithm. The algorithm to solve the single source dynamic shortest path problem in dynamic graphs proposed by Sunita et. al [52] obtained a time complexity O(|A(G)| · lg |V (G)|) per modification using a non-oblivious retroactive priority queue.

6
  • Anderson Tadeu de Oliveira Vicente
  • Mapeamento, Conversão e Migração automática de Bancos de Dados Relacionais para Orientados a Grafos

  • Orientador : EDMILSON MARMO MOREIRA
  • MEMBROS DA BANCA :
  • ALEXANDRE DONIZETI ALVES
  • EDMILSON MARMO MOREIRA
  • ENZO SERAPHIM
  • VANESSA CRISTINA OLIVEIRA DE SOUZA
  • Data: 28/08/2020

  • Mostrar Resumo
  • Bancos de Dados Relacionais são os modelos mais utilizados em diversas aplicações em razão da facilidade existente em sua linguagem de consulta e utilização em ambientes multi-usuários. Com o grande volume de informação que se tem nos dias de hoje e, sendo que estes encontram-se cada vez mais relacionadas, surgem os bancos de dados orientados a grafos como forma de lidar com esta nova demanda, frente às dificuldades do modelo relacional a este novo cenário. Diante disto, esta pesquisa tratou dos processos de mapeamento, conversão e migração do modelo relacional para o orientado a grafos, tratando, sobretudo, a sobrecarga semântica de construtores entre os dois modelos. O objetivo deste estudo foi o desenvolvimento de uma aplicação, denominada \textit{ThrusterDB}, que realiza esse processo de conversão do modelo relacional para o orientado a grafos de forma automática. A pesquisa traz contribuição ao integrar as fases de mapeamento, conversão e migração automática de um banco de dados relacional para um orientado a grafos. Esta dissertação apresenta resultados que mostram que o banco de dados gerado, após o processo, provê um desempenho melhor no tempo médio de consultas realizadas, além de preservar a semântica do banco de dados relacional de origem, sem qualquer perda ou redundância de dados.


  • Mostrar Abstract
  • Relational Databases are the most used models in several applications due to the ease of their query language and use in multi-user environments. With the great volume of information that we have today and, since they are increasingly related, databases oriented to graphs appear as a way to deal with this new demand, given the difficulties of the relational model to this new scenario. In view of this, this research dealt with the processes of mapping, conversion and migration from the relational model to the graph-oriented one, dealing, above all, with the semantic overload of constructors between the two models. The aim of this study was to develop an application, called \ textit {ThrusterDB}, that performs this process of converting the relational model to the graph-oriented one automatically. The research contributes by integrating the phases of mapping, conversion and automatic migration from a relational database to a graph-oriented one. This dissertation presents results that show that the generated database, after the process, provides a better performance in the average time of consultations carried out, in addition to preserving the semantics of the source relational database, without any loss or redundancy of data.

7
  • KAYQUE WILLY REIS DE OLIVEIRA
  • PARTICIPANDO COM JOGOS: UMA ANÁLISE DA GAMIFICAÇÃO COMO INTERVENÇÃO EM PESQUISAS DE OPINIÃO

  • Orientador : MELISE MARIA VEIGA DE PAULA
  • MEMBROS DA BANCA :
  • VANINHA VIEIRA DOS SANTOS
  • ADLER DINIZ DE SOUZA
  • MELISE MARIA VEIGA DE PAULA
  • Data: 06/11/2020

  • Mostrar Resumo
  • As pesquisas de opinião com o passar dos anos se tornaram um meio prático e comum de se coletar dados com uso de software para as mais diversas finalidades. A participação em pesquisas de opinião pode ser considerada um fenômeno no qual os sistemas colaborativos podem ser aplicados, uma vez que, esses sistemas são projetados para permitirem que pessoas se comuniquem e trabalhem em conjunto em um espaço compartilhado. Nessa abordagem, a pesquisa de opinião pode ser considerada como um instrumento que operacionaliza a cooperação entre um requisitante da pesquisa e o respondente. No entanto, a participação em pesquisas de opinião, independente da modalidade, é muito influenciada pela falta de engajamento dos participantes. A gamificação, que é definida como o uso de elementos e características de jogos em contextos que não são de jogos, tem sido considerada uma abordagem para aumentar o engajamento e encorajar a participação em pesquisas de opinião. Dessa forma, o objetivo dessa dissertação foi investigar como a gamificação pode ser utilizada como fator motivacional para estimular o engajamento em pesquisas de opinião. A metodologia desse trabalho foi definida com base no paradigma epistemológico Design Science Research (DSR), que foi utilizado para a realização de duas investigações em que foram desenvolvidos dois artefatos: o Modelo de Engajamento Colaborativo (MEC) e o aplicativo Opina Aí. Os artefatos foram avaliados em dois experimentos nos quais foram comparadas duas versões do aplicativo, versão gamificada e não gamificada. Embora os resultados em relação ao impacto da gamificação no engajamento não tenham sido conclusivos, esse trabalho pode ampliar o conhecimento e fundamentar estudos futuros em contextos em que a participação pode ser exercida de forma colaborativa e possibilitar direcionamentos sobre o uso da gamificação em pesquisas de opinião.


  • Mostrar Abstract
  • Survey over the years have become a practical and common way of collecting data using software for the most diverse purposes. Participation in Survey can be considered a phenomenon in which collaborative systems can be applied, since these systems are designed to allow people to communicate and work together in a shared space. In this approach, the survey can be considered as an instrument that operationalizes the cooperation between a research requester and the respondent. However, participation in Survey, regardless of the modality, is greatly influenced by the lack of engagement of the participants. Gamification, which is defined as the use of game elements and characteristics in non-game contexts, has been considered an approach to increase engagement and encourage participation in Survey. Thus, the objective of this dissertation was to investigate how gamification can be used as a motivational factor to stimulate engagement in Survey. The methodology of this work was defined based on the epistemological paradigm Design Science Research (DSR), which was used to carry out two research and two artifacts were developed, the Collaborative Engagement Model and the Opina Aí application. The artifacts were evaluated in two experiments in which two versions of the application were compared, gamified and non-gamified versions. Although the results regarding the impact of gamification on engagement have not been conclusive, this work can expand knowledge and support future studies in contexts where participation can be exercised collaboratively and provide guidance on the use of gamification in Survey.

8
  • DIMITRIUS GUILHERME FERREIRA BORGES
  • Gerenciamento de um cruzamento semaforizado utilizando Reinforcement Learning e Options Framework

  • Orientador : EDMILSON MARMO MOREIRA
  • MEMBROS DA BANCA :
  • CELIA LEIKO OGAWA KAWABATA
  • EDMILSON MARMO MOREIRA
  • EDVARD MARTINS DE OLIVEIRA
  • JOAO PAULO REUS RODRIGUES LEITE
  • Data: 18/12/2020

  • Mostrar Resumo
  • O número de veículos nas ruas de todo o mundo tem crescido rapidamente ao longo da última década, impactando diretamente em como o tráfego urbano é gerenciado. O controle de cruzamentos sinalizados é um problema largamente conhecido e estudado e que, embora cada vez mais tecnologias sejam exploradas e aplicadas, ainda se encontram desafios e oportunidades ao tratar o problema, principalmente quando confronta-se a ineficiência dos já bem difundidos semáforos de tempos fixos, incapazes de lidar com eventos dinâmicos. O objetivo deste trabalho é aplicar Hierarchical Reiforcement Learning (HRL) ao controle de um cruzamento veicular semaforizado e, a partir dos resultados obtidos, compará-lo a um semáforo de tempos fixos dimensionado pelo Método de Webster. HRL é uma variação de Reinforcement Learning (RL), em que objetivos secundários, representados por sub-políticas, são propostos e organizados em um modelo hierárquico e gerenciados por uma política macro, responsável por selecioná-las quando se espera rendimento máximo das mesmas, sendo que tanto as sub-políticas quanto a principal são regidas pelo framework Q-learning. Herarchical Reinforcement Learning foi escolhido por aliar a capacidade de aprendizado e tomada de decisão feitos de acordo com observações do ambiente em tempo real, característicos do Reinforcement Learning, com um modelo similar ao Dividir para Conquistar, que desmembra o problema principal em sub-problemas. Isso traz ao modelo uma maior dinâmica e poder de adaptabilidade a um problema que exibe, por vezes, variações imprevisíveis, impossíveis de serem levadas em conta em abordagens determinísticas, como o Método de Webster. Os cenários de testes, formados por diversos tipos de fluxo de veículos, aplicados a um cruzamento de duas vias simples, foram construídos através da ferramenta de simulação SUMO. Os modelos HRL, suas sub-políticas isoladas e o Método de Webster são aplicados e avaliados a partir destes cenários onde, de acordo com os resultados obtidos, HRL se mostra superior tanto ao Método de Webster quanto às suas sub-políticas isoladas, mostrando-se uma alternativa simples e eficaz.


  • Mostrar Abstract
  • The number of vehicles on the streets across the world has quickly grown in the last decade, directly impacting how urban traffic is managed. The signalized junctions control is a vastly known and studied problem. Although an increasing number of technologies is explored and used to solve it, there still are challenges and opportunities to deal with it, especially when considering the inefficiency of the widely known fixed time traffic controllers, which are incapable of dealing with dynamic events. This study aims to apply Hierarchical Reinforcement Learning (HRL) on the control of a signalized vehicular junction and compare its performance with a fixed time traffic controller, configured using the Webster Method. HRL is a Reinforcement Learning (RL) variation, where secondary objectives, represented by sub-policies, are organized and proposed in a hierarchical model, managed by a macro-policy, responsible for selecting said sub-policies when those are capable of reaching its best results, where The Q-Learning Framework rules both sub and macro policies. Hierarchical Reinforcement Learning was chosen because it combines the ability to learn and make decisions while taking observations from the environment, in real-time, a typical ability from Reinforcement Learning, with a Divide to Conquer approach, where the problem is divided into sub-problems. These capabilities bring to a highly dynamic problem a more significant power of adaptability, which is impossible to be taken into account when using deterministic models like the Webster Method. The test scenarios, composed of several vehicle fluxes applied to a cross of two lanes, were built using the SUMO simulation tool. HRL, its sub-policies and the Webster Method are applied and assessed through these scenarios. According to the obtained results, HRL shows better results than the Webster Method and its isolated sub-policies, indicating a simple and efficient alternative.

2019
Dissertações
1
  • LUIS HENRIQUE MEAZZINI SEPULVENE
  • Aplicação de Técnicas de Aprendizado de Máquina para o Diagnóstico de Falhas em Módulos Rastreadores de Frotas Veiculares

  • Orientador : BRUNO GUAZZELLI BATISTA
  • MEMBROS DA BANCA :
  • BRUNO GUAZZELLI BATISTA
  • ISABELA NEVES DRUMMOND
  • JOAO PAULO REUS RODRIGUES LEITE
  • WESLEY NUNES GONCALVES
  • Data: 23/04/2019

  • Mostrar Resumo
  • Com a indústria 4.0, as abordagens baseadas em dados estão em voga. No entanto, extrair
    as características importantes não é uma tarefa fácil e influencia muito o resultado final.
    Também há a necessidade de um conhecimento especializado do sistema para monitorar
    o ambiente e diagnosticar falhas. Neste contexto, o diagnóstico de falhas é significativo,
    por exemplo, em um sistema de monitoramento de frotas de veículos, pois é possível
    diagnosticar falhas antes mesmo que um cliente saiba da existência desta falha, além de
    minimizar os custos de manutenção dos módulos. Neste trabalho são propostas duas abordagens,
    “com informação” e “sem informação”, para exploração de um conjunto de dados,
    empregando técnicas de Aprendizado de Máquina (AM) para geração de modelos classificadores
    que auxiliem no processo de diagnóstico de falhas em módulos rastreadores de
    frotas veiculares. A abordagem “com informação” realiza a extração de características de
    forma manual, empregando os modelos de AM: Random Forest, Naive Bayes, Máquina de
    vetor de suporte (SVM) e Perceptron de múltiplas camadas (MLP); e a abordagem “sem
    informação” realiza a extração de características de forma automática, através de uma
    rede neural convolucional (CNN). Os resultados obtidos demonstraram que as abordagens
    propostas são promissoras. Os melhores modelos com extração de características manual
    obtiveram uma precisão de 99,76% e 99,68% para detecção e detecção e identificação de
    falhas, respectivamente, no conjunto de dados fornecido. Os melhores modelos fazendo
    uma extração de características automática obtiveram respectivamente 88,43% e 54,98%
    para detecção e detecção e identificação de falhas. Estes modelos podem servir como protótipos
    para diagnosticar falhas remotamente e confirmam que as técnicas tradicionais
    de AM com uma extração de características manual ainda são recursos eficazes para o
    diagnóstico de falhas.


  • Mostrar Abstract
  • With industry 4.0, data-based approaches are in vogue. However, extracting the essential
    features is not an easy task and greatly influences the final result. There is also a need
    for specialized system knowledge to monitor the environment and diagnose faults. In this
    context, the diagnosis of faults is significant, for example, in a vehicle fleet monitoring
    system, since it is possible to diagnose faults even before the customer is aware of the
    fault, in addition to minimizing the maintenance costs of the modules. In this work,
    several models using Machine Learning (ML) techniques were applied and analyzed during
    the fault diagnosis process in vehicle fleet tracking modules. This research proposes two
    approaches, with knowledge and without knowledge, to explore the dataset using ML
    techniques to generate classifiers that can assist in the fault diagnosis process in vehicle
    fleet tracking modules. The approach with knowledge performs the feature extraction
    manually, using the ML techniques: Random Forest, Naive Bayes, SVM and MLP; and
    the approach without knowledge performs an automatic feature extraction, through a
    Convolutional Neural Network (CNN). The results showed that the proposed approaches
    are promising. The best models with manual feature extraction obtained a precision of
    99,76% and 99,68% for detection and detection and identification of faults, respectively,
    in the provided dataset. The best models performing an automatic feature extraction
    obtained respectively 88,43% and 54,98% for detection and detection and identification of
    failures. These models can serve as prototypes to diagnose faults remotely and confirm that
    traditional ML techniques with manual extraction of features are still effective resources
    for fault diagnosis.

2
  • PAULO VICENTE GOMES DOS SANTOS
  • RSE: um Framework para Avaliação de Desempenho de Sistemas de Recomendação

  • Orientador : BRUNO TARDIOLE KUEHNE
  • MEMBROS DA BANCA :
  • BRUNO TARDIOLE KUEHNE
  • EDVARD MARTINS DE OLIVEIRA
  • LUIS HENRIQUE NUNES
  • Data: 02/05/2019

  • Mostrar Resumo
  • Os sistemas de recomendação são filtros que sugerem produtos de interesse para seus clientes,
    podendo assim causar um grande impacto nas vendas. Atualmente existe uma variedade
    desses algoritmos, sendo importante escolher a opção mais adequada ao problema
    em questão. Isso, no entanto, não é uma tarefa trivial. Nesse contexto é proposto o RSE
    (Recommender Systems Evaluator): um framework que realiza a avaliação de desempenho
    offline dos sistemas de recomendação. O uso da metodologia apropriada é fundamental ao
    fazer uma avaliação. No entanto isso é frequentemente negligenciado, levando a resultados
    inconsistentes. O RSE procura abstrair ao máximo a complexidade envolvida no processo,
    e se baseia em conceitos estatísticos para proporcionar conclusões mais robustas. Os estudos
    realizados comprovam a sua eficácia, mostrando inclusive que ele pode ser adaptado
    para ser usado em outros contextos além dos sistemas de recomendação.


  • Mostrar Abstract
  • Recommender systems are filters that suggest products of interest to customers, which
    may cause positive impact on sales. Nowadays there are a multitude of algorithms, and
    it is important to choose the most suitable option given a situation. However, it is not
    a trivial task. In this context, we propose the Recommender Systems Evaluator (RSE):
    a framework aimed to accomplish an offline performance evaluation of recommender systems.
    We argue that the usage of a proper methodology is crucial when evaluating. Yet
    it is frequently overlooked, leading to inconsistent results. RSE hides the complexity involved
    in the evaluation and is based on statistical concepts to provide reliable conclusions.
    Studies conducted proved its effectiveness, demonstrating that it can be adapted to be
    used in another context rather than recommender systems.

3
  • CHRISTOPHER DE SOUZA LIMA FRANCISCO
  • Extensão da técnica Earned Value Management utilizando dados da qualidade em projetos de software.

  • Orientador : ADLER DINIZ DE SOUZA
  • MEMBROS DA BANCA :
  • ADLER DINIZ DE SOUZA
  • CARLOS EDUARDO SANCHES DA SILVA
  • LEONARDO AUGUSTO DOS SANTOS OLIVEIRA
  • RAFAEL DE MAGALHAES DIAS FRINHANI
  • Data: 03/05/2019

  • Mostrar Resumo
  • Esse trabalho apresenta uma extensão da técnica de Gerenciamento de Valor Agregado
    (GVA), do inglês, Earned Value Management (EVM).
    A extensão apresentada integra dados da qualidade, baseados em requisitos de qualidade,
    para atualizar indicadores tradicionais da técnica de GVA.
    A proposta tem como objetivo principal melhorar a previsibilidade do Indicador de Desempenho
    de Custo (IDC) e Indicador de Desempenho de Prazo (IDP) e introduzir medidas
    de qualidade a técnica de GVA.
    A técnica proposta foi avaliada de acordo com uma metodologia baseada em evidência.
    Os estudos conduzidos mostraram melhor exatidão na técnica proposta de extensão da
    técnica de GVA em relação à técnica tradicional de GVA.


  • Mostrar Abstract
  • This work presents an extension of the Earned Value Management (EVM) technique.
    The proposed technique integrates quality data, based on quality requirements, to update
    traditional EVM indexes.
    The main objective of this proposal is to improve the predictability of the Cost Performance
    Index (CPI) and the Schedule Performance Index (SPI) and introduce quality
    measures to the EVM technique.
    The proposed technique was evaluated in accordance with an evidence-based methodology.
    The studies conducted showed a better accuracy in the proposed technique of extension
    of the EVM technique in relation to the traditional EVM technique

4
  • RAFAEL DE MOURA MOREIRA
  • Classificação de Batidas do Coração Usando Algoritmo de Baixo Custo

  • Orientador : ROBSON LUIZ MORENO
  • MEMBROS DA BANCA :
  • EVALDO RENÓ FARIA CINTRA
  • ROBSON LUIZ MORENO
  • TALES CLEBER PIMENTA
  • Data: 26/07/2019

  • Mostrar Resumo
  • O eletrocardiograma é uma poderosa ferramenta na detecção de patologias. Diversos
    doenças podem se manifestar através de alterações na forma do sinal elétrico produzido
    pelo coração. O desenvolvimento de dispositivos portáteis e de fácil uso capazes de analisar
    o sinal automaticamente permitiria o acompanhamento da evolução de patologias em casa,
    além de mutirões de exames em comunidades carentes, com pouco acesso a médicos e
    hospitais bem equipados. Neste trabalho é proposto um sistema completo combinando
    diferentes algoritmos para realizar classificação em tempo real de batimentos cardíacos
    para detecção de doenças utilizando hardware dedicado, com recursos limitados. Algumas
    técnicas utilizadas, como o algoritmo de Pan Tompkins para detecção de complexos QRS,
    já foram exaustivamente testados e utilizados em diversos sistemas de classificação de
    batimentos cardíacos, enquanto outros, como a segmentação dinâmica e os parâmetros de
    Hjorth, foram propostos recentemente para esse tipo de problema e seu funcionamento com
    sinais armazenados para pós-processamento foi demonstrado, além de seu baixo consumo
    de recursos computacionais. O sistema proposto foi testado verificando a integração das
    diferentes técnicas sem nenhum tipo de conhecimento prévio sobre o sinal, mediu seu
    desempenho utilizando a base de dados MIT-BIH Arrhythmia e seu tempo de execução.
    Dentro da proposta de detectar doenças, o modelo obteve índices de acerto comparáveis
    a outros trabalhos influentes nesta área de pesquisa, mas ele foi capaz de cumprir os
    requisitos de tempo de execução apenas em um laptop convencional, não se mostrando
    ainda viável para classificação em tempo real em sistemas embarcados mais acessíveis.


  • Mostrar Abstract
  • The electrocardiogram is a powerful tool for heart disease diagnosys. Several conditions
    manifest themselves as artifacts on the heart’s electric signal waveform. The development
    of user-friendly portable devices able to analyse an electrocardiogram signal automatically
    could allow patients to monitor their own conditions at home, and allow for large scale
    examinations on low income communities without doctors or well equipped hospitals. A full
    system combining different algorithms is proposed to perform online heartbeat classification
    using dedicated hardware with limited resources. Some of the techniques utilized, such
    as the Pan Tompkins QRS detection algorithm, have been extensively tested and used
    in different heartbeat classification systems, while others, such as dynamic segmentation
    and Hjorth parameters, have been previously shown to work for offline classification and
    use few computational resources. The proposed model tests how the different techniques
    integrate and work with no previous information about the signal, verifies their accuracy
    using the MIT-BIH Arrhythmia dataset and checks its execution time. Although it had
    good accuracy and was able to perform online classification on a conventional laptop, on a
    microcontroller it exceeded the execution time required for online classification.

5
  • MAURICIO XAVIER ZAPAROLI
  • SmartLock: Controle de acesso através de Smart Contracts e Smart Property

  • Orientador : ADLER DINIZ DE SOUZA
  • MEMBROS DA BANCA :
  • ADLER DINIZ DE SOUZA
  • CARLOS EDUARDO DE ANDRADE
  • RAFAEL DE MAGALHAES DIAS FRINHANI
  • Data: 06/08/2019

  • Mostrar Resumo
  • Blockchain é a tecnologia que permite a transação de dinheiro entre partes em uma forma
    peer-to-peer sem a necessidade de um intermediador de confiança como os bancos. Esse
    sistema é conhecido por suas atratentes características: (i) integridade dos dados e (ii)
    segurança. Para tomar vantagem dessas características, existem redes blockchain onde o
    foco não está em sua criptomoeda. Uma delas é a rede Ethereum, que é uma plataforma
    para aplicações chamadas contratos inteligentes que firmam acordo entre partes mas o
    fazem de maneira descentralizada. São algoritmos que são implantados no sistema e podem
    ser acessadas globalmente. Essas aplicações são executados sem a possibilidade de censura,
    fraude ou intervenção externa de terceiros. Uma de suas possíveis aplicações é o conceito
    smart property que é transacionar a posse ou controle de propriedades nos moldes da
    blockchain. Isso pode ser aplicado no contexto de alugueis de casas de veraneio e como
    o uso de serviços similares ao AirBnB tem se tornado cada vez mais popular devido sua
    atratividade financeira para os usuários há a necessidade de se desenvolver um sistema
    capaz de solucionar problemas de segurança ao mesmo tempo que traz conforto. Essa
    dissertação detalha o desenvolvimento de um projeto que estuda a viabilidade da aplicação
    do conceito de smart property. Foi desenvolvido uma plataforma de reservas onde o usuário
    faz sua reserva que quando aprovada é implantado um contrato inteligente na plataforma
    Ethereum. Para acessar a propriedade o usuário usa uma aplicação desenvolvida para o
    sistema Android que transfere as credenciais usando um protocolo de transferência de
    dados por som. A fechadura verifica as credenciais acessando o contrato inteligente e
    aciona o circuito da fechadura liberando o acesso a propriedade. Para verificar a viabilidade
    da solução, foram realizados testes com supostos usuários do sistema que responderam
    um questionário. Após análise do questionário, constatou-se que o projeto é viável, mais
    atrativo que os modelos de contrato tradicionais, funcional e proporcionou conforto.


  • Mostrar Abstract
  • Blockchain is the technology that allows the transaction of money between parties in
    a peer-to-peer manner without the need of a trusted intermediary such as banks. This
    technology is known for its attractive characteristics: (i) the data integrity, and (ii) security.
    To take advantage of such characteristics, some blockchain networks are not focused
    on their cryptocurrency. One of those networks is the Ethereum network, which is a
    platform for smart contracts. Smart contracts are applications that represent an agreement
    between parties in a decentralized manner. These algorithms are deployed on the system
    and can be globally accessed. They are executed without the possibility of censorship,
    fraud, or external third party intervention. One of their possible applications is the smart
    property concept that is transacting property on the blockchain. This can be applied on
    the property rental context and the raising use of services such as AirBnB due to its
    financial attractiveness to its users, there is a need to develop a system capable of solving
    the security issues while providing comfort. This work will presents the development of a
    project that studies the viability of applying the concept of smart property. A reservation
    platform was developed where the user makes one reservation and, when approved, a
    smart contract is deployed to the Ethereum platform. To access the property, the user
    uses the application developed for Android which transfer the credentials using a data
    through sound protocol. The lock verifies these credentials accessing the smart contract
    and activates the lock’s circuit allowing access to the property. To examine the viability of
    this project, tests were performed with supposed users of this system who also answered a
    survey. After the analysis of this survey, the project proved to be viable, more attractive
    than the traditional standard, functional, and provided comfort.

6
  • CARLOS MINORU TAMAKI
  • Estudo de Sensores Multifuncionais Para Análise da Fragilidade e Seus Componentes em Idosos

  • Orientador : ALEXANDRE CARLOS BRANDAO RAMOS
  • MEMBROS DA BANCA :
  • ALEXANDRE CARLOS BRANDAO RAMOS
  • HILDEBRANDO FERREIRA DE CASTRO FILHO
  • ROBERTO AFFONSO DA COSTA JUNIOR
  • ROBERTO CLAUDINO DA SILVA
  • Data: 06/12/2019

  • Mostrar Resumo
  • Atualmente, a pirâmide etária brasileira vem apresentando um grande aumento na faixa de pessoas idosas. Com isso, o crescente desenvolvimento de métodos, técnicas e ferramentas para avaliar a fragilidade dessas pessoas ganha cada vez mais importância no cenário nacional. A fragilidade é uma síndrome caracterizada pela redução das reservas físicas e cognitivas, tornando os idosos mais vulneráveis a eventos adversos, hospitalizações, quedas, perda de independência e morte. Para esta síndrome ser avaliada são necessários o uso de sensores de inércia, acelerômetros e algoritmos. Os sensores são utilizados para quantificar a avaliação de movimento no teste Time Up and Go (TUG), os acelerômetros são usados durante a avaliação do equilíbrio e os algoritmos detectam idosos frágeis, não frágeis e robustos. Nesse contexto, em parceria com pesquisadores da UNIFEI e UNIVAS, foi desenvolvido e testado um dispositivo eletrônico composto por sensores de alta qualidade, multifuncionais e baixo custo que, através da combinação de um giroscópio de 3 eixos, acelerômetro de 3 eixos, termômetro, oxímetro e medidor de frequência cardíaca, analisam a qualidade do movimento, o gasto energético, a velocidade da marcha, a alteração no equilíbrio e a variabilidade da frequência cardíaca durante o movimento e qualidade da contração do músculo pentríceps. Os dados são analisados em software específico, desenvolvido para o protótipo do equipamento. A validação dos sensores não causa danos ou prejuízos à saúde dos participantes. O sistema desenvolvido comprovou ser uma ferramenta eficaz para a análise da síndrome da fragilidade e continua sendo testado com sucesso em idosos voluntários.


  • Mostrar Abstract
  • Currently, the Brazilian age pyramid has shown a large increase in the range of elder people. With this, the growing development of methods, techniques and tools to assess their fragility people is increasingly important in the national scenario. Frailty is a syndrome characterized by reduced physical and cognitive reserves, making elder people more vulnerable to adverse events, hospitalizations, falls, loss of independence and death. For this syndrome to be evaluated, it is necessary to use inertia sensors, accelerometers and algorithms. Sensors are used to quantify time evaluation in the Time Up and Go (TUG) test, accelerometers are used during balance evaluation, and algorithms detect fragile, non-fragile, and robust elderly people. In this context, in partnership with researchers from UNIFEI and UNIVAS, an electronic device composed of high quality, multifunctional and low cost sensors was developed and tested, which, through the combination of a 3-axis gyroscope, 3-axis accelerometer, thermometer, oximeter and heart rate meter, analyze the quality of movement, energy expenditure, gait speed, change in balance and heart rate variability during movement and quality of contraction of the pentriceps muscle. Data are analyzed in specific software developed for the prototype. The validation of the sensors does not cause damage or harm to the health of the participants. The developed system has proven to be an effective tool for frailty syndrome analysis and continues to be successfully tested in elderly volunteers.

7
  • LUCIANO DO VALE RIBEIRO
  • Estudo de Algoritmos de Visão Computacional para Identificação e Rastreamento de Linhas de Transmissão de Energia Elétrica com Multirotores

  • Orientador : ALEXANDRE CARLOS BRANDAO RAMOS
  • MEMBROS DA BANCA :
  • ALEXANDRE CARLOS BRANDAO RAMOS
  • HILDEBRANDO FERREIRA DE CASTRO FILHO
  • ROBERTO AFFONSO DA COSTA JUNIOR
  • ROBERTO CLAUDINO DA SILVA
  • Data: 06/12/2019

  • Mostrar Resumo
  • A rede de transmissão de energia elétrica brasileira requer inspeção e manutenção preventiva regular para garantir o seu fornecimento aos consumidores. As companhias transmissoras realizam inspeções regulares para identificar anomalias na rede de transmissão, como defeitos nos cabos, trincas nos isoladores e estruturas próximos da rede, como árvores, entre outros. Estas inspeções podem ser feitas por profissionais com uso de binóculos ou através de helicópteros tripulados contendo um conjunto de sensores, tais como câmeras infravermelho para detectar pontos de alto aquecimento, entre outros sensores. O interesse no uso de Veículos Aéreos Não Tripulados (VANTs) para realizar inspeções em linhas de transmissão têm crescido nos últimos anos, devido ao baixo custo e aumento na segurança, se comparado com as inspeções realizadas com helicópteros tripulados. Com essa tecnologia, o VANT pode ser controlado via rádio controle por um piloto ou de forma semi-automática, com uma missão pré-programada no piloto embarcado da aeronave. Uma das grandes dificuldades em se realizar vôos autônomos está na dependência do sistema GPS (Global Positioning System) para obtenção da posição do VANT. O erro na medida da posição informada pelo GPS pode afetar o desenvolvimento da missão. Este trabalho visa desenvolver uma técnica de processamento de imagens em tempo real para realizar a identificação e rastreamento das linhas de transmissão e desta forma determinar a sua posição relativa ao VANT. Sem conhecer exatamente a posição do VANT e das linhas de transmissão, mas sabendo a posição relativa entre os dois, pode ser possível corrigir a trajetória do VANT através de comandos enviados para o piloto automático da aeronave. O projeto foi desenvolvido sobre o framework ROS (Robot Operating System) e o processamento de imagens foi realizado utilizando a biblioteca OpenCV. Para avaliar o desempenho da solução, criou-se um cenário virtual no simulador de robôs Gazebo, onde foi possível processar as imagens geradas por um multirotor durante uma missão de inspeção.


  • Mostrar Abstract
  • The Brazilian electricity transmission network requires regular preventive inspection and maintenance to ensure its supply to consumers. Transmission companies carry out regular inspections to identify anomalies in the transmission network, such as cable defects, insulator cracks and structures close to the network, such as trees, among others. These inspections can be performed by expert personnel using binoculars or by manned helicopters containing a set of sensors, such as infrared cameras to detect hot spots, among other sensors. Interest in using unmanned aerial vehicles (UAVs) to conduct transmission line inspections has grown in recent years due to the lower cost and increased safety compared to manned helicopter inspections. With this technology, the UAV can be controlled via radio control by a pilot or semi automatic, with a pre-programmed mission in the aircraft’s onboard pilot. One of the major difficulties in performing autonomous flights is the dependence on GPS (Global Positioning System) to obtain the UAV position. Errors in GPS position measurements can affect mission progress. This project aims to develop a real-time image processing technique to identify and track transmission lines and thus determine their position relative to the UAV. Without knowing exactly the position of the UAV and the transmission lines, but knowing the relative position between them, it can be possible to correct the UAV trajectory through commands sent to the aircraft autopilot. This project was developed under the ROS (Robot Operating System) framework and the image processing was performed using the OpenCV library. To evaluate the performance of the solution, a virtual scenario was created in the Gazebo robot simulator, which made it possible to process the images generated by a multirotor during an inspection mission.

SIGAA | DTI - Diretoria de Tecnologia da Informação - (35) 3629-1080 | Copyright © 2006-2021 - UFRN - sigaa04.unifei.edu.br.sigaa04