Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UNIFEI

2024
Dissertações
1
  • AUDREI SILVA
  • Otimização na transmissão de dados em dispositivos IoT com foco na economia de energia

  • Orientador : RODRIGO MAXIMIANO ANTUNES DE ALMEIDA
  • MEMBROS DA BANCA :
  • CARLOS HENRIQUE VALERIO DE MORAES
  • MARCELO BARROS DE ALMEIDA
  • RODRIGO MAXIMIANO ANTUNES DE ALMEIDA
  • Data: 16/02/2024

  • Mostrar Resumo
  • O surgimento da Internet das Coisas viabilizou a conexão e o compartilhamento de in-
    formações entre objetos, possibilitando a execução de tarefas e a interação com outros
    dispositivos, com o intuito de melhorar a qualidade de vida das pessoas em diversas apli-
    cações. Contudo, essa evolução tecnológica ainda enfrenta diversos desafios, entre eles a
    eficiência energética, sobretudo em dispositivos de borda, como os sensores, que em sua
    maioria, operam com alimentação de baterias e são instalados em regiões remotas de difí-
    cil acesso. Diante dessa realidade, propõe-se a criação de um driver destinado a gerenciar
    e otimizar a transmissão de dados em dispositivos da Internet das Coisas, com foco na
    economia de energia. Esse propósito é alcançado por meio da aplicação da técnica de
    agrupamento de dados, a qual permite a redução da frequência de ativação do rádio e a
    minimização do impacto do overhead, essencial nos protocolos de comunicação. A eficácia
    dessa solução é avaliada por meio de sua implementação prática.
    De modo geral, observou-se concordância entre os resultados teóricos e experimentais.
    Contudo, para protocolos orientados à conexão, como no caso do Wi-Fi, a eficiência em
    termos de sobrecarga é comprometida pelas latências da rede. Mesmo nesse cenário, com
    a utilização do driver o consumo de corrente é 12,82% menor, além de aumentar a confi-
    abilidade do sistema e evitar a transmissão de dados redundantes desnecessários.


  • Mostrar Abstract
  • The advent of the Internet of Things facilitates the connection and sharing of information
    between objects, enabling the performance of tasks and interaction with other devices,
    with the purpose of improving people’s quality of life across various applications. However,
    this technological evolution still faces numerous challenges, among them energy efficiency,
    particularly in edge devices such as sensors, which largely operate on battery power and
    are installed in remote, difficult-to-access areas. Given this reality, it is proposed to create
    a driver aimed at managing and optimizing data transmission in IoT devices, with a focus
    on energy savings. This objective is achieved through the application of data clustering
    techniques, which allows for the reduction of radio activation frequency and minimizes the
    impact of overhead, crucial in communication protocols. The effectiveness of this solution
    is assessed through its practical implementation.
    In general, there was agreement between the theoretical and experimental results. How-
    ever, for connection-oriented protocols, such as Wi-Fi, efficiency in terms of overhead
    is compromised by network latencies. Even in this scenario, with the use of the driver,
    the current consumption is reduced by 12.82%, in addition to increasing the system’s
    reliability and avoiding unnecessary redundant data transmission.

2023
Dissertações
1
  • CLEIDIANA REIS DOS SANTOS
  • Desafio IoT: Jogo Sério para Imersão no Desenvolvimento de Software Embarcado no Contexto de Casas Inteligentes

  • Orientador : RODRIGO DUARTE SEABRA
  • MEMBROS DA BANCA :
  • BRUNO GUAZZELLI BATISTA
  • LUIS HENRIQUE NUNES
  • RODRIGO DUARTE SEABRA
  • Data: 13/02/2023

  • Mostrar Resumo
  • A evolução tecnológica proporcionada pela Internet das Coisas está em crescente
    desenvolvimento e a demanda por profissionais aumenta proporcionalmente.
    Paralelamente a essa realidade, a utilização de jogos como ferramenta de
    aprendizado é um método propício principalmente para o público mais jovem, por
    apresentar elementos de diversão e engajamento. Jogos sérios podem auxiliar os
    jogadores na aquisição de novas experiências e conhecimentos complexos, que são
    obtidos por meio da resolução de desafios. Nesse contexto, o jogo sério proposto
    neste trabalho, Desafio IoT, visa oferecer uma visão geral sobre alguns problemas e
    soluções no desenvolvimento de software embarcado para casas inteligentes. Além
    de um propósito sério, o jogo proposto busca despertar o interesse dos estudantes no
    assunto, disseminando a ideia e a motivação em atuar na área de desenvolvimento.
    A implementação do jogo foi realizada segundo o modelo de especificação Learning
    Mechanics – Game Mechanics (LM-GM). Visando investigar o impacto educacional
    proporcionado pela experiência de uso do jogo proposto, além de questionários de
    utilização e de conhecimento técnico, foi usado o questionário MEEGA+ para a
    avaliação do jogo. A partir dos resultados, pode-se concluir que o jogo foi capaz de
    introduzir os estudantes à área de Internet das Coisas e motivá-los a aprofundar seus
    conhecimentos sobre o tema. A avaliação do jogo pelos estudantes apresentou
    resultado geral positivo, bem como aprovação em sete das oito dimensões utilizadas
    na análise.


  • Mostrar Abstract
  • The technological evolution provided by the Internet of Things is in increasing
    development and the demand for professionals increases proportionally. Parallel to
    this reality, the use of games as a learning tool is a suitable practice especially for the
    younger audience, as they present elements of fun and engagement. Serious games
    can help players acquire new experiences and complex knowledge, which are
    obtained by solving the challenges. In this context, the serious game proposed in this
    research, Desafio IoT, aims to provide an overview of some problems and solutions in
    embedded software development for smart homes. In addition to a serious purpose,
    the game seeks to awaken students' interest in the subject, spreading the idea and
    motivating to work in the development area. The implementation of the game was
    carried out according to the Learning Mechanics – Game Mechanics (LM-GM)
    specification model. In order to investigate the educational impact provided by the
    experience of using the game, besides the questionnaires on usage and technical
    knowledge, the MEEGA+ questionnaire was used to evaluate the game. The results
    allow concluding that the game was able to introduce students to the Internet of Things
    area and motivate them to further their knowledge on the subject. The evaluation of
    the game by the students presented a positive overall result, as well as approval in
    seven of the eight dimensions used in the analysis.

2
  • JONAS HENRIQUE RIBEIRO PAULA
  • Comitê Colaborativo: o uso de um sistema colaborativo na elaboração de instrumentos legais participativos

  • Orientador : MELISE MARIA VEIGA DE PAULA
  • MEMBROS DA BANCA :
  • JONICE OLIVEIRA SAMPAIO
  • ADLER DINIZ DE SOUZA
  • MELISE MARIA VEIGA DE PAULA
  • Data: 24/02/2023

  • Mostrar Resumo
  • O Estatuto das Cidades (EC) regulamenta os artigos 182 e 183 da Constituição Federal, estabelecendo um conjunto de instrumentos legais participativos que combinados determinam como deve ser feita a política urbana em todo o país. Porém, a aplicação do EC representa um desafio para a administração municipal, um dos motivos é a exigência da participação popular na gestão da política urbana como forma de assegurar a equidade dos direitos dos cidadãos. Para promover essa participação, são criados comitês representativos, com membros que representam as parcelas da sociedade do município. Entretanto, os membros dos comitês envolvidos na elaboração dos instrumentos do EC, na maioria das vezes, possuem demandas divergentes sobre as escolhas públicas, agendas conflitantes e outras características que dificultam que o trabalho seja realizado de forma harmônica e eficiente. Por isso, é sempre necessário um esforço para estimular a colaboração de forma que todos os envolvidos possam apresentar seu ponto de vista e participar ativamente. Desta forma, este trabalho propõe a análise da intervenção de um sistema colaborativo, denominado Comitê Colaborativo, nas atividades realizadas por comitês durante a elaboração de instrumentos legais participativos do EC. O Comitê Colaborativo foi implantado em projetos reais realizados por um grupo de pesquisa e extensão da Universidade Federal de Itajubá que auxilia prefeituras na elaboração e revisão destes instrumentos, seguindo as diretrizes da metodologia pesquisa-ação. Na análise dos resultados, foi possível perceber que houve uma melhora na coordenação das atividades, um avanço na cooperação entre os envolvidos e melhores oportunidades de comunicação entre os membros com a intervenção do Comitê Colaborativo.


  • Mostrar Abstract
  • The Cities Statute (CS) regulates articles 182 and 183 of the Federal Constitution, establishing a set of participatory legal instruments that combined determine how urban policy should be conducted throughout the country. However, the application of the CS represents a challenge for the municipal administration, one of the reasons is the demand for popular participation in the management of urban policy to ensure the equity of citizens' rights. To promote this participation representative committees are created with members who represent the parts of society in the municipality. However, the members of the committees involved in the elaboration of the CS instruments, in most cases, have divergent demands on public choices, conflicting agendas and other characteristics that make it difficult for the work to be conducted in a harmonious and efficient way. Therefore, it is always necessary to try to encourage collaboration so that everyone involved can present their point of view and actively participate. In this way, this work proposes the analysis of the intervention of a collaborative system, called Collaborative Committee, in the activities conducted by committees during the elaboration of participatory legal instruments of the CS. The Collaborative Committee was implemented in real projects conducted by a research and extension group from the Federal University of Itajubá that helps municipalities in the elaboration and revision of these instruments, following the guidelines of the action research methodology. In the analysis of the results, it was possible to notice that there was an improvement in the coordination of activities, an advance in the cooperation between those involved and better opportunities for communication between the members with the intervention of the Collaborative Committee.

3
  • IGOR MOREIRA ALVES
  • Ideb, as unidades da federação e o perfil das escolas públicas: uma análise exploratória de dados não supervisionada.

  • Orientador : CARLOS HENRIQUE DA SILVEIRA
  • MEMBROS DA BANCA :
  • CARLOS HENRIQUE DA SILVEIRA
  • MELISE MARIA VEIGA DE PAULA
  • CRISTIANE NERI NOBRE
  • Data: 24/02/2023

  • Mostrar Resumo
  • Essa dissertação busca o uso da ciência dos dados, por meio de análise exploratória não supervisionada, comprovar o que a literatura já sabe e/ou apresentar novas descobertas sobre a influência da infraestrutura sobre a educação básica brasileira. A infraestrutura escolar não se resume apenas à questão arquitetônica das escolas, mas também ao ambiente educativo e administrativo, equipamentos, recursos educacionais, práticas, currículos e processo de ensino e aprendizagem. A coleta de dados foi realizada sobre os dados abertos do Censo Escolar 2019 (Educação Básica) e do Índice de Desenvolvimento da Educação Básica (Ideb), relativos aos anos 2005-2019. A escolha do ano de 2019 foi por se tratar do último ano que as escolas apresentaram resultados antes da influência da pandemia COVID-19. Após vários tratamentos nos dados e a escolha de atendimento apenas do segmento inicial do ensino fundamental, aplicou-se duas metodologias de análise: Correlograma e Análise Fatorial (FA). Para uma clareza nos resultados, criou-se novos atributos referentes aos entes federativos que permitiu identificar quais estados e perfis de escolas estão melhores relacionados ao crescimento e aos bons resultados do Ideb. Para essas correlações optou-se pela Sigma da Cópula Gaussiana que leva em consideração os dados categóricos e contínuos e, ainda, gerou uma matriz positiva definida. O Correlograma gerou uma matriz quadrada que apresentou os relacionamentos dos atributos em um dendrograma de heatmap. Dividido em 4 grandes grupos, cada um apresentou características específicas e relações com os entes federativos. O primeiro grupo apresentou forte relacionamento com as infraestruturas básicas; o segundo grupo, com o Ideb e as infraestruturas mais sofisticadas; o terceiro grupo, apresentou poucas relações entre os atributos; e último grupo forte correlações negativas e conteve maior precariedade nas infraestruturas. Após averiguação de compatibilidade da base de dados para aplicação do FA, foram estimados que 10 fatores seriam adequados a esse estudo. Quatro fatores apresentaram associação com os atributos do Ideb, o foco deste trabalho. Observou-se também três padrões nos atributos que elencaram bons resultados no Ideb com diferentes infraestruturas, políticas e/ou propostas educacionais: o primeiro grupo, norteado por SP, apresentou saneamentos básicos ofertados pelo serviço público, internet de qualidade com uso na aprendizagem e órgãos escolares; o segundo grupo, encabeçado por MG, indica associação a flexibilização no ensino tradicional, com ciclos escolares e salas não seriadas; o terceiro grupo ficou marcado pelas atividades complementares e atendimento especializado, representado pelo CE. Em contradição a esses parâmetros, escolas com a modalidade EJA, principalmente do nordeste, tendem a ter menores resultados no Ideb. Os outros 6 fatores agregaram muitas informações relevantes, inclusive relacionadas às correlações e anti correlações dos entes federativos e atributos específicos. Como visto, a ciência dos dados tem muito a agregar à área da educação. Espera-se com trabalhos futuros acrescentar ainda mais dados, como estudos longitudinais sobre o Ideb e agregar outros índices educacionais como o Ioeb e o nível socioeconômico da população.


  • Mostrar Abstract
  • This dissertation seeks to use data science, through unsupervised exploratory analysis, to prove what the literature already knows and/or present new discoveries about the influence of infrastructure on Brazilian basic education. School infrastructure is not limited to the architectural issue of schools, but also to the educational and administrative environment, equipment, educational resources, practices, curricula and the teaching and learning process. Data collection was carried out on open data from the 2019 School Census (Basic Education) and the Basic Education Development Index (Ideb), for the years 2005-2019. The choice of the year 2019 was because it was the last year that schools presented results before the influence of the COVID-19 pandemic. After several data treatments and the choice of attending only the initial segment of fundamental education, two analysis methodologies were applied: Correlogram and Factor Analysis (FA). For clarity in the results, new attributes were created referring to the federative entities that allowed identifying which states and school profiles are better related to the growth and good results of the Ideb. For these correlations, the Sigma of the Gaussian Copula was chosen, which takes into account the categorical and continuous data and also generated a definite positive matrix. The Correlogram generated a square matrix that presented the attribute relationships in a Heatmap Dendrogram. Divided into 4 large groups, each one had specific characteristics and relationships with federal entities. The first group had a strong relationship with basic infrastructure; the second group, with IDEB and the most sophisticated infrastructures; the third group showed few relationships between the attributes; and the last group had strong negative correlations and contained greater precariousness in infrastructure. After verifying the compatibility of the database for the application of the FA, it was estimated that 10 factors would be suitable for this study. Four factors were associated with the attributes of the Ideb, the focus of this work. Three patterns were also observed in the attributes that listed good results in the Ideb with different infrastructures, policies and/or educational proposals: the first group, guided by São Paulo state, presented basic sanitation offered by the public service, quality internet for use in learning and institutions schoolchildren; the second group, headed by Minas Gerais state, indicates an association with flexibility in traditional teaching, with school cycles and non-serial classrooms; the third group was marked by complementary activities and specialized care, represented by the Ceará state . In contradiction to these parameters, schools with the EJA modality, mainly in the northeast, tend to have lower results in the Ideb. The other 6 factors added a lot of relevant information, including those related to the correlations and anti-correlations of the federative entities and specific attributes. As seen, data science has a lot to add to the field of education. Future works are expected to add even more data, such as longitudinal studies on the Ideb and to add other educational indices such as the Ioeb and the socioeconomic level of the population.

4
  • DOMINGOS SAVIO FARIA PAES
  • Detecção preditiva de anomalias em redes de computadores com utilização de aprendizagem de máquina

  • Orientador : BRUNO GUAZZELLI BATISTA
  • MEMBROS DA BANCA :
  • BRUNO GUAZZELLI BATISTA
  • CARLOS HENRIQUE VALERIO DE MORAES
  • LOURENCO ALVES PEREIRA JUNIOR
  • RAFAEL DE MAGALHAES DIAS FRINHANI
  • Data: 27/02/2023

  • Mostrar Resumo
  • Com a dependência cada vez maior das tecnologias no dia a dia, fica evidente a preocu-
    pação em se manter as infraestruturas que dão suporte ao seu funcionamento, garantindo
    assim uma boa experiência ao usuário final. Assim, os ataques de negação de serviço, estão
    entre as principais causas de anomalias em redes de computadores, podendo causar uma
    degradação ou até mesmo a interrupção dos serviços. Nesse contexto, a aplicação de novas
    tecnologias, como a inteligência artificial ou o aprendizado de máquina, se tornam cada
    vez mais necessárias, para garantir mais agilidade na detecção dos problemas diminuindo
    seus impactos. Dessa forma, esse trabalho apresenta uma análise entre diferentes métodos
    de aprendizagem de máquina supervisionado classificador, aplicados aos dados coletados
    em equipamentos de rede, do tipo switch, de forma a detectar anomalias na infraestrutura
    de redes de uma instituição de ensino superior. Os métodos de aprendizado de máquina
    utilizados neste trabalho foram: Decision Tree, Random Forest, Extra Tree, Gradient Bo-
    osting, Extreme Gradient Boosting e Histogram Gradient Boosting. Os modelos gerados a
    partir desses métodos se mostraram promissores, sendo capaz de atingir resultados com
    99.88% na métrica F1 Ponderada e 99,16% de Acurácia Balanceada. Outros pontos, como
    tempo de treinamento, tempo de predição e tamanho do arquivo de salvamento, também
    foram levados em consideração para a classificação do melhor método. Dada a impor-
    tância das ferramentas de detecção de falhas, este trabalho contribui para a definição
    das melhores abordagens e assim permite que sejam elaboradas novas e mais eficientes
    ferramentas para esta finalidade.


  • Mostrar Abstract
  • With the increasing dependence on technologies on a daily basis, it is evident the con-
    cern to maintain the infrastructures that support its operation, thus guaranteeing a good
    experience for the end user. Thus, denial of service attacks are among the main causes
    of anomalies in computer networks, which can cause degradation or even interruption of
    services. In this context, the application of new technologies, such as artificial intelligence
    or machine learning, becomes increasingly necessary to ensure more agility in detecting
    problems, reducing their impacts. Thus, this work presents an analysis between different
    methods of classifier supervised machine learning, applied to data collected fromnetwork
    equipment, of the switch type, in order to detect anomalies in the network infrastruc-
    ture of a higher education institution. The machine learning methods used in this work
    were: Decision Tree, Random Forest, Extra Tree, Gradient Boosting, Extreme Gradient
    Boosting and Histogram Gradient Boosting. The models generated from these methods
    showed promise, being able to achieve results with 99.88% in the Weighted F1 metric
    and 99.16% of Balanced Accuracy. Other points, such as training time, prediction time
    and save file size, were also taken into account for the classification of the best method.
    Given the importance of fault detection tools, this work contributes to the definition of
    the best approaches and thus allows the development of new and more efficient tools for
    this purpose.

5
  • Otávio Soares Silva
  • Caracterização de Amplificador de Transcondutância Diferencial de Diferenças Baseada em Inversores CMOS

  • Orientador : RODRIGO APARECIDO DA SILVA BRAGA
  • MEMBROS DA BANCA :
  • DALTON MARTINI COLOMBO
  • PAULO MARCOS PINTO
  • RODRIGO APARECIDO DA SILVA BRAGA
  • SANDRO CARVALHO IZIDORO
  • Data: 03/04/2023

  • Mostrar Resumo
  • Esta dissertação apresenta a arquitetura de amplificador de transcondutância diferencial de diferenças (FDDTA) baseada em inversores CMOS. Projetado em um processo CMOS de 130 nm, opera em inversão fraca quando alimentado com 0,25 V. Além disso, o FDDTA não requer circuito de calibração externa suplementar, como fontes de corrente ou tensão de polarização, uma vez que depende da técnica de layout distribuído que casa intrinsecamente aos inversores CMOS. Para fins analíticos, realizamos uma investigação detalhada que descreve todos os conceitos e todo o funcionamento da arquitetura do FDDTA.


  • Mostrar Abstract
  • This dissertation presents the Differential Transconductance Differences Amplifier (FDDTA) architecture based on CMOS inverters. Designed on a 130 nm CMOS process, it operates in weak inversion when supplied with 0.25 V. Furthermore, FDDTA does not require supplemental external calibration circuitry such as bias current or voltage sources as it relies on the distributed layout technique that intrinsically matches CMOS inverters. For analytical purposes, we performed a detailed investigation that describes all the concepts and the entire functioning of the FDDTA architecture.

6
  • NATALIA SÁNCHEZ SÁNCHEZ
  • Sistema de localização topológica utilizando visão computacional

  • Orientador : GIOVANI BERNARDES VITOR
  • MEMBROS DA BANCA :
  • RUBEN DARIO HERNANDEZ BELENO
  • GIOVANI BERNARDES VITOR
  • RAFAEL FRANCISCO DOS SANTOS
  • Data: 20/04/2023

  • Mostrar Resumo
  • O presente trabalho apresenta uma metodologia inovadora que utiliza técnicas de visão computacional para realizar a localização topológica de um veículo autônomo. A grande vantagem desta técnica é que ela dispensa o uso de GPS ou qualquer sensor de posição em tempo contínuo, o que pode aumentar significativamente a segurança em regiões onde os sensores de localização são limitados ou ausentes. A metodologia consiste na construção de um mapa topológico da região de interesse, onde os pontos de interesse são definidos. Para isso, várias imagens de cada coordenada são coletadas e passam por filtros e processamentos para formar um banco de imagens georreferenciadas. A partir daí, o sistema recebe como entrada um vídeo, onde as imagens são comparadas com as imagens do banco de imagens, utilizando o algoritmo SURF, para definir se há correspondência com as coordenadas de interesse. Se a correspondência for identificada, o algoritmo define a localização do veículo no mapa topológico. Os resultados dos experimentos realizados mostram uma taxa de acerto de 91,5\% na detecção dos pontos de interesse dentro do mapa topológico, indicando que esta metodologia pode complementar o sistema de navegação de um veículo autônomo de forma eficiente e precisa.


  • Mostrar Abstract
  • This paper presents an innovative methodology that uses computer vision techniques to perform the topological localization of an autonomous vehicle. The great advantage of this technique is that it eliminates the use of GPS or any continuous time position sensor, which can significantly increase safety in regions where location sensors are limited or absent. The methodology consists of building a topological map of the region of interest, where the points of interest are defined. To do this, several images of each coordinate are collected and go through filters and processing to form a georeferenced image bank. From there, the system receives as input a video, where the images are compared with the images in the image bank, using the SURF algorithm, to define if there is a correspondence with the coordinates of interest. If a match is identified, the algorithm defines the location of the vehicle on the topological map. The results of the experiments performed show a 91.5\% accuracy rate in detecting the points of interest within the topological map, indicating that this methodology can complement the navigation system of an autonomous vehicle efficiently and accurately.

7
  • LUCAS GOMES DE ALMEIDA
  • Classificação do Comportamento do Motorista em Redes de Comunicação Veicular para Veículos Comerciais

  • Orientador : BRUNO TARDIOLE KUEHNE
  • MEMBROS DA BANCA :
  • STEPHAN REIFF-MARGANIEC
  • BRUNO TARDIOLE KUEHNE
  • EDVARD MARTINS DE OLIVEIRA
  • OTÁVIO DE SOUZA MARTINS GOMES
  • Data: 26/05/2023

  • Mostrar Resumo
  • Os veículos estão se tornando mais inteligentes e conectados devido à demanda por transporte mais rápido, eficiente e seguro. Para essa transformação, foi necessário aumentar a quantidade de dados transferidos entre os módulos eletrônicos na rede veicular, pois isso é fundamental para o processo de tomada de decisão de um sistema inteligente. Centenas de mensagens trafegam o tempo todo em um veículo, criando oportunidades para análise e desenvolvimento de novas funções para auxiliar a tomada de decisão do motorista. Diante desse cenário, a dissertação apresenta os resultados de uma pesquisa para caracterizar os estilos de direção dos motoristas utilizando as informações disponíveis na rede de comunicação veicular.

    Esta dissertação de mestrado concentra-se no processo de extração de informações de uma rede veicular, análise das características extraídas e classificação do motorista com base nos dados extraídos. O estudo tem como objetivo identificar comportamentos de direção agressivos usando dados do mundo real coletados de cinco caminhões diferentes durante um período de três meses. O método de pontuação do motorista utilizado neste estudo identifica dinamicamente comportamentos de direção agressivos durante janelas de tempo pré-definidas, calculando a aceleração instantânea derivada dos dados adquiridos. Além disso, a técnica de agrupamento K-Means foi explorada para agrupar diferentes comportamentos em conjuntos de dados.

    O Capítulo 2 fornece uma visão geral abrangente do referencial teórico necessário para o desenvolvimento bem-sucedido desta dissertação. O Capítulo 3 detalha o processo de extração de dados de ambientes reais e não controlados, incluindo as etapas realizadas para extrair e refinar os dados. O Capítulo 4 concentra-se no estudo das características extraídas dos dados pré-processados, e o Capítulo 5 apresenta dois métodos para identificar ou agrupar os dados em conjuntos.

    Os resultados obtidos neste estudo avançaram o estado da arte da classificação do comportamento do motorista e provaram ser satisfatórios. A dissertação aborda a lacuna na literatura ao utilizar dados de ambientes reais e não controlados, que exigiram pré-processamento antes da análise. Além disso, o estudo representa um dos primeiros realizados em veículos comerciais em um ambiente não controlado.

    Em conclusão, esta dissertação oferece insights para o desenvolvimento de modelos de classificação do comportamento do motorista usando dados do mundo real. Pesquisas futuras podem basear-se nas técnicas apresentadas neste estudo e aprimorar ainda mais os modelos de classificação. A dissertação também aborda as ameaças à validade que foram mitigadas e fornece recomendações para pesquisas futuras.


  • Mostrar Abstract
  • Vehicles are becoming more intelligent and connected due to the demand for faster, efficient, and safer transportation. For this transformation, it was necessary to increase the
    amount of data transferred between electronic modules in the vehicular network since it is
    vital for an intelligent system’s decision-making process. Hundreds of messages travel all
    the time in a vehicle, creating opportunities for analysis and development of new functions
    to assist the driver’s decision. Given this scenario, the dissertation presents the results of
    research to characterize driving styles of drivers using available information in vehicular
    communication network. This master thesis focuses on the process of information extraction from a vehicular network, analysis of the extracted features, and driver classification based on the extracted data. The study aims to identify aggressive driving behavior using real-world data collected from five different trucks running for a period of three months. The driver scoring method used in this study dynamically identifies aggressive driving behavior during predefined time windows by calculating jerk derived from the acquired data. In addition, the K-Means clustering technique was explored to group different behaviors into data clusters. Chapter 2 provides a comprehensive overview of the theoretical framework necessary for the successful development of this thesis. Chapter 3 details the process of data extraction from real and uncontrolled environments, including the steps taken to extract and refine the data. Chapter 4 focuses on the study of features extracted from the preprocessed data, and Chapter 5 presents two methods for identifying or grouping the data into clusters. The results obtained from this study have advanced the state-of-the-art of driver behavior classification and have proven to be satisfactory. The thesis addresses the gap in the literature by using data from real and uncontrolled environments, which required preprocessing before analysis. Furthermore, the study represents one of the pioneering studies conducted on commercial vehicles in an uncontrolled environment. In conclusion, this thesis provides insights into the development of driver behavior classification models using real-world data. Future research can build upon the techniques presented in this study and further refine the classification models. The thesis also addresses the threats to validity that were mitigated and provides recommendations for future research.

8
  • DANIEL PAIVA FERNANDES
  • Utilização de Algoritmo de Consenso para Comunicação Segura entre drones em FANETs com Baixo Custo Computacional

  • Orientador : JEREMIAS BARBOSA MACHADO
  • MEMBROS DA BANCA :
  • SIDNEY NASCIMENTO GIVIGI JUNIOR
  • JEREMIAS BARBOSA MACHADO
  • RODRIGO MAXIMIANO ANTUNES DE ALMEIDA
  • SERGIO RONALDO BARROS DOS SANTOS
  • Data: 26/06/2023

  • Mostrar Resumo
  • O desenvolvimento de redes veiculares encontrou um cenário mais fértil com o avanço das comunicações ultra-confiáveis de baixa latência (URLLC), implantação de redes de quinta geração (5G) em todo o mundo, capacitação da computação de borda e a adoção da “Internet das Coisas” nas soluções em cidades inteligentes. Para garantir o sucesso dessas redes, é fundamental que o processo de comunicação seja confiável e seguro contra ações maliciosas e que a solução tenha baixa complexidade computacional e consumo de energia.
    Entre redes veiculares que podem obter proveito dessas novas tecnologias, estão as FANETs (Flying Ad-Hoc Networks), que podem desempenhar papel crítico em missões de salvamento e reconhecimento de áreas de risco. Esta redes necessitam de uma solução que garanta transparência, segurança e tolerância à falhas de forma descentralizada para funcionarem corretamente.
    Portanto, o presente trabalho propõe uma solução de prova de conceito para garantir comunicação tolerante a falhas em Redes Aéreas Ad-Hoc (FANETs) heterogêneas com baixo custo computacional emuladas, usando o algoritmo de consenso Proof of Elapsed Time (PoET).


  • Mostrar Abstract
  • The development of vehicular networks has found a more fertile scenario with the advancement of ultra-reliable low latency communications (URLLC), deployment of fifth generation (5G) networks worldwide, empowerment of edge computing and adopting “Internet of Things” solutions in smart cities. To guarantee the success of these networks, it is essential to ensure that the communication process is reliable, safe from malicious actions, and that the solution has low computational complexity and energy consumption.
    Among vehicular networks that can take advantage of these new technologies are FANETs (Flying Ad-Hoc Networks), which can play a critical role in rescue missions and reconnaissance of risk areas. These networks need a solution that guarantees transparency, security and fault tolerance in a decentralised way to function correctly.
    Therefore, the present work proposes a proof-of-concept solution to ensure crash-fault tolerant communication in emulated heterogeneous Flying Ad-Hoc Networks (FANETs) using the Proof of Elapsed Time (PoET) consensus algorithm.

9
  • Bianca da Rocha Bartolomei
  • Uma proposta para apoiar o planejamento urbano a partir do uso de dados gerados na elaboração de instrumentos de política pública

  • Orientador : MELISE MARIA VEIGA DE PAULA
  • MEMBROS DA BANCA :
  • JOSE MARIA NAZAR DAVID
  • ADLER DINIZ DE SOUZA
  • MELISE MARIA VEIGA DE PAULA
  • VANESSA CRISTINA OLIVEIRA DE SOUZA
  • Data: 30/06/2023

  • Mostrar Resumo
  • Uma das metas existentes na Agenda 2030 para o Desenvolvimento Sustentável é o aumento da urbanização inclusiva e sustentável. Alcançar esse objetivo já é considerado um desafio, visto que no Brasil muitas cidades já passaram e, ainda passam, por um processo de expansão e urbanização. Nesse contexto, emerge o conceito de planejamento urbano, entendido como uma das formas de sistematizar esse processo, uma vez que permite uma melhor alocação de recursos financeiros e humanos, além de definir ações e objetivos em prol da resolução de problemas que sejam coletivos. Para isso, são definidos os instrumentos de política urbana, intimamente relacionados ao planejamento urbano, uma vez que os instrumentos de política urbana são as ferramentas e mecanismos utilizados para implementar o planejamento e alcançar as metas estabelecidas para a cidade. O objetivo da pesquisa apresentada nesta dissertação de mestrado é investigar soluções que apoiem a tomada de decisão no contexto de planejamento urbano. Para isso, foram analisados dados coletados em projetos de elaboração e atualização de instrumentos de política urbana de forma que esses dados pudessem ser utilizados na elaboração de uma solução. A metodologia utilizada foi a Design Science Research Methodology (DSRM), o artefato proposto e desenvolvido foi um sistema de apoio à decisão na forma de um painel de visualização de informações sobre a composição espacial de um município no interior de Minas Gerais. Para isso, foram usados conceitos de análise de dados geográficos e de visualização de informações. O painel foi avaliado por um grupo de potenciais usuários e a hipótese de que o uso dos dados gerados pelos instrumentos de política urbana podem auxiliar o planejamento urbano municipal foi corroborada pelas respostas obtidas. Com o estudo, foi possível evidenciar a importância dos dados considerados, o potencial do artefato proposto, além de permitir identificar oportunidades para trabalhos futuros.


  • Mostrar Abstract
  • One of the existing goals in the 2030 Agenda for Sustainable Development is to increase inclusive and sustainable urbanization. Achieving this goal is already considered a challenge, since in Brazil many cities have already gone through, and still go through, a process of expansion and urbanization. In this context, the concept of urban planning emerges, understood as one of the ways to systematize this process, since it allows a better allocation of financial and human resources, in addition to defining actions and objectives in favor of solving collective problems. For this, urban policy instruments are defined, closely related to urban planning, since urban policy instruments are the tools and mechanisms used to implement planning and achieve the goals established for the city. The objective of the research presented in this master's thesis is to investigate solutions that support decision-making in the context of urban planning. For this, data collected in projects for the elaboration and updating of urban policy instruments were analyzed so that these data could be used in the elaboration of a solution. The methodology used was the Design Science Research Methodology (DSRM), the artifact proposed and developed was a decision support system in the form of a visualization panel of information about the spatial composition of a municipality in the interior of Minas Gerais . For this, concepts of geographic data analysis and information visualization were used. The panel was evaluated by a group of potential users and the hypothesis that the use of data generated by urban policy instruments can help municipal urban planning was corroborated by the responses obtained. With the study, it was possible to highlight the importance of the data considered, the potential of the proposed artifact, in addition to identifying opportunities for future work.

10
  • Iago Felicio Dornelas
  • Aplicação das ações básicas de esforço de Laban em uma ferramenta interativa 2D para suporte à composição coreográfica

  • Orientador : RODRIGO DUARTE SEABRA
  • MEMBROS DA BANCA :
  • LINA MARIA GARCES RODRIGUEZ
  • LUCIANA APARECIDA MARTINEZ ZAINA
  • RODRIGO DUARTE SEABRA
  • Data: 12/07/2023

  • Mostrar Resumo
  • A elaboração do planejamento de movimentação no espaço por coreógrafos é crucial na composição coreográfica, exigindo um esforço cognitivo complexo para transformar um produto abstrato em uma representação visual. Variados meios, desde símbolos e notações até ferramentas digitais, têm sido usados para registrar e simular movimentos. No entanto, devido à natureza específica da dança e à sua falta de disponibilidade como formação técnica no Brasil, os métodos consolidados ao longo do tempo, como os conceitos desenvolvidos pelo coreógrafo Rudolf Laban, são pouco difundidos e inacessíveis para coreógrafos profissionais e amadores. Nesse contexto, foi desenvolvida a ferramenta Move Note, que permitiu aos participantes desta pesquisa explorarem trajetórias de dançarinos por meio de animações abstratas. A ferramenta possibilitou a aplicação de efeitos nos deslocamentos dos dançarinos, proporcionando uma abordagem inovadora para representar as ações básicas de esforço de Laban em um ambiente bidimensional. O desenvolvimento da ferramenta baseou-se em uma revisão bibliográfica extensa, análise do estado da arte e levantamento junto a potenciais usuários. Com o intuito de investigar se a aplicação dos conceitos de Laban em uma ferramenta interativa poderia oferecer suporte à composição coreográfica, foram conduzidas avaliações das experiências dos usuários, adaptadas dos modelos TAM (Technology Acceptance Model) e TTF (Task-Technology Fit). Os resultados indicaram que a ferramenta desenvolvida foi capaz de fornecer suporte adequado, uma vez que os índices de satisfação obtidos nas análises, juntamente com os comentários positivos dos participantes, evidenciaram a contribuição proporcionada pela ferramenta. Este trabalho apresenta contribuições tanto em termos de discussão acerca da interpretação dos dados coletados quanto de reflexão sobre a relevância prática do tema. Adicionalmente, introduz à comunidade acadêmica um modelo de representação das ações básicas de esforço de Laban em um ambiente bidimensional, ampliando, assim, as possibilidades de pesquisa e aplicação desses conceitos nos campos da dança e da tecnologia.


  • Mostrar Abstract
  • The planning of movement in space by choreographers is crucial in choreographic composition, requiring a complex cognitive effort to transform an abstract product into a visual representation. Different means, from symbols and notations to digital tools, have been used to record and simulate movements. However, due to the specific nature of dance and its lack of availability as a technical training in Brazil, the methods consolidated over time, such as the concepts developed by choreographer Rudolf Laban, are not widespread or accessible to professional and amateur choreographers. We thus developed the Move Note tool, which allowed the participants in this research to explore dancers' trajectories through abstract animations. The tool made it possible to apply effects to the dancers' displacements, providing an innovative approach to represent Laban's basic effort actions in a two-dimensional environment. The development of the tool was based on an extensive bibliographic review, analysis of the state of the art and a survey on potential users. In order to investigate whether the application of Laban's concepts in an interactive tool could support choreographic composition, evaluations of users' experiences were carried out, adapted from the TAM (Technology Acceptance Model) and TTF (Task-Technology Fit) models. The results indicated that the tool developed was able to provide adequate support, since the satisfaction rates obtained in the analyses, together with the positive comments from the participants, evidenced the contribution provided by the tool. This work presents contributions both in terms of discussion about the interpretation of the data collected and reflection on the practical relevance of the research theme. Additionally, it introduces to the academic community a model of representation of Laban's basic effort actions in a two-dimensional environment, thus expanding the possibilities of research and application of these concepts to the fields of dance and technology.

11
  • MOISÉS PINHEIRO SOUZA
  • ProtCool 2.0: um modelo cliente/servidor para um gerador de protocolos de ancoragens e simulações de dinâmica molecular em complexos proteína-ligante.

  • Orientador : CARLOS HENRIQUE DA SILVEIRA
  • MEMBROS DA BANCA :
  • KARINA DOS SANTOS MACHADO
  • CARLOS HENRIQUE DA SILVEIRA
  • RODRIGO APARECIDO DA SILVA BRAGA
  • Data: 18/07/2023

  • Mostrar Resumo
  • A pandemia de COVID-19 evidenciou a alta demanda por sistemas computacionais que
    acelerem a indicação de novos fármacos. Nesse sentido, compreender o comportamento
    dinâmico de complexos biomoleculares é algo fundamental. As técnicas que envolvem
    simulações de dinâmica molecular desses complexos vêm sendo crescentemente
    utilizadas como forma de agilizar a indicação de melhores candidatos à fármacos. No
    entanto, a preparação de tais simulações é de grande complexidade, e seus inúmeros
    detalhes nem sempre são suficientemente destacados, comprometendo sua
    reprodutibilidade e reusabilidade. Para tanto, foi proposta a ferramenta ProtCool – um
    gerador de protocolos, focado na integração entre ancoragem e dinâmica molecular de
    complexos proteína-ligantes. Em sua primeira versão, essa ferramenta era de uso restrito
    ao ambiente local do usuário. Este trabalho apresenta a versão 2.0 do ProtCool,
    desenvolvida sob um modelo cliente-servidor com interface WEB. O objetivo é preencher
    as lacunas deixadas pela versão anterior, aprimorando o software em três aspectos
    fundamentais: torná-lo multiplataforma, possibilitar o acesso a múltiplos usuários e tornar
    a ferramenta mais intuitiva. O desenvolvimento de uma interface amigável permite que
    essa nova versão expanda o domínio de uso também para pesquisadores inexperientes ou
    novatos em química computacional. O ProtCool 2.0 não executa as dinâmicas após
    preparação nem opera análises dos resultados, ele é construído para ser um expert na
    preparação baseado em workflows, percorrendo o workflow que lhe foi programado,
    gerando todos os arquivos de configuração necessários para uma execução confiável da
    dinâmica molecular no aparato computacional do usuário. Como todo o processo fica
    devidamente registrado, isso permite maior reprodutibilidade e reusabilidade das
    preparações. Boa parte de suas funcionalidades estão fundamentadas na adaptação das
    ferramentas mais conhecidas pela literatura no campo de simulações de dinâmica
    molecular. O ProtCool 2.0 foi desenvolvido utilizando as melhores práticas e processos
    de engenharia de software. Sua arquitetura cliente-servidor implementada sob o padrão
    web permite que ele seja multiplataforma e multiusuário, característica que traz ganhos
    em disponibilidade e desempenho. Ele possui uma interface gráfica minimalista que
    oferece recursos interativos que concedem segurança ao usuário para o correto
    preenchimento de seus parâmetros de estudo, evitando erros. Para demostrar seu uso, o
    ProtCool 2.0 foi submetido a um estudo de caso na simulação da interação entre
    acetilcolinesterase e galantamina, usada no tratamento do Alzheimer, o que possibilitou
    uma validação por replicação de uma simulação certificada por pares em publicação
    internacional. Foi possível demonstrar ao final que a preparação da simulação de fato
    permitiu a execução de dinâmicas moleculares confiáveis, reproduzindo os resultados
    esperados. Espera-se que esta ferramenta possa não somente trazer maior agilidade,
    reprodutibilidade e reusabilidade às preparações de dinâmica molecular, como contribuir
    para suavizar a curva de aprendizagem dessas simulações em química computacional.


  • Mostrar Abstract
  • The COVID-19 pandemic has made it clear the high demand for computational systems
    that expedite the discovery of new drugs. In this regard, understanding the dynamic
    behavior of biomolecular complexes is crucial. Techniques involving molecular
    dynamics simulations of these complexes have increasingly been used to accelerate the
    identification of better drug candidates. However, the preparation of such simulations is
    highly complex, and their numerous details are not always adequately emphasized,
    compromising their reproducibility and reusability. To address this, the ProtCool tool was
    proposed—a protocol generator focused on integrating docking and molecular dynamics
    of protein-ligand complexes. In its initial version, this tool was restricted to the user's
    local environment. This work presents version 2.0 of ProtCool, developed under a clientserver model with a web interface. The aim is to fill the gaps left by the previous version,
    enhancing the software in three fundamental aspects: making it multi-platform, enabling
    access to multiple users, and making the tool more intuitive. The development of a userfriendly interface allows this new version to expand its scope of use to inexperienced or
    novice researchers in computational chemistry. ProtCool 2.0 does not execute the
    dynamics or perform result analyses; it is designed to be an expert in preparation based
    on workflows, following the programmed workflow and generating all the necessary
    configuration files for reliable execution of molecular dynamics on the user's
    computational setup. With the entire process being properly recorded, this allows for
    greater reproducibility and reusability of the preparations. Many of its functionalities are
    based on the adaptation of well-known tools from the literature in the field of molecular
    dynamics simulations. ProtCool 2.0 was developed using best practices and software
    engineering processes. Its client-server architecture implemented under the web standard
    enables it to be cross-platform and multi-user, providing benefits in availability and
    performance. It features a minimalist graphical interface with interactive resources that
    ensure user safety in correctly filling out their study parameters, thus preventing errors.
    To demonstrate its use, ProtCool 2.0 underwent a case study on the simulation of the
    interaction between acetylcholinesterase and galantamine, used in the treatment of
    Alzheimer's disease, which allowed for validation through replication of a simulation
    certified by peers in an international publication. The preparation of the simulation
    successfully enabled the execution of reliable molecular dynamics, reproducing the
    expected results. It is expected that this tool will not only bring greater speed,
    reproducibility, and reusability to molecular dynamics preparations but also contribute to
    smoothing the learning curve for these simulations in computational chemistry.

12
  • THIAGO MOREIRA DE FREITAS
  • Algoritmos Genéticos Aplicados ao Problema de Roteamento de Veículos com Múltiplos Depósitos

  • Orientador : RAFAEL FRANCISCO DOS SANTOS
  • MEMBROS DA BANCA :
  • FERNANDO BERNARDES DE OLIVEIRA
  • RAFAEL FRANCISCO DOS SANTOS
  • SANDRO CARVALHO IZIDORO
  • Data: 30/08/2023

  • Mostrar Resumo
  • O Problema de Roteamento de Veículos ou Vehicle Routing Problem (VRP) tem amplas aplicações em logística e transporte com grande importância econômica. VRP é uma generalização de um grande número de problemas de roteamento, que consistem em encontrar o número ideal de rotas, que saem de um único depósito, para atender um conjunto de clientes, minimizando os custos de roteamento e atendendo um conjunto de restrições. O problema de roteamento de veículos de múltiplos depósitos ou Multi Depot Vehicle Routing Problem (MDVRP) é uma extensão do VRP, em que há mais de um depósito distribuídos em uma determinada área geográfica. O restante do problema é idêntico ao VRP. Existem vários métodos para a resolução do MDVRP como técnicas exatas, algoritmos aproximativos e heurísticos. Os Algoritmos Genéticos ou Genetic Algorithms (GAs) são meta-heurísticas amplamente utilizadas para encontrar soluções para o problema MDVRP devido às características estocásticas dos GAs e a eficiência na resolução de problemas combinatórios e, por esse motivo foi selecionado para ser aplicado nesse trabalho. O algoritmo desenvolvido foi testado utilizando instâncias presentes na literatura e comparado com metodologias existentes, no qual o algoritmo genético encontrou bons resultados e o trabalho trouxe a contribuição na técnica de seleção de clientes que podem realizar trocas entre depósitos. Os resultados alcançados mostram que esse algoritmo pode ser avaliado em empreendimentos reais, possibilitando melhorar a operação de empreendimentos que enfrentam esse tipo de problema, reduzindo custos com transporte, distância, tempo de entrega, serviços, entre outros benefícios.


  • Mostrar Abstract
  • The Vehicle Routing Problem (VRP) has wide applications in logistics and transportation with great economic importance. VRP is a generalization of a large number of routing problems, which consist of finding the optimal number of routes, leaving a single depot, to serve a set of customers, minimizing routing costs and meeting a set of constraints. The Multi Depot Vehicle Routing Problem (MDVRP) is an extension of VRP, in which there is more than one depot distributed in a given geographic area. The rest of the problem is identical to VRP. There are several methods for solving MDVRP such as exact techniques, approximate algorithms and heuristics. Genetic Algorithms (GAs) are meta-heuristics widely used to find solutions to the MDVRP problem due to the stochastic characteristics of GAs and the efficiency in solving combinatorial problems and, for this reason, they were selected to be applied in this work. The developed algorithm was tested using instances present in the literature and compared with existing methodologies, in which the genetic algorithm found good results and the work contributed to the technique of selecting customers who can exchange between deposits. The results achieved show that this algorithm can be evaluated in real projects, making it possible to improve the operation of projects that face this type of problem, reducing transportation costs, distance, delivery time, services, among other benefits.

13
  • FERNANDO HIDEKI TAKENAKA
  • Sumarizador de Avaliações Usando TextRank e Modelagem de Tópicos

  • Orientador : LAERCIO AUGUSTO BALDOCHI JUNIOR
  • MEMBROS DA BANCA :
  • ISABELA NEVES DRUMMOND
  • LAERCIO AUGUSTO BALDOCHI JUNIOR
  • RAFAEL DUARTE COELHO DOS SANTOS
  • Data: 31/08/2023

  • Mostrar Resumo
  • Na última década a Internet mudou o modo como as pessoas trabalham, fazem compras
    e se socializam. Essas mudanças resultaram em um aumento no Conteúdo Gerado pelos
    Usuários (CGU) como, por exemplo: avaliações, notas, artigos e vídeos. Os CGUs possuem
    informações relevantes para a tomada de decisão, especialmente no que se refere à aquisição de bens e serviços. Entretanto, o grande volume e dispersão deste conteúdo torna difícil a obtenção de informações relevantes. Neste contexto, a sumarização de textos é apresentada como um modo de tornar este conteúdo mais acessível às pessoas.
    Um dado sumário A pode ser considerado melhor que um outro sumário B se o primeiro
    for mais curto que o segundo com o mesmo conteúdo, ou quando mesmo sendo mais longo, possui mais informações relevantes. Analisando a literatura disponível, foi constatado que é possível produzir sumários de melhor qualidade do que aqueles que correspondem ao estado da arte em sumarização de textos. Neste trabalho, apresentamos um sumarizador automático multilingual que combina e expande os algoritmos Latent Dirichlet Allocation (LDA) e TextRank. Em comparação com o estado da arte, este trabalho gerou sumários melhores em termos de tamanho e conteúdo.


  • Mostrar Abstract
  • Over the past decade, the Internet has changed the way people work, shop and socialize. Those changes resulted in the increase of User Generated Content (UGC) such as: ratings, reviews, wikis, and videos. UCG contains relevant information for decision-making, especially with regard to the acquisition of goods and services. However, the large volume and dispersion of this content makes it difficult to obtain relevant information. Text summarization appears as a way to make this content more accessible to people.
    A summary A can be considered better than another B when A is shorter than B while maintaining the same content relevance, or when A, despite being longer, presents more relevant content. Analyzing the literature, we observed that it is possible to produce better quality summaries than those produced by algorithms that correspond to the state of the art in text summarization. We present a multilingual automatic text summarizer that combines and extends the algorithms Latent Dirichlet Allocation (LDA) and TextRank. Our approach, when compared to the state of the art, generates better text summaries in terms of size and content relevance.

14
  • THIAGO SALES FREIRE LUZ
  • Análise e comparação de algoritmos ensemble de classificação na descoberta de exoplanetas

  • Orientador : ENIO ROBERTO RIBEIRO
  • MEMBROS DA BANCA :
  • ENIO ROBERTO RIBEIRO
  • ROBERTO SILVA NETTO
  • RODRIGO APARECIDO DA SILVA BRAGA
  • SANDRO CARVALHO IZIDORO
  • Data: 28/09/2023

  • Mostrar Resumo
  • Exoplanetas são planetas encontrados fora do sistema solar. A descoberta dos exoplanetas ocorre devido ao trabalho científico envolvendo o uso de telescópios, entre eles, o Kepler. Os dados coletados por este telescópio são chamados de Kepler Object of Interest. Para a tarefa de identificação de padrões nestes dados são utilizados algoritmos de Aprendizado de Máquina. Estes algoritmos são treinados para classificar estes dados em exoplanetas ou em falso-exoplaneta, isto é, falso-positivo. Dentre os algoritmos de classificação têm-se os denominados algoritmos Ensemble. Estes algoritmos combinam o desempenho de predição de dois ou mais algoritmos visando aperfeiçoar o desempenho preditivo final. Na literatura são utilizados algoritmos tradicionais em pesquisas relacionadas a detecção de exoplanetas. Constata-se, dessa forma, a carência de trabalhos que utilizam algoritmos Ensemble com este propósito. Esta dissertação realiza uma comparação de desempenho entre algoritmos Ensemble no processo de identificação de exoplanetas. Cada algoritmo é implementado com um conjunto de diferentes valores de parâmetros e executado várias vezes por um processo de validação cruzada. Uma matriz de confusão é gerada em cada execução, a qual é usada para análise das seguintes métricas de desempenho do algoritmo: exatidão, sensibilidade, especificidade, precisão e nota F1. Os algoritmos Ensemble atingiram um desempenho maior que 80% de acerto na maioria das métricas. Com a alteração dos valores dos parâmetros das funções observa-se um melhor resultado na predição. O algoritmo com o melhor desempenho foi o Stacking. Em síntese, verifica que os algoritmos Ensemble possuem um grande potencial para melhorar o resultado da predição de exoplanetas. O algoritmo Stacking se mostrou superior aos demais algoritmos e este aspecto é discutido no artigo. Os resultados desta dissertação indicam ser relevante aumentar o uso destes algoritmos, por possuírem um alto desempenho preditivo, favorecendo a detecção de exoplanetas.


  • Mostrar Abstract
  • Exoplanets are planets discovered outside our solar system. Their discovery happens because of scientific work with telescopes such as the Kepler. The data collected by Kepler is known as Kepler Object of Interest. Machine Learning algorithms are trained to classify these data into exoplanets or non-exoplanets. An Ensemble Algorithm is a type of Machine Learning technique that combines the prediction performance of two or more algorithms to gain an improved final prediction. The current works on exoplanet identification use mostly traditional non-Ensemble algorithms. Therefore, research that uses Ensemble algorithms for exoplanet identification is scarce. This paper performs a comparison among some Ensemble algorithms on the exoplanet identification process. Each algorithm is implemented with a set of different values for its parameters and executed multiple times. All executions are performed with the cross-validation method. A confusion matrix is created for each algorithm implementation. The results of each confusion matrix provided data to evaluate the following algorithm’s performance metrics: accuracy, sensitivity, specificity, precision, and F1 score. The Ensemble algorithms achieved an average performance of more than 80% in all metrics. Changing the default values of the Ensemble algorithms parameters improved their predictive performance. The algorithm with the best performance is Stacking. In summary, the Ensemble algorithms have great potential to improve exoplanet prediction. The Stacking algorithm achieved a higher performance than the other algorithms. This aspect is discussed in the text. The results of this work show that it is reasonable to increase the use of Ensemble algorithms. The reason is their high prediction performance to improve exoplanet identification.

15
  • RENATO FIGUEIREDO FRADE
  • Caracterização temporal e espacial de roubos de rua contrastando contextos pré-pandêmico e pandêmico

  • Orientador : CARLOS HENRIQUE DA SILVEIRA
  • MEMBROS DA BANCA :
  • ADRIANO VELASQUE WERHLI
  • ALEXANDRE CARLOS BRANDAO RAMOS
  • CARLOS HENRIQUE DA SILVEIRA
  • Data: 09/12/2023

  • Mostrar Resumo
  • Esta pesquisa multidisciplinar realizada em Minas Gerais investigou a dinâmica tempo-
    ral e espacial dos roubos de rua, analisando os períodos anterior e durante a pandemia.
    Através da utilização de dados da Polícia Militar, foram examinadas séries temporais em
    várias escalas, incluindo por hora, por dia, por intervalos de 10 dias e por mês, empregando
    métodos estatísticos avançados, como análise de frequência espectral, autocorrelações e
    técnicas de decomposição.


  • Mostrar Abstract
  • A multidisciplinary study conducted in Minas Gerais investigated the temporal dynamics
    of street robberies, analyzing both pre-pandemic and pandemic periods. Utilizing data
    from the Military Police, time series data were examined at various scales, including
    hourly, daily, 10-day intervals, and monthly, employing advanced statistical methods such
    as spectral frequency analysis, autocorrelations, and decomposition techniques.

16
  • BRENO DE OLIVEIRA RENÓ
  • Conf-eHealth - Uma Arquitetura para o Desenvolvimento de Aplicações eHealth com Confiabilidade

  • Orientador : EDVARD MARTINS DE OLIVEIRA
  • MEMBROS DA BANCA :
  • HENRIQUE YOSHIKAZU SHISHIDO
  • BRUNO TARDIOLE KUEHNE
  • EDVARD MARTINS DE OLIVEIRA
  • Data: 13/12/2023

  • Mostrar Resumo
  • Este trabalho apresenta a arquitetura Conf-eHealth, que tem como objetivo ser um modelo de referência para o desenvolvimento de aplicações eHealth com confiabilidade. A arquitetura se faz relevante em função das necessidades de confiabilidade das tecnologias relacionadas ao monitoramento de pacientes. Inicialmente foi realizada uma revisão sistemática da literatura sobre o estado da arte das aplicações eHealth e os principais desafios enfrentados no desenvolvimento destas. Após a revisão da literatura, a proposta da arquitetura de referência é descrita. A concepção das necessidades, atributos de qualidade e a metodologia utilizada para a construção da arquitetura são descritas e posteriormente a arquitetura é apresentada através do conceito de visões arquiteturais.

    Com o objetivo de garantir os atributos de qualidade desejados, o trabalho apresenta a avaliação da arquitetura proposta em duas partes. Primeiro uma avaliação arquitetural foi feita com base no Software Architecture Analysis Method, resultando em uma compreensão conceitual da capacidade da arquitetura em abranger os atributos de qualidade. Depois, um experimento foi realizado, envolvendo a construção de uma aplicação móvel de acordo com o componente mapeado na arquitetura proposta, explicitando a possibilidade da implementação deste componente utilizando uma base de dados real. Os resultados mostram que o aplicativo é capaz de lidar com os dados recebidos e auxiliar a tomada de decisão com acurácia. Por fim, são apresentadas as conclusões do trabalho, destacando os resultados alcançados, a importância da arquitetura Conf-eHealth para o avanço da área e indicando trabalhos futuros.


  • Mostrar Abstract
  • This work presents the Conf-eHealth architecture, which aims to be a reference model for developing eHealth applications with trustworthiness. The architecture is relevant due to the needs of technologies related to patient monitoring. Initially, a systematic literature review was carried out on the state of the art of eHealth applications and the main challenges faced in their development. After the literature review, the proposed reference architecture is described. The conception of needs, quality attributes and the methodology used to build the architecture are described and subsequently the architecture is presented through the concept of architectural visions.

    In order to guarantee the desired quality attributes, the work presents the evaluation of the proposed architecture in two parts. First an architectural evaluation was carried out based on the Software Architecture Analysis Method, resulting in a conceptual understanding of the architecture's ability to encompass quality attributes. Afterwards, an experiment was carried out, involving the construction of a mobile application according to the component mapped in the proposed architecture, explaining the possibility of implementing this component using a real database. The results show that the application is capable of handling the data received and assisting in decision making accurately. Finally, the conclusions of the work are presented, highlighting the results achieved, the importance of the Conf-eHealth architecture for the advancement of the area and indicating future work.

17
  • ANDRE LUIZ ALVES DIAS
  • Detecção de Insatisfação de Servidores Públicos com Inteligência Artificial

  • Orientador : CARLOS HENRIQUE VALERIO DE MORAES
  • MEMBROS DA BANCA :
  • AHMED ALI ABDALLA ESMIN
  • CARLOS HENRIQUE VALERIO DE MORAES
  • JOAO PAULO REUS RODRIGUES LEITE
  • Data: 15/12/2023

  • Mostrar Resumo
  • Este trabalho destaca uma pesquisa abrangente sobre a aplicação da Inteligência Artificial (I.A.) na gestão de recursos humanos, com um foco específico na identificação da insatisfação dos funcionários por meio de abordagens de aprendizado de máquina. A investigação incluiu uma revisão de artigos científicos que discutiam tanto a implementação da I.A. no contexto de recursos humanos quanto o uso de técnicas de aprendizado de máquina para detectar casos de turnover/attrition, além da relação de insatisfação e os casos de turnover/attrition.
    Para avaliar essas abordagens, foram selecionadas quatro bases de dados públicas validadas. Três delas continham dados fictícios de funcionários e uma continha dados reais de turnover de funcionários. Cada base de dados passou por um processo de fatorização de campos textuais, seguido por análises para destacar as distribuições dos dados em cada conjunto.
    Na condução da pesquisa, diferentes abordagens de aprendizado de máquina foram aplicadas a cada uma das bases, com o objetivo de verificar a viabilidade de identificar a insatisfação por meio da I.A. As técnicas utilizadas incluíram detecção de anomalias ou novidades, classificadores e conjuntos de classificadores otimizados. Os resultados foram quantificados, revelando pontuações promissoras, com desempenhos superiores a 90%. Esses resultados destacam a eficácia geral do aprendizado de máquina na identificação da insatisfação dos funcionários, demonstrando seu potencial para aplicações práticas no ambiente de recursos humanos.


  • Mostrar Abstract
  • This work highlights a comprehensive investigation into the application of Artificial Intelligence (A.I.) in human resources management, with a specific focus on identifying employee dissatisfaction through machine learning approaches. The research included a review of scientific articles discussing both the implementation of A.I. in the context of human resources and the use of machine learning techniques to detect cases of turnover/attrition, along with the relationship between dissatisfaction and turnover/attrition cases.
    To assess these approaches, four validated public databases were selected. Three of them contained fictional employee data, and one contained real employee turnover data. Each database underwent a process of textual field factorization, followed by analyses to highlight the data distributions in each set.
    In conducting the research, different machine learning approaches were applied to each of the databases, aiming to verify the feasibility of identifying dissatisfaction through A.I. The techniques used included anomaly or novelty detection, classifiers, and optimized sets of classifiers. The results were quantified, revealing promising scores, with performances exceeding 90%. These results emphasize the overall effectiveness of machine learning in identifying employee dissatisfaction, demonstrating its potential for practical applications in the human resources environment.

18
  • CHARLY BRAGA VENTURA
  • Identificação de bicho-mineiro e ferrugem no cafeeiro utilizando processamento digital de imagens e redes neurais convolucionais

  • Orientador : SANDRO CARVALHO IZIDORO
  • MEMBROS DA BANCA :
  • RODRIGO APARECIDO DA SILVA BRAGA
  • SANDRO CARVALHO IZIDORO
  • VALDETE MARIA GONÇALVES DE ALMEIDA
  • Data: 15/12/2023

  • Mostrar Resumo
  • A demanda do mundo por café aumenta a cada ano, atingindo, no período de 2022-
    2023, 178,5 milhões de sacas de 60 kg, um aumento de 1,7% em relação ao período
    anterior de 2021-2022. A produção total da safra de café do Brasil no ano de 2022 foi
    calculada em 50,92 milhões de sacas de 60 kg de café beneficiado1, tornando assim o
    maior produtor mundial do produto. Com esse volume de produção, há uma necessidade
    crescente de melhoria da qualidade do produto devido às exigências dos mercados nacional
    e internacional. Porém, pragas como o bicho-mineiro e a ferrugem causam grandes danos
    em plantações de café, resultando em perdas da cultura anualmente. Vários métodos
    e técnicas vêm sendo desenvolvidas e aplicadas para avaliação do nível de infestação e
    controle destas pragas. Entre essas técnicas estão o uso de visão computacional e rede
    neural convolucional (CNN). Assim, o objetivo deste trabalho foi o desenvolvimento de
    ferramentas computacionais para identificar corretamente a presença de pragas, reduzindo
    o tempo de avaliação, o erro do avaliador e os gastos com mão de obra. As acurácias desses
    métodos desenvolvidos ficaram entre 99,67% e 97,00%. Além disso, foi desenvolvida uma
    ferramenta para quantificar o grau de infestação, alcançando uma acurácia de 86,67%.


  • Mostrar Abstract
  • The world’s demand for coffee increases every year, reaching 178.5 million 60 kg bags in
    the period 2022-2023, an increase of 1.7% compared to the previous period 2021-2022.
    The total production of Brazil’s coffee harvest in 2022 was calculated at 50.92 million bags
    of 60 kg of processed coffee 2, thus making it the world’s largest producer of the product.
    With this production volume, there is a growing need to improve product quality due
    to the demands of national and international markets. However, pests such as leaf miner
    and rust cause extensive damage to coffee plantations, resulting in crop losses annually.
    Various methods and techniques have been developed and applied to assess the level of
    infestation and control of these pests. Among these techniques are the use of computer
    vision and convolutional neural networks (CNNs). Thus, the objective of this work was to
    develop computational tools to correctly identify the presence of pests, reducing evaluation
    time, evaluator error, and labor costs. The accuracies of these methods developed were
    between 99.67% and 97.00%. In addition, a tool was developed to quantify the degree of
    infestation, achieving an accuracy of 86.67%.

19
  • RAFFAEL CLEISSON DE CARVALHO
  • Uma análise da aplicação do Nudge em consultas públicas

  • Orientador : MELISE MARIA VEIGA DE PAULA
  • MEMBROS DA BANCA :
  • PABLO VIEIRA FLORENTINO
  • ADLER DINIZ DE SOUZA
  • MELISE MARIA VEIGA DE PAULA
  • Data: 18/12/2023

  • Mostrar Resumo
  • A consulta pública é um dispositivo de democracia direta que tem como objetivo permitir que a população participe da tomada de decisão em diversas áreas de políticas públicas. No Brasil, a Lei de Responsabilidade Fiscal estabelece que uma consulta pública deve preceder a elaboração do orçamento público, que tem como objetivo regrar as atividades financeiras de receita e despesa do estado por um ano. Esse exemplo de consulta pública é denominado Orçamento Participativo. Contudo, o engajamento da população ainda é um problema por diversas razões. Desta forma, é importante investigar estratégias que aumentem a participação dos cidadãos. Em alguns cenários, a teoria de Nudges pode ser usada. Nudges são modificações pequenas e de pouco investimento feitas no ambiente de uma pessoa para modificar seu comportamento. A aplicação do Nudge nessa pesquisa tem como objetivo estimular o cidadão a participar em um contexto de consulta pública. Para permitir análise, fez parte do escopo dessa pesquisa propor e desenvolver uma ferramenta. A aplicação foi analisada em um cenário real que permitiu concluir que os resultados com a aplicação do Nudge foi adequado.


  • Mostrar Abstract
  • Public consultation is a direct democracy device that aims to allow the population to participate in decision-making in various areas of public policy. In Brazil, the Fiscal Responsibility Law establishes that a public consultation must precede the preparation of the public budget, which aims to regulate the state's financial revenue and expenditure activities for one year. This example of public consultation is called Participatory Budgeting. However, population engagement is still a problem for several reasons. Therefore, it is important to investigate strategies that increase citizen participation. In some scenarios, Nudges theory can be used. Nudges are small, low-investment modifications made to a person's environment to change their behavior. The application of Nudge in this research aims to encourage citizens to participate in a public consultation context. To enable analysis, it was part of the scope of this research to propose and develop a tool. The application was analyzed in a real scenario which allowed us to conclude that the results with the application of Nudge were adequate.

2022
Dissertações
1
  • GUILHERME XAVIER FERREIRA
  • Análise Visual de Frotas de Veículos Industriais para Prospecção de Soluções Logísticas Utilizando uma Abordagem Orientada à Modelo

  • Orientador : BRUNO GUAZZELLI BATISTA
  • MEMBROS DA BANCA :
  • ADLER DINIZ DE SOUZA
  • BRUNO GUAZZELLI BATISTA
  • MELISE MARIA VEIGA DE PAULA
  • SERGIO ASSIS RODRIGUES
  • Data: 03/03/2022

  • Mostrar Resumo
  • O planejamento e gestão de frotas é tema de pesquisas de otimização, onde modelos de frotas de veículos são criados para auxiliar gestores em tomadas de decisão de curto, médio e longo prazo. Em empresas siderúrgicas, veículos industriais são utilizados para movimentações de materiais pesados. O planejamento e otimização da quantidade de veículos das frotas são importantes para redução de custos e atendimento dos planos de produção. Analistas de logísticas são responsáveis por essas atividades, utilizando sistemas para acompanhar as operações dos veículos industriais. Contudo, a análise e avaliação da utilização da frota ainda é desafiadora, principalmente por conta do volume e forma como dados são gerados pelos sistemas. Esse é um tipo de problema que geralmente está fora do escopo dos modelos de otimização de planejamento de frota. Em bases de dados com alto volume e complexidade, a análise visual é uma alternativa para extração de insights e de informações importantes, empregando técnicas de visualização de informação e análise de dados. Esta dissertação propõe a investigação da análise visual como meio para auxiliar no planejamento de frotas de veículos industriais. A pesquisa foi conduzida através da investigação de um contexto real sob a óticas da Análise Visual Orientada à Modelo e da Design Science Research (DSR). Como resultado, dois artefatos foram desenvolvidos: um modelo de medição para lidar com a falta de um padrão de medição da frota; e o Fleet Profile para apoiar o planejamento da frota com base na descrição visual da frota. Dois ciclos de pesquisa foram executados, cada um dando origem a uma versão do Fleet Profile. Ao final do trabalho, foi realizada uma avaliação do Fleet Profile com dois casos reais baseadas na experiência de potenciais usuários com a solução. A partir da análise dos dados qualitativas, constatou-se que a solução foi capaz de auxiliar na avaliação da uso da frota assim como outras atividades dos analistas a partir da descrição visual da frota.


  • Mostrar Abstract
  • Fleet planning and management is the subject of optimization research, where vehicle fleet models are created to assist managers in short, medium and long-term decision making. In steel companies, industrial vehicles are used to move heavy materials. The planning and optimization of vehicles quantity of the fleet are important to reduce costs and accomplish production plans. Logistics analysts are responsible for these activities, using systems to monitor industrial vehicle operations. However, the analysis and evaluation of the fleet utilization is still challenging, mainly due to the volume and form in which data is generated by the systems. This is a kind of problem that is generally out of the scope of fleet planning optimization models. In databases with high volume and complexity, visual analysis is an alternative for extracting insights and important information with the application of information visualization and data analysis techniques. This dissertation proposes the investigation of visual analysis as a means of assisting in the planning of industrial vehicle fleets. The research was conducted through the investigation of a real context of industrial vehicle planning through the lens of Model Building Visual Analytics and Design Science Research (DSR). As a result two artifcats were developed: a fleet measurement model was developed to address the lack of a fleet measurement standard; and Fleet Profile, a solution to support fleet planning based on the visual description of the fleet. Two research cycles were realized, each one producing a version of the Fleet Profile. At the end, an evaluation of the Fleet Profile is carried out with two cases of real fleets based on the experience of potential users with the solution. From the analysis of the qualitative data, it was found that the solution was able to support the evaluation of the fleet use and other activities of the analysts from the visual description of the fleet.

2
  • LEANDRO DINIZ DE JESUS
  • Inspeção de linha de transmissão utilizando multi-drones de baixo custo.

  • Orientador : ALEXANDRE CARLOS BRANDAO RAMOS
  • MEMBROS DA BANCA :
  • ALEXANDRE CARLOS BRANDAO RAMOS
  • HILDEBRANDO FERREIRA DE CASTRO FILHO
  • LINA MARIA GARCES RODRIGUEZ
  • Data: 15/06/2022

  • Mostrar Resumo
  • Periodicamente as linhas de alta tensão precisam ser inspecionadas para evitar problemas
    futuros, ou até mesmo, para resolver problemas que vão sendo notados. Para realizar essas
    inspeções as empresas vêm tentando fazer do modo mais seguro possível para que não
    haja um gasto muito alto e nem colocar nenhuma pessoa em risco. Para isso, profissionais
    dessas empresas vêm cada vez mais utilizando drones para inspecionar essas estruturas,
    porém esses drones necessitam de duas pessoas próximas, uma é o piloto controlando
    manualmente o drone e outra, um observador (também piloto) munido de binóculos e
    rádio para comunicação. As imagens geradas pelo drone são analisadas por um técnico
    que avaliará se e necessário tomar alguma medida para manter a Linha em funcionamento.
    Para descobrir possíveis problemas na linha e estrutura essa pesquisa vem apresentar
    uma solução utilizando três drones realizando voo em conjunto de forma autônoma, que
    fará o processamento da imagem em tempo real de detecção dos possíveis problemas. O
    primeiro drone inicialmente irá se deslocar até a primeira torre com uma câmera, para
    que então utilizando uma rede neural convolucional, consiga detectar a torre e qualquer
    possível problema que se encontrar nela, além de gravar a localização da torre para que o
    especialista posteriormente efetue a manutenção, o segundo drone ficará responsável por
    verificar os fios que conduzem a energia elétrica e o terceiro drone ficará responsável por
    detectar invasões na área da linha que venha apresentar riscos ou vir a causar futuros
    problemas.
    A implementação da solução foi realizada no simulador Airsim, onde foi desenvolvido um
    ambiente de código aberto disponibilizado para testes de navegação autônoma com uma
    linha de alta tensão. A navegação dos drones foi realizada a partir do posicionamento das
    torres onde já se sabe a localização da latitude e longitude de cada uma delas.


  • Mostrar Abstract
  • Periodically the electric power transmission lines need to be inspected to avoid future
    problems or even to solve problems that have been noticed. In order to carry out these
    inspections, companies have been trying to make it as safe as possible so that there is not
    a very high expense and do not put any person at risk, for this they are increasingly using
    drones to inspect, however these drones need to have people nearby operating navigation
    and with that it often ends up not being as efficient as it ends up passing some problem.
    To solve the problem of detecting a possible problem on the line I come to present a
    solution using three drones that will make an autonomous flight over the line. The first
    drone will initially travel to the first tower and with a camera, using a convolutional
    neural network it will detect the tower and any possible problem that is found in it and
    record the location of the problem tower for someone to do maintenance on it, the the
    second drone will be responsible for checking the wires that conduct the electrical energy
    and the third drone will be responsible for detecting if there is something under the line
    that may be at risk or have come to cause future problems for the line.
    The solution was implemented in the airsim simulator, where an environment already
    available by the software for autonomous navigation tests with a high voltage line was
    used. The navigation of the drones was made from the positioning of the towers where
    the location of the latitude and longitude of each one is already known.

3
  • DJENANE CRISTINA SILVEIRA DOS SANTOS
  • Proposta de Ferramenta de Apoio à Tomada de Decisão: Rumo a uma Cidade Mais Inteligente

  • Orientador : ADLER DINIZ DE SOUZA
  • MEMBROS DA BANCA :
  • ANGELA MARIA ALVES
  • ADLER DINIZ DE SOUZA
  • MELISE MARIA VEIGA DE PAULA
  • Data: 27/07/2022

  • Mostrar Resumo
  • O planejamento estratégico de uma cidade deve, preferencialmente, se pautar no Plano Diretor Municipal (PDM), que deve ser elaborado sob a perspectiva do desenvolvimento urbano sustentável e contribuir para o alcance dos 17 Objetivos de Desenvolvimento Sustentável (ODS) da Agenda 2030 da ONU (Organização das Nações Unidas). O desenvolvimento de cidades inteligentes é um fenômeno global que está intimamente relacionado aos 17 ODS. A maioria das cidades brasileiras ainda está bem distante do que pode ser considerada uma cidade inteligente e algumas nem sequer sabem que caminho seguir para evoluir neste cenário. Diante do exposto, o presente trabalho propõe uma ferramenta que objetiva dar apoio aos municípios na busca por se tornarem mais inteligentes. Em um primeiro momento a ferramenta visa dar apoio na elaboração e revisão de planos diretores municipais e demais planos de desenvolvimento urbano, através da análise atual do município em relação à norma brasileira (NBR) ISO 37122, de Cidades Inteligentes. Em um segundo momento, a ferramenta visa possibilitar a gestão e o balanceamento do portfólio de projetos candidatos a serem executados pela prefeitura, indicando os projetos, programas e portfólios que irão maximizar o alcance dos indicadores da ISO 37122 e o alcance dos ODS. A ferramenta possibilitará analisar o quanto os portfólios de projetos candidatos a serem executados estão de fato alinhados às estratégias do PDM. O estudo de caso e validação da ferramenta trouxeram resultados positivos, e pode-se perceber a real necessidade e importância da ferramenta desenvolvida neste trabalho para a gestão pública. O objetivo principal foi alcançado, de propor e validar uma metodologia e uma ferramenta que permita: (i) o diagnóstico de cidades em relação aos indicadores da ISO 37122 e aos ODS, e o apoio à tomada de decisão de gestores municipais para a (ii) seleção e o balanceamento do portfólio de ações (projetos, programas e portfólio) que maximizem as chances de torná-la mais inteligente.


  • Mostrar Abstract
  • The strategic planning of a city should preferably be based on the Municipal Master Plan (PDM), which must be prepared from the perspective of sustainable urban development and contribute to the achievement of the 17 Sustainable Development Goals (SDGs) of the United Nations 2030 Agenda. The development of smart cities is a global phenomenon that is closely related to the 17 SDGs. Most Brazilian cities are still far from what can be considered a smart city and some do not even know which way to go to evolve in this scenario. In view of the above, the present work proposes a tool that aims to support municipalities in the quest to become more intelligent. At first, the tool aims to support the elaboration and review of municipal master plans and other urban development plans prepared to implement the master plan, through the current analysis of the municipality in relation to the Brazilian standard (NBR) ISO 37122, of Smart Cities. In a second step, the tool aims to enable the management and balancing of the portfolio of candidate projects to be executed by the city, indicating the projects, programs and portfolios that will maximize the reach of the ISO 37122 indicators and the reach of the SDGs. The tool will make it possible to analyze how the portfolios of candidate projects to be executed are in fact aligned with the PDM strategies. The case study and validation of the tool brought positive results, and one can see the real need and importance of the tool developed in this work for public management. The main objective was achieved, to propose and validate a methodology and a tool that allows: (i) the diagnosis of cities in relation to the indicators of ISO 37122 and the SDGs, and the support to the decision making of municipal managers for the (ii) selection and balancing the stock portfolio (projects, programs and portfolio) that maximize the chances of making it smarter.

4
  • FELIPE AUGUSTO FEICHAS
  • AVALIAÇÃO DA PERCEPÇÃO DE USO DE UMA PLATAFORMA GAMIFICADA SOB A PERSPECTIVA DISCENTE: UMA ABORDAGEM NO ESTUDO DA UML

  • Orientador : RODRIGO DUARTE SEABRA
  • MEMBROS DA BANCA :
  • LUCIA MARIA MARTINS GIRAFFA
  • LINA MARIA GARCES RODRIGUEZ
  • RODRIGO DUARTE SEABRA
  • Data: 29/07/2022

  • Mostrar Resumo
  • Modelagem de software é considerado um dos temas mais importantes no ensino da engenharia de software. Atualmente, a Unified Modeling Language (UML) é a linguagem de modelagem de software mais difundida e utilizada na indústria da engenharia de software. Embora a UML seja constantemente aprimorada e estudada, muitos trabalhos mostram que há dificuldade no ensino-aprendizagem do tema, devido à complexidade de seus conceitos e às dificuldades cognitivas dos discentes com a abstração. Ainda, os estudantes enfrentam dificuldades para compreender a semântica e a sintaxe dos modelos, bem como estruturar as informações nesses modelos. Além disso, há dificuldades para os docentes em encontrar diferentes estratégias pedagógicas, com o objetivo de ensinar a modelagem. Nesse sentido, algumas pesquisas apresentam uma busca por novas ferramentas, técnicas ou metodologias que auxiliem os professores e motivem os estudantes no que tange ao estudo da UML. Este trabalho propôs o desenvolvimento de uma plataforma web para apoio ao estudo da modelagem de software com a UML, usando recursos de gamificação. A plataforma proposta permitiu aos estudantes complementarem seus conhecimentos da UML em um ambiente com elementos de jogos. Visando investigar o impacto do uso da plataforma gamificada desenvolvida foi realizado um estudo de caso para avaliar a experiência de uso e a satisfação na perspectiva discente. A partir dos resultados obtidos, pode-se concluir que a plataforma obteve uma ótima aceitação e satisfação de uso. A maioria dos discentes participantes da pesquisa se sentiu satisfeita no quesito usabilidade da plataforma, relatando um sentimento de contribuição da ferramenta no estudo do conteúdo, além de apontar a satisfação do uso da gamificação como estratégia pedagógica. Como resultado, a plataforma foi eficaz quanto ao engajamento e motivação dos discentes, sendo um complemento ao método tradicional de ensino.


  • Mostrar Abstract
  • Software modeling is considered one of the most important topics in software engineering education. Currently, the Unified Modeling Language (UML) is the most widespread and used software modeling language in the software engineering industry. Although the UML is constantly being improved and studied, many studies show that there is difficulty in teaching and learning the subject, due to the complexity of its concepts and the students' cognitive difficulties with abstraction. Also, students face difficulties in understanding the semantics and syntax of models, as well as structuring the information in these models. In addition, there are difficulties for teachers in finding different pedagogical strategies, in order to teach modeling. In this sense, some researches thus search for new tools, techniques or methodologies that help teachers and motivate students regarding the study of UML. This work proposed the development of a web platform to support the studying of software modeling with the UML, using gamification resources. The platform proposed allowed students to complement their UML knowledge in an environment with game elements. Aiming to investigate the impact of using the developed gamified platform, a case study was carried out to evaluate the user experience and satisfaction from the student perspective. From the results, it can be concluded that the platform obtained great acceptance and satisfaction of use. Most of the students participating in the research were satisfied with the usability of the platform, reporting a feeling of contribution of the tool in the studying of the content, in addition to pointing out the satisfaction of using gamification as a pedagogical strategy. As a result, the platform was effective in terms of engaging and motivating students, being a complement to the traditional teaching method.

2021
Dissertações
1
  • Caio Pinheiro Santana
  • A Meta-analysis of Machine Learning Classification Tools Using rs-fMRI Data For Autism Spectrum Disorder Diagnosis

  • Orientador : GUILHERME SOUSA BASTOS
  • MEMBROS DA BANCA :
  • RICARDO ZORZETTO NICOLIELLO VENCIO
  • ADLER DINIZ DE SOUZA
  • GUILHERME SOUSA BASTOS
  • LUCELMO LACERDA DE BRITO
  • RAFAEL DE MAGALHAES DIAS FRINHANI
  • Data: 24/02/2021

  • Mostrar Resumo
  • O Transtorno do Espectro Autista (TEA) é uma condição complexa e heterogênea que afeta o desenvolvimento cerebral e é caracterizada por disfunções cognitivas, comportamentais e sociais. Muito esforço vem sendo feito para identificar biomarcadores baseados em imagens cerebrais e desenvolver ferramentas que poderiam facilitar o diagnóstico do TEA - atualmente baseado em critérios comportamentais, através de um processo longo e demorado. Em particular, o uso de algoritmos de Aprendizado de Máquina para classificação de dados de Imagens de Ressonância Magnética funcional em estado de repouso (rs-fMRI) é promissor, mas há uma necessidade contínua de pesquisas adicionais a respeito da precisão desses classificadores. Assim, este trabalho realiza uma revisão sistemática e meta-análise de modo a resumir e agregar as evidências disponíveis na literatura da área até o momento. A busca sistemática por artigos resultou na seleção de 93 deles, que tiveram seus dados extraídos e analisados através da revisão sistemática. Um modelo meta-analítico bivariado de efeitos aleatórios foi implementado para investigar a sensibilidade e especificidade dos 55 estudos (132 amostras independentes) que ofereceram informação suficiente para serem utilizados na análise quantitativa. Os resultados obtidos indicaram estimativas gerais de sensibilidade e especificidade de 73.8% (95% IC: 71.8-75.8%) e 74.8% (95% IC: 72.3-77.1%), respectivamente, e os classificadores baseados em SVM (do inglês, Support Vector Machine) se destacaram como os mais utilizados, apresentando estimativas acima de 76%. Estudos que utilizaram amostras maiores tenderam a obter piores resultados de precisão, com exceção do subgrupo composto por classificadores baseados em Redes Neurais Artificiais. O uso de outros tipos de imagens cerebrais ou dados fenotípicos para complementar as informações obtidas através da rs-fMRI se mostrou promissor, alcançando especialmente sensibilidades mais altas (p = 0.002) em relação aos estudos que utilizaram apenas dados de rs-fMRI (84.7% - 95% IC: 78.5-89.4% - versus 72.8% - 95% IC: 70.6-74.8%). Valores menores de sensibilidade/especificidade foram encontrados quando o número de Regiões de Interesse (ROIs, do inglês Regions of Interest) aumentou. Vale destacar também o desempenho das abordagens utilizando o atlas AAL (do inglês, Automated Anatomical Labelling) com 116 ROIs. Em relação às features usadas para treinar os classificadores, foram encontrados melhores resultados nos estudos que utilizaram a correlação de Pearson em conjunto com a transformação Z de Fisher ou outras features em comparação ao uso da correlação de Pearson sem modificações. Finalmente, a análise revelou valores da área sob a curva ROC (do inglês, Receiver Operating Characteristic) entre aceitável e excelente. Entretanto, considerando as várias limitações que são indicadas no estudo, mais estudos bem desenhados são necessários para estender o uso potencial desses algoritmos de classificação a ambientes clínicos.


  • Mostrar Abstract
  • The Autism Spectrum Disorder (ASD) is a complex and heterogeneous neurodevelopmental condition characterized by cognitive, behavioral, and social dysfunction. Much effort is being made to identify brain imaging biomarkers and develop tools that could facilitate its diagnosis - currently based on behavioral criteria through a lengthy and time-consuming process. In particular, the use of Machine Learning (ML) classifiers based on resting-state functional Magnetic Resonance Imaging (rs-fMRI) data is promising, but there is an ongoing need for further research on their accuracy. Therefore, we conducted a systematic review and meta-analysis to summarize and aggregate the available evidence in the literature so far. The systematic search resulted in the selection of 93 articles, whose data were extracted and analyzed through the systematic review. A bivariate random-effects meta-analytic model was implemented to investigate the sensitivity and specificity across the 55 studies (132 independent samples) that offered sufficient information for a quantitative analysis. Our results indicated overall summary sensitivity and specificity estimates of 73.8% (95% CI: 71.8-75.8%) and 74.8% (95% CI: 72.3-77.1%), respectively, and Support Vector Machine (SVM) stood out as the most used classifier, presenting summary estimates above 76%. Studies with bigger samples tended to obtain worse accuracies, except in the subgroup analysis for Artificial Neural Network (ANN) classifiers. The use of other brain imaging or phenotypic data to complement rs-fMRI information seem to be promising, achieving specially higher sensitivities (p = 0.002) when compared to rs-fMRI data alone (84.7% - 95% CI: 78.5-89.4% - versus 72.8% - 95% CI: 70.6-74.8%). Lower values of sensitivity/specificity were found when the number of Regions of Interest (ROIs) increased. We also highlight the performance of the approaches using the Automated Anatomical Labelling atlas with 116 ROIs (AAL116). Regarding the features used to train the classifiers, we found better results using the Pearson Correlation (PC) Fisher-transformed or other features in comparison to the use of the PC without modifications. Finally, our analysis showed AUC values between acceptable and excellent, but given the many limitations indicated in our study, further well-designed studies are warranted to extend the potential use of those classification algorithms to clinical settings.

2
  • IGOR DUARTE RODRIGUES
  • Identificação de Regiões do Cérebro para Classificação de Severidade do TEA Utilizando Machine Learning e fMRI

  • Orientador : GUILHERME SOUSA BASTOS
  • MEMBROS DA BANCA :
  • GUILHERME SOUSA BASTOS
  • RAFAEL DE MAGALHAES DIAS FRINHANI
  • RICARDO ZORZETTO NICOLIELLO VENCIO
  • Data: 26/02/2021

  • Mostrar Resumo
  • O Transtorno do Espectro Autista (TEA) é uma condição neurológica vitalícia relacionada à idade e ao sexo, caracterizada principalmente por disparidades sociais. A prevalência atual do TEA indica que uma em cada 59 crianças estão dentro do espectro. O Autism Diagnostic Observation Schedule, Second Edition (ADOS-2) é um processo de diagnóstico que classifica o TEA de acordo com a gravidade do transtorno. ADOS-2 classifica sintomas mais graves como casos de ``autismo'' e os que manifestam sintomas mais leves como casos de ``TEA não autista'' (TEA-NA). Muitos artigos objetivam criar algoritmos para diagnosticar TEA por meio de aprendizado de máquina (do inglês Machine Learning - ML) e imagens de ressonância magnética funcional (do Inglês Functional Magnetic Resonance Imaging - fMRI). Essas abordagens avaliam o fluxo de oxigênio no cérebro para classificar os indivíduos como TEA ou com desenvolvimento típico. No entanto, em geral, esses trabalhos não fornecem informações sobre a gravidade do transtorno.
    Esse trabalho tem como objetivo a identificação de regiões do cérebro com diferença funcional entre indivíduos TEA-NA e autistas, como possível biomarcador para a severidade das características TEA. Para isso, o trabalho utilizou dados de fMRI de 202 indivíduos, e suas respectivas pontuações ADOS-2 disponíveis no consórcio ABIDE para determinar a subclasse de TEA correta para cada um. Esses dados foram utilizados para alimentar um algoritmo de ML, de aprendizado supervisionado, o Support Vector Machine (SVC), de forma a selecionar as regiões com maior diferença funcional para os indivíduos da amostra. Os resultados corroboram a hipótese inicial de diferenças funcionais entre as subclasses de TEA, com algumas regiões do cérebro onde a diferença funcional foi suficiente para criar 74% de precisão na classificação. Este trabalho apresenta limitações quanto ao número total de amostras. No entanto, a abordagem mostra-se promissora para o diagnóstico de severidade do TEA.


  • Mostrar Abstract
  • Autism Spectrum Disorder (ASD) is an age- and sex-related lifelong neurodevelopmental disorder characterized primarily by social impairments. Current ASD prevalence indicates that 1/59 children are diagnosed inside the spectrum. The Autism Diagnostic Observation Schedule, Second Edition (ADOS-2) classifies ASD according to the disorder severity. ADOS-2 classifies as 'autism' cases that manifest more severe symptoms and as 'ASD non-autism' cases that exhibit milder symptoms. Many papers aimed to create algorithms to diagnose ASD through Machine Learning (ML) and functional Magnetic Resonance Images (fMRI). Such approaches evaluate the oxygen flow in the brain to classify the subjects as ASD or typical development. However, most of these works, do not provided information regarding the disorder severity. This paper aims to use ML and fMRI to classify the disorder severity, aim to find brain regions potentially related to the disorder severity. We used fMRI data of 202 subjects and their ADOS-2 scores available at the ABIDE consortium to determine the correct ASD sub-class for each one. Our results corroborate the initial hypothesis of functional differences within ASD, with some brain regions where the functional difference was enough to create classification accuracy of 74%. This paper has limitations regarding the total number of samples. However, it shows a promising approach to ASD diagnosis.

3
  • VINICIUS DE ALMEIDA PAIVA
  • GASS-Metal: um servidor web para identificação de sítios metálicos similares em proteínas baseado em algoritmos genéticos paralelos

  • Orientador : SANDRO CARVALHO IZIDORO
  • MEMBROS DA BANCA :
  • VALDETE MARIA GONÇALVES DE ALMEIDA
  • GIOVANI BERNARDES VITOR
  • SABRINA DE AZEVEDO SILVEIRA
  • SANDRO CARVALHO IZIDORO
  • Data: 05/03/2021

  • Mostrar Resumo
  • Metais estão presentes em mais de 30% das proteínas encontradas na natureza e desempenham funções biológicas importantes, além de atuarem na manutenção da estrutura de proteínas. Íons metálicos em proteínas estão ligados a grupos de átomos e a esse conjunto é dado o nome de sítio metálico. Um sítio metálico pode exercer funções catalíticas, estruturais, transporte e transferência de elétrons em uma proteína.

    Métodos tradicionais e experimentais para a predição de sítios metálicos geralmente encontram empecilhos relacionados a tempo e custo de execução, e por isso cresce a necessidade de ferramentas computacionais que possam auxiliar em predições. Diversos métodos na literatura têm empenhado esforços na predição de sítios metálicos e tem mostrado grandes resultados, porém ainda encontram barreiras por questões relacionadas ao tamanho da proteína, tipo de íons e ligantes, capacidade de encontrar resíduos interdomínio e até mesmo ao obter taxas de acerto não satisfatórias.

    O objetivo desta dissertação é adaptar o algoritmo GASS (Genetic Active Site Search), inicialmente proposto para a predição de sítios catalíticos, para a busca de sítios metálicos. O método criado, GASS-Metal, divide os resíduos de uma proteína no espaço tridimensional e utiliza paralelismo de algoritmos genéticos para encontrar sítios metálicos candidatos que sejam próximos em relação à distância de templates curados provenientes dos M-CSA e MetalPDB.

    Os resultados dos testes de sanidade e com proteínas homólogas mostraram que o GASS-Metal é um método robusto, capaz de encontrar sítios metálicos em diversos tipos de íons diferentes e não restringe sua busca a uma única cadeia. Além disso, ao usar mutações conservativas, a taxa de acerto na predição melhora ainda mais, ajudando a encontrar sítios em situações onde antes era inviável, pela falta de resíduos em determinadas proteínas.

    Em comparação a preditores estado da arte, o GASS-Metal conseguiu desempenho satisfatório na predição de sítios metálicos de diferentes íons. Os resultados mostraram que o método foi superior na predição em 5 dos 12 íons metálicos avaliados e ainda obteve performance equivalente em outros 6 sítios metálicos diferentes.



  • Mostrar Abstract
  • Metals are present in more than 30% of proteins found in nature and perform important biological functions, in addition they act in the maintenance of protein structure. Metal ions in proteins are bounded to groups of atoms and this set is called a metal-binding site. Metal-binding sites can perform catalytic, structural, transport and electron transfer functions in a protein.

    Traditional and experimental techniques for metal-binding site prediction usually find obstacles related to time and cost of execution, making computational tools that can assist in predictions become even more important. Several methods in the literature have made efforts to predict metal-binding sites and have shown great results, but they still encounter barriers due to issues related to protein size, type of ions and ligands, ability to find inter-domain residues and even when obtaining not good accuracy rates.

    The main goal of this master thesis is to adapt GASS algorithm (Genetic Active Site Search), initially proposed for the prediction of catalytic sites, to search for metal-binding sites. The method developed, GASS-Metal, divides residues of a protein in three-dimensional space and uses parallelism of genetic algorithms to find candidate sites that are close in relation to the distance of cured templates from M-CSA and MetalPDB.

    The results of the sanity and homologous protein tests showed that GASS-Metal is a robust method, capable of finding metal-binding sites in different types of ions and does not restrict its search to a single chain. In addition, when using conservative mutations, the prediction accuracy rate improves even more, helping to find sites in situations where it was previously impossible, due to the lack of residues in certain proteins.

    In comparison to state-of-the-art predictors, GASS-Metal achieved satisfactory performance in predicting metal-binding sites of different ions. The results showed that the method was superior in the prediction in 5 of the 12 metal ions evaluated and still obtained equivalent performance in other 6 different metal-binding sites.


4
  • ANTONIO JOSIVALDO DANTAS FILHO
  • Algoritmos de Processamento Digital de Imagens para Rastreamento de Linhas de Transmissão de Energia

  • Orientador : ALEXANDRE CARLOS BRANDAO RAMOS
  • MEMBROS DA BANCA :
  • ALEXANDRE CARLOS BRANDAO RAMOS
  • CARLOS HENRIQUE DA SILVEIRA
  • ELCIO HIDEITI SHIGUEMORI
  • Data: 06/12/2021

  • Mostrar Resumo
  • As linhas de transmissão de energia de alta potência são de grande importância para o funcionamento de todos os setores da sociedade. Para garantir a confiabilidade e disponibilidade do fornecimento de energia, são realizadas inspeções regulares e ocasionais, em geral, de forma manual. Essas inspeções procuram identificar anomalias na rede de transmissão e sinais de perigo às estruturas. Veículos aéreos não tripulados, popularmente conhecidos como drones, têm sido cada vez mais empregados em atividades repetitivas e tediosas, devido ao baixo custo e aumento na segurança, e podem ser aplicados ao rastreamento dessas estruturas. Contudo, a variedade de ambientes e torres, erro nas medições da localização, e alto custo são obstáculos difíceis de superar para realização com exatidão e qualidade da inspeção. Este trabalho tem como principal objetivo estudar, desenvolver e comparar técnicas de processamento de imagens em tempo real para determinar movimentos a serem executadas pelo drone na correção da trajetória, e assim, executar um rastreamento das linhas de transmissão com alta precisão e baixo custo. Diversas soluções são encontradas na literatura, e estão localizadas e revisadas de forma sistemática neste estudo. A respeito das análises na linha de hardware, foram comparadas placas controladoras e frameworks, além dos softwares de estações de solo e simuladores, com principal enfoque no processamento de imagens usando detector de bordas, aprendizado profundo e aprendizado por reforço profundo. Ademais, em relação ao treinamento das redes, foi confeccionado um dataset para identificação de linhas, e outro para ações a serem executadas. Outrossim, com o intuito de avaliar o desempenho da solução, um cenário virtual realista baseado em um percurso real foi produzido. Em suma, um sistema baseado em um protótipo aparelhado com dois drones quadricóptero equipados apenas com uma câmera e um computador, trabalhando em conjunto com um algoritmo cooperativo e processamento de imagem por aprendizado profundo, resultou em um breve rastreamento em linha de transmissão de energia, simulando uma inspeção em ambiente real.


  • Mostrar Abstract
  • High power power transmission lines are of great importance for the functioning of all sectors of society. To guarantee the reliability and availability of the energy supply, regular and occasional inspections are carried out, always manually. These inspections seek to identify anomalies in the transmission network and signs of danger to structures. Unmanned aerial vehicles, popularly known as drones, have been increasingly employed in repetitive and tedious activities, due to their low cost and increased safety, and can be applied to tracking these structures. However, the variety of environments and towers, error in location measurements, and high cost are difficult obstacles to overcome for accurate and quality inspection. The main objective of this work is to study, develop and compare real-time image processing techniques to determine movements to be performed by the drone in trajectory correction, and thus perform a tracking of transmission lines with high precision and low cost. Several solutions are found in the literature, and are located and systematically reviewed in this study. Regarding the analysis of the hardware line, controller boards and frameworks were compared, as well as ground station and simulator software, with the main focus on image processing using edge detector, deep learning and reinforcement learning. Furthermore, in relation to the training of networks, a dataset was made for identifying lines, and another for actions to be performed. Also, in order to evaluate the solution's performance, a realistic virtual scenario based on a real route was produced. In short, a system based on a prototype equipped with two quadricopter drones equipped with only a camera and a computer, working in conjunction with a cooperative algorithm and deep learning image processing, resulted in a brief tracking in a power transmission line, simulating an inspection in a real environment.

5
  • FLÁVIO BELIZÁRIO DA SILVA MOTA
  • Análise de Traços de Personalidade em Ambientes de Participação Eletrônica

  • Orientador : MELISE MARIA VEIGA DE PAULA
  • MEMBROS DA BANCA :
  • FLAVIA CRISTINA BERNARDINI
  • CARLOS HENRIQUE DA SILVEIRA
  • ISABELA NEVES DRUMMOND
  • MELISE MARIA VEIGA DE PAULA
  • Data: 13/12/2021

  • Mostrar Resumo
  • A Participação Eletrônica, ou e-Participação, é definida como a participação dos cidadãos
    na tomada de decisão junto a gestão pública utilizando as Tecnologias de Informação e
    Comunicação. A e-Participação é um campo de pesquisa multidisciplinar, com contribuições
    de áreas como ciência política, sociologia, administração, psicologia e economia, bem
    como contribuições de natureza mais técnica, como a computação. A área da psicologia,
    especificamente, permite a investigação da personalidade humana e de suas motivações,
    fornecendo representações estruturais dos traços de personalidade e possibilitando descrever
    as intenções de um indivíduo em participar desses ambientes. Sendo assim, este
    trabalho tem como objetivo o estudo de técnicas computacionais para identificação e análise
    de traços de personalidade em ambientes de Participação Eletrônica. Para isso foram
    empregados algoritmos de Aprendizado de Máquina, em específico modelos de regressão,
    e a teoria dos Cinco Grandes Fatores de personalidade, também conhecido como Big Five.
    Na análise dos resultados foi constatado que o modelo de Floresta Aleatória obteve o melhor
    desempenho, com um erro absoluto médio igual a 0,02619. Além disso, no contexto
    da ferramenta analisada, o traço de personalidade que mais se destaca é o de Abertura à
    Experiência, acompanhado pelos traços de Responsabilidade e Cordialidade. Já os traços
    de Extroversão e Neuroticismo aparecem com pontuações mais baixas.


  • Mostrar Abstract
  • Electronic Participation, or e-Participation, is defined as citizens’ participation in decision making from public administration using Information and Communications Technologies.
    The e-Participation is a multidisciplinary research field, with contributions from areas
    such as political science, sociology, administration, psychology, and economics, as well as
    contributions of a more technical nature, such as computer science. The field of psychology,
    specifically, allows the investigation of human personality and its motivations, providing
    structural representations of personality traits and making it possible to describe
    an individual’s intentions to participate in these environments. Thus, this work aims to
    study computational techniques for identifying and analyzing personality traits in Electronic
    Participation environments. To aim this, Machine Learning algorithms, specifically
    regression models, and the Five-Factor Model, also known as the Big Five, were used.
    Analyzing the results, it was found that the Random Forest model had the best performance,
    with a mean absolute error of 0.02619. In addition, in the context of the tool
    analyzed, the personality trait that stands out the most is Openness, accompanied by
    Conscientiousness and Agreeableness. Extraversion and Neuroticism traits appear with
    lower scores.

6
  • DIEGO EUGÊNIO FERNANDES PEREIRA
  • RECURSO EDUCACIONAL ABERTO PARA O ESTUDO DE ALGORITMOS E LÓGICA DE PROGRAMAÇÃO: UMA ABORDAGEM NO ENSINO TÉCNICO INTEGRADO AO MÉDIO

  • Orientador : RODRIGO DUARTE SEABRA
  • MEMBROS DA BANCA :
  • ANDRÉ PIMENTA FREIRE
  • MELISE MARIA VEIGA DE PAULA
  • RODRIGO DUARTE SEABRA
  • Data: 16/12/2021

  • Mostrar Resumo
  • O ensino e a aprendizagem de programação, de modo geral, têm se provado um desafio para discentes de cursos de informática e afins, pelo fato de apresentarem desafios e requererem habilidades complexas, como raciocínio lógico-matemático, para o seu bom desenvolvimento. Ademais, o modelo tradicional de ensino enfrenta dificuldades em motivar os alunos e despertar seu interesse pelo tema. Há, portanto, uma necessidade de os atores envolvidos na educação revisarem seu modo de ensinar, integrando as tecnologias da informação e comunicação na educação da mesma forma que estão presentes no cotidiano. Nesse sentido, o uso de um Recurso Educacional Aberto (REA) não só tem o potencial de contribuir para a modernização do atual modelo de ensino, mas também colaborar para a melhoria da qualidade da educação. A ferramenta proposta neste trabalho, o REA-LP, tem como objetivo facilitar o estudo e a retenção de conteúdos relacionados à disciplina de lógica de programação em nível técnico, ao apresentar seu conteúdo por meio de variados tipos de mídias, tais como, áudios, vídeos, textos e imagens estáticas e dinâmicas. Por conseguinte, a ferramenta permite que os discentes participem ativamente da construção de seu conhecimento, favorecendo o engajamento e a motivação, além de possibilitar a revisão de conteúdos considerados essenciais para um bom desenvolvimento da disciplina. Com o intuito de avaliar a percepção de uso por parte dos discentes e o seu impacto no estudo de algoritmos e lógica de programação, bem como avaliar o recurso pedagogicamente, foi realizado um estudo empírico com 39 estudantes de um curso técnico de informática integrado ao ensino médio. Na pesquisa foram aplicados alguns questionários, bem como foram realizadas entrevistas com grupos focais e um teste de desempenho. A partir dos resultados obtidos, pode-se concluir que a ferramenta obteve ótima aceitação, sendo eficaz em sua função de facilitar e auxiliar os alunos em seu aprendizado, motivação e interesse nas aulas, devido, principalmente, à forma pela qual o conteúdo é apresentado no REA-LP, com destaque para as mídias animadas e os módulos de revisão, superando suas expectativas.


  • Mostrar Abstract
  • The teaching and learning of programming, in general, has proven to be a challenge for students of computer and related courses, since they present challenges and require complex skills, such as logical-mathematical reasoning, for their good development. Furthermore, the traditional teaching model is not able to motivate students and arouse their interest in the topic. There is, therefore, a need for the actors involved in education to review their way of teaching, integrating information and communication technologies in education in the same way as they are present in our daily lives. In this sense, the use of an Open Educational Resource (OER) not only has the potential to contribute to the modernization of the current teaching model, but also to collaborate on improving the quality of education. The tool proposed herein, the REA-LP, aims to facilitate studying and retention of content related to the discipline of programming logic at the technical level, by presenting its content through various types of media, such as audio, video, text, and static and dynamic images. Therefore, the tool allows students to actively participate in the construction of their knowledge, favoring engagement and motivation, in addition to enabling the review of content considered essential for the proper development of the discipline. To assess the perception of use by students and its impact on the study of algorithms and programming logic, as well as to evaluate the resource pedagogically, an empirical study was carried out with 39 students of an informatics technical course integrated with secondary school. In the research, some questionnaires were applied, as well as focus groups interviews and a performance test were carried out. The results allow concluding that the tool was very well accepted, being effective in its function of facilitating and assisting students in their learning, motivation, and interest in classes, mainly due to the way in which the content is presented at REA-LP, with emphasis on animated media and review modules, exceeding their expectations.

7
  • Gustavo Emmanuel Reis Guedes Alves
  • Um estudo exploratório para analisar o impacto da utilização do framework P-EPV em um ambiente de participação eletrônica

  • Orientador : MELISE MARIA VEIGA DE PAULA
  • MEMBROS DA BANCA :
  • SERGIO ASSIS RODRIGUES
  • ADLER DINIZ DE SOUZA
  • MELISE MARIA VEIGA DE PAULA
  • Data: 17/12/2021

  • Mostrar Resumo
  • A disseminação das Tecnologias de Informação e Comunicação (TICs) proporcionou a elaboração de iniciativas relacionadas a atividades sociais e políticas, entre elas a participação eletrônica. Estas iniciativas auxiliam na solução de problemas cotidianos da sociedade, porém ainda há um desafio muito relevante em relação ao engajamento dos cidadãos nestes empreendimentos. Neste estudo, uma rede social de participação eletrônica chamada SoPa (Sociedade Participativa) foi investigada em um contexto de sua utilização como um instrumento de participação eletrônica na construção de planos setoriais e diretores de algumas cidades do Sul de Minas Gerais. Neste contexto, o objetivo deste estudo foi formular e validar hipóteses de melhorias que impactassem no aumento do engajamento de usuários nesta rede social. Para isto, foram utilizadas estratégias de marketing digital e growth hacking, com o auxílio de um framework chamado P-EPV, que define passos a serem executados de forma a organizar o desenvolvimento e a validação destas hipóteses. A partir dos dados apurados, constatou-se que algumas destas estratégias de marketing digital, juntamente com a aplicação deste framework, puderam ser úteis na solução dos desafios associados ao engajamento neste tipo de iniciativa. Além da validação do framework P-EPV, as principais contribuições deste estudo estão na análise das estratégias de marketing digital utilizadas e seus resultados neste contexto real de participação eletrônica. Estas estratégias se mostraram eficazes quanto ao aumento do engajamento, podendo servir como base para outras iniciativas que enfrentam as mesmas dificuldades.


  • Mostrar Abstract
  • The dissemination of Information and Communication Technologies (ICTs) provided the development of initiatives related to social and political activities, including electronic participation. These initiatives help to solve society's daily problems, but there is still a very relevant challenge in relation to the engagement of citizens in these projects. In this study, an electronic participation social network called SoPa (Participatory Society) was investigated in the context of its use as an instrument of electronic participation in the construction of sector and directors plans in some cities in the south of Minas Gerais. In this context, the objective of this study was to formulate and validate hypotheses for improvements that would impact to increase engagement of users in this social network. For this, digital marketing and growth hacking strategies were used, with the aid of a framework called P-EPV, which defines steps to be performed in order to organize the development and the validation of these hypotheses. Based on the collected data, it was found that some of these digital marketing strategies, together with the application of this framework, could be useful in solving the challenges associated with engagement in this type of initiative. In addition to the validation of the P-EPV framework, the main contributions of this study are the analysis of the digital marketing strategies used and their results in this real context of electronic participation. These strategies have proven to be effective in terms of increasing engagement and can serve as a basis for other initiatives that face the same difficulties.

2020
Dissertações
1
  • WICTOR SOUZA MARTINS
  • Modelo de Otimização para Arquiteturas de aplicações de Big Data

  • Orientador : BRUNO TARDIOLE KUEHNE
  • MEMBROS DA BANCA :
  • BRUNO TARDIOLE KUEHNE
  • EDMILSON MARMO MOREIRA
  • LOURENCO ALVES PEREIRA JUNIOR
  • Data: 14/02/2020

  • Mostrar Resumo
  • A tecnologia de Big Data está cada vez mais presente na indústria e em pesquisas acadêmicas por proporcionar valor à análise massiva de dados. O aprimoramento desta tecnologia faz-se necessário devido ao crescimento expressivo de informação provida por diversas fontes presentes no nosso dia a dia, tais como sensores de ambientes, câmeras, smartphones e redes sociais. Um grande desafio para aplicações Big Data é equilibrar seus desempenhos em relação a seus custos de operação. Dessa forma, o provedor da aplicação Big Data necessita monitorar continuamente seu sistema para identificar pontos de melhoria dentro de sua arquitetura. Nesse contexto, este trabalho desenvolve um método de referência para avaliação de desempenho para arquiteturas de Big Data, intitulado de (Optimization Model for Big Data Architectures - OMBDA) visando melhorar o desempenho da arquitetura elevando a qualidade do serviço prestado. Sua principal contribuição está direcionada às pequenas empresas e startups que possuem recursos financeiros limitados, portanto investir em soluções prontas existentes no mercado é inviável. O método proposto considera a relação de processos dentro de um fluxo de tratamento de dados para encontrar possíveis gargalos e pontos de otimização. Para tanto, o OMBDA coleta logs do sistema para compor métricas funcionais (por exemplo, tempo de processamento) e métricas não-funcionais (por exemplo, utilização de CPU e memória, e outros recursos de infraestrutura de computação em nuvem). Essas métricas são armazenadas em uma ferramenta externa de análise de dados que investiga a correlação de desempenho entre os processos. Neste trabalho, o modelo é aplicado na arquitetura de uma aplicação Big Data, que provê soluções em logística de frotas. Por meio da aplicação do OMBDA foi possível identificar gargalos de desempenho, possibilitando a reconfiguração da arquitetura para aumentar a qualidade de serviço com o menor custo possível.


  • Mostrar Abstract
  • Big data technology is increasingly present in industry and academic research by providing value to massive data analysis. Improvement of this technology is necessary due to the exponential growth of information provided by various sources present in our daily lives, such as environment sensors, cameras, smartphones and social networks. A big challenge for big data applications is balancing their performance against their operating costs. Thus, the Big Data application provider needs to continuously monitor their system to identify improvement points within their architecture. In this context, this work develops a refernce method for performance evaluation for Big Data architectures, called by Optimization Model for Big Data Architectures (OMBDA) aimming to improve the performance and consequently raising quality of service provided. Its main contribution is directed to small companies and startups that have limited financial resources, so investing in ready-made solutions in the market is impossible. The proposed model considers the relationship of processes within a data processing flow to find possible bottlenecks and optimization points. To this end, OMBDA collects system logs to compose functional metrics (e.g., processing time) and non-functional metrics (e.g., CPU and memory utilization, and other cloud computing infrastructure resources). These metrics are stored in an external data analysis tool that investigates the correlation of performance between processes. In this work, the model is applied to the architecture of a Big Data application, which provides solutions in fleet logistics. Through the application of OMBDA it was possible to identify performance bottlenecks, enabling the architecture reconfiguration to increase the quality of service at the lowest possible cost.

2
  • LUIZ GUSTAVO MIRANDA PINTO
  • Análise e Desenvolvimento de uma Técnica de Aprendizado Profundo com OCR - SSD para Rastreamento Ativo de Carros e Posicionamento em Tempo Real em um Quadricóptero

  • Orientador : ALEXANDRE CARLOS BRANDAO RAMOS
  • MEMBROS DA BANCA :
  • ALEXANDRE CARLOS BRANDAO RAMOS
  • ELCIO HIDEITI SHIGUEMORI
  • ROBERTO AFFONSO DA COSTA JUNIOR
  • Data: 17/02/2020

  • Mostrar Resumo
  • Este trabalho tem o objetivo de apresentar uma t´ecnica constru´ıda `a partir de modelo de aprendizado profundo para rastreamento de objetos em tempo real denominada SingleShot MultiBox Detector - SSD, usada como meio de detec¸ca˜o para os objetos em imagens, em conjunto com uma biblioteca gratuita de Reconhecimento ´Otico de Caracteres (OCR), usada para Reconhecimento Autom´atico de Placas de Ve´ıculos (ALPR), chamada OpenALPR, sendo usada para o reconhecimento das placas dos ve´ıculos em tempo real, e o MAVSDK, um kit de desenvolvimento de software do protocolo MAVLink, servindo de assistˆencia para determinar o posicionamento e rastreamento em tempo real para quadrico´ptero durante voˆos autonomos guiados por software. O algoritmo foi todo implementado na linguagem de programa¸c˜ao Python em conjunto com a biblioteca OpenCV para processamento de v´ıdeo e imagem, o MAVSDK para controle remoto do PX4, o software de controle de voˆo do drone, o OpenALPR para o reconhecimento das placas e um modelo de aprendizado profundo SSD treinado usando os frameworks Caffe e TensorFlow. Uma mini-cˆamera FPV foi usada como dispositivo para a captura das imagens em tempo real para a rede SSD e o OpenALPR, sendo processadas pela biblioteca OpenCV e coordenadas pelo MAVSDK, tornando possivel o controle de rastreamento e posicionamento. Ambos experimentos simulados e em ambiente aberto foram conduzidos para coletar resultados sobre o rastreamento e posicionamento a fim de serem utilizados para futuras an´alises e refinamento.


  • Mostrar Abstract
  • This work has the goal of presenting a technique build with a deep learning algorithm for real-time object tracking called Single-Shot MultiBox Detector – SSD as a source for object detection in images, in combination with a Optical Character Recognition OCR open library for Automatic License Plate Recognition - ALPR, called OpenALPR, for a vehicle real-time license plate recognition, and MAVSDK, a MAVLink protocol SDK, serving as assistance for determining the real-time positioning and tracking for a F450 quadrotor during software assisted autonomous flight. The whole algorithm was implemented in Python programming language as a combination of OpenCV library for video and image processing, remote PX4 control with MAVSDK, which is the drone flight stack, OpenALPR for plate recognition and a custom SSD deep learning model trained using Caffe and TensorFlow frameworks. A mini FPV camera was used as a real-time streaming source for the SSD and OpenALPR, being processed by OpenCV and coordinated by MAVSDK, which made it possible to achieve both position and track control. Both simulated and outdoor experiments were conducted to collect results from both positioning and tracking for further analysis and refinement.

3
  • PEDRO LUCAS DE BRITO

  • Uma Análise do Uso de Processamento de Imagem e Redes Neurais para Travessia de Janelas em um Drone Autônomo

  • Orientador : ALEXANDRE CARLOS BRANDAO RAMOS
  • MEMBROS DA BANCA :
  • ALEXANDRE CARLOS BRANDAO RAMOS
  • ROBERTO CLAUDINO DA SILVA
  • ELCIO HIDEITI SHIGUEMORI
  • Data: 17/02/2020

  • Mostrar Resumo
  • Este trabalho investiga a implementa ̧c ̃ao de um sistema de controle autˆonomo para
    drones, esse sistema ́e capaz de realizar o travessia de janelas em vˆoos por locais fechados,
    atrav ́es do processamento de imagens e uso de redes neurais convolucionais. A estrat ́egia
    utilizada ́e a detec ̧c ̃ao de objetos, por meio de sua localiza ̧c ̃ao na imagem capturada ́e
    poss ́ıvel realizar um percurso program ́avel para o drone. Neste estudo, essa localiza ̧c ̃ao
    do objeto foi estabelecida por caixas delimitadoras, que definem o quadril ́atero em torno
    do objeto encontrado. O sistema foi baseado no uso de um piloto autom ́atico de c ́odigo
    aberto, a Pixhawk, que possui um ambiente de controle e simula ̧c ̃ao capaz de realizar
    o trabalho. Duas t ́ecnicas de detec ̧c ̃ao foram estudadas, a primeira baseada em filtros
    de processamento de imagem, que capturavam pol ́ıgonos que representam uma passagem
    dentro de uma janela. A outra abordagem foi estudada para um ambiente mais real,
    implementada com o uso de redes neurais convolucionais de detec ̧c ̃ao de objetos, com
    esse tipo de rede ́e poss ́ıvel detectar um grande n ́umero de janelas. O sistema tamb ́em
    envolve a implementa ̧c ̃ao de um m ́etodo de controle, o qual ́e capaz de aplicar os dados
    capturados pelos detectores e realizar o c ́alculo da velocidade de movimento adequada. O
    estudo traz avalia ̧c ̃oes do sistema e demonstra ̧c ̃oes dos testes realizados para sua valida ̧c ̃ao.


  • Mostrar Abstract
  • This work investigates the implementation of an autonomous control system for dro-
    nes, this system is capable of crossing windows on flights through closed places, through

    image processing and the use of convolutional neural networks. The strategy used is the
    detection of objects, through its location in the captured image it is possible to carry out

    a programmable route for the drone. In this study, this location of the object was esta-
    blished by bounding boxes, which define the quadrilateral around the found object. The

    system was based on the use of an open source autopilot, Pixhawk, which has a control

    and simulation environment capable of doing the job. Two detection techniques were stu-
    died, the first based on image processing filters, which captured polygons that represent

    a passage inside a window. The other approach was studied for a more real environment,
    implemented with the use of convolutional neural networks for object detection, with this

    type of network it is possible to detect a large number of windows. The system also in-
    volves the implementation of a control method, which is able to apply the data captured

    by the detectors and perform the calculation of the appropriate movement speed. The
    study brings evaluations of the system and demonstrations of the tests performed for its
    validation.

4
  • PAULO RICARDO ZAMBELLI TAVEIRA
  • Identificação Não Intrusiva de Cargas por Floresta Aleatória com Otimização Fogos de Artifício

  • Orientador : CARLOS HENRIQUE VALERIO DE MORAES
  • MEMBROS DA BANCA :
  • CARLOS HENRIQUE VALERIO DE MORAES
  • ISABELA NEVES DRUMMOND
  • LUIZ EDUARDO DA SILVA
  • Data: 14/04/2020

  • Mostrar Resumo
  • O controle de gastos relacionado à energia elétrica vem apresentando um grande cresci-
    mento, principalmente em ambientes residenciais. O monitoramento das cargas elétricas

    acionadas e removidas de uma residência é realizado frequentemente através de smart-
    plugs, fornecendo aos consumidores o intervalo de funcionamento e a potência consumida

    por cada equipamento. Apesar de uma solução prática de controle e redução de gastos

    de energia elétrica, possui um custo elevado devido à quantidade de medidores neces-
    sários. O problema do custo elevado pode ser contornado utilizando uma proposta de

    monitoramento de cargas não intrusivo (NILM), onde as medições de tensão e corrente
    são realizadas na entrada da residência, em contra partida demanda uma etapa extra de
    processamento. Nessa etapa extra, é necessário calcular a potência, identificar a ocorrência
    dos eventos e por fim, a identificar qual equipamento foi ligado ou desligado. As propostas
    desse trabalho foram utilizar um novo padrão de cálculo de potência proposto pela IEEE

    (1459-2010), a elaboração de um detector de evento do tipo heurístico utilizando jane-
    las de análise flutuante para localização de zonas de estabilidade nos sinais de potência

    após indicação de uma variação de potência acima de um valor pré-determinado, testes
    da melhor forma de disposição dos dados do identificador de eventos para a identificação

    de qual carga foi adicionada ou removida do circuito monitorado, e otimização dos pa-
    râmetros do classificador Floresta Aleatória (RF-Random Forest) utilizando o algoritmo

    de otimização fogos de artifício (Fireworks Algorithm- FA). Os testes do identificador de

    eventos proposto e do classificador utilizado foram realizados no dataset BLUED, que con-
    tém dados coletados em uma residência norte-americana em um período de uma semana.

    Para os testes do classificador foram utilizados quatro formas diferentes de entrada de da-
    dos inicialmente, e posteriormente as duas formas que obtiveram melhores desempenhos

    foram utilizadas no processo de otimização do classificador. O desempenho do identifica-
    dor de evento proposto foi comparado com outras publicação que utilizaram abordagens

    diferentes e obtiveram resultados satisfatórios. E os resultados das classificações foram

    comparadas entre si, por utilizarem formas de entrada de dados diferentes, e como tam-
    bém um classificador ideal, onde também foram observados uma melhora dos resultados

    quando comparados com os resultados de um classificador com parâmetros normalmente
    utilizados, um número maior de árvores foi utilizada em cada RF, mas com limitação
    na profundidade de cada árvore. E a importância das variáveis envolvidas no processo
    de classificação também foi calculada, destacando a importância da utilização do novo
    padrão de potência proposto pela IEEE.


  • Mostrar Abstract
  • The control of expenses related to electricity has been showing a great growth, especially
    in residential environments. Monitoring of electrical loads that are turning on and off from
    a home are often performed using smart-plugs, providing to the consumers information
    about operation intervals and power consumed by each device. Despite a practical solution
    to control and reduce electricity costs, it has a high cost due to the amount of meters
    required. The high cost problem can be worked around by using a non-intrusive load
    monitoring proposal (NILM), where voltage and current measurements are taken at the
    home entrance, in counterpart demand a extra processing step. In this extra step, it is
    necessary to calculate the powers, identification of the occurrence of events and finally,
    the identification of which equipment was turned on or off. The proposals of this work
    were to use a new power calculation standard proposed by the IEEE (1459-2010), the
    elaboration of a heuristic event detector using floating analysis windows to locate stability
    zones in the power signals after indicating a power variation above a predetermined value,
    testing the best way to dispose of event identifier data to identify which load has been
    added or removed from the monitored circuit, and optimization of the parameters of the
    Random Forest classifier using the fireworks optimization algorithm (FA). The proposed
    event identifier and classifier tests were performed on the dataset BLUED, which contains
    data collected at a north american residence over a period of one week. For the classifier
    tests, four different forms of data entry were used, and subsequently the two forms that
    obtained the best performances were used in the classifier optimization process. The event
    identifier results were compared with other publications that used different approaches
    and obtained satisfactory results. And the results of the classifications were compared
    to each other, for using different data entry forms, and also as an ideal classifier, where
    an improvement in the results was also observed when compared with the results of a
    classifier with commonly used parameters, presenting a larger number of trees used in
    each RF, but with a limited depth of each tree. And the importance of the variables
    involved in the classification process were calculated.

5
  • JOSÉ WAGNER DE ANDRADE JÚNIOR
  • Estruturas de dados retroativas: Aplicações na dinamização de algoritmos

  • Orientador : RODRIGO DUARTE SEABRA
  • MEMBROS DA BANCA :
  • MAYRON CESAR DE OLIVEIRA MOREIRA
  • PEDRO HENRIQUE DEL BIANCO HOKAMA
  • RODRIGO DUARTE SEABRA
  • Data: 09/06/2020

  • Mostrar Resumo
  • A retroatividade em programação é um conceito que pode ser definido como o estudo da modificação da linha temporal em uma estrutura de dados, bem como a análise dos efeitos dessa modificação através de toda a sua existência. Em geral, essa análise e implementação tendem a serem mais custosas do ponto de vista computacional, observando-se que uma modificação no passado pode gerar um efeito cascata por toda a existência dessa estrutura. O conceito de retroatividade gera ferramentas e estruturas que otimizam as soluções para a natureza desses problemas temporais. Esse tipo de estrutura pode ser utilizada nas aplicações das mais diversas naturezas, desde em algoritmos de caminho mínimo, aplicações em segurança e até em aplicações geométricas. Nessa dissertação, tem-se os subsídios teóricos sobre essas estruturas, um material detalhado sobre a implementação das estruturas mais comuns utilizando o paradigma da retroatividade, e a implementação de alguns problemas que podem ser resolvidos utilizando técnicas de retroatividade, como, por exemplo, o algoritmo de árvore geradora mínima totalmente dinâmica. Para cada estrutura, foram executados testes práticos sobre as estruturas retroativas e seu desempenho foi comparado às outras implementações dessas mesmas estruturas. Os testes mostraram que as implementações retroativas propostas por Demaine et. al (2007) obtiveram os melhores resultados do ponto de vista temporal. Além disso, foram propostos dois algoritmos que utilizam os conceitos de retroatividade para sua construção: o algoritmo para o problema da árvore geradora mínima totalmente retroativa e o algoritmo do caminho mínimo a partir de um vértice inicial fixo em grafos dinâmicos. Seja m o tamanho da linha temporal em que a estrutura está implementada, V (G) e A(G) o conjunto de vértices e arestas de um grafo G respectivamente. Foi alcançada a complexidade de tempo amortizada de O( √m · lg |V (G)|) por operação de atualização ou consulta, para o problema da árvore geradora mínima totalmente retroativa. Para o algoritmo do caminho mínimo, a partir de um vértice inicial fixo em grafos dinâmicos, por meio do algoritmo
    proposto por Sunita et. al [52], foi obtida a complexidade temporal de O(|A(G)| · lg |V (G)|) por modificação, utilizando filas de prioridade com retroatividade não-consistente.


  • Mostrar Abstract
  • The retroactivity in programming is the study of a modification in a timeline for a data structure and the effects that this modification exerts throughout its existence. In general, the analysis and implementation tend to be more costly computationally, because a modification on these data structure in the past can generate a cascade effect through all the data structure timeline. The concept of retroactivity generates tools and structures that optimize the solutions facing these temporal problems. This type of data structure can be used in, for example, shortest path algorithms, security applications, and geometric problems. In
    this thesis, we have the theoretical subsidies about these data structures, a detailed material about the implementation of this structures, using retroactivity, and the implementation of some problems that retroactivity can be used, for example, the fully dynamic minimum spanning tree problem. For each data structure, we executed practical tests about this data retroactive data structures and a comparison between these solutions and other approaches. The tests showed that the retroactive implementations proposed by Demaine et. al (2007) obtained the best results from a temporal point of view. It was proposed two algorithms which used the retroactivity concepts inside its development: the fully retroactive minimum spanning tree and the single source dynamic shortest path problem in dynamic graphs. Let m be data structure’s timeline, V (G) and A(G) the sets of vertices and edges from graph G. We reached an amortized time complexity O( √m · lg |V (G)|) per query/update operation in the fully retroactive minimum spanning tree algorithm. The algorithm to solve the single source dynamic shortest path problem in dynamic graphs proposed by Sunita et. al [52] obtained a time complexity O(|A(G)| · lg |V (G)|) per modification using a non-oblivious retroactive priority queue.

6
  • Anderson Tadeu de Oliveira Vicente
  • Mapeamento, Conversão e Migração automática de Bancos de Dados Relacionais para Orientados a Grafos

  • Orientador : EDMILSON MARMO MOREIRA
  • MEMBROS DA BANCA :
  • ALEXANDRE DONIZETI ALVES
  • EDMILSON MARMO MOREIRA
  • ENZO SERAPHIM
  • VANESSA CRISTINA OLIVEIRA DE SOUZA
  • Data: 28/08/2020

  • Mostrar Resumo
  • Bancos de Dados Relacionais são os modelos mais utilizados em diversas aplicações em razão da facilidade existente em sua linguagem de consulta e utilização em ambientes multi-usuários. Com o grande volume de informação que se tem nos dias de hoje e, sendo que estes encontram-se cada vez mais relacionadas, surgem os bancos de dados orientados a grafos como forma de lidar com esta nova demanda, frente às dificuldades do modelo relacional a este novo cenário. Diante disto, esta pesquisa tratou dos processos de mapeamento, conversão e migração do modelo relacional para o orientado a grafos, tratando, sobretudo, a sobrecarga semântica de construtores entre os dois modelos. O objetivo deste estudo foi o desenvolvimento de uma aplicação, denominada \textit{ThrusterDB}, que realiza esse processo de conversão do modelo relacional para o orientado a grafos de forma automática. A pesquisa traz contribuição ao integrar as fases de mapeamento, conversão e migração automática de um banco de dados relacional para um orientado a grafos. Esta dissertação apresenta resultados que mostram que o banco de dados gerado, após o processo, provê um desempenho melhor no tempo médio de consultas realizadas, além de preservar a semântica do banco de dados relacional de origem, sem qualquer perda ou redundância de dados.


  • Mostrar Abstract
  • Relational Databases are the most used models in several applications due to the ease of their query language and use in multi-user environments. With the great volume of information that we have today and, since they are increasingly related, databases oriented to graphs appear as a way to deal with this new demand, given the difficulties of the relational model to this new scenario. In view of this, this research dealt with the processes of mapping, conversion and migration from the relational model to the graph-oriented one, dealing, above all, with the semantic overload of constructors between the two models. The aim of this study was to develop an application, called \ textit {ThrusterDB}, that performs this process of converting the relational model to the graph-oriented one automatically. The research contributes by integrating the phases of mapping, conversion and automatic migration from a relational database to a graph-oriented one. This dissertation presents results that show that the generated database, after the process, provides a better performance in the average time of consultations carried out, in addition to preserving the semantics of the source relational database, without any loss or redundancy of data.

7
  • KAYQUE WILLY REIS DE OLIVEIRA
  • PARTICIPANDO COM JOGOS: UMA ANÁLISE DA GAMIFICAÇÃO COMO INTERVENÇÃO EM PESQUISAS DE OPINIÃO

  • Orientador : MELISE MARIA VEIGA DE PAULA
  • MEMBROS DA BANCA :
  • VANINHA VIEIRA DOS SANTOS
  • ADLER DINIZ DE SOUZA
  • MELISE MARIA VEIGA DE PAULA
  • Data: 06/11/2020

  • Mostrar Resumo
  • As pesquisas de opinião com o passar dos anos se tornaram um meio prático e comum de se coletar dados com uso de software para as mais diversas finalidades. A participação em pesquisas de opinião pode ser considerada um fenômeno no qual os sistemas colaborativos podem ser aplicados, uma vez que, esses sistemas são projetados para permitirem que pessoas se comuniquem e trabalhem em conjunto em um espaço compartilhado. Nessa abordagem, a pesquisa de opinião pode ser considerada como um instrumento que operacionaliza a cooperação entre um requisitante da pesquisa e o respondente. No entanto, a participação em pesquisas de opinião, independente da modalidade, é muito influenciada pela falta de engajamento dos participantes. A gamificação, que é definida como o uso de elementos e características de jogos em contextos que não são de jogos, tem sido considerada uma abordagem para aumentar o engajamento e encorajar a participação em pesquisas de opinião. Dessa forma, o objetivo dessa dissertação foi investigar como a gamificação pode ser utilizada como fator motivacional para estimular o engajamento em pesquisas de opinião. A metodologia desse trabalho foi definida com base no paradigma epistemológico Design Science Research (DSR), que foi utilizado para a realização de duas investigações em que foram desenvolvidos dois artefatos: o Modelo de Engajamento Colaborativo (MEC) e o aplicativo Opina Aí. Os artefatos foram avaliados em dois experimentos nos quais foram comparadas duas versões do aplicativo, versão gamificada e não gamificada. Embora os resultados em relação ao impacto da gamificação no engajamento não tenham sido conclusivos, esse trabalho pode ampliar o conhecimento e fundamentar estudos futuros em contextos em que a participação pode ser exercida de forma colaborativa e possibilitar direcionamentos sobre o uso da gamificação em pesquisas de opinião.


  • Mostrar Abstract
  • Survey over the years have become a practical and common way of collecting data using software for the most diverse purposes. Participation in Survey can be considered a phenomenon in which collaborative systems can be applied, since these systems are designed to allow people to communicate and work together in a shared space. In this approach, the survey can be considered as an instrument that operationalizes the cooperation between a research requester and the respondent. However, participation in Survey, regardless of the modality, is greatly influenced by the lack of engagement of the participants. Gamification, which is defined as the use of game elements and characteristics in non-game contexts, has been considered an approach to increase engagement and encourage participation in Survey. Thus, the objective of this dissertation was to investigate how gamification can be used as a motivational factor to stimulate engagement in Survey. The methodology of this work was defined based on the epistemological paradigm Design Science Research (DSR), which was used to carry out two research and two artifacts were developed, the Collaborative Engagement Model and the Opina Aí application. The artifacts were evaluated in two experiments in which two versions of the application were compared, gamified and non-gamified versions. Although the results regarding the impact of gamification on engagement have not been conclusive, this work can expand knowledge and support future studies in contexts where participation can be exercised collaboratively and provide guidance on the use of gamification in Survey.

8
  • DIMITRIUS GUILHERME FERREIRA BORGES
  • Gerenciamento de um cruzamento semaforizado utilizando Reinforcement Learning e Options Framework

  • Orientador : EDMILSON MARMO MOREIRA
  • MEMBROS DA BANCA :
  • CELIA LEIKO OGAWA KAWABATA
  • EDMILSON MARMO MOREIRA
  • EDVARD MARTINS DE OLIVEIRA
  • JOAO PAULO REUS RODRIGUES LEITE
  • Data: 18/12/2020

  • Mostrar Resumo
  • O número de veículos nas ruas de todo o mundo tem crescido rapidamente ao longo da última década, impactando diretamente em como o tráfego urbano é gerenciado. O controle de cruzamentos sinalizados é um problema largamente conhecido e estudado e que, embora cada vez mais tecnologias sejam exploradas e aplicadas, ainda se encontram desafios e oportunidades ao tratar o problema, principalmente quando confronta-se a ineficiência dos já bem difundidos semáforos de tempos fixos, incapazes de lidar com eventos dinâmicos. O objetivo deste trabalho é aplicar Hierarchical Reiforcement Learning (HRL) ao controle de um cruzamento veicular semaforizado e, a partir dos resultados obtidos, compará-lo a um semáforo de tempos fixos dimensionado pelo Método de Webster. HRL é uma variação de Reinforcement Learning (RL), em que objetivos secundários, representados por sub-políticas, são propostos e organizados em um modelo hierárquico e gerenciados por uma política macro, responsável por selecioná-las quando se espera rendimento máximo das mesmas, sendo que tanto as sub-políticas quanto a principal são regidas pelo framework Q-learning. Herarchical Reinforcement Learning foi escolhido por aliar a capacidade de aprendizado e tomada de decisão feitos de acordo com observações do ambiente em tempo real, característicos do Reinforcement Learning, com um modelo similar ao Dividir para Conquistar, que desmembra o problema principal em sub-problemas. Isso traz ao modelo uma maior dinâmica e poder de adaptabilidade a um problema que exibe, por vezes, variações imprevisíveis, impossíveis de serem levadas em conta em abordagens determinísticas, como o Método de Webster. Os cenários de testes, formados por diversos tipos de fluxo de veículos, aplicados a um cruzamento de duas vias simples, foram construídos através da ferramenta de simulação SUMO. Os modelos HRL, suas sub-políticas isoladas e o Método de Webster são aplicados e avaliados a partir destes cenários onde, de acordo com os resultados obtidos, HRL se mostra superior tanto ao Método de Webster quanto às suas sub-políticas isoladas, mostrando-se uma alternativa simples e eficaz.


  • Mostrar Abstract
  • The number of vehicles on the streets across the world has quickly grown in the last decade, directly impacting how urban traffic is managed. The signalized junctions control is a vastly known and studied problem. Although an increasing number of technologies is explored and used to solve it, there still are challenges and opportunities to deal with it, especially when considering the inefficiency of the widely known fixed time traffic controllers, which are incapable of dealing with dynamic events. This study aims to apply Hierarchical Reinforcement Learning (HRL) on the control of a signalized vehicular junction and compare its performance with a fixed time traffic controller, configured using the Webster Method. HRL is a Reinforcement Learning (RL) variation, where secondary objectives, represented by sub-policies, are organized and proposed in a hierarchical model, managed by a macro-policy, responsible for selecting said sub-policies when those are capable of reaching its best results, where The Q-Learning Framework rules both sub and macro policies. Hierarchical Reinforcement Learning was chosen because it combines the ability to learn and make decisions while taking observations from the environment, in real-time, a typical ability from Reinforcement Learning, with a Divide to Conquer approach, where the problem is divided into sub-problems. These capabilities bring to a highly dynamic problem a more significant power of adaptability, which is impossible to be taken into account when using deterministic models like the Webster Method. The test scenarios, composed of several vehicle fluxes applied to a cross of two lanes, were built using the SUMO simulation tool. HRL, its sub-policies and the Webster Method are applied and assessed through these scenarios. According to the obtained results, HRL shows better results than the Webster Method and its isolated sub-policies, indicating a simple and efficient alternative.

2019
Dissertações
1
  • LUIS HENRIQUE MEAZZINI SEPULVENE
  • Aplicação de Técnicas de Aprendizado de Máquina para o Diagnóstico de Falhas em Módulos Rastreadores de Frotas Veiculares

  • Orientador : BRUNO GUAZZELLI BATISTA
  • MEMBROS DA BANCA :
  • BRUNO GUAZZELLI BATISTA
  • ISABELA NEVES DRUMMOND
  • JOAO PAULO REUS RODRIGUES LEITE
  • WESLEY NUNES GONCALVES
  • Data: 23/04/2019

  • Mostrar Resumo
  • Com a indústria 4.0, as abordagens baseadas em dados estão em voga. No entanto, extrair
    as características importantes não é uma tarefa fácil e influencia muito o resultado final.
    Também há a necessidade de um conhecimento especializado do sistema para monitorar
    o ambiente e diagnosticar falhas. Neste contexto, o diagnóstico de falhas é significativo,
    por exemplo, em um sistema de monitoramento de frotas de veículos, pois é possível
    diagnosticar falhas antes mesmo que um cliente saiba da existência desta falha, além de
    minimizar os custos de manutenção dos módulos. Neste trabalho são propostas duas abordagens,
    “com informação” e “sem informação”, para exploração de um conjunto de dados,
    empregando técnicas de Aprendizado de Máquina (AM) para geração de modelos classificadores
    que auxiliem no processo de diagnóstico de falhas em módulos rastreadores de
    frotas veiculares. A abordagem “com informação” realiza a extração de características de
    forma manual, empregando os modelos de AM: Random Forest, Naive Bayes, Máquina de
    vetor de suporte (SVM) e Perceptron de múltiplas camadas (MLP); e a abordagem “sem
    informação” realiza a extração de características de forma automática, através de uma
    rede neural convolucional (CNN). Os resultados obtidos demonstraram que as abordagens
    propostas são promissoras. Os melhores modelos com extração de características manual
    obtiveram uma precisão de 99,76% e 99,68% para detecção e detecção e identificação de
    falhas, respectivamente, no conjunto de dados fornecido. Os melhores modelos fazendo
    uma extração de características automática obtiveram respectivamente 88,43% e 54,98%
    para detecção e detecção e identificação de falhas. Estes modelos podem servir como protótipos
    para diagnosticar falhas remotamente e confirmam que as técnicas tradicionais
    de AM com uma extração de características manual ainda são recursos eficazes para o
    diagnóstico de falhas.


  • Mostrar Abstract
  • With industry 4.0, data-based approaches are in vogue. However, extracting the essential
    features is not an easy task and greatly influences the final result. There is also a need
    for specialized system knowledge to monitor the environment and diagnose faults. In this
    context, the diagnosis of faults is significant, for example, in a vehicle fleet monitoring
    system, since it is possible to diagnose faults even before the customer is aware of the
    fault, in addition to minimizing the maintenance costs of the modules. In this work,
    several models using Machine Learning (ML) techniques were applied and analyzed during
    the fault diagnosis process in vehicle fleet tracking modules. This research proposes two
    approaches, with knowledge and without knowledge, to explore the dataset using ML
    techniques to generate classifiers that can assist in the fault diagnosis process in vehicle
    fleet tracking modules. The approach with knowledge performs the feature extraction
    manually, using the ML techniques: Random Forest, Naive Bayes, SVM and MLP; and
    the approach without knowledge performs an automatic feature extraction, through a
    Convolutional Neural Network (CNN). The results showed that the proposed approaches
    are promising. The best models with manual feature extraction obtained a precision of
    99,76% and 99,68% for detection and detection and identification of faults, respectively,
    in the provided dataset. The best models performing an automatic feature extraction
    obtained respectively 88,43% and 54,98% for detection and detection and identification of
    failures. These models can serve as prototypes to diagnose faults remotely and confirm that
    traditional ML techniques with manual extraction of features are still effective resources
    for fault diagnosis.

2
  • PAULO VICENTE GOMES DOS SANTOS
  • RSE: um Framework para Avaliação de Desempenho de Sistemas de Recomendação

  • Orientador : BRUNO TARDIOLE KUEHNE
  • MEMBROS DA BANCA :
  • BRUNO TARDIOLE KUEHNE
  • EDVARD MARTINS DE OLIVEIRA
  • LUIS HENRIQUE NUNES
  • Data: 02/05/2019

  • Mostrar Resumo
  • Os sistemas de recomendação são filtros que sugerem produtos de interesse para seus clientes,
    podendo assim causar um grande impacto nas vendas. Atualmente existe uma variedade
    desses algoritmos, sendo importante escolher a opção mais adequada ao problema
    em questão. Isso, no entanto, não é uma tarefa trivial. Nesse contexto é proposto o RSE
    (Recommender Systems Evaluator): um framework que realiza a avaliação de desempenho
    offline dos sistemas de recomendação. O uso da metodologia apropriada é fundamental ao
    fazer uma avaliação. No entanto isso é frequentemente negligenciado, levando a resultados
    inconsistentes. O RSE procura abstrair ao máximo a complexidade envolvida no processo,
    e se baseia em conceitos estatísticos para proporcionar conclusões mais robustas. Os estudos
    realizados comprovam a sua eficácia, mostrando inclusive que ele pode ser adaptado
    para ser usado em outros contextos além dos sistemas de recomendação.


  • Mostrar Abstract
  • Recommender systems are filters that suggest products of interest to customers, which
    may cause positive impact on sales. Nowadays there are a multitude of algorithms, and
    it is important to choose the most suitable option given a situation. However, it is not
    a trivial task. In this context, we propose the Recommender Systems Evaluator (RSE):
    a framework aimed to accomplish an offline performance evaluation of recommender systems.
    We argue that the usage of a proper methodology is crucial when evaluating. Yet
    it is frequently overlooked, leading to inconsistent results. RSE hides the complexity involved
    in the evaluation and is based on statistical concepts to provide reliable conclusions.
    Studies conducted proved its effectiveness, demonstrating that it can be adapted to be
    used in another context rather than recommender systems.

3
  • CHRISTOPHER DE SOUZA LIMA FRANCISCO
  • Extensão da técnica Earned Value Management utilizando dados da qualidade em projetos de software.

  • Orientador : ADLER DINIZ DE SOUZA
  • MEMBROS DA BANCA :
  • ADLER DINIZ DE SOUZA
  • CARLOS EDUARDO SANCHES DA SILVA
  • LEONARDO AUGUSTO DOS SANTOS OLIVEIRA
  • RAFAEL DE MAGALHAES DIAS FRINHANI
  • Data: 03/05/2019

  • Mostrar Resumo
  • Esse trabalho apresenta uma extensão da técnica de Gerenciamento de Valor Agregado
    (GVA), do inglês, Earned Value Management (EVM).
    A extensão apresentada integra dados da qualidade, baseados em requisitos de qualidade,
    para atualizar indicadores tradicionais da técnica de GVA.
    A proposta tem como objetivo principal melhorar a previsibilidade do Indicador de Desempenho
    de Custo (IDC) e Indicador de Desempenho de Prazo (IDP) e introduzir medidas
    de qualidade a técnica de GVA.
    A técnica proposta foi avaliada de acordo com uma metodologia baseada em evidência.
    Os estudos conduzidos mostraram melhor exatidão na técnica proposta de extensão da
    técnica de GVA em relação à técnica tradicional de GVA.


  • Mostrar Abstract
  • This work presents an extension of the Earned Value Management (EVM) technique.
    The proposed technique integrates quality data, based on quality requirements, to update
    traditional EVM indexes.
    The main objective of this proposal is to improve the predictability of the Cost Performance
    Index (CPI) and the Schedule Performance Index (SPI) and introduce quality
    measures to the EVM technique.
    The proposed technique was evaluated in accordance with an evidence-based methodology.
    The studies conducted showed a better accuracy in the proposed technique of extension
    of the EVM technique in relation to the traditional EVM technique

4
  • RAFAEL DE MOURA MOREIRA
  • Classificação de Batidas do Coração Usando Algoritmo de Baixo Custo

  • Orientador : ROBSON LUIZ MORENO
  • MEMBROS DA BANCA :
  • EVALDO RENÓ FARIA CINTRA
  • ROBSON LUIZ MORENO
  • TALES CLEBER PIMENTA
  • Data: 26/07/2019

  • Mostrar Resumo
  • O eletrocardiograma é uma poderosa ferramenta na detecção de patologias. Diversos
    doenças podem se manifestar através de alterações na forma do sinal elétrico produzido
    pelo coração. O desenvolvimento de dispositivos portáteis e de fácil uso capazes de analisar
    o sinal automaticamente permitiria o acompanhamento da evolução de patologias em casa,
    além de mutirões de exames em comunidades carentes, com pouco acesso a médicos e
    hospitais bem equipados. Neste trabalho é proposto um sistema completo combinando
    diferentes algoritmos para realizar classificação em tempo real de batimentos cardíacos
    para detecção de doenças utilizando hardware dedicado, com recursos limitados. Algumas
    técnicas utilizadas, como o algoritmo de Pan Tompkins para detecção de complexos QRS,
    já foram exaustivamente testados e utilizados em diversos sistemas de classificação de
    batimentos cardíacos, enquanto outros, como a segmentação dinâmica e os parâmetros de
    Hjorth, foram propostos recentemente para esse tipo de problema e seu funcionamento com
    sinais armazenados para pós-processamento foi demonstrado, além de seu baixo consumo
    de recursos computacionais. O sistema proposto foi testado verificando a integração das
    diferentes técnicas sem nenhum tipo de conhecimento prévio sobre o sinal, mediu seu
    desempenho utilizando a base de dados MIT-BIH Arrhythmia e seu tempo de execução.
    Dentro da proposta de detectar doenças, o modelo obteve índices de acerto comparáveis
    a outros trabalhos influentes nesta área de pesquisa, mas ele foi capaz de cumprir os
    requisitos de tempo de execução apenas em um laptop convencional, não se mostrando
    ainda viável para classificação em tempo real em sistemas embarcados mais acessíveis.


  • Mostrar Abstract
  • The electrocardiogram is a powerful tool for heart disease diagnosys. Several conditions
    manifest themselves as artifacts on the heart’s electric signal waveform. The development
    of user-friendly portable devices able to analyse an electrocardiogram signal automatically
    could allow patients to monitor their own conditions at home, and allow for large scale
    examinations on low income communities without doctors or well equipped hospitals. A full
    system combining different algorithms is proposed to perform online heartbeat classification
    using dedicated hardware with limited resources. Some of the techniques utilized, such
    as the Pan Tompkins QRS detection algorithm, have been extensively tested and used
    in different heartbeat classification systems, while others, such as dynamic segmentation
    and Hjorth parameters, have been previously shown to work for offline classification and
    use few computational resources. The proposed model tests how the different techniques
    integrate and work with no previous information about the signal, verifies their accuracy
    using the MIT-BIH Arrhythmia dataset and checks its execution time. Although it had
    good accuracy and was able to perform online classification on a conventional laptop, on a
    microcontroller it exceeded the execution time required for online classification.

5
  • MAURICIO XAVIER ZAPAROLI
  • SmartLock: Controle de acesso através de Smart Contracts e Smart Property

  • Orientador : ADLER DINIZ DE SOUZA
  • MEMBROS DA BANCA :
  • ADLER DINIZ DE SOUZA
  • CARLOS EDUARDO DE ANDRADE
  • RAFAEL DE MAGALHAES DIAS FRINHANI
  • Data: 06/08/2019

  • Mostrar Resumo
  • Blockchain é a tecnologia que permite a transação de dinheiro entre partes em uma forma
    peer-to-peer sem a necessidade de um intermediador de confiança como os bancos. Esse
    sistema é conhecido por suas atratentes características: (i) integridade dos dados e (ii)
    segurança. Para tomar vantagem dessas características, existem redes blockchain onde o
    foco não está em sua criptomoeda. Uma delas é a rede Ethereum, que é uma plataforma
    para aplicações chamadas contratos inteligentes que firmam acordo entre partes mas o
    fazem de maneira descentralizada. São algoritmos que são implantados no sistema e podem
    ser acessadas globalmente. Essas aplicações são executados sem a possibilidade de censura,
    fraude ou intervenção externa de terceiros. Uma de suas possíveis aplicações é o conceito
    smart property que é transacionar a posse ou controle de propriedades nos moldes da
    blockchain. Isso pode ser aplicado no contexto de alugueis de casas de veraneio e como
    o uso de serviços similares ao AirBnB tem se tornado cada vez mais popular devido sua
    atratividade financeira para os usuários há a necessidade de se desenvolver um sistema
    capaz de solucionar problemas de segurança ao mesmo tempo que traz conforto. Essa
    dissertação detalha o desenvolvimento de um projeto que estuda a viabilidade da aplicação
    do conceito de smart property. Foi desenvolvido uma plataforma de reservas onde o usuário
    faz sua reserva que quando aprovada é implantado um contrato inteligente na plataforma
    Ethereum. Para acessar a propriedade o usuário usa uma aplicação desenvolvida para o
    sistema Android que transfere as credenciais usando um protocolo de transferência de
    dados por som. A fechadura verifica as credenciais acessando o contrato inteligente e
    aciona o circuito da fechadura liberando o acesso a propriedade. Para verificar a viabilidade
    da solução, foram realizados testes com supostos usuários do sistema que responderam
    um questionário. Após análise do questionário, constatou-se que o projeto é viável, mais
    atrativo que os modelos de contrato tradicionais, funcional e proporcionou conforto.


  • Mostrar Abstract
  • Blockchain is the technology that allows the transaction of money between parties in
    a peer-to-peer manner without the need of a trusted intermediary such as banks. This
    technology is known for its attractive characteristics: (i) the data integrity, and (ii) security.
    To take advantage of such characteristics, some blockchain networks are not focused
    on their cryptocurrency. One of those networks is the Ethereum network, which is a
    platform for smart contracts. Smart contracts are applications that represent an agreement
    between parties in a decentralized manner. These algorithms are deployed on the system
    and can be globally accessed. They are executed without the possibility of censorship,
    fraud, or external third party intervention. One of their possible applications is the smart
    property concept that is transacting property on the blockchain. This can be applied on
    the property rental context and the raising use of services such as AirBnB due to its
    financial attractiveness to its users, there is a need to develop a system capable of solving
    the security issues while providing comfort. This work will presents the development of a
    project that studies the viability of applying the concept of smart property. A reservation
    platform was developed where the user makes one reservation and, when approved, a
    smart contract is deployed to the Ethereum platform. To access the property, the user
    uses the application developed for Android which transfer the credentials using a data
    through sound protocol. The lock verifies these credentials accessing the smart contract
    and activates the lock’s circuit allowing access to the property. To examine the viability of
    this project, tests were performed with supposed users of this system who also answered a
    survey. After the analysis of this survey, the project proved to be viable, more attractive
    than the traditional standard, functional, and provided comfort.

6
  • CARLOS MINORU TAMAKI
  • Estudo de Sensores Multifuncionais Para Análise da Fragilidade e Seus Componentes em Idosos

  • Orientador : ALEXANDRE CARLOS BRANDAO RAMOS
  • MEMBROS DA BANCA :
  • ALEXANDRE CARLOS BRANDAO RAMOS
  • HILDEBRANDO FERREIRA DE CASTRO FILHO
  • ROBERTO AFFONSO DA COSTA JUNIOR
  • ROBERTO CLAUDINO DA SILVA
  • Data: 06/12/2019

  • Mostrar Resumo
  • Atualmente, a pirâmide etária brasileira vem apresentando um grande aumento na faixa de pessoas idosas. Com isso, o crescente desenvolvimento de métodos, técnicas e ferramentas para avaliar a fragilidade dessas pessoas ganha cada vez mais importância no cenário nacional. A fragilidade é uma síndrome caracterizada pela redução das reservas físicas e cognitivas, tornando os idosos mais vulneráveis a eventos adversos, hospitalizações, quedas, perda de independência e morte. Para esta síndrome ser avaliada são necessários o uso de sensores de inércia, acelerômetros e algoritmos. Os sensores são utilizados para quantificar a avaliação de movimento no teste Time Up and Go (TUG), os acelerômetros são usados durante a avaliação do equilíbrio e os algoritmos detectam idosos frágeis, não frágeis e robustos. Nesse contexto, em parceria com pesquisadores da UNIFEI e UNIVAS, foi desenvolvido e testado um dispositivo eletrônico composto por sensores de alta qualidade, multifuncionais e baixo custo que, através da combinação de um giroscópio de 3 eixos, acelerômetro de 3 eixos, termômetro, oxímetro e medidor de frequência cardíaca, analisam a qualidade do movimento, o gasto energético, a velocidade da marcha, a alteração no equilíbrio e a variabilidade da frequência cardíaca durante o movimento e qualidade da contração do músculo pentríceps. Os dados são analisados em software específico, desenvolvido para o protótipo do equipamento. A validação dos sensores não causa danos ou prejuízos à saúde dos participantes. O sistema desenvolvido comprovou ser uma ferramenta eficaz para a análise da síndrome da fragilidade e continua sendo testado com sucesso em idosos voluntários.


  • Mostrar Abstract
  • Currently, the Brazilian age pyramid has shown a large increase in the range of elder people. With this, the growing development of methods, techniques and tools to assess their fragility people is increasingly important in the national scenario. Frailty is a syndrome characterized by reduced physical and cognitive reserves, making elder people more vulnerable to adverse events, hospitalizations, falls, loss of independence and death. For this syndrome to be evaluated, it is necessary to use inertia sensors, accelerometers and algorithms. Sensors are used to quantify time evaluation in the Time Up and Go (TUG) test, accelerometers are used during balance evaluation, and algorithms detect fragile, non-fragile, and robust elderly people. In this context, in partnership with researchers from UNIFEI and UNIVAS, an electronic device composed of high quality, multifunctional and low cost sensors was developed and tested, which, through the combination of a 3-axis gyroscope, 3-axis accelerometer, thermometer, oximeter and heart rate meter, analyze the quality of movement, energy expenditure, gait speed, change in balance and heart rate variability during movement and quality of contraction of the pentriceps muscle. Data are analyzed in specific software developed for the prototype. The validation of the sensors does not cause damage or harm to the health of the participants. The developed system has proven to be an effective tool for frailty syndrome analysis and continues to be successfully tested in elderly volunteers.

7
  • LUCIANO DO VALE RIBEIRO
  • Estudo de Algoritmos de Visão Computacional para Identificação e Rastreamento de Linhas de Transmissão de Energia Elétrica com Multirotores

  • Orientador : ALEXANDRE CARLOS BRANDAO RAMOS
  • MEMBROS DA BANCA :
  • ALEXANDRE CARLOS BRANDAO RAMOS
  • HILDEBRANDO FERREIRA DE CASTRO FILHO
  • ROBERTO AFFONSO DA COSTA JUNIOR
  • ROBERTO CLAUDINO DA SILVA
  • Data: 06/12/2019

  • Mostrar Resumo
  • A rede de transmissão de energia elétrica brasileira requer inspeção e manutenção preventiva regular para garantir o seu fornecimento aos consumidores. As companhias transmissoras realizam inspeções regulares para identificar anomalias na rede de transmissão, como defeitos nos cabos, trincas nos isoladores e estruturas próximos da rede, como árvores, entre outros. Estas inspeções podem ser feitas por profissionais com uso de binóculos ou através de helicópteros tripulados contendo um conjunto de sensores, tais como câmeras infravermelho para detectar pontos de alto aquecimento, entre outros sensores. O interesse no uso de Veículos Aéreos Não Tripulados (VANTs) para realizar inspeções em linhas de transmissão têm crescido nos últimos anos, devido ao baixo custo e aumento na segurança, se comparado com as inspeções realizadas com helicópteros tripulados. Com essa tecnologia, o VANT pode ser controlado via rádio controle por um piloto ou de forma semi-automática, com uma missão pré-programada no piloto embarcado da aeronave. Uma das grandes dificuldades em se realizar vôos autônomos está na dependência do sistema GPS (Global Positioning System) para obtenção da posição do VANT. O erro na medida da posição informada pelo GPS pode afetar o desenvolvimento da missão. Este trabalho visa desenvolver uma técnica de processamento de imagens em tempo real para realizar a identificação e rastreamento das linhas de transmissão e desta forma determinar a sua posição relativa ao VANT. Sem conhecer exatamente a posição do VANT e das linhas de transmissão, mas sabendo a posição relativa entre os dois, pode ser possível corrigir a trajetória do VANT através de comandos enviados para o piloto automático da aeronave. O projeto foi desenvolvido sobre o framework ROS (Robot Operating System) e o processamento de imagens foi realizado utilizando a biblioteca OpenCV. Para avaliar o desempenho da solução, criou-se um cenário virtual no simulador de robôs Gazebo, onde foi possível processar as imagens geradas por um multirotor durante uma missão de inspeção.


  • Mostrar Abstract
  • The Brazilian electricity transmission network requires regular preventive inspection and maintenance to ensure its supply to consumers. Transmission companies carry out regular inspections to identify anomalies in the transmission network, such as cable defects, insulator cracks and structures close to the network, such as trees, among others. These inspections can be performed by expert personnel using binoculars or by manned helicopters containing a set of sensors, such as infrared cameras to detect hot spots, among other sensors. Interest in using unmanned aerial vehicles (UAVs) to conduct transmission line inspections has grown in recent years due to the lower cost and increased safety compared to manned helicopter inspections. With this technology, the UAV can be controlled via radio control by a pilot or semi automatic, with a pre-programmed mission in the aircraft’s onboard pilot. One of the major difficulties in performing autonomous flights is the dependence on GPS (Global Positioning System) to obtain the UAV position. Errors in GPS position measurements can affect mission progress. This project aims to develop a real-time image processing technique to identify and track transmission lines and thus determine their position relative to the UAV. Without knowing exactly the position of the UAV and the transmission lines, but knowing the relative position between them, it can be possible to correct the UAV trajectory through commands sent to the aircraft autopilot. This project was developed under the ROS (Robot Operating System) framework and the image processing was performed using the OpenCV library. To evaluate the performance of the solution, a virtual scenario was created in the Gazebo robot simulator, which made it possible to process the images generated by a multirotor during an inspection mission.

SIGAA | DTI - Diretoria de Tecnologia da Informação - (35) 3629-1080 | Copyright © 2006-2024 - UFRN - sigaa04.unifei.edu.br.sigaa04