|
Dissertações |
|
1
|
-
WICTOR SOUZA MARTINS
-
Modelo de Otimização para Arquiteturas de aplicações de Big Data
-
Orientador : BRUNO TARDIOLE KUEHNE
-
MEMBROS DA BANCA :
-
BRUNO TARDIOLE KUEHNE
-
EDMILSON MARMO MOREIRA
-
LOURENCO ALVES PEREIRA JUNIOR
-
Data: 14/02/2020
-
-
Mostrar Resumo
-
A tecnologia de Big Data está cada vez mais presente na indústria e em pesquisas acadêmicas por proporcionar valor à análise massiva de dados. O aprimoramento desta tecnologia faz-se necessário devido ao crescimento expressivo de informação provida por diversas fontes presentes no nosso dia a dia, tais como sensores de ambientes, câmeras, smartphones e redes sociais. Um grande desafio para aplicações Big Data é equilibrar seus desempenhos em relação a seus custos de operação. Dessa forma, o provedor da aplicação Big Data necessita monitorar continuamente seu sistema para identificar pontos de melhoria dentro de sua arquitetura. Nesse contexto, este trabalho desenvolve um método de referência para avaliação de desempenho para arquiteturas de Big Data, intitulado de (Optimization Model for Big Data Architectures - OMBDA) visando melhorar o desempenho da arquitetura elevando a qualidade do serviço prestado. Sua principal contribuição está direcionada às pequenas empresas e startups que possuem recursos financeiros limitados, portanto investir em soluções prontas existentes no mercado é inviável. O método proposto considera a relação de processos dentro de um fluxo de tratamento de dados para encontrar possíveis gargalos e pontos de otimização. Para tanto, o OMBDA coleta logs do sistema para compor métricas funcionais (por exemplo, tempo de processamento) e métricas não-funcionais (por exemplo, utilização de CPU e memória, e outros recursos de infraestrutura de computação em nuvem). Essas métricas são armazenadas em uma ferramenta externa de análise de dados que investiga a correlação de desempenho entre os processos. Neste trabalho, o modelo é aplicado na arquitetura de uma aplicação Big Data, que provê soluções em logística de frotas. Por meio da aplicação do OMBDA foi possível identificar gargalos de desempenho, possibilitando a reconfiguração da arquitetura para aumentar a qualidade de serviço com o menor custo possível.
-
Mostrar Abstract
-
Big data technology is increasingly present in industry and academic research by providing value to massive data analysis. Improvement of this technology is necessary due to the exponential growth of information provided by various sources present in our daily lives, such as environment sensors, cameras, smartphones and social networks. A big challenge for big data applications is balancing their performance against their operating costs. Thus, the Big Data application provider needs to continuously monitor their system to identify improvement points within their architecture. In this context, this work develops a refernce method for performance evaluation for Big Data architectures, called by Optimization Model for Big Data Architectures (OMBDA) aimming to improve the performance and consequently raising quality of service provided. Its main contribution is directed to small companies and startups that have limited financial resources, so investing in ready-made solutions in the market is impossible. The proposed model considers the relationship of processes within a data processing flow to find possible bottlenecks and optimization points. To this end, OMBDA collects system logs to compose functional metrics (e.g., processing time) and non-functional metrics (e.g., CPU and memory utilization, and other cloud computing infrastructure resources). These metrics are stored in an external data analysis tool that investigates the correlation of performance between processes. In this work, the model is applied to the architecture of a Big Data application, which provides solutions in fleet logistics. Through the application of OMBDA it was possible to identify performance bottlenecks, enabling the architecture reconfiguration to increase the quality of service at the lowest possible cost.
|
|
2
|
-
LUIZ GUSTAVO MIRANDA PINTO
-
Análise e Desenvolvimento de uma Técnica de Aprendizado Profundo com OCR - SSD para Rastreamento Ativo de Carros e Posicionamento em Tempo Real em um Quadricóptero
-
Orientador : ALEXANDRE CARLOS BRANDAO RAMOS
-
MEMBROS DA BANCA :
-
ALEXANDRE CARLOS BRANDAO RAMOS
-
ELCIO HIDEITI SHIGUEMORI
-
ROBERTO AFFONSO DA COSTA JUNIOR
-
Data: 17/02/2020
-
-
Mostrar Resumo
-
Este trabalho tem o objetivo de apresentar uma t´ecnica constru´ıda `a partir de modelo de aprendizado profundo para rastreamento de objetos em tempo real denominada SingleShot MultiBox Detector - SSD, usada como meio de detec¸ca˜o para os objetos em imagens, em conjunto com uma biblioteca gratuita de Reconhecimento ´Otico de Caracteres (OCR), usada para Reconhecimento Autom´atico de Placas de Ve´ıculos (ALPR), chamada OpenALPR, sendo usada para o reconhecimento das placas dos ve´ıculos em tempo real, e o MAVSDK, um kit de desenvolvimento de software do protocolo MAVLink, servindo de assistˆencia para determinar o posicionamento e rastreamento em tempo real para quadrico´ptero durante voˆos autonomos guiados por software. O algoritmo foi todo implementado na linguagem de programa¸c˜ao Python em conjunto com a biblioteca OpenCV para processamento de v´ıdeo e imagem, o MAVSDK para controle remoto do PX4, o software de controle de voˆo do drone, o OpenALPR para o reconhecimento das placas e um modelo de aprendizado profundo SSD treinado usando os frameworks Caffe e TensorFlow. Uma mini-cˆamera FPV foi usada como dispositivo para a captura das imagens em tempo real para a rede SSD e o OpenALPR, sendo processadas pela biblioteca OpenCV e coordenadas pelo MAVSDK, tornando possivel o controle de rastreamento e posicionamento. Ambos experimentos simulados e em ambiente aberto foram conduzidos para coletar resultados sobre o rastreamento e posicionamento a fim de serem utilizados para futuras an´alises e refinamento.
-
Mostrar Abstract
-
This work has the goal of presenting a technique build with a deep learning algorithm for real-time object tracking called Single-Shot MultiBox Detector – SSD as a source for object detection in images, in combination with a Optical Character Recognition OCR open library for Automatic License Plate Recognition - ALPR, called OpenALPR, for a vehicle real-time license plate recognition, and MAVSDK, a MAVLink protocol SDK, serving as assistance for determining the real-time positioning and tracking for a F450 quadrotor during software assisted autonomous flight. The whole algorithm was implemented in Python programming language as a combination of OpenCV library for video and image processing, remote PX4 control with MAVSDK, which is the drone flight stack, OpenALPR for plate recognition and a custom SSD deep learning model trained using Caffe and TensorFlow frameworks. A mini FPV camera was used as a real-time streaming source for the SSD and OpenALPR, being processed by OpenCV and coordinated by MAVSDK, which made it possible to achieve both position and track control. Both simulated and outdoor experiments were conducted to collect results from both positioning and tracking for further analysis and refinement.
|
|
3
|
-
PEDRO LUCAS DE BRITO
-
Uma Análise do Uso de Processamento de Imagem e Redes Neurais para Travessia de Janelas em um Drone Autônomo
-
Orientador : ALEXANDRE CARLOS BRANDAO RAMOS
-
MEMBROS DA BANCA :
-
ALEXANDRE CARLOS BRANDAO RAMOS
-
ROBERTO CLAUDINO DA SILVA
-
ELCIO HIDEITI SHIGUEMORI
-
Data: 17/02/2020
-
-
Mostrar Resumo
-
Este trabalho investiga a implementa ̧c ̃ao de um sistema de controle autˆonomo para drones, esse sistema ́e capaz de realizar o travessia de janelas em vˆoos por locais fechados, atrav ́es do processamento de imagens e uso de redes neurais convolucionais. A estrat ́egia utilizada ́e a detec ̧c ̃ao de objetos, por meio de sua localiza ̧c ̃ao na imagem capturada ́e poss ́ıvel realizar um percurso program ́avel para o drone. Neste estudo, essa localiza ̧c ̃ao do objeto foi estabelecida por caixas delimitadoras, que definem o quadril ́atero em torno do objeto encontrado. O sistema foi baseado no uso de um piloto autom ́atico de c ́odigo aberto, a Pixhawk, que possui um ambiente de controle e simula ̧c ̃ao capaz de realizar o trabalho. Duas t ́ecnicas de detec ̧c ̃ao foram estudadas, a primeira baseada em filtros de processamento de imagem, que capturavam pol ́ıgonos que representam uma passagem dentro de uma janela. A outra abordagem foi estudada para um ambiente mais real, implementada com o uso de redes neurais convolucionais de detec ̧c ̃ao de objetos, com esse tipo de rede ́e poss ́ıvel detectar um grande n ́umero de janelas. O sistema tamb ́em envolve a implementa ̧c ̃ao de um m ́etodo de controle, o qual ́e capaz de aplicar os dados capturados pelos detectores e realizar o c ́alculo da velocidade de movimento adequada. O estudo traz avalia ̧c ̃oes do sistema e demonstra ̧c ̃oes dos testes realizados para sua valida ̧c ̃ao.
-
Mostrar Abstract
-
This work investigates the implementation of an autonomous control system for dro- nes, this system is capable of crossing windows on flights through closed places, through
image processing and the use of convolutional neural networks. The strategy used is the detection of objects, through its location in the captured image it is possible to carry out
a programmable route for the drone. In this study, this location of the object was esta- blished by bounding boxes, which define the quadrilateral around the found object. The
system was based on the use of an open source autopilot, Pixhawk, which has a control
and simulation environment capable of doing the job. Two detection techniques were stu- died, the first based on image processing filters, which captured polygons that represent
a passage inside a window. The other approach was studied for a more real environment, implemented with the use of convolutional neural networks for object detection, with this
type of network it is possible to detect a large number of windows. The system also in- volves the implementation of a control method, which is able to apply the data captured
by the detectors and perform the calculation of the appropriate movement speed. The study brings evaluations of the system and demonstrations of the tests performed for its validation.
|
|
4
|
-
PAULO RICARDO ZAMBELLI TAVEIRA
-
Identificação Não Intrusiva de Cargas por Floresta Aleatória com Otimização Fogos de Artifício
-
Orientador : CARLOS HENRIQUE VALERIO DE MORAES
-
MEMBROS DA BANCA :
-
CARLOS HENRIQUE VALERIO DE MORAES
-
ISABELA NEVES DRUMMOND
-
LUIZ EDUARDO DA SILVA
-
Data: 14/04/2020
-
-
Mostrar Resumo
-
O controle de gastos relacionado à energia elétrica vem apresentando um grande cresci- mento, principalmente em ambientes residenciais. O monitoramento das cargas elétricas
acionadas e removidas de uma residência é realizado frequentemente através de smart- plugs, fornecendo aos consumidores o intervalo de funcionamento e a potência consumida
por cada equipamento. Apesar de uma solução prática de controle e redução de gastos
de energia elétrica, possui um custo elevado devido à quantidade de medidores neces- sários. O problema do custo elevado pode ser contornado utilizando uma proposta de
monitoramento de cargas não intrusivo (NILM), onde as medições de tensão e corrente são realizadas na entrada da residência, em contra partida demanda uma etapa extra de processamento. Nessa etapa extra, é necessário calcular a potência, identificar a ocorrência dos eventos e por fim, a identificar qual equipamento foi ligado ou desligado. As propostas desse trabalho foram utilizar um novo padrão de cálculo de potência proposto pela IEEE
(1459-2010), a elaboração de um detector de evento do tipo heurístico utilizando jane- las de análise flutuante para localização de zonas de estabilidade nos sinais de potência
após indicação de uma variação de potência acima de um valor pré-determinado, testes da melhor forma de disposição dos dados do identificador de eventos para a identificação
de qual carga foi adicionada ou removida do circuito monitorado, e otimização dos pa- râmetros do classificador Floresta Aleatória (RF-Random Forest) utilizando o algoritmo
de otimização fogos de artifício (Fireworks Algorithm- FA). Os testes do identificador de
eventos proposto e do classificador utilizado foram realizados no dataset BLUED, que con- tém dados coletados em uma residência norte-americana em um período de uma semana.
Para os testes do classificador foram utilizados quatro formas diferentes de entrada de da- dos inicialmente, e posteriormente as duas formas que obtiveram melhores desempenhos
foram utilizadas no processo de otimização do classificador. O desempenho do identifica- dor de evento proposto foi comparado com outras publicação que utilizaram abordagens
diferentes e obtiveram resultados satisfatórios. E os resultados das classificações foram
comparadas entre si, por utilizarem formas de entrada de dados diferentes, e como tam- bém um classificador ideal, onde também foram observados uma melhora dos resultados
quando comparados com os resultados de um classificador com parâmetros normalmente utilizados, um número maior de árvores foi utilizada em cada RF, mas com limitação na profundidade de cada árvore. E a importância das variáveis envolvidas no processo de classificação também foi calculada, destacando a importância da utilização do novo padrão de potência proposto pela IEEE.
-
Mostrar Abstract
-
The control of expenses related to electricity has been showing a great growth, especially in residential environments. Monitoring of electrical loads that are turning on and off from a home are often performed using smart-plugs, providing to the consumers information about operation intervals and power consumed by each device. Despite a practical solution to control and reduce electricity costs, it has a high cost due to the amount of meters required. The high cost problem can be worked around by using a non-intrusive load monitoring proposal (NILM), where voltage and current measurements are taken at the home entrance, in counterpart demand a extra processing step. In this extra step, it is necessary to calculate the powers, identification of the occurrence of events and finally, the identification of which equipment was turned on or off. The proposals of this work were to use a new power calculation standard proposed by the IEEE (1459-2010), the elaboration of a heuristic event detector using floating analysis windows to locate stability zones in the power signals after indicating a power variation above a predetermined value, testing the best way to dispose of event identifier data to identify which load has been added or removed from the monitored circuit, and optimization of the parameters of the Random Forest classifier using the fireworks optimization algorithm (FA). The proposed event identifier and classifier tests were performed on the dataset BLUED, which contains data collected at a north american residence over a period of one week. For the classifier tests, four different forms of data entry were used, and subsequently the two forms that obtained the best performances were used in the classifier optimization process. The event identifier results were compared with other publications that used different approaches and obtained satisfactory results. And the results of the classifications were compared to each other, for using different data entry forms, and also as an ideal classifier, where an improvement in the results was also observed when compared with the results of a classifier with commonly used parameters, presenting a larger number of trees used in each RF, but with a limited depth of each tree. And the importance of the variables involved in the classification process were calculated.
|
|
5
|
-
JOSÉ WAGNER DE ANDRADE JÚNIOR
-
Estruturas de dados retroativas: Aplicações na dinamização de algoritmos
-
Orientador : RODRIGO DUARTE SEABRA
-
MEMBROS DA BANCA :
-
MAYRON CESAR DE OLIVEIRA MOREIRA
-
PEDRO HENRIQUE DEL BIANCO HOKAMA
-
RODRIGO DUARTE SEABRA
-
Data: 09/06/2020
-
-
Mostrar Resumo
-
A retroatividade em programação é um conceito que pode ser definido como o estudo da modificação da linha temporal em uma estrutura de dados, bem como a análise dos efeitos dessa modificação através de toda a sua existência. Em geral, essa análise e implementação tendem a serem mais custosas do ponto de vista computacional, observando-se que uma modificação no passado pode gerar um efeito cascata por toda a existência dessa estrutura. O conceito de retroatividade gera ferramentas e estruturas que otimizam as soluções para a natureza desses problemas temporais. Esse tipo de estrutura pode ser utilizada nas aplicações das mais diversas naturezas, desde em algoritmos de caminho mínimo, aplicações em segurança e até em aplicações geométricas. Nessa dissertação, tem-se os subsídios teóricos sobre essas estruturas, um material detalhado sobre a implementação das estruturas mais comuns utilizando o paradigma da retroatividade, e a implementação de alguns problemas que podem ser resolvidos utilizando técnicas de retroatividade, como, por exemplo, o algoritmo de árvore geradora mínima totalmente dinâmica. Para cada estrutura, foram executados testes práticos sobre as estruturas retroativas e seu desempenho foi comparado às outras implementações dessas mesmas estruturas. Os testes mostraram que as implementações retroativas propostas por Demaine et. al (2007) obtiveram os melhores resultados do ponto de vista temporal. Além disso, foram propostos dois algoritmos que utilizam os conceitos de retroatividade para sua construção: o algoritmo para o problema da árvore geradora mínima totalmente retroativa e o algoritmo do caminho mínimo a partir de um vértice inicial fixo em grafos dinâmicos. Seja m o tamanho da linha temporal em que a estrutura está implementada, V (G) e A(G) o conjunto de vértices e arestas de um grafo G respectivamente. Foi alcançada a complexidade de tempo amortizada de O( √m · lg |V (G)|) por operação de atualização ou consulta, para o problema da árvore geradora mínima totalmente retroativa. Para o algoritmo do caminho mínimo, a partir de um vértice inicial fixo em grafos dinâmicos, por meio do algoritmo proposto por Sunita et. al [52], foi obtida a complexidade temporal de O(|A(G)| · lg |V (G)|) por modificação, utilizando filas de prioridade com retroatividade não-consistente.
-
Mostrar Abstract
-
The retroactivity in programming is the study of a modification in a timeline for a data structure and the effects that this modification exerts throughout its existence. In general, the analysis and implementation tend to be more costly computationally, because a modification on these data structure in the past can generate a cascade effect through all the data structure timeline. The concept of retroactivity generates tools and structures that optimize the solutions facing these temporal problems. This type of data structure can be used in, for example, shortest path algorithms, security applications, and geometric problems. In this thesis, we have the theoretical subsidies about these data structures, a detailed material about the implementation of this structures, using retroactivity, and the implementation of some problems that retroactivity can be used, for example, the fully dynamic minimum spanning tree problem. For each data structure, we executed practical tests about this data retroactive data structures and a comparison between these solutions and other approaches. The tests showed that the retroactive implementations proposed by Demaine et. al (2007) obtained the best results from a temporal point of view. It was proposed two algorithms which used the retroactivity concepts inside its development: the fully retroactive minimum spanning tree and the single source dynamic shortest path problem in dynamic graphs. Let m be data structure’s timeline, V (G) and A(G) the sets of vertices and edges from graph G. We reached an amortized time complexity O( √m · lg |V (G)|) per query/update operation in the fully retroactive minimum spanning tree algorithm. The algorithm to solve the single source dynamic shortest path problem in dynamic graphs proposed by Sunita et. al [52] obtained a time complexity O(|A(G)| · lg |V (G)|) per modification using a non-oblivious retroactive priority queue.
|
|
6
|
-
Anderson Tadeu de Oliveira Vicente
-
Mapeamento, Conversão e Migração automática de Bancos de Dados Relacionais para Orientados a Grafos
-
Orientador : EDMILSON MARMO MOREIRA
-
MEMBROS DA BANCA :
-
ALEXANDRE DONIZETI ALVES
-
EDMILSON MARMO MOREIRA
-
ENZO SERAPHIM
-
VANESSA CRISTINA OLIVEIRA DE SOUZA
-
Data: 28/08/2020
-
-
Mostrar Resumo
-
Bancos de Dados Relacionais são os modelos mais utilizados em diversas aplicações em razão da facilidade existente em sua linguagem de consulta e utilização em ambientes multi-usuários. Com o grande volume de informação que se tem nos dias de hoje e, sendo que estes encontram-se cada vez mais relacionadas, surgem os bancos de dados orientados a grafos como forma de lidar com esta nova demanda, frente às dificuldades do modelo relacional a este novo cenário. Diante disto, esta pesquisa tratou dos processos de mapeamento, conversão e migração do modelo relacional para o orientado a grafos, tratando, sobretudo, a sobrecarga semântica de construtores entre os dois modelos. O objetivo deste estudo foi o desenvolvimento de uma aplicação, denominada \textit{ThrusterDB}, que realiza esse processo de conversão do modelo relacional para o orientado a grafos de forma automática. A pesquisa traz contribuição ao integrar as fases de mapeamento, conversão e migração automática de um banco de dados relacional para um orientado a grafos. Esta dissertação apresenta resultados que mostram que o banco de dados gerado, após o processo, provê um desempenho melhor no tempo médio de consultas realizadas, além de preservar a semântica do banco de dados relacional de origem, sem qualquer perda ou redundância de dados.
-
Mostrar Abstract
-
Relational Databases are the most used models in several applications due to the ease of their query language and use in multi-user environments. With the great volume of information that we have today and, since they are increasingly related, databases oriented to graphs appear as a way to deal with this new demand, given the difficulties of the relational model to this new scenario. In view of this, this research dealt with the processes of mapping, conversion and migration from the relational model to the graph-oriented one, dealing, above all, with the semantic overload of constructors between the two models. The aim of this study was to develop an application, called \ textit {ThrusterDB}, that performs this process of converting the relational model to the graph-oriented one automatically. The research contributes by integrating the phases of mapping, conversion and automatic migration from a relational database to a graph-oriented one. This dissertation presents results that show that the generated database, after the process, provides a better performance in the average time of consultations carried out, in addition to preserving the semantics of the source relational database, without any loss or redundancy of data.
|
|
7
|
-
KAYQUE WILLY REIS DE OLIVEIRA
-
PARTICIPANDO COM JOGOS: UMA ANÁLISE DA GAMIFICAÇÃO COMO INTERVENÇÃO EM PESQUISAS DE OPINIÃO
-
Orientador : MELISE MARIA VEIGA DE PAULA
-
MEMBROS DA BANCA :
-
VANINHA VIEIRA DOS SANTOS
-
ADLER DINIZ DE SOUZA
-
MELISE MARIA VEIGA DE PAULA
-
Data: 06/11/2020
-
-
Mostrar Resumo
-
As pesquisas de opinião com o passar dos anos se tornaram um meio prático e comum de se coletar dados com uso de software para as mais diversas finalidades. A participação em pesquisas de opinião pode ser considerada um fenômeno no qual os sistemas colaborativos podem ser aplicados, uma vez que, esses sistemas são projetados para permitirem que pessoas se comuniquem e trabalhem em conjunto em um espaço compartilhado. Nessa abordagem, a pesquisa de opinião pode ser considerada como um instrumento que operacionaliza a cooperação entre um requisitante da pesquisa e o respondente. No entanto, a participação em pesquisas de opinião, independente da modalidade, é muito influenciada pela falta de engajamento dos participantes. A gamificação, que é definida como o uso de elementos e características de jogos em contextos que não são de jogos, tem sido considerada uma abordagem para aumentar o engajamento e encorajar a participação em pesquisas de opinião. Dessa forma, o objetivo dessa dissertação foi investigar como a gamificação pode ser utilizada como fator motivacional para estimular o engajamento em pesquisas de opinião. A metodologia desse trabalho foi definida com base no paradigma epistemológico Design Science Research (DSR), que foi utilizado para a realização de duas investigações em que foram desenvolvidos dois artefatos: o Modelo de Engajamento Colaborativo (MEC) e o aplicativo Opina Aí. Os artefatos foram avaliados em dois experimentos nos quais foram comparadas duas versões do aplicativo, versão gamificada e não gamificada. Embora os resultados em relação ao impacto da gamificação no engajamento não tenham sido conclusivos, esse trabalho pode ampliar o conhecimento e fundamentar estudos futuros em contextos em que a participação pode ser exercida de forma colaborativa e possibilitar direcionamentos sobre o uso da gamificação em pesquisas de opinião.
-
Mostrar Abstract
-
Survey over the years have become a practical and common way of collecting data using software for the most diverse purposes. Participation in Survey can be considered a phenomenon in which collaborative systems can be applied, since these systems are designed to allow people to communicate and work together in a shared space. In this approach, the survey can be considered as an instrument that operationalizes the cooperation between a research requester and the respondent. However, participation in Survey, regardless of the modality, is greatly influenced by the lack of engagement of the participants. Gamification, which is defined as the use of game elements and characteristics in non-game contexts, has been considered an approach to increase engagement and encourage participation in Survey. Thus, the objective of this dissertation was to investigate how gamification can be used as a motivational factor to stimulate engagement in Survey. The methodology of this work was defined based on the epistemological paradigm Design Science Research (DSR), which was used to carry out two research and two artifacts were developed, the Collaborative Engagement Model and the Opina Aí application. The artifacts were evaluated in two experiments in which two versions of the application were compared, gamified and non-gamified versions. Although the results regarding the impact of gamification on engagement have not been conclusive, this work can expand knowledge and support future studies in contexts where participation can be exercised collaboratively and provide guidance on the use of gamification in Survey.
|
|
8
|
-
DIMITRIUS GUILHERME FERREIRA BORGES
-
Gerenciamento de um cruzamento semaforizado utilizando Reinforcement Learning e Options Framework
-
Orientador : EDMILSON MARMO MOREIRA
-
MEMBROS DA BANCA :
-
CELIA LEIKO OGAWA KAWABATA
-
EDMILSON MARMO MOREIRA
-
EDVARD MARTINS DE OLIVEIRA
-
JOAO PAULO REUS RODRIGUES LEITE
-
Data: 18/12/2020
-
-
Mostrar Resumo
-
O número de veículos nas ruas de todo o mundo tem crescido rapidamente ao longo da última década, impactando diretamente em como o tráfego urbano é gerenciado. O controle de cruzamentos sinalizados é um problema largamente conhecido e estudado e que, embora cada vez mais tecnologias sejam exploradas e aplicadas, ainda se encontram desafios e oportunidades ao tratar o problema, principalmente quando confronta-se a ineficiência dos já bem difundidos semáforos de tempos fixos, incapazes de lidar com eventos dinâmicos. O objetivo deste trabalho é aplicar Hierarchical Reiforcement Learning (HRL) ao controle de um cruzamento veicular semaforizado e, a partir dos resultados obtidos, compará-lo a um semáforo de tempos fixos dimensionado pelo Método de Webster. HRL é uma variação de Reinforcement Learning (RL), em que objetivos secundários, representados por sub-políticas, são propostos e organizados em um modelo hierárquico e gerenciados por uma política macro, responsável por selecioná-las quando se espera rendimento máximo das mesmas, sendo que tanto as sub-políticas quanto a principal são regidas pelo framework Q-learning. Herarchical Reinforcement Learning foi escolhido por aliar a capacidade de aprendizado e tomada de decisão feitos de acordo com observações do ambiente em tempo real, característicos do Reinforcement Learning, com um modelo similar ao Dividir para Conquistar, que desmembra o problema principal em sub-problemas. Isso traz ao modelo uma maior dinâmica e poder de adaptabilidade a um problema que exibe, por vezes, variações imprevisíveis, impossíveis de serem levadas em conta em abordagens determinísticas, como o Método de Webster. Os cenários de testes, formados por diversos tipos de fluxo de veículos, aplicados a um cruzamento de duas vias simples, foram construídos através da ferramenta de simulação SUMO. Os modelos HRL, suas sub-políticas isoladas e o Método de Webster são aplicados e avaliados a partir destes cenários onde, de acordo com os resultados obtidos, HRL se mostra superior tanto ao Método de Webster quanto às suas sub-políticas isoladas, mostrando-se uma alternativa simples e eficaz.
-
Mostrar Abstract
-
The number of vehicles on the streets across the world has quickly grown in the last decade, directly impacting how urban traffic is managed. The signalized junctions control is a vastly known and studied problem. Although an increasing number of technologies is explored and used to solve it, there still are challenges and opportunities to deal with it, especially when considering the inefficiency of the widely known fixed time traffic controllers, which are incapable of dealing with dynamic events. This study aims to apply Hierarchical Reinforcement Learning (HRL) on the control of a signalized vehicular junction and compare its performance with a fixed time traffic controller, configured using the Webster Method. HRL is a Reinforcement Learning (RL) variation, where secondary objectives, represented by sub-policies, are organized and proposed in a hierarchical model, managed by a macro-policy, responsible for selecting said sub-policies when those are capable of reaching its best results, where The Q-Learning Framework rules both sub and macro policies. Hierarchical Reinforcement Learning was chosen because it combines the ability to learn and make decisions while taking observations from the environment, in real-time, a typical ability from Reinforcement Learning, with a Divide to Conquer approach, where the problem is divided into sub-problems. These capabilities bring to a highly dynamic problem a more significant power of adaptability, which is impossible to be taken into account when using deterministic models like the Webster Method. The test scenarios, composed of several vehicle fluxes applied to a cross of two lanes, were built using the SUMO simulation tool. HRL, its sub-policies and the Webster Method are applied and assessed through these scenarios. According to the obtained results, HRL shows better results than the Webster Method and its isolated sub-policies, indicating a simple and efficient alternative.
|
|