|
Dissertações |
|
1
|
-
CLEIDIANA REIS DOS SANTOS
-
Desafio IoT: Jogo Sério para Imersão no Desenvolvimento de Software Embarcado no Contexto de Casas Inteligentes
-
Orientador : RODRIGO DUARTE SEABRA
-
MEMBROS DA BANCA :
-
BRUNO GUAZZELLI BATISTA
-
LUIS HENRIQUE NUNES
-
RODRIGO DUARTE SEABRA
-
Data: 13/02/2023
-
-
Mostrar Resumo
-
A evolução tecnológica proporcionada pela Internet das Coisas está em crescente desenvolvimento e a demanda por profissionais aumenta proporcionalmente. Paralelamente a essa realidade, a utilização de jogos como ferramenta de aprendizado é um método propício principalmente para o público mais jovem, por apresentar elementos de diversão e engajamento. Jogos sérios podem auxiliar os jogadores na aquisição de novas experiências e conhecimentos complexos, que são obtidos por meio da resolução de desafios. Nesse contexto, o jogo sério proposto neste trabalho, Desafio IoT, visa oferecer uma visão geral sobre alguns problemas e soluções no desenvolvimento de software embarcado para casas inteligentes. Além de um propósito sério, o jogo proposto busca despertar o interesse dos estudantes no assunto, disseminando a ideia e a motivação em atuar na área de desenvolvimento. A implementação do jogo foi realizada segundo o modelo de especificação Learning Mechanics – Game Mechanics (LM-GM). Visando investigar o impacto educacional proporcionado pela experiência de uso do jogo proposto, além de questionários de utilização e de conhecimento técnico, foi usado o questionário MEEGA+ para a avaliação do jogo. A partir dos resultados, pode-se concluir que o jogo foi capaz de introduzir os estudantes à área de Internet das Coisas e motivá-los a aprofundar seus conhecimentos sobre o tema. A avaliação do jogo pelos estudantes apresentou resultado geral positivo, bem como aprovação em sete das oito dimensões utilizadas na análise.
-
Mostrar Abstract
-
The technological evolution provided by the Internet of Things is in increasing development and the demand for professionals increases proportionally. Parallel to this reality, the use of games as a learning tool is a suitable practice especially for the younger audience, as they present elements of fun and engagement. Serious games can help players acquire new experiences and complex knowledge, which are obtained by solving the challenges. In this context, the serious game proposed in this research, Desafio IoT, aims to provide an overview of some problems and solutions in embedded software development for smart homes. In addition to a serious purpose, the game seeks to awaken students' interest in the subject, spreading the idea and motivating to work in the development area. The implementation of the game was carried out according to the Learning Mechanics – Game Mechanics (LM-GM) specification model. In order to investigate the educational impact provided by the experience of using the game, besides the questionnaires on usage and technical knowledge, the MEEGA+ questionnaire was used to evaluate the game. The results allow concluding that the game was able to introduce students to the Internet of Things area and motivate them to further their knowledge on the subject. The evaluation of the game by the students presented a positive overall result, as well as approval in seven of the eight dimensions used in the analysis.
|
|
2
|
-
JONAS HENRIQUE RIBEIRO PAULA
-
Comitê Colaborativo: o uso de um sistema colaborativo na elaboração de instrumentos legais participativos
-
Orientador : MELISE MARIA VEIGA DE PAULA
-
MEMBROS DA BANCA :
-
JONICE OLIVEIRA SAMPAIO
-
ADLER DINIZ DE SOUZA
-
MELISE MARIA VEIGA DE PAULA
-
Data: 24/02/2023
-
-
Mostrar Resumo
-
O Estatuto das Cidades (EC) regulamenta os artigos 182 e 183 da Constituição Federal, estabelecendo um conjunto de instrumentos legais participativos que combinados determinam como deve ser feita a política urbana em todo o país. Porém, a aplicação do EC representa um desafio para a administração municipal, um dos motivos é a exigência da participação popular na gestão da política urbana como forma de assegurar a equidade dos direitos dos cidadãos. Para promover essa participação, são criados comitês representativos, com membros que representam as parcelas da sociedade do município. Entretanto, os membros dos comitês envolvidos na elaboração dos instrumentos do EC, na maioria das vezes, possuem demandas divergentes sobre as escolhas públicas, agendas conflitantes e outras características que dificultam que o trabalho seja realizado de forma harmônica e eficiente. Por isso, é sempre necessário um esforço para estimular a colaboração de forma que todos os envolvidos possam apresentar seu ponto de vista e participar ativamente. Desta forma, este trabalho propõe a análise da intervenção de um sistema colaborativo, denominado Comitê Colaborativo, nas atividades realizadas por comitês durante a elaboração de instrumentos legais participativos do EC. O Comitê Colaborativo foi implantado em projetos reais realizados por um grupo de pesquisa e extensão da Universidade Federal de Itajubá que auxilia prefeituras na elaboração e revisão destes instrumentos, seguindo as diretrizes da metodologia pesquisa-ação. Na análise dos resultados, foi possível perceber que houve uma melhora na coordenação das atividades, um avanço na cooperação entre os envolvidos e melhores oportunidades de comunicação entre os membros com a intervenção do Comitê Colaborativo.
-
Mostrar Abstract
-
The Cities Statute (CS) regulates articles 182 and 183 of the Federal Constitution, establishing a set of participatory legal instruments that combined determine how urban policy should be conducted throughout the country. However, the application of the CS represents a challenge for the municipal administration, one of the reasons is the demand for popular participation in the management of urban policy to ensure the equity of citizens' rights. To promote this participation representative committees are created with members who represent the parts of society in the municipality. However, the members of the committees involved in the elaboration of the CS instruments, in most cases, have divergent demands on public choices, conflicting agendas and other characteristics that make it difficult for the work to be conducted in a harmonious and efficient way. Therefore, it is always necessary to try to encourage collaboration so that everyone involved can present their point of view and actively participate. In this way, this work proposes the analysis of the intervention of a collaborative system, called Collaborative Committee, in the activities conducted by committees during the elaboration of participatory legal instruments of the CS. The Collaborative Committee was implemented in real projects conducted by a research and extension group from the Federal University of Itajubá that helps municipalities in the elaboration and revision of these instruments, following the guidelines of the action research methodology. In the analysis of the results, it was possible to notice that there was an improvement in the coordination of activities, an advance in the cooperation between those involved and better opportunities for communication between the members with the intervention of the Collaborative Committee.
|
|
3
|
-
IGOR MOREIRA ALVES
-
Ideb, as unidades da federação e o perfil das escolas públicas: uma análise exploratória de dados não supervisionada.
-
Orientador : CARLOS HENRIQUE DA SILVEIRA
-
MEMBROS DA BANCA :
-
CARLOS HENRIQUE DA SILVEIRA
-
MELISE MARIA VEIGA DE PAULA
-
CRISTIANE NERI NOBRE
-
Data: 24/02/2023
-
-
Mostrar Resumo
-
Essa dissertação busca o uso da ciência dos dados, por meio de análise exploratória não supervisionada, comprovar o que a literatura já sabe e/ou apresentar novas descobertas sobre a influência da infraestrutura sobre a educação básica brasileira. A infraestrutura escolar não se resume apenas à questão arquitetônica das escolas, mas também ao ambiente educativo e administrativo, equipamentos, recursos educacionais, práticas, currículos e processo de ensino e aprendizagem. A coleta de dados foi realizada sobre os dados abertos do Censo Escolar 2019 (Educação Básica) e do Índice de Desenvolvimento da Educação Básica (Ideb), relativos aos anos 2005-2019. A escolha do ano de 2019 foi por se tratar do último ano que as escolas apresentaram resultados antes da influência da pandemia COVID-19. Após vários tratamentos nos dados e a escolha de atendimento apenas do segmento inicial do ensino fundamental, aplicou-se duas metodologias de análise: Correlograma e Análise Fatorial (FA). Para uma clareza nos resultados, criou-se novos atributos referentes aos entes federativos que permitiu identificar quais estados e perfis de escolas estão melhores relacionados ao crescimento e aos bons resultados do Ideb. Para essas correlações optou-se pela Sigma da Cópula Gaussiana que leva em consideração os dados categóricos e contínuos e, ainda, gerou uma matriz positiva definida. O Correlograma gerou uma matriz quadrada que apresentou os relacionamentos dos atributos em um dendrograma de heatmap. Dividido em 4 grandes grupos, cada um apresentou características específicas e relações com os entes federativos. O primeiro grupo apresentou forte relacionamento com as infraestruturas básicas; o segundo grupo, com o Ideb e as infraestruturas mais sofisticadas; o terceiro grupo, apresentou poucas relações entre os atributos; e último grupo forte correlações negativas e conteve maior precariedade nas infraestruturas. Após averiguação de compatibilidade da base de dados para aplicação do FA, foram estimados que 10 fatores seriam adequados a esse estudo. Quatro fatores apresentaram associação com os atributos do Ideb, o foco deste trabalho. Observou-se também três padrões nos atributos que elencaram bons resultados no Ideb com diferentes infraestruturas, políticas e/ou propostas educacionais: o primeiro grupo, norteado por SP, apresentou saneamentos básicos ofertados pelo serviço público, internet de qualidade com uso na aprendizagem e órgãos escolares; o segundo grupo, encabeçado por MG, indica associação a flexibilização no ensino tradicional, com ciclos escolares e salas não seriadas; o terceiro grupo ficou marcado pelas atividades complementares e atendimento especializado, representado pelo CE. Em contradição a esses parâmetros, escolas com a modalidade EJA, principalmente do nordeste, tendem a ter menores resultados no Ideb. Os outros 6 fatores agregaram muitas informações relevantes, inclusive relacionadas às correlações e anti correlações dos entes federativos e atributos específicos. Como visto, a ciência dos dados tem muito a agregar à área da educação. Espera-se com trabalhos futuros acrescentar ainda mais dados, como estudos longitudinais sobre o Ideb e agregar outros índices educacionais como o Ioeb e o nível socioeconômico da população.
-
Mostrar Abstract
-
This dissertation seeks to use data science, through unsupervised exploratory analysis, to prove what the literature already knows and/or present new discoveries about the influence of infrastructure on Brazilian basic education. School infrastructure is not limited to the architectural issue of schools, but also to the educational and administrative environment, equipment, educational resources, practices, curricula and the teaching and learning process. Data collection was carried out on open data from the 2019 School Census (Basic Education) and the Basic Education Development Index (Ideb), for the years 2005-2019. The choice of the year 2019 was because it was the last year that schools presented results before the influence of the COVID-19 pandemic. After several data treatments and the choice of attending only the initial segment of fundamental education, two analysis methodologies were applied: Correlogram and Factor Analysis (FA). For clarity in the results, new attributes were created referring to the federative entities that allowed identifying which states and school profiles are better related to the growth and good results of the Ideb. For these correlations, the Sigma of the Gaussian Copula was chosen, which takes into account the categorical and continuous data and also generated a definite positive matrix. The Correlogram generated a square matrix that presented the attribute relationships in a Heatmap Dendrogram. Divided into 4 large groups, each one had specific characteristics and relationships with federal entities. The first group had a strong relationship with basic infrastructure; the second group, with IDEB and the most sophisticated infrastructures; the third group showed few relationships between the attributes; and the last group had strong negative correlations and contained greater precariousness in infrastructure. After verifying the compatibility of the database for the application of the FA, it was estimated that 10 factors would be suitable for this study. Four factors were associated with the attributes of the Ideb, the focus of this work. Three patterns were also observed in the attributes that listed good results in the Ideb with different infrastructures, policies and/or educational proposals: the first group, guided by São Paulo state, presented basic sanitation offered by the public service, quality internet for use in learning and institutions schoolchildren; the second group, headed by Minas Gerais state, indicates an association with flexibility in traditional teaching, with school cycles and non-serial classrooms; the third group was marked by complementary activities and specialized care, represented by the Ceará state . In contradiction to these parameters, schools with the EJA modality, mainly in the northeast, tend to have lower results in the Ideb. The other 6 factors added a lot of relevant information, including those related to the correlations and anti-correlations of the federative entities and specific attributes. As seen, data science has a lot to add to the field of education. Future works are expected to add even more data, such as longitudinal studies on the Ideb and to add other educational indices such as the Ioeb and the socioeconomic level of the population.
|
|
4
|
-
DOMINGOS SAVIO FARIA PAES
-
Detecção preditiva de anomalias em redes de computadores com utilização de aprendizagem de máquina
-
Orientador : BRUNO GUAZZELLI BATISTA
-
MEMBROS DA BANCA :
-
BRUNO GUAZZELLI BATISTA
-
CARLOS HENRIQUE VALERIO DE MORAES
-
LOURENCO ALVES PEREIRA JUNIOR
-
RAFAEL DE MAGALHAES DIAS FRINHANI
-
Data: 27/02/2023
-
-
Mostrar Resumo
-
Com a dependência cada vez maior das tecnologias no dia a dia, fica evidente a preocu- pação em se manter as infraestruturas que dão suporte ao seu funcionamento, garantindo assim uma boa experiência ao usuário final. Assim, os ataques de negação de serviço, estão entre as principais causas de anomalias em redes de computadores, podendo causar uma degradação ou até mesmo a interrupção dos serviços. Nesse contexto, a aplicação de novas tecnologias, como a inteligência artificial ou o aprendizado de máquina, se tornam cada vez mais necessárias, para garantir mais agilidade na detecção dos problemas diminuindo seus impactos. Dessa forma, esse trabalho apresenta uma análise entre diferentes métodos de aprendizagem de máquina supervisionado classificador, aplicados aos dados coletados em equipamentos de rede, do tipo switch, de forma a detectar anomalias na infraestrutura de redes de uma instituição de ensino superior. Os métodos de aprendizado de máquina utilizados neste trabalho foram: Decision Tree, Random Forest, Extra Tree, Gradient Bo- osting, Extreme Gradient Boosting e Histogram Gradient Boosting. Os modelos gerados a partir desses métodos se mostraram promissores, sendo capaz de atingir resultados com 99.88% na métrica F1 Ponderada e 99,16% de Acurácia Balanceada. Outros pontos, como tempo de treinamento, tempo de predição e tamanho do arquivo de salvamento, também foram levados em consideração para a classificação do melhor método. Dada a impor- tância das ferramentas de detecção de falhas, este trabalho contribui para a definição das melhores abordagens e assim permite que sejam elaboradas novas e mais eficientes ferramentas para esta finalidade.
-
Mostrar Abstract
-
With the increasing dependence on technologies on a daily basis, it is evident the con- cern to maintain the infrastructures that support its operation, thus guaranteeing a good experience for the end user. Thus, denial of service attacks are among the main causes of anomalies in computer networks, which can cause degradation or even interruption of services. In this context, the application of new technologies, such as artificial intelligence or machine learning, becomes increasingly necessary to ensure more agility in detecting problems, reducing their impacts. Thus, this work presents an analysis between different methods of classifier supervised machine learning, applied to data collected fromnetwork equipment, of the switch type, in order to detect anomalies in the network infrastruc- ture of a higher education institution. The machine learning methods used in this work were: Decision Tree, Random Forest, Extra Tree, Gradient Boosting, Extreme Gradient Boosting and Histogram Gradient Boosting. The models generated from these methods showed promise, being able to achieve results with 99.88% in the Weighted F1 metric and 99.16% of Balanced Accuracy. Other points, such as training time, prediction time and save file size, were also taken into account for the classification of the best method. Given the importance of fault detection tools, this work contributes to the definition of the best approaches and thus allows the development of new and more efficient tools for this purpose.
|
|
5
|
-
Otávio Soares Silva
-
Caracterização de Amplificador de Transcondutância Diferencial de Diferenças Baseada em Inversores CMOS
-
Orientador : RODRIGO APARECIDO DA SILVA BRAGA
-
MEMBROS DA BANCA :
-
DALTON MARTINI COLOMBO
-
PAULO MARCOS PINTO
-
RODRIGO APARECIDO DA SILVA BRAGA
-
SANDRO CARVALHO IZIDORO
-
Data: 03/04/2023
-
-
Mostrar Resumo
-
Esta dissertação apresenta a arquitetura de amplificador de transcondutância diferencial de diferenças (FDDTA) baseada em inversores CMOS. Projetado em um processo CMOS de 130 nm, opera em inversão fraca quando alimentado com 0,25 V. Além disso, o FDDTA não requer circuito de calibração externa suplementar, como fontes de corrente ou tensão de polarização, uma vez que depende da técnica de layout distribuído que casa intrinsecamente aos inversores CMOS. Para fins analíticos, realizamos uma investigação detalhada que descreve todos os conceitos e todo o funcionamento da arquitetura do FDDTA.
-
Mostrar Abstract
-
This dissertation presents the Differential Transconductance Differences Amplifier (FDDTA) architecture based on CMOS inverters. Designed on a 130 nm CMOS process, it operates in weak inversion when supplied with 0.25 V. Furthermore, FDDTA does not require supplemental external calibration circuitry such as bias current or voltage sources as it relies on the distributed layout technique that intrinsically matches CMOS inverters. For analytical purposes, we performed a detailed investigation that describes all the concepts and the entire functioning of the FDDTA architecture.
|
|
6
|
-
NATALIA SÁNCHEZ SÁNCHEZ
-
Sistema de localização topológica utilizando visão computacional
-
Orientador : GIOVANI BERNARDES VITOR
-
MEMBROS DA BANCA :
-
RUBEN DARIO HERNANDEZ BELENO
-
GIOVANI BERNARDES VITOR
-
RAFAEL FRANCISCO DOS SANTOS
-
Data: 20/04/2023
-
-
Mostrar Resumo
-
O presente trabalho apresenta uma metodologia inovadora que utiliza técnicas de visão computacional para realizar a localização topológica de um veículo autônomo. A grande vantagem desta técnica é que ela dispensa o uso de GPS ou qualquer sensor de posição em tempo contínuo, o que pode aumentar significativamente a segurança em regiões onde os sensores de localização são limitados ou ausentes. A metodologia consiste na construção de um mapa topológico da região de interesse, onde os pontos de interesse são definidos. Para isso, várias imagens de cada coordenada são coletadas e passam por filtros e processamentos para formar um banco de imagens georreferenciadas. A partir daí, o sistema recebe como entrada um vídeo, onde as imagens são comparadas com as imagens do banco de imagens, utilizando o algoritmo SURF, para definir se há correspondência com as coordenadas de interesse. Se a correspondência for identificada, o algoritmo define a localização do veículo no mapa topológico. Os resultados dos experimentos realizados mostram uma taxa de acerto de 91,5\% na detecção dos pontos de interesse dentro do mapa topológico, indicando que esta metodologia pode complementar o sistema de navegação de um veículo autônomo de forma eficiente e precisa.
-
Mostrar Abstract
-
This paper presents an innovative methodology that uses computer vision techniques to perform the topological localization of an autonomous vehicle. The great advantage of this technique is that it eliminates the use of GPS or any continuous time position sensor, which can significantly increase safety in regions where location sensors are limited or absent. The methodology consists of building a topological map of the region of interest, where the points of interest are defined. To do this, several images of each coordinate are collected and go through filters and processing to form a georeferenced image bank. From there, the system receives as input a video, where the images are compared with the images in the image bank, using the SURF algorithm, to define if there is a correspondence with the coordinates of interest. If a match is identified, the algorithm defines the location of the vehicle on the topological map. The results of the experiments performed show a 91.5\% accuracy rate in detecting the points of interest within the topological map, indicating that this methodology can complement the navigation system of an autonomous vehicle efficiently and accurately.
|
|
7
|
-
LUCAS GOMES DE ALMEIDA
-
Classificação do Comportamento do Motorista em Redes de Comunicação Veicular para Veículos Comerciais
-
Orientador : BRUNO TARDIOLE KUEHNE
-
MEMBROS DA BANCA :
-
STEPHAN REIFF-MARGANIEC
-
BRUNO TARDIOLE KUEHNE
-
EDVARD MARTINS DE OLIVEIRA
-
OTÁVIO DE SOUZA MARTINS GOMES
-
Data: 26/05/2023
-
-
Mostrar Resumo
-
Os veículos estão se tornando mais inteligentes e conectados devido à demanda por transporte mais rápido, eficiente e seguro. Para essa transformação, foi necessário aumentar a quantidade de dados transferidos entre os módulos eletrônicos na rede veicular, pois isso é fundamental para o processo de tomada de decisão de um sistema inteligente. Centenas de mensagens trafegam o tempo todo em um veículo, criando oportunidades para análise e desenvolvimento de novas funções para auxiliar a tomada de decisão do motorista. Diante desse cenário, a dissertação apresenta os resultados de uma pesquisa para caracterizar os estilos de direção dos motoristas utilizando as informações disponíveis na rede de comunicação veicular.
Esta dissertação de mestrado concentra-se no processo de extração de informações de uma rede veicular, análise das características extraídas e classificação do motorista com base nos dados extraídos. O estudo tem como objetivo identificar comportamentos de direção agressivos usando dados do mundo real coletados de cinco caminhões diferentes durante um período de três meses. O método de pontuação do motorista utilizado neste estudo identifica dinamicamente comportamentos de direção agressivos durante janelas de tempo pré-definidas, calculando a aceleração instantânea derivada dos dados adquiridos. Além disso, a técnica de agrupamento K-Means foi explorada para agrupar diferentes comportamentos em conjuntos de dados.
O Capítulo 2 fornece uma visão geral abrangente do referencial teórico necessário para o desenvolvimento bem-sucedido desta dissertação. O Capítulo 3 detalha o processo de extração de dados de ambientes reais e não controlados, incluindo as etapas realizadas para extrair e refinar os dados. O Capítulo 4 concentra-se no estudo das características extraídas dos dados pré-processados, e o Capítulo 5 apresenta dois métodos para identificar ou agrupar os dados em conjuntos.
Os resultados obtidos neste estudo avançaram o estado da arte da classificação do comportamento do motorista e provaram ser satisfatórios. A dissertação aborda a lacuna na literatura ao utilizar dados de ambientes reais e não controlados, que exigiram pré-processamento antes da análise. Além disso, o estudo representa um dos primeiros realizados em veículos comerciais em um ambiente não controlado.
Em conclusão, esta dissertação oferece insights para o desenvolvimento de modelos de classificação do comportamento do motorista usando dados do mundo real. Pesquisas futuras podem basear-se nas técnicas apresentadas neste estudo e aprimorar ainda mais os modelos de classificação. A dissertação também aborda as ameaças à validade que foram mitigadas e fornece recomendações para pesquisas futuras.
-
Mostrar Abstract
-
Vehicles are becoming more intelligent and connected due to the demand for faster, efficient, and safer transportation. For this transformation, it was necessary to increase the amount of data transferred between electronic modules in the vehicular network since it is vital for an intelligent system’s decision-making process. Hundreds of messages travel all the time in a vehicle, creating opportunities for analysis and development of new functions to assist the driver’s decision. Given this scenario, the dissertation presents the results of research to characterize driving styles of drivers using available information in vehicular communication network. This master thesis focuses on the process of information extraction from a vehicular network, analysis of the extracted features, and driver classification based on the extracted data. The study aims to identify aggressive driving behavior using real-world data collected from five different trucks running for a period of three months. The driver scoring method used in this study dynamically identifies aggressive driving behavior during predefined time windows by calculating jerk derived from the acquired data. In addition, the K-Means clustering technique was explored to group different behaviors into data clusters. Chapter 2 provides a comprehensive overview of the theoretical framework necessary for the successful development of this thesis. Chapter 3 details the process of data extraction from real and uncontrolled environments, including the steps taken to extract and refine the data. Chapter 4 focuses on the study of features extracted from the preprocessed data, and Chapter 5 presents two methods for identifying or grouping the data into clusters. The results obtained from this study have advanced the state-of-the-art of driver behavior classification and have proven to be satisfactory. The thesis addresses the gap in the literature by using data from real and uncontrolled environments, which required preprocessing before analysis. Furthermore, the study represents one of the pioneering studies conducted on commercial vehicles in an uncontrolled environment. In conclusion, this thesis provides insights into the development of driver behavior classification models using real-world data. Future research can build upon the techniques presented in this study and further refine the classification models. The thesis also addresses the threats to validity that were mitigated and provides recommendations for future research.
|
|
8
|
-
DANIEL PAIVA FERNANDES
-
Utilização de Algoritmo de Consenso para Comunicação Segura entre drones em FANETs com Baixo Custo Computacional
-
Orientador : JEREMIAS BARBOSA MACHADO
-
MEMBROS DA BANCA :
-
SIDNEY NASCIMENTO GIVIGI JUNIOR
-
JEREMIAS BARBOSA MACHADO
-
RODRIGO MAXIMIANO ANTUNES DE ALMEIDA
-
SERGIO RONALDO BARROS DOS SANTOS
-
Data: 26/06/2023
-
-
Mostrar Resumo
-
O desenvolvimento de redes veiculares encontrou um cenário mais fértil com o avanço das comunicações ultra-confiáveis de baixa latência (URLLC), implantação de redes de quinta geração (5G) em todo o mundo, capacitação da computação de borda e a adoção da “Internet das Coisas” nas soluções em cidades inteligentes. Para garantir o sucesso dessas redes, é fundamental que o processo de comunicação seja confiável e seguro contra ações maliciosas e que a solução tenha baixa complexidade computacional e consumo de energia. Entre redes veiculares que podem obter proveito dessas novas tecnologias, estão as FANETs (Flying Ad-Hoc Networks), que podem desempenhar papel crítico em missões de salvamento e reconhecimento de áreas de risco. Esta redes necessitam de uma solução que garanta transparência, segurança e tolerância à falhas de forma descentralizada para funcionarem corretamente. Portanto, o presente trabalho propõe uma solução de prova de conceito para garantir comunicação tolerante a falhas em Redes Aéreas Ad-Hoc (FANETs) heterogêneas com baixo custo computacional emuladas, usando o algoritmo de consenso Proof of Elapsed Time (PoET).
-
Mostrar Abstract
-
The development of vehicular networks has found a more fertile scenario with the advancement of ultra-reliable low latency communications (URLLC), deployment of fifth generation (5G) networks worldwide, empowerment of edge computing and adopting “Internet of Things” solutions in smart cities. To guarantee the success of these networks, it is essential to ensure that the communication process is reliable, safe from malicious actions, and that the solution has low computational complexity and energy consumption. Among vehicular networks that can take advantage of these new technologies are FANETs (Flying Ad-Hoc Networks), which can play a critical role in rescue missions and reconnaissance of risk areas. These networks need a solution that guarantees transparency, security and fault tolerance in a decentralised way to function correctly. Therefore, the present work proposes a proof-of-concept solution to ensure crash-fault tolerant communication in emulated heterogeneous Flying Ad-Hoc Networks (FANETs) using the Proof of Elapsed Time (PoET) consensus algorithm.
|
|
9
|
-
Bianca da Rocha Bartolomei
-
Uma proposta para apoiar o planejamento urbano a partir do uso de dados gerados na elaboração de instrumentos de política pública
-
Orientador : MELISE MARIA VEIGA DE PAULA
-
MEMBROS DA BANCA :
-
JOSE MARIA NAZAR DAVID
-
ADLER DINIZ DE SOUZA
-
MELISE MARIA VEIGA DE PAULA
-
VANESSA CRISTINA OLIVEIRA DE SOUZA
-
Data: 30/06/2023
-
-
Mostrar Resumo
-
Uma das metas existentes na Agenda 2030 para o Desenvolvimento Sustentável é o aumento da urbanização inclusiva e sustentável. Alcançar esse objetivo já é considerado um desafio, visto que no Brasil muitas cidades já passaram e, ainda passam, por um processo de expansão e urbanização. Nesse contexto, emerge o conceito de planejamento urbano, entendido como uma das formas de sistematizar esse processo, uma vez que permite uma melhor alocação de recursos financeiros e humanos, além de definir ações e objetivos em prol da resolução de problemas que sejam coletivos. Para isso, são definidos os instrumentos de política urbana, intimamente relacionados ao planejamento urbano, uma vez que os instrumentos de política urbana são as ferramentas e mecanismos utilizados para implementar o planejamento e alcançar as metas estabelecidas para a cidade. O objetivo da pesquisa apresentada nesta dissertação de mestrado é investigar soluções que apoiem a tomada de decisão no contexto de planejamento urbano. Para isso, foram analisados dados coletados em projetos de elaboração e atualização de instrumentos de política urbana de forma que esses dados pudessem ser utilizados na elaboração de uma solução. A metodologia utilizada foi a Design Science Research Methodology (DSRM), o artefato proposto e desenvolvido foi um sistema de apoio à decisão na forma de um painel de visualização de informações sobre a composição espacial de um município no interior de Minas Gerais. Para isso, foram usados conceitos de análise de dados geográficos e de visualização de informações. O painel foi avaliado por um grupo de potenciais usuários e a hipótese de que o uso dos dados gerados pelos instrumentos de política urbana podem auxiliar o planejamento urbano municipal foi corroborada pelas respostas obtidas. Com o estudo, foi possível evidenciar a importância dos dados considerados, o potencial do artefato proposto, além de permitir identificar oportunidades para trabalhos futuros.
-
Mostrar Abstract
-
One of the existing goals in the 2030 Agenda for Sustainable Development is to increase inclusive and sustainable urbanization. Achieving this goal is already considered a challenge, since in Brazil many cities have already gone through, and still go through, a process of expansion and urbanization. In this context, the concept of urban planning emerges, understood as one of the ways to systematize this process, since it allows a better allocation of financial and human resources, in addition to defining actions and objectives in favor of solving collective problems. For this, urban policy instruments are defined, closely related to urban planning, since urban policy instruments are the tools and mechanisms used to implement planning and achieve the goals established for the city. The objective of the research presented in this master's thesis is to investigate solutions that support decision-making in the context of urban planning. For this, data collected in projects for the elaboration and updating of urban policy instruments were analyzed so that these data could be used in the elaboration of a solution. The methodology used was the Design Science Research Methodology (DSRM), the artifact proposed and developed was a decision support system in the form of a visualization panel of information about the spatial composition of a municipality in the interior of Minas Gerais . For this, concepts of geographic data analysis and information visualization were used. The panel was evaluated by a group of potential users and the hypothesis that the use of data generated by urban policy instruments can help municipal urban planning was corroborated by the responses obtained. With the study, it was possible to highlight the importance of the data considered, the potential of the proposed artifact, in addition to identifying opportunities for future work.
|
|
10
|
-
Iago Felicio Dornelas
-
Aplicação das ações básicas de esforço de Laban em uma ferramenta interativa 2D para suporte à composição coreográfica
-
Orientador : RODRIGO DUARTE SEABRA
-
MEMBROS DA BANCA :
-
LINA MARIA GARCES RODRIGUEZ
-
LUCIANA APARECIDA MARTINEZ ZAINA
-
RODRIGO DUARTE SEABRA
-
Data: 12/07/2023
-
-
Mostrar Resumo
-
A elaboração do planejamento de movimentação no espaço por coreógrafos é crucial na composição coreográfica, exigindo um esforço cognitivo complexo para transformar um produto abstrato em uma representação visual. Variados meios, desde símbolos e notações até ferramentas digitais, têm sido usados para registrar e simular movimentos. No entanto, devido à natureza específica da dança e à sua falta de disponibilidade como formação técnica no Brasil, os métodos consolidados ao longo do tempo, como os conceitos desenvolvidos pelo coreógrafo Rudolf Laban, são pouco difundidos e inacessíveis para coreógrafos profissionais e amadores. Nesse contexto, foi desenvolvida a ferramenta Move Note, que permitiu aos participantes desta pesquisa explorarem trajetórias de dançarinos por meio de animações abstratas. A ferramenta possibilitou a aplicação de efeitos nos deslocamentos dos dançarinos, proporcionando uma abordagem inovadora para representar as ações básicas de esforço de Laban em um ambiente bidimensional. O desenvolvimento da ferramenta baseou-se em uma revisão bibliográfica extensa, análise do estado da arte e levantamento junto a potenciais usuários. Com o intuito de investigar se a aplicação dos conceitos de Laban em uma ferramenta interativa poderia oferecer suporte à composição coreográfica, foram conduzidas avaliações das experiências dos usuários, adaptadas dos modelos TAM (Technology Acceptance Model) e TTF (Task-Technology Fit). Os resultados indicaram que a ferramenta desenvolvida foi capaz de fornecer suporte adequado, uma vez que os índices de satisfação obtidos nas análises, juntamente com os comentários positivos dos participantes, evidenciaram a contribuição proporcionada pela ferramenta. Este trabalho apresenta contribuições tanto em termos de discussão acerca da interpretação dos dados coletados quanto de reflexão sobre a relevância prática do tema. Adicionalmente, introduz à comunidade acadêmica um modelo de representação das ações básicas de esforço de Laban em um ambiente bidimensional, ampliando, assim, as possibilidades de pesquisa e aplicação desses conceitos nos campos da dança e da tecnologia.
-
Mostrar Abstract
-
The planning of movement in space by choreographers is crucial in choreographic composition, requiring a complex cognitive effort to transform an abstract product into a visual representation. Different means, from symbols and notations to digital tools, have been used to record and simulate movements. However, due to the specific nature of dance and its lack of availability as a technical training in Brazil, the methods consolidated over time, such as the concepts developed by choreographer Rudolf Laban, are not widespread or accessible to professional and amateur choreographers. We thus developed the Move Note tool, which allowed the participants in this research to explore dancers' trajectories through abstract animations. The tool made it possible to apply effects to the dancers' displacements, providing an innovative approach to represent Laban's basic effort actions in a two-dimensional environment. The development of the tool was based on an extensive bibliographic review, analysis of the state of the art and a survey on potential users. In order to investigate whether the application of Laban's concepts in an interactive tool could support choreographic composition, evaluations of users' experiences were carried out, adapted from the TAM (Technology Acceptance Model) and TTF (Task-Technology Fit) models. The results indicated that the tool developed was able to provide adequate support, since the satisfaction rates obtained in the analyses, together with the positive comments from the participants, evidenced the contribution provided by the tool. This work presents contributions both in terms of discussion about the interpretation of the data collected and reflection on the practical relevance of the research theme. Additionally, it introduces to the academic community a model of representation of Laban's basic effort actions in a two-dimensional environment, thus expanding the possibilities of research and application of these concepts to the fields of dance and technology.
|
|
11
|
-
MOISÉS PINHEIRO SOUZA
-
ProtCool 2.0: um modelo cliente/servidor para um gerador de protocolos de ancoragens e simulações de dinâmica molecular em complexos proteína-ligante.
-
Orientador : CARLOS HENRIQUE DA SILVEIRA
-
MEMBROS DA BANCA :
-
KARINA DOS SANTOS MACHADO
-
CARLOS HENRIQUE DA SILVEIRA
-
RODRIGO APARECIDO DA SILVA BRAGA
-
Data: 18/07/2023
-
-
Mostrar Resumo
-
A pandemia de COVID-19 evidenciou a alta demanda por sistemas computacionais que acelerem a indicação de novos fármacos. Nesse sentido, compreender o comportamento dinâmico de complexos biomoleculares é algo fundamental. As técnicas que envolvem simulações de dinâmica molecular desses complexos vêm sendo crescentemente utilizadas como forma de agilizar a indicação de melhores candidatos à fármacos. No entanto, a preparação de tais simulações é de grande complexidade, e seus inúmeros detalhes nem sempre são suficientemente destacados, comprometendo sua reprodutibilidade e reusabilidade. Para tanto, foi proposta a ferramenta ProtCool – um gerador de protocolos, focado na integração entre ancoragem e dinâmica molecular de complexos proteína-ligantes. Em sua primeira versão, essa ferramenta era de uso restrito ao ambiente local do usuário. Este trabalho apresenta a versão 2.0 do ProtCool, desenvolvida sob um modelo cliente-servidor com interface WEB. O objetivo é preencher as lacunas deixadas pela versão anterior, aprimorando o software em três aspectos fundamentais: torná-lo multiplataforma, possibilitar o acesso a múltiplos usuários e tornar a ferramenta mais intuitiva. O desenvolvimento de uma interface amigável permite que essa nova versão expanda o domínio de uso também para pesquisadores inexperientes ou novatos em química computacional. O ProtCool 2.0 não executa as dinâmicas após preparação nem opera análises dos resultados, ele é construído para ser um expert na preparação baseado em workflows, percorrendo o workflow que lhe foi programado, gerando todos os arquivos de configuração necessários para uma execução confiável da dinâmica molecular no aparato computacional do usuário. Como todo o processo fica devidamente registrado, isso permite maior reprodutibilidade e reusabilidade das preparações. Boa parte de suas funcionalidades estão fundamentadas na adaptação das ferramentas mais conhecidas pela literatura no campo de simulações de dinâmica molecular. O ProtCool 2.0 foi desenvolvido utilizando as melhores práticas e processos de engenharia de software. Sua arquitetura cliente-servidor implementada sob o padrão web permite que ele seja multiplataforma e multiusuário, característica que traz ganhos em disponibilidade e desempenho. Ele possui uma interface gráfica minimalista que oferece recursos interativos que concedem segurança ao usuário para o correto preenchimento de seus parâmetros de estudo, evitando erros. Para demostrar seu uso, o ProtCool 2.0 foi submetido a um estudo de caso na simulação da interação entre acetilcolinesterase e galantamina, usada no tratamento do Alzheimer, o que possibilitou uma validação por replicação de uma simulação certificada por pares em publicação internacional. Foi possível demonstrar ao final que a preparação da simulação de fato permitiu a execução de dinâmicas moleculares confiáveis, reproduzindo os resultados esperados. Espera-se que esta ferramenta possa não somente trazer maior agilidade, reprodutibilidade e reusabilidade às preparações de dinâmica molecular, como contribuir para suavizar a curva de aprendizagem dessas simulações em química computacional.
-
Mostrar Abstract
-
The COVID-19 pandemic has made it clear the high demand for computational systems that expedite the discovery of new drugs. In this regard, understanding the dynamic behavior of biomolecular complexes is crucial. Techniques involving molecular dynamics simulations of these complexes have increasingly been used to accelerate the identification of better drug candidates. However, the preparation of such simulations is highly complex, and their numerous details are not always adequately emphasized, compromising their reproducibility and reusability. To address this, the ProtCool tool was proposed—a protocol generator focused on integrating docking and molecular dynamics of protein-ligand complexes. In its initial version, this tool was restricted to the user's local environment. This work presents version 2.0 of ProtCool, developed under a clientserver model with a web interface. The aim is to fill the gaps left by the previous version, enhancing the software in three fundamental aspects: making it multi-platform, enabling access to multiple users, and making the tool more intuitive. The development of a userfriendly interface allows this new version to expand its scope of use to inexperienced or novice researchers in computational chemistry. ProtCool 2.0 does not execute the dynamics or perform result analyses; it is designed to be an expert in preparation based on workflows, following the programmed workflow and generating all the necessary configuration files for reliable execution of molecular dynamics on the user's computational setup. With the entire process being properly recorded, this allows for greater reproducibility and reusability of the preparations. Many of its functionalities are based on the adaptation of well-known tools from the literature in the field of molecular dynamics simulations. ProtCool 2.0 was developed using best practices and software engineering processes. Its client-server architecture implemented under the web standard enables it to be cross-platform and multi-user, providing benefits in availability and performance. It features a minimalist graphical interface with interactive resources that ensure user safety in correctly filling out their study parameters, thus preventing errors. To demonstrate its use, ProtCool 2.0 underwent a case study on the simulation of the interaction between acetylcholinesterase and galantamine, used in the treatment of Alzheimer's disease, which allowed for validation through replication of a simulation certified by peers in an international publication. The preparation of the simulation successfully enabled the execution of reliable molecular dynamics, reproducing the expected results. It is expected that this tool will not only bring greater speed, reproducibility, and reusability to molecular dynamics preparations but also contribute to smoothing the learning curve for these simulations in computational chemistry.
|
|
12
|
-
THIAGO MOREIRA DE FREITAS
-
Algoritmos Genéticos Aplicados ao Problema de Roteamento de Veículos com Múltiplos Depósitos
-
Orientador : RAFAEL FRANCISCO DOS SANTOS
-
MEMBROS DA BANCA :
-
FERNANDO BERNARDES DE OLIVEIRA
-
RAFAEL FRANCISCO DOS SANTOS
-
SANDRO CARVALHO IZIDORO
-
Data: 30/08/2023
-
-
Mostrar Resumo
-
O Problema de Roteamento de Veículos ou Vehicle Routing Problem (VRP) tem amplas aplicações em logística e transporte com grande importância econômica. VRP é uma generalização de um grande número de problemas de roteamento, que consistem em encontrar o número ideal de rotas, que saem de um único depósito, para atender um conjunto de clientes, minimizando os custos de roteamento e atendendo um conjunto de restrições. O problema de roteamento de veículos de múltiplos depósitos ou Multi Depot Vehicle Routing Problem (MDVRP) é uma extensão do VRP, em que há mais de um depósito distribuídos em uma determinada área geográfica. O restante do problema é idêntico ao VRP. Existem vários métodos para a resolução do MDVRP como técnicas exatas, algoritmos aproximativos e heurísticos. Os Algoritmos Genéticos ou Genetic Algorithms (GAs) são meta-heurísticas amplamente utilizadas para encontrar soluções para o problema MDVRP devido às características estocásticas dos GAs e a eficiência na resolução de problemas combinatórios e, por esse motivo foi selecionado para ser aplicado nesse trabalho. O algoritmo desenvolvido foi testado utilizando instâncias presentes na literatura e comparado com metodologias existentes, no qual o algoritmo genético encontrou bons resultados e o trabalho trouxe a contribuição na técnica de seleção de clientes que podem realizar trocas entre depósitos. Os resultados alcançados mostram que esse algoritmo pode ser avaliado em empreendimentos reais, possibilitando melhorar a operação de empreendimentos que enfrentam esse tipo de problema, reduzindo custos com transporte, distância, tempo de entrega, serviços, entre outros benefícios.
-
Mostrar Abstract
-
The Vehicle Routing Problem (VRP) has wide applications in logistics and transportation with great economic importance. VRP is a generalization of a large number of routing problems, which consist of finding the optimal number of routes, leaving a single depot, to serve a set of customers, minimizing routing costs and meeting a set of constraints. The Multi Depot Vehicle Routing Problem (MDVRP) is an extension of VRP, in which there is more than one depot distributed in a given geographic area. The rest of the problem is identical to VRP. There are several methods for solving MDVRP such as exact techniques, approximate algorithms and heuristics. Genetic Algorithms (GAs) are meta-heuristics widely used to find solutions to the MDVRP problem due to the stochastic characteristics of GAs and the efficiency in solving combinatorial problems and, for this reason, they were selected to be applied in this work. The developed algorithm was tested using instances present in the literature and compared with existing methodologies, in which the genetic algorithm found good results and the work contributed to the technique of selecting customers who can exchange between deposits. The results achieved show that this algorithm can be evaluated in real projects, making it possible to improve the operation of projects that face this type of problem, reducing transportation costs, distance, delivery time, services, among other benefits.
|
|
13
|
-
FERNANDO HIDEKI TAKENAKA
-
Sumarizador de Avaliações Usando TextRank e Modelagem de Tópicos
-
Orientador : LAERCIO AUGUSTO BALDOCHI JUNIOR
-
MEMBROS DA BANCA :
-
ISABELA NEVES DRUMMOND
-
LAERCIO AUGUSTO BALDOCHI JUNIOR
-
RAFAEL DUARTE COELHO DOS SANTOS
-
Data: 31/08/2023
-
-
Mostrar Resumo
-
Na última década a Internet mudou o modo como as pessoas trabalham, fazem compras e se socializam. Essas mudanças resultaram em um aumento no Conteúdo Gerado pelos Usuários (CGU) como, por exemplo: avaliações, notas, artigos e vídeos. Os CGUs possuem informações relevantes para a tomada de decisão, especialmente no que se refere à aquisição de bens e serviços. Entretanto, o grande volume e dispersão deste conteúdo torna difícil a obtenção de informações relevantes. Neste contexto, a sumarização de textos é apresentada como um modo de tornar este conteúdo mais acessível às pessoas. Um dado sumário A pode ser considerado melhor que um outro sumário B se o primeiro for mais curto que o segundo com o mesmo conteúdo, ou quando mesmo sendo mais longo, possui mais informações relevantes. Analisando a literatura disponível, foi constatado que é possível produzir sumários de melhor qualidade do que aqueles que correspondem ao estado da arte em sumarização de textos. Neste trabalho, apresentamos um sumarizador automático multilingual que combina e expande os algoritmos Latent Dirichlet Allocation (LDA) e TextRank. Em comparação com o estado da arte, este trabalho gerou sumários melhores em termos de tamanho e conteúdo.
-
Mostrar Abstract
-
Over the past decade, the Internet has changed the way people work, shop and socialize. Those changes resulted in the increase of User Generated Content (UGC) such as: ratings, reviews, wikis, and videos. UCG contains relevant information for decision-making, especially with regard to the acquisition of goods and services. However, the large volume and dispersion of this content makes it difficult to obtain relevant information. Text summarization appears as a way to make this content more accessible to people. A summary A can be considered better than another B when A is shorter than B while maintaining the same content relevance, or when A, despite being longer, presents more relevant content. Analyzing the literature, we observed that it is possible to produce better quality summaries than those produced by algorithms that correspond to the state of the art in text summarization. We present a multilingual automatic text summarizer that combines and extends the algorithms Latent Dirichlet Allocation (LDA) and TextRank. Our approach, when compared to the state of the art, generates better text summaries in terms of size and content relevance.
|
|
14
|
-
THIAGO SALES FREIRE LUZ
-
Análise e comparação de algoritmos ensemble de classificação na descoberta de exoplanetas
-
Orientador : ENIO ROBERTO RIBEIRO
-
MEMBROS DA BANCA :
-
ENIO ROBERTO RIBEIRO
-
ROBERTO SILVA NETTO
-
RODRIGO APARECIDO DA SILVA BRAGA
-
SANDRO CARVALHO IZIDORO
-
Data: 28/09/2023
-
-
Mostrar Resumo
-
Exoplanetas são planetas encontrados fora do sistema solar. A descoberta dos exoplanetas ocorre devido ao trabalho científico envolvendo o uso de telescópios, entre eles, o Kepler. Os dados coletados por este telescópio são chamados de Kepler Object of Interest. Para a tarefa de identificação de padrões nestes dados são utilizados algoritmos de Aprendizado de Máquina. Estes algoritmos são treinados para classificar estes dados em exoplanetas ou em falso-exoplaneta, isto é, falso-positivo. Dentre os algoritmos de classificação têm-se os denominados algoritmos Ensemble. Estes algoritmos combinam o desempenho de predição de dois ou mais algoritmos visando aperfeiçoar o desempenho preditivo final. Na literatura são utilizados algoritmos tradicionais em pesquisas relacionadas a detecção de exoplanetas. Constata-se, dessa forma, a carência de trabalhos que utilizam algoritmos Ensemble com este propósito. Esta dissertação realiza uma comparação de desempenho entre algoritmos Ensemble no processo de identificação de exoplanetas. Cada algoritmo é implementado com um conjunto de diferentes valores de parâmetros e executado várias vezes por um processo de validação cruzada. Uma matriz de confusão é gerada em cada execução, a qual é usada para análise das seguintes métricas de desempenho do algoritmo: exatidão, sensibilidade, especificidade, precisão e nota F1. Os algoritmos Ensemble atingiram um desempenho maior que 80% de acerto na maioria das métricas. Com a alteração dos valores dos parâmetros das funções observa-se um melhor resultado na predição. O algoritmo com o melhor desempenho foi o Stacking. Em síntese, verifica que os algoritmos Ensemble possuem um grande potencial para melhorar o resultado da predição de exoplanetas. O algoritmo Stacking se mostrou superior aos demais algoritmos e este aspecto é discutido no artigo. Os resultados desta dissertação indicam ser relevante aumentar o uso destes algoritmos, por possuírem um alto desempenho preditivo, favorecendo a detecção de exoplanetas.
-
Mostrar Abstract
-
Exoplanets are planets discovered outside our solar system. Their discovery happens because of scientific work with telescopes such as the Kepler. The data collected by Kepler is known as Kepler Object of Interest. Machine Learning algorithms are trained to classify these data into exoplanets or non-exoplanets. An Ensemble Algorithm is a type of Machine Learning technique that combines the prediction performance of two or more algorithms to gain an improved final prediction. The current works on exoplanet identification use mostly traditional non-Ensemble algorithms. Therefore, research that uses Ensemble algorithms for exoplanet identification is scarce. This paper performs a comparison among some Ensemble algorithms on the exoplanet identification process. Each algorithm is implemented with a set of different values for its parameters and executed multiple times. All executions are performed with the cross-validation method. A confusion matrix is created for each algorithm implementation. The results of each confusion matrix provided data to evaluate the following algorithm’s performance metrics: accuracy, sensitivity, specificity, precision, and F1 score. The Ensemble algorithms achieved an average performance of more than 80% in all metrics. Changing the default values of the Ensemble algorithms parameters improved their predictive performance. The algorithm with the best performance is Stacking. In summary, the Ensemble algorithms have great potential to improve exoplanet prediction. The Stacking algorithm achieved a higher performance than the other algorithms. This aspect is discussed in the text. The results of this work show that it is reasonable to increase the use of Ensemble algorithms. The reason is their high prediction performance to improve exoplanet identification.
|
|
15
|
-
RENATO FIGUEIREDO FRADE
-
Caracterização temporal e espacial de roubos de rua contrastando contextos pré-pandêmico e pandêmico
-
Orientador : CARLOS HENRIQUE DA SILVEIRA
-
MEMBROS DA BANCA :
-
ADRIANO VELASQUE WERHLI
-
ALEXANDRE CARLOS BRANDAO RAMOS
-
CARLOS HENRIQUE DA SILVEIRA
-
Data: 09/12/2023
-
-
Mostrar Resumo
-
Esta pesquisa multidisciplinar realizada em Minas Gerais investigou a dinâmica tempo- ral e espacial dos roubos de rua, analisando os períodos anterior e durante a pandemia. Através da utilização de dados da Polícia Militar, foram examinadas séries temporais em várias escalas, incluindo por hora, por dia, por intervalos de 10 dias e por mês, empregando métodos estatísticos avançados, como análise de frequência espectral, autocorrelações e técnicas de decomposição.
-
Mostrar Abstract
-
A multidisciplinary study conducted in Minas Gerais investigated the temporal dynamics of street robberies, analyzing both pre-pandemic and pandemic periods. Utilizing data from the Military Police, time series data were examined at various scales, including hourly, daily, 10-day intervals, and monthly, employing advanced statistical methods such as spectral frequency analysis, autocorrelations, and decomposition techniques.
|
|
16
|
-
BRENO DE OLIVEIRA RENÓ
-
Conf-eHealth - Uma Arquitetura para o Desenvolvimento de Aplicações eHealth com Confiabilidade
-
Orientador : EDVARD MARTINS DE OLIVEIRA
-
MEMBROS DA BANCA :
-
HENRIQUE YOSHIKAZU SHISHIDO
-
BRUNO TARDIOLE KUEHNE
-
EDVARD MARTINS DE OLIVEIRA
-
Data: 13/12/2023
-
-
Mostrar Resumo
-
Este trabalho apresenta a arquitetura Conf-eHealth, que tem como objetivo ser um modelo de referência para o desenvolvimento de aplicações eHealth com confiabilidade. A arquitetura se faz relevante em função das necessidades de confiabilidade das tecnologias relacionadas ao monitoramento de pacientes. Inicialmente foi realizada uma revisão sistemática da literatura sobre o estado da arte das aplicações eHealth e os principais desafios enfrentados no desenvolvimento destas. Após a revisão da literatura, a proposta da arquitetura de referência é descrita. A concepção das necessidades, atributos de qualidade e a metodologia utilizada para a construção da arquitetura são descritas e posteriormente a arquitetura é apresentada através do conceito de visões arquiteturais.
Com o objetivo de garantir os atributos de qualidade desejados, o trabalho apresenta a avaliação da arquitetura proposta em duas partes. Primeiro uma avaliação arquitetural foi feita com base no Software Architecture Analysis Method, resultando em uma compreensão conceitual da capacidade da arquitetura em abranger os atributos de qualidade. Depois, um experimento foi realizado, envolvendo a construção de uma aplicação móvel de acordo com o componente mapeado na arquitetura proposta, explicitando a possibilidade da implementação deste componente utilizando uma base de dados real. Os resultados mostram que o aplicativo é capaz de lidar com os dados recebidos e auxiliar a tomada de decisão com acurácia. Por fim, são apresentadas as conclusões do trabalho, destacando os resultados alcançados, a importância da arquitetura Conf-eHealth para o avanço da área e indicando trabalhos futuros.
-
Mostrar Abstract
-
This work presents the Conf-eHealth architecture, which aims to be a reference model for developing eHealth applications with trustworthiness. The architecture is relevant due to the needs of technologies related to patient monitoring. Initially, a systematic literature review was carried out on the state of the art of eHealth applications and the main challenges faced in their development. After the literature review, the proposed reference architecture is described. The conception of needs, quality attributes and the methodology used to build the architecture are described and subsequently the architecture is presented through the concept of architectural visions.
In order to guarantee the desired quality attributes, the work presents the evaluation of the proposed architecture in two parts. First an architectural evaluation was carried out based on the Software Architecture Analysis Method, resulting in a conceptual understanding of the architecture's ability to encompass quality attributes. Afterwards, an experiment was carried out, involving the construction of a mobile application according to the component mapped in the proposed architecture, explaining the possibility of implementing this component using a real database. The results show that the application is capable of handling the data received and assisting in decision making accurately. Finally, the conclusions of the work are presented, highlighting the results achieved, the importance of the Conf-eHealth architecture for the advancement of the area and indicating future work.
|
|
17
|
-
ANDRE LUIZ ALVES DIAS
-
Detecção de Insatisfação de Servidores Públicos com Inteligência Artificial
-
Orientador : CARLOS HENRIQUE VALERIO DE MORAES
-
MEMBROS DA BANCA :
-
AHMED ALI ABDALLA ESMIN
-
CARLOS HENRIQUE VALERIO DE MORAES
-
JOAO PAULO REUS RODRIGUES LEITE
-
Data: 15/12/2023
-
-
Mostrar Resumo
-
Este trabalho destaca uma pesquisa abrangente sobre a aplicação da Inteligência Artificial (I.A.) na gestão de recursos humanos, com um foco específico na identificação da insatisfação dos funcionários por meio de abordagens de aprendizado de máquina. A investigação incluiu uma revisão de artigos científicos que discutiam tanto a implementação da I.A. no contexto de recursos humanos quanto o uso de técnicas de aprendizado de máquina para detectar casos de turnover/attrition, além da relação de insatisfação e os casos de turnover/attrition. Para avaliar essas abordagens, foram selecionadas quatro bases de dados públicas validadas. Três delas continham dados fictícios de funcionários e uma continha dados reais de turnover de funcionários. Cada base de dados passou por um processo de fatorização de campos textuais, seguido por análises para destacar as distribuições dos dados em cada conjunto. Na condução da pesquisa, diferentes abordagens de aprendizado de máquina foram aplicadas a cada uma das bases, com o objetivo de verificar a viabilidade de identificar a insatisfação por meio da I.A. As técnicas utilizadas incluíram detecção de anomalias ou novidades, classificadores e conjuntos de classificadores otimizados. Os resultados foram quantificados, revelando pontuações promissoras, com desempenhos superiores a 90%. Esses resultados destacam a eficácia geral do aprendizado de máquina na identificação da insatisfação dos funcionários, demonstrando seu potencial para aplicações práticas no ambiente de recursos humanos.
-
Mostrar Abstract
-
This work highlights a comprehensive investigation into the application of Artificial Intelligence (A.I.) in human resources management, with a specific focus on identifying employee dissatisfaction through machine learning approaches. The research included a review of scientific articles discussing both the implementation of A.I. in the context of human resources and the use of machine learning techniques to detect cases of turnover/attrition, along with the relationship between dissatisfaction and turnover/attrition cases. To assess these approaches, four validated public databases were selected. Three of them contained fictional employee data, and one contained real employee turnover data. Each database underwent a process of textual field factorization, followed by analyses to highlight the data distributions in each set. In conducting the research, different machine learning approaches were applied to each of the databases, aiming to verify the feasibility of identifying dissatisfaction through A.I. The techniques used included anomaly or novelty detection, classifiers, and optimized sets of classifiers. The results were quantified, revealing promising scores, with performances exceeding 90%. These results emphasize the overall effectiveness of machine learning in identifying employee dissatisfaction, demonstrating its potential for practical applications in the human resources environment.
|
|
18
|
-
CHARLY BRAGA VENTURA
-
Identificação de bicho-mineiro e ferrugem no cafeeiro utilizando processamento digital de imagens e redes neurais convolucionais
-
Orientador : SANDRO CARVALHO IZIDORO
-
MEMBROS DA BANCA :
-
RODRIGO APARECIDO DA SILVA BRAGA
-
SANDRO CARVALHO IZIDORO
-
VALDETE MARIA GONÇALVES DE ALMEIDA
-
Data: 15/12/2023
-
-
Mostrar Resumo
-
A demanda do mundo por café aumenta a cada ano, atingindo, no período de 2022- 2023, 178,5 milhões de sacas de 60 kg, um aumento de 1,7% em relação ao período anterior de 2021-2022. A produção total da safra de café do Brasil no ano de 2022 foi calculada em 50,92 milhões de sacas de 60 kg de café beneficiado1, tornando assim o maior produtor mundial do produto. Com esse volume de produção, há uma necessidade crescente de melhoria da qualidade do produto devido às exigências dos mercados nacional e internacional. Porém, pragas como o bicho-mineiro e a ferrugem causam grandes danos em plantações de café, resultando em perdas da cultura anualmente. Vários métodos e técnicas vêm sendo desenvolvidas e aplicadas para avaliação do nível de infestação e controle destas pragas. Entre essas técnicas estão o uso de visão computacional e rede neural convolucional (CNN). Assim, o objetivo deste trabalho foi o desenvolvimento de ferramentas computacionais para identificar corretamente a presença de pragas, reduzindo o tempo de avaliação, o erro do avaliador e os gastos com mão de obra. As acurácias desses métodos desenvolvidos ficaram entre 99,67% e 97,00%. Além disso, foi desenvolvida uma ferramenta para quantificar o grau de infestação, alcançando uma acurácia de 86,67%.
-
Mostrar Abstract
-
The world’s demand for coffee increases every year, reaching 178.5 million 60 kg bags in the period 2022-2023, an increase of 1.7% compared to the previous period 2021-2022. The total production of Brazil’s coffee harvest in 2022 was calculated at 50.92 million bags of 60 kg of processed coffee 2, thus making it the world’s largest producer of the product. With this production volume, there is a growing need to improve product quality due to the demands of national and international markets. However, pests such as leaf miner and rust cause extensive damage to coffee plantations, resulting in crop losses annually. Various methods and techniques have been developed and applied to assess the level of infestation and control of these pests. Among these techniques are the use of computer vision and convolutional neural networks (CNNs). Thus, the objective of this work was to develop computational tools to correctly identify the presence of pests, reducing evaluation time, evaluator error, and labor costs. The accuracies of these methods developed were between 99.67% and 97.00%. In addition, a tool was developed to quantify the degree of infestation, achieving an accuracy of 86.67%.
|
|
19
|
-
RAFFAEL CLEISSON DE CARVALHO
-
Uma análise da aplicação do Nudge em consultas públicas
-
Orientador : MELISE MARIA VEIGA DE PAULA
-
MEMBROS DA BANCA :
-
PABLO VIEIRA FLORENTINO
-
ADLER DINIZ DE SOUZA
-
MELISE MARIA VEIGA DE PAULA
-
Data: 18/12/2023
-
-
Mostrar Resumo
-
A consulta pública é um dispositivo de democracia direta que tem como objetivo permitir que a população participe da tomada de decisão em diversas áreas de políticas públicas. No Brasil, a Lei de Responsabilidade Fiscal estabelece que uma consulta pública deve preceder a elaboração do orçamento público, que tem como objetivo regrar as atividades financeiras de receita e despesa do estado por um ano. Esse exemplo de consulta pública é denominado Orçamento Participativo. Contudo, o engajamento da população ainda é um problema por diversas razões. Desta forma, é importante investigar estratégias que aumentem a participação dos cidadãos. Em alguns cenários, a teoria de Nudges pode ser usada. Nudges são modificações pequenas e de pouco investimento feitas no ambiente de uma pessoa para modificar seu comportamento. A aplicação do Nudge nessa pesquisa tem como objetivo estimular o cidadão a participar em um contexto de consulta pública. Para permitir análise, fez parte do escopo dessa pesquisa propor e desenvolver uma ferramenta. A aplicação foi analisada em um cenário real que permitiu concluir que os resultados com a aplicação do Nudge foi adequado.
-
Mostrar Abstract
-
Public consultation is a direct democracy device that aims to allow the population to participate in decision-making in various areas of public policy. In Brazil, the Fiscal Responsibility Law establishes that a public consultation must precede the preparation of the public budget, which aims to regulate the state's financial revenue and expenditure activities for one year. This example of public consultation is called Participatory Budgeting. However, population engagement is still a problem for several reasons. Therefore, it is important to investigate strategies that increase citizen participation. In some scenarios, Nudges theory can be used. Nudges are small, low-investment modifications made to a person's environment to change their behavior. The application of Nudge in this research aims to encourage citizens to participate in a public consultation context. To enable analysis, it was part of the scope of this research to propose and develop a tool. The application was analyzed in a real scenario which allowed us to conclude that the results with the application of Nudge were adequate.
|
|