PRPPG32003013003M2 PRPPG - PÓS GRADUAÇÃO EM ENGENHARIA DE PRODUÇÃO PRÓ-REITORIA DE PESQUISA E PÓS-GRADUAÇÃO Telefone/Ramal: Não informado
Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UNIFEI

2019
Dissertações
1
  • HEBERT WESLEY PEREIRA ZARONI
  • PROPOSTA DE UM MODELO DE BUSINESS INTELLIGENCE PARA O APOIO À DECISÃO ATRAVÉS DA PERSPECTIVA DA DATA SCIENCE

  • Orientador : ALEXANDRE FERREIRA DE PINHO
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • ANDRÉ PIMENTA FREIRE
  • FABIO FAVARETTO
  • Data: 08/05/2019

  • Mostrar Resumo
  • A tomada de decisões pelos gestores é um assunto recorrente nas organizações e empresas nos dias atuais, sendo estas privadas ou de gestão pública. Esta última mantém um sistema burocrático, com difícil acesso a informações rápidas e precisas. Com a quantidade massiva de dados disponível dentro das organizações, e também provindos de fontes externas, estas têm buscado novas tecnologias e métodos em meio aos Sistemas de Informação para obtenção de informações com mais qualidade. Os sistemas de Business Intelligence (BI) são um dos meios que contribuem para reunião, análise e propagação de dados, resultando em diversos produtos e relatórios administrativos que facilitam a tomada de decisões; e a Data Science (DS), ou ciência dos dados, a qual é um campo emergente em meio aos Sistemas de Informação, carrega as características de transformação e análise de dados de forma que ajude a organização, também, no processo decisório. Ambos os conceitos possuem seus métodos, processos, modelos e ciclos de vida para chegarem em um objetivo em comum. Entretanto, na literatura, há uma carência de modelos que agreguem os dois conceitos de forma concomitante, ou aplicando conceitos de um campo no outro. A partir desse ponto de defasagem, o objetivo dessa pesquisa é propor um modelo que aplique os conceitos de BI e DS, colocando os conceitos de cada um em conjunto, conceitualizando-os e identificando os pontos em que são convergentes e divergentes para se ter um modelo eficiente. A metodologia utilizada é a de Modelagem, para desenvolver o modelo proposto, o qual passa por sua Conceitualização, Modelagem, e Solução e Implementação, onde os conceitos e passos dos processos de BI e DS são explorados e colocados conjuntamente, com seus ciclos e fases. Por fim, o modelo desenvolvido foi aplicado em uma ferramenta computacional que possa incorporá-lo, como forma de testá-lo e validá-lo, gerando produtos computacionais para serem utilizados. O resultado foi aplicado na Universidade Federal de Itajubá, mais especificamente no setor de contabilidade e finanças, auxiliando os gestores na tomada de decisões e também por fins de transparência, expondo os relatórios provindos do modelo. Os resultados que surgem do modelo desenvolvido são dashboards e produtos de visualização de dados que são disponibilizados no sítio eletrônico da Universidade, ao mesmo tempo que providenciam aos servidores e à gerência uma fonte de informações rápida e eficiente, validando o modelo criado. Pode-se assim concluir que os conceitos são aplicáveis, inclusive na gestão pública, para gerarem modelos auxiliares a tomada de decisão, e que também, podem ser desenvolvidos em outros setores e organizações.


  • Mostrar Abstract
  • Management decision-making is a recurring issue in organizations and companies, whether private or publicly managed. The latter type of organization one remains a bureaucratic system with difficult access to quick and accurate information. With the massive amount of data available within organizations, and also from external sources, they have searched new technologies and methods from the Information Systems field to obtain higher quality information. Business Intelligence (BI) systems are one of the means that contribute to gather, analyze and propagate data, resulting in various products and management reports that ease decision making process; and Data Science (DS), which is an emerging field within Information Systems, carries the characteristics of data transformation and analysis in a way that helps the organization in the decision-making process as well. Both concepts have their methods, processes, models, and life cycles that reach a common goal. However, in the literature, there is a lack of models that aggregate the two concepts concomitantly, or apply concepts from one field to another. From this gap point, the objective of this research is to propose a model that applies the concepts of BI and DS, placing the concepts of each one together, conceptualizing them and identifying the points where they are convergent and divergent to have an efficient model. The methodology used is the Modelling one, to develop the proposed model, which encompasses its Conceptualization, Modeling, and Solution and Implementation, where the concepts and steps of the BI and DS processes are explored and placed together, with their own cycles and phases being put togheter. Finally, the developed model will be applied in a computational software that can incorporate it, as a way to test and validate it, generating computational products to be used. The result will be applied at the Federal University of Itajubá, more specifically in the accounting and finance sector, assisting managers in decision making and also for transparency purposes, exposing the reports coming from the model. The results that emerge from the developed model are dashboards and data visualization products that are available on the University's website. It can be concluded that concepts are applicable, including in public management, to generate decision support models, and that they can be developed in other sectors and organizations.

2
  • DIEGO JEAN DE MELO
  • Otimização Robusta do Processo de Aplainamento da Madeira Pinus taeda

  • Orientador : ANDERSON PAULO DE PAIVA
  • MEMBROS DA BANCA :
  • ANDERSON PAULO DE PAIVA
  • JOSE HENRIQUE DE FREITAS GOMES
  • JOSE REINALDO MOREIRA DA SILVA
  • Data: 17/05/2019

  • Mostrar Resumo
  • aplainamento é um processo de usinagem muito utilizado para retirada de material e obtenção de boa qualidade de superfícies de madeiras. Esse processo está fortemente presente em indústrias do setor moveleiro, em que se utiliza o aplainamento para adequar as medidas do produto pela retirada de material e melhorar a qualidade visual, aumentando assim o valor agregado do produto final. Para avaliar esse processo de usinagem, é importante utilizar-se de métodos de planejamento de experimentos, modelagem robusta e otimização multi-objetivo para assim obter os melhores resultados possíveis em diferentes respostas. O presente trabalho apresenta a otimização robusta multi-objetivo do aplainamento da madeira Pinus taeda. Os experimentos foram conduzidos baseado em no planejamento composto central combinando variáveis de controle de velocidade de corte, velocidade de avanço e profundidade de penetração e a variável de ruído definida como o percentual da umidade presente na madeira. Foram aplicados a metodologia de superfície de resposta, juntamente com o projeto de parâmetro robusto, análise de componentes principais, a otimização do erro quadrático médio e o método da restrição normal normalizado. Foram discutidos os efeitos de cada variável de controle e de ruído e suas interações. As respostas analisadas foram de corrente elétrica, tensão, torque, potência mecânica, energia consumida, energia específica de corte e espessura média dos cavacos não deformados. A otimização multi-objetivo foi realizada pela ponderação entre os componentes principais identificados. Foram obtidos modelos de média e variância para cada resposta e para o componente principal ponderado. Foram elaboradas fronteiras de Pareto para todas as respostas. Ensaios de confirmação foram realizados com o objetivo de verificar a robustez das respostas. Foi concluído que o ponto ótimo global para o aplainamento que minimiza o efeito da umidade da madeira é obtido utilizando os parâmetros de 11,25 m×s-1 para velocidade de corte, 3,65 m×min-1 para velocidade de avanço e 0,95 mm para profundidade de penetração.


  • Mostrar Abstract
  • The planing is a machining process widely used for material removal and obtaining good quality of wood surfaces. This process is strongly present in industries in the furniture industry, where the planing is used to adjust product measurements by removing material and improving visual quality, thus increasing the value added of the final product. To evaluate this machining process, it is important to use experimental designs methods, robust modeling and multi-objective optimization to obtain the best possible results in different responses. The present work presents the robust multi-objective optimization of the planing of Pinus taeda wood. The experiments were conducted based on the central composite design combining variables of control of cutting speed, feed rate and depth of penetration and the noise variable defined as the percentage of moisture present in the wood. Response surface methodology was applied along with the robust parameter design, principal component analysis, the mean squared error optimization, and the normalized normal constraint. The effects of each control and noise variable and their interactions were discussed. The analyzed responses were of electric current, voltage, torque, mechanical power, energy consumed, specific cutting energy and mean thickness of the undeformed chips. The multi-objective optimization was performed by weighting the identified principal components. Mean and variance models were obtained for each response and for the weighted principal component. Pareto frontiers were constructed for all responses. Confirmation tests were performed with the purpose of verifying the robustness of the responses. It was concluded that the optimum global point for planing that minimizes the effect of wood moisture is obtained using the parameters of 11.25 m×s-1 for cutting speed, 3.65 m×min-1 for feed rate and 0.95 mm for depth of penetration.

3
  • VINÍCIUS DE CASTRO SEGHETO
  • ANÁLISE DA APLICAÇÃO DO DESIGN CENTRADO NO USUÁRIO PARA MELHORIAS DE USABILIDADE DE UMA INCUBADORA NEONATAL

  • Orientador : CARLOS HENRIQUE PEREIRA MELLO
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO SANCHES DA SILVA
  • CARLOS HENRIQUE PEREIRA MELLO
  • RENATA APARECIDA RIBEIRO CUSTODIO
  • STEFÂNIA LIMA OLIVEIRA METZKER
  • Data: 17/05/2019

  • Mostrar Resumo
  • Visando a competitividade do mercado atual as empresas buscam cada dia mais a satisfação de seus consumidores. Para isso, tornam-se necessárias técnicas que possam ser utilizadas no desenvolvimento de seus produtos focando, principalmente, nas necessidades de seus clientes. Dentre elas destaca-se o Design Centrado no Usuário (DCU), uma filosofia que se baseia nas necessidades e nos interesses dos usuários para garantir o sucesso do produto. No contexto do desenvolvimento de equipamentos médicos é ainda mais importante o envolvimento dos usuários para garantir o desenvolvimento de produtos eficazes e livres de erros. Porém, a abordagem do DCU não é muito utilizada na prática, sendo necessário o desenvolvimento de estudos práticos de sua aplicação que seja a base para novos estudos. Dessa forma, esta pesquisa teve como objetivo a aplicação da abordagem do DCU para melhoria da usabilidade de um equipamento eletromédico, mais especificamente, uma incubadora neonatal. O estudo pode ser caracterizado como uma pesquisa-ação, sendo possível identificar grande semelhança entre suas etapas e do DCU. Para condução da pesquisa foram feitos testes de usabilidade, aplicados os questionários QUIS e SUS, realizadas entrevistas semiestruturadas e observação direta. Com o envolvimento dos usuários, foi possível identificar pontos de melhoria para a incubadora e após a implementação das mudanças, foi possível obter a melhoria da usabilidade do novo conceito.


  • Mostrar Abstract
  • Aiming at the competitiveness of the current market, companies seek more and more the satisfaction of their consumers. For this, it becomes necessary techniques that can be used in the development of its products, focusing mainly on the needs of its customers. Among them is the User-Centered Design (UCD), a philosophy that is based on the needs and interests of the users to guarantee the success of the product. In the context of medical device development, it is even more important to engage users to ensure effective and error-free product development. However, the DCU approach is not widely used in practice, and it is necessary to develop practical studies of its application that are the basis for new studies. Thus, this research had as objective the application of the DCU approach to improve the usability of an electro medical equipment, more specifically, a neonatal incubator. The study can be characterized as an action research, being possible to identify great similarity between its stages and the DCU. To conduct the research were made usability tests, applied the QUIS and SUS questionnaires, conducted unstructured interviews and direct observation. Involving the users, it was possible to identify improvement points for the incubator and after the implementation of the changes, it was possible to obtain the usability improvement of the new concept.

4
  • YASMIN SILVA MARTINS
  • Sistemática para abordagem de riscos em Sistemas de Gestão da Qualidade baseados na norma ISO 9001:2015

  • Orientador : CARLOS EDUARDO SANCHES DA SILVA
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO SANCHES DA SILVA
  • CARLOS HENRIQUE PEREIRA MELLO
  • PAULO ALEXANDRE DA COSTA ARAUJO SAMPAIO
  • Data: 26/06/2019

  • Mostrar Resumo
  • Com a atualização da norma ISO 9001 para sua versão de 2015, um dos requisitos incorporados é a mentalidade de riscos (risk-based thinking). Tendo em vista que a norma não determina como esse requisito pode ser implementado pelas organizações e, dado o número de empresas certificadas e em processo de certificação, o conceito da mentalidade de riscos se torna um aspecto relevante, discutido por muitos autores. Por meio de uma revisão sistemática de literatura (RSL) foi possível identificar métodos e metodologias utilizados para abordar a mentalidade de riscos, levando à uma lacuna acerca de sua implementação. Assim, em busca de auxiliar tais organizações no processo de adequação/incorporação de seus Sistemas de Gestão da Qualidade, contribuindo também com os pesquisadores da área, esta pesquisa tem como principal objetivo, propor uma sistemática para abordagem de riscos, no contexto da norma ISO 9001:2015. Fundamentada pelos aspectos literários identificados na RSL, a sistemática reúne tais elementos num ciclo PDCA, associando os requisitos da NBR ISO 9001:2015 com as necessidades reais das organizações, permitindo que elas compreendam melhor a mentalidade de riscos requerida pela norma, ao mesmo tempo em que implementam as ações necessárias para tal abordagem. De forma a validar a sistemática proposta, foi selecionada uma empresa de pequeno porte, do ramo de sistemas eletrônicos, a qual se tornou objeto de estudo desta pesquisa. O método utilizado foi a pesquisa-ação, conduzida por meio de 05 ciclos sequenciais, compostos por atividades de planejar, agir, analisar e refletir. Dentre os principais resultados estão a implementação e adequação da sistemática, ao contexto do objeto de estudo e, a proposição de um guia prático para as organizações. Além disso, foram identificados como aspectos fundamentais para a incorporação da mentalidade de riscos: comprometimento da Alta Direção, envolvimento de todos os funcionários e, consequentemente, mudança na cultura organizacional.


  • Mostrar Abstract
  • With the update of the standard ISO 9001 in 2015, one of the established requirements is the risk-based thinking. Considering that the standard does not specify how this requirement can be implemented by organisations and due to the large number of companies already certified and in process of certification, the risk-based thinking becomes a significant subject, discussed by many authors. Through the conduction of a systematic literature review (SLR), it was possible to identify methods and methodologies used to approach the risk-based thinking, leading to a gap related to its implementation. In order to assist the organisations in the process of adequacy/implementation of their Quality Management Systems, contributing also to researchers in the area, the main objective of this research is to propose an integrated systematic for risks approach, in the context of ISO 9001: 2015. Based on the literary aspects identified in the SLR, the systematic combines these elements into a PDCA cycle, linking requirements of ISO 9001:2015 with the real needs of organisations, to assist them in the comprehension of the risk-based thinking, required by the standard, while implementing the necessary actions for its approach. To validate the proposed systematic, the author selected a small and medium-sized (SME) company from the electronic systems field, as the study object of this research. The method used was action research, conducted through 05 sequential cycles with activities of planning, acting, analysing and reflecting. Among this research main results are the implementation and adequacy of the systematic, to the study object context, and the proposal of a practical guide for organisations. In addition, fundamental aspects for the incorporation of the risk-based thinking were identified: Top Management commitment, involvement of all employees and, consequently, a change in the organisational culture.

5
  • TIAGO DELA SAVIA
  • Avaliação da Complexidade da Modelagem Híbrida em Processos de Manufatura Flow Shop

  • Orientador : ALEXANDRE FERREIRA DE PINHO
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • DAVID CUSTÓDIO DE SENA
  • FABIANO LEAL
  • Data: 28/06/2019

  • Mostrar Resumo
  • A simulação computacional é considerada uma das mais poderosas ferramentas de auxílio à tomada de decisões, podendo ser utilizada para analisar a operação de sistemas complexos, testando hipóteses e prevendo seu comportamento futuro. Uma das características da simulação é a capacidade de reduzir a complexidade dos sistemas reais através da sua representação nos modelos computacionais. Contudo, com o aumento da complexidade dos processos de manufatura em si, os modelos computacionais têm se tornado cada vez mais complexos, o que pode impactar na acessibilidade e funcionalidade destes. No contexto da simulação aplicada em gestão de operações existe uma discussão a respeito da utilização da simulação baseada em agentes (SBA), que começou a ganhar destaque a partir dos anos 2000, em contraponto (às vezes complementando uma a outra) com a simulação a eventos discretos (SED), que há mais de 40 anos vem sendo a prática mais comum de simulação dentro da pesquisa operacional. Este trabalho consiste em um estudo de caso com o objetivo de se comparar o impacto da simulação híbrida (que utiliza elementos da SBA em conjunto com a SED) na complexidade dos modelos de simulação, em processos de manufatura do tipo flow shop, desenvolvidos através do software Anylogic®. Um framework foi elaborado para possibilitar a mensuração da complexidade dos modelos, utilizado para comparar pares de modelos que consistem, cada par, em um modelo construído a partir da simulação a eventos discretos pura e outro através da simulação híbrida. Por esta análise foi possível perceber que os modelos construídos através da simulação híbrida apresentaram maior complexidade em três dos quatro casos analisados, sendo que a diferença de complexidade entre modelos variou em proporção segundo cada caso.


  • Mostrar Abstract
  • Computer simulation is considered one of the most powerful tools for decision making, as it can be used to analyze the operation of complex systems by testing hyphoteses and predicting its future behavior. One of simulation’s characteristics is its ability to reduce the complexity of real systems by representing them in the form of computer models. However, with the rise of manufacture processes themselves, computer models have become more and more complex with time, which can cause an impact on their accessibility and functionality. In the context of operations management there is a discussion regarding the applicability of agent based simulation (ABS), which started to gain popularity in the early 2000s, in contrast (and sometimes complementing each other) to discrete-event simulation (DES), which has been the most common practice in operations research for more than 40 years. This paper consists in a case study comparing the impact of hybrid simulation, called HS for short, (utilizing elements of “agents” in a discrete event model) on the complexity of simulation models, which represents flow shop manufacturing processes, developed in the simulation package Anylogic®. A framework was developed to measure the complexity of pairs of models, which consists, each pair, in a DES and a HS based model respectively, representing the same process by the two different approaches. The analysis showed that most models developed in hybrid simulation presented a bigger complexity, with the exception of one. The difference in complexity varied pair by pair, according to each case.

6
  • PAULA CARNEIRO MARTINS
  • Aplicação da simulação a eventos discretos em conjunto com a pesquisa-ação para um projeto de melhoria em uma empresa de base tecnológica

  • Orientador : JOSE ARNALDO BARRA MONTEVECHI
  • MEMBROS DA BANCA :
  • FABIANO LEAL
  • JOAO JOSE DE ASSIS RANGEL
  • JOSE ARNALDO BARRA MONTEVECHI
  • JOSE HAMILTON CHAVES GORGULHO JUNIOR
  • Data: 04/07/2019

  • Mostrar Resumo
  • O gerenciamento dos dados de entrada é considerado um fator de alta influência no sucesso de um projeto de simulação, uma vez que problemas com os dados de entrada são frequentemente as razões pelas quais um modelo não é validado. Entretanto, as fases de coleta e modelagem de dados de entrada demandam muito tempo para serem executadas. Nesse contexto, o objetivo acadêmico deste trabalho é analisar a influência de diferentes estratégias de modelagem de dados de entrada na validação operacional de um modelo de simulação a eventos discretos. Como objetivo prático a pesquisa vai desenvolver um modelo computacional que será utilizado como ferramenta de tomada de decisão para o planejamento semanal da empresa objeto de estudo. Também se destaca o objetivo específico de analisar a aplicabilidade das técnicas de modelagem de processos BPMN e IDEF-SIM, utilizadas em conjunto, em um projeto de simulação. Nesta pesquisa serão utilizados os métodos pesquisa-ação e modelagem e simulação de forma conjunta. O objeto de estudo é o setor de reparos de uma empresa de base tecnológica. Foram realizados 3 ciclos de pesquisa-ação, sendo que cada um dos ciclos tinha como objetivo a finalização de uma das etapas do projeto de simulação: concepção, implementação e análise. Nesta pesquisa concluiu-se que não existem diferenças significativas entre os modelos que foram simulados com os tempos das atividades nas diferentes formas de modelagem dos dados de entrada, uma vez que ambos os modelos foram validados com a situação real. Na etapa de concepção a utilização do BPMN foi mais vantajosa, uma vez que a técnica permite a visualização das relações entre setores. Já na etapa de implementação, a utilização do IDEF-SIM facilitou a tradução da situação modelada para o software de simulação. E na etapa de análise a utilização combinada das duas técnicas tornou mais assertiva a proposição de cenários. A utilização da pesquisa-ação combinada com a modelagem e simulação favoreceu o desempenho do projeto.


  • Mostrar Abstract
  • Incoming data management is considered a highly influential factor in the success of a simulation project since problems with input data are often the reasons why a model is not validated. However, the data collection and modeling phases require much time to execute. In this context, the academic objective of this work is to analyze the influence of different strategies of input data modeling on the operational validation of a simulation model to discrete events. As a practical objective, the research will develop a computational model that will be used as a decision-making tool for the weekly planning of the company object of study. It also highlights the specific objective of analyzing the applicability of BPMN and IDEF-SIM process modeling techniques, used together, in a simulation project. In this research will be used the research-action and modeling and simulation methods together. The object of study is the repair sector of a technology-based company. Three cycles of action research were carried out, with each one of them aimed at completing one of the phases of the simulation project: conception, implementation, and analysis. In this study, it was concluded that there are no significant differences between the models that were simulated with the times of the activities in the different forms of input data modeling since both models were validated with the real situation. In the conception phase, the use of BPMN was more advantageous since the technique allows the visualization of the relations between sectors. Already in the implementation phase, the use of IDEF-SIM facilitated the translation of the modeled situation to the simulation software. And in the analysis phase, the combined use of the two techniques made the proposition of scenarios more assertive. The use of action research combined with modeling and simulation favored project performance.

7
  • ANA CLARA BARBIERI BORTOT
  • Estudo da valorização de áreas urbanas no entorno de Instituições de Ensino Superior: Um modelo multicritério de apoio à decisão

  • Orientador : JOSIANE PALMA LIMA
  • MEMBROS DA BANCA :
  • DEIVIDI DA SILVA PEREIRA
  • EDSON DE OLIVEIRA PAMPLONA
  • JOSIANE PALMA LIMA
  • Data: 08/07/2019

  • Mostrar Resumo
  • Polos Geradores de Viagens (PGVs) são empreendimentos que apresentam impactos de curto e longo prazo. A grande maioria dos estudos encontrados na literatura está ligada aos impactos de curto prazo, que envolve estimar as taxas de geração de viagens a fim de contribuir para a análise de demanda por transportes. Os impactos de longo prazo, entretanto, possuem um espectro mais amplo vinculados as questões sociais, históricas, culturais e ambientais, como também trazem questões relacionadas à Economia Urbana. Ao analisar PGVs pela ótica da Economia Urbana, é possível perceber uma relação mais antiga que o próprio conceito de PGV, que é a relação entre uso do solo e transportes que aborda, ainda, o conceito de valor do solo urbano. Esse valor é maior ou menor de acordo com a acessibilidade aos centros urbanos. Porém, atualmente, as cidades apresentam polos de valorização, isto é, localidades atrativas além de seu centro original, que podem, por vezes, estar vinculadas com a presença de PGVs (shopping centers e hipermercados, instituições de ensino, etc.). O estudo do processo de valorização do solo urbano é um problema complexo que, além da questão espacial e de impactos derivados de PGVs, pode envolver um conjunto de variáveis de infraestrutura urbana, ambiente construído e mobilidade. Com isto, o presente trabalho tem por objetivo principal estudar o potencial de valorização de áreas no entorno de Instituições de Ensino Superior (IES), utilizando-se de análise multicritério espacial. Entre os objetivos específicos estão: (i) estudar fatores relacionados ao valor do solo urbano; (ii) estruturar o modelo de avaliação e determinar o grau de importância com auxílio do Processo Hierárquico Analítico (AHP); e (iii) realizar um estudo de caso aplicando o modelo em áreas próximas de Instituições de Ensino Superior localizadas em Itajubá-MG. Foram identificadas vinte (20) variáveis as quais foram analisadas espacialmente e depois agrupadas de acordo com o modelo. Através do método utilizado foi possível apresentar os resultados de forma bastante organizada. Quando se comparam os dois grandes grupos de critérios, Aspectos Físicos e Aspectos Socioeconômicos do ambiente construído, pode-se concluir que a análise espacial valida o modelo, onde os Aspectos físicos relacionados com Infraestrutura básica, Localização e Acessibilidade foram mais importantes para o potencial de valorização do entorno das IES. Os resultados do trabalho apontam subsídios para a elaboração de políticas públicas de planejamento urbano e transportes, uma vez que mostram os principais fatores que podem impactar na valorização do solo, bem como identificam áreas com potencial de valorização no entorno de PGVs.


  • Mostrar Abstract
  • Large traffic generators (LTGs) are institutions that have short- and long- term impacts. The great majority of the studies found in the literature are related to the short-term impacts, which involves estimating the trip generation rates in order to contribute to the analysis of transport demand. Long-term impacts, however, have a broader spectrum linked to social, historical, cultural and environmental issues, as well as issues related to urban economics. When analyzing LTGs from the perspective of the Urban Economy, it is possible to perceive a relation older than the concept of LTG itself, which is the relationship between land use and transport, which also addresses the concept of urban land value. This value is higher or lower according to accessibility to urban centers. However, today, cities have attractive poles, that is, attractive localities beyond their original center, which can sometimes be linked to the presence of LTGs (shopping centers and hypermarkets, educational institutions, etc.). The study of the urban land evaluation process is a complex problem that, in addition to the spatial issue and impacts derived from LTGs, may involve a set of variables of urban infrastructure, built environment and mobility. With this, the main objective of this work is to study the potential of valuation of areas around Tertiary Education Institutions (TEIs), using spatial multicriteria analysis. Among the specific objectives are: (i) study factors related to the value of urban land; (ii) structure the evaluation model and determine the degree of importance with the help of the Analytic Hierarchical Process (AHP); and (iii) to carry out a case study applying the model in areas close to Tertiary Education Institutions located in Itajubá-MG. Twenty (20) variables were identified which were spatially analyzed and then grouped according to the model. Through the method used it was possible to present the results in a very organized way. When comparing the two large groups of criteria, Physical Aspects and Socioeconomic Aspects of the built environment, it can be concluded that the spatial analysis validates the model, where the Physical Aspects related to Basic infrastructure, Location and Accessibility were more important for the potential of enhancement of the TEI environment. The results of the study point to subsidies for the elaboration of public policies for urban planning and transportation, since they show the main factors that can impact on the valorization of land, as well as identify areas with potential of valorization in the surroundings of LTGs.

8
  • LUCAS CHILELLI DA SILVA
  • METODOLOGIA DE COVARIÂNCIA GINI APLICADA A ESTIMAÇÃO DE PARÂMETROS EM MODELOS AUTO REGRESSIVOS COM CAUDAIS LONGOS

  • Orientador : RAFAEL CORADI LEME
  • MEMBROS DA BANCA :
  • ANTONIO FERNANDO BRANCO COSTA
  • FERNANDO LUIZ CYRINO OLIVEIRA
  • RAFAEL CORADI LEME
  • Data: 19/07/2019

  • Mostrar Resumo
  • A metodologia Gini foi apresentada há mais de um século pelo estatístico
    italiano Corrado Gini, durante quase um século, ela foi aplicada para medir a desigualdade
    na distribuição de renda. Há cerca de 3 décadas, trabalhos dissertando
    sobre sua utilização em outras áreas e sobre sua capacidade na estimação de parâmetros
    e na modelagem de séries que apresentam distribuições as quais fogem da
    normalidade começaram a ser publicados. Com base nestes trabalhos novos métodos
    começaram a ser apresentados e vêm ganhando maturidade ao longo do tempo. A
    intenção deste trabalho foi desenvolver um modelo capaz de aplicar os métodos presentes
    na literatura pertinente para estimar os parâmetros de modelos para séries
    Auto Regressivas cujas distribuições adjacentes fogem da normalidade apresentam
    características de caudas longas, com grande presença de valores extremos. Para
    avaliar o desempenho destes modelos embasados nos métodos de Gini, foram também
    estimados modelos Auto Regressivos pela métodologia clássica, fundamentados
    pelos Mínimos Quadrados e critérios de seleção de melhor modelo pelo metodo de
    Critério de Seleção de Akaike. Os resultados mostraram que o emprego da metodologia
    Gini na modelagem de tais séries apresenta grandes vantagens e superioridade
    na previsão da série, permitindo estimar modelos por meio das correlações de Gini
    e que fornecem melhores previsões tanto em modelos de ordem igual a um ou dois,
    quanto em modelos com ordem superior à dois.


  • Mostrar Abstract
  • The Gini Methodology was present more than one century ago by the Italian
    Statistician Corrado Gini, for almost 80 years it was used to measure income distribution
    and inequality. Around 3 decades ago, some researchers published works
    about the use of the Gini in other areas of study and its capacity on parameters
    estimation and modelling series with distributions departing from normality. Based
    on these works, new methods started to arise e have become more mature over time.
    The aim of this work is to develop a model capable of applying the methods found
    on the literature to estimate the parameters of Auto Regressive models with heavytailed
    underlying distributions and extreme values. To evaluate the performance of
    these models the results were compared to models created using the classical Auto
    Regressive estimation, through the Ordinary Least Squares Method and the Akaike
    model selection criteria. The results showed that the Gini on time series modelling
    presents great advantages and superiority on the forecast, through its correlations
    and other metrics is possible to conclude the Gini was a good estimator on models
    with low order, such as one or two, but also on model with order higher than two.

9
  • CARLOS HENRIQUE DOS SANTOS
  • UTILIZAÇÃO DA SIMULAÇÃO PARA TOMADA DE DECISÕES NO CONTEXTO DA INDÚSTRIA 4.0: UMA APLICAÇÃO INSERIDA NO CONCEITO DE GÊMEO DIGITAL

  • Orientador : FABIANO LEAL
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • BRENO GONTIJO TAVARES
  • FABIANO LEAL
  • JOSE ANTONIO DE QUEIROZ
  • Data: 30/07/2019

  • Mostrar Resumo
  • O advento de novas tecnologias traz impactos significativos na forma com que sistemas e processos são geridos. Neste caso, destaca-se o cenário da Indústria 4.0, termo que se refere a um novo conceito de indústria, o qual prega processos e sistemas cada vez mais automatizados, integrados e digitalizados em prol de maior eficiência. Ainda neste contexto, notam-se também grandes mudanças quanto à utilização de diversas ferramentas e conceitos já conhecidos, os quais ganham novas aplicações e escopos de atuação, frente a processos cada vez mais complexos e um mercado cada dia mais competitivo. Tendo em vista tal cenário, destaca-se a possibilidade de utilização da simulação como Gêmeo Digital, isto é, uma cópia virtual e inteligente capaz de espelhar processos reais dentro do conceito de Sistemas Ciber-físicos, nome dado a um dos pilares da Indústria 4.0. Dessa forma, o presente trabalho tem como objetivo a análise quanto à aplicabilidade da simulação como Gêmeo Digital em um processo real com baixo grau de automatização, cenário desafiador quanto à aderência aos preceitos da Indústria 4.0. O processo escolhido como objeto de estudo corresponde a uma atividade de abastecimento de materiais em postos kanbans dispostos nas linhas de produção de uma indústria aeronáutica. A partir do método de Modelagem e Simulação, foi possível a concepção, construção e implementação de um Gêmeo Digital por meio da simulação. Neste caso, avaliou-se as vantagens e limitações, bem como o papel da simulação como ferramenta facilitadora quanto à implementação de conceitos da Indústria 4.0 em processos com pouca ou nenhuma preparação. No que se refere aos resultados da pesquisa, obteve-se um Gêmeo Digital que, por meio da Simulação a Eventos Discretos (SED) e de uma interface intermediária, extrai os dados advindos do processo, simula as possíveis rotas de abastecimento e fornece as opções de rota mais eficientes. Nota-se que o Gêmeo Digital tornou o processo, objeto deste estudo, um sistema inteligente e conectado com os demais sistemas da operação, fato este que está de acordo com os preceitos da Indústria 4.0. Além disso, na busca por maior eficiência, nota-se também que tal aplicação vai ao encontro dos princípios da filosofia enxuta, uma vez que foi possível reduzir movimentações e transportes desnecessários na ordem de 20%. Finalmente, conclui-se que a utilização da simulação como Gêmeo Digital em um processo real com baixo grau de automatização se mostrou possível a partir da presente pesquisa, fato este que ilustra a versatilidade da ferramenta frente aos desafios impostos pela evolução da indústria.


  • Mostrar Abstract
  • The advent of new technologies brings significant impacts on the way that systems and processes are managed. In this case, we highlight the scenario of Industry 4.0, a term that refers to a new concept of industry, which preaches processes and systems increasingly automated, integrated and digitized for a greater efficiency. Also in this context, there are great changes regarding the use of several tools and concepts already known, which has been gaining new applications and scopes of action, in front of increasingly complex processes and a more competitive market. Given this scenario, it is possible to use the simulation as Digital Twin, concept which refers to a virtual and intelligent copy capable to reflect real processes inside the context of Cyber-physical Systems, one of the pillars of Industry 4.0. Thus, the present work aims to analyze the applicability of the Digital Twin simulation in a real process with a low degree of automation, which is a challenging scenario regarding adherence to the precepts of Industry 4.0. The process chosen as the object of study corresponds to an activity of supplying materials at kanban stations arranged on the production lines of an aeronautical industry. Applying the Modeling and Simulation method, it was possible to design, construct and implement a Digital Twin through the simulation. In this case, we evaluated the advantages, limitations, and the role of the simulation as a tool to facilitate the implementation of Industry 4.0 concepts in processes with little or no preparation. About the results of the research, a Digital Twin was obtained through Discrete Event Simulation (DES) and an intermediate interface, which extracts the data coming from the process, simulates the possible supply routes and provides the most efficient route options. It is noted that the Digital Twin made the process, object of this study, an intelligent system and connected with the other systems of the operation, a fact that is in accordance with the precepts of Industry 4.0. In addition, aiming for greater efficiency, it is also noted that such application matches the Lean Philosophy, since it was possible to reduce unnecessary movements and transports by the order of 20%. Finally, it is concluded that the use of the Digital Twin simulation in a real process with a low degree of automation was shown possible from the present research, a fact that illustrates the versatility of the tool in front of the challenges imposed by the evolution of the industry.

10
  • Lucas Catalani Gabriel
  • COMPETÊNCIAS PARA OS GERENTES DE PROJETOS DA CONSTRUÇÃO CIVIL

  • Orientador : CARLOS EDUARDO SANCHES DA SILVA
  • MEMBROS DA BANCA :
  • CARLOS AUGUSTO DE SOUZA OLIVEIRA
  • CARLOS EDUARDO SANCHES DA SILVA
  • RICARDO ANDRE FIOROTTI PEIXOTO
  • Data: 15/08/2019

  • Mostrar Resumo
  • O Gerente de Projetos (GP) lidera as equipes responsáveis na etapa de execução do projeto e tem por responsabilidade garantir que todos os objetivos sejam alcançados. O presente trabalho visou contribuir para a teoria, identificando quais as competências demandadas para os gerentes de projetos brasileiros pela construção civil. A primeira etapa da pesquisa consistiu em uma revisão sistemática da literatura. As bases de dados pesquisadas foram a Web of Science® e Scopus®. A segunda etapa consistiu na elaboração de um questionário utilizando-se os principais conceitos encontrados na teoria para entrevistar o público alvo. Baseando-se na revisão da literatura, os principais atributos de sucesso de projetos de empresas de construção civil são: entrega dentro do cronograma; entrega dentro do orçamento; e qualidade final dentro dos parâmetros. As principais competências dos gerentes de projetos foram classificadas por meio de 3 fatores e 27 atributos. Os fatores encontrados foram: conhecimento técnico teórico; desempenho prático; e habilidades interpessoais. Após o teste piloto, o questionário foi distribuído, coletando 422 respostas das quais 390 são válidas. Após análise estatística, os resultados são de que as competências mais importantes para os GPs na construção civil são: custos; gerenciamento de riscos; gerenciamento do cronograma do projeto; gerenciamento do escopo; ética; e comunicação. Não existe uma diferença de opinião entre os grupos de GP com menos e mais tempo de projetos, com exceção para experiência no gerenciamento de projetos e gerenciamento de conflitos, em que os gerentes com menos experiência consideraram ambos atributos menos relevantes do que os GPs experientes.


  • Mostrar Abstract
  • The Project Manager (GP) leads the responsible teams during the project implementation stage and is responsible for ensuring the achievement of all project goals PMBOK (2017). The present work aimed to bring a contribution to the theory by identifying the competencies demanded to the Brazilian project managers by the civil construction. The first stage of the research consisted of a systematic review of the literature whose databases were the Web of Science® and Scopus®. The second stage was constituted by a questionnaire’s elaboration according to the literature’s main concepts in order to interview the target audience. Based on the literature review, the principal success attributes of civil construction projects are "Delivery Within the Schedule", "Delivery Within the Budget" and "Final Quality Within the Parameters". The main competencies of the project managers were classified by means of 3 factors and 27 attributes retrieved from the theory. Therefore, the following factors were detected: theoretical technical knowledge; practical performance; and interpersonal skills. After the pilot test, the questionnaire was distributed, thereby collecting 422 responses with a total of 390 valid answers. The results demonstrated that the most relevant competencies for project managers in civil construction are costs, risk management, project timeline management, scope management, ethics, and communication. The analysis by means of the Attribute relevance level did not identify strong agreements between the groups of respondents and the standard. Although the ANOVA test revealed a similar opinion between the groups, lower-skilled managers, contrarily to experienced managers, considered both attributes "Experience in Project Management" and "Conflict Management" as less relevant.

Teses
1
  • JOSENILDO BRITO DE OLIVEIRA
  • GESTÃO DE RISCOS LOGÍSTICOS EM CADEIAS DE SUPRIMENTOS: OTIMIZAÇÃO VIA METAMODELO DE SIMULAÇÃO

  • Orientador : RENATO DA SILVA LIMA
  • MEMBROS DA BANCA :
  • ENZO MOROSINI FRAZZON
  • FABIANO LEAL
  • FABIO FAVARETTO
  • FERNANDO AUGUSTO SILVA MARINS
  • JOSE ARNALDO BARRA MONTEVECHI
  • RENATO DA SILVA LIMA
  • Data: 29/03/2019

  • Mostrar Resumo
  • Alguns tipos de riscos podem causar danos às cadeias de suprimentos, provocando rupturas nos fluxos de materiais e produtos acabados. Riscos logísticos se relacionam às falhas nos processos de transporte, armazenagem, produção e vendas. A gestão adequada desses riscos é fator crítico para a integração dos fluxos sob a responsabilidade da logística e operações, cujas atividades são frequentemente realizadas por provedores de serviços logísticos. Entretanto, observou-se a falta de procedimentos sistemáticos focados na gestão de riscos logísticos que melhor aproveitasse as vantagens da integração entre métodos de simulação e otimização. A pesquisa foi realizada em uma cadeia de suprimentos do segmento automotivo português, a partir de dados secundários disponíveis na literatura. Os problemas desse estudo foram: (a) quais os impactos dos riscos logísticos sobre o desempenho dessa cadeia? (b) sob a influência desses riscos, que ajustes no sistema logístico poderiam melhorar a resposta do arranjo aos impactos? Para solucionar tais questões, definiu-se como objetivo, mitigar os efeitos desses riscos a partir de um metamodelo de simulação para a otimização de parâmetros críticos. As atividades logísticas desempenhadas na cadeia de suprimentos foram escolhidas como objeto de estudo. Essa pesquisa foi classificada como aplicada, quantitativa e exploratória normativa, considerando, respectivamente, a sua natureza, a abordagem do problema e os objetivos. A simulação a eventos discretos, elaborada no ambiente Arena®, foi utilizada como método de pesquisa. A otimização Black Box, realizada através do software OptQuest®, foi empregada para projetar os parâmetros adequados para o sistema logístico. Um metamodelo de regressão baseado no método OLS foi desenvolvido a partir da projeção e implantação de experimentos, servindo para integrar as saídas do modelo de simulação às entradas do modelo de otimização. Inúmeras técnicas de verificação e validação foram empregadas para calibrar o modelo de otimização via simulação, tais como: implantação modular e análise de sensibilidade. Uma sistemática metodológica fundamentada na abordagem DMAIC foi elaborada para relacionar as etapas de gestão dos riscos logísticos e conduzir aos resultados dessa pesquisa, incluindo a identificação (Definir), avaliação (Mensuração), gestão (Melhoria e análise) e monitoramento (Controle) do risco logístico. Um evento de risco logístico foi inserido no modelo com o fim de reproduzir rupturas no fluxo físico de distribuição e permitir a avaliação dos seus impactos sobre o desempenho da cadeia. Os impactos foram medidos por meio do custo logístico total, do risco de ruptura e da taxa de nível de serviço. Estratégias de mitigação do risco logístico de transporte, como redundância e flexibilidade, foram testadas para minimizar simultaneamente custo e risco e maximizar a taxa de entrega. A solução sugerida pelo modelo multiobjetivo de otimização via simulação mostrou ser adequada e eficaz já que os ajustes no sistema logístico bloquearam as consequências da ruptura. A principal contribuição da pesquisa foi desenvolver procedimentos sistemáticos para melhorar a gestão de riscos logísticos no âmbito de cadeias de suprimentos a partir do uso combinado entre métodos de simulação e otimização.


  • Mostrar Abstract
  • Some risks can cause losses to the supply chains, producing ruptures in the flow of materials and finished goods. Logistics risks are associated with failures in transportation, warehousing, production and sales processes. Proper management of these risks is critical for the integration of flows under the responsibility of logistics and operations, whose activities are often carried out by logistics service providers. However, there was a shortage of systematic procedures focused on logistics risk management that take advantage of the integration of simulation and optimization methods. This research was carried out in an automotive supply chain located in Portugal, and based on secondary data available in the literature. The problems of this study are: (a) what are the impacts of logistics risks on the performance of this chain? (b) Under the influence of these risks, which adjustments in the logistics system could improve the response of the arrangement to the impacts? In order to solve such issues, the research objective is mitigating the effects of logistics risks from a simulation metamodel for the optimization of critical parameters. The logistical processes carried out in the supply chain were selected as object of study. About the nature, approach of the problem and objectives, this research was classified as applied, quantitative and exploratory normative, respectively. The discrete event simulation, elaborated in the Arena® platform, was used as a research method. The Black Box optimization, performed through OptQuest® software, was employed to design the appropriate parameters of the logistics system. An OLS method-based regression metamodel was created from design and implementation of experiments with the purpose of integrating the outputs of the simulation model to the inputs of the optimization model. Numerous verification and validation techniques were applied to calibrate the simulation and optimization model, such as modular implementation and sensitivity analysis. A DMAIC-based methodological systematic was developed to comprise the logistic risk management steps and to lead to the results of this research, containing the identification (Define), assessment (Measurement), management (Improvement) and monitoring (Control) of logistics risks. A logistical risk event was inserted into the model in order to reproduce disruptions in the physical distribution flow and allow the evaluation of its impacts on the supply chain performance. The impacts were measured by the following metrics: total logistic cost, stockout risk and fill-rate. For the transportation risk, two mitigation strategies, redundancy and flexibility, have been performed to simultaneously minimize cost and risk and maximize the fill-rate. The risk response solution suggested by the multiobjective optimization model simulation proved to be adequate and effective since the adjustments in the logistic system blocked the effects of the disruption. The main contribution of the research was to develop systematic procedures to improve the supply chain logistics risk management from the combined use of simulation and optimization methods

2
  • GIANCARLO AQUILA
  • Contribuição para o processo de contratação de projetos de geração eólico-fotovoltaica a partir da análise econômica de decisões baseada na programação multiobjetivo

  • Orientador : EDSON DE OLIVEIRA PAMPLONA
  • MEMBROS DA BANCA :
  • ANDERSON RODRIGO DE QUEIROZ
  • BENEDITO DONIZETI BONATTO
  • EDSON DE OLIVEIRA PAMPLONA
  • LUIZ CÉLIO SOUZA ROCHA
  • RAFAEL DE CARVALHO MIRANDA
  • WILSON TOSHIRO NAKAMURA
  • Data: 18/04/2019

  • Mostrar Resumo
  • Recentemente, com o crescimento dos investimentos em energia eólica no Brasil e a entrada
    da energia solar fotovoltaica em leilões de energia, nota-se que em algumas localidades têm
    sido construídas usinas que produzem eletricidade por meio dessas fontes, de maneira
    combinada. Entretanto, ainda não existem processos de licitação, com critérios de decisão
    específicos para esse tipo de projeto. Portanto, o objetivo do presente trabalho é apresentar
    uma contribuição para o processo de contratação de projetos de geração eólico-fotovoltaicos
    conectados ao sistema elétrico brasileiro. Para isto, inicialmente é utilizado o arranjo de
    misturas para gerar cenários que são usados no cálculo da densidade de emissão reduzida e o
    custo nivelado de energia elétrica, que são as variáveis de respostas consideradas no modelo,
    para doze cidades brasileiras. A partir dos resultados calculados para cada cenário, são
    realizadas regressões quadráticas que fornecem as funções objetivo utilizadas no modelo de
    otimização, baseado no método Normal Boundary Intersection, aplicado para a construção da
    fronteira de Pareto. Em seguida, adota-se uma métrica que envolve a razão entre entropia de
    Shannon e o Erro Percentual Global para identificar a melhor solução Pareto-ótima. Por fim, é
    estimada a garantia física do projeto e calculado o preço mínimo que viabilizaria uma usina
    eólico-fotovoltaica, em cada cidade analisada, a fim de identificar em qual local de instalação
    a usina seria mais competitiva em um leilão envolvendo projetos de geração eólicofotovoltaica.
    Os resultados indicam que o modelo é capaz de fornecer a configuração ótima
    para uma usina eólico-fotovoltaica, de acordo com o potencial de geração para cada local,
    além de ser capaz de identificar os locais mais recomendados para instalação deste tipo de
    projeto, de acordo com a ponderação dos objetivos analisados.


  • Mostrar Abstract
  • Recently, with the growth of wind power investments in Brazil and the ingress of photovoltaic
    solar power into long-term energy auctions in Brazil, it is possible to notice that, in some
    places, there is a trend to build power plants that may produce electricity using wind and
    photovoltaic energy simultaneously. However, there are still no bidding processes and no
    specific decision criteria for contracting this type of project. Therefore, the objective of the
    present work is to provide a contribution to the selection of wind-photovoltaic generation
    projects in the Brazilian electricity system. For this, the mixture design technique is initially
    used to generate scenarios that are employed to calculate the reduced emission density and
    Levelized Cost of Electricity, which are the response variables used in the model, for twelve
    cities in Brazil. In this approach, quadratic regressions are applied to obtain the objective
    functions used in an optimization model based on the Normal Boundary Intersection method
    to construct the Pareto frontier. The proposed approach also uses a metric involving the
    Shannon entropy ratio and the Global Percentage Error in the analysis to identify the best
    Pareto-optimal solution. Finally, it is computed physical guarantee and the minimum price
    that would make feasible a wind-photovoltaic plant in each city in analysis, in order to
    identify which place the installation of a potential wind-photovoltaic plant would be more
    competitive in an auction involving this type of projects. The results indicate that the model is
    capable of providing the optimal configuration for a wind-photovoltaic plant, according to
    the generation potential for each site, besides being able to identify the most recommended
    locations for installation of this type of project, according to the weights of the objectives
    being analyzed.

3
  • KÍVIA MOTA NASCIMENTO
  • OTIMIZAÇÃO DE ARRANJOS DE MISTURA DE COMPÓSITOS CIMENTÍCIOS COMPACTADOS COM INCORPORAÇÃO DE RESÍDUOS DE PEAD

  • Orientador : CARLOS EDUARDO SANCHES DA SILVA
  • MEMBROS DA BANCA :
  • ANDERSON PAULO DE PAIVA
  • CARLOS EDUARDO SANCHES DA SILVA
  • LEANDRO JOSÉ DA SILVA
  • MARIA TERESA PAULINO AGUILAR
  • MIRIAN DE LOURDES NORONHA MOTTA MELO
  • TULIO HALLAK PANZERA
  • Data: 01/07/2019

  • Mostrar Resumo
  • O elevado consumo de materiais poliméricos e o consequente aumento na geração de resíduos sólidos demandam à criação de rotas alternativas de reciclagem. Muitos estudos na área de materiais têm sido voltados para o reaproveitamento de resíduos como fase dispersa em materiais compósitos, principalmente os cimentícios, aliando questões ambientais, econômicas e tecnológicas. Dentre os materiais poliméricos, o polietileno de alta densidade (PEAD) é um dos mais produzidos, porém sua reciclagem não é feita de maneira expressiva e a pesquisa ainda se mostra incipiente. Sendo assim, esta tese de doutorado tem por otimizar a incorporação de resíduos poliméricos em compósitos cimentícios por meio de arranjos de misturas entre matriz cimentícia e agregados de PEAD e de quartzo, analisando sua influência na microestrutura e propriedades físico-mecânicas.. A metodologia DoE foi utilizada para planejar um experimento de misturas envolvendo partículas de PEAD, quartzo e cimento e o método desirability para fazer sua otimização. A relação água/cimento de 0,5 foi mantida constante, a relação agregado/cimento variou de 3,75 a 5,25 e foi definido um percentual mínimo de 30% de partículas de PEAD no experimento. Pôde-se notar que há uma baixa adesão entre as partículas de PEAD e a matriz cimentícia. Houve uma redução na resistência à compressão (até 80%), resistência à flexão (até 75%), velocidade de ultrassom (até 55%), módulo dinâmico (até 90%), densidade volumétrica e densidade aparente (até 50% para ambas) e aumento na porosidade (até 60%) e absorção de água (até 200%) à medida em que houve o aumento percentual da incorporação das partículas de PEAD. Foram otimizadas todas as variáveis respostas, sendo a proporção 0,21 de matriz cimentícia, 0,24 de PEAD e 0,55 de quartzo o ótimo individual, exceto para as variáveis densidades volumétrica e aparente em que o ótimo foi de 0,16 de matriz cimentícia e 0,84 de PEAD. Foram traçados seis diferentes cenários para otimização multiobjectivo em que se variou a importância dada as variáveis respotas, obtendo-se desirability individuais e compostas satisfatórias para todos os casos, o que mostra a possibilidade de incorporação de partículas de PEAD para diferentes objetivos. Os resultados revelam uma nova rota de reciclagem de PEAD em aplicações de microconcreto não estruturais.


  • Mostrar Abstract
  • The high consumption of polymer materials and the consequent increase in solid waste generation demand alternative recycling routes. A significant amount of research in materials engineering has been directed towards the reuse of waste as dispersive phases in composites, specially cement-based materials, combining environmental, economic and technological issues. Among the polymer materials, high density polyethylene (HDPE) is one of the most produced, but its recycling is not done in an expressive way and the research is still incipient. This doctoral thesis investigates the reuse of HDPE in compacted cementitious composites and its influence on physical-mechanical properties through Design of Experiment (DoE). A desirability method was used to optimise the amount of HDPE, quartz and cement particles in the system. The water/cement ratio of 0.5 was kept constant while the aggregate/cement ratio varied from 3.75 to 5.25 and a minimum percentage of 30% of HDPE particles was defined in the experiment A low adhesion between the HDPE particles and the cementitious matrix was verified. The increasing percentage of HDPE led to reduced compressive strength (up to 80%), flexural strength (up to 75%), ultra-pulse velocity (up to 55%), dynamic modulus (up to 90%), bulk and apparent densities (up to 50% for both ) and increased porosity (up to 60%) and water absorption (up to 200%). The relationships between the response variables were modelled by means of regression analysis with satisfactory adjustments. It should be noted that the ultra-pulse velocity and dynamic modulus increase as the hydration process and the moisture rises in the sample. The combination of 0.21 of cement matrix, 0.24 of HDPE and 0.55 of quartz optimises all responses, except for bulk and apparent densities in which the optimum setup was 0.16 of cement matrixand 0.84 HDPE. Six different scenarios were considered to perform the multi-objective optimisation in which the importance given to the variable parameters was varied, obtaining individual desirability and satisfactory composites for all cases, which demonstrates the possibility of incorporating HDPE particles for different applications. The findings reveal a new recycling route for HDPE in non-structural microconcrete applications.

4
  • TAYNARA INCERTI DE PAULA
  • Método da Interseção Normal à Fronteira baseado em Análise Fatorial para otimização de problemas multivariados utilizando-se Algoritmo Genético

  • Orientador : ANDERSON PAULO DE PAIVA
  • MEMBROS DA BANCA :
  • ANDERSON PAULO DE PAIVA
  • JOSE HENRIQUE DE FREITAS GOMES
  • GUILHERME FERREIRA GOMES
  • LUIZ CÉLIO SOUZA ROCHA
  • ROGÉRIO SANTANA PERUCHI
  • Data: 04/07/2019

  • Mostrar Resumo
  • Encontrar solução para problemas de otimização multiobjetivo não é uma
    tarefa trivial. Para encontrar uma fronteira de soluções Pareto-ótimas, uma abordagem
    comum é a combinação de um método de otimização de múltiplos objetivos
    com ponderação de funções e uma meta-heurística. Considerando a otimização de
    duas funções diferentes com complexidades distintas, quando um peso maior for
    dado à função mais complexa, a função objetivo final apresentará uma complexidade
    maior e exigirá mais esforço do algoritmo de busca. Isto significa que para cada
    combinação diferente de pesos pode haver uma configuração diferente dos parâmetros
    de algoritmos que leva à solução ótima. Para resolver este problema, o presente
    estudo aborda a otimização simultânea dos parâmetros do algoritmo e dos pesos
    aplicados ao problema multiobjetivo. O Algoritmo Genético foi escolhido como algoritmo
    de busca, uma vez que é uma das meta-heurísticas mais utilizadas e possui
    diversos parâmetros que podem influenciar sua eficiência. O método de otimização
    escolhido foi o método de Interseção Normal à Fronteira, uma vez que este é capaz
    de encontrar soluções mesmo em regiões não-convexas do espaço de solução. Porém,
    este método não apresenta boa performance em problemas com muitas respostas
    ou com respostas correlacionadas. Neste contexto, a aplicação da Análise Fatorial
    permite a redução da dimensionalidade do problema e a substituição de um grande
    número de respostas por poucas funções objetivo não correlacionadas, formadas por
    escores fatoriais rotacionados. Considerando todos estes fatos, este estudo propõe
    um método que permite a redução da dimensionalidade do problema, otimização
    de funções de fatores não correlacionados e a otimização simultânea de pesos do
    método de otimização e parâmetros do Algoritmo Genético, através de um arranjo
    de misturas combinado com variáveis de processo. Neste caso, os componentes da
    mistura serão os pesos das funções objetivo e as variáveis de processo serão os parâmetros
    de entrada do algoritmo. Os resultados encontrados para a otimização com
    este método permitem o cálculo de um Erro Quadrático Médio para cada fator, que
    quando otimizados fornecem uma fronteira de Pareto com configurações ótimas de
    pesos e parâmetros que podem ser utilizados na otimização do problema inicial. O
    método proposto neste estudo foi aplicado na otimização de um conjunto de funções
    de teste, para validação de sua aplicabilidade em outros processos. Além disso, o
    método também foi aplicado a um processo de otimização real: o processo de usinagem
    a laser do aço DIN X40CrMoV5-1. Em ambos os casos o objetivo principal foi
    atingido, podendo-se determinar as fronteiras/superfícies de configurações ótimas
    de pesos e parâmetros.


  • Mostrar Abstract
  • Finding solutions to multiobjective optimization problems is not a trivial
    task. To find a Pareto-optimal set of solutions, a common approach is the combination
    of a weighted multiobjective optimization method with a metaheuristic.
    Considering the optimization of two different functions with different levels of complexity,
    when a greater weight is given to the more complex function, the final
    objective function will be a lot more complex and will require more effort from the
    search algorithm. This means that for each different combination of weights, one
    can have a different configuration of the algorithm parameters that can lead to the
    optimal solution. To overcome this problem, the present study addresses the simultaneous
    optimization of the algorithm parameters and the weights applied to the
    multiobjective problem. The Genetic Algorithm was chosen as the search algorithm,
    since it is one of the most used meta-heuristics and it can suffer the influence of several
    parameters. As the method of optimization, it was chosen the Normal Boundary
    Intersection method, since this is able to find solutions even in non-convex regions
    of search space. However, such method does not perform well in problems with too
    many or correlated responses. In this context, the application of Factor Analysis
    allows the reduction of the problem dimensionality and the substitution of a large
    number of responses by a few uncorrelated objective functions, formed by rotated
    factor scores. Considering these facts, this study proposes a method that allows the
    reduction of the problem dimensionality, the optimization of uncorrelated factors
    and the simultaneous optimization of weights and algorithm parameters, through a
    design of mixtures combined with process variables. In this case, the components of
    the mixture will be the weights of the objective functions and the process variables
    will be the input parameters of the Genetic Algorithm. The results obtained for
    the optimization with this method allow the calculation of a Mean Square Error
    for each factor, which when optimized provide a Pareto border with optimal setups
    of weights and parameters that can be used to optimize the initial problem.
    The method proposed in this study was applied for the optimization of a set of
    benchmark functions, to validate its applicability in other processes. In addition,
    the method was also applied to a real optimization process: the laser beam machining
    process of DIN X40CrMoV5-1 steel. In both cases, the main objective was
    reached, where the method was able to determine the frontiers / surfaces of optimal
    configurations of weights and parameters.

5
  • WILSON TRIGUEIRO DE SOUSA JUNIOR
  • PROPOSTA DE REDUÇÃO DO TEMPO COMPUTACIONAL EM PROBLEMAS DE OTIMIZAÇÃO VIA SIMULAÇÃO A EVENTOS DISCRETOS INTEGRANDO METAHEURÍSTICAS, APRENDIZAGEM DE MÁQUINA E PARALELISMO

  • Orientador : JOSE ARNALDO BARRA MONTEVECHI
  • MEMBROS DA BANCA :
  • DAVID CUSTÓDIO DE SENA
  • JOSE ARNALDO BARRA MONTEVECHI
  • MONA LIZA MOURA DE OLIVEIRA
  • RAFAEL DE CARVALHO MIRANDA
  • ROBSON BRUNO DUTRA PEREIRA
  • TABATA FERNANDES PEREIRA
  • Data: 05/07/2019

  • Mostrar Resumo
  • As técnicas de simulação a eventos discretos têm sido empregadas em diversos setores industriais nas últimas décadas. Isso se tornou possível com a popularização de recursos computacionais e conhecimentos estatísticos aplicados na produção de bens e serviços. Um propósito recorrente ao se gerar uma simulação é a avaliação de uma grande quantidade de cenários, a fim de se encontrar uma relação ótima da combinação de variáveis para se atender restrições e funções de minimização e/ou maximização de objetivos. O processo de otimização dos modelos de simulação tem que lidar com o problema do aumento exponencial do espaço de busca por soluções, enquanto o número de variáveis de decisão cresce linearmente, tornando a resolução desse problema muito difícil ou impossível, no que tange a avaliação de todas as possíveis combinações quando não há tempo e/ou recurso computacional suficientes para tal. Com o aumento da complexidade referente à quantidade de possíveis soluções a serem consideradas pelos agentes tomadores de decisão, a área do conhecimento referente à Pesquisa Operacional tem aplicado técnicas tradicionalmente geradas para resolver problemas de otimização combinatória, em problemas de simulação a eventos discretos. A exemplo de tais técnicas de otimização, as metaheurísticas têm sido utilizadas com sucesso desde a origem dos primeiros métodos de otimização. Um fator restritivo na utilização destes métodos de otimização em simulação a eventos discretos é que para a realização do teste da qualidade de uma dada possível solução, em geral é necessário a utilização de um software simulador. Assim, ocorre que mesmo com o uso de método de otimização, muito tempo é dispendido para a obtenção de uma boa solução, pelo fato de ser necessário chamar recursivamente o simulador. Com o intuito de minimizar esse efeito, a presente tese associou quatro abordagens para a diminuição do tempo de resposta necessário para se obter boas soluções para a otimização de modelos de simulação a eventos discretos, utilizando de metamodelagem por aprendizagem de máquina e paralelismo de soluções, associadas a metaheurísticas de busca populacional. Neste contexto, foi possível a integração de todos estes conceitos em um mesmo ambiente, aplicando a mesma em três objetos de estudo referentes a problemas da Engenharia de Produção. Um ambiente de otimização open source foi construído em Python para a integração dos três objetos de estudo considerando 33 métodos de aprendizagem de máquina, duas metaheurística e paralelismo do processamento dos cenários. Como resultado médio do método proposto, foi possível a redução do tempo computacional em 93,5% em comparação ao método tradicional, com a utilização apenas de otimização por metaheurística, obtendo uma solução igual a 87,5% do valor de referência dos objetos de estudo.


  • Mostrar Abstract
  • Discrete event simulation techniques have been used in several industrial sectors in recent decades, with the advent and popularization of computational resources and statistical knowledge applied in the production of goods and services. A recurring purpose in generating a simulation is the evaluation of a large number of scenarios in order to find an optimal relation of the combination of variables to meet constraints and functions of minimization and/or maximization of objectives. The optimization process of the simulation models has to deal with the problem of the exponential increase of the search space for solutions, while the number of decision variables increases linearly, making the resolution of this problem very difficult or impossible as regards the evaluation of all possible combinations when there is insufficient time and/or computational capability to do so. With the increase in complexity regarding the number of possible solutions to be considered by decision-making agents, the Operational Research area of knowledge has applied techniques traditionally generated to solve problems of combinatorial optimization, in problems of discrete event simulation. For these optimization techniques, metaheuristics have been used with success since the origin time of the first optimization methods. A restrictive factor in the use of these optimization methods in discrete event simulation is that in order to test the quality of a given possible solution, it is generally necessary to use simulator software. Thus, even with the use of optimization method, a lot of time is spent to obtain a good solution because it is necessary to call the simulator recurrently. In order to decrease this effect, the present thesis has associated three approaches to reduce the response time required to obtain good responses in the optimization of discrete event simulation, using machine learning metamodel and solution parallelism within metaheuristics that use population search method. In this context, it was possible to integrate all of these concepts in the same platform, applying the proposed in three objects of study concerning problems of Production Engineering. An open source optimization environment was built in Python to integrate the two study objects with 33 machine learning methods, two metaheuristics, and parallelism for scenario processing. As a mean result of the proposed method it was possible to reduce the computational time by 93.5% compared to the traditional method of using only metaheuristic optimization, obtaining a solution equal to 87.5% of the reference value of the studied objects.

2015
Dissertações
1
  • GIANCARLO AQUILA
  • Análise do impacto dos programas de incentivos para viabilizar enconomicamente o uso de fontes de energia renovável.

  • Orientador : EDSON DE OLIVEIRA PAMPLONA
  • MEMBROS DA BANCA :
  • ANDERSON RODRIGO DE QUEIROZ
  • EDSON DE OLIVEIRA PAMPLONA
  • RAFAEL DE CARVALHO MIRANDA
  • WILSON TOSHIRO NAKAMURA
  • Data: 12/11/2015

  • Mostrar Resumo
  • Através de estudos existentes na literatura, é possível observar que diversos países têm
    aplicado estratégias direcionadas para o incentivo de geração de energia elétrica por meio de
    fontes de energia renovável. Este trabalho apresenta um entendimento sobre o contexto e a
    evolução dessas políticas, destacando os principais tipos e aplicações, com foco no impacto
    das  estratégias  de  incentivo  para  o  produtor  inserido  no  mercado  de  energia  renovável
    brasileiro. Para isso, foram feitas análises de investimentos em uma usina eólica, no estado da
    Bahia, considerando as incertezas de geração de energia e exposição aos riscos de liquidação
    dessas diferenças. As análises incluem a possibilidade  da  usina  comercializar energia em  um
    ambiente regulado ou no livre mercado, analisando situações específicas para cada ambiente e
    para  diferentes  regimes  de  tributação.  Além  disso,  analisaram-se  cenários  em  que  ocorre  a
    possibilidade de comercialização de créditos de carbono, através da participação  da usina  no
    Mecanismo  de  Desenvolvimento  Limpo.  Inicialmente  são  realizadas  as  análises
    determinísticas  para  cada  cenário  realizado,  seguido  pela  análise  de  sensibilidade,  também
    foram  feitas  as  análises  estocásticas  que  incorporam  as  incertezas  nas  principais  variáveis
    identificadas  na  análise  de  sensibilidade  e  as  incertezas  relacionadas  à  geração  de  energia
    mensal da usina e ao preço de liquidação das diferenças, por último aplicou-se o Value at Risk
    que possibilitou a análise do pior cenário esperado do produtor em cada situação. Nota-se que
    no  cenário  brasileiro  atual,  os  ambientes  incentivados  ainda  apresentam  características
    particulares capazes de mitigar os riscos do produtor, em um mercado que ainda está em fase
    de amadurecimento.


  • Mostrar Abstract
  • Através de estudos existentes na literatura, é possível observar que diversos países têm
    aplicado estratégias direcionadas para o incentivo de geração de energia elétrica por meio de
    fontes de energia renovável. Este trabalho apresenta um entendimento sobre o contexto e a
    evolução dessas políticas, destacando os principais tipos e aplicações, com foco no impacto
    das  estratégias  de  incentivo  para  o  produtor  inserido  no  mercado  de  energia  renovável
    brasileiro. Para isso, foram feitas análises de investimentos em uma usina eólica, no estado da
    Bahia, considerando as incertezas de geração de energia e exposição aos riscos de liquidação
    dessas diferenças. As análises incluem a possibilidade  da  usina  comercializar energia em  um
    ambiente regulado ou no livre mercado, analisando situações específicas para cada ambiente e
    para  diferentes  regimes  de  tributação.  Além  disso,  analisaram-se  cenários  em  que  ocorre  a
    possibilidade de comercialização de créditos de carbono, através da participação  da usina  no
    Mecanismo  de  Desenvolvimento  Limpo.  Inicialmente  são  realizadas  as  análises
    determinísticas  para  cada  cenário  realizado,  seguido  pela  análise  de  sensibilidade,  também
    foram  feitas  as  análises  estocásticas  que  incorporam  as  incertezas  nas  principais  variáveis
    identificadas  na  análise  de  sensibilidade  e  as  incertezas  relacionadas  à  geração  de  energia
    mensal da usina e ao preço de liquidação das diferenças, por último aplicou-se o Value at Risk
    que possibilitou a análise do pior cenário esperado do produtor em cada situação. Nota-se que
    no  cenário  brasileiro  atual,  os  ambientes  incentivados  ainda  apresentam  características
    particulares capazes de mitigar os riscos do produtor, em um mercado que ainda está em fase
    de amadurecimento.

SIGAA | DTI - Diretoria de Tecnologia da Informação - (35) 3629-1080 | Copyright © 2006-2019 - UFRN - sigaa02.unifei.edu.br.sigaa02