PRPPG32003013003M2 PRPPG - PÓS GRADUAÇÃO EM ENGENHARIA DE PRODUÇÃO PRÓ-REITORIA DE PESQUISA E PÓS-GRADUAÇÃO Telefone/Ramal: (35) 3629-1296
Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UNIFEI

2020
Dissertações
1
  • NATALIA MARIA PUGGINA BIANCHESI
  • Estudo Comparativo entre Métodos de Agrupamento Clássicos e Redes Neurais Artificiais através de Planejamento de Experimento

  • Orientador : PEDRO PAULO BALESTRASSI
  • MEMBROS DA BANCA :
  • ANTONIO FERNANDO BRANCO COSTA
  • PAULO ROTELLA JUNIOR
  • PEDRO PAULO BALESTRASSI
  • Data: 14/02/2020

  • Mostrar Resumo
  • A análise de cluster é uma técnica de mineração de dados multivariada amplamente usada em diversas
    áreas. Destina-se a agrupar automaticamente os n elementos da base de dados em k clusters,
    utilizando-se apenas das informações das variáveis de cada caso. No entanto, a precisão dos
    agrupamentos finais depende do método de clustering utilizado. Neste artigo, apresenta-se uma
    avaliação do desempenho dos principais métodos de análise de cluster: Ward, K-means e Self-
    Organizing Maps. Diferentemente de muitos estudos publicados na área, os conjuntos de dados foram
    gerados através de um Planejamento de Experimentos (DOE), de modo a simular diferentes estruturas
    de dados possíveis. Considerou-se o número de variáveis, número de clusters, tamanho da amostra,
    partição dos clusters, sobreposição dos clusters, e a presença de outliers, como os fatores do DOE. Os
    conjuntos de dados foram analisados por cada método de clustering e suas partições finais foram
    comparadas através do Attribute Agreement Analysis. Os resultados mostraram que o número de
    clusters, a sobreposição, e a interação entre o número de variáveis e o tamanho da amostra afetam
    significativamente todos os métodos estudados. Além disso, é possível afirmar que os métodos
    estudados não apresentam diferenças estatisticamente significativas, com um nível de significância de
    5%, e não é possível classifica-los por desempenho.


  • Mostrar Abstract
  • Cluster analysis is a multivariate data mining technique that is widely used in several areas. It aims to
    group automatically the n elements of the database into k clusters, using only the information of the
    variables of each case. However, the accuracy of the final clusters depends on the clustering method
    used. In this paper, we present an evaluation of the performance of main methods for cluster analysis as
    Ward, K-means and SelfOrganizing Maps. Differently from many studies published in the area, we
    generated the datasets using the Design of Experiment (DOE) technique, in order to achieve reliable
    conclusions about the methods through the generalization of the different possible data structures. We
    considered the number of variables and clusters, dataset size, sample size, cluster overlapping, and the
    presence of outliers, as the DOE factors. The datasets were analyzed by each clustering method and the
    clustering partitions were compared by the Attribute Agreement Analysis, providing invaluable
    information about the effects of the considered factors individually and about their interactions. The
    results showed that, the number of clusters, overlapping, and the interaction between sample size and
    the number of variables significantly affect all the studied methods. Moreover, it is possible to state that
    the methods have similar performances, with a significance level of 5%, and it is not possible to affirm
    that one outperforms the others.

2019
Dissertações
1
  • HEBERT WESLEY PEREIRA ZARONI
  • PROPOSTA DE UM MODELO DE BUSINESS INTELLIGENCE PARA O APOIO À DECISÃO ATRAVÉS DA PERSPECTIVA DA DATA SCIENCE

  • Orientador : ALEXANDRE FERREIRA DE PINHO
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • ANDRÉ PIMENTA FREIRE
  • FABIO FAVARETTO
  • Data: 08/05/2019

  • Mostrar Resumo
  • A tomada de decisões pelos gestores é um assunto recorrente nas organizações e empresas nos dias atuais, sendo estas privadas ou de gestão pública. Esta última mantém um sistema burocrático, com difícil acesso a informações rápidas e precisas. Com a quantidade massiva de dados disponível dentro das organizações, e também provindos de fontes externas, estas têm buscado novas tecnologias e métodos em meio aos Sistemas de Informação para obtenção de informações com mais qualidade. Os sistemas de Business Intelligence (BI) são um dos meios que contribuem para reunião, análise e propagação de dados, resultando em diversos produtos e relatórios administrativos que facilitam a tomada de decisões; e a Data Science (DS), ou ciência dos dados, a qual é um campo emergente em meio aos Sistemas de Informação, carrega as características de transformação e análise de dados de forma que ajude a organização, também, no processo decisório. Ambos os conceitos possuem seus métodos, processos, modelos e ciclos de vida para chegarem em um objetivo em comum. Entretanto, na literatura, há uma carência de modelos que agreguem os dois conceitos de forma concomitante, ou aplicando conceitos de um campo no outro. A partir desse ponto de defasagem, o objetivo dessa pesquisa é propor um modelo que aplique os conceitos de BI e DS, colocando os conceitos de cada um em conjunto, conceitualizando-os e identificando os pontos em que são convergentes e divergentes para se ter um modelo eficiente. A metodologia utilizada é a de Modelagem, para desenvolver o modelo proposto, o qual passa por sua Conceitualização, Modelagem, e Solução e Implementação, onde os conceitos e passos dos processos de BI e DS são explorados e colocados conjuntamente, com seus ciclos e fases. Por fim, o modelo desenvolvido foi aplicado em uma ferramenta computacional que possa incorporá-lo, como forma de testá-lo e validá-lo, gerando produtos computacionais para serem utilizados. O resultado foi aplicado na Universidade Federal de Itajubá, mais especificamente no setor de contabilidade e finanças, auxiliando os gestores na tomada de decisões e também por fins de transparência, expondo os relatórios provindos do modelo. Os resultados que surgem do modelo desenvolvido são dashboards e produtos de visualização de dados que são disponibilizados no sítio eletrônico da Universidade, ao mesmo tempo que providenciam aos servidores e à gerência uma fonte de informações rápida e eficiente, validando o modelo criado. Pode-se assim concluir que os conceitos são aplicáveis, inclusive na gestão pública, para gerarem modelos auxiliares a tomada de decisão, e que também, podem ser desenvolvidos em outros setores e organizações.


  • Mostrar Abstract
  • Management decision-making is a recurring issue in organizations and companies, whether private or publicly managed. The latter type of organization one remains a bureaucratic system with difficult access to quick and accurate information. With the massive amount of data available within organizations, and also from external sources, they have searched new technologies and methods from the Information Systems field to obtain higher quality information. Business Intelligence (BI) systems are one of the means that contribute to gather, analyze and propagate data, resulting in various products and management reports that ease decision making process; and Data Science (DS), which is an emerging field within Information Systems, carries the characteristics of data transformation and analysis in a way that helps the organization in the decision-making process as well. Both concepts have their methods, processes, models, and life cycles that reach a common goal. However, in the literature, there is a lack of models that aggregate the two concepts concomitantly, or apply concepts from one field to another. From this gap point, the objective of this research is to propose a model that applies the concepts of BI and DS, placing the concepts of each one together, conceptualizing them and identifying the points where they are convergent and divergent to have an efficient model. The methodology used is the Modelling one, to develop the proposed model, which encompasses its Conceptualization, Modeling, and Solution and Implementation, where the concepts and steps of the BI and DS processes are explored and placed together, with their own cycles and phases being put togheter. Finally, the developed model will be applied in a computational software that can incorporate it, as a way to test and validate it, generating computational products to be used. The result will be applied at the Federal University of Itajubá, more specifically in the accounting and finance sector, assisting managers in decision making and also for transparency purposes, exposing the reports coming from the model. The results that emerge from the developed model are dashboards and data visualization products that are available on the University's website. It can be concluded that concepts are applicable, including in public management, to generate decision support models, and that they can be developed in other sectors and organizations.

2
  • DIÊGO JEAN DE MELO
  • Otimização Robusta do Processo de Aplainamento da Madeira Pinus taeda

  • Orientador : ANDERSON PAULO DE PAIVA
  • MEMBROS DA BANCA :
  • ANDERSON PAULO DE PAIVA
  • JOSE HENRIQUE DE FREITAS GOMES
  • JOSE REINALDO MOREIRA DA SILVA
  • Data: 17/05/2019

  • Mostrar Resumo
  • aplainamento é um processo de usinagem muito utilizado para retirada de material e obtenção de boa qualidade de superfícies de madeiras. Esse processo está fortemente presente em indústrias do setor moveleiro, em que se utiliza o aplainamento para adequar as medidas do produto pela retirada de material e melhorar a qualidade visual, aumentando assim o valor agregado do produto final. Para avaliar esse processo de usinagem, é importante utilizar-se de métodos de planejamento de experimentos, modelagem robusta e otimização multi-objetivo para assim obter os melhores resultados possíveis em diferentes respostas. O presente trabalho apresenta a otimização robusta multi-objetivo do aplainamento da madeira Pinus taeda. Os experimentos foram conduzidos baseado em no planejamento composto central combinando variáveis de controle de velocidade de corte, velocidade de avanço e profundidade de penetração e a variável de ruído definida como o percentual da umidade presente na madeira. Foram aplicados a metodologia de superfície de resposta, juntamente com o projeto de parâmetro robusto, análise de componentes principais, a otimização do erro quadrático médio e o método da restrição normal normalizado. Foram discutidos os efeitos de cada variável de controle e de ruído e suas interações. As respostas analisadas foram de corrente elétrica, tensão, torque, potência mecânica, energia consumida, energia específica de corte e espessura média dos cavacos não deformados. A otimização multi-objetivo foi realizada pela ponderação entre os componentes principais identificados. Foram obtidos modelos de média e variância para cada resposta e para o componente principal ponderado. Foram elaboradas fronteiras de Pareto para todas as respostas. Ensaios de confirmação foram realizados com o objetivo de verificar a robustez das respostas. Foi concluído que o ponto ótimo global para o aplainamento que minimiza o efeito da umidade da madeira é obtido utilizando os parâmetros de 11,25 m×s-1 para velocidade de corte, 3,65 m×min-1 para velocidade de avanço e 0,95 mm para profundidade de penetração.


  • Mostrar Abstract
  • The planing is a machining process widely used for material removal and obtaining good quality of wood surfaces. This process is strongly present in industries in the furniture industry, where the planing is used to adjust product measurements by removing material and improving visual quality, thus increasing the value added of the final product. To evaluate this machining process, it is important to use experimental designs methods, robust modeling and multi-objective optimization to obtain the best possible results in different responses. The present work presents the robust multi-objective optimization of the planing of Pinus taeda wood. The experiments were conducted based on the central composite design combining variables of control of cutting speed, feed rate and depth of penetration and the noise variable defined as the percentage of moisture present in the wood. Response surface methodology was applied along with the robust parameter design, principal component analysis, the mean squared error optimization, and the normalized normal constraint. The effects of each control and noise variable and their interactions were discussed. The analyzed responses were of electric current, voltage, torque, mechanical power, energy consumed, specific cutting energy and mean thickness of the undeformed chips. The multi-objective optimization was performed by weighting the identified principal components. Mean and variance models were obtained for each response and for the weighted principal component. Pareto frontiers were constructed for all responses. Confirmation tests were performed with the purpose of verifying the robustness of the responses. It was concluded that the optimum global point for planing that minimizes the effect of wood moisture is obtained using the parameters of 11.25 m×s-1 for cutting speed, 3.65 m×min-1 for feed rate and 0.95 mm for depth of penetration.

3
  • VINÍCIUS DE CASTRO SEGHETO
  • ANÁLISE DA APLICAÇÃO DO DESIGN CENTRADO NO USUÁRIO PARA MELHORIAS DE USABILIDADE DE UMA INCUBADORA NEONATAL

  • Orientador : CARLOS HENRIQUE PEREIRA MELLO
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO SANCHES DA SILVA
  • CARLOS HENRIQUE PEREIRA MELLO
  • RENATA APARECIDA RIBEIRO CUSTODIO
  • STEFÂNIA LIMA OLIVEIRA METZKER
  • Data: 17/05/2019

  • Mostrar Resumo
  • Visando a competitividade do mercado atual as empresas buscam cada dia mais a satisfação de seus consumidores. Para isso, tornam-se necessárias técnicas que possam ser utilizadas no desenvolvimento de seus produtos focando, principalmente, nas necessidades de seus clientes. Dentre elas destaca-se o Design Centrado no Usuário (DCU), uma filosofia que se baseia nas necessidades e nos interesses dos usuários para garantir o sucesso do produto. No contexto do desenvolvimento de equipamentos médicos é ainda mais importante o envolvimento dos usuários para garantir o desenvolvimento de produtos eficazes e livres de erros. Porém, a abordagem do DCU não é muito utilizada na prática, sendo necessário o desenvolvimento de estudos práticos de sua aplicação que seja a base para novos estudos. Dessa forma, esta pesquisa teve como objetivo a aplicação da abordagem do DCU para melhoria da usabilidade de um equipamento eletromédico, mais especificamente, uma incubadora neonatal. O estudo pode ser caracterizado como uma pesquisa-ação, sendo possível identificar grande semelhança entre suas etapas e do DCU. Para condução da pesquisa foram feitos testes de usabilidade, aplicados os questionários QUIS e SUS, realizadas entrevistas semiestruturadas e observação direta. Com o envolvimento dos usuários, foi possível identificar pontos de melhoria para a incubadora e após a implementação das mudanças, foi possível obter a melhoria da usabilidade do novo conceito.


  • Mostrar Abstract
  • Aiming at the competitiveness of the current market, companies seek more and more the satisfaction of their consumers. For this, it becomes necessary techniques that can be used in the development of its products, focusing mainly on the needs of its customers. Among them is the User-Centered Design (UCD), a philosophy that is based on the needs and interests of the users to guarantee the success of the product. In the context of medical device development, it is even more important to engage users to ensure effective and error-free product development. However, the DCU approach is not widely used in practice, and it is necessary to develop practical studies of its application that are the basis for new studies. Thus, this research had as objective the application of the DCU approach to improve the usability of an electro medical equipment, more specifically, a neonatal incubator. The study can be characterized as an action research, being possible to identify great similarity between its stages and the DCU. To conduct the research were made usability tests, applied the QUIS and SUS questionnaires, conducted unstructured interviews and direct observation. Involving the users, it was possible to identify improvement points for the incubator and after the implementation of the changes, it was possible to obtain the usability improvement of the new concept.

4
  • YASMIN SILVA MARTINS
  • Sistemática para abordagem de riscos em Sistemas de Gestão da Qualidade baseados na norma ISO 9001:2015

  • Orientador : CARLOS EDUARDO SANCHES DA SILVA
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO SANCHES DA SILVA
  • CARLOS HENRIQUE PEREIRA MELLO
  • PAULO ALEXANDRE DA COSTA ARAUJO SAMPAIO
  • Data: 26/06/2019

  • Mostrar Resumo
  • Com a atualização da norma ISO 9001 para sua versão de 2015, um dos requisitos incorporados é a mentalidade de riscos (risk-based thinking). Tendo em vista que a norma não determina como esse requisito pode ser implementado pelas organizações e, dado o número de empresas certificadas e em processo de certificação, o conceito da mentalidade de riscos se torna um aspecto relevante, discutido por muitos autores. Por meio de uma revisão sistemática de literatura (RSL) foi possível identificar métodos e metodologias utilizados para abordar a mentalidade de riscos, levando à uma lacuna acerca de sua implementação. Assim, em busca de auxiliar tais organizações no processo de adequação/incorporação de seus Sistemas de Gestão da Qualidade, contribuindo também com os pesquisadores da área, esta pesquisa tem como principal objetivo, propor uma sistemática para abordagem de riscos, no contexto da norma ISO 9001:2015. Fundamentada pelos aspectos literários identificados na RSL, a sistemática reúne tais elementos num ciclo PDCA, associando os requisitos da NBR ISO 9001:2015 com as necessidades reais das organizações, permitindo que elas compreendam melhor a mentalidade de riscos requerida pela norma, ao mesmo tempo em que implementam as ações necessárias para tal abordagem. De forma a validar a sistemática proposta, foi selecionada uma empresa de pequeno porte, do ramo de sistemas eletrônicos, a qual se tornou objeto de estudo desta pesquisa. O método utilizado foi a pesquisa-ação, conduzida por meio de 05 ciclos sequenciais, compostos por atividades de planejar, agir, analisar e refletir. Dentre os principais resultados estão a implementação e adequação da sistemática, ao contexto do objeto de estudo e, a proposição de um guia prático para as organizações. Além disso, foram identificados como aspectos fundamentais para a incorporação da mentalidade de riscos: comprometimento da Alta Direção, envolvimento de todos os funcionários e, consequentemente, mudança na cultura organizacional.


  • Mostrar Abstract
  • With the update of the standard ISO 9001 in 2015, one of the established requirements is the risk-based thinking. Considering that the standard does not specify how this requirement can be implemented by organisations and due to the large number of companies already certified and in process of certification, the risk-based thinking becomes a significant subject, discussed by many authors. Through the conduction of a systematic literature review (SLR), it was possible to identify methods and methodologies used to approach the risk-based thinking, leading to a gap related to its implementation. In order to assist the organisations in the process of adequacy/implementation of their Quality Management Systems, contributing also to researchers in the area, the main objective of this research is to propose an integrated systematic for risks approach, in the context of ISO 9001: 2015. Based on the literary aspects identified in the SLR, the systematic combines these elements into a PDCA cycle, linking requirements of ISO 9001:2015 with the real needs of organisations, to assist them in the comprehension of the risk-based thinking, required by the standard, while implementing the necessary actions for its approach. To validate the proposed systematic, the author selected a small and medium-sized (SME) company from the electronic systems field, as the study object of this research. The method used was action research, conducted through 05 sequential cycles with activities of planning, acting, analysing and reflecting. Among this research main results are the implementation and adequacy of the systematic, to the study object context, and the proposal of a practical guide for organisations. In addition, fundamental aspects for the incorporation of the risk-based thinking were identified: Top Management commitment, involvement of all employees and, consequently, a change in the organisational culture.

5
  • TIAGO DELA - SÁVIA
  • Avaliação da Complexidade da Modelagem Híbrida em Processos de Manufatura Flow Shop

  • Orientador : ALEXANDRE FERREIRA DE PINHO
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • DAVID CUSTÓDIO DE SENA
  • FABIANO LEAL
  • Data: 28/06/2019

  • Mostrar Resumo
  • A simulação computacional é considerada uma das mais poderosas ferramentas de auxílio à tomada de decisões, podendo ser utilizada para analisar a operação de sistemas complexos, testando hipóteses e prevendo seu comportamento futuro. Uma das características da simulação é a capacidade de reduzir a complexidade dos sistemas reais através da sua representação nos modelos computacionais. Contudo, com o aumento da complexidade dos processos de manufatura em si, os modelos computacionais têm se tornado cada vez mais complexos, o que pode impactar na acessibilidade e funcionalidade destes. No contexto da simulação aplicada em gestão de operações existe uma discussão a respeito da utilização da simulação baseada em agentes (SBA), que começou a ganhar destaque a partir dos anos 2000, em contraponto (às vezes complementando uma a outra) com a simulação a eventos discretos (SED), que há mais de 40 anos vem sendo a prática mais comum de simulação dentro da pesquisa operacional. Este trabalho consiste em um estudo de caso com o objetivo de se comparar o impacto da simulação híbrida (que utiliza elementos da SBA em conjunto com a SED) na complexidade dos modelos de simulação, em processos de manufatura do tipo flow shop, desenvolvidos através do software Anylogic®. Um framework foi elaborado para possibilitar a mensuração da complexidade dos modelos, utilizado para comparar pares de modelos que consistem, cada par, em um modelo construído a partir da simulação a eventos discretos pura e outro através da simulação híbrida. Por esta análise foi possível perceber que os modelos construídos através da simulação híbrida apresentaram maior complexidade em três dos quatro casos analisados, sendo que a diferença de complexidade entre modelos variou em proporção segundo cada caso.


  • Mostrar Abstract
  • Computer simulation is considered one of the most powerful tools for decision making, as it can be used to analyze the operation of complex systems by testing hyphoteses and predicting its future behavior. One of simulation’s characteristics is its ability to reduce the complexity of real systems by representing them in the form of computer models. However, with the rise of manufacture processes themselves, computer models have become more and more complex with time, which can cause an impact on their accessibility and functionality. In the context of operations management there is a discussion regarding the applicability of agent based simulation (ABS), which started to gain popularity in the early 2000s, in contrast (and sometimes complementing each other) to discrete-event simulation (DES), which has been the most common practice in operations research for more than 40 years. This paper consists in a case study comparing the impact of hybrid simulation, called HS for short, (utilizing elements of “agents” in a discrete event model) on the complexity of simulation models, which represents flow shop manufacturing processes, developed in the simulation package Anylogic®. A framework was developed to measure the complexity of pairs of models, which consists, each pair, in a DES and a HS based model respectively, representing the same process by the two different approaches. The analysis showed that most models developed in hybrid simulation presented a bigger complexity, with the exception of one. The difference in complexity varied pair by pair, according to each case.

6
  • PAULA CARNEIRO MARTINS
  • Aplicação da simulação a eventos discretos em conjunto com a pesquisa-ação para um projeto de melhoria em uma empresa de base tecnológica

  • Orientador : JOSE ARNALDO BARRA MONTEVECHI
  • MEMBROS DA BANCA :
  • FABIANO LEAL
  • JOAO JOSE DE ASSIS RANGEL
  • JOSE ARNALDO BARRA MONTEVECHI
  • JOSE HAMILTON CHAVES GORGULHO JUNIOR
  • Data: 04/07/2019

  • Mostrar Resumo
  • O gerenciamento dos dados de entrada é considerado um fator de alta influência no sucesso de um projeto de simulação, uma vez que problemas com os dados de entrada são frequentemente as razões pelas quais um modelo não é validado. Entretanto, as fases de coleta e modelagem de dados de entrada demandam muito tempo para serem executadas. Nesse contexto, o objetivo acadêmico deste trabalho é analisar a influência de diferentes estratégias de modelagem de dados de entrada na validação operacional de um modelo de simulação a eventos discretos. Como objetivo prático a pesquisa vai desenvolver um modelo computacional que será utilizado como ferramenta de tomada de decisão para o planejamento semanal da empresa objeto de estudo. Também se destaca o objetivo específico de analisar a aplicabilidade das técnicas de modelagem de processos BPMN e IDEF-SIM, utilizadas em conjunto, em um projeto de simulação. Nesta pesquisa serão utilizados os métodos pesquisa-ação e modelagem e simulação de forma conjunta. O objeto de estudo é o setor de reparos de uma empresa de base tecnológica. Foram realizados 3 ciclos de pesquisa-ação, sendo que cada um dos ciclos tinha como objetivo a finalização de uma das etapas do projeto de simulação: concepção, implementação e análise. Nesta pesquisa concluiu-se que não existem diferenças significativas entre os modelos que foram simulados com os tempos das atividades nas diferentes formas de modelagem dos dados de entrada, uma vez que ambos os modelos foram validados com a situação real. Na etapa de concepção a utilização do BPMN foi mais vantajosa, uma vez que a técnica permite a visualização das relações entre setores. Já na etapa de implementação, a utilização do IDEF-SIM facilitou a tradução da situação modelada para o software de simulação. E na etapa de análise a utilização combinada das duas técnicas tornou mais assertiva a proposição de cenários. A utilização da pesquisa-ação combinada com a modelagem e simulação favoreceu o desempenho do projeto.


  • Mostrar Abstract
  • Incoming data management is considered a highly influential factor in the success of a simulation project since problems with input data are often the reasons why a model is not validated. However, the data collection and modeling phases require much time to execute. In this context, the academic objective of this work is to analyze the influence of different strategies of input data modeling on the operational validation of a simulation model to discrete events. As a practical objective, the research will develop a computational model that will be used as a decision-making tool for the weekly planning of the company object of study. It also highlights the specific objective of analyzing the applicability of BPMN and IDEF-SIM process modeling techniques, used together, in a simulation project. In this research will be used the research-action and modeling and simulation methods together. The object of study is the repair sector of a technology-based company. Three cycles of action research were carried out, with each one of them aimed at completing one of the phases of the simulation project: conception, implementation, and analysis. In this study, it was concluded that there are no significant differences between the models that were simulated with the times of the activities in the different forms of input data modeling since both models were validated with the real situation. In the conception phase, the use of BPMN was more advantageous since the technique allows the visualization of the relations between sectors. Already in the implementation phase, the use of IDEF-SIM facilitated the translation of the modeled situation to the simulation software. And in the analysis phase, the combined use of the two techniques made the proposition of scenarios more assertive. The use of action research combined with modeling and simulation favored project performance.

7
  • ANA CLARA BARBIERI BORTOT
  • Estudo da valorização de áreas urbanas no entorno de Instituições de Ensino Superior: Um modelo multicritério de apoio à decisão

  • Orientador : JOSIANE PALMA LIMA
  • MEMBROS DA BANCA :
  • DEIVIDI DA SILVA PEREIRA
  • EDSON DE OLIVEIRA PAMPLONA
  • JOSIANE PALMA LIMA
  • Data: 08/07/2019

  • Mostrar Resumo
  • Polos Geradores de Viagens (PGVs) são empreendimentos que apresentam impactos de curto e longo prazo. A grande maioria dos estudos encontrados na literatura está ligada aos impactos de curto prazo, que envolve estimar as taxas de geração de viagens a fim de contribuir para a análise de demanda por transportes. Os impactos de longo prazo, entretanto, possuem um espectro mais amplo vinculados as questões sociais, históricas, culturais e ambientais, como também trazem questões relacionadas à Economia Urbana. Ao analisar PGVs pela ótica da Economia Urbana, é possível perceber uma relação mais antiga que o próprio conceito de PGV, que é a relação entre uso do solo e transportes que aborda, ainda, o conceito de valor do solo urbano. Esse valor é maior ou menor de acordo com a acessibilidade aos centros urbanos. Porém, atualmente, as cidades apresentam polos de valorização, isto é, localidades atrativas além de seu centro original, que podem, por vezes, estar vinculadas com a presença de PGVs (shopping centers e hipermercados, instituições de ensino, etc.). O estudo do processo de valorização do solo urbano é um problema complexo que, além da questão espacial e de impactos derivados de PGVs, pode envolver um conjunto de variáveis de infraestrutura urbana, ambiente construído e mobilidade. Com isto, o presente trabalho tem por objetivo principal estudar o potencial de valorização de áreas no entorno de Instituições de Ensino Superior (IES), utilizando-se de análise multicritério espacial. Entre os objetivos específicos estão: (i) estudar fatores relacionados ao valor do solo urbano; (ii) estruturar o modelo de avaliação e determinar o grau de importância com auxílio do Processo Hierárquico Analítico (AHP); e (iii) realizar um estudo de caso aplicando o modelo em áreas próximas de Instituições de Ensino Superior localizadas em Itajubá-MG. Foram identificadas vinte (20) variáveis as quais foram analisadas espacialmente e depois agrupadas de acordo com o modelo. Através do método utilizado foi possível apresentar os resultados de forma bastante organizada. Quando se comparam os dois grandes grupos de critérios, Aspectos Físicos e Aspectos Socioeconômicos do ambiente construído, pode-se concluir que a análise espacial valida o modelo, onde os Aspectos físicos relacionados com Infraestrutura básica, Localização e Acessibilidade foram mais importantes para o potencial de valorização do entorno das IES. Os resultados do trabalho apontam subsídios para a elaboração de políticas públicas de planejamento urbano e transportes, uma vez que mostram os principais fatores que podem impactar na valorização do solo, bem como identificam áreas com potencial de valorização no entorno de PGVs.


  • Mostrar Abstract
  • Large traffic generators (LTGs) are institutions that have short- and long- term impacts. The great majority of the studies found in the literature are related to the short-term impacts, which involves estimating the trip generation rates in order to contribute to the analysis of transport demand. Long-term impacts, however, have a broader spectrum linked to social, historical, cultural and environmental issues, as well as issues related to urban economics. When analyzing LTGs from the perspective of the Urban Economy, it is possible to perceive a relation older than the concept of LTG itself, which is the relationship between land use and transport, which also addresses the concept of urban land value. This value is higher or lower according to accessibility to urban centers. However, today, cities have attractive poles, that is, attractive localities beyond their original center, which can sometimes be linked to the presence of LTGs (shopping centers and hypermarkets, educational institutions, etc.). The study of the urban land evaluation process is a complex problem that, in addition to the spatial issue and impacts derived from LTGs, may involve a set of variables of urban infrastructure, built environment and mobility. With this, the main objective of this work is to study the potential of valuation of areas around Tertiary Education Institutions (TEIs), using spatial multicriteria analysis. Among the specific objectives are: (i) study factors related to the value of urban land; (ii) structure the evaluation model and determine the degree of importance with the help of the Analytic Hierarchical Process (AHP); and (iii) to carry out a case study applying the model in areas close to Tertiary Education Institutions located in Itajubá-MG. Twenty (20) variables were identified which were spatially analyzed and then grouped according to the model. Through the method used it was possible to present the results in a very organized way. When comparing the two large groups of criteria, Physical Aspects and Socioeconomic Aspects of the built environment, it can be concluded that the spatial analysis validates the model, where the Physical Aspects related to Basic infrastructure, Location and Accessibility were more important for the potential of enhancement of the TEI environment. The results of the study point to subsidies for the elaboration of public policies for urban planning and transportation, since they show the main factors that can impact on the valorization of land, as well as identify areas with potential of valorization in the surroundings of LTGs.

8
  • LUCAS CHILELLI DA SILVA
  • METODOLOGIA DE COVARIÂNCIA GINI APLICADA A ESTIMAÇÃO DE PARÂMETROS EM MODELOS AUTO REGRESSIVOS COM CAUDAIS LONGOS

  • Orientador : RAFAEL CORADI LEME
  • MEMBROS DA BANCA :
  • ANTONIO FERNANDO BRANCO COSTA
  • FERNANDO LUIZ CYRINO OLIVEIRA
  • RAFAEL CORADI LEME
  • Data: 19/07/2019

  • Mostrar Resumo
  • A metodologia Gini foi apresentada há mais de um século pelo estatístico
    italiano Corrado Gini, durante quase um século, ela foi aplicada para medir a desigualdade
    na distribuição de renda. Há cerca de 3 décadas, trabalhos dissertando
    sobre sua utilização em outras áreas e sobre sua capacidade na estimação de parâmetros
    e na modelagem de séries que apresentam distribuições as quais fogem da
    normalidade começaram a ser publicados. Com base nestes trabalhos novos métodos
    começaram a ser apresentados e vêm ganhando maturidade ao longo do tempo. A
    intenção deste trabalho foi desenvolver um modelo capaz de aplicar os métodos presentes
    na literatura pertinente para estimar os parâmetros de modelos para séries
    Auto Regressivas cujas distribuições adjacentes fogem da normalidade apresentam
    características de caudas longas, com grande presença de valores extremos. Para
    avaliar o desempenho destes modelos embasados nos métodos de Gini, foram também
    estimados modelos Auto Regressivos pela métodologia clássica, fundamentados
    pelos Mínimos Quadrados e critérios de seleção de melhor modelo pelo metodo de
    Critério de Seleção de Akaike. Os resultados mostraram que o emprego da metodologia
    Gini na modelagem de tais séries apresenta grandes vantagens e superioridade
    na previsão da série, permitindo estimar modelos por meio das correlações de Gini
    e que fornecem melhores previsões tanto em modelos de ordem igual a um ou dois,
    quanto em modelos com ordem superior à dois.


  • Mostrar Abstract
  • The Gini Methodology was present more than one century ago by the Italian
    Statistician Corrado Gini, for almost 80 years it was used to measure income distribution
    and inequality. Around 3 decades ago, some researchers published works
    about the use of the Gini in other areas of study and its capacity on parameters
    estimation and modelling series with distributions departing from normality. Based
    on these works, new methods started to arise e have become more mature over time.
    The aim of this work is to develop a model capable of applying the methods found
    on the literature to estimate the parameters of Auto Regressive models with heavytailed
    underlying distributions and extreme values. To evaluate the performance of
    these models the results were compared to models created using the classical Auto
    Regressive estimation, through the Ordinary Least Squares Method and the Akaike
    model selection criteria. The results showed that the Gini on time series modelling
    presents great advantages and superiority on the forecast, through its correlations
    and other metrics is possible to conclude the Gini was a good estimator on models
    with low order, such as one or two, but also on model with order higher than two.

9
  • CARLOS HENRIQUE DOS SANTOS
  • UTILIZAÇÃO DA SIMULAÇÃO PARA TOMADA DE DECISÕES NO CONTEXTO DA INDÚSTRIA 4.0: UMA APLICAÇÃO INSERIDA NO CONCEITO DE GÊMEO DIGITAL

  • Orientador : FABIANO LEAL
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • BRENO GONTIJO TAVARES
  • FABIANO LEAL
  • JOSE ANTONIO DE QUEIROZ
  • Data: 30/07/2019

  • Mostrar Resumo
  • O advento de novas tecnologias traz impactos significativos na forma com que sistemas e processos são geridos. Neste caso, destaca-se o cenário da Indústria 4.0, termo que se refere a um novo conceito de indústria, o qual prega processos e sistemas cada vez mais automatizados, integrados e digitalizados em prol de maior eficiência. Ainda neste contexto, notam-se também grandes mudanças quanto à utilização de diversas ferramentas e conceitos já conhecidos, os quais ganham novas aplicações e escopos de atuação, frente a processos cada vez mais complexos e um mercado cada dia mais competitivo. Tendo em vista tal cenário, destaca-se a possibilidade de utilização da simulação como Gêmeo Digital, isto é, uma cópia virtual e inteligente capaz de espelhar processos reais dentro do conceito de Sistemas Ciber-físicos, nome dado a um dos pilares da Indústria 4.0. Dessa forma, o presente trabalho tem como objetivo a análise quanto à aplicabilidade da simulação como Gêmeo Digital em um processo real com baixo grau de automatização, cenário desafiador quanto à aderência aos preceitos da Indústria 4.0. O processo escolhido como objeto de estudo corresponde a uma atividade de abastecimento de materiais em postos kanbans dispostos nas linhas de produção de uma indústria aeronáutica. A partir do método de Modelagem e Simulação, foi possível a concepção, construção e implementação de um Gêmeo Digital por meio da simulação. Neste caso, avaliou-se as vantagens e limitações, bem como o papel da simulação como ferramenta facilitadora quanto à implementação de conceitos da Indústria 4.0 em processos com pouca ou nenhuma preparação. No que se refere aos resultados da pesquisa, obteve-se um Gêmeo Digital que, por meio da Simulação a Eventos Discretos (SED) e de uma interface intermediária, extrai os dados advindos do processo, simula as possíveis rotas de abastecimento e fornece as opções de rota mais eficientes. Nota-se que o Gêmeo Digital tornou o processo, objeto deste estudo, um sistema inteligente e conectado com os demais sistemas da operação, fato este que está de acordo com os preceitos da Indústria 4.0. Além disso, na busca por maior eficiência, nota-se também que tal aplicação vai ao encontro dos princípios da filosofia enxuta, uma vez que foi possível reduzir movimentações e transportes desnecessários na ordem de 20%. Finalmente, conclui-se que a utilização da simulação como Gêmeo Digital em um processo real com baixo grau de automatização se mostrou possível a partir da presente pesquisa, fato este que ilustra a versatilidade da ferramenta frente aos desafios impostos pela evolução da indústria.


  • Mostrar Abstract
  • The advent of new technologies brings significant impacts on the way that systems and processes are managed. In this case, we highlight the scenario of Industry 4.0, a term that refers to a new concept of industry, which preaches processes and systems increasingly automated, integrated and digitized for a greater efficiency. Also in this context, there are great changes regarding the use of several tools and concepts already known, which has been gaining new applications and scopes of action, in front of increasingly complex processes and a more competitive market. Given this scenario, it is possible to use the simulation as Digital Twin, concept which refers to a virtual and intelligent copy capable to reflect real processes inside the context of Cyber-physical Systems, one of the pillars of Industry 4.0. Thus, the present work aims to analyze the applicability of the Digital Twin simulation in a real process with a low degree of automation, which is a challenging scenario regarding adherence to the precepts of Industry 4.0. The process chosen as the object of study corresponds to an activity of supplying materials at kanban stations arranged on the production lines of an aeronautical industry. Applying the Modeling and Simulation method, it was possible to design, construct and implement a Digital Twin through the simulation. In this case, we evaluated the advantages, limitations, and the role of the simulation as a tool to facilitate the implementation of Industry 4.0 concepts in processes with little or no preparation. About the results of the research, a Digital Twin was obtained through Discrete Event Simulation (DES) and an intermediate interface, which extracts the data coming from the process, simulates the possible supply routes and provides the most efficient route options. It is noted that the Digital Twin made the process, object of this study, an intelligent system and connected with the other systems of the operation, a fact that is in accordance with the precepts of Industry 4.0. In addition, aiming for greater efficiency, it is also noted that such application matches the Lean Philosophy, since it was possible to reduce unnecessary movements and transports by the order of 20%. Finally, it is concluded that the use of the Digital Twin simulation in a real process with a low degree of automation was shown possible from the present research, a fact that illustrates the versatility of the tool in front of the challenges imposed by the evolution of the industry.

10
  • Lucas Catalani Gabriel
  • COMPETÊNCIAS PARA OS GERENTES DE PROJETOS DA CONSTRUÇÃO CIVIL

  • Orientador : CARLOS EDUARDO SANCHES DA SILVA
  • MEMBROS DA BANCA :
  • CARLOS AUGUSTO DE SOUZA OLIVEIRA
  • CARLOS EDUARDO SANCHES DA SILVA
  • RICARDO ANDRE FIOROTTI PEIXOTO
  • Data: 15/08/2019

  • Mostrar Resumo
  • O Gerente de Projetos (GP) lidera as equipes responsáveis na etapa de execução do projeto e tem por responsabilidade garantir que todos os objetivos sejam alcançados. O presente trabalho visou contribuir para a teoria, identificando quais as competências demandadas para os gerentes de projetos brasileiros pela construção civil. A primeira etapa da pesquisa consistiu em uma revisão sistemática da literatura. As bases de dados pesquisadas foram a Web of Science® e Scopus®. A segunda etapa consistiu na elaboração de um questionário utilizando-se os principais conceitos encontrados na teoria para entrevistar o público alvo. Baseando-se na revisão da literatura, os principais atributos de sucesso de projetos de empresas de construção civil são: entrega dentro do cronograma; entrega dentro do orçamento; e qualidade final dentro dos parâmetros. As principais competências dos gerentes de projetos foram classificadas por meio de 3 fatores e 27 atributos. Os fatores encontrados foram: conhecimento técnico teórico; desempenho prático; e habilidades interpessoais. Após o teste piloto, o questionário foi distribuído, coletando 422 respostas das quais 390 são válidas. Após análise estatística, os resultados são de que as competências mais importantes para os GPs na construção civil são: custos; gerenciamento de riscos; gerenciamento do cronograma do projeto; gerenciamento do escopo; ética; e comunicação. Não existe uma diferença de opinião entre os grupos de GP com menos e mais tempo de projetos, com exceção para experiência no gerenciamento de projetos e gerenciamento de conflitos, em que os gerentes com menos experiência consideraram ambos atributos menos relevantes do que os GPs experientes.


  • Mostrar Abstract
  • The Project Manager (GP) leads the responsible teams during the project implementation stage and is responsible for ensuring the achievement of all project goals PMBOK (2017). The present work aimed to bring a contribution to the theory by identifying the competencies demanded to the Brazilian project managers by the civil construction. The first stage of the research consisted of a systematic review of the literature whose databases were the Web of Science® and Scopus®. The second stage was constituted by a questionnaire’s elaboration according to the literature’s main concepts in order to interview the target audience. Based on the literature review, the principal success attributes of civil construction projects are "Delivery Within the Schedule", "Delivery Within the Budget" and "Final Quality Within the Parameters". The main competencies of the project managers were classified by means of 3 factors and 27 attributes retrieved from the theory. Therefore, the following factors were detected: theoretical technical knowledge; practical performance; and interpersonal skills. After the pilot test, the questionnaire was distributed, thereby collecting 422 responses with a total of 390 valid answers. The results demonstrated that the most relevant competencies for project managers in civil construction are costs, risk management, project timeline management, scope management, ethics, and communication. The analysis by means of the Attribute relevance level did not identify strong agreements between the groups of respondents and the standard. Although the ANOVA test revealed a similar opinion between the groups, lower-skilled managers, contrarily to experienced managers, considered both attributes "Experience in Project Management" and "Conflict Management" as less relevant.

11
  • ESTEVÃO LUIZ ROMÃO
  • Estudo Comparativo entre Redes Neurais Artificiais e Markov-Switching Model na modelagem de séries temporais não lineares

  • Orientador : PEDRO PAULO BALESTRASSI
  • MEMBROS DA BANCA :
  • ANTONIO FERNANDO BRANCO COSTA
  • MARIANGELA DE OLIVEIRA ABANS
  • PEDRO PAULO BALESTRASSI
  • Data: 17/09/2019

  • Mostrar Resumo
  • Séries temporais não lineares são amplamente encontradas em situações reais envolvendo diferente cenários tais como crescimento econômico, consumo de energia e mudanças climáticas. Elas são, em muitos casos, não estacionárias e o seu comportamento pode variar ao longo do tempo, o que tem incentivado o uso de técnicas capazes de capturar essas características. Esse trabalho objetiva apresentar um estudo comparativo entre a precisão das Redes Neurais Artificiais (RNA) e o método denominado Markov-Switching Model (MSM) em relação à modelagem de séries temporais não lineares e não estacionárias. Para tal foi desenvolvida e aplicada uma metodologia de apoio à decisão baseada na técnica de Design of Experiments (DOE) para conduzir as análises e auxiliar na elaboração de um banco de dados sintético, representando contextos distintos, o que permitiu generalizar as comparações. Foram considerados os seguintes fatores: tamanho do conjunto de dados, erro aleatório associado a cada série temporal e a correlação existente entre elas. Após modelar cada série usando RNA e MSM, calculou-se o valor do Erro Percentual Absoluto Médio (MAPE) e desenvolveu-se um teste t-pareado que permitiu concluir que o desempenho das RNA é estatisticamente melhor que o do método MSM independente de qual cenário considerado. Além disso, foi desenvolvido um estudo de caso cujo objetivo foi modelar o valor de exportação do Brasil durante os 10 últimos anos como uma função das seguintes séries temporais: taxa de câmbio, importação e PIB, no mesmo período considerado, além da própria série de exportação deslocada de uma unidade no tempo. Assim, pôde-se validar que, de fato, as RNA possuem uma melhor performance em problemas envolvendo séries temporais não lineares e não estacionárias que o MSM.


  • Mostrar Abstract
  • Nonlinear time series are widely encountered in real situations involving different scenarios such as economic growth, energy consumption, and climate changes. These time series are usually nonstationary and their behavior can change over time leading us to use sophisticated techniques that are able to capture these characteristics. This work aims to present a comparative study between Artificial Neural Networks (ANN) and the Markov-Switching Model (MSM) performances in modeling nonstationary nonlinear time series. Then, it was developed and it was applied a decision support methodology based on Design of the Experiments (DOE) in order to guide the analysis and the creation of a synthetic dataset, representing distinct contexts, which allows to generalize the comparisons. The design considered the following factors: dataset sizes, random error associated to each time series, and the correlations between them. After modeling each one using ANN and MSM we calculated the Mean Absolute Percentage Error (MAPE) and developed a paired-t test, and this led us to conclude that the performance of ANN is statistically better than MSM’s no matter the scenario considered. Furthermore, this study presents a case which aims to model Brazilian exportation during the last 10 years as a function of three time series: exchange rate, importation, and gross domestic product at the same period, besides the exportation series, but delayed one unit in time. Thus, we could validate that ANN has a better performance in problems involving nonstationary nonlinear time series than MSM.

12
  • MARIO HENRIQUE SOMBRA BEUTTENMULLER VILELA
  • INTEGRAÇÃO DOS MÉTODOS: MULTICRITÉRIO PARA TOMADA DE DECISÃO E SISTEMA DE INFORMAÇÃO GEOGRÁFICA PARA SELEÇÃO DE LOCAIS

  • Orientador : CARLOS EDUARDO SANCHES DA SILVA
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO SANCHES DA SILVA
  • CARLOS HENRIQUE PEREIRA MELLO
  • JOAO BATISTA TURRIONI
  • Data: 23/09/2019

  • Mostrar Resumo
  • Com o aumento da complexidade dos problemas de seleção de locais, algumas ferramentas como a Métodos De Tomada De Decisão Multicritério e a Sistemas de Informações Geográficas passaram a ser um recurso para a estruturação, avaliação e priorização de alternativas viáveis. O tema tem sido aplicado nas mais diversas áreas e, devido a sua ampla gama de aplicações, vê-se a necessidade de mapear as atuais publicações, catalogando as áreas de atuação, métodos mais usados, países e áreas mais pesquisadas. Esse mapeamento, por meio da Revisão Sistemática de Literatura, identificou as áreas mais promissoras e de maior tendência, auxiliando estudos futuros. Das análises realizadas constatou-se o número de publicações a respeito do tema entre 1994 e 2018; os principais autores e artigos; periódicos e nacionalidade dos autores; as principais áreas de aplicação do tema, divididas em grupos, assim como seus principais subgrupos; softwares mais utilizados; e por fim, principais tendências para trabalhos futuros. Dentre as conclusões apresentadas, destaca-se: Os periódicos e autores que mais publicam tem como foco as áreas de Locais de Tratamento e Disposição de Resíduos, Centrais de Distribuição e Geração de Energia, Locais para agricultura, e Instalações Urbanas e de Infraestrutura; a tendência no aumento do número de publicações ocorre globalmente; a tendência do desenvolvimento do tema para os próximos anos será focada em atividades que tem impacto econômico, ecológico, ambiental e social, com aprimoramento e extensão dos modelos já existentes na literatura. A revisão bibliográfica culminou em uma proposta para a utilização integrada do GIS e do MCDA composta por 10 etapas, visando a simplificação e a padronização as metodologias existentes.


  • Mostrar Abstract
  • Tools such as Multi-Criteria Decision Analysis and the Geographical Information System have become resource in structuring, evaluating and delivering viable alternatives with the increasing complexity of site selection problems. The theme has been applied in the most diverse areas and, due to its high versatility, it is necessary to map the current publications, catalog its areas of applications, most used methods, most researched countries, and subject areas. This mapping, through the Systematic Literature Review, identified the areas of greatest potential, helping future studies. The number of publications on the subject was verified between 1994 and 2018. From the analyses carried out, we defined the main authors and articles; main countries, journals, and nationality of authors; the main application groups of the themes, as well as their subgroups; most commonly used software; and finally, main trends for future work. Among the conclusions presented, the following stand out: The main journals and authors have the main focus in the areas of Waste Treatment and Disposal Sites, Energy Distribution and Generation Plants, Farming Sites, and Urban Facilities and Structures Sites; the tendency in the increase of the number of publications has a global scope; the trend of developing the theme for the next few years will be focused on activities that have economic, ecological, environmental and social impact, with improvement and extension of existing models in the literature. The literature review culminated in a proposal for the integrated use of GIS and the MCDA composed of 10 steps, aiming to simplify and standardize the existing methodologies.

13
  • ANNA CAROLINA DE SIQUEIRA FERREIRA
  • Aspectos Comportamentais Resultantes dos Sistemas de Desempenho dos Programas de Pós-Graduação

  • Orientador : CARLOS EDUARDO SANCHES DA SILVA
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO SANCHES DA SILVA
  • DANILO HENRIQUE SPADOTI
  • EDGAR NOBUO MAMIYA
  • Data: 25/11/2019

  • Mostrar Resumo
  • A Medição de Desempenho (MD) tem sido implementada em diversos contextos com fins de
    melhoria contínua e manutenção da competitividade, tanto no setor privado quanto na gestão
    pública. Por meio de indicadores-chave de desempenho (KPI), a gestão baseada na MD possui
    diferentes efeitos; muitos deles, indesejáveis. Embora seja um tema relativamente recente e,
    dessa forma, pouco aprofundado, compreender os impactos causados pelo uso de indicadores
    de desempenho é de suma importância para aprimorar os processos de avaliação de
    desempenho, na tentativa de minimizar seus efeitos negativos e potencializar os positivos.
    Assim, o objetivo deste trabalho é analisar os impactos comportamentais resultantes do uso de
    Sistemas de Medição de Desempenho (SMD) em Programas de Pós-Graduação stricto sensu
    da Universidade Federal de Itajubá – UNIFEI. Por meio de uma pesquisa aplicada de
    abordagem qualitativa, utilizando o método de estudo de caso, foram selecionados 48
    docentes permanentes de todos os PPG da UNIFEI para participarem da pesquisa. A seleção
    dos participantes foi realizada em duas etapas: aleatoriamente e, em seguida, por amostragem
    intencional. As técnicas utilizadas para a coleta de dados foram entrevista semiestruturada,
    observação participante e pesquisa documental. O roteiro da entrevista foi desenvolvido com
    base nos fatores comportamentais resultantes do SMD: comunicação, percepção, cooperação,
    motivação e controle. Cada um desses fatores foi vinculado e analisado com relação aos SMD
    da CAPES, da UNIFEI e dos PPG. Quanto ao tratamento dos dados, foram usadas técnicas de
    análises estatísticas: boxplot; Alfa de Cronbach; perfil dos participantes; análise de cluster; e
    Teste de Hipóteses. Como resultados, de modo geral, todos os SMD analisados são, de
    alguma forma, deficientes na promoção de cooperação e motivação, e positivos na promoção
    de comunicação, percepção e controle. Dos SMD analisados, o da UNIFEI, que é o mais
    recente, é o que apresenta maior deficiência em promover os aspectos comportamentais.


  • Mostrar Abstract
  • Performance Measurement has been implemented in a variety of contexts for the purpose of
    continuous improvement and competitiveness, in the private sector as well as in public
    management. Through KPI (key performance indicators), PM-based management has
    different effects, including many unintended ones. Although this is a relatively recent and not
    very deep topic, understanding the impacts caused by the KPI use is very relevant to improve
    performance measurement processes, aiming to minimize their negative effects and enhance
    the positive ones. Therefore, this paper aims to analyze the behavioral effects caused by the
    use of Performance Measurement Systems (PMS) in stricto sensu Post Graduate Programs of
    a Public Higher Education Institution. In this case, the chosen institution was the Federal
    University of Itajuba (UNIFEI) and its Post Graduate Programs (PGP). This study is an
    applied research of qualitative approach, which used the case study method. The participants
    were selected in two steps: randomly at first and then by intentional sampling. In short, 48
    permanent members from all UNIFEI PGP were selected to participate of this study, which
    used semi-structured interviews, participant observation and documentary research as
    techniques for data collection. The interview script was developed based on five behavioral
    factors from the literature: communication, perception, cooperation, motivation and control.
    Each of these factors was analyzed for CAPES, UNIFEI and PGP Performance Measurement
    System. For data analysis, statistical techniques were used such as: boxplot; Cronbach's alpha;
    participants' profile; correlation and cluster analysis; and Mann-Whitney Hypothesis Test. As
    results, all analyzed PMS somehow fail to induce cooperation and motivation among people,
    but they are positive in promoting communication and control. Among the 3 systems, the
    UNIFEI’s PMS is the most recent and the most criticized about its effects on teachers
    behavior.

14
  • LUCAS VIEITES SILVA
  • USO DA MANUTENÇÃO CENTRADA EM CONFIABILIDADE EM INDÚSTRIAS DE ASAS ROTATIVAS

  • Orientador : CARLOS HENRIQUE PEREIRA MELLO
  • MEMBROS DA BANCA :
  • AGNELO MAROTTA CASSULA
  • ALEXANDRE FERREIRA DE PINHO
  • CARLOS HENRIQUE PEREIRA MELLO
  • Data: 13/12/2019

  • Mostrar Resumo
  • Com a necessidade de ampliar o portfólio de opções de contratos de manutenção
    de aeronaves, uma oportunidade vislumbrada por empresas deste seguimento está ligada
    a enriquecer seus processos de reparo com o uso mais evidente de ferramentas da
    qualidade. Tais oportunidades abrem o caminho para validação do uso da manutenção
    centrada em confiabilidade (MCC) em oficinas especializadas em realizar inspeções de
    rotina em aeronaves de asas rotativas. Sendo assim, o uso da MCC passa a ser um
    diferencial qualitativo no momento de oferecer um contrato de manutenção por hora de voo,
    utilizando uma combinação de atividades que analisam todo o cenário que envolve um
    processo de manutenção e reparo, estudando o comportamento dos componentes críticos
    e auxiliando na tomada de decisão referente a qual modo de manutenção deve ser aplicado,
    corretivo, preventivo ou preditivo. As aplicações das atividades essenciais da MCC auxiliam
    a maximizar a vida útil dos componentes, que neste caso está direcionado a uma aeronave
    de asas rotativas. Com o estreitamento deste monitoramento dos componentes é possível
    redigir relatórios confiáveis sobre quais discrepâncias um determinado modelo tende a
    apresentar de acordo com as condições e quantidade de horas voadas. Essas análises, em
    conjunto com ferramentas de gerenciamento de suprimentos, auxiliam no processo de
    inspeção programada sendo possível prever quais materiais passarão por processos de
    substituição, reparo ou certificação. O uso da MCC no ambiente aeronáutico proporciona
    credibilidade na visão do cliente proporcionada a maior disponibilidade de frota aero
    navegável com a redução do tempo de inspeção. Mapear todo o processo de manutenção,
    definindo e classificando os principais componentes a serem utilizados e sequenciar as
    ordens de serviço são pontos abordados neste estudo que visa certificar e viabilizar o uso
    das atividades expostas da literatura relacionadas a MCC.


  • Mostrar Abstract
  • With the need to expand the portfolio of options for aircraft maintenance contracts,
    an opportunity envisioned by companies of this follow-up is linked to enriching their repair
    processes with the most obvious use of quality tools. Such opportunities open the way for
    validation of the use of reliability centered maintenance (RCM) in workshops that specialize
    in routine inspections of rotary-wing aircraft. Thus, the use of the RCM becomes a qualitative
    differential in the moment of offering a maintenance contract per hour of flight, using a
    combination of activities that analyze the whole scenario that involves a process of
    maintenance and repair, studying the behavior of the components critical and assisting in
    decision making regarding which maintenance mode should be applied, corrective,
    preventive or predictive. The applications of RCM's core activities help maximize component
    life, which in this case is directed to a rotary wing aircraft. With the narrowing of this
    component monitoring it is possible to write reliable reports on which discrepancies a
    particular model tends to present according to the conditions and amount of hours flown.
    These analyzes, in conjunction with supply management tools, aid in the scheduled
    inspection process being possible to predict which materials will undergo replacement,
    repair or certification processes. The use of the RCM in the aeronautical environment
    provides credibility in the view of the client, providing the greater availability of airfreight fleet
    with the reduction of inspection time. Mapping the entire maintenance process, defining and
    classifying the main components to be used and sequencing the work orders are points
    addressed in this study that seek to certify and make feasible the use of the exposed
    activities of the literature related to RCM.

Teses
1
  • JOSENILDO BRITO DE OLIVEIRA
  • GESTÃO DE RISCOS LOGÍSTICOS EM CADEIAS DE SUPRIMENTOS: OTIMIZAÇÃO VIA METAMODELO DE SIMULAÇÃO

  • Orientador : RENATO DA SILVA LIMA
  • MEMBROS DA BANCA :
  • ENZO MOROSINI FRAZZON
  • FABIANO LEAL
  • FABIO FAVARETTO
  • FERNANDO AUGUSTO SILVA MARINS
  • JOSE ARNALDO BARRA MONTEVECHI
  • RENATO DA SILVA LIMA
  • Data: 29/03/2019

  • Mostrar Resumo
  • Alguns tipos de riscos podem causar danos às cadeias de suprimentos, provocando rupturas nos fluxos de materiais e produtos acabados. Riscos logísticos se relacionam às falhas nos processos de transporte, armazenagem, produção e vendas. A gestão adequada desses riscos é fator crítico para a integração dos fluxos sob a responsabilidade da logística e operações, cujas atividades são frequentemente realizadas por provedores de serviços logísticos. Entretanto, observou-se a falta de procedimentos sistemáticos focados na gestão de riscos logísticos que melhor aproveitasse as vantagens da integração entre métodos de simulação e otimização. A pesquisa foi realizada em uma cadeia de suprimentos do segmento automotivo português, a partir de dados secundários disponíveis na literatura. Os problemas desse estudo foram: (a) quais os impactos dos riscos logísticos sobre o desempenho dessa cadeia? (b) sob a influência desses riscos, que ajustes no sistema logístico poderiam melhorar a resposta do arranjo aos impactos? Para solucionar tais questões, definiu-se como objetivo, mitigar os efeitos desses riscos a partir de um metamodelo de simulação para a otimização de parâmetros críticos. As atividades logísticas desempenhadas na cadeia de suprimentos foram escolhidas como objeto de estudo. Essa pesquisa foi classificada como aplicada, quantitativa e exploratória normativa, considerando, respectivamente, a sua natureza, a abordagem do problema e os objetivos. A simulação a eventos discretos, elaborada no ambiente Arena®, foi utilizada como método de pesquisa. A otimização Black Box, realizada através do software OptQuest®, foi empregada para projetar os parâmetros adequados para o sistema logístico. Um metamodelo de regressão baseado no método OLS foi desenvolvido a partir da projeção e implantação de experimentos, servindo para integrar as saídas do modelo de simulação às entradas do modelo de otimização. Inúmeras técnicas de verificação e validação foram empregadas para calibrar o modelo de otimização via simulação, tais como: implantação modular e análise de sensibilidade. Uma sistemática metodológica fundamentada na abordagem DMAIC foi elaborada para relacionar as etapas de gestão dos riscos logísticos e conduzir aos resultados dessa pesquisa, incluindo a identificação (Definir), avaliação (Mensuração), gestão (Melhoria e análise) e monitoramento (Controle) do risco logístico. Um evento de risco logístico foi inserido no modelo com o fim de reproduzir rupturas no fluxo físico de distribuição e permitir a avaliação dos seus impactos sobre o desempenho da cadeia. Os impactos foram medidos por meio do custo logístico total, do risco de ruptura e da taxa de nível de serviço. Estratégias de mitigação do risco logístico de transporte, como redundância e flexibilidade, foram testadas para minimizar simultaneamente custo e risco e maximizar a taxa de entrega. A solução sugerida pelo modelo multiobjetivo de otimização via simulação mostrou ser adequada e eficaz já que os ajustes no sistema logístico bloquearam as consequências da ruptura. A principal contribuição da pesquisa foi desenvolver procedimentos sistemáticos para melhorar a gestão de riscos logísticos no âmbito de cadeias de suprimentos a partir do uso combinado entre métodos de simulação e otimização.


  • Mostrar Abstract
  • Some risks can cause losses to the supply chains, producing ruptures in the flow of materials and finished goods. Logistics risks are associated with failures in transportation, warehousing, production and sales processes. Proper management of these risks is critical for the integration of flows under the responsibility of logistics and operations, whose activities are often carried out by logistics service providers. However, there was a shortage of systematic procedures focused on logistics risk management that take advantage of the integration of simulation and optimization methods. This research was carried out in an automotive supply chain located in Portugal, and based on secondary data available in the literature. The problems of this study are: (a) what are the impacts of logistics risks on the performance of this chain? (b) Under the influence of these risks, which adjustments in the logistics system could improve the response of the arrangement to the impacts? In order to solve such issues, the research objective is mitigating the effects of logistics risks from a simulation metamodel for the optimization of critical parameters. The logistical processes carried out in the supply chain were selected as object of study. About the nature, approach of the problem and objectives, this research was classified as applied, quantitative and exploratory normative, respectively. The discrete event simulation, elaborated in the Arena® platform, was used as a research method. The Black Box optimization, performed through OptQuest® software, was employed to design the appropriate parameters of the logistics system. An OLS method-based regression metamodel was created from design and implementation of experiments with the purpose of integrating the outputs of the simulation model to the inputs of the optimization model. Numerous verification and validation techniques were applied to calibrate the simulation and optimization model, such as modular implementation and sensitivity analysis. A DMAIC-based methodological systematic was developed to comprise the logistic risk management steps and to lead to the results of this research, containing the identification (Define), assessment (Measurement), management (Improvement) and monitoring (Control) of logistics risks. A logistical risk event was inserted into the model in order to reproduce disruptions in the physical distribution flow and allow the evaluation of its impacts on the supply chain performance. The impacts were measured by the following metrics: total logistic cost, stockout risk and fill-rate. For the transportation risk, two mitigation strategies, redundancy and flexibility, have been performed to simultaneously minimize cost and risk and maximize the fill-rate. The risk response solution suggested by the multiobjective optimization model simulation proved to be adequate and effective since the adjustments in the logistic system blocked the effects of the disruption. The main contribution of the research was to develop systematic procedures to improve the supply chain logistics risk management from the combined use of simulation and optimization methods

2
  • GIANCARLO AQUILA
  • Contribuição para o processo de contratação de projetos de geração eólico-fotovoltaica a partir da análise econômica de decisões baseada na programação multiobjetivo

  • Orientador : EDSON DE OLIVEIRA PAMPLONA
  • MEMBROS DA BANCA :
  • ANDERSON RODRIGO DE QUEIROZ
  • BENEDITO DONIZETI BONATTO
  • EDSON DE OLIVEIRA PAMPLONA
  • LUIZ CÉLIO SOUZA ROCHA
  • RAFAEL DE CARVALHO MIRANDA
  • WILSON TOSHIRO NAKAMURA
  • Data: 18/04/2019

  • Mostrar Resumo
  • Recentemente, com o crescimento dos investimentos em energia eólica no Brasil e a entrada
    da energia solar fotovoltaica em leilões de energia, nota-se que em algumas localidades têm
    sido construídas usinas que produzem eletricidade por meio dessas fontes, de maneira
    combinada. Entretanto, ainda não existem processos de licitação, com critérios de decisão
    específicos para esse tipo de projeto. Portanto, o objetivo do presente trabalho é apresentar
    uma contribuição para o processo de contratação de projetos de geração eólico-fotovoltaicos
    conectados ao sistema elétrico brasileiro. Para isto, inicialmente é utilizado o arranjo de
    misturas para gerar cenários que são usados no cálculo da densidade de emissão reduzida e o
    custo nivelado de energia elétrica, que são as variáveis de respostas consideradas no modelo,
    para doze cidades brasileiras. A partir dos resultados calculados para cada cenário, são
    realizadas regressões quadráticas que fornecem as funções objetivo utilizadas no modelo de
    otimização, baseado no método Normal Boundary Intersection, aplicado para a construção da
    fronteira de Pareto. Em seguida, adota-se uma métrica que envolve a razão entre entropia de
    Shannon e o Erro Percentual Global para identificar a melhor solução Pareto-ótima. Por fim, é
    estimada a garantia física do projeto e calculado o preço mínimo que viabilizaria uma usina
    eólico-fotovoltaica, em cada cidade analisada, a fim de identificar em qual local de instalação
    a usina seria mais competitiva em um leilão envolvendo projetos de geração eólicofotovoltaica.
    Os resultados indicam que o modelo é capaz de fornecer a configuração ótima
    para uma usina eólico-fotovoltaica, de acordo com o potencial de geração para cada local,
    além de ser capaz de identificar os locais mais recomendados para instalação deste tipo de
    projeto, de acordo com a ponderação dos objetivos analisados.


  • Mostrar Abstract
  • Recently, with the growth of wind power investments in Brazil and the ingress of photovoltaic
    solar power into long-term energy auctions in Brazil, it is possible to notice that, in some
    places, there is a trend to build power plants that may produce electricity using wind and
    photovoltaic energy simultaneously. However, there are still no bidding processes and no
    specific decision criteria for contracting this type of project. Therefore, the objective of the
    present work is to provide a contribution to the selection of wind-photovoltaic generation
    projects in the Brazilian electricity system. For this, the mixture design technique is initially
    used to generate scenarios that are employed to calculate the reduced emission density and
    Levelized Cost of Electricity, which are the response variables used in the model, for twelve
    cities in Brazil. In this approach, quadratic regressions are applied to obtain the objective
    functions used in an optimization model based on the Normal Boundary Intersection method
    to construct the Pareto frontier. The proposed approach also uses a metric involving the
    Shannon entropy ratio and the Global Percentage Error in the analysis to identify the best
    Pareto-optimal solution. Finally, it is computed physical guarantee and the minimum price
    that would make feasible a wind-photovoltaic plant in each city in analysis, in order to
    identify which place the installation of a potential wind-photovoltaic plant would be more
    competitive in an auction involving this type of projects. The results indicate that the model is
    capable of providing the optimal configuration for a wind-photovoltaic plant, according to
    the generation potential for each site, besides being able to identify the most recommended
    locations for installation of this type of project, according to the weights of the objectives
    being analyzed.

3
  • KÍVIA MOTA NASCIMENTO
  • OTIMIZAÇÃO DE ARRANJOS DE MISTURA DE COMPÓSITOS CIMENTÍCIOS COMPACTADOS COM INCORPORAÇÃO DE RESÍDUOS DE PEAD

  • Orientador : CARLOS EDUARDO SANCHES DA SILVA
  • MEMBROS DA BANCA :
  • ANDERSON PAULO DE PAIVA
  • CARLOS EDUARDO SANCHES DA SILVA
  • LEANDRO JOSÉ DA SILVA
  • MARIA TERESA PAULINO AGUILAR
  • MIRIAN DE LOURDES NORONHA MOTTA MELO
  • TULIO HALLAK PANZERA
  • Data: 01/07/2019

  • Mostrar Resumo
  • O elevado consumo de materiais poliméricos e o consequente aumento na geração de resíduos sólidos demandam à criação de rotas alternativas de reciclagem. Muitos estudos na área de materiais têm sido voltados para o reaproveitamento de resíduos como fase dispersa em materiais compósitos, principalmente os cimentícios, aliando questões ambientais, econômicas e tecnológicas. Dentre os materiais poliméricos, o polietileno de alta densidade (PEAD) é um dos mais produzidos, porém sua reciclagem não é feita de maneira expressiva e a pesquisa ainda se mostra incipiente. Sendo assim, esta tese de doutorado tem por otimizar a incorporação de resíduos poliméricos em compósitos cimentícios por meio de arranjos de misturas entre matriz cimentícia e agregados de PEAD e de quartzo, analisando sua influência na microestrutura e propriedades físico-mecânicas.. A metodologia DoE foi utilizada para planejar um experimento de misturas envolvendo partículas de PEAD, quartzo e cimento e o método desirability para fazer sua otimização. A relação água/cimento de 0,5 foi mantida constante, a relação agregado/cimento variou de 3,75 a 5,25 e foi definido um percentual mínimo de 30% de partículas de PEAD no experimento. Pôde-se notar que há uma baixa adesão entre as partículas de PEAD e a matriz cimentícia. Houve uma redução na resistência à compressão (até 80%), resistência à flexão (até 75%), velocidade de ultrassom (até 55%), módulo dinâmico (até 90%), densidade volumétrica e densidade aparente (até 50% para ambas) e aumento na porosidade (até 60%) e absorção de água (até 200%) à medida em que houve o aumento percentual da incorporação das partículas de PEAD. Foram otimizadas todas as variáveis respostas, sendo a proporção 0,21 de matriz cimentícia, 0,24 de PEAD e 0,55 de quartzo o ótimo individual, exceto para as variáveis densidades volumétrica e aparente em que o ótimo foi de 0,16 de matriz cimentícia e 0,84 de PEAD. Foram traçados seis diferentes cenários para otimização multiobjectivo em que se variou a importância dada as variáveis respotas, obtendo-se desirability individuais e compostas satisfatórias para todos os casos, o que mostra a possibilidade de incorporação de partículas de PEAD para diferentes objetivos. Os resultados revelam uma nova rota de reciclagem de PEAD em aplicações de microconcreto não estruturais.


  • Mostrar Abstract
  • The high consumption of polymer materials and the consequent increase in solid waste generation demand alternative recycling routes. A significant amount of research in materials engineering has been directed towards the reuse of waste as dispersive phases in composites, specially cement-based materials, combining environmental, economic and technological issues. Among the polymer materials, high density polyethylene (HDPE) is one of the most produced, but its recycling is not done in an expressive way and the research is still incipient. This doctoral thesis investigates the reuse of HDPE in compacted cementitious composites and its influence on physical-mechanical properties through Design of Experiment (DoE). A desirability method was used to optimise the amount of HDPE, quartz and cement particles in the system. The water/cement ratio of 0.5 was kept constant while the aggregate/cement ratio varied from 3.75 to 5.25 and a minimum percentage of 30% of HDPE particles was defined in the experiment A low adhesion between the HDPE particles and the cementitious matrix was verified. The increasing percentage of HDPE led to reduced compressive strength (up to 80%), flexural strength (up to 75%), ultra-pulse velocity (up to 55%), dynamic modulus (up to 90%), bulk and apparent densities (up to 50% for both ) and increased porosity (up to 60%) and water absorption (up to 200%). The relationships between the response variables were modelled by means of regression analysis with satisfactory adjustments. It should be noted that the ultra-pulse velocity and dynamic modulus increase as the hydration process and the moisture rises in the sample. The combination of 0.21 of cement matrix, 0.24 of HDPE and 0.55 of quartz optimises all responses, except for bulk and apparent densities in which the optimum setup was 0.16 of cement matrixand 0.84 HDPE. Six different scenarios were considered to perform the multi-objective optimisation in which the importance given to the variable parameters was varied, obtaining individual desirability and satisfactory composites for all cases, which demonstrates the possibility of incorporating HDPE particles for different applications. The findings reveal a new recycling route for HDPE in non-structural microconcrete applications.

4
  • TAYNARA INCERTI DE PAULA
  • Método da Interseção Normal à Fronteira baseado em Análise Fatorial para otimização de problemas multivariados utilizando-se Algoritmo Genético

  • Orientador : ANDERSON PAULO DE PAIVA
  • MEMBROS DA BANCA :
  • ANDERSON PAULO DE PAIVA
  • JOSE HENRIQUE DE FREITAS GOMES
  • GUILHERME FERREIRA GOMES
  • LUIZ CÉLIO SOUZA ROCHA
  • ROGÉRIO SANTANA PERUCHI
  • Data: 04/07/2019

  • Mostrar Resumo
  • Encontrar solução para problemas de otimização multiobjetivo não é uma
    tarefa trivial. Para encontrar uma fronteira de soluções Pareto-ótimas, uma abordagem
    comum é a combinação de um método de otimização de múltiplos objetivos
    com ponderação de funções e uma meta-heurística. Considerando a otimização de
    duas funções diferentes com complexidades distintas, quando um peso maior for
    dado à função mais complexa, a função objetivo final apresentará uma complexidade
    maior e exigirá mais esforço do algoritmo de busca. Isto significa que para cada
    combinação diferente de pesos pode haver uma configuração diferente dos parâmetros
    de algoritmos que leva à solução ótima. Para resolver este problema, o presente
    estudo aborda a otimização simultânea dos parâmetros do algoritmo e dos pesos
    aplicados ao problema multiobjetivo. O Algoritmo Genético foi escolhido como algoritmo
    de busca, uma vez que é uma das meta-heurísticas mais utilizadas e possui
    diversos parâmetros que podem influenciar sua eficiência. O método de otimização
    escolhido foi o método de Interseção Normal à Fronteira, uma vez que este é capaz
    de encontrar soluções mesmo em regiões não-convexas do espaço de solução. Porém,
    este método não apresenta boa performance em problemas com muitas respostas
    ou com respostas correlacionadas. Neste contexto, a aplicação da Análise Fatorial
    permite a redução da dimensionalidade do problema e a substituição de um grande
    número de respostas por poucas funções objetivo não correlacionadas, formadas por
    escores fatoriais rotacionados. Considerando todos estes fatos, este estudo propõe
    um método que permite a redução da dimensionalidade do problema, otimização
    de funções de fatores não correlacionados e a otimização simultânea de pesos do
    método de otimização e parâmetros do Algoritmo Genético, através de um arranjo
    de misturas combinado com variáveis de processo. Neste caso, os componentes da
    mistura serão os pesos das funções objetivo e as variáveis de processo serão os parâmetros
    de entrada do algoritmo. Os resultados encontrados para a otimização com
    este método permitem o cálculo de um Erro Quadrático Médio para cada fator, que
    quando otimizados fornecem uma fronteira de Pareto com configurações ótimas de
    pesos e parâmetros que podem ser utilizados na otimização do problema inicial. O
    método proposto neste estudo foi aplicado na otimização de um conjunto de funções
    de teste, para validação de sua aplicabilidade em outros processos. Além disso, o
    método também foi aplicado a um processo de otimização real: o processo de usinagem
    a laser do aço DIN X40CrMoV5-1. Em ambos os casos o objetivo principal foi
    atingido, podendo-se determinar as fronteiras/superfícies de configurações ótimas
    de pesos e parâmetros.


  • Mostrar Abstract
  • Finding solutions to multiobjective optimization problems is not a trivial
    task. To find a Pareto-optimal set of solutions, a common approach is the combination
    of a weighted multiobjective optimization method with a metaheuristic.
    Considering the optimization of two different functions with different levels of complexity,
    when a greater weight is given to the more complex function, the final
    objective function will be a lot more complex and will require more effort from the
    search algorithm. This means that for each different combination of weights, one
    can have a different configuration of the algorithm parameters that can lead to the
    optimal solution. To overcome this problem, the present study addresses the simultaneous
    optimization of the algorithm parameters and the weights applied to the
    multiobjective problem. The Genetic Algorithm was chosen as the search algorithm,
    since it is one of the most used meta-heuristics and it can suffer the influence of several
    parameters. As the method of optimization, it was chosen the Normal Boundary
    Intersection method, since this is able to find solutions even in non-convex regions
    of search space. However, such method does not perform well in problems with too
    many or correlated responses. In this context, the application of Factor Analysis
    allows the reduction of the problem dimensionality and the substitution of a large
    number of responses by a few uncorrelated objective functions, formed by rotated
    factor scores. Considering these facts, this study proposes a method that allows the
    reduction of the problem dimensionality, the optimization of uncorrelated factors
    and the simultaneous optimization of weights and algorithm parameters, through a
    design of mixtures combined with process variables. In this case, the components of
    the mixture will be the weights of the objective functions and the process variables
    will be the input parameters of the Genetic Algorithm. The results obtained for
    the optimization with this method allow the calculation of a Mean Square Error
    for each factor, which when optimized provide a Pareto border with optimal setups
    of weights and parameters that can be used to optimize the initial problem.
    The method proposed in this study was applied for the optimization of a set of
    benchmark functions, to validate its applicability in other processes. In addition,
    the method was also applied to a real optimization process: the laser beam machining
    process of DIN X40CrMoV5-1 steel. In both cases, the main objective was
    reached, where the method was able to determine the frontiers / surfaces of optimal
    configurations of weights and parameters.

5
  • WILSON TRIGUEIRO DE SOUSA JUNIOR
  • PROPOSTA DE REDUÇÃO DO TEMPO COMPUTACIONAL EM PROBLEMAS DE OTIMIZAÇÃO VIA SIMULAÇÃO A EVENTOS DISCRETOS INTEGRANDO METAHEURÍSTICAS, APRENDIZAGEM DE MÁQUINA E PARALELISMO

  • Orientador : JOSE ARNALDO BARRA MONTEVECHI
  • MEMBROS DA BANCA :
  • DAVID CUSTÓDIO DE SENA
  • JOSE ARNALDO BARRA MONTEVECHI
  • MONA LIZA MOURA DE OLIVEIRA
  • RAFAEL DE CARVALHO MIRANDA
  • ROBSON BRUNO DUTRA PEREIRA
  • TABATA FERNANDES PEREIRA
  • Data: 05/07/2019

  • Mostrar Resumo
  • As técnicas de simulação a eventos discretos têm sido empregadas em diversos setores industriais nas últimas décadas. Isso se tornou possível com a popularização de recursos computacionais e conhecimentos estatísticos aplicados na produção de bens e serviços. Um propósito recorrente ao se gerar uma simulação é a avaliação de uma grande quantidade de cenários, a fim de se encontrar uma relação ótima da combinação de variáveis para se atender restrições e funções de minimização e/ou maximização de objetivos. O processo de otimização dos modelos de simulação tem que lidar com o problema do aumento exponencial do espaço de busca por soluções, enquanto o número de variáveis de decisão cresce linearmente, tornando a resolução desse problema muito difícil ou impossível, no que tange a avaliação de todas as possíveis combinações quando não há tempo e/ou recurso computacional suficientes para tal. Com o aumento da complexidade referente à quantidade de possíveis soluções a serem consideradas pelos agentes tomadores de decisão, a área do conhecimento referente à Pesquisa Operacional tem aplicado técnicas tradicionalmente geradas para resolver problemas de otimização combinatória, em problemas de simulação a eventos discretos. A exemplo de tais técnicas de otimização, as metaheurísticas têm sido utilizadas com sucesso desde a origem dos primeiros métodos de otimização. Um fator restritivo na utilização destes métodos de otimização em simulação a eventos discretos é que para a realização do teste da qualidade de uma dada possível solução, em geral é necessário a utilização de um software simulador. Assim, ocorre que mesmo com o uso de método de otimização, muito tempo é dispendido para a obtenção de uma boa solução, pelo fato de ser necessário chamar recursivamente o simulador. Com o intuito de minimizar esse efeito, a presente tese associou quatro abordagens para a diminuição do tempo de resposta necessário para se obter boas soluções para a otimização de modelos de simulação a eventos discretos, utilizando de metamodelagem por aprendizagem de máquina e paralelismo de soluções, associadas a metaheurísticas de busca populacional. Neste contexto, foi possível a integração de todos estes conceitos em um mesmo ambiente, aplicando a mesma em três objetos de estudo referentes a problemas da Engenharia de Produção. Um ambiente de otimização open source foi construído em Python para a integração dos três objetos de estudo considerando 33 métodos de aprendizagem de máquina, duas metaheurística e paralelismo do processamento dos cenários. Como resultado médio do método proposto, foi possível a redução do tempo computacional em 93,5% em comparação ao método tradicional, com a utilização apenas de otimização por metaheurística, obtendo uma solução igual a 87,5% do valor de referência dos objetos de estudo.


  • Mostrar Abstract
  • Discrete event simulation techniques have been used in several industrial sectors in recent decades, with the advent and popularization of computational resources and statistical knowledge applied in the production of goods and services. A recurring purpose in generating a simulation is the evaluation of a large number of scenarios in order to find an optimal relation of the combination of variables to meet constraints and functions of minimization and/or maximization of objectives. The optimization process of the simulation models has to deal with the problem of the exponential increase of the search space for solutions, while the number of decision variables increases linearly, making the resolution of this problem very difficult or impossible as regards the evaluation of all possible combinations when there is insufficient time and/or computational capability to do so. With the increase in complexity regarding the number of possible solutions to be considered by decision-making agents, the Operational Research area of knowledge has applied techniques traditionally generated to solve problems of combinatorial optimization, in problems of discrete event simulation. For these optimization techniques, metaheuristics have been used with success since the origin time of the first optimization methods. A restrictive factor in the use of these optimization methods in discrete event simulation is that in order to test the quality of a given possible solution, it is generally necessary to use simulator software. Thus, even with the use of optimization method, a lot of time is spent to obtain a good solution because it is necessary to call the simulator recurrently. In order to decrease this effect, the present thesis has associated three approaches to reduce the response time required to obtain good responses in the optimization of discrete event simulation, using machine learning metamodel and solution parallelism within metaheuristics that use population search method. In this context, it was possible to integrate all of these concepts in the same platform, applying the proposed in three objects of study concerning problems of Production Engineering. An open source optimization environment was built in Python to integrate the two study objects with 33 machine learning methods, two metaheuristics, and parallelism for scenario processing. As a mean result of the proposed method it was possible to reduce the computational time by 93.5% compared to the traditional method of using only metaheuristic optimization, obtaining a solution equal to 87.5% of the reference value of the studied objects.

6
  • ANDRIANI TAVARES TENÓRIO GONÇALVES
  • Índice de Gestão Integrada de Resíduos Sólidos para Apoio à Decisão em Municípios. 

  • Orientador : RENATO DA SILVA LIMA
  • MEMBROS DA BANCA :
  • RENATO DA SILVA LIMA
  • FABIANO LEAL
  • JOSIANE PALMA LIMA
  • RAFAEL DE CARVALHO MIRANDA
  • MARCELO MONTAÑO
  • RUI ANTONIO RODRIGUES RAMOS
  • Data: 11/10/2019

  • Mostrar Resumo
  • Os municípios em todo o mundo enfrentam um grande desafio na gestão integrada adequada dos resíduos sólidos (GIRS), devido principalmente ao processo de urbanização e industrialização, que tem aumentado a quantidade e diversidade dos resíduos gerados, tornando a gestão destes resíduos um processo complexo. Além disso, a relação da gestão com os aspectos políticos, econômicos, ambientais, sociais e culturais dos municípios exige o desenvolvimento de ferramentas adequadas, que auxiliem as cidades no entendimento destes aspectos e da inter-relação entre eles. Nesse sentido, os índices e indicadores se configuram como excelentes ferramentas, que podem auxiliar os administradores municipais a identificar os aspectos fortes e fracos da GIRS e a planejar as ações prioritárias, direcionando os investimentos públicos. Dentro deste contexto, esta pesquisa propôs a construção do Índice de Gestão Integrada de Resíduos Sólidos (IGIRS), utilizando o método Analytic Hierarchy Process (AHP). Para o desenvolvimento do IGIRS foram identificados 56 indicadores (critérios) e 143 subcritérios, considerando os resíduos sólidos urbanos, de serviço de saúde e de construção civil, respeitando os limites da participação do poder público na gestão dos mesmos. Os indicadores foram agrupados em cinco dimensões: operacional, ambiental, político-econômico, educacional e social. O índice foi aplicado em municípios localizados no sul do Estado de Minas Gerais, atingindo o valor global igual a 0,49 (Santa Rita do Sapucaí), 0,58 (Pouso Alegre), 0,60 (Machado) e 0,70 (Três Corações), correspondendo a uma baixa eficiência na GIRS no município de Santa Rita do Sapucaí e nos demais municípios uma média eficiência. Estes resultados refletem, de maneira geral, a falta de programa de coleta seletiva, inclusão social, legislações específicas, práticas sustentáveis, capacitações e treinamentos dos funcionários, educação ambiental e integração entre as partes envolvidas na gestão (setor público, privado e população).  A aplicação do índice permitiu identificar os aspectos que precisam ser melhorados e priorizados na GIRS, servindo como uma ferramenta de monitoramento e avaliação da gestão, fornecendo subsídios para implementação de políticas e estratégicas visando aumentar a eficiência da GIRS para um desenvolvimento sustentável.

     


  • Mostrar Abstract
  • Municipalities around the world face a major challenge in proper integrated solid waste management, mainly due to the urbanization and the industrialization process, which have increased the amount and diversity of generated waste, making the management of the waste a complex process. In addition to that, the relation between the management and the political, economic, environmental, social and cultural aspects of the municipalities require the development of appropriate tools to help cities understand those aspects and the interrelationships between them. In this sense, indexes and indicators are excellent tools that can help municipal administrators to identify the strengths and weaknesses of the integrated solid waste management, to plan priority actions and to direct public investments. Within this context, this research proposed the construction of the Integrated Solid Waste Management Index (ISWMI), using the Analytic Hierarchy Process (AHP) method. For the development of the ISWMI, 56 indicators (criteria) and 143 sub-criteria were identified, considering the solid urban waste, the health service and the civil construction, respecting the limits of the participation of the government in their management. The indicators were grouped into five dimensions: operational, environmental, political-economic, educational and social. The index was applied in municipalities located in the south of Minas Gerais State, reaching a global value of 0.49 (Santa Rita do Sapucaí), 0.58 (Pouso Alegre), 0.60 (Machado) and 0.70 ( Três Corações), corresponding to low efficiency in the integrated solid waste management  in the municipality of Santa Rita do Sapucaí and, in the other municipalities, a medium efficiency. These results reflect, in a general way, the the lack of a selective collection program, social inclusion, specific legislation, sustainable practices, training and employee training, environmental education, and integration among management stakeholders (public, private, and the population).The application of the index allowed the identification of the aspects to be improved and prioritized in the integrated solid waste management, serving as a monitoring tool and management evaluation, providing subsidies for the implementation of policies and strategies aimed at increasing the efficiency of the integrated solid waste management for sustainable development.

7
  • ROBERTA ALVES
  • MODELAGEM E SIMULAÇÃO BASEADA EM AGENTES APLICADA AO TRANSPORTE URBANO DE CARGAS DO COMÉRCIO ELETRÔNICO-B2C

  • Orientador : RENATO DA SILVA LIMA
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • CLAUDIO BARBIERI DA CUNHA
  • JOSE HENRIQUE DE FREITAS GOMES
  • LEISE KELLI DE OLIVEIRA
  • RENATO DA SILVA LIMA
  • WILFREDO F. YUSHIMITO
  • Data: 25/10/2019

  • Mostrar Resumo
  • O Brasil é o país da América Latina líder em vendas do e-commerce. A maior parte das entregas acontecem à domicílio, de forma assistida (entrega a uma pessoa). Esse modelo de entrega resulta em um grande número de entregas não realizadas e tentativas de reentrega, podendo chegar até três tentativas de entrega para um mesmo pacote. Neste sentido, os Delivery Lockers (armários de entrega - DL) representam uma opção para entrega e consolidação das mercadorias. O objetivo deste estudo é avaliar a implantação dos Delivery Lockers como solução da última milha, considerando o comportamento e a interação entre os stakeholders do comércio eletrônico, por meio da Modelagem e Simulação Baseada em Agentes (MSBA). O modelo foi construído considerando os quatro principais stakeholders (clientes, loja do e-commerce, transportadora e DLs) envolvidos no processo de entregas. Também se utilizou a técnica de Projeto de Experimentos (Design of Experiment - DOE) para auxiliar a análise das variáveis. A ideia central foi apresentar um MSBA que possa ser utilizado como apoio á tomada de decisão. Foram simulados 84 cenários que consideram diferentes demandas diárias, variações nos parâmetros de entrada, implantação ou não dos DL e a exclusão ou não da política das três tentativas de entrega. Os cenários elaborados contam com o Grupo de Cenários Base, que se assemelham com a situação real, onde não existe o uso dos Delivery Lockers e existe as três tentativas de entrega e mais três Grupos de Cenários. O Grupo de Cenários Base apresentaram piores resultados. Os cenários que simulam uma maior demanda diária, embora forneçam maiores custos totais, apresentam até o menor custo por pedido, sendo até 56,7% menor que aqueles que simulam uma demanda diária menor. O MSBA mostrou que, os DLs representam uma solução melhor que os centro de distribuição para receber as entregas falhas, reduzindo as distâncias percorridas pelos clientes em até 60%.Comparando os cenários, constatou-se que a implantação dos DLs e a exclusão das três tentativas, simuladas pelo Grupo de Cenários 4, podem aumentar o número de pedidos entregues em 16,7 %, reduzir a distância percorrida pelos caminhões em até 28,1%, apresentar um aumento em até 79,1% no lucro líquido, além de incluir o ganho de hospedagem de pedidos, quando comparados com o Grupo de Cenários base. Essa configuração a que representa o sistema de entrega mais atraente para todos os envolvidos. A Modelagem e Simulação Baseada em Agentes (MSBA) se mostrou uma ferramenta útil para modelar o transporte urbano de mercadorias do e-commerce, sendo capaz de simular corretamente as interações entre os agentes e as ações tomadas por eles diante de diferentes situações. Além disso, esta técnica permitiu modelar e avaliar diferentes estratégias de entrega e obter resultados comparáveis para cada agente.


  • Mostrar Abstract
  • Brazil is the country leader of Latin American in e-commerce sales. Most deliveries take place at home, in the attended forms (delivery to one person). This delivery model results in a large number of missed deliveries and redelivery attempts, reaching up to three delivery attempts for the same package. In this way, Delivery Lockers (DL) represents an option for delivery and consolidation of goods. The objective of this study is to evaluate the implementation of Delivery Lockers solution to the last mile, considering the behavior and interaction between e-commerce stakeholders, by using agent based simulation model (ABSM). The model was built considering the four main stakeholders (customers, e-commerce store, carrier and DLs) involved in the delivery process. The technique Design of Experiment (DOE) was also used to assist in the analysis of variables. The central idea was to present an ABSM that can be used to support decision making. It was simulated 84 scenarios that consider different daily demands, variations in the input parameters, implantation or not of DLs and the exclusion or not of the policy of three delivery attempts. The scenarios elaborated rely on the Base Scenario Group, which resembles the real situation, where there is no use of Delivery Lockers and there are three delivery attempts and three more Scenario Groups. The Base Scenario Group had worse results. Scenarios that simulate higher daily demand, while providing higher total costs, have even the lowest cost per order, being up to 56,7% lower than those that simulate lower daily demand. The ABSM showed that the DLs represent a better solution than the distribution center to receive deliveries failures, reducing the distances traveled by customers up to 60%. Comparing the scenarios, it was found that the implementation of the DLs and the exclusion of the three attempts, simulated by the Scenario Group 4, increase the number of orders delivered by 16, 7%, reduce the distance traveled by trucks by up to 28,1%, increase net revenue by up to 79,1%, and include gain in order hosting when compared to the base Scenario Group. This configuration is the most attractive delivery system for everyone involved. The ABSM has proved a useful tool to model the urban transport of e-commerce goods, being able to correctly simulate the interactions between the agents and the actions taken by them in different situations. In addition, these techniques allowed to model and evaluate different delivery strategies and obtain comparable results for each agent.

8
  • RENATO PONTES RODRIGUES
  • Aplicação da Simulação Híbrida no Sequenciamento da Produção em Sistemas Job Shop Flexíveis

  • Orientador : ALEXANDRE FERREIRA DE PINHO
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • FABIANO LEAL
  • FABIO FAVARETTO
  • FERNANDO AUGUSTO SILVA MARINS
  • MARIANO DE PAULA
  • Data: 09/12/2019

  • Mostrar Resumo
  • Esta pesquisa estuda um dos mais complexos e importantes problemas na área de sequenciamento de produção: os sistemas job shop flexíveis, o qual pertence à classe de problemas matematicamente intratáveis, denominados NP-hard. O aludido sistema é de suma importância para a indústria que utiliza a estratégia de produção make to order e busca flexibilidade de mix e volume. Existe uma demanda atual pela robustez do método de sequenciamento. O mesmo deve ser eficaz perante a problemas inesperados do cotidiano, que afetam a eficiência da sequência inicial definida. Além disso, deve-se considerar tempos estocásticos e buscar atingir mais objetivos de produção simultaneamente. Sendo assim, esta pesquisa realizará o sequenciamento por meio da simulação, que deverá sequenciar as ordens de produção no início do processo e re-sequenciar quando necessário, a fim de se buscar um modelo mais robusto aos problemas cotidianos e procurando melhorar mais indicadores ao mesmo tempo, isso porque modelos tradicionais tendem a ser mais sensíveis a eventos inesperados. Para isso, o referido sistema precisará usar agentes dentro de modelos de Simulação a Eventos Discretos, formando um modelo de Simulação Híbrida. O objetivo é avaliar como o agente dentro do modelo pode ajudar na resposta a estes eventos, adicionando robustez ao mesmo, além de deixa-o mais acessível aos usuários. A pesquisa é de caráter quantitativo, utilizando o método de modelagem e simulação, seguindo um modelo empírico normativo. A contribuição científica é gerada no modelo final que é mais robusto a eventualidades e tem um foco mais abrangente. Além disso, esta maneira de modelar traz uma interface amigável para inserir modificações, o que melhora a integração com os usuários mais despreparados. A validação do modelo consiste na comparação de seus resultados com os resultados do gráfico de Gantt. Depois disso, foram feitas comparações dos resultados obtidos com e sem re-sequenciamento. Primeiro, com o agente utilizando uma lógica de sequenciamento e depois também a utilizando, porém com ajustes na sequência durante a produção dos lotes, buscando responder a eventos e neutralizar os pontos negativos da lógica inicial através do re-sequenciamento. Frisa-se que essa programação garante que o agente “Gerente” reduza o makespan e aumente a utilização das máquinas quando aumenta sua interferência no modelo.


  • Mostrar Abstract
  • This research studies one of the most complex and important issues in production scheduling research: flexible job shop systems, which belongs to a class of NP-hard problems. These systems are extremely important for the industry which uses make to order production strategy and seeks mix and volume flexibility. There is a current demand for robustness of the sequencing method. The same should be effective in the face of unexpected quotidian problems that affect the efficiency of the initial sequence defined. In addition, it must be considered stochastic times and seek to achieve more production goals simultaneously. The scheduling will be performed through simulation that should sequence the orders at the beginning of the process and re-sequence it when necessary, in order to seek a more robust model to everyday problems and seeking to improve more indicators at the same time. That is because traditional models tend to be more sensitive to unexpected events. The model system will use agents within Discrete-Event Simulation models, generating a Hybrid Simulation model. The goal is to evaluate how the agent within the model can help in responding to these events, adding robustness to it, and making it more accessible to users. This is a quantitative research, using the modeling and simulation method and following a normative empirical model. The scientific contribution is generated in the final model that is more robust to eventualities and has a broader focus. Additionally, the model constructed in this work brings a friendly interface to insert modifications, what enhance model integration with unprepared users. The work consists in the validation of the model by comparing its results with the results of the Gantt chart. After that, comparisons of the results obtained with and without re-sequencing were made. First with the agent using one sequencing logic and then using the same logic, but with sequence adjustments during the batches production, seeking to neutralize the negative points of the initial logic through re-sequencing. It also stresses that this schedule ensures that the Manager agent reduces makespan and increases machine utilization while increasing its interference in the model.

9
  • DALTON GARCIA BORGES DE SOUZA
  • Seleção de projetos de P&D: quais critérios devemos utilizar?

  • Orientador : CARLOS EDUARDO SANCHES DA SILVA
  • MEMBROS DA BANCA :
  • ADLER DINIZ DE SOUZA
  • CARLOS EDUARDO SANCHES DA SILVA
  • DANIEL CAPALDO AMARAL
  • NEI YOSHIHIRO SOMA
  • PEDRO PAULO BALESTRASSI
  • Data: 10/12/2019

  • Mostrar Resumo
  • Muitas organizações depositam na Pesquisa e Desenvolvimento (P&D) suas chances de serem lucrativas e permanecerem competitivas em um mercado dinâmico. Para acompanhar a taxa de mudanças, muitas ideias surgem e são transformadas em projetos. No entanto, como os recursos são limitados, tais organizações são obrigadas a selecionar apenas os projetos mais adequados ao atendimento de seus objetivos. Essa é uma velha prática. Contudo, as características dos portfólios de projetos mudaram. Os objetivos dos portfólios de hoje vão além do lucro: estratégia, meio ambiente e sociedade também se tornaram importantes, juntamente com outros critérios de decisão. O poder computacional também foi melhorado, tornando possíveis abordagens baseadas em muitos dados, até mesmo para pequenas organizações. No último meio século, diversos autores propuseram métodos multicritérios para tomada de decisão (MCDM) para a seleção de portfólios de projetos (PPS) em P&D. Todavia, poucos deram a devida importância aos critérios utilizados, o que deveria ser tópico relevante em qualquer decisão multicritério. Sendo assim, objetivando contribuir para a área de PPS em P&D, essa tese investigou duas proposições: (1) a maioria dos critérios utilizados para PPS em P&D podem ser representados por uma lista menor de critérios, e (2) os critérios utilizados para PPS em P&D podem ser selecionados em um ambiente Fuzzy, de acordo com suas importâncias e influências sobre os demais. Para tanto, 227 critérios de decisão utilizados em PPS de P&D de 1970 a 2019 foram resumidos em 23 novos critérios com escopos mais amplos e posteriormente agrupados 8 grupos de critérios. Uma revisão sistemática da literatura foi conduzida, a fim de se obter os 227 critérios iniciais e para embasar as oportunidades de pesquisa que foram exploradas nessa tese. Um novo método MCDM também foi proposto, o qual integra os métodos Fuzzy-DEMATEL e Fuzzy-AHP Extent Analysis. Especialistas de grandes organizações públicas do segmento de P&D em energia contribuíram para a criação e validação da lista de critérios e método proposto. Especialistas de outras organizações públicas brasileiras de P&D também contribuíram em outros momentos da pesquisa. Juntas, todas as organizações consideradas nesse trabalho são responsáveis por cerca de 38% de todos os gastos anuais brasileiros em projetos de P&D. De maneira geral, os resultados encontrados enriqueceram o tópico e facilitaram a acumulação e criação de conhecimento sobre o processo de seleção de critérios de P&D em abordagens multicritério.


  • Mostrar Abstract
  • Many companies around the world lay on R&D their chances to be profitable and still standing in a dynamic market. To keep the changes going, many ideas surge and some are transformed into projects. Since the resources are limited, organizations are obliged to select only the most suitable projects to attend their objectives. This is an old practice. However, project portfolio characteristics has changed. The portfolio objectives of today go beyond profit: strategy, environment and society has also become import, along with many other decision criteria. The computational power was also enhanced, making multidata decision approaches feasible, even for small-profitable organizations. On the last half century, many authors have proposed multicriteria decision making (MCDM) methods for project portfolio selection (PPS) on Research and Development (R&D). However, only a few gave importance to the criteria used, which would be a central issue on any multicriteria decision. Thus, in order to contribute to R&D PPS field of study, this thesis investigates two propositions: (1) most criteria used in R&D PPS may be represented by a smaller list of criteria, and (2) the criteria used in R&D PPS can be selected in a fuzzy environment, according to their influence and importance. To do so, we explore the 227 criteria used in R&D PPS from 1970 to 2019, summarizing them in a list of 23 criteria with broader scopes and 8 criteria groups. A Systematic Literature Review was performed to get to the initial 227 criteria and to lighten the research opportunities in MCDM-based R&D PPS explored by this thesis. We also propose a novel MCDM approach for criteria selection, that integrates Fuzzy-based DEMATEL and Fuzzy-AHP Extend Analysis methods. Both list and method are built and validated by experts from a representative electrical-public Brazilian R&D organization. Experts from other representative public Brazilian R&D organizations have also contributed in other research steps. All involved organizations manage together R&D portfolios valued around US$ 5 billion each year, which account for 38% of all Brazilian annually expenditures in R&D projects. In a overall manner, the results provide guidance on the topic and facilitate knowledge accumulation and creation concerning the criteria selection process in MCDM-based R&D PPS.

10
  • ADRIANO CARLOS MORAES ROSA
  • MODELO DE REFERÊNCIA PARA INOVAÇÃO ABERTA EM EMPRESAS DE BASE TECNOLÓGICA

  • Orientador : CARLOS HENRIQUE PEREIRA MELLO
  • MEMBROS DA BANCA :
  • ANEIRSON FRANCISCO DA SILVA
  • CARLOS EDUARDO SANCHES DA SILVA
  • CARLOS HENRIQUE PEREIRA MELLO
  • EDUARDO GOMES SALGADO
  • JOAO BATISTA TURRIONI
  • VANESSA CRISTHINA GATTO CHIMENDES
  • Data: 12/12/2019

  • Mostrar Resumo
  • Vários estudos apontam benefícios conquistados por empresas que buscam inovar e, mais recentemente, praticam a inovação aberta ou IA, apesar disso, também existem muitas dificuldades relatadas por essas empresas, principalmente, quando elas precisam mensurar seus resultados diante dessas práticas. No Brasil, quando a busca por inovações é trazida para o segmento das pequenas empresas, mais dificuldades são encontradas, contudo, de acordo com pesquisas recentes (inclusas nesta tese), as pequenas empresas registram diante desses novos cenários de mudança e conseguem se adaptar gerando e multiplicando tecnologia e inovação).
    Este trabalho propõe a adoção da IA para pequenas empresas de base tecnológica ou EBTs, assim como, para medi-la, foram identificados e testados um conjunto de indicadores adequado a estas empresas, considerando a realidade brasileira e para isso, como método de pesquisa, adotou-se a pesquisa levantamento ou survey, agregando a técnica estatística da Análise Fatorial para assegurar a aplicação do instrumento de pesquisa e a confiabilidade do modelo proposto.
    Com os procedimentos metodológicos, foi possível observar, escolher e avaliar a aplicação de indicadores em polos ou centros considerados referência em inovação nos estados brasileiros de São Paulo e Minas Gerais, com amostragens que ocorreram em EBTs localizadas em São José dos Campos (SP), Itajubá (MG) e Santa Rita do Sapucaí (MG). Como contribuições, o estudo pretendeu proporcionar ao leitor ou usuário final, um detalhamento sobre como as ações da IA fortalecem estratégias, colaborações e cultura nas empresas que a adotam e, que esse conhecimento pode ser aplicado em pequenas empresas. Assim, o presente estudo buscou preencher a lacuna de conhecimento, identificando e discutindo a importância do desenvolvimento de atividades de IA e sua mensuração, assim como, orientar os interessados em práticas inovativas e, fomentar uma mudança de cultura na adoção dessas práticas como estratégias possíveis para as pequenas empresas. Como principais resultados teóricos, verificou-se também, que em outros países, as EBTs de pequeno porte já se incluem no atual cenário da gestão e inovação e, diante de resultados positivos, conclui-se que medir o impacto da IA se torna fator importante para o desenvolvimento empresarial. Empresas, independentemente do porte, universidades, pesquisadores e governo, em prol do desenvolvimento devem se abrir para testar conhecimentos e multiplicá-los de forma colaborativa. Como trabalhos futuros, espera-se multiplicar e consolidar o trabalho apresentando o conjunto de indicadores de IA para a comunidade acadêmica e empresarial, como também, testá-lo em outros ambientes e empresas.


  • Mostrar Abstract
  • Several studies point out the benefits conquered by companies that innovate and, recently, practice open innovation or OI. Nevertheless, there are many difficulties reported by these companies, mainly when they need to measure their results in face of these practices. In Brazil, when the search for innovations is brought to small companies segment, more difficulties are found, however, according to recent researches (inside this thesis), small companies register on these new changing scenarios and get to adapt themselves generating and multiplying technology and innovation. This work proposes the adoption of OI for small Technology-based companies or TBCs, as well as, to measure it, a set of indicators suitable to these companies were identified and tested, considering the Brazilian reality and for that, as a research method, the survey was adopted, adding the statistical technique of Factor Analysis to ensure the application of the research instrument and the reliability of the proposed model. With the methodological procedures, it was possible to observe, choose and evaluate the application of indicators in centers or centers considered reference in innovation in the Brazilian states of São Paulo and Minas Gerais, with samples that occurred in TBCs located in São José dos Campos (SP), Itajubá (MG) and Santa Rita do Sapucaí (MG). As contributions, the study aimed to provide the reader or end user with a detailed view on how OI actions strengthen strategies, collaborations and culture in companies that adopt it, and that this knowledge can be applied in small companies. Thus, the present study intended to fill the knowledge gap, identifying and discussing the importance of OI activities development and their measurement, as well as to guide those interested in innovative practices and to promote a culture change in the adoption of these practices as possible strategies for small businesses. As the main theoretical results, it was also verified that in other countries, small-scale TBCs has been already included in the current scenario of management and innovation and, in the face of positive results, it is concluded that measuring OI´s impacts becomes an important factor for the development. Companies, regardless of size, universities, researchers and government, in order to promote development, must open themselves to test knowledge and multiply them in a collaborative way. As future work, it is expected to multiply and consolidate the work presenting the set of OI indicators for the academic and business community, as well as to test it in other environments and companies.

11
  • LIVIO AGNEW BACCI
  • OTIMIZAÇÃO MULTIVARIADA DA COMBINAÇÃO DE MÉTODOS DE PREVISÃO

  • Orientador : ANDERSON PAULO DE PAIVA
  • MEMBROS DA BANCA :
  • ANDERSON PAULO DE PAIVA
  • ANTONIO FERNANDO BRANCO COSTA
  • DANIELLE MARTINS DUARTE COSTA
  • PEDRO PAULO BALESTRASSI
  • RONÃ RINSTON AMAURY MENDES
  • Data: 12/12/2019

  • Mostrar Resumo
  • Este trabalho propõe uma nova abordagem multiobjetivo – nomeada de método “Análise Fatorial - Intersecção Normal à Fronteira” (FA-NBI, do inglês Factorial Analisys - Normal Boundary Intersection) - para encontrar o conjunto ótimo de pesos de uma combinação de métodos de previsão que é eficiente, ao mesmo tempo, com relação a várias métricas de desempenho e precisão. Para isso, as séries de resíduos de cada um dos métodos de previsão selecionados foram produzidas e foram combinadas com o uso de uma média ponderada, com os vários conjuntos de pesos tendo sido gerados por um Desenho de Rede Simplex {m, q} (do inglês Simplex - Lattice Design). Em seguida, várias métricas de performance e precisão foram calculadas para cada série de resíduos combinados. Depois, foi utilizada Análise Fatorial por Componentes Principais (PCFA, do inglês Principal Component Factor Analysis) para extrair um pequeno número de escores de fatores para representar as métricas selecionadas, tudo com perda mínima de informações. As séries de escores de fatores extraídas foram modeladas matematicamente com a utilização de Projeto de Experimentos de Misturas (DOE-M, do inglês Mixture Design of Experiments). O método de Intersecção Normal à Fronteira (NBI, do inglês Normal Boundary Intersection) foi aplicado para otimizar conjuntamente essas funções-objetivo modeladas matematicamente, permitindo obter diversos e diferentes conjuntos de pesos Pareto-ótimos e, consequentemente, a construção da fronteira de Pareto. O Índice de Entropia de Shannon (S, do inglês Shannon’s Entropy Index) e o Erro Percentual Global (GPE, do inglês Global Percentage Error) foram usados como critérios para selecionar o melhor conjunto de pesos. No presente trabalho, essas etapas foram aplicadas com sucesso inseridas dentro de um estudo de caso para prever a demanda de café no Brasil. Para testar a aplicabilidade e a viabilidade do novo método proposto diante de séries temporais distintas, foram previstas também a produção e a exportação brasileira de café usando o novo método. Ademais, seis séries sintéticas, disponíveis em Montgomery et al. (2008), foram utilizadas para testar a viabilidade do novo método. Os resultados mostraram que a abordagem proposta, denominada método de combinação de previsões FA-NBI, pode ser empregada com sucesso para encontrar os pesos ideais de uma combinação de métodos de previsão.


  • Mostrar Abstract
  • This paper proposed a new multi-objective approach to find the optimal set of weight’s combination of forecasts that were jointly efficient with respect to various performance and precision metrics. For this, the residues’ series of each previously selected forecasts methods were calculated and, to combine them through of a weighted average, several sets of weights were obtained using Simplex - Lattice Design {m, q}. Then, several metrics were calculated for each combined residues’ series. After, Principal Components Factor Analysis (PCFA) was used for extracting a small number series’ factor scores to represent the metrics selected with minimal loss of information. The extracted series’ factor scores were mathematically modeled with Mixture Design of Experiments (DOE-M). Normal Boundary Intersection method (NBI) was applied to perform joint optimization of these objective functions, allowing to obtain different optimal weights set and the Pareto frontier construction. As selection criteria of the best optimal weights’ set were used the Shannon's Entropy Index (S) and Global Percentage Error (GPE). Here, these steps were successfully applied to predict coffee demand in Brazil as a case study. In order to test the applicability and feasibility of the proposed method based on distinct time series, the coffee’s Brazilian production and exportation were also foreseen by new method. Besides, the simulated series available in Montgomery et al. (2008) were also used to test the viability of the new method. The results showed that the proposed approach, named of FA-NBI combination method, can be successfully employed to find the optimal weights of a forecasts’ combination.

2015
Dissertações
1
  • GIANCARLO AQUILA
  • Análise do impacto dos programas de incentivos para viabilizar enconomicamente o uso de fontes de energia renovável.

  • Orientador : EDSON DE OLIVEIRA PAMPLONA
  • MEMBROS DA BANCA :
  • ANDERSON RODRIGO DE QUEIROZ
  • EDSON DE OLIVEIRA PAMPLONA
  • RAFAEL DE CARVALHO MIRANDA
  • WILSON TOSHIRO NAKAMURA
  • Data: 12/11/2015

  • Mostrar Resumo
  • Através de estudos existentes na literatura, é possível observar que diversos países têm
    aplicado estratégias direcionadas para o incentivo de geração de energia elétrica por meio de
    fontes de energia renovável. Este trabalho apresenta um entendimento sobre o contexto e a
    evolução dessas políticas, destacando os principais tipos e aplicações, com foco no impacto
    das  estratégias  de  incentivo  para  o  produtor  inserido  no  mercado  de  energia  renovável
    brasileiro. Para isso, foram feitas análises de investimentos em uma usina eólica, no estado da
    Bahia, considerando as incertezas de geração de energia e exposição aos riscos de liquidação
    dessas diferenças. As análises incluem a possibilidade  da  usina  comercializar energia em  um
    ambiente regulado ou no livre mercado, analisando situações específicas para cada ambiente e
    para  diferentes  regimes  de  tributação.  Além  disso,  analisaram-se  cenários  em  que  ocorre  a
    possibilidade de comercialização de créditos de carbono, através da participação  da usina  no
    Mecanismo  de  Desenvolvimento  Limpo.  Inicialmente  são  realizadas  as  análises
    determinísticas  para  cada  cenário  realizado,  seguido  pela  análise  de  sensibilidade,  também
    foram  feitas  as  análises  estocásticas  que  incorporam  as  incertezas  nas  principais  variáveis
    identificadas  na  análise  de  sensibilidade  e  as  incertezas  relacionadas  à  geração  de  energia
    mensal da usina e ao preço de liquidação das diferenças, por último aplicou-se o Value at Risk
    que possibilitou a análise do pior cenário esperado do produtor em cada situação. Nota-se que
    no  cenário  brasileiro  atual,  os  ambientes  incentivados  ainda  apresentam  características
    particulares capazes de mitigar os riscos do produtor, em um mercado que ainda está em fase
    de amadurecimento.


  • Mostrar Abstract
  • Através de estudos existentes na literatura, é possível observar que diversos países têm
    aplicado estratégias direcionadas para o incentivo de geração de energia elétrica por meio de
    fontes de energia renovável. Este trabalho apresenta um entendimento sobre o contexto e a
    evolução dessas políticas, destacando os principais tipos e aplicações, com foco no impacto
    das  estratégias  de  incentivo  para  o  produtor  inserido  no  mercado  de  energia  renovável
    brasileiro. Para isso, foram feitas análises de investimentos em uma usina eólica, no estado da
    Bahia, considerando as incertezas de geração de energia e exposição aos riscos de liquidação
    dessas diferenças. As análises incluem a possibilidade  da  usina  comercializar energia em  um
    ambiente regulado ou no livre mercado, analisando situações específicas para cada ambiente e
    para  diferentes  regimes  de  tributação.  Além  disso,  analisaram-se  cenários  em  que  ocorre  a
    possibilidade de comercialização de créditos de carbono, através da participação  da usina  no
    Mecanismo  de  Desenvolvimento  Limpo.  Inicialmente  são  realizadas  as  análises
    determinísticas  para  cada  cenário  realizado,  seguido  pela  análise  de  sensibilidade,  também
    foram  feitas  as  análises  estocásticas  que  incorporam  as  incertezas  nas  principais  variáveis
    identificadas  na  análise  de  sensibilidade  e  as  incertezas  relacionadas  à  geração  de  energia
    mensal da usina e ao preço de liquidação das diferenças, por último aplicou-se o Value at Risk
    que possibilitou a análise do pior cenário esperado do produtor em cada situação. Nota-se que
    no  cenário  brasileiro  atual,  os  ambientes  incentivados  ainda  apresentam  características
    particulares capazes de mitigar os riscos do produtor, em um mercado que ainda está em fase
    de amadurecimento.

SIGAA | DTI - Diretoria de Tecnologia da Informação - (35) 3629-1080 | Copyright © 2006-2020 - UFRN - sigaa07.unifei.edu.br.sigaa07