Dissertações/Teses

Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UNIFEI

2025
Dissertações
1
  • MATHEUS COSTA PEREIRA
  • Otimização não-linear multiobjetivo das condições de eficiência usando uma abordagem híbrida CFD-DOE: Uma aplicação prática em ventiladores centrífugos para fornos industriais

  • Orientador : ANDERSON PAULO DE PAIVA
  • MEMBROS DA BANCA :
  • ANDERSON PAULO DE PAIVA
  • FABRICIO JOSÉ PONTES
  • MATHEUS BRENDON FRANCISCO
  • Data: 19/02/2025

  • Mostrar Resumo
  • Este estudo apresenta a combinação de fluidodinâmica computacional, planejamento de experimentos e otimização multiobjetivo para auxiliar tomadores de decisão na seleção de uma configuração geométrica ideal e viável, de acordo com suas preferências, apresentando uma abordagem híbrida de otimização multivariada e multiobjetivo capaz de selecionar automaticamente soluções Pareto-ótimas com base na avaliação e classificação. O método integra modelos de superfície de resposta, métricas de classificação e técnicas de otimização a posteriori para refinar os ajustes de parâmetros e verificar as soluções mais adequadas dentro do espaço de soluções. A metodologia é exemplificada com um estudo de caso de um ventilador centrífugo feito de material AISI 304, usado para circulação de ar em um forno industrial operando em altas temperaturas. A abordagem abrange a otimização individual com base nas respostas originais, seguida pela validação do modelo por meio de novas simulações, comparando os resultados obtidos usando o Ansys Fluent® e avaliando os ganhos percentuais em relação ao ventilador original. As variáveis de entrada referem-se às pás do ventilador, enquanto as variáveis de resposta estão relacionadas à vazão mássica, torque, desempenho, custo, velocidade, pressão e turbulência. As melhorias mais significativas foram observadas na massa da pá, que foi minimizada em 65,8%, na magnitude da velocidade máxima, que foi maximizada em 23,7%, e na vazão mássica, que foi maximizada em 19,9%. Para fins de comparação e avaliação, os resultados obtidos também são comparados com o algoritmo genético de ordenação não dominada e técnicas de aprendizado de máquina, revelando um desempenho adequado.


  • Mostrar Abstract
  • This study presents the combination of computational fluid dynamics, design of experiments, and, multiobjective optimization to assist decision-makers in selecting an ideal and feasible geometric configuration according to their preferences. It offers a hybrid approach to multivariate and multiobjective optimization capable of automatically selecting Pareto-optimal solutions based on evaluation and ranking. The method integrates response surface models, classification metrics, and post-optimization techniques to refine parameter adjustments and verify the most suitable solutions within the solution space. The methodology is exemplified through a case study of a centrifugal fan made of AISI 304 material, used for air circulation in an industrial oven operating at high temperatures. The approach covers individual optimization based on the original responses, followed by model validation through new simulations, comparing the results obtained using Ansys Fluent® and assessing the percentage gains relative to the original fan. The input variables pertain to the fan blades, while the response variables relate to mass flow rate, torque, performance, cost, velocity, pressure, and turbulence. The most significant improvements were observed in blade mass, which was minimized by 65.8%, magnitude of maximum velocity, which was maximized by 23.7%, and mass flow rate, which was maximized by 19.9%. For comparison and assessment purposes, the results obtained are also compared with the non-dominated sorting genetic Algorithm and machine learning techniques, revealing suitable performance.

Teses
1
  • RAFAELA APARECIDA MENDONÇA MARQUES
  • ESTUDO SOBRE PLANOS DE INSPEÇÃO MISTOS BASEADOS NO ÍNDICE Cpk

  • Orientador : ANTONIO FERNANDO BRANCO COSTA
  • MEMBROS DA BANCA :
  • NILO SAMPAIO
  • ANDERSON PAULO DE PAIVA
  • ANTONIO FERNANDO BRANCO COSTA
  • JULIANA HELENA DAROZ GAUDENCIO
  • MARCELA APARECIDA GUERREIRO MACHADO DE FREITAS
  • Data: 10/03/2025

  • Mostrar Resumo
  • Vários artigos dedicados aos planos de amostragens mistos utilizando o estimador amostral , do índice de capacidade do processo Cpk, constituíram o objeto de estudo desta pesquisa.  Nos planos de amostragens mistos, uma amostra é submetida inicialmente a uma inspeção por atributos e, dependendo dos resultados, ela também é submetida a uma inspeção por variáveis. Ao submeter uma amostra à inspeção por atributos e após isso, submetê-la à inspeção por variáveis a distribuição da característica de qualidade X passa a ser truncada, dificultando a obtenção da distribuição do  e consequentemente dos riscos α e β. Nos artigos pesquisados, os autores não se atentaram a essa questão. Além disso, utilizaram uma expressão incorreta para a função distribuição acumulada do estimador . Por meio de simulações de Monte Carlo descobriu-se que os planos de amostragens ótimos apresentados por estes autores levam a riscos de aceitação de lotes de má qualidade altíssimos, prejudicando, em muito, o comprador. Foi necessário refazer toda otimização dos planos de amostragens, verdadeiramente respeitando os riscos α e β. Durante as investigações, observou-se que o estimador amostral  não necessariamente precisa ser em função dos limites de especificação. Ao se desvincular o estimador amostral  das especificações, a otimização dos planos de amostragens passa a ter mais um grau de liberdade, gerando redução do número médio de itens inspecionados por lote.  

     


  • Mostrar Abstract
  • Several articles dedicated to mixed sampling plans using the sampling estimator , from the process capability index Cpk, constituted the object of study of this research. In mixed sampling plans, a sample is initially subjected to an inspection by attributes and, depending on the results, it is also subjected to an inspection by variables. When submitting a sample to inspection by attributes and after that, subjecting it to inspection by variables, the distribution of the quality characteristic X becomes truncated, making it difficult to obtain the distribution of  and, consequently, of the risks α and β. In the researched articles, the authors did not pay attention to this issue. In addition, they used an incorrect expression for the cumulative distribution function of the  estimator. Through Monte Carlo simulations, it was discovered that the optimal sampling plans presented by these authors lead to very high risks of acceptance of poor quality lots, greatly harming the buyer. It was necessary to redo all the optimization of the sampling plans, truly respecting the α and β risks. During the investigations, it was observed that the sample estimator  does not necessarily need to be a function of the specification limits. By detaching the sampling estimator  from the specifications, the optimization of sampling plans now has one more degree of freedom, leading to a reduction in the average number of items inspected per lot.

     

2024
Dissertações
1
  • FLÁVIA GONTIJO CUNHA
  • MODELAGEM E SIMULAÇÃO PARA ANÁLISE DE VIABILIDADE ECONÔMICA DA LOGÍSTICA REVERSA DE RESÍDUOS DE EQUIPAMENTOS ELETROELETRÔNICOS (REEE)

  • Orientador : RENATO DA SILVA LIMA
  • MEMBROS DA BANCA :
  • MARCELLA BERNARDO PINTO
  • RAFAEL DE CARVALHO MIRANDA
  • RENATO DA SILVA LIMA
  • Data: 06/02/2024

  • Mostrar Resumo
  • O avanço tecnológico nas últimas décadas proporcionou inúmeras melhorias na vida cotidiana, entretanto trouxe à tona preocupações acerca da gestão dos Resíduos de Equipamentos Elétricos e Eletrônicos (REEE), visto que a geração de resíduos é inevitável. Grande parte destes resíduos é descartada de forma inadequada, prática que além de ser prejudicial ao meio ambiente e à saúde humana, resulta na perda de materiais presentes na composição desses equipamentos. Essa situação impulsionou o desenvolvimento de legislações e diretrizes, a fim de alcançar as metas da Economia Circular, a partir da ajuda de algumas ferramentas como a Logística Reversa (LR), e com isso mitigar os impactos ambientais e construir um sistema mais sustentável. No entanto, apenas 17,40% do total de REEE gerado no mundo é reciclado atualmente. Diversos estudos foram conduzidos na literatura científica sobre a gestão de REEE, contudo, poucos estudos se concentram na análise de viabilidade econômica. Diante disso, este trabalho tem o objetivo de desenvolver um modelo matemático e empregar a Simulação de Monte Carlo (SMC), para avaliar a viabilidade econômica da LR aplicada aos REEEs, em duas situações. A primeira situação envolve apenas a coleta e venda das peças inteiras dos REEEs, referida como RInt; enquanto a segunda inclui a coleta, pré-tratamento, trituração e venda, designada como RDesmont. O estudo foi conduzido utilizando a técnica IDEF-SIM, a SMC, a elaboração do Fluxo de Caixa Incremental (FCI). Além disso, foram utilizados os indicadores de viabilidade econômica, Valor Presente Líquido (VPL) e Taxa Interna de Retorno (TIR). O modelo proposto foi aplicado em uma empresa especializada em gestão de resíduos localizada no sul de Minas Gerais. Para conduzir as análises, foram estabelecidos nove cenários, nos quais variáveis de preços e distâncias foram modificadas. Os resultados obtidos a partir do modelo proposto revelaram que, com a coleta atual de uma quantidade total de 3.529 kg de REEE, nenhuma das duas situações, RInt e RDesmont, mostrou-se economicamente viável. Para viabilizar ambas as situações, seria necessário aumentar a coleta em 76,54% para a situação RInt e em 186,31% para a RDesmont. A análise revela também que um investimento mais elevado em um projeto não necessariamente resulta em VPLs superiores. Portanto, se os investimentos e os custos de reciclagem continuarem elevados, RDesmont apresentará valores de VPLs inferiores a RInt. Uma sugestão de melhoria para a situação RDesmont refere-se à fase de desmontagem. Verifica-se que ao reduzir o tempo de desmontagem, o RDesmont se torna mais viável economicamente do que o RInt. Dessa maneira, a adoção do ecodesign ao projetar Equipamentos Elétricos e Eletrônicos (EEEs) de forma que sejam facilmente desmontáveis pode contribuir significativamente para a redução dos custos associados à reciclagem. Por fim, conclui-se que ao reduzir os valores dos tributos, há uma melhoria nos valores dos VPLs. No entanto, a implementação de incentivos econômicos, tais como isenções ou reduções fiscais, embora benéfica, por si só não são suficientes para conferir à situação RDesmont uma viabilidade econômica superior à RInt.


  • Mostrar Abstract
  • The technological advancements in recent decades have brought numerous improvements to daily life; however, they have also raised concerns about the management of Waste Electrical and Electronic Equipment (WEEE), as waste generation is inevitable. A large portion of this waste is improperly disposed of, a practice that not only harms the environment and human health but also results in the loss of materials present in these equipment compositions. This situation has driven the development of legislation and guidelines to achieve Circular Economy goals, aided by tools such as Reverse Logistics (RL), aiming to mitigate environmental impacts and build a more sustainable system. However, currently, only 17.40% of the total WEEE generated worldwide is recycled. Various studies have been conducted in the scientific literature on WEEE management; however, few studies focus on economic feasibility analysis. Therefore, this work aims to develop a mathematical model and employ Monte Carlo Simulation (MCS) to evaluate the economic viability of RL applied to WEEE in two situations. The first situation involves only the collection and sale of intact parts of WEEE, referred to as RInt, while the second includes collection, pre-treatment, shredding, and sale, designated as RDesmont. The study was conducted using the IDEF-SIM technique, MCS, and the development of Incremental Cash Flow (ICF). Additionally, economic feasibility indicators, Net Present Value (NPV), and Internal Rate of Return (IRR) were used. The proposed model was applied to a waste management company located in southern Minas Gerais. To conduct the analyses, nine scenarios were established, in which price and distance variables were modified. The results obtained from the proposed model revealed that, with the current collection of a total quantity of 3,529 kg of WEEE, neither of the two situations, RInt and RDesmont, proved to be economically viable. To make both situations viable, it would be necessary to increase collection by 76.54% for the RInt situation and by 186.31% for RDesmont. The analysis also reveals that a higher investment in a project does not necessarily result in higher NPVs. Therefore, if investments and recycling costs remain high, RDesmont will present NPV values lower than RInt. An improvement suggestion for the RDesmont situation concerns the disassembly phase. It is noted that by reducing the disassembly time, RDesmont becomes more economically viable than RInt. Thus, adopting ecodesign when designing Electrical and Electronic Equipment (EEE) so that they are easily disassembled can significantly contribute to reducing recycling costs. Finally, it was also verified that reducing tax values results in improvements in NPV values. However, the implementation of economic incentives, such as exemptions or tax reductions, while beneficial, is not sufficient on its own to confer greater economic viability to the RDesmont situation compared to RInt.

2
  • JULIANA CÁSSIA DE SOUZA CALIARI
  • Acreditação e avaliação da qualidade de serviços odontológicos

  • Orientador : JULIANA HELENA DAROZ GAUDENCIO
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO SANCHES DA SILVA
  • JOÃO EDÉRSON CORRÊA
  • JULIANA HELENA DAROZ GAUDENCIO
  • RICARDO COSER MERGULHAO
  • Data: 06/02/2024

  • Mostrar Resumo
  • A Organização Nacional de Acreditação (ONA) desenvolveu um manual de avaliação para os serviços da saúde, cujos critérios principais tinham como foco a Gestão Administrativa, a Gestão de Pessoas e os Atendimentos. Inicialmente, em 1998, esse programa focava na avaliação de hospitais. No entanto, apenas em 2012, os critérios de avaliação foram adaptados para os serviços odontológicos. Com isso, o objetivo geral deste estudo é elaborar uma avaliação da qualidade dos serviços odontológicos, utilizando como referência os critérios estabelecidos pelo Manual Brasileiro de Acreditação da ONA e pelo modelo Servqual. Para tanto, definiu-se a método de pesquisa como estudo de caso para conseguir validação tanto na Rede Pública quanto na Rede Privada de uma cidade localizada no Sul de Minas Gerais. Os resultados foram avaliados por meio dos testes estatísticos e pelo Processo de Análise Hierárquico (AHP). Com a participação de 159 pacientes e sete dentistas entrevistados na Rede Municipal depreende-se, em relação ao modelo Servqual, para ambos entrevistados, que os subcritérios de qualidade eram Equipamentos e Serviço prestado de forma correta, dentro do prazo; e, o subcritério de intervenção era o fato do Dentista ser educado com o paciente. Em relação ao modelo ONA, pacientes apontaram como melhoria o subcritério Canal, ou seja, o meio para registrar anormalidades em relação ao serviço; para dentistas, a melhoria era o subcritério Higienização dos consultórios. Já no paralelo entre sete dentistas da Rede Municipal e cinco dentistas da Rede Privada, houve coincidência nos critérios. Os resultados apontavam melhoria, em relação ao modelo Servqual, os critérios Tangível, Segurança no atendimento e Responsabilidade profissional; e estratégias de intervenção era o critério Empatia. Em relação ao modelo ONA, era trabalhar os critérios Liderança Organizacional e Gestão de Infraestrutura com os outros critérios utilizados na avaliação para assegurar todas as lacunas e garantir a efetividade do serviço. Tais resultados levam a entender que os critérios selecionados do modelo Servqual e do modelo ONA eram complementares na avaliação, para ambas as Redes avaliadas. Propõe como ação prática a promoção de eventos para conscientização da saúde bucal, e com isso, a diminuição dos indicadores de busca a assistência odontológica.


  • Mostrar Abstract
  • The National Accreditation Organization developed an evaluation manual for health services, whose main criteria focused on Administrative Management, People Management and Care. Initially, in 1998, this program focused on evaluating hospitals. However, it was only in 2012 that the assessment criteria were adapted for dental services. With this in mind, the general aim of this study is to draw up an assessment of the quality of dental services, using the criteria established by the ONA's Brazilian Accreditation Manual and the Servqual model as a reference. To this end, the research method was defined as a case study in order to achieve validation in both public and private schools in a city located in the south of Minas Gerais. The results were evaluated using statistical tests and the Hierarchical Analysis Process. With the participation of 159 patients and seven dentists interviewed in the Municipal Network, the Servqual model shows that, for both interviewees, the quality sub-criteria were Equipment and Service provided correctly, on time; and the intervention sub-criterion was the fact that the Dentist was polite to the patient. In relation to the ONA model, patients pointed to the sub-criterion Channel as an improvement, the means of reporting abnormalities in relation to the service; for dentists, the improvement was the sub-criterion Hygiene of offices. In the parallel between seven dentists from the Municipal Network and five dentists from the Private Network, the criteria coincided. The results pointed to improvements, in relation to the Servqual model, in the Tangible, Safety in care and Professional responsibility criteria; and intervention strategies in the Empathy criterion. In relation to the ONA model, the criteria Organizational Leadership and Infrastructure Management had to be worked on with the other criteria used in the assessment to ensure all the gaps were filled and guarantee the effectiveness of the service. These results suggest that the criteria selected from the Servqual model and the ONA model were complementary in the evaluation of both networks. As a practical action, we propose the promotion of events to raise awareness of oral health, and thus reduce the indicators for seeking dental care.

3
  • DANIEL DE OLIVEIRA PESSOA
  • MODELO DE SIMULAÇÃO HÍBRIDA PARA IMPLANTAÇÃO DE BICICLETA COMPARTILHADA COMO ALTERNATIVA AO TRANSPORTE PÚBLICO

  • Orientador : RENATO DA SILVA LIMA
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • JANAINA ANTONINO PINTO
  • RENATO DA SILVA LIMA
  • Data: 27/03/2024

  • Mostrar Resumo
  • As capitais brasileiras estão classificadas entre as cidades com os piores índices de tempo gasto no trânsito. Este cenário é amplamente influenciado pelo uso predominante de automóveis individuais no país, o que contribui para um sistema de transporte público menos eficiente, especialmente em trajetos curtos. Embora o transporte público seja uma alternativa viável para aliviar o excesso de veículos em circulação, o tempo de deslocamento torna essa opção pouco atrativa. Assim, para deslocamentos de curta distância, conhecidos como “última milha”, as bicicletas compartilhadas surgem como uma alternativa promissora para a redução do tempo de viagem dos usuários, podendo ser integradas ao sistema de transporte público para deslocamentos maiores nos grandes centros urbanos. De modo a compreender esse potencial, a simulação mostra-se como uma metodologia capaz de trazer uma representação virtual do ambiente, possibilitando a realização de alterações sem que seja necessária a intervenção física no sistema. Neste contexto, o objetivo do trabalho foi desenvolver e aplicar um modelo de simulação híbrida para a análise de sistemas de transporte urbano com bicicletas compartilhadas. Com o modelo, foi possível não apenas mensurar os benefícios proporcionados por esses sistemas, mas também assessorar o processo de tomada de decisão para a implantação de novas estações e melhorias na infraestrutura urbana. O modelo proposto adota uma abordagem híbrida, isto é, aplicando em conjunto a Simulação Baseada em Agentes (SBA) e a Simulação de Eventos Discretos (SED), como objeto de estudo a Região central da cidade de Belo Horizonte, MG (Região do Contorno). Para a etapa de construção do modelo computacional, foi utilizado o software AnyLogic, com o qual, foi possível a simulação de nove cenários distintos, considerando variações nas velocidades dos ônibus e bicicletas, bem como a presença ou ausência de ciclofaixas, condições climáticas e níveis de tráfego. A validação do modelo envolveu a coleta de dados em campo via GPS, relativos à velocidade, localização, tempo e elevação dos deslocamentos de bicicleta na região de estudo. Testes de significância indicaram que as médias dos dados simulados e reais são estatisticamente equivalentes, validando assim o modelo computacional desenvolvido. Ao final da simulação, foi possível obter os tempos de deslocamento em cada tipo de transporte. A análise comparativa entre as modalidades revelou uma significativa vantagem na implantação de bicicletas compartilhadas: em curtas distâncias, a redução no tempo de percurso com o uso da bicicleta foi de até 61% em comparação ao ônibus. No entanto, é necessário destacar que a opção por esse modo de transporte ativo demanda esforço físico, o que pode ser um fator limitante para alguns usuários.


  • Mostrar Abstract
  • Brazilian capitals are ranked among cities with the worst traffic time indices. This scenario is largely influenced by the predominant use of private vehicles in the country, leading to a less efficient public transportation system, especially for short routes. Although public transport is a viable option to relieve the excess of circulating vehicles, the travel time makes this alternative less attractive. Thus, for short-distance commutes, known as the "last mile," shared bicycles emerge as a promising alternative to reduce the travel time for users, which can be integrated into the public transport system for longer distances in major urban centers. To understand this potential, simulation proves to be a methodology capable of providing a virtual representation of the environment, allowing for modifications without the need for physical intervention in the system. In this context, the aim of the work is to develop and apply a hybrid simulation model for analyzing urban transport systems with shared bicycles. With the model, it is possible not only to measure the benefits provided by these systems but also to assist the decision-making process for the implementation of new stations and improvements in urban infrastructure. The proposed model adopts a hybrid approach, that is, combining Agent-Based Simulation (ABS) and Discrete Event Simulation (DES), focusing on the central region of Belo Horizonte, MG (Contorno Region) as the study object. For the construction phase of the computational model, the AnyLogic software was used, which made it possible to simulate nine different scenarios, considering variations in the speeds of buses and bicycles, as well as the presence or absence of bike lanes, weather conditions, and traffic levels. The model validation involved collecting field data via GPS, related to speed, location, time, and elevation of bicycle displacements in the study region. Significance tests indicated that the averages of the simulated and real data are statistically equivalent, thus validating the developed computational model. At the end of the simulation, it was possible to obtain the travel times for each type of transport. The comparative analysis between the modes revealed a significant advantage in the deployment of shared bicycles: for short distances, the reduction in travel time with the use of bicycles was up to 61% compared to buses. However, it is necessary to highlight that choosing this active mode of transportation requires physical effort, which may be a limiting factor for some users.

4
  • GUILHERME FERREIRA LOPES
  • Redução do espaço de busca em problemas de Otimização via Simulação Multiobjetivo utilizando Análise Envoltória de Dados e Latin Hypercube Design

  • Orientador : RAFAEL DE CARVALHO MIRANDA
  • MEMBROS DA BANCA :
  • ANEIRSON FRANCISCO DA SILVA
  • JULIANA HELENA DAROZ GAUDENCIO
  • RAFAEL DE CARVALHO MIRANDA
  • Data: 16/07/2024

  • Mostrar Resumo
  • Dentro de um contexto globalizado, o processo de tomada de decisão é crucial para o
    andamento das atividades planejadas. Tal importância tem refletido diretamente na busca pelo aperfeiçoamento dos processos, o que possibilitou a aplicação da otimização dos sistemas, voltando-os ao uso da Simulação a Eventos Discretos (SED). Entretanto, este campo de pesquisa ainda é pouco explorado devido ao tempo de convergência dos algoritmos, uma vez que os problemas reais apresentam inúmeros objetivos, sendo eles conflitantes entre si. Neste contexto, o trabalho propõe um framework capaz de reduzir o espaço de busca em problemas de Otimização via Simulação Multiobjetivo (OvSM) e, consequentemente, o tempo computacional, obtendo soluções de elevada qualidade, identificando os melhores limites de variação para cada variável de decisão e, adicionalmente, apresentar ao tomador de decisão, a melhor alocação dos recursos. Para isso, o framework proposto combina a SED, o método de Latin Hypercube Design (LHD) e a análise de Supereficiência por meio da Análise Envoltória de Dados (DEA) com retornos variáveis de escala (BCC). Neste framework, o espaço de busca completo é representado pela matriz LHD e com base nos cenários gerados pela matriz, o método de Supereficiência DEA – BCC é aplicado, sendo adotados os novos limites do problema multiobjetivo. A proposta foi aplicada a dois objetos de estudos, o primeiro abrange uma operação do setor logístico e o segundo, retrata o processo de uma multinacional líder em soluções para construção civil, de modo que ambos os objetos de estudos utilizaram-se de
    dados reais e apresentam níveis de complexidades distintos. Desta forma, o primeiro objeto de estudo apresentou uma redução de 70% do espaço de busca e de 17,44% do tempo
    computacional. Já para o segundo objeto, apresentou uma redução de 89% do espaço de busca e de 28,71% do tempo computacional. Em suma, o framework proposto demonstrou-se promissor ao abordar objetos complexos de OvSM e apresentou resultados significativos.


  • Mostrar Abstract
  • In a globalized context, the decision-making process is crucial for the progress of planned
    activities. This importance has directly reflected in the pursuit of process improvement,
    enabling the application of system optimization, specifically through the use of Discrete Event Simulation (DES). However, this research field remains underexplored due to the
    convergence time of algorithms, as real-world problems present numerous objectives that is
    often conflicting. In this context, this work proposes a method capable of reducing the search space in Multi-objective Simulation Optimization (MOSO) problems and, consequently, the computational time, obtaining high-quality solutions, identifying the best variation limits for each decision variable, and additionally presenting the decision-maker with the best resource allocation. To achieve this, the proposed method combines DES, the Latin Hypercube Design (LHD) method, and Super-efficiency analysis through Data Envelopment Analysis (DEA) with variable returns to scale (VRS). In this method, the complete search space is represented by the LHD matrix, and based on the scenarios generated by the matrix, the DEA – VRS Super-efficiency method is applied, adopting the new limits for the multi-objective problem. The proposal was applied to two study objects: the first encompasses a logistics sector operation, and the second portrays the process of a multinational leader in construction solutions, with both study objects using real data and presenting distinct levels of complexity. Thus, the first study object showed a 70% reduction in the search space and a 17.44% reduction in computational time. For the second object, there was an 89% reduction in the search space and a 28.71% reduction in computational time. In summary, the proposed method proved to be promising in addressing complex MOSO objects and presented significant results.

5
  • MARIA APARECIDA BARBOSA VIAM
  • IMPACTOS DA ACREDITAÇÃO HOSPITALAR NA SEGURANÇA DO PACIENTE

  • Orientador : CARLOS HENRIQUE PEREIRA MELLO
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • ANA PAULA SIQUEIRA SILVA DE ALMEIDA
  • CARLOS HENRIQUE PEREIRA MELLO
  • JOÃO EDÉRSON CORRÊA
  • Data: 29/07/2024

  • Mostrar Resumo
  • A acreditação representa um método voluntário de avaliação que visa promover a excelência no atendimento, a melhoria contínua, a qualidade e a segurança do paciente. No contexto da assistência à saúde, a segurança do paciente é um dos critérios fundamentais da qualidade. Trata-se da capacidade de um serviço de prevenir ou mitigar danos decorrentes da assistência prestada, ou seja, os danos associados aos cuidados de saúde. A Unidade de Terapia Intensiva de um hospital é onde ocorre o maior número de procedimentos, o que aumenta a interação entre paciente-profissional e profissional-profissional, consequentemente, elevando as chances de ocorrência de erros. No Brasil, o Ministério da Saúde, por meio da Agência Nacional de Vigilância Sanitária, realiza anualmente uma avaliação da adesão às práticas de segurança do paciente nas instituições de saúde que possuem Unidade de Terapia Intensiva. Em virtude disso, o objetivo desta dissertação é avaliar o impacto da acreditação na segurança do paciente em hospitais com Unidade de Terapia Intensiva, com base nos Relatórios de Autoavaliação das Práticas de Segurança do Paciente de 2021, 2022 e 2023. Para tanto, foi conduzida uma análise de regressão linear simples para determinar a relação entre o número de estabelecimentos que atingiram alta adesão a práticas de segurança do paciente e os estabelecimentos que possuem certificação de qualidade. Verificou-se quais serviços listados possuem acreditação e, por meio da análise de regressão simples, identificou-se a correlação entre hospitais com forte adesão às práticas de segurança do paciente e os hospitais acreditados, observando-se uma correlação estatisticamente significativa.


  • Mostrar Abstract
  • Accreditation is a voluntary evaluation method that aims to promote excellence in care, continuous improvement, quality and patient safety. In the context of healthcare, patient safety is one of the fundamental quality criteria. It is the ability of a service to prevent or mitigate harm resulting from the care provided, i.e. harm associated with healthcare. The Intensive Care Unit of a hospital is where the greatest number of procedures take place, which increases the interaction between patient-professional and professional-professional, consequently increasing the chances of errors occurring. In Brazil, the Ministry of Health, through the National Health Surveillance Agency, carries out an annual assessment of adherence to patient safety practices in health institutions that have an Intensive Care Unit. As a result, the aim of this dissertation is to assess the impact of accreditation on patient safety in hospitals with Intensive Care Units, based on the Patient Safety Practices Self-Assessment Reports for 2021, 2022 and 2023. To this end, a simple linear regression analysis was conducted to determine the relationship between the number of establishments that have achieved high adherence to patient safety practices and the establishments that have quality certification. The services listed were checked for accreditation and, using simple regression analysis, a correlation was identified between hospitals with high adherence to patient safety practices and accredited hospitals, with a statistically significant correlation being observed.

6
  • CAROLINA VICTÓRIA DE JESUS CAMPOS DE AZEVEDO JULIO
  • Avaliação da confiabilidade de bombas centrífugas utilizando dados de acionamento de garantia como falha em campo

  • Orientador : JULIANA HELENA DAROZ GAUDENCIO
  • MEMBROS DA BANCA :
  • ANDRESSA DOS SANTOS NICOLAU
  • ANTONIO FERNANDO BRANCO COSTA
  • JULIANA HELENA DAROZ GAUDENCIO
  • Data: 13/08/2024

  • Mostrar Resumo
  • Este trabalho apresenta a condução de uma avaliação de confiabilidade de produto, utilizando dados de acionamento de garantia como base para a análise de falhas em campo. A confiabilidade é a probabilidade de um produto operar sem falhas durante um período específico. Considerando que a imagem da marca e a credibilidade do produto estão ligadas à percepção de qualidade dos clientes, o entendimento da confiabilidade dos produtos torna-se crucial para se manter competitivo no mercado. Muitos fabricantes, ocasionalmente limitados por recursos, lançam produtos sem compreender sua confiabilidade, resultando em altos custos de reparo devido ao retorno na garantia. Neste contexto, os dados de acionamento de garantia podem fornecer uma oportunidade valiosa e de baixo custo para entender a confiabilidade dos produtos no mercado e aplicar o conceito de melhoria contínua, uma vez que oferecem uma visão realista da operação dos produtos e das falhas em campo. A pesquisa se concentra na avaliação da confiabilidade de bombas centrífugas hidráulicas, fabricadas por uma indústria de equipamentos de lazer com mais de 50 anos de mercado. O objetivo foi verificar estatisticamente a confiabilidade do produto, nunca antes avaliada, utilizando dados de falha em campo coletadas pelo Serviço de Atendimento ao Consumidor/Cliente (SAC) por meio do acionamento de garantia, demonstrando assim um método gratuito e oportuno, principalmente para fabricantes que possuem produtos neste contexto. Aplicou-se a Teoria Estatística da Confiabilidade, realizando uma modelagem probabilística dos dados até a primeira falha, considerando um único modo de falha (por limitações dos dados utilizados). Ajustando-os ao modelo de distribuição Weibull, utilizando a estimativa de Máxima Verossimilhança e o teste de qualidade de ajuste Anderson-Darling, o auxílio e demonstração da utilização de recurso computacional com o software MINITAB® (código fechado) foi realizada. A mesma análise também foi demonstrada com o software RStudio (código aberto) com o intuito de apresentar um recurso acessível. Devido às dificuldades de ajuste dos dados de falha em campo derivados do acionamento de garantia (que são de natureza incerta e censurada), comparou-se os resultados do modelo paramétrico Weibull com os resultados obtidos pelo modelo não-paramétrico Kaplan-Meier, gerados com os mesmos softwares. Também foram utilizadas ferramentas como a Failure Mode and Effect Analysis (FMEA) e a Fault Tree Analysis (FTA) para analisar causas e efeitos das falhas, complementando a avaliação e evidenciando possíveis oportunidades de organização dos dados de falha por modo de falha. Os resultados obtidos por meio do método demonstraram valores de confiabilidade aproximados de 40% na metade do tempo de garantia; esse resultado parece não representar com precisão a realidade do produto avaliado e pode ter sido influenciado pela característica incerta e censurada dos dados derivados do acionamento de garantia, e pelas imprecisões observadas nos dados fornecidos pela fabricante. Esses resultados sugerem que, para aproveitamento dos benefícios da aplicação do método, é importante considerar as características de incerteza e censura dos dados de falha em campo obtidos por meio dos registros de acionamento da garantia e minimizá-las para obtenção de resultados mais precisos e coerentes. Neste contexto, a condução de estudos que aprimorem o método é sugerida e incentivada, tendo em vista seus benefícios sólidos (representando falhas no cenário real, sem variáveis de operação controladas, a custo zero) e de impacto social, que auxiliam principalmente pequenas e médias empresas/indústrias/fabricantes na implantação de uma cultura voltada à confiabilidade.


  • Mostrar Abstract
  • This paper presents the conduct of a product reliability assessment, using warranty drive data as a basis for analyzing failures in the field. Reliability is the probability that a product will operate fault-free for a specific period of time. Considering that brand image and product credibility are linked to customers' perception of quality, understanding product reliability becomes crucial to remaining competitive in the market. Many manufacturers, occasionally limited by resources, launch products without understanding their reliability, resulting in high repair costs due to warranty returns. In this context, warranty drive data can provide a valuable and low-cost opportunity to understand the reliability of products on the market and apply the concept of continuous improvement, as it offers a realistic view of product operation and failures in the field. The research focuses on assessing the reliability of hydraulic centrifugal pumps, manufactured by a leisure equipment industry with more than 50 years on the market. The aim was to statistically verify product reliability, which has never been assessed before, using field failure data collected by the Customer Service Department (SAC) through warranty claims, thus demonstrating a free and timely method, especially for manufacturers who have products in this context. The Statistical Theory of Reliability was applied, performing a probabilistic modeling of the data up to the first failure, considering a single failure mode (due to limitations of the data used). Fitting them to the Weibull distribution model, using Maximum Likelihood estimation and the Anderson-Darling fit quality test, the aid and demonstration of the use of computational resources with MINITAB® software (closed source) was carried out. The same analysis was also demonstrated using RStudio software (open source) in order to present an accessible resource. Due to the difficulties in adjusting the field failure data derived from the warranty activation (which is of an uncertain and censored nature), the results of the parametric Weibull model were compared with the results obtained by the non-parametric Kaplan-Meier model, generated with the same software. Tools such as Failure Mode and Effect Analysis (FMEA) and Fault Tree Analysis (FTA) were also used to analyze failure causes and effects, complementing the assessment and highlighting possible opportunities for organizing failure data by failure mode. The results obtained using the method showed reliability values of approximately 40% halfway through the warranty period; this result does not seem to accurately represent the reality of the product being assessed and may have been influenced by the uncertain and censored nature of the data derived from the warranty claim, and by the inaccuracies observed in the data supplied by the manufacturer. These results suggest that, in order to take advantage of the benefits of applying the method, it is important to consider the uncertainty and censorship characteristics of the field failure data obtained from the warranty activation records and minimize them in order to obtain more accurate and coherent results. In this context, studies to improve the method are suggested and encouraged, in view of its solid benefits (representing failures in a real scenario, without controlled operating variables, at zero cost) and social impact, which mainly help small and medium-sized companies/industries/manufacturers to implement a reliability-oriented culture.

7
  • ÉRICA CAROLINA RIBEIRO
  • GESTÃO INDUSTRIAL DE RECURSOS HÍDRICOS: UM MAPEAMENTO SUSTENTÁVEL COM BASE NO PENSAMENTO ENXUTO

  • Orientador : JOSE HENRIQUE DE FREITAS GOMES
  • MEMBROS DA BANCA :
  • JOSE HENRIQUE DE FREITAS GOMES
  • MARCELO MACHADO FERNANDES
  • RAFAEL DE CARVALHO MIRANDA
  • Data: 06/09/2024

  • Mostrar Resumo
  • As mudanças climáticas têm afetado a disponibilidade e a renovação de recursos naturais e, nesse contexto, a água se torna um fator limitante para o desenvolvimento sustentável. Gerenciar os recursos hídricos de forma integrada é essencial, e as indústrias, que são grandes consumidoras de água, ocupam um lugar estratégico ao adotar um modelo de fabricação mais limpo. Com efeito, combinar técnicas enxutas e verdes se mostra uma solução eficaz para atender aos parâmetros sustentáveis. Uma revisão do estado da arte mostrou que o emprego conjunto de técnicas enxutas com a produção verde pode ser sinérgico em muitos aspectos, mesmo com objetivos filosóficos diferentes. Para tanto, o uso de ferramentas enxutas pode ser benéfico e, em especial, as ferramentas que mapeiam o sistema produtivo. Nesse sentido, este trabalho utilizou o Mapeamento do Fluxo de Valor para identificar o fluxo de água em uma indústria de alimentos, adaptando os parâmetros usados na cadeia de suprimentos para parâmetros hídricos. Os resultados indicaram que o Mapeamento do Fluxo de Valor poderia ser adaptado para identificar e mitigar os impactos associados ao uso da água nos processos da indústria alimentícia. O mapeamento do estado futuro tem o potencial de gerar reflexos positivos na sustentabilidade, promovendo o uso mais eficiente dos recursos e aprimorando a estrutura operacional da empresa. Isso possibilita a implementação dos três pilares da sustentabilidade: econômico, social e ambiental. Este enfoque visa não apenas aprimorar a eficiência no uso dos recursos hídricos, mas também fortalecer o compromisso com práticas sustentáveis e responsáveis, contribuindo para um modelo de operação mais consciente e alinhado com os princípios de sustentabilidade.


  • Mostrar Abstract
  • Climate change has affected the availability and renewal of natural resources, and in this context, water becomes a limiting factor for sustainable development. Managing water resources in an integrated manner is essential, and industries, being major consumers of water, hold a strategic position by adopting a cleaner manufacturing model. Consequently, combining lean and green techniques proves to be an effective solution to meet sustainability parameters. A state-of-the-art review revealed that the combined use of lean techniques with green production can be synergistic in many aspects, despite having different philosophical goals. In this regard, the use of lean tools can be beneficial, especially those that map the production system. This study employed Value Stream Mapping to identify the water flow in a food industry, adapting the parameters used in the supply chain to water parameters. The results indicated that Value Stream Mapping could be adapted to identify and mitigate the impacts associated with water use in food industry processes. The future state mapping has the potential to yield positive impacts on sustainability by promoting more efficient resource use and improving the company’s operational structure. This enables the implementation of the three pillars of sustainability: economic, social, and environmental. This approach aims not only to enhance the efficiency of water resource use but also to strengthen the commitment to sustainable and responsible practices, contributing to a more conscious and sustainability-aligned operational model.

8
  • CLÁUDIA MAISA PEREIRA DA SILVA
  • PROGRAMAS CORPORATIVOS DE INOVAÇÃO ABERTA E PROGRAMAS DE INTRAEMPREENDEDORISMO: UM COMPARATIVO EM RELAÇÃO AO DESEMPENHO INOVADOR

  • Orientador : CARLOS HENRIQUE PEREIRA MELLO
  • MEMBROS DA BANCA :
  • EDUARDO DE SENZI ZANCUL
  • CARLOS HENRIQUE PEREIRA MELLO
  • MATHEUS BRENDON FRANCISCO
  • Data: 16/10/2024

  • Mostrar Resumo
  • Este trabalho tem como principal objetivo compreender como os pressupostos que mensuram o desempenho inovador são afetados com as práticas dos programas de inovação aberta e programas de intraempreendedorismo. Entende-se que, no âmbito da inovação aberta ou open innovation, os programas de relacionamento com startups e programas de intraempreendedorismo podem afetar direta ou indiretamente o desempenho inovador das organizações, empresas e corporações. Dado o crescimento de programas corporativos dessa natureza, há uma grande necessidade de pesquisas que compreendam práticas como a da inovação aberta e seus resultados. Nesse sentido, a pesquisa visa fazer um comparativo entre os programas de inovação aberta e programas de intraempreendedorismo de três empresas, considerando o desempenho inovador nos seguintes pressupostos: (1) quantidade e a variedade de produtos e serviços desenvolvidos, (2) novas tecnologias utilizadas na produção e nos serviços; (3) novas maneiras de organizar e gerenciar o trabalho e (4) aumentar a participação das vendas com os produtos e serviços novos e a (5) participação nas vendas com produtos novos para a empresa. Além disso, a construção da revisão bibliográfica utiliza a revisão sistemática de fontes publicadas sobre o tema entre os anos de 2018 e 2022. O presente trabalho é classificado como um estudo de múltiplos casos, abrangendo três grandes empresas brasileiras referentes em inovação em seus setores. Sua natureza é aplicada e de cunho exploratório-descritivo, fundamentada na abordagem quanti-qualitativa. Os resultados indicam que os programas de inovação aberta com startups e o intraempreendedorismo, embora distintas, buscam o mesmo objetivo: promover a inovação, impulsionar o progresso tecnológico e aumentar a competitividade organizacional. A inovação aberta se caracteriza por parcerias com startups, visando incorporar ideias e tecnologias inovadoras, enquanto o intraempreendedorismo estimula a criatividade e o espírito empreendedor entre os colaboradores internos. Nas três empresas o foco dos programas de inovação aberta é implantar soluções na produção e nos serviços não ocorrendo desenvolvimento de novos produtos e serviços e, consequentemente, não houve o aumento da participação de vendas. Apesar de uma das empresas possuir mais de um tipo de programa para inovação aberta, tendo um específico para desenvolvimento de novos produtos e serviço, o resultado mostra o desconhecimento da gestão quanto ao aumento de receita. Ambos os programas proporcionaram novas formas de organização e gestão do trabalho. Contudo, em relação ao uso de novas tecnologias na produção e serviços, os programas de inovação aberta se destacaram, apresentando resultados significativamente positivos.


  • Mostrar Abstract
  • The main objective of this work is to understand how the assumptions that measure innovative performance are affected by the practices of open innovation programs and intrapreneurship programs. It is understood that, in the context of open innovation, relationship programs with startups and intrapreneurship programs can directly or indirectly affect the innovative performance of organizations, companies and corporations. Given the growth of corporate programs of this nature, there is a great need for research into practices such as open innovation and their results. In this sense, the research aims to make a comparison between the open innovation programs and intrapreneurship programs of three companies, considering the innovative performance in the following assumptions: (1) quantity and variety of products and services developed, (2) new technologies used in production and services; (3) new ways of organizing and managing work and (4) increasing the share of sales with new products and services and the (5) share of sales with new products for the company. In addition, the construction of the literature review uses a systematic review of sources published on the subject between 2018 and 2022. This work is classified as a multiple case study, covering three large Brazilian companies that are leaders in innovation in their sectors. Its nature is applied and exploratory-descriptive, based on a quantitative-qualitative approach. The results indicate that open innovation programs with startups and intrapreneurship, although distinct, pursue the same goal: promoting innovation, boosting technological progress and increasing organizational competitiveness. Open innovation is characterized by partnerships with startups, aimed at incorporating innovative ideas and technologies, while intrapreneurship stimulates creativity and entrepreneurial spirit among internal employees. In the three companies, the focus of the open innovation programs is to implement solutions in production and services, but there is no development of new products and services and, consequently, no increase in the share of sales. Although one of the companies has more than one type of open innovation program, with a specific one for developing new products and services, the result shows that management is unaware of the increase in revenue. Both programs provided new ways of organizing and managing work. However, with regard to the use of new technologies in production and services, the open innovation programs stood out, showing significantly positive results.

Teses
1
  • ANDREZA DE AGUIAR HUGO
  • A ECONOMIA CIRCULAR NA INDÚSTRIA DA MODA: UM ÍNDICE DE CIRCULARIDADE PARA A CADEIA DE SUPRIMENTOS

  • Orientador : RENATO DA SILVA LIMA
  • MEMBROS DA BANCA :
  • CARLOS HENRIQUE PEREIRA MELLO
  • DANIEL JUGEND
  • JENIFFER DE NADAE
  • MARLY MONTEIRO DE CARVALHO
  • RAFAEL SILVA CAPAZ
  • RENATO DA SILVA LIMA
  • Data: 04/04/2024

  • Mostrar Resumo
  • A indústria da moda é alvo de críticas ambientais e sociais, uma vez que é considerada uma das maiores poluidoras do mundo e muitos de seus trabalhadores estão sujeitos às condições precárias de trabalho e baixos salários. Tal situação, é reflexo do alto consumismo originado da própria cadeia de suprimentos da moda (CSM), que impõe uma produção em massa e um alto volume de produtos a preços baixos, operando, em sua grande maioria, no sentido da economia linear, principalmente impulsionado pelo surgimento do fast fashion. Por conta desses fatores, a sustentabilidade tornou-se um tema muito debatido na moda, principalmente a questão da transição para um modelo de produção circular. Logo, várias iniciativas de economia circular (EC) passaram a fazer parte de algumas empresas de moda, podendo ser encontrados negócios que já nasceram com a ideia da sustentabilidade enraizada e negócios que estão buscando se tornar eticamente e ecologicamente corretos. Entretanto, existem diversas barreiras que podem dificultar a moda circular e dentre elas, está a desconfiança do consumidor com relação à veracidade das atividades praticadas por essas organizações que se intitulam sustentáveis. Neste sentido, é importante que a sustentabilidade dessas empresas seja verificada, através de métodos e/ou modelos que mensurem suas circularidades. Assim, o objetivo deste trabalho é desenvolver o CFI - Índice da Moda Circular (Circular Fashion Index), gerado a partir da construção de uma ferramenta de avaliação da circularidade da CSM. Para o desenvolvimento do CFI, foi essencial identificar e elaborar indicadores de EC específicos para a CSM. Esses indicadores foram hierarquizados e divididos nas dimensões do triple botton line (ambiental, social e econômico), e foram priorizados utilizando o método da Análise de Decisão Multicritério, Analytic Hierarchy Process (AHP). A avaliação foi conduzida através de um questionário enviado para empresas de moda pré-selecionadas. Foram recebidas sete respostas de empresas que já nasceram sustentáveis. Além destas, também foram realizadas avaliações indiretas com duas empresas de fast fashion, grandes redes do varejo de moda, através da análise de seus relatórios de sustentabilidade. Os resultados dos CFIs apontam que a maioria das empresas são classificadas como média circularidade, pois nenhuma delas alcançou um índice maior ou igual a 0,8 (numa escala de 0 a 1). No entanto, três marcas receberam CFIs com valores próximos ao ideal (0,73; 0,72 e 0,71), o que indica que são necessárias poucas mudanças para a melhoria da circularidade. Além disso, mesmo não obtendo um CFI satisfatório, a maioria das empresas investigadas estão bem alinhadas com a questão social do tripé da sustentabilidade, uma vez que seus indicadores foram bem avaliados neste quesito. Assim, as principais contribuições desta tese estão na criação do CFI, que além de mostrar se a CSM avaliada pode ser considerada circular, também apresenta como base de sua elaboração, uma seleção inédita de indicadores de EC específicos para este setor. Estes indicadores também podem ser utilizados para identificação dos pontos de maior fraqueza da cadeia e de maior atenção para a melhoria da circularidade da moda.


  • Mostrar Abstract
  • The fashion industry suffers from environmental and social criticism, as it is considered one of the most polluting in the world and many of its workers are subject to precarious working conditions and low wages. This situation is a reflection of the high consumerism originated from the fashion supply chain, which imposes mass production and a high volume of products at low prices. Most of the time, this industry works in the sense of linear economy, mainly driven by the emergence of fast fashion. Because of these factors, sustainability has become a hotly debated topic in fashion, especially the transition to a circular production model. Soon, several circular economy (CE) initiatives became part of some fashion companies and businesses that were born sustainable and businesses that are seeking to become ethically and ecologically correct can be found. However, there are several barriers that can make circular fashion difficult and among them is the consumer's suspicion regarding the veracity of the activities practiced by these sustainable organizations. In this sense, it is important that the sustainability of these companies is verified, through methods and/or models that measure their circularity. So, the purpose of this work is to develop the Circular Fashion Index (CFI), generated from the construction of a tool to assess the circularity of the green fashion supply chain. For the development of the CFI, it was essential to identify and develop specific CE indicators for the fashion supply chain. These indicators were ranked and divided into the dimensions of the triple bottom line (TBL), environmental, social and economic, and will be prioritized using the method of Multi-criteria Decision Analysis, Analytic Hierarchy Process (AHP). The evaluation was carried out by sending a questionnaire to pre-selected fashion companies. Seven responses were received from companies that were born sustainable. In addition, indirect evaluations were also carried out with two fast fashion companies, major fashion retailers, through the analysis of their sustainability reports. The CFIs’s results indicate that the majority of companies are classified as medium circularity, as none of them achieved an index greater than or equal to 0.8 (on a scale of 0 to 1). However, three brands received CFIs with values close to ideal (0.73, 0.72 e 0.71), which indicates few changes to improve circularity. Furthermore, even though they did not obtain a satisfactory CFI, the majority of companies investigated are suitable with the social issue of the triple bottom line, since their indicators were well evaluated in this regard. Thus, the main contributions of this thesis are the creation of the CFI, which, in addition to showing if the evaluated fashion supply chain can be considered circular, will also present an unprecedented selection of CE indicators specific to this sector. These indicators can also be used to identify the points of greatest weakness in the supply chain and of greater attention to improving the circularity of fashion.

2
  • KAIQUE OSÓRIO ALVES NETO SILVA
  • DISRUPSIM: UMA FERRAMENTA DE APOIO À DECISÃO PARA PROMOÇÃO DA RESILIÊNCIA DO TRANSPORTE URBANO DE CARGAS DO E-COMMERCE DURANTE EVENTOS DISRUPTIVOS

  • Orientador : RENATO DA SILVA LIMA
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • PAULO ROTELLA JUNIOR
  • RAFAEL DE CARVALHO MIRANDA
  • RENATA LUCIA MAGALHAES DE OLIVEIRA
  • RENATO DA SILVA LIMA
  • ROBERTA ALVES
  • Data: 05/04/2024

  • Mostrar Resumo
  • Eventos disruptivos têm o potencial de impactar profundamente a forma como as empresas gerenciam e operam suas cadeias de suprimentos. Esses eventos podem ser desencadeados por uma variedade de fatores, como: desastres naturais, pandemias, mudanças regulatórias, inovações tecnológicas ou interrupções geopolíticas. Seu acontecimento é inevitável e é fundamental que as empresas estejam preparadas para enfrentá-los. De particular interesse para esse trabalho está o comércio eletrônico e o impacto de suas entregas no Transporte Urbano de Cargas (TUC) durante e após eventos disruptivos. Nesse contexto, o uso de ferramentas que apoiem a tomada de decisão pode auxiliar na busca de soluções para mitigar os impactos decorrentes destes eventos, garantindo a resiliência das operações de transporte mesmo em momentos de turbulência. Durante um evento disruptivo, o volume de encomendas entregues pode aumentar consideravelmente, gerando uma demanda de entregas de comércio eletrônico que supera as expectativas. Isso impacta diretamente a atuação das transportadoras em ambiente urbano, que enfrentam um aumento expressivo na demanda de entregas. O objetivo desta tese é apresentar o DISRUPSIM: uma ferramenta de apoio à decisão para o transporte urbano de cargas do e-commerce durante eventos disruptivos. A ferramenta proposta funciona por meio de um modelo de simulação híbrida, combinando a Simulação à Eventos Discretos com a Simulação Baseada em Agentes, possibilitando a avaliação de iniciativas de City logistics para o TUC do e-commerce durante eventos disruptivos. Nesta tese, sua aplicação é demonstrada em um caso real: a partir dos dados fornecidos por uma transportadora, foram elaborados cenários comparativos para análise e modelagem da demanda de entregas. A construção dos cenários buscou modelar a demanda de entregas antes e depois de um evento disruptivo, considerando para isto o período de pandemia da COVID-19. Na aplicação, o uso de Delivery Lockers foi avaliado como uma iniciativa de City logistics para amenizar os impactos sobre as operações da transportadora. A ferramenta se mostrou versátil, podendo ser facilmente adotada por qualquer transportadora, bastando ajustar os parâmetros de entrada e a localização de acordo com as particularidades de sua operação local. Além disso, outras iniciativas de City logistics para o TUC do e-commerce também podem ser avaliadas adaptando-se os processos de modelagem e os dados de entrada do modelo, mitigando os impactos sobre as operações de entrega do e-commerce. Por meio dos resultados gerados por essa ferramenta, é possível realizar análises abrangentes, incluindo dados de quilometragem percorrida, distância total transportada, volume de carga movimentado, emissões de CO2, consumo de combustível, número de viagens realizadas e ocupação dos veículos no momento da saída para efetuar as entregas. Além disso, a ferramenta permite a avaliação de indicadores de desempenho e da eficiência energética da transportadora. Em um cenário prático, no caso estudado, a ferramenta se mostrou altamente promissora, demonstrando um potencial de economia de energia de até 60% em termos de pedidos entregues e volume transportado. Esses resultados demonstraram a aplicabilidade da ferramenta para apoio a decisões e na avaliação de iniciativas destinadas ao TUC durante eventos disruptivos, auxiliando assim, na busca de soluções mais eficientes e sustentáveis no transporte de mercadorias em áreas urbanas.


  • Mostrar Abstract
  • Disruptive events have the potential to deeply impact how companies manage and operate their supply chains. These events can be triggered by a variety of factors such as natural disasters, pandemics, regulatory changes, technological innovations, or geopolitical disruptions. Their occurrence is inevitable, and it is essential for companies to be prepared to face them. Of particular interest for this work is e-commerce and its impact on Urban Freight Transport (UFT) during and after disruptive events. In this context, the use of decision support tools can aid in seeking solutions to mitigate the impacts of these events, ensuring the resilience of transportation operations even in turbulent times. During a disruptive event, the volume of delivered orders can significantly increase, creating a demand for e-commerce deliveries that exceeds expectations. This directly impacts the operation of carriers in urban environments, facing a significant increase in delivery demand. The aim of this thesis is to present DISRUPSIM: a decision support tool for urban freight transport of e-commerce during disruptive events. The proposed tool operates through a hybrid simulation model, combining Discrete Event Simulation with Agent-Based Simulation, enabling the evaluation of City logistics initiatives for UFT of e-commerce during disruptive events. In this thesis, its application is demonstrated in a real case: scenarios were developed for comparative analysis and modeling of delivery demand based on data provided by a carrier. Scenario construction aimed to model delivery demand before and after a disruptive event, considering the COVID-19 pandemic period for this purpose. In the application, the use of Delivery Lockers was evaluated as a City logistics initiative to alleviate the impacts on carrier operations. The tool proved to be versatile, easily adoptable by any carrier, simply by adjusting input parameters and location according to the particularities of their local operation. Additionally, other City logistics initiatives for UFT of e-commerce can also be evaluated by adapting modeling processes and model input data, mitigating impacts on e-commerce delivery operations. Through the results generated by this tool, comprehensive analyses can be conducted, including data on distance traveled, total transported distance, cargo volume moved, CO2 emissions, fuel consumption, number of trips made, and vehicle occupancy at the time of departure for deliveries. Furthermore, the tool allows for the evaluation of performance indicators and the energy efficiency of the carrier. In a practical scenario, in the case studied, the tool showed great promise, demonstrating a potential energy savings of up to 60% in terms of orders delivered and volume transported. These results demonstrated the applicability of the tool for decision support and the evaluation of initiatives aimed at UFT during disruptive events, thus aiding in the search for more efficient and sustainable solutions in the transportation of goods in urban areas.

3
  • JULIA BARROS DOS SANTOS
  • TRANSPORTE, SAÚDE E ENGAJAMENTO PROFISSIONAL: UM ESTUDO EXPLORATÓRIO DE VIAGENS PENDULARES CASA-TRABALHO

  • Orientador : JOSIANE PALMA LIMA
  • MEMBROS DA BANCA :
  • CIRA SOUZA PITOMBO
  • JENIFFER DE NADAE
  • JOSE HENRIQUE DE FREITAS GOMES
  • JOSIANE PALMA LIMA
  • ROBSON BRUNO DUTRA PEREIRA
  • Data: 14/06/2024

  • Mostrar Resumo
  • Para muitas pessoas, os deslocamentos entre casa e trabalho consistem em uma das atividades cotidianas mais desagradáveis, podendo gerar impactos na saúde, física e mental, e no desempenho de trabalhadores. Na literatura consultada, não foram verificados trabalhos que abordem de forma direta a relação entre variáveis de deslocamento, saúde (física e mental) e engajamento de trabalhadores. Esse último consiste em estado cognitivo positivo relacionado à atividade laboral. A maioria dos estudos relacionados ao tema, são voltados a aspectos organizacionais. Assim, o objetivo geral desta tese consistiu em explorar as relações entre variáveis relacionadas ao deslocamento entre casa e trabalho, variáveis individuais, relacionadas à saúde física e mental e ao engajamento no trabalho e suas dimensões, considerando uma amostra de trabalhadores brasileiros. Com este intuito, foi aplicado, de forma online, um questionário estruturado com uma amostra de 298 trabalhadores de diversas cidades brasileiras. A avaliação da saúde dos participantes foi avaliada por meio do questionário SF-12, gerando componentes de saúde física e mental. O engajamento no trabalho foi avaliado pela escala UWES-17, que permite obter pontuações para o engajamento total e suas dimensões. Com os dados desta escala, também foi aplicada a técnica de Análise de Componentes Principais Categórica (CATPCA), mais apropriada quando se tem dados de natureza qualitativa ordinal. Foram realizadas Análises bivariadas buscando responder algumas perguntas de pesquisa. As relações entre as variáveis foram exploradas por meio de modelos de regressão linear múltipla e logística multinomial, tendo como variáveis dependentes as pontuações de saúde física e mental, a classificação do engajamento e de suas dimensões, e o score do engajamento obtido pela aplicação da CATPCA. Para os modelos referente à saúde, não foram encontradas associações significativas com os parâmetros associados às variáveis de deslocamento, contrariando as hipóteses de pesquisa. Para o engajamento e suas dimensões, destaca-se as variáveis modo de transporte e o número de dias que a pessoa precisa se deslocar para ir ao trabalho. Ambas as variáveis apresentaram parâmetros significativos para a maioria dos modelos multivariados. Este trabalho apresentou contribuições científicas, por meio da ampliação do estado da arte e por abordar temas ainda pouco explorados na literatura, e contribuições práticas através de resultados que apontam caminhos para o estabelecimento de políticas e estratégias para o poder público e empresas e por meio de uma maior conscientização quanto aos impactos negativos dos deslocamentos na qualidade de vida das pessoas.


  • Mostrar Abstract
  • To many people, commuting between home and work is one of the most unpleasant daily activities, potentially impacting physical and mental health, as well as worker performance. In the reviewed literature, no studies directly addressing the relationship between commuting variables, health (physical and mental), and worker engagement were found. The latter refers to a positive cognitive state related to work activity. Most studies on the subject focus on organizational aspects. Thus, the general objective of this thesis was to explore the relationships between variables related to commuting between home and work, individual variables related to physical and mental health, and work engagement and its dimensions, considering a sample of Brazilian workers. To this end, an online structured questionnaire was applied to a sample of 298 workers from various Brazilian cities. Participants' health was assessed using the SF-12 questionnaire, generating physical and mental health components. Work engagement was assessed using the UWES-17 scale, which provides scores for total engagement and its dimensions. With the data from this scale, the Categorical Principal Component Analysis (CATPCA) technique was also applied, which is more appropriate when dealing with ordinal qualitative data. Bivariate analyses were conducted to answer some research questions. Relationships between variables were explored through multiple linear and multinomial logistic regression models, with dependent variables being physical and mental health scores, engagement classification and its dimensions, and the engagement score obtained by applying CATPCA. For the health models, no significant associations were found with the parameters associated with commuting variables, contrary to the research hypotheses. For engagement and its dimensions, the variables mode of transportation and the number of days a person needs to commute to work stand out. Both variables showed significant parameters for most multivariate models. This work presented scientific contributions by expanding the state of the art and addressing topics still underexplored in the literature, as well as practical contributions through results that indicate paths for establishing policies and strategies for public authorities and companies, and by raising awareness about the negative impacts of commuting on people's quality of life.

4
  • LUIZ GUSTAVO PAES DE SOUZA
  • OTIMIZAÇÃO DAS CONDIÇÕES DE CORTE E SIMULAÇÃO DA CONFIABILIDADE DA FERRAMENTA NO TORNEAMENTO DO AÇO ABNT 52100 ENDURECIDO

  • Orientador : JOAO ROBERTO FERREIRA
  • MEMBROS DA BANCA :
  • ALEXANDRE MENDES ABRÃO
  • ANDERSON PAULO DE PAIVA
  • ANTONIO FERNANDO BRANCO COSTA
  • JOAO ROBERTO FERREIRA
  • MARCIO BACCI DA SILVA
  • MATHEUS BRENDON FRANCISCO
  • Data: 22/08/2024

  • Mostrar Resumo
  • A usinagem em altas velocidades é reconhecida como uma das principais tecnologias de fabricação para alcançar maiores taxas de produtividade e custos reduzidos. Nesse contexto, a otimização das condições de corte emerge como uma alternativa para a sua viabilização. Adicionalmente, várias estratégias de otimização da rugosidade têm sido propostas na área do torneamento duro. No entanto, embora os efeitos do desgaste da ferramenta sobre a rugosidade da peça podem ser conhecidos, esse efeito é negligenciado pela maioria das estratégias propostas. Consequentemente, a capacidade do processo de reproduzir na prática o resultado da solução ótima é adversamente afetada, pois a rugosidade das peças usinadas por uma mesma aresta de corte desvia de seu valor esperado com a progressão do desgaste. Complementarmente, a análise da confiabilidade das ferramentas de corte na usinagem é fundamental para decidir o momento adequado para substituí-las, evitando a sua troca precoce ou tardia. Considerando os cenários apresentados, o presente trabalho propõe uma estratégia de otimização multiobjetivo para a maximização da vida da ferramenta e minimização do desvio aritmético médio (Ra), do tempo de corte, do tempo e custo total de usinagem para a avaliação do desempenho da ferramenta de cerâmica mista durante o torneamento a seco do aço rolamento ABNT 52100 endurecido, sob altas velocidades de corte. A Metodologia de Superfície de Resposta foi utilizada para obtenção dos modelos quadráticos das respostas avaliadas. O efeito do desgaste da ferramenta sobre Ra foi estabelecido durante os ensaios de vida. Como resultado, definiu-se o momento do estado da ferramenta que gera os maiores valores de Ra, os quais corresponderam os valores de rugosidade obtido com a condição experimental. A redução da dimensionalidade do problema multiobjetivo foi realizada por meio da Análise Fatorial. Os escores dos fatores rotacionados mantidos na análise foram utilizados para obter as funções do Erro Quadrático Médio dos Fatores, os quais representaram as funções objetivos da otimização. A otimização multiobjetivo foi realizada por meio da aplicação do método de Interseção Normal a Fronteira. Os setups ótimos definidos pela otimização foram capazes de alcançar valores de Ra entre 0,28 a 1,05 µm, vida entre 11 a 19 min, tempo de corte de 0,23 a 0,41 min, tempo total de usinagem de 0,91 a 1,10 min, e custo de usinagem por peça entre R$3,55 a 5,01. A variância da vida da ferramenta foi obtida aplicando a regressão de Poisson ao quadrado dos resíduos do modelo obtido pelo método dos Mínimos Quadrados Ordinários. Adicionalmente, foi proposto um método econômico para a simulação da confiabilidade da ferramenta de corte para viabilizar a sua aplicação. De posse da média e da variância da vida, os parâmetros de forma (β) e de escala (δ) da distribuição de Weibull são estimados por meio de um método simples de otimização com restrição proposto. Experimentos de confirmação foram realizados, os quais validaram a eficácia da otimização e da simulação da confiabilidade da ferramenta.


  • Mostrar Abstract
  • High-Speed Machining is recognized as one of the leading manufacturing technologies for achieving higher productivity rates and reduced production costs. In this context, optimizing cutting conditions emerges as an alternative to make it viable. Additionally, several strategies for optimizing surface roughness have been proposed in field hard turning. However, although the effects of tool wear on the surface roughness of the workpiece can be understood, this effect is often neglected by most of the strategies proposed. Consequently, the ability of the process to reproduce the results of the optimal solution in practice is negatively affected, since the surface roughness of parts machined with the same cutting edge deviates from the expected value as wear progresses. Additionally, analyzing the reliability of cutting tools in machining is essential for determining the appropriate time to replace them, thereby avoiding premature or delayed tool changes. Considering the presented scenarios, this study proposes a multi-objective optimization strategy aimed at maximizing tool life and minimizing surface roughness Ra, cutting time, and the total machining time and cost. This strategy is applied to evaluate the performance of a mixed ceramic tool during the dry turning of hardened ABNT 52100 bearing steel at high cutting speeds. Response Surface Methodology was used to obtain quadratic models for the evaluated responses. The effect of tool wear on surface roughness Ra was established during the tool life tests. As a result, the tool condition that generates the highest Ra values was identified, corresponding to the roughness values obtained under the experimental conditions. Dimensionality reduction of the multi-objective problem was achieved using Factor Analysis. The scores of the rotated factors retained in the analysis were used to derive the Mean Squared Error functions of the factors, which served as the objective functions for optimization. Multi-objective optimization was performed using the Normal Boundary Intersection method. The optimal setups defined by the optimization were able to achieve surface roughness Ra values between 0.28 and 1.05 µm, tool life between 11 and 19 minutes, cutting time ranging from 0.23 to 0.41 minutes, total machining time between 0.91 and 1.10 minutes, and machining cost per piece between R$3.55 and R$5.01. The variance of the tool's lifetime was obtained by applying Poisson regression to the square residuals of the model derived using ordinary least squares. In addition, a cost-effective method was proposed to simulate the tool's reliability to make its application viable. With the mean and variance of the tool life, the shape (β) and scale (δ) parameters of the Weibull distribution were estimated using a simple optimization method proposed with constraints. Confirmation experiments were conducted, which validated the effectiveness of the optimization and the tool reliability simulation.

5
  • DANIEL SOARES DE ALCANTARA
  • EXTRAÇÃO E ANÁLISE DE CARACTERÍSTICAS VIBRATÓRIAS PARA O DIAGNÓSTICO DE QUALIDADE NA SOLDAGEM CDFW

  • Orientador : PEDRO PAULO BALESTRASSI
  • MEMBROS DA BANCA :
  • FABRICIO ALVES DE ALMEIDA
  • GABRIELA BELINATO
  • JOSE HENRIQUE DE FREITAS GOMES
  • MESSIAS BORGES SILVA
  • PEDRO PAULO BALESTRASSI
  • Data: 05/09/2024

  • Mostrar Resumo
  • Atualmente, diversas técnicas de soldagem unem materiais metálicos, destacando-se as de estado sólido, como a soldagem por fricção rotativa (Rotary Friction Welding - RFW). Esse método gera calor e deformação plástica pela rotação de peças sob compressão, criando uma ligação em temperaturas inferiores ao ponto de fusão, resultando em menores distorções e tensões residuais. Entre as variantes do RFW, destacam-se o Inertia Friction Welding (IFW) e o Continuous Drive Friction Welding (CDFW), que se diferenciam pelo modo de geração de energia. Embora o CDFW seja um processo comprovado, apresenta
    desafios como aquecimento desigual e baixa difusão de materiais na zona afetada pelo calor (HAZ), impactando a rugosidade e o coeficiente de atrito. Os métodos tradicionais de controle de qualidade do RFW utilizam ensaios destrutivos, que não permitem testes em tempo real. Como alternativa, o monitoramento dos sinais de vibração durante o processo oferece informações sobre as deformações e fenômenos térmicos e metalúrgicos ocorridos. Apesar de estudos já terem explorado o uso de sinais de vibração para diagnóstico de qualidade, ainda não há uma abordagem específica aplicada ao controle de qualidade no CDFW. Este trabalho visa preencher essa lacuna ao utilizar sinais de vibração para monitorar a qualidade do CDFW em peças cilíndricas de aço carbono A36. Para isso, foi adotado o Design of Experiments (DOE), com experimentos baseados em uma matriz fatorial. Os sinais de vibração, adquiridos por um acelerômetro, foram normalizados e filtrados, e posteriormente analisados por meio da transformada rápida de Fourier (FFT) e da transformada de Fourier de curto prazo (STFT). Essas técnicas permitiram identificar as
    características tempo-frequência-energia dos sinais. Além disso, foi proposto um método de segmentação e decomposição dos sinais brutos utilizando a decomposição do modo empírico (EMD), com análise estatística das funções de modo intrínseco (IMFs) resultantes. A Análise de Variância (ANOVA) de dois fatores correlacionou os dados dos sinais com parâmetros de qualidade do processo, como simetria do flash, encurtamento axial, largura da zona termomecanicamente afetada (TMAZ) e o diâmetro médio dos grãos da
    TMAZ. Os resultados confirmaram que as mudanças nos parâmetros processo afetam significativamente os sinais de vibração, permitindo sua utilização para caracterizar a qualidade da solda. Essa abordagem inovadora não apenas possibilita uma verificação rápida da qualidade, mas também contribui para a automação e monitoramento avançado da Indústria 4.0.


  • Mostrar Abstract
  • Currently, several welding techniques join metallic materials, with solid-state welding, such as Rotary Friction Welding (RFW), standing out. This method generates heat and plastic deformation through the rotation of parts under compression, creating a bond at temperatures below the melting point, resulting in reduced distortions and residual stresses. Among the RFW variants, Inertia Friction Welding (IFW) and Continuous Drive Friction Welding (CDFW) stand out, differing in the method of generating frictional energy. Although CDFW is a proven process, it presents challenges such as uneven heating and low material
    diffusion in the heat-affected zone (HAZ), affecting roughness and the coefficient of friction. Traditional RFW quality control methods use destructive testing, which does not allow for real-time testing. As an alternative, monitoring vibration signals during the process provides information about the thermal, metallurgical, and deformation phenomena occurring. Although studies have already explored the use of vibration signals for quality diagnostics, there is still no specific approach applied to quality control in
    CDFW. This work aims to fill this gap by using vibration signals to monitor the quality of CDFW in cylindrical A36 carbon steel parts. For this, the Design of Experiments (DOE) was adopted, with experiments based on a factorial matrix. The vibration signals, acquired by an accelerometer, were normalized and filtered, and later analyzed using the Fast Fourier Transform (FFT) and Short-Time Fourier Transform (STFT). These techniques allowed the identification of the time-frequency-energy characteristics of the signals. In addition, a method of segmentation and decomposition of raw signals was proposed using
    Empirical Mode Decomposition (EMD), with statistical analysis of the resulting intrinsic mode functions (IMFs). A two-factor Analysis of Variance (ANOVA) correlated the signal data with process quality parameters, such as flash symmetry, axial shortening, thermomechanically affected zone (TMAZ) width, and the average grain diameter of the TMAZ. The results confirmed that changes in process parameters significantly affect vibration signals, allowing their use to characterize weld quality. This innovative approach not only enables rapid quality verification but also contributes to automation and advanced
    monitoring in Industry 4.0.

6
  • MARIANA BERNARDES
  • GREEN SUPPLY CHAIN MANAGEMENT E ECONOMIA CIRCULAR EM INDÚSTRIA DE MANUFATURA: INICIATIVAS PARA AUMENTO DE COLETA DE RESÍDUOS DE EQUIPAMENTOS ELETROELETRÔNICOS

     
     
  • Orientador : RENATO DA SILVA LIMA
  • MEMBROS DA BANCA :
  • CARLOS HENRIQUE PEREIRA MELLO
  • GRAZIELA DARLA ARAUJO GALVÃO
  • JENIFFER DE NADAE
  • RENATO DA SILVA LIMA
  • ROBERTA ALVES
  • Data: 12/09/2024

  • Mostrar Resumo
  • Os Resíduos de Equipamentos Eletroeletrônicos (REEE) representam a fonte de resíduos de maior volume e que mais cresce no mundo. No entanto, apenas cerca de 17% desse volume é formalmente reciclado mundialmente, sendo que, no Brasil, o quinto maior gerador, esse volume cai para apenas 0,7%. Embora existam leis para conduzir o descarte de REEE, na prática, os volumes coletados formalmente são baixos, devido às falhas na disseminação de informação e na responsabilização dos entes da cadeia (governos, setor privado e sociedade), de acordo com a literatura. Através de uma parceria entre a academia e a indústria brasileira, esta pesquisa analisa a gestão da cadeia de REEE sob a perspectiva da principal empresa do Brasil a integrar todos os elos da cadeia reversa de REEE (desde a logística reversa até a reciclagem). A empresa representa o cenário nacional no que diz respeito ao baixo volume de REEE formalmente coletado, não atingindo sua capacidade de operação pretendida por não receber quantidade suficiente desses resíduos. Assim, o objetivo geral desse trabalho é gerar soluções cientificamente fundamentadas para a indústria, criando um framework de apoio às empresas do setor formal de gestão de REEE, com vistas a aumentar seus volumes de resíduos coletados. O método de Pesquisa-Ação permitiu caracterizar o cenário atual brasileiro e testar na prática iniciativas de coleta que envolvem direta ou indiretamente a participação do consumidor final, visto como o ponto de partida para a gestão dos REEE. Especificamente, amostras de consumidores que envolvem os públicos acadêmico e escolar são importantes elos para a coleta de REEE, e potenciais fontes de sucesso para campanhas periódicas. Oficinas de assistência eletrônica informais têm alto potencial de geração de resíduos, mas evidenciam a falta de uma conexão próxima e contínua entre o setor informal e empresas formais de coleta e reciclagem. As análises permitiram identificar os potenciais quantitativos e qualitativos de cada iniciativa testada. No geral, as coletas de REEE direcionadas ao consumidor final levantaram taxas de captação doze vezes maiores que as da empresa estudada. Assim, a proximidade com o consumidor final e o elo entre os setores formal e informal podem suprir demandas industriais, sociais e ambientais, e garantir melhor gestão de REEE. Os resultados das análises permitiram definir um framework das iniciativas de coleta mais importantes da cadeia, que servirão de base para guiar tanto a empresa estudada quanto outras partes do setor a programarem suas estratégias para impulsionar o volume de REEE coletado, visando recuperação, reciclagem, disposição final ambientalmente adequada. 

     
     
     

  • Mostrar Abstract
  •  

     
     
     
2023
Dissertações
1
  • RODRIGO DE PAULA OLIVEIRA
  • Auxílio à tomada de decisão em um e-marketplace logístico através da Simulação Baseada em Agentes

  • Orientador : ALEXANDRE FERREIRA DE PINHO
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • RENATO DA SILVA LIMA
  • ROSINEI BATISTA RIBEIRO
  • Data: 27/02/2023

  • Mostrar Resumo
  • O crescimento da internet favoreceu o desenvolvimento dos marketplaces eletrônicos, plataformas online que atuam como intermediárias no processo de negociação entre duas partes independentes. Quando inseridas no contexto dos transportes de cargas, são conhecidas como e-marketplace logístico, e conectam os agentes envolvidos no deslocamento de diversas mercadorias. Apesar das vantagens, diversos marketplaces eletrônicos falharam recentemente devido à baixa performance da plataforma. Neste contexto, a tomada de decisão correta, principalmente de níveis tático e estratégico, pode ser um fator determinante para que a organização apresente um desempenho satisfatório no mercado em que está inserida. Um dos métodos que colaboram para auxiliar o processo decisório é a Simulação Baseada em Agentes (SBA). A SBA é um dos métodos de simulação computacional, sendo recomendada quando a análise a ser realizada envolve um grande número de indivíduos que possuem decisões e comportamentos bem definidos. A literatura, apesar de composta por diversos trabalhos que abordaram a SBA para auxiliar o processo decisório, ainda carece de estudos que utilizam o método no ambiente dos e-marketplaces logísticos. Na realidade, como um todo, a dinâmica dos marketplaces eletrônicos – não somente o modelo de transporte de cargas – ainda se demonstra como um campo a ser explorado no meio acadêmico. Assim, este trabalho tem como objetivo desenvolver um modelo de SBA apto a analisar o impacto que diferentes canais de captação de clientes possuem na quantidade final de novos usuários de um emarketplace logístico, de modo a apoiar a tomada de decisão dos gestores da organização. No geral, pode-se destacar três importantes tópicos obtidos nesta pesquisa: 1- a elaboração de um modelo conceitual, conforme sugere a metodologia, favoreceu a visualização do processo a ser modelado; 2- o Protocolo ODD (Overview, Design Concepts and Details) foi adequado para cumprir todas as atividades propostas na primeira fase da metodologia de simulação, além de facilitar a replicação do modelo por outros pesquisadores; 3- a validação do modelo, realizada de modo a combinar dois métodos, foi desenvolvida de maneira mais robusta e confiável. Em relação aos resultados da simulação, foi possível estabelecer os cenários de maior impacto na ativação de novos clientes, além de definir uma ordem de prioridade dos canais de captação no momento de realizar novos investimentos. No cenário alternativo de melhor desempenho, verificou-se melhorias de até 20% na taxa de conversão de novos usuários em relação ao cenário inicial. Além disso, o canal de captação “Indicação interna” foi definido como o prioritário a ser investido, podendo melhorar em até 16,9% a taxa de conversão dos potenciais usuários. Como trabalhos futuros, sugere-se o estudo com base no “custo benefício”, além da análise em relação as causalidades existentes entre os meios de captação.


  • Mostrar Abstract
  • The growth of the internet favored the development of electronic marketplaces, online platforms that act as intermediaries in the negotiation process between two independent parties. When inserted in the context of load transport, they are known as a logistics emarketplace, and it connects the agents involved in the movement of various goods. Despite the advantages, several electronic marketplaces have failed recently due to the low performance of the platform. In this context, correct decision making, mainly at the tactical and strategic levels, can be a determining factor for the organization to present a satisfactory performance in the market in which it is inserted. One of the techniques that collaborate to help the decision-making process is the Agent-Based Simulation (ABS). ABS is a computer simulation method, and it is recommended when the analysis to be performed involves many individuals who have well-defined decisions and behaviors. The literature, despite being composed of several works that developed an ABS model to assist the decision-making process, still lacks studies that use the method in the logistics e-marketplaces environment. In fact, the dynamics of electronic marketplaces – not just the freight transport model – is still a field to be explored in academia. Thus, this work aims to develop an SBA model able to analyze the impact that different customer acquisition channels have on the final number of new users of a logistics e-marketplace, in order to support the decision making of the organization's managers. In general, three important topics obtained in this research can be highlighted: 1- the elaboration of a conceptual model, as suggested by the methodology, favored the visualization of the process to be modeled; 2 - the ODD Protocol (Overview, Design Concepts and Details) was adequate to fulfill all the activities proposed in the first phase of the simulation methodology, in addition to facilitating the replication of the model by other researchers; 3 - the validation of the model, performed in order to combine two methods, was developed in a more robust and reliable way. Regarding the results of the simulation, it was possible to establish the scenarios with the greatest impact on activating new customers in the logistics e- marketplace, in addition to defining an order of priority for the acquisition channels when making new investments. In the alternative scenario that was observed the best performance, there was improvements of up to 20% in the conversion rate of new users compared to the initial scenario. In addition, the “indicação interna” acquisition channel was defined as the priority to be invested and may improve the conversion rate of potential users by up to 16.9%. As future works, the study based on “cost benefit” is suggested, as well as the analysis of the causalities between the acquisition channels.

2
  • YAGO TOLEDO LIMA
  • Utilização de Aprendizagem de Máquina para a Inclusão de Fatores Emocionais Humanos em projetos de Simulação

  • Orientador : JOSE ARNALDO BARRA MONTEVECHI
  • MEMBROS DA BANCA :
  • JOSE ARNALDO BARRA MONTEVECHI
  • MONA LIZA MOURA DE OLIVEIRA
  • RAFAEL DE CARVALHO MIRANDA
  • Data: 07/03/2023

  • Mostrar Resumo
  • A simulação computacional é uma ferramenta amplamente utilizada para monitorar e otimizar indicadores de desempenho tanto na academia quanto na indústria. Os operadores humanos, no entanto, são comumente representados como recursos de produção nominal constante nos modelos de simulação. Tal modelo, em muitos casos, é insuficiente, uma vez que desconsidera as variações inerentes da fisionomia humana. Há na literatura formas de se representar tais variações no desempenho humano, porém, o fator emocional raramente é abordado nestes trabalhos. Além disso, os trabalhos que buscam modelar a atitude psicofísica do operador, que engloba as emoções, no geral, necessitam de equipamentos sofisticados ou formulários morosos a serem preenchidos. Para apresentar uma alternativa para a inclusão do fator emocional humano em modelos de simulação, este trabalho utiliza um modelo de aprendizagem de máquina para identificar o humor aparente de operadores a partir de filmagens de uma linha de produção de manufatura em operação. Esta abordagem não interfere na carga de trabalho dos operadores nem demanda nenhum tipo de equipamento extra além de uma câmera filmadora comum, preenchendo então a lacuna observada na literatura. Este trabalho demonstrou que há 66 correlações estatísticas significantes entre as variáveis de humor detectadas pelo modelo de aprendizagem de máquina utilizado e o tempo de operação na linha. Também foi demonstrado que as curvas de distribuição de probabilidade para o tempo de operação variam significativamente quando consideradas diferentes classes de humor. Por fim, foi demonstrada a aplicação destas curvas em um modelo de simulação. Os resultados evidenciam uma tendência de melhoria nos resultados do modelo, demonstrando assim a viabilidade da técnica aplicada. Além dos resultados demonstrados, este trabalho também apresenta instruções para aplicação da técnica proposta que podem ser utilizadas para projetos similares. Além das simulações, a técnica apresentada pode também ser utilizada em diversas áreas incluindo prevenção de defeitos de fabricação, saúde e segurança ocupacional.


  • Mostrar Abstract
  • Computational simulation is a widely used tool for monitoring and optimizing performance indicators in both academia and industry. However, human operators are commonly represented as resources with constant nominal production in simulation models. Such models are often insufficient, as they disregard the inherent variations due to human physiology. Although there are ways to represent such variations in human performance in the academic literature, emotional factors are rarely addressed. Moreover, the studies that seek to model the psychophysical attitude, which includes emotions, of the operator usually require sophisticated equipment or time-consuming forms to be filled by the operators. To present an alternative for the inclusion of the emotional human factor in simulation models, this work uses a machine learning model to identify the apparent mood of operators from footage of a manufacturing production line in operation. This approach does not interfere with the workload of the operators nor require any extra equipment other than a common video camera, filling a gap observed in the literature. This study revealed 66 statistically significant correlations between the mood variables estimated by the machine learning model and operation time on the assembly line. It was also shown that the probability distribution functions for the operation time differ significantly when considering different classes of mood. Lastly, those different curves were demonstrated in a simulation model. The results show an improvement trend in the model’s results, thus demonstrating the viability of this technique.This study also provides instructions for applying the proposed technique that can be used in similar projects. Besides simulations, this technique can be applied to a variety of fields including defects prevention, occupational health and safety.

3
  • RENAN RYUJI MURASHITA TAKENAKA
  • ESTUDO COMPARATIVO ENTRE O GRÁFICO DE CONTROLE SIMULTÂNEO (X-BARRA,S) E OS GRÁFICOS DE SHEWHART PARA MÉDIA E DESVIO-PADRÃO

  • Orientador : PAULO HENRIQUE DA SILVA CAMPOS
  • MEMBROS DA BANCA :
  • ALEXANDRE FONSECA TORRES
  • ANDERSON PAULO DE PAIVA
  • ANTONIO FERNANDO BRANCO COSTA
  • JULIANA HELENA DAROZ GAUDENCIO
  • PAULO HENRIQUE DA SILVA CAMPOS
  • Data: 16/03/2023

  • Mostrar Resumo
  • Os gráficos de controle são ferramentas do Controle Estatístico de Processos amplamente utilizados para monitorar as características de qualidade chaves de um produto ou serviço. Por serem extremamente eficientes no monitoramento e resultarem em melhorias expressivas de qualidade, a pesquisa se faz necessária na investigação de diferentes abordagens. Entretanto, a diversidade de gráficos e metodologias de aplicação dificultam a escolha da melhor combinação para implementação em um processo. Além disso, alguns trabalhos apresentam pouca ou nenhuma comparação com outros trabalhos, dificultando o processo de escolha. O gráfico simultâneo (X-barra,S) é um caso em que as comparações apresentadas deixam dúvidas quanto à eficácia em relação até mesmo aos gráficos de Shewhart para média (X-barra) e desvio-padrão (S). Dessa forma, este trabalho visa realizar a comparação entre os gráficos de controle de Shewhart para média (X-barra) e desvio-padrão (S) e o gráfico simultâneo (X-barra,S) quanto a facilidade em identificar o estado do processo, a performance com o número médio de amostras até alarme (NMA) e a capacidade em determinar o momento em que o desvio ocorreu na série amostral. Para isso, foram apresentados os procedimentos de construção dos gráficos de controle, simulados os dados para cálculo do NMA e realizado a avaliação visual das informações presentes nos gráficos. Como resultado, concluiu-se que as inovações apresentadas no gráfico simultâneo (X-barra,S) geram vantagens inferiores aos tradicionais gráficos de Shewhart.


  • Mostrar Abstract
  • Control charts are tools from Statistical Process Control widely used to monitor key quality characteristics of a product or service. For being extremely efficient in monitoring and improving quality, research is needed to investigate different approaches. However, the diversity of control charts and application methodologies makes the selection of the best combination to implement in a process harder. Furthermore, some works shows a few or no comparison between related subjects, making the selection even harder. The simultaneous (X-bar,S) control char is a case where the presented comparison raise doubts about is effectiveness even compared to Shewhart charts for mean (X-bar) and standard deviation (S). Therefore, this study aims to compare Shewhart control charts for mean (X-bar) and standard deviation (S) with the simultaneous (X-bar,S) chart in terms of ease of identifying the process state, performance with the average run length (ARL), and ability to determine when the deviation occurred in the sample series. To do so, the procedures for constructing control charts were presented, data were simulated to calculate the NMA, and a visual evaluation of the information presented in the charts was carried out. As a result, the innovations presented in the simultaneous (X-bar,S) chart shows inferior advantages compared to traditional Shewhart charts.

4
  • ANTÔNIO ALVES DOS SANTOS JÚNIOR
  • ANÁLISE DE PROJETOS DE DESENVOLVIMENTO DE PARCERIAS DE NEGÓCIOS ENTRE STARTUPS E GRANDES EMPRESAS EM UM CONTEXTO DE INOVAÇÃO ABERTA: ESTUDO DE CASO

  • Orientador : CARLOS HENRIQUE PEREIRA MELLO
  • MEMBROS DA BANCA :
  • ANDREA APARECIDA DA COSTA MINEIRO
  • CARLOS HENRIQUE PEREIRA MELLO
  • EDUARDO GOMES SALGADO
  • JULIANA HELENA DAROZ GAUDENCIO
  • Data: 05/04/2023

  • Mostrar Resumo
  • O presente trabalho se propõe ao desenvolvimento de um estudo que oriente o relacionamento de negócios entre Startups e Grandes Empresas, analisando os mecanismos de rede e orquestração que regem suas interações, identificando gargalos que comprometem as relações existentes e discorrendo sobre as melhores práticas que poderão nortear estas relações. Para tanto, explorou-se o conceito de Startups e os mecanismos de interação entre elas e as grandes corporações em um conceito de Inovação Aberta. O método adotado foi estudo de caso, com pesquisa bibliográfica e entrevistas semiestruturadas para coleta de dados. De maneira geral, alguns aspectos identificados na teoria sobre o tema foram confirmados e aprofundados a partir das interações com os entrevistados (Startup, Grande Empresa e Centro de Inovação). A conclusão do trabalho é que o relacionamento de negócios entre Startups e Grandes Empresas é contemporâneo, benéfico para as partes, porém, deve ser criterioso e cuidadoso nas regras e gerenciamentos das etapas para que realmente se obtenha um relacionamento favorável para as partes e uma inovação bem-sucedida. Sugestões de melhorias para as barreiras foram apontadas, a fim de se colaborar para o tema e com o referencial teórico do assunto.


  • Mostrar Abstract
  • This work proposes the development of a study to guide the business relationship between Startups and Large Companies, analyzing the network and orchestration mechanisms that govern their interactions, identifying bottlenecks that compromise existing relationships and discussing the best practices that can guide future relationships. Therefore, the concept of Startups and the mechanisms of interaction between them and large corporations in a concept of Open Innovation were explored. The adopted methodology was field study, with bibliographical research and interviews for data collection. As expected results, some aspects identified in the theory on the subject can be confirmed from the interactions with the interviewees. Others will not be so evident and will demonstrate, from the data collected and analyses, the influence of specific characteristics and realities in this process, which are also targets to be discovered in this study. The conclusion of the work should present important contributions for the different actors within this process: the network and orchestration mechanisms between the actors involved; large corporations and the challenge of operationalizing the relationship; and startups, with the challenge of effectively transforming such a relationship into a partnership for successful innovation.

5
  • LEONARDO LOURENÇO DE SOUZA
  • Análise do sistema de medição de desempenho: estudo de caso em editais de serviço de transporte público

  • Orientador : JULIANA HELENA DAROZ GAUDENCIO
  • MEMBROS DA BANCA :
  • FABIANE LETÍCIA LIZARELLI
  • CARLOS HENRIQUE PEREIRA MELLO
  • JOAO BATISTA TURRIONI
  • JULIANA HELENA DAROZ GAUDENCIO
  • Data: 03/05/2023

  • Mostrar Resumo
  • A busca pela excelência em serviços e o interesse em mensurar a qualidade do serviço são considerados importantes estratégias utilizadas pelas organizações para alcançar vantagem competitiva. Nesse mesmo âmbito, temos os serviços públicos caracterizado como toda atividade que o Estado realiza para satisfazer as necessidades públicas através do procedimento típico de direito público. Hoje, através de contratos de concessão, muitos serviços públicos são prestados de maneira indireta. A Constituição Federal de 1988 estabelece que o transporte coletivo é um tipo de serviço público que deve ser oferecido à população. O transporte púbico é um meio democrático para a sociedade ter acesso a bens, serviços e atividades, porém, o seu uso está diminuindo por diversos fatores, principalmente, devido a baixa qualidade do serviço prestado. Para atender as necessidades dos usuários e verificar se o serviço cumpre as exigências contratuais, realizar a medição de desempenho de qualidade é importante, tantos para os prestadores serviços quanto para órgão que fiscaliza. Nesse contexto, o objetivo geral da pesquisa é a análise do sistema de medição de desempenho com foco na melhoria dos parâmetros de qualidade a serem integrados no edital para contratação do serviço de transporte público oferecido na cidade de Itajubá-MG. Município que, devido as reclamações dos usuários do transporte coletivo da população, os parlamentares da Câmara Municipal requereram que medidas fossem tomadas em relação ao serviço prestado e que houvesse uma fiscalização da concessionária, e, assim, melhorar a qualidade do serviço. O método aplicado foi o estudo de caso múltiplos, através das seguintes etapas: inicialmente foi feito uma análise bibliométrica e revisão da literatura, ambos tratam a revisão e contexto da literatura disponível sobre o sistema de medição de desempenho e a qualidade com o foco em serviços públicos, estabelecendo a sustentação teórica e a problemática de pesquisa; em seguida os casos foram selecionados, incluindo o caso de Itajubá-MG e 02 municípios do estado de São Paulo; foi elaborado o protocolo de pesquisa, validado pelos especialistas da área; e, em seguida, conduzida a coleta de dados e realização dos relatórios de casos individuais e o relatório dos casos cruzados. Identificou-se algumas relações e informações entre os casos analisados. Dentre os resultados, destaca-se a proposição de um sistema de medição de desempenho envolvendo 15 parâmetros importantes para mensurar a qualidade dos serviços prestados e serem integrados no edital de contratação de transporte público, são eles: adaptação para pessoas com necessidades especiais, acessibilidade, existência de bancos e coberturas nos pontos de ônibus, frequência, habilidade de direção dos motoristas, informação, pontualidade, tarifa, integração tarifária, limpeza, idade da frota, cordialidade dos funcionários, segurança pública e meio ambiente. Além disso, foi exposto algumas ações para auxiliar na avaliação desse serviço para o gerenciamento do contrato e orientações sobre a importância do acompanhamento dos indicadores para manutenção da qualidade do serviço prestado. Espera-se que que os resultados obtidos seja um subsídio para auxiliar o órgão competente avaliar e fiscalizar os serviços prestados. O sistema de medição de desempenho permite uma maior eficiência e eficácia nas ações tanto por parte da concessionária, como do órgão gestor, impactando na qualidade dos serviços prestados aos usuários. Os resultados obtidos podem contribuir para o sistema de transporte do município e ser utilizado como modelo para monitorar a qualidade de qualquer serviço público oferecido pelo órgão municipal de Itajubá-MG, bem como, para demais municípios. Também, espera-se que a renovação e os próximos contratos de concessão desse serviço possam incorporar as orientações aqui elencadas, de modo a reverter a tendência de redução da demanda do transporte público coletivo por ônibus e melhorar a satisfação dos usuários.


  • Mostrar Abstract
  • The pursuit for excellence in services and the interest in measuring service quality are considered important strategies used by organizations to achieve competitive advantage. In the same context, we have public services characterized as all activities that the Estate performs to satisfy public needs through the typical procedure of public law. Today, through concession contracts, many public services are provided indirectly. The Federal Constitution of 1988 establishes that public transport is a type of public service that must be offered to the population. Public transport is a democratic way for society to have access to goods, services and activities, however, its use is decreasing due to several factors, mainly due to the low quality of the service provided. To meet the needs of users and verify that the service meets contractual requirements, measuring quality performance is important, both for service providers and for the inspection body. In this context, the general objective of the research is the analysis of the performance measurement system with a focus on improving the quality parameters to be integrated in the public notice for contracting the public transport service offered in the city of Itajubá-MG. City in which, due to the user’s complaints about public transport, the parliamentarians of the City Council requested that measures were taken in relation to the service provided and an inspection of the concessionaire was carried out, thus, improving the quality of the service. The method applied was the multiple case study, through the following steps: initially a bibliometric analysis and literature review were carried out, both dealing with the review and context of the available literature on the performance measurement system and quality with a focus on public services, establishing the theoretical support and the research problem; then the cases were selected, including the case of Itajubá-MG and 02 cities in the state of São Paulo; the research protocol was elaborated, validated by specialists in the area; and then conducted data collection and reporting of individual cases and cross-case reporting. Some relationships and information between the analyzed cases were identified. Among the results, we highlight the proposal of a performance measurement system involving 15 important parameters to measure the quality of the services provided and to be integrated in the public transport hiring notice, they are: adaptation for people with special needs, accessibility, existence of benches and coverage at bus stops, frequency, drivers skill, information, punctuality, rate, tariff integration, cleanliness, age of fleet, cordiality of employees, public safety and environment. In addition, some actions were exposed to assist in the evaluation of this service for the management of the contract and guidelines on the importance of monitoring the indicators to maintain the quality of the service provided. It is expected that the results obtained will be a subsidy to help the competent body evaluate and supervise the services provided. The performance measurement system allows better efficiency and effectiveness in actions by both the concessionaire and the managing body, impacting the quality of services provided to users. The results obtained can contribute to the city's transport system and be used as a model to monitor the quality of any public service offered by the municipal body of Itajubá-MG, as well as for other cities. Also, it is expected that the renewal and the next concession contracts for this service may incorporate the guidelines listed here, in order to reverse the trend of reduced demand for collective public transport by bus and improve user’s satisfaction.

6
  • THAIS FERNANDA SOUSA PIRES
  • Otimização Robusta Multiobjetivo do Fresamento Helicoidal do Aço Inoxidável Super Duplex UNS S32760

  • Orientador : JOAO ROBERTO FERREIRA
  • MEMBROS DA BANCA :
  • JOAO ROBERTO FERREIRA
  • LINCOLN CARDOSO BRANDÃO
  • PAULO HENRIQUE DA SILVA CAMPOS
  • ROBSON BRUNO DUTRA PEREIRA
  • Data: 03/05/2023

  • Mostrar Resumo
  • Os aços inoxidáveis super duplex apresentam uma microestrutura mista constituída de fases de ferrita e austenita e são aplicados especialmente na indústria de óleo e gás, porém apresentam baixa usinabilidade. O processo de fresamento helicoidal consiste no movimento de rotação da fresa em torno do seu próprio eixo combinado com o avanço helicoidal, apresenta maior eficiência de processamento e menor custo comparado ao processo de furação convencional e permite à obtenção de furos de diferentes diâmetros. O processo apresenta ainda vantagens como altos níveis de qualidade de superfície, maior precisão dimensional e qualidade de forma, menores níveis de esforços de corte e maior suavidade na operação de usinagem. Este trabalho consiste na otimização robusta multiobjetivo do fresamento helicoidal do aço inoxidável super duplex UNS S32760. O planejamento experimental foi realizado com um arranjo composto central, considerando como fatores de controle o avanço axial por dente, o avanço tangencial por dente e a velocidade de corte. Foram avaliadas as respostas de rugosidade média, força axial de avanço e desvios de circularidade. Foi utilizado o projeto de parâmetro robusto, a metodologia de superfície de resposta para a condução dos experimentos, análise e modelagem das respostas de interesse, e realizada a otimização multiobjetivo através dos métodos de otimização de enxame de partículas multiobjetivo com distância de aglomeração (MOPSO-CD) e algoritmo genético de ordenação não-dominado (NSGA-II). Para o projeto de parâmetro robusto foram consideradas como variáveis de ruído o comprimento em balanço da fresa (lto), a altura medida do furo usinado (lb) e a vazão do fluido de corte (Q). A otimização evolutiva robusta multiobjetivo permite a avaliação dos níveis de fatores de processo. Diferentes atribuições para as funções objetivos foram analisadas com o intuito de obter soluções ótimas na Fronteira de Pareto para as respostas avaliadas.


  • Mostrar Abstract
  • Super duplex stainless steels have a mixed microstructure consisting of ferrite and austenite phases and are used especially in the oil and gas industry, but have low machinability. The helical milling process consists of rotating the cutter around its own axis combined with the helical feed, it presents greater processing efficiency and lower cost compared to the conventional drilling process and allows obtaining holes of different diameters. The process also has advantages such as high levels of surface quality, greater dimensional accuracy and shape quality, lower levels of cutting efforts and greater smoothness in the machining operation. This work consists of a robust multi-objective optimization of helical milling of the super duplex stainless steel UNS S32760. The experimental design was carried out with a central composite arrangement, considering as control factors the axial feed per tooth, the tangential feed per tooth and the cutting speed. Mean roughness responses, axial thrust force and circularity deviations were evaluated. The robust parameter design was used, the response surface methodology for conducting the experiments, analysis and modeling of the responses of interest, and multi-objective optimization was performed through the methods of optimization of multi-objective particle swarm with agglomeration distance (MOPSO-CD) and non-dominated sorting genetic algorithm (NSGA-II). For the robust parameter design, the overhang length of the cutter (lto), the measured height of the machined hole (lb) and the cutting fluid flow rate (Q) were considered as noise variables. Robust multi-objective evolutionary optimization allows the evaluation of process factor levels. Different attributions for the objective functions were analyzed in order to obtain optimal solutions on the Pareto Frontier for the evaluated responses.

7
  • JAÍNE CÁSSIA FONSECA AMARAL
  • Modelo multicritério de análise benefício/custo em processo construtivo de mobilidade urbana - estudo de caso em Santa Rita do Sapucaí, MG

  • Orientador : JOSIANE PALMA LIMA
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • JANAINA ANTONINO PINTO
  • JOSIANE PALMA LIMA
  • Data: 04/05/2023

  • Mostrar Resumo
  • As cidades são caracterizadas por problemas desde a revolução industrial que gerou uma urbanização acelerada. Isso resultou na necessidade de processos construtivos de infraestrutura para a população, sem levar em consideração as avaliações do uso dos recursos em diversos âmbitos, como o social, ambiental, econômico, histórico e cultural dos locais urbanizados. Alguns autores abordam o crescimento desordenado dos centros urbanos, juntamente com a descontinuidade de obras, resultando em desperdício de recursos em nível municipal, estadual e federal, e que não atendem às necessidades da população. Apesar da criação do Ministério das Cidades e da Política Nacional de Mobilidade Urbana, identifica-se ausência de um método estruturado de avaliação com critérios de sustentabilidade para seleção de processos construtivos de infraestrutura que busquem maximizar os benefícios/vantagens e minimizar os custos/desvantagens para população. Desta maneira, o objetivo do trabalho foi desenvolver um modelo combinado de análise benefício-custo, utilizando ferramenta multicritério para avaliação do uso de recursos econômicos, ambientais e sociais em processo construtivo de infraestrutura de transporte e mobilidade urbana. Através da fundamentação teórica, verificou-se diversas iniciativas internacionais de avaliação de processos, com destaque para o The Green Book do Reino Unido e verificou-se que o Brasil não possui a seleção de propostas e processos à margem de critérios estritamente objetivos. Buscou-se então construir e testar a aplicabilidade do modelo no projeto da Vila Criativa, Vila Feliz em Santa Rita do Sapucaí, Minas Gerais, criadora do Movimento Cidade Criativa, Cidade Feliz que possui a cidade como plataforma para aumento da qualidade de vida das pessoas. Foram definidos 26 (vinte e seis) critérios para a metodologia combinada de Analytic Hierarchy Process (AHP) e a Análise Benefício-Custo (ABC), submetidos em matrizes de comparação para avaliação de 9 (nove) especialistas. Os critérios e suas respectivas métricas de três valores foram definidos para contribuir com a aplicação dos dados na ferramenta ABC de Processos Construtivos de Infraestrutura (ABCINFRA). A ferramenta contribui com a geração de relatório de avaliação individual de cada processo construtivo para cada recurso da sustentabilidade em ambas as classes de benefício/vantagem e custo/desvantagem. A aplicação do modelo no processo construtivo da Vila Criativa, Vila Feliz, permitiu a validação dos critérios técnicos, ponderação dos especialistas, determinação de pontos críticos e toda a construção da ferramenta através dos métodos combinados, contribuindo para tomada de decisão do gestor na aplicação dos recursos públicos conectados com o propósito da sustentabilidade e mobilidade. A ferramenta permitiu
    determinar que o processo construtivo objeto de estudo minimizou os custos/desvantagens e maximizou os benefícios/vantagens, sendo viável para a cidade/pessoas, principalmente no recurso social que teve desempenho de 100% em ambas as classes, seguido pelo recurso econômico e por último o recurso ambiental. Dessa maneira, o trabalho atendeu o objetivo principal e específicos e proporcionou contribuição científica com definição de critérios e métricas de desempenho técnicos através da ferramenta de processamento de dados ABCINFRA que entrega a análise quantitativa do AHP e pontos críticos e, pode ser utilizada também, pelos gestores/tomadores de decisões públicas direcionadas à processos construtivos. Sugere-se, como trabalhos futuros, a aplicação do modelo ABCINFRA, em diferentes cidades, contribuindo para novas comparações e análises. E a ampliação dos especialistas, representando os diversos
    estados brasileiros.


  • Mostrar Abstract
  • Cities are characterized by problems since the industrial revolution that generated an accelerated urbanization, which resulted in a need for construction processes of infrastructure for the population, disregarding the evaluations of resource use from different areas, such as social, environmental, economic, historical and cultural aspects of urbanized places. Some authors address the disorderly growth of urban areas, simultaneously with the discontinuity of works, which result in waste of resources at municipal, state and federal levels and do not serve the
    population. Despite the creation of the Ministry of Cities and the National Urban Mobility Policy, there is a lack of a structured evaluation method with ustainability criteria for selecting infrastructure construction processes that maximize benefits/advantages and minimize costs/disadvantages for the population. In this way, the objective of the work was to develop a combined model of cost-benefit analysis, using a multicriteria tool to evaluate the use of economic, environmental and social resources in the construction process of transport infrastructure and urban mobility. Through the theoretical foundation, several international initiatives for process evaluation were verified, with emphasis on The Green Book of the United Kingdom and it was verified that Brazil does not have the selection of proposals and processes outside of strictly objective criteria. We then sought to build and test the applicability of the model in the project of Vila Criativa, Vila Feliz in Santa Rita do Sapucaí, Minas Gerais, creator of the Movimento Cidade Criativa, Cidade Feliz, which uses the city as a platform to increase people’s quality of life. . Twenty-six (26) criteria were defined for the combined methodology of Analytic Hierarchy Process (AHP) and Benefit-Cost Analysis (ABC), submitted in comparison matrices for evaluation by 9 (nine) specialists. The criteria and their respective threevalued metrics were defined to contribute to the application of data in the tool ABC de Constructive Processes of Infrastructure (ABCINFRA). The tool contributes to the generation of an individual assessment report for each construction process for each sustainability resource in both benefit/advantage and cost/disadvantage classes. The application of the model in the construction process of Vila Criativa, Vila Feliz, allowed the validation of the technical criteria, expert weighting, determination of critical points and the entire construction of the tool through combined methods, contributing to the manager's decision-making in the application of the public resources connected with the purpose of sustainability and mobility. The tool made it possible to determine that the constructive process object of study minimized the costs/disadvantages and maximized the benefits/advantages, being viable for the city/people, mainly in the social resource that had a performance of 100% in both classes, followed by the
    economic resource and finally the environmental resource. In this way, the work met the main and specific objectives and provided a scientific contribution with the definition of technical performance criteria and metrics through the ABCINFRA data processing tool that delivers the quantitative analysis of the AHP and critical points and can also be used by the public managers/decision makers directed to constructive processes. It is suggested, as future works, the application of the ABCINFRA model, in different cities, contributing to new comparisons and analyses. As well as the expansion of specialists, representing the different Brazilian states.

8
  • JOANA DARC TEODORO BONALDI
  • Implementação de Sistema de Rastreabilidade em Empresa de Base Tecnológica com Ênfase em Tecnologias da Indústria 4.0

  • Orientador : JULIANA HELENA DAROZ GAUDENCIO
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO SANCHES DA SILVA
  • CARLOS HENRIQUE PEREIRA MELLO
  • JOSE CARLOS DE TOLEDO
  • JOSE HENRIQUE DE FREITAS GOMES
  • JULIANA HELENA DAROZ GAUDENCIO
  • Data: 25/05/2023

  • Mostrar Resumo
  • Com o advento da Indústria 4.0 e a abordagem de um sistema de produção conectada ao uso de tecnologias da Indústria 4.0, a adoção de sistemas de rastreabilidade vem ser uma aplicação essencial dessa nova era industrial. O trabalho leva em consideração a necessidade de empresas de pequeno e médio portes melhorarem os processos realizados, através do uso de tecnologias que constituem os pilares da Indústria 4.0. No contexto, o trabalho propõe desenvolver um sistema de rastreabilidade aplicado à cadeia de produção de tanque de capacitores de aço inox através da leitura do código de barras no aço inoxidável AISI 304 ou aço inoxidável AISI 409 de uma das unidades de uma empresa brasileira localizada em Itajubá, Sul de Minas Gerais. Inicialmente, adotou-se uma revisão sistemática de literatura conduzida com base no protocolo PRISMA, abrangendo as bases de dados Scopus e Web of Science, que permitiu a seleção dos artigos mais relevantes acerca dessa temática. O método de pesquisa utilizado foi a Pesquisa-ação na qual foi possível desenvolver e implantar o Sistema de rastreabilidade proposto chamado de RAST 4.0. Por meio de um lote piloto, foi possível coletar os dados e analisá-los através das etapas do ciclo PDCA; desse modo, um Plano de Ação foi desenvolvido com o propósito de solucionar as falhas encontradas. Dando prosseguimento nas etapas da pesquisa-ação, com a aplicação do Plano de Ação, a empresa conquistou melhorias através de ações simples. Foi gerado o 2º Lote Piloto, que foi acompanhado e testado dentro do processo, resultando em tomadas de tempo de cada uma das tarefas e mantendo a rastreabilidade desde o início até o envio do tanque de capacitor para o cliente, através da Rastreabilidade interna.


  • Mostrar Abstract
  • With the advent of Industry 4.0 and the approach of a connected production system using Industry 4.0 technologies, the adoption of traceability systems becomes an essential application of this new industrial era. The work takes into account the need for small and medium-sized companies to improve the processes carried out, through the use of technologies mentioned in the pillars of Industry 4.0. In this context, the work proposes to develop a traceability system applied to the production chain of stainless-steel capacitor tanks with the reading of the bar code in stainless steel AISI 304 and stainless steel AISI 409 of one of the units of a Brazilian company located in Itajubá, south of Minas Gerais. Initially, a systematic literature review conducted based on the PRISMA protocol was adopted, covering the Scopus and Web of Science databases, which allowed the selection of the most relevant articles on this topic. The methodology used was Action Research in which it was possible to develop and implement the proposed traceability system called RAST 4.0. Through a pilot batch, it was possible to collect data and analyze them through the stages of the PDCA cycle; thus, an Action Plan was developed with the purpose of solving the flaws found. Continuing with the action-research stages, with the application of the Action Plan, the company achieved improvements through simple actions, thus generating the 2nd Pilot Batch, which was monitored and tested within the process, resulting in time taken for each of tasks and maintaining traceability from the beginning to the shipment of the capacitor tank to the customer, through internal traceability.

9
  • RAPHAEL LOPES MARTINS
  • MODELAGEM DE PROCESSOS E DECISÕES: UM ESTUDO APLICADO AO PROCESSO DE TRATAMENTO MEDICAMENTOSO DE ONCOLOGIA

  • Orientador : FABIANO LEAL
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • ALEXANDRE FONSECA TORRES
  • FABIANO LEAL
  • Data: 23/06/2023

  • Mostrar Resumo
  • Esta pesquisa propôs o estudo de um processo da área da saúde por meio da modelagem de processos e de decisões. A modelagem de processos e de decisões aplicada à área da saúde pode auxiliar em diversos fatores, incluindo a verificação de pontos de controle e de rastreabilidade, os quais diminuem os riscos para a saúde do paciente e aumenta a qualidade do serviço prestado. O objetivo principal desta pesquisa foi descrever a lógica de um processo de tratamento medicamentoso de oncologia, de ponta a ponta, de modo a indicar os seus pontos de controles e descrever a lógica das decisões realizadas em pontos críticos deste processo. A pesquisa também apresentou alguns objetivos específicos que são detalhados na introdução. Na fundamentação teórica, os termos utilizados durante a pesquisa foram esclarecidos, de modo que se pesquisou os temas relacionados à modelagem de processos e de decisões, assim como a associação na área da saúde. Para a condução científica desta pesquisa, foi utilizado o método de modelagem. Este trabalho apresentou a criação dos modelos de processo de negócio e de decisões relacionados ao tratamento medicamentoso de oncologia por meio da utilização das notações Business Process Model and Notation e Decision Model and Notation. Além disso, visou destacar os controles mapeados no processo e abordá-los utilizando a ferramenta 5W1H. O modelo criado em BPMN foi exposto à aplicação de algumas diretrizes de compreensibilidade, avaliando quais delas foram seguidas pelo modelo e o trabalho que foi realizado para adaptar o modelo ao cumprimento de outras. Foi aplicado um método de verificação e validação de modelos diagramáticos o qual ainda se encontra em desenvolvimento e será detalhado durante esta pesquisa. Por fim, este trabalho concluiu que a notação BPMN foi eficaz ao mapear o processo de tratamento oncológico, demonstrando os controles já estabelecidos e os riscos detectados no processo. Ainda, foi discutida a aplicação da notação DMN e a sua relação com a notação BPMN, a qual mostrou dificuldade em ser aplicada em processos com decisões altamente personalizadas.


  • Mostrar Abstract
  • This research proposes the study of a health area process through the modeling of processes and decisions. The modeling of processes and decisions applied to the health area can help in several factors, including the verification of control and traceability points, which reduce the risks to the patient's health and increase the quality of the service provided. The main objective of this research is to describe the logic of an oncology drug treatment process, from end to end, in order to indicate its control points and describe the logic of the decisions made in critical points of this process. The research also presents some specific objectives that are detailed in the introduction. In the theoretical foundation, the terms used during the research are clarified, in order to research the themes related to the modeling of processes and decisions, as well as their relationship in the health area. For the scientific conduct of this research, the modeling method will be used. This paper presents the creation of business process and decision models related to drug treatment in oncology through the use of Business Process Model and Notation and Decision Model and Notation. In addition, it aims to highlight the control points mapped in the process and address them using the 5W1H tool. The model created in BPMN will be exposed to the application of some comprehensibility guidelines, evaluating which ones were followed by the model and the work that was done to adapt the model to comply with others. It is intended to apply a method of verification and validation of diagrammatic models which is still under development and will be detailed during this research. Finally, this work concluded that the BPMN notation was effective in mapping the cancer treatment process, demonstrating the already established control points and the risks at certain points in the process. Also, the application of the DMN notation and its relationship with the BPMN notation was discussed, which showed the difficulty in applying it in processes where the decision has a high level of personalization.

10
  • BRUNO STORCH DE ALMEIDA CALIXTO
  • ANÁLISE DA UTILIZAÇÃO DO MÉTODO AHP NO PROCESSO DE AVALIAÇÃO E PRIORIZAÇÃO DE RISCOS OCUPACIONAIS EM UM LABORATÓRIO DE ENSINO E PESQUISA DE UMA INSTITUIÇÃO FEDERAL DE ENSINO SUPERIOR

  • Orientador : CARLOS HENRIQUE PEREIRA MELLO
  • MEMBROS DA BANCA :
  • CARLOS HENRIQUE PEREIRA MELLO
  • DENISE RANSOLIN SORANSO
  • JULIANA HELENA DAROZ GAUDENCIO
  • LUCIANO JOSÉ MINETTE
  • Data: 29/06/2023

  • Mostrar Resumo
  • As atividades realizadas em laboratórios de Instituições Federais de Ensino Superior (IFES)
    abrangem diversas áreas de conhecimento, sendo essenciais para o desenvolvimento de pesquisas científicas, atividades de ensino e extensão universitária. Porém, o ambiente
    laboratorial expõe os indivíduos a diversos riscos ocupacionais que são inerentes da execução das atividades. Diante disso a gestão de risco nas IFES se torna fundamental nestes ambientes pois reduz riscos de acidentes, promove a saúde e a satisfação dos trabalhadores, além de melhorar os resultados operacionais e a imagem da Instituição. Esta pesquisa apresentou uma análise e proposta de utilização da técnica Analytic Hierarchy Process (AHP) no processo de avaliação de riscos de gestão de riscos, baseada na Norma ISO 31000:2018, que aplicou métodos de identificação, análise, avaliação e controle dos riscos ocupacionais em um laboratório acadêmico de uma IFES do Sul do Brasil, de modo a auxiliar os especialistas em saúde e segurança do trabalho dessa instituição na priorização dos riscos, tornando as ações de elaboração e implementação de programas de prevenção em segurança e saúde do trabalho mais assertivas. Para isso, foi utilizado método de Análise Preliminar de Riscos na identificação dos riscos, o método Índice de risco para a análise da gravidade e probabilidade destes riscos e na etapa de avaliação, para priorizar os riscos ambientais e auxiliar na tomada de decisão dos especialistas, o desenvolvimento final da pesquisa indicou a ordem de importância dos riscos ambientais através do AHP. Os resultados sinalizaram que os riscos ambientais do laboratório com maior prioridade e importância para implementação de medidas de controle analisados pelos especialistas foram os Riscos de Acidente (39,28%) e o Químico (34,08%), seguidos pelo Risco Físico (14,46%) e Ergonômico (12,17%).


  • Mostrar Abstract
  • The activities carried out in laboratories of Federal Institutions of Higher Education (IFES)
    cover several areas of knowledge, being essential for the development of scientific research,
    teaching activities and university extension. However, the laboratory environment exposes
    individuals to various occupational risks that are inherent in carrying out activities. In view of this, risk management at IFES becomes fundamental in these environments, as it reduces the risk of accidents, promotes the health and satisfaction of workers, in addition to improving operational results and the institution's image. This research presented an analysis and proposal for the use of the Analytic Hierarchy Process (AHP) technique in the risk assessment process of risk management, based on the ISO 31000:2018 Standard, which applied methods of identification, analysis, evaluation and control of occupational risks in an academic laboratory of an IFES in southern Brazil, in order to assist the specialists in occupational health and safety of that institution in prioritizing risks, making the actions of elaboration and implementation of prevention programs in occupational safety and health more assertive. For this, the Preliminary Risk Analysis method was used to identify the risks, the Risk Index method for the analysis of the severity and probability of these risks and in the evaluation stage, to prioritize the environmental risks and assist in the specialists' decision making, the final development of the research indicated the order of importance of environmental risks through the AHP. The results indicated that the environmental risks of the laboratory with the highest priority and importance for the implementation of control measures analyzed by the specialists were the Accident Risks (39.28%) and the Chemical (34.08%), followed by the Physical Risk (14 .46%) and Ergonomic (12.17%).

11
  • JONATHAN SERAFIM LÚCIO
  • PROPOSTA DE UM FRAMEWORK PARA A CONDUÇÃO DE PROJETOS DE SIMULAÇÃO A EVENTOS DISCRETOS INTEGRANDO LEAN SIX SIGMA

  • Orientador : RAFAEL DE CARVALHO MIRANDA
  • MEMBROS DA BANCA :
  • JOSE ARNALDO BARRA MONTEVECHI
  • MARCELO MACHADO FERNANDES
  • RAFAEL DE CARVALHO MIRANDA
  • Data: 03/07/2023

  • Mostrar Resumo
  • Existem muitos métodos de Modelagem e Simulação disponíveis na literatura, que são comumente utilizados em projetos de Simulação a Eventos Discretos (SED). No entanto, a maioria destes métodos tem seu foco na construção de modelos computacionais. Isso faz com que as etapas de definição do problema e análise de resultados apresentem oportunidades de melhoria, uma vez que são pouco exploradas. Uma das formas de suprir tal lacuna é incorporar métodos alternativos a SED. Nesse sentido, a integração do método Lean Six Sigma (LSS), baseado no formato Define, Measure, Analyze, Improve e Control (DMAIC), juntamente com o método de SED, tem demonstrado resultados positivos em diversas áreas de aplicação. No entanto, a literatura científica apresenta poucos estudos abordando essa integração. Diante desse contexto, o presente trabalho tem como objetivo propor um framework que permita a integração de um método robusto e sistemático de resolução de problemas (LSS) com uma ferramenta de modelagem e simulação (SED), visando a execução mais assertiva e eficaz de projetos de simulação a eventos discretos. Para atingir esse objetivo, foi realizada uma revisão sistemática de literatura (RSL) com o intuito de reunir informações no sentido de entender o estado da arte a respeito dos temas abordados, descobrir o foco nos trabalhos (SED ou LSS), a maneira como estavam estruturados, a forma como eram utilizados e quais as principais ferramentas envolvidas nesse processo, em quais fases do DMAIC os modelos de SED eram aplicados e por fim, os principais elementos encontrados em trabalhos que apresentavam algum tipo de framework. Dos trabalhos analisados, apenas sete propuseram um framework integrado, sendo todos eles avaliados para identificar tendências passadas e futuras das principais práticas apresentadas. Com base nessas análises, foram estabelecidas associações entre os conceitos dos dois métodos de forma a relacionar os objetivos comuns em uma mesma etapa. Assim, o framework em sua versão inicial foi desenvolvido e posteriormente submetido a uma avaliação por meio de um questionário online, respondido por especialistas nas áreas de SED e LSS, com o propósito de ser validado estatisticamente. Após considerações e testes, a versão final do framework foi proposta, representando o produto deste trabalho.


  • Mostrar Abstract
  • There are many Modeling and Simulation methods available in the literature, which are commonly used in Discrete Event Simulation (DES) projects. However, most of these methods focus on constructing computational models, which results in opportunities for improvement in the problem definition and results analysis stages, as they are often overlooked. One way to address this gap is by incorporating alternative methods to DES. In this regard, the integration of the Lean Six Sigma (LSS) method, based on the Define, Measure, Analyze, Improve, and Control (DMAIC) framework, with the DES method has shown positive results in various application areas. However, the scientific literature provides few studies addressing this integration. Given this context, the present work aims to propose a framework that allows the integration of a robust and systematic problem-solving method (LSS) with a modeling and simulation tool (DES), aiming for more accurate and effective execution of discrete event simulation projects. To achieve this objective, a systematic literature review (SLR) was conducted to gather information regarding the state of the art on the topics addressed, to identify the focus of the works (DES or LSS), their structure, usage, and the main tools involved in the process, to determine in which phases of DMAIC the DES models were applied, and finally, the main elements found in works that presented some kind of framework. Among the analyzed works, only seven proposed an integrated framework, all of which were evaluated to identify past and future trends in the main practices presented. Based on these analyses, associations were established between the concepts of the two methods to relate common objectives within the same stage. Thus, the initial version of the framework was developed and subsequently subjected to evaluation through an online questionnaire, answered by experts in the areas of DES and LSS, with the purpose of being statistically validated. After considerations and tests, the final version of the framework was proposed, representing the outcome of this work.

12
  • ANDRÉ AOUN MONTEVECHI
  • DESENVOLVIMENTO DE FRAMEWORKS PARA A MODELAGEM DO RISCO DE CRÉDITO POR MEIO DE ALGORITMOS DE CLASSIFICAÇÃO

  • Orientador : RAFAEL DE CARVALHO MIRANDA
  • MEMBROS DA BANCA :
  • ANDRE LUIZ MEDEIROS
  • ANEIRSON FRANCISCO DA SILVA
  • JOSE HENRIQUE DE FREITAS GOMES
  • RAFAEL DE CARVALHO MIRANDA
  • Data: 04/07/2023

  • Mostrar Resumo
  • A concessão de crédito é uma atividade vital da indústria financeira. Para o funcionamento e sucesso das instituições financeiras, assim como a manutenção do equilíbrio do sistema creditício, a modelagem de risco de crédito tem o papel de avaliar a probabilidade de inadimplência de potenciais devedores com base em dados históricos. Algoritmos de classificação apresentam uma abordagem interessante para esta finalidade na elaboração de modelos para Credit Scoring. Desde o surgimento das metodologias analíticas e quantitativas para esta modelagem, persistem na indústria modelos estatísticos, dotados de maior interpretabilidade e fácil implementação. Contudo, com o desenvolvimento na área de Machine Learning (ML), surgiram novos algoritmos capazes de trabalhar com um maior volume de dados e com melhor performance preditiva. Estes algoritmos, apesar de nem sempre prontamente transferíveis da academia para a indústria, apresentam uma oportunidade para o desenvolvimento da modelagem do risco de crédito, tendo consequentemente despertado um interesse de pesquisadores na área. A literatura, por sua vez, se enfoca na performance dos modelos, dificilmente estabelecendo diretrizes para a otimização do processo de modelagem ou se atentando às regulamentações vigentes para a sua aplicação prática na indústria financeira. Desta forma, esta dissertação, embasada por uma revisão sistemática de literatura, propõe frameworks para a modelagem do risco de crédito incorporando o uso de técnicas de ML, pré-processamento e balanceamento de dados, feature selection (FS) e otimização de hiper-parâmetros (OHP). Além da pesquisa bibliográfica, que possibilita uma familiarização com os principais algoritmos de classificação e as etapas de modelagem apropriadas, o desenvolvimento dos frameworks também é fundamentado pela elaboraçao de centenas de modelos para classificação do risco de crédito, partindo dos algoritmos de Regressão Logística (Logistic Regression - LR), Árvores de Decisão (Decision Trees - DT), Support Vector Machines (SVM), Random Forest (RF), assim como ensembles de boosting e stacking, para direcionar de maneira eficiente a construção de modelos robustos e parcimoniosos para a análise do risco na concessão de crédito ao consumidor.


  • Mostrar Abstract
  • Granting credit is a vital activity in the financial industry. For the success of financial institutions, as well as the equilibrium of the credit system as a whole, it is important that credit risk management systems efficiently evaluate the probability of default of potential debtors based on their historical data. Classification algorithms are an interesting approach to this problem in the form of Credit Scoring models. Since the emergence of quantitative analytical methods with this purpose, statistical models persist as the most commonly chosen method, given their easier implementation and inherent interpretability. However, advances in Machine Learning have developed new and more complex algorithms capable of handling a bigger amount of data, often with an increase in predictive power. These new approaches, although not always readily transferable to practical applications in the financial industry, present an opportunity for the development of credit risk modeling and have piqued the interest of researchers in the field. Nonetheless, researchers seem to focus on model performance, not appropriately setting up guidelines to optimize the modeling process or considering the present regulation for model implementation. Thereby, this dissertation establishes frameworks for consumer credit risk modeling based on classification algorithms while guided by a systematic literature review on the topic. The proposed frameworks incorporate ML techniques, data preprocessing and balancing, feature selection (FS), and hyperparameter optimization (HPO). In addition to the bibliographic research, which introduces us to the main classification algorithms and appropriate modeling steps, the development of the frameworks is also based on experiments with hundreds of models for credit risk classification, using Logistic Regression (LR), Decision Trees (DT), Support Vector Machines (SVM), Random Forest (RF), as well as boosting and stacking ensembles, to efficiently guide the construction of robust and parsimonious models for credit risk analysis in consumer lending.

13
  • LUCAS GOMES PEREIRA
  • Clusterização como Técnica de Apoio à Decisão para um Marketplace Eletrônico Logístico

  • Orientador : RENATO DA SILVA LIMA
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • ANDRE LUIZ BARBOSA NUNES DA CUNHA
  • FABIO FAVARETTO
  • RENATO DA SILVA LIMA
  • Data: 21/09/2023

  • Mostrar Resumo
  • O transporte rodoviário é uma das modalidades de maior impacto na matriz de transportes
    internacional. Apesar das suas vantagens de flexibilidade e disponibilidade, é um setor marcado pela alta fragmentação. Antigamente, o processo de intermediação dessa cadeia logística era operado por agentes de fretes, ineficiente em tempo e custo. Uma solução para atender às necessidades de agilidade e facilidade são os marketplaces logísticos eletrônicos, definidos por sistemas que permitem as transportadoras anunciarem suas cargas a caminhoneiros em busca de fretes. Todavia, como consequência da facilidade da automação de correspondência entre carga e capacidade, as provedoras de tecnologia desse modelo de negócio estão tendo que lidar com um volume de dados sem precedentes. Dessa variedade, pode-se extrair informações úteis sobre o comportamento dos usuários. Pode-se pontuar que, apesar da sua popularização, a literatura científica sobre os marketplaces logísticos não acompanhou o crescimento. Haja vista dessas oportunidades, este trabalho visa identificar padrões em uma base de dados de anúncio de cargas de um marketplace logístico por meio da clusterização, capaz de auxiliar na tomada de decisão. A pesquisa, seguindo o procedimento do CRISP-DM, obteve os dados de postagem de cargas na plataforma de 2019 a 2021. Empregando o software RStudio, a tendência de clusterização da base de dados foi confirmada e posteriormente implementado o algoritmo
    CLARA. A qualidade dos agrupamentos foi avaliada pelo índice Silhueta. Constatou-se que o
    grupo mais representativo, no âmbito nacional, pôde ser representado por fretes dentro do
    estado de São Paulo, que apresentavam carga completa, percorrendo distâncias de cerca de 500 km e demandando veículos de categoria pesada para o transporte. Já no contexto São Paulo, a partição mais expressiva foi a de fretes lotação, com viagens de pouco mais de cinco horas e que exigiam também veículos de categoria pesada. Associou-se a maior frequência desse tipo de frete aos seus benefícios, a saber, a eficiência em termos de utilização de espaço e recursos. As principais estratégias identificadas, no contexto nacional, consistem no oferecimento às transportadoras que realizam um alto volume de viagens descontos progressivos nos serviços adicionais e a divulgação do marketplace logístico entre os potenciais clientes com interesse específico em serviços de transporte de cargas pesadas e médias distâncias. Pôde-se identificar uma interessante oportunidade de negócio no Acre, em que a empresa poderia aumentar a sua atuação, dando o suporte nessa região do Brasil em que os fretes rodoviários não são tão recorrentes; bem como incentivar o uso da plataforma no estado de São Paulo para a postagens de cargas fracionadas, apresentando as vantagens também para os que detêm veículos de
    pequeno porte. Conclui-se que o CLARA trouxe resultados satisfatórios, diminuindo a
    complexidade computacional de uma base de mais de três milhões de entradas e revelando
    grupos de dados como uma oportunidade de crescimento da plataforma. Contudo, houve
    sobreposições de estruturas claramente avistadas como distintas nos gráficos de dispersão.


  • Mostrar Abstract
  • Road transport is one of the most impactful modes in the global transportation matrix. Despite its advantages of flexibility and availability, the sector is characterized by high fragmentation. In the past, the intermediation process in this logistics chain was inefficiently handled by freight agents in terms of time and cost. An effective solution to address the need for agility and ease is through electronic logistics marketplaces, which are systems allowing carriers to advertise their loads to truck drivers searching for freight. However, the ease of automating load and capacity matching has resulted in technology providers dealing with an unprecedented volume of data. Valuable insights about user behavior can be derived from this diverse dataset. Despite the popularity of logistics marketplaces, scientific literature has not kept pace with their growth. Given these opportunities, this study aims to identify patterns in a cargo advertisement database
    of a logistics marketplace using clustering, which can assist in decision-making. Following the CRISP-DM procedure, data on load postings from 2019 to 2021 were collected, and the
    clustering trend of the database was confirmed using RStudio software. The CLARA algorithm was subsequently employed, and the quality of clusters was assessed using the Silhouette index. The most representative group at the national level consisted of freight within the state of São Paulo, featuring full loads, covering distances of around 500 km, and requiring heavy-duty vehicles for transportation. In the context of São Paulo, the most significant partition comprised full freight journeys of just over five hours, also requiring heavy-duty vehicles. The higher frequency of full freight was attributed to its benefits, such as efficiency in space and resource utilization. The main strategies identified for the national context involve offering progressive discounts on additional services to carriers conducting a high volume of trips and targeted promotion of the logistics marketplace to potential customers interested in transporting heavy loads over medium distances. An interesting business opportunity was identified in Acre, where the company could expand its operations and provide support in a region of Brazil where road freight is less common. Additionally, encouraging the use of the platform in São Paulo for posting fractional loads was suggested, highlighting the advantages for owners of small vehicles. In conclusion, CLARA produced satisfactory results by reducing the computational complexity of a database with over three million entries, and the study revealed data clusters as
    potential opportunities for platform growth. However, there were instances of overlaps of
    structures clearly seen as distinct in the scatterplots.

14
  • JORGE YURI OZATO
  • Análise estocástica da viabilidade de uma usina eólica offshore (UEO) na costa brasileira através do Levelized Cost of Energy (LCOE)

  • Orientador : EDSON DE OLIVEIRA PAMPLONA
  • MEMBROS DA BANCA :
  • EDSON DE OLIVEIRA PAMPLONA
  • GIANCARLO AQUILA
  • VICTOR EDUARDO DE MELLO VALERIO
  • WILSON TOSHIRO NAKAMURA
  • Data: 29/09/2023

  • Mostrar Resumo
  • O interesse na energia eólica offshore no Brasil é recente, e as investigações sobre a real
    competitividade dessa fonte no país são escassas. Nesse sentido, o presente estudo propõe uma
    abordagem estocástica para comparar o LCOE (Custo Nivelado de Energia) de parques eólicos
    offshore em cinco pontos diferentes da costa brasileira, levando em consideração diferentes
    possibilidades de impostos corporativos e comercialização de créditos de carbono. Para validar
    a comparação, é avaliado o potencial eólico offshore dos locais analisados, modelando as
    incertezas relacionadas à velocidade do vento no horizonte mensal, além das incertezas
    econômicas associadas aos Gastos de Capital (CAPEX), Gastos Operacionais (OPEX) e Gastos
    de Desativação (DECEX). Em seguida, são realizadas 10.000 iterações da Simulação de Monte
    Carlo para calcular o LCOE, considerando cenários com tributação baseada no Método de
    Lucro Real (APM, na sigla em inglês) e no Método de Lucro Presumido (PPM), com e sem a
    possibilidade de Certificados Verdes Negociáveis (TGC). Os resultados revelam que a
    possibilidade de tributação pelo PPM e a identificação do melhor local para explorar a geração
    de energia eólica são os fatores que mais influenciam a redução do LCOE e do risco financeiro
    de investir em um parque eólico offshore no Brasil. Por sua vez, a possibilidade de negociar
    TGC contribui para a redução do LCOE dos projetos, mas não é um fator que favorece
    significativamente a redução do risco financeiro. Além disso, observa-se que a região costeira
    próxima ao Nordeste é onde está o maior potencial eólico offshore do Brasil, e os pontos
    localizados no Rio Grande do Sul e no Rio de Janeiro apresentaram certa competitividade,
    embora em menor escala do que o Nordeste.


  • Mostrar Abstract
  • The interest in offshore wind power in Brazil is a recent development, and there is a lack of
    research on the actual competitiveness of this energy source in the country. This study proposes
    a stochastic approach to compare the levelized cost of electricity (LCOE) for offshore wind
    farms at five different locations along the Brazilian coast. Various possibilities of corporate
    taxation and the commercialization of carbon credits are also considered. To validate the
    comparison, the offshore wind potential of the evaluated locations is assessed by modeling the
    uncertainties associated with monthly variations in wind speed, as well as the economic
    uncertainties related to Capital Expenditure (CAPEX), Operational Expenditure (OPEX), and
    Decommissioning Expenditure (DECEX). Subsequently, 10,000 iterations of the Monte Carlo
    Simulation are conducted to calculate the LCOE for different scenarios, including taxation
    based on the Actual Profit Method (APM) and the Presumed Profit Method (PPM), with and
    without Tradable Green Certificates (TGC). The results indicate that the application of the PPM
    for taxation and the identification of the optimal location for wind power exploitation are the
    most influential factors in reducing the LCOE and the financial risk associated with offshore
    wind farm investments in Brazil. On the other hand, the possibility of trading TGC contributes
    to lowering the LCOE of projects but does not significantly mitigate the financial risk.
    Furthermore, the study reveals that the coastal region near the Northeast of Brazil exhibits the
    highest offshore wind potential, while locations in Rio Grande do Sul and Rio de Janeiro
    demonstrate some competitiveness, although to a lesser extent than the Northeast.


15
  • BRENDA DE QUEIROZ VIANA
  • PLANEJAMENTO ESTRATÉGICO: METODOLOGIA DE CONDUÇÃO, APLICAÇÃO E ACOMPANHAMENTO PROPOSTOS PARA A SECRETARIA DE EDUCAÇÃO SUPERIOR (SESu)

  • Orientador : JULIANA HELENA DAROZ GAUDENCIO
  • MEMBROS DA BANCA :
  • DANY FLAVIO TONELLI
  • CARLOS EDUARDO SANCHES DA SILVA
  • JULIANA HELENA DAROZ GAUDENCIO
  • Data: 26/10/2023

  • Mostrar Resumo
  • É importante planejar estrategicamente uma otimização dos recursos dentro de instituições de ensino, além de buscar a melhoria contínua da qualidade dos serviços prestados e uma gestão estratégica dos principais requisitos relacionados às dimensões de ensino, pesquisa e extensão. O Planejamento Estratégico (PE) é empregado como forma de auxiliar no delineamento de objetivos e metas futuras, assim como na tomada de decisões para a garantia do monitoramento, controle e organização estratégica, podendo utilizar-se recursos como missão, visão, valores, Mapa Estratégico e Análise SWOT. Em Instituições de Ensino Superior (IES), existe uma necessidade em desenvolver um PE eficaz, eficiente e efetivo, que seja capaz de se alinhar com o planejamento orçamentário e estar sempre preparado para se adaptar frente a possíveis alterações orçamentárias e questões políticas, sendo considerado como obrigação legal segundo a Constituição Federal de 1988, decretos e leis. No Brasil, o planejamento, orientação, coordenação e supervisão de toda a Política Nacional de Educação Superior é responsabilidade da Secretaria de Educação Superior (SESu), a qual necessita da formalização e sistematização de um PE próprio. Partindo desta premissa, este trabalho possui como objetivo principal avaliar as ações realizadas durante o desenvolvimento do Planejamento Estratégico da SESu de modo a identificar os meios de condução, aplicação e acompanhamento propostos para a Secretaria visando atender todos os requisitos necessários em concordância com as diretrizes do Ministério da Educação (MEC). Diante desse contexto, foi empregado o método de estudo de caso, utilizando-se como instrumento de coleta de dados entrevistas e reuniões remotas. Dentre os principais resultados, foi possível acompanhar a condução das ações desenvolvidas em todas as etapas executadas para o PE da SESu, realizar um comparativo com o que foi executado no PE do MEC e o que foi proposto pelo Guia Técnico de Gestão Estratégica, buscar identificar possíveis mudanças e alterações provocadas pela transição governamental, além de modelar o processo da elaboração do planejamento utilizando a notação Business Process Model and Notation (BPMN) e analisar a compressibilidade do modelo.


  • Mostrar Abstract
  • It is important to plan strategically for optimization of resources within educational institutions and seek continuous improvement of the quality of services provided and a strategic management of the main requirements related to teaching, research, and extension. Strategic Planning (SP) is developed as a way to assist in setting objectives, future goals, decision making, monitoring, control, and strategic organization. It should use resources such as mission, vision, values, Strategic Map and SWOT Analysis. In Higher Education Institutions (HEI), there is a need to develop an effective SP, which can align with the budget planning and always be prepared to adapt to possible budget changes and political issues being considered a legal obligation according to the Federal Constitution of 1988, decrees and laws. In Brazil, the planning, orientation, coordination, and supervision of the entire National Higher Education Policy is the responsibility of the Secretary of Higher Education (SESu), which requires the formalization and systematization of your own SP. Based on this premise, this work has as its primary objective to evaluate the actions carried out during the development of the SESu’s SP in order to identify the means of conducting, implementing, and monitoring proposed for the Secretary to meet all necessary requirements in accordance with the guidelines of the Ministry of Education (MEC). In this context, the case study method was employed, using it as an instrument of data collection interviews and remote meetings. Among the main results, it was possible to track the progress of the actions developed in all stages executed for the SESu’s SP, make a comparison with what was executed in the MEC’s SP and what was proposed by the Technical Guide for Strategic Management, seek to identify possible changes and alterations caused by the government transition, as well as model the planning process using Business Process Model and Notation (BPMN) notation and analyze the compressibility of the model.

Teses
1
  • ERIVELTON ANTONIO DOS SANTOS
  • O que importa na contratação de profissionais para desenvolvimento global de software ou na economia gig?

  • Orientador : CARLOS EDUARDO SANCHES DA SILVA
  • MEMBROS DA BANCA :
  • DALESSANDRO SOARES VIANNA
  • CARLOS EDUARDO SANCHES DA SILVA
  • CARLOS HENRIQUE PEREIRA MELLO
  • DALTON GARCIA BORGES DE SOUZA
  • DANIEL JUGEND
  • RAFAEL DE CARVALHO MIRANDA
  • Data: 02/02/2023

  • Mostrar Resumo
  • As cadeias de suprimentos são suscetíveis a incertezas, como desastres naturais de grande escala, incêndios industriais, ataques terroristas, paralisações elétricas generalizadas, tensões financeiras e políticas e guerras.
    Esse cenário induz a crescentes taxas de desemprego que levaram a força de trabalho a contratos de curto prazo ou ao mercado sob demanda conhecido como economia gig.
    No entanto, selecionar profissionais qualificados é difícil e arriscado quando as organizações estão imersas em ambientes de ritmo acelerado. Nesse contexto, investigou-se o cenário de análise da contratação de profissionais em desenvolvimento global de software (GSD).
    Esta tese tem como objetivo desenvolver clusters de critérios para a contratação de profissionais autônomos no contexto do Desenvolvimento Global de Software ou Gig Economy.
    Revisamos sistematicamente 319 critérios em 65 artigos e os agrupamos em duas formas inovadoras. Assim, obtivemos 25 agrupamentos de critérios e uma estrutura hierárquica com seus relacionamentos, indicando que tínhamos apenas 40% da causa.
    Estamos propondo dois métodos inovadores de agrupamento de critérios. A primeira entrega um clustering de agregação rápida, e a segunda com os relacionamentos entre os clusters de critérios. Essa ferramenta pode ser útil para pesquisadores na exploração de novos dados por meio de revisão de literatura ou mesmo por meio de pesquisas. Outro ponto é que os profissionais poderiam facilmente usar a planilha com todos os dados, remover ou juntar novos critérios e executar o algoritmo para criar novos clusters por conta própria.
    Os principais resultados foram, em primeiro lugar, para os proponentes, no desenvolvimento de software, os requisitos do projeto são levantados junto aos clientes e stakeholders; esse processo envolve comunicação rica e em loop.
    Em segundo lugar, as empresas primeiro verificam os clusters de critérios. Em seguida, a lista de critérios, e levando em consideração o cargo ou perfil, escolhem como fazer o processo de contratação, refletindo sobre a relação dos agrupamentos de critérios (causa/efeitos).
    Por fim, esses resultados também implicam no desenho de novas disciplinas para os cursos de informática, principalmente no que diz respeito às soft skills, conforme destacado no cluster Communication, no qual temos uma lista de critérios bastante citados no SLR.


  • Mostrar Abstract
  • Supply chains are susceptible to uncertainties, such as large-scale natural disasters, manufacturing fires, terrorist attacks, widespread electrical shutdowns, financial and political tension, and wars.
    Therefore, rising unemployment rates have driven the workforce into short-term contracts or the on-demand market known as the gig economy.
    However, selecting skilled professionals is difficult and risky when organizations are immersed in fast-paced environments. In this context, we investigated the analysis scenario of contracting professionals in global software developments (GSD).
    This thesis aims to develop clusters of criteria for hiring self-employed professionals in the Global Software Development or Gig Economy context.
    We systematically reviewed 319 criteria in 65 papers and grouped them into two innovative ways. Thus, we obtained 25 criteria clusters and a hierarchical structure with their relationships, indicating that we had only 40% of the cause.
    We are proposing two innovative criteria grouping methods. The first delivers a fast aggregation clustering, and the second with the relationships between the criteria clusters. This tool can be handy for researchers in exploring new data via literature review or even through surveys. Another point is that the practitioners could easily use the spreadsheet with all the data, remove or join new criteria, and run the algorithm to create new clusters on their own.
    The main results were, firstly, for the applicants, in software development, the project requirements are gathered over the clients and stakeholders; this process involves rich and looping communication.
    Secondly, the enterprises first check the criteria clusters. Then, the list of criteria, and taking into account the job position or profile, they choose how to make the hiring process, reflecting on the relationship of criteria clusters (cause/effects).
    Finally, these results also imply the design of new subjects for computer science courses, mainly concerning soft skills, as highlighted in the Communication criteria cluster, in which we have a list of criteria highly cited in SLR.

2
  • GUSTAVO DOS SANTOS LEAL
  • Otimização de modelos SARIMA-DEA com ensembles e Delineamento de Misturas

  • Orientador : PEDRO PAULO BALESTRASSI
  • MEMBROS DA BANCA :
  • LUPERCIO FRANÇA BESSEGATO
  • CARLOS HENRIQUE PEREIRA MELLO
  • JULIANA HELENA DAROZ GAUDENCIO
  • PEDRO PAULO BALESTRASSI
  • WESLEY VIEIRA DA SILVA
  • Data: 27/02/2023

  • Mostrar Resumo
  • Realizar previsões acuradas é de suma importância para diversas áreas do conhecimento, como Economia, Gestão, Engenharias, Estatística etc. Existem várias abordagens para se realizar previsões: análise de séries temporais, análise de regressão, redes neurais artificiais etc. Contudo, um cuidado que todo pesquisador ou analista deve ter ao aplicar qualquer uma das referidas técnicas é o cuidado com o overfitting – que ocorre quando um determinado modelo possui tantos parâmetros que se ajusta bem ao conjunto de treino, mas prevê muito mal o conjunto de teste. Recentemente, técnicas de combinação de modelos estão em voga, uma vez que comprovadamente o ensemble de modelos faz com que as métricas de previsão sejam melhores. Entretanto, o problema do overfitting ainda pode estar presente nestes casos. Para contornar este problema, esta tese sugere a aplicação de um passo intermediário entre a seleção de modelos e a otimização dos pesos que é a utilização de um modelo de Análise por Envoltória de Dados adequado à presença de variáveis fracionadas para não ferir o pressuposto de convexidade. Para analisar este método, esta tese aplicará modelos de Box & Jenkins. Criam-se, portanto, Decision Making Units (DMUs) por meio de um Arranjo Fatorial Completo, modificando os parâmetros computacionais. Aplica-se a análise de supereficiência e retem-se as 4 DMUs com maiores índices de eficiência para posterior combinação por meio de otimização de Superfície de Resposta no contexto de Delineamento de Misturas. Propõe-se também a aplicação de técnicas estatística multivariadas para redução de dimensionalidade, a fim de tornar o problema computacionalmente menor. Para validar o método proposto, foi criado um estudo de simulação, comparando os resultados com o método Naive. A simulação mostrou que o método proposto nesta tese apresenta em média melhores resultados. Por fim, o método foi aplicado em séries de demanda de energia elétrica do Brasil e suas cinco regiões.


  • Mostrar Abstract
  • Accurate forecasting is crucial for several areas of knowledge, such as Economics, Management, Engineering and Statistics. There are several approaches to perform forecasting: time series analysis, regression analysis, artificial neural networks, etc. However, both researchers or analysts must be aware when applying any of the aforementioned techniques because of overfitting – which occurs when a given model has so many parameters that it fits well to the training set, but predicts the test set very poorly. Recently, model combination techniques are widely spread, since the ensemble of models is proven to make the forecast metrics better. However, the overfitting problem may still occur in these cases. To overcome this, this thesis suggests the application of an intermediate step between the selection of models for the ensemble and the optimization of their weights, which is the application of a Data Envelopment Analysis model suitable for the presence of fractional variables so as not to harm the assumption of convexity. To analyze this method, this thesis applies Box & Jenkins models. Therefore, Decision Making Units (DMU) are created through a Complete Factorial Arrangement, modifying the computational parameters. Super-efficiency analysis is applied and the 4 DMUs with the highest efficiency indexes are retained for later combination through Response Surface (RSM) optimization in the context of Mixture Design. It is also proposed the application of multivariate statistical techniques for dimensionality reduction, in order to make the problem computationally smaller. To validate the proposed method, a simulation study was created, comparing the results with the Naive method. The simulation showed that the method proposed in this thesis presents, on average, better results. Finally, the method was applied to series about electricity demand from Brazil and its five geographic regions.

3
  • CARLOS HENRIQUE DOS SANTOS
  • Monitoramento de Modelos de Simulação utilizados como Gêmeos Digitais: Uma abordagem baseada em Aprendizado de Máquina e Carta de Controle

  • Orientador : JOSE ARNALDO BARRA MONTEVECHI
  • MEMBROS DA BANCA :
  • ANDERSON RODRIGO DE QUEIROZ
  • ANTONIO FERNANDO BRANCO COSTA
  • EDUARDO GOMES SALGADO
  • JOSE ANTONIO DE QUEIROZ
  • JOSE ARNALDO BARRA MONTEVECHI
  • RAFAEL DE CARVALHO MIRANDA
  • Data: 27/06/2023

  • Mostrar Resumo
  • O uso de modelos de simulação como Gêmeos Digitais (GD) vem ganhando destaque nos últimos anos e representa uma revolução na tomada de decisão em processos produtivos, sendo uma solução chave no contexto da chamada Indústria 4.0. Neste sentido, nota-se decisões cada vez mais rápidas e eficientes a partir do espelhamento do comportamento dos sistemas físicos por meio de sensores, equipamentos inteligentes, sistemas de gestão e bases de dados. Os modelos utilizados como GD são atualizados periodicamente, em tempo real ou quase real e de acordo com as mudanças físicas, e fornecem orientações ou comandos para a tomada de decisões. Por outro lado, apesar da grande aplicabilidade dessa abordagem, destacam-se desafios relacionados à validade dos modelos de simulação ao longo do tempo, uma vez que as abordagens tradicionais de validação não consideram a atualização periódica do modelo. Garantir a validade dos GDs é vital, uma vez que tal utilização costuma envolver decisões de grande impacto para os sistemas produtivos em geral. Além disso, embora seja um campo de pesquisa com grande importância tanto para pesquisadores quanto para profissionais da área, nota-se que há ainda uma lacuna quanto a métodos visando o monitoramento da validade dos GDs. Dessa forma, de modo a contribuir com a literatura e preencher tal lacuna existente, o presente trabalho propõe uma abordagem baseada na avaliação periódica dos modelos de simulação utilizados como GDs por meio de Aprendizado de Máquina e carta de controle. Sugere-se uma ferramenta de monitoramento baseada no classificador K-Nearest Neighbors (K-NN), combinado com a carta de controle p, visando avaliar periodicamente a validade dos modelos de GDs. Inicialmente, a abordagem proposta foi testada em diversos casos teóricos de forma a se avaliar o funcionamento da ferramenta em situações onde o ambiente físico difere significativamente do virtual, fato que representaria um possível caso onde o GD não é válido. Neste caso, foram emulados dados correspondentes aos ambientes físico e virtual considerando distribuições de probabilidade padronizadas. Além disso, a ferramenta também foi implementada em dois objetos de estudo reais, atuando como um suplemento visando tornar os GDs mais robustos e confiáveis. Neste caso, foram adotados GDs já implementados e em fase operacional. O primeiro objeto de estudo refere-se a um modelo que apoia decisões de planejamento operacional em uma empresa de médio porte do ramo de confecções, cujos processos são majoritariamente manuais. Já o segundo objeto de estudo refere-se a um GD implementado em uma célula de produção automatizada e que opera próximo de tempo real, permitindo a avaliação dos principais parâmetros do processo. A ferramenta se mostrou capaz de monitorar o funcionamento de ambos os GDs e identificar possíveis causas especiais que podem comprometer seus resultados e, consequentemente, sua validade. Por fim, destaca-se a ampla aplicabilidade da ferramenta, que pode ser utilizada em diferentes abordagens de GD, incluindo modelos de simulação com diferentes características de conexão, integração e complexidade. Neste caso, a abordagem proposta opera independentemente das características dos GDs, ou seja, contempla modelos que operam em tempo real ou quase real, considerando sistemas físicos automatizados ou manuais e abrange sistemas com diferentes níveis de complexidade.


  • Mostrar Abstract
  • The use of simulation models as Digital Twins (DTs) has been standing out in recent years and represents a revolution in decision-making in production processes, being a key solution in the context of the so-called Industry 4.0. In this sense, we highlight increasingly faster and more efficient decisions from the mirroring of the behavior of physical systems through sensors, intelligent equipment, management systems and databases. The models used as DTs are updated periodically, in real or near real time according to physical changes, and provide guidelines or commands for decision making. On the other hand, despite the great applicability of this approach, challenges related to the validity of simulation models over time stand out, since traditional validation approaches do not consider the periodic update of the model. Ensuring the validity of DTs is essential, since it usually involves decisions of great impact for production systems. In addition, although it is a field of research with great importance for both researchers and professionals, we noted that there is still a gap in terms of methods aimed at monitoring the validity of DTs. Therefore, in order to contribute to the literature and fill this gap, the present work proposes an approach based on the periodic evaluation of simulation models used as DTs through Machine Learning and control chart. We suggest a monitoring tool based on the K-Nearest Neighbors (K-NN) classifier, combined with the p control chart, in order to periodically assess the validity of DT models. Initially, the proposed approach was tested in several theoretical cases in order to evaluate the functioning of the tool in situations where the physical environment differs significantly from the virtual one, a fact that would represent a possible case where the DT is not valid. In this case, data corresponding to the physical and digital environments were emulated considering standardized probability distributions. Furthermore, the tool was also implemented in two real objects of study, acting as a supplement to make DTs more robust and reliable. In this case, DTs already implemented and in the operational phase were adopted. The first object of study refers to a model that supports operational planning decisions in a medium-sized company of a clothing industry, whose processes are mostly manual. The second object of study refers to a DT implemented in an automated production cell that operates in near real time, allowing the evaluation of the main process parameters. The tool proved to be capable of monitoring the functioning of both DTs and identifying possible special causes that could compromise its results and, consequently, its validity. Finally, the broad applicability of the tool is highlighted, which can be used in different approaches of DT, including simulation models with different characteristics of connection, integration, and complexity. In this case, the proposed approach operates independently of the characteristics of the DTs, including models that operate in real or near real time, considering automated or manual physical systems and covers systems with different levels of complexity.

4
  • JOAO PAULO BARBIERI
  • ANÁLISE ELEMENTAR DA COMPLEXIDADE DE MODELOS DE SIMULAÇÃO DISCRETOS E HÍBRIDOS

  • Orientador : ALEXANDRE FERREIRA DE PINHO
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • FABIANO LEAL
  • FERNANDO DESCHAMPS
  • JOAO JOSE DE ASSIS RANGEL
  • JOSE ARNALDO BARRA MONTEVECHI
  • RENATO DA SILVA LIMA
  • Data: 19/09/2023

  • Mostrar Resumo
  • Sob a influência do desenvolvimento tecnológico, os sistemas reais estão tendo um aumento expressivo quanto ao seu tamanho e à sua complexidade. Diante de um contexto de avanços tecnológicos, a simulação mantém sua relevância científica, servindo de apoio à tomada de decisões empresariais. Por meio da simulação, sistemas reais, e suas idiossincrasias, são analisados e aperfeiçoados. Durante um projeto de simulação, o especialista precisa tomar uma série de decisões, o que inclui a definição do nível de detalhamento do modelo. Além disso, na fase de desenvolvimento do modelo computacional, o especialista também precisa decidir sobre qual abordagem de simulação a ser utilizada. Em meio às decisões deste especialista, um dilema emerge: os sistemas reais estão progressivamente se tornando maiores e complexos em função do progresso tecnológico; mesmo com os avanços tecnológicos, a literatura científica afirma que um modelo computacional é uma abstração da realidade e ele deve ser o mais simples possível. No contexto deste dilema, a presente tese tem como objetivo geral aprofundar as discussões sobre a introdução de maior nível de detalhamento em modelos computacionais, considerando as abordagens Simulação a Eventos Discretos (SED) e Simulação Híbrida (SH), id est, abordagem SED combinada à abordagem Simulação Baseada em Agentes (SBA). A necessidade em aprofundar estas discussões gerou o método iDAV, método utilizado para mensurar modelos computacionais. Com a aplicação do método iDAV, constatou-se que os modelos discretos são mais simples de serem desenvolvidos quando o nível de detalhe é menor. Por outro lado, quando o escopo e o nível de detalhamento são aumentados, os modelos híbridos mostram-se mais adequados.


  • Mostrar Abstract
  • Under the influence of technological development, real systems are experiencing a significant increase in size and complexity. Faced with a context of technological advances, simulation maintains its scientific relevance, supporting business decision-making. Through simulation, real systems, and their idiosyncrasies, are analyzed and improved. During a simulation project, the specialist needs to make a series of decisions, which includes defining the model's level of detail. Furthermore, in the computational model development phase, the specialist also needs to decide on which simulation approach to use. In the midst of this specialist's decisions, a dilemma emerges: real systems are progressively becoming larger and more complex as a result of technological progress; even with technological advances, the scientific literature states that a computational model is an abstraction of reality and it should be as simple as possible. In the context of this dilemma, the present thesis has the general objective of deepening discussions on the introduction of a greater level of detail in computational models, considering the Discrete Event Simulation (DES) and Hybrid Simulation (HS) approaches, id est, DES approach combined with Agent-Based Simulation (SBA) approach. The need to deepen these discussions generated the iDAV method, a method used to measure computational models. With the application of the iDAV method, it was found that discrete models are simpler to be developed when the level of detail is lower. On the other hand, when the scope and level of detail are increased, hybrid models are more suitable.

5
  • BRUNA STÉFANY COSTA
  • Análise do desempenho de gráficos de controle com regras suplementares de decisão

  • Orientador : ANTONIO FERNANDO BRANCO COSTA
  • MEMBROS DA BANCA :
  • ANTONIO FERNANDO BRANCO COSTA
  • CARLOS HENRIQUE PEREIRA MELLO
  • PEDRO PAULO BALESTRASSI
  • ROBERTO DA COSTA QUININO
  • ROGÉRIO SANTANA PERUCHI
  • Data: 20/10/2023

  • Mostrar Resumo
  • Os objetivos mais importantes das empresas industriais e não industriais se referem a custo, tempo e qualidade. Por um lado, os gráficos de controle representam uma importante ferramenta de qualidade, mostrando se o processo está em controle ou fora de controle. Por outro lado, as cadeias de Markov podem ser usadas em conjunto com os gráficos de controle, modelando o processo em análise. Desta maneira, a presente pesquisa possui o objetivo de analisar o desempenho de gráficos de controle com regras suplementares de decisão por meio da comparação do número médio de amostras até o sinal. Para tal, o processo da literatura sob investigação foi analisado e modelado através de uma cadeia de Markov. Na sequência, o número médio de amostras até o sinal foi calculado para cenários distintos. Os gráficos de controle analisados se referem a um gráfico de índice de capacidade com regra suplementar de decisão, um gráfico de X ̅ com regra suplementar de decisão e um gráfico de X ̅ com regra básica de decisão. Os resultados obtidos permitiram a condução de duas análises distintas. A primeira análise mostrou que, em se tratando de deslocamentos da média, a complexidade de cálculo advinda da introdução do índice de capacidade nem sempre produz os melhores resultados. A segunda análise mostrou que, em se tratando de deslocamentos da média, a complexidade de cálculo advinda da introdução da regra suplementar de decisão em geral produz os melhores resultados. Em alguns casos o gráfico de índice de capacidade com regra suplementar de decisão foi o gráfico com o melhor desempenho entre os três analisados e em outros casos o gráfico de X ̅ com regra suplementar de decisão foi o gráfico com o melhor desempenho entre os três analisados. Por fim, os resultados reafirmaram que o gráfico de controle de X ̅ não apresenta bom desempenho em se tratando de pequenos deslocamentos na média.


  • Mostrar Abstract
  • The most important objectives of industrial and non-industrial companies are related to cost, time and quality. On the one hand, the control charts represents an important quality tool, showing if the process is in control or out of control. On the other hand, the Markov chains can be used with the control charts, modeling the process under analysis. Thus, this research aims to analyze the performance of control charts with supplementary signaling rules through the comparison of the average run length. To do so, the process of literature under investigation was analyzed and modeled through a Markov chain. Following that, the average run length was calculated for distinct scenarios. The control charts under analysis refer to a capability index chart with supplementary signaling rule, a X ̅ chart with supplementary signaling rule and a X ̅ chart with basic signaling rule. The results obtained allowed the conduction of two distinct analysis. The first analysis demonstrated that, when it comes to mean shifts, the calculation complexity resulted from the introduction of the capability index does not always generate the best results. The second analysis demonstrated that, when it comes to mean shifts, the calculation complexity resulted from the introduction of the supplementary signaling rule does in general generate the best results. In some cases the capability index chart with supplementary signaling rule was the chart with the best performance among the three under analysis and in other cases the X ̅ chart with supplementary signaling rule was the chart with the best performance among the three under analysis. Finally, the results reassured that the X ̅ control chart does not display good performance when it comes to small mean shifts.

6
  • ALINE CUNHA ALVIM
  • Otimização robusta no torneamento de cabeças femorais para artroplastia de quadril: uma análise comparativa de ferramentas

  • Orientador : JOAO ROBERTO FERREIRA
  • MEMBROS DA BANCA :
  • ANTONIO FERNANDO BRANCO COSTA
  • JOAO ROBERTO FERREIRA
  • JOSE HENRIQUE DE FREITAS GOMES
  • LINCOLN CARDOSO BRANDÃO
  • MARCOS VALERIO RIBEIRO
  • MATHEUS BRENDON FRANCISCO
  • Data: 30/10/2023

  • Mostrar Resumo
  • A grande população de idosos tem naturalmente resultado no aumento do número de cirurgias ortopédicas, como artroplastias de joelho e quadril. Em países em desenvolvimento, o crescimento na demanda por esse tipo de cirurgia já é uma realidade e consequentemente realça a necessidade do desenvolvimento de tecnologias de manufatura por usinagem que atendam aos requisitos de qualidade da prótese. O aço inoxidável austenítico ABNT 316L é usado na fabricação de próteses articulares e, apesar de considerado um material de baixa usinabilidade, é uma alternativa econômica em relação à aplicação de outros biomateriais como ligas de titânio e cerâmicas. Nesse contexto, esta tese apresenta a otimização no torneamento de cabeças femorais para uma prótese total de quadril, comparando-se duas geometrias diferentes de ferramentas: formato ISO redonda e rômbica. Para tanto, utilizou da metodologia de superfície de resposta e do projeto de parâmetros robustos para modelagem e otimização das principais respostas do processo: rugosidade e esfericidade. Os experimentos foram conduzidos com base em um arranjo combinado considerando três variáveis de controle e duas variáveis de ruído. Como variáveis de controle foram estudados: velocidade de corte, avanço e profundidade de usinagem; e como variáveis de ruído foram considerados: comprimento fixado do corpo de prova e vazão do fluido de corte. Como características de qualidade, foram analisados o acabamento superficial e a esfericidade das cabeças femorais, por meio, respectivamente, da rugosidade média e do desvio de circularidade total. A otimização robusta foi conduzida pela combinação de dois métodos: erro quadrático médio e interseção normal à fronteira. De forma que a formulação do problema de otimização visou a minimização da rugosidade no processo de torneamento do aço inoxidável ABNT 316L, limitando-se a esfericidade a 10 μm. Os resultados evidenciaram que a ferramenta rômbica é a escolhida quando deseja-se atingir, simultaneamente, componentes com a melhor qualidade superficial e menor desvio de forma. Por fim, pelos experimentos de confirmação, foi possível constatar a robustez das soluções ótimas em relação aos efeitos das variáveis de ruído.


  • Mostrar Abstract
  • The large elderly population has naturally led to an increase in the number of orthopedic surgeries, such as knee and hip replacements. In developing countries, the growing demand for this type of surgery is already a reality, highlighting the need to develop machining manufacturing technologies that meet the quality requirements of the prosthesis. ABNT 316L austenitic stainless steel is used in the manufacture of joint prostheses and, although it is considered a material with low machinability, it is an economical alternative to the application of other biomaterials such as titanium alloys and ceramics. In this context, this work presents the optimization of the turning of femoral heads for a total hip prosthesis, comparing two different tool geometries: round and rhombic ISO format. To this end, it has used the response surface methodology and the design of robust parameters to model and optimize the main process responses: roughness and sphericity. The experiments were carried out based on a combined array considering three control variables and two noise variables. The control variables studied were: cutting speed, feed rate and depth of cut; and the noise variables considered were: fixed length of the workpiece and cutting fluid flow. As quality characteristics, the surface finish and the sphericity of the femoral heads were analyzed using the mean roughness and total circularity deviation, respectively. Robust optimization was performed by combining two methods: mean square error and normal boundary intersection. Therefore, the formulation of the optimization problem was to minimize the roughness in the turning process of ABNT 316L stainless steel, limiting the sphericity to 10 μm. The results showed that the rhombic tool is preferable when it is desired to simultaneously obtain components with the best surface quality and the least shape deviation.

7
  • MILENA DE OLIVEIRA ARANTES
  • Simulação a eventos discretos em processos industriais: uma abordagem envolvendo modelagem facilitada e reuniões híbridas

  • Orientador : FABIANO LEAL
  • MEMBROS DA BANCA :
  • MARCO AURÉLIO DE MESQUITA
  • ALEXANDRE FERREIRA DE PINHO
  • FABIANO LEAL
  • JOSE ARNALDO BARRA MONTEVECHI
  • MARCELO MACHADO FERNANDES
  • RAFAEL DE CARVALHO MIRANDA
  • Data: 31/10/2023

  • Mostrar Resumo
  • A simulação a eventos discretos (SED) está entre as principais e mais importantes técnicas de
    simulação para auxiliar a tomada de decisão em diversas áreas da Engenharia de Produção. As
    empresas industriais em seus diferentes portes podem se beneficiar significativamente da SED,
    pois ela consegue auxiliar na compreensão e análise dos sistemas, na tomada de decisão, no
    aprimoramento das operações e no projeto de mudanças no sistema real com erros menos
    dispendiosos. No entanto, embora exista uma ampla e crescente literatura sobre aplicações da
    SED, foi constatado que as empresas industriais podem apresentar algumas restrições na
    utilização dessa técnica em seu modo tradicional, tais como: restrições financeiras que
    dificultam a adoção de mecanismos para coletar grandes quantidades de dados, como também
    a contratação de pessoas qualificadas para processar e explorar seus dados; deficiência de
    dados, sendo poucos dados coletados ou até mesmo não disponíveis, levando a uma
    incapacidade de se envolverem com o desenvolvimento de modelos de simulação e a criação
    de cenários; hesitação no uso da SED devido ao alto tempo despendido no projeto e
    complexidade no seu uso. Portanto, o objetivo desta tese é criar um framework utilizando a
    modelagem facilitada juntamente com a SED. Ou seja, propor um método de gerenciamento de
    projetos mais simples. A SED facilitada apresenta vantagens que contornam esses problemas
    apresentados, sendo possível trabalhar com dados estimados pelos especialistas no processo,
    como também ela defende a utilização de um modelo computacional mais simples, com poucos
    detalhes, mas útil em gerar uma compreensão e causar um debate sobre a situação problema,
    auxiliando na busca por melhorias. O framework FaMoSim (Facilitated Modeling Simulation)
    foi desenhado seguindo as etapas do método Pesquisa-ação e a sua aplicação ocorreu por meio
    de reuniões híbridas. Com esse formato de reunião, entende-se que a utilização da SED
    facilitada pode ser ampliada, não ficando restrita a reuniões presenciais. Assim, o FaMoSim
    apresenta diferenciais na condução de estudos de SED facilitada em empresas industriais. Com
    a aplicação do FaMoSim em quatro objetos de estudo diferentes foi possível constatar sua
    eficácia ao proporcionar aos participantes do projeto uma maior compreensão dos processos
    em estudo utilizando um modelo computacional simples com menos dados e menos detalhes,
    auxiliando também os stakeholders na tomada de decisão e identificação de melhorias.


  • Mostrar Abstract
  • Discrete Event Simulation (DES) stands as one of the primary and most significant simulation
    techniques to assist decision-making in various areas of Industrial Engineering. Industrial
    enterprises of various sizes can significantly benefit from DES as it can assist in comprehending
    and analyzing systems, decision-making, improving operations and designing changes in the
    real system with less costly errors. However, despite a broad and growing literature on DES
    applications, it has been observed that industrial companies may encounter certain constraints
    in utilizing this technique in its traditional mode. These constraints include financial limitations
    that hinder the adoption of mechanisms for collecting extensive data, as well as the hiring of
    qualified personnel to process and explore their data. Additionally, data deficiencies, where
    limited or even unavailable data are collected, can lead to an inability to engage in simulation
    model development and scenario creation. There is also hesitancy in using DES due to the
    substantial time required for design and complexity in its use. Therefore, the objective of this
    thesis is to create a framework using facilitated modeling in conjunction with DES. In other
    words, proposing a simpler project management method. Facilitated DES offers advantages
    that address these aforementioned issues, as it allows for working with data estimated by
    experts in the process. It also advocates for the use of a simple computational model with few
    details, yet useful in generating understanding and fostering discussions about the problem
    situation, aiding in the pursuit of improvements. The FaMoSim (Facilitated Modeling
    Simulation) framework was developed following the steps of the Action Research method, and
    its implementation took the form of remote applications through hybrid meetings. With this
    meeting format, it is understood that the use of facilitated DES can be expanded beyond inperson meetings. Thus, FaMoSim brings unique features to the conduct of facilitated DES
    studies in industrial enterprises. By applying FaMoSim to four different case studies, its
    effectiveness in providing stakeholders with a better understanding of the studied processes
    using a simplified computational model with fewer data and fewer details was evident. It also
    assisted stakeholders in decision-making and identifying improvements.

8
  • JÉSSICA TITO VIEIRA
  • OTIMIZAÇÃO MULTIOBJETIVO EVOLUTIVA DO TORNEAMENTO INTERNO DE TUBOS DE PEEK POR MEIO DE MODELOS DE REFORÇO EXTREMO DE GRADIENTE

  • Orientador : JOAO ROBERTO FERREIRA
  • MEMBROS DA BANCA :
  • ALESSANDRO ROGER RODRIGUES
  • JOAO ROBERTO FERREIRA
  • JOSE HENRIQUE DE FREITAS GOMES
  • MATHEUS BRENDON FRANCISCO
  • MESSIAS BORGES SILVA
  • ROBSON BRUNO DUTRA PEREIRA
  • Data: 13/12/2023

  • Mostrar Resumo
  • O torneamento é um dos processos de usinagem mais utilizados na indústria. Sua grande
    aplicação faz com que cada vez mais estes processos sejam utilizados para a produção de
    peças de alta qualidade, buscando associar eficiência, precisão e produtividade. Os desafios
    de se obter um acabamento de alta precisão são ainda maiores se o torneamento interno
    for aplicado em materiais modernos como polieteretercetona (PEEK). Para alcançar as
    melhores condições de processo, os modelos preditivos devem ser estimados e a otimização
    deve ser realizada. Este trabalho apresenta uma abordagem de aprendizado estatístico
    para modelagem e otimização do processo de torneamento interno em tubos de PEEK.
    A rugosidade (Ra) e os desvios de circularidade (Ront) foram medidos para quantificar
    a qualidade do furo. Considerado um importante indicador de usinabilidade, a força de
    corte (Fc) também foi medida. A velocidade de corte (vc), taxa de avanço (f) e posição
    de fixação da peça na placa (fp) foram consideradas como parâmetros de entrada. Para
    modelagem, um procedimento de aprendizado foi proposto considerando regressão de
    superfície de resposta polinomial, métodos aditivos generalizados, métodos baseados em
    árvores, regressão de vetores de suporte e o reforço extremo de gradiente. A validação
    cruzada foi aplicada para aprendizado e seleção de modelos, incluindo abordagens k-dobras
    e bootstrap. Os resultados apontaram que o modelo de reforço extremo de gradiente foi
    o método que apresentou melhor capacidade de previsão. Para Ra os resultados finais
    das métricas de previsão foram RMSE = 0,1395, MAE = 0,1126, e R2 = 1,0000, para Fc,
    RMSE = 1,8609, MAE = 0,9311, e R2 = 0,9280, e para Ront, RMSE = 21,3084, MAE =
    17,8053, e R2 = 0,6562. A otimização multiobjetivo evolutiva foi realizada considerando
    os modelos de reforço extremo de gradiente para rugosidade, circularidade, força de
    corte e o modelo determinístico da taxa de remoção de material (MRR). Considerando
    o hipervolume, o método NSGA-II foi selecionado para realizar as otimizações de três
    objetivos. A abordagem de pseudopeso foi aplicada para selecionar soluções de alto
    trade-off, facilitando a escolha em cenários práticos de produção. Para otimização Ra
    vs Ront vs MRR, o equilíbrio entre as três respostas foi alcançado com vc mais alto,
    f = 0,12 mm/v e fp = 15,14 mm. Para otimização Fc vs Ront vs MRR, o equilíbrio entre
    as três respostas foi alcançado com vc = 378,78 m/min, f = 0,10 mm/v e fp = 13,00
    mm. A abordagem de aprendizado e as otimizações propostas possibilitaram a obtenção
    dos melhores resultados do processo de torneamento interno no PEEK.


  • Mostrar Abstract
  • Turning is one of the most widely used manufacturing processes in the industry. Its
    extensive application means that turning processes are increasingly focused on producing
    of high-quality parts, aiming to associate efficiency, precision, and productivity. The
    challenges of achieving high-precision surface finishes are even greater when internal
    turning is applied to modern materials such as polyetheretherketone (PEEK). To achieve
    the best process conditions, predictive models must be estimated, and optimization must be
    conducted. This work presents a statistical learning approach for modeling and optimizing
    the internal turning process in PEEK tubes. Average roughness and roundness of the hole
    were measured to quantify the hole quality. The cutting force, considered an important
    indicator of machinability, was also measured. Cutting speed, feed rate, and fixture position
    were considered as input parameters. For modeling, a learning procedure was proposed,
    considering polynomial response surface regression, generalized additive methods, treebased methods, support vector regression and extreme gradient boosting. Cross-validation
    was used for learning and model selection, including k-fold and bootstrap approaches.
    The results indicated that the extreme gradient boosting model was the best for all
    predictors. For Ra the final prediction metrics results were RMSE = 0.1395, MAE =
    0.1126, and R2 = 1.0000, for Fc, RMSE = 1.8609, MAE = 0.9311, and R2 = 0.9280, and for
    Ront, RMSE = 21.3084, MAE = 17.8053, and R2 = 0.6562. Multi-objective evolutionary
    optimization was performed, considering the extreme gradient boosting models for average
    roughness, roundness, and cutting force, in addition to the deterministic model of material
    removal rate. The NSGA-II method was selected considering the hypervolume for the
    three-objective optimizations. The pseudo-weight approach is used to select high trade-off
    solutions, facilitating selection in practical production scenarios. For optimization of Ra
    vs Ront vs MRR, the balance between the three responses was achieved with a higher
    vc, f = 0.12 mm/v, and fp = 15.14 mm. For optimization of Fc vs Ront vs MRR, the
    balance between the three responses was achieved with vc = 378.78 m/min, f = 0.10
    mm/v, and fp = 13.00 mm. The proposed learning and optimization approach enabled
    the achievement of the best results for the internal turning process in PEEK and can be
    applied to other intelligent manufacturing applications.

9
  • PEDRO ALBERTO CHAIB DE SOUSA BERNARDES
  • Abordagem para a configuração ótima de investimentos em projetos de microgeração biogás-solar FV a partir da otimização multiobjetivo

  • Orientador : EDSON DE OLIVEIRA PAMPLONA
  • MEMBROS DA BANCA :
  • ANDERSON RODRIGO DE QUEIROZ
  • ANDRE LUIZ MEDEIROS
  • BENEDITO DONIZETI BONATO
  • EDSON DE OLIVEIRA PAMPLONA
  • GIANCARLO AQUILA
  • MARCELO NUNES FONSECA
  • Data: 14/12/2023

  • Mostrar Resumo
  • O Brasil é um dos países que tem incentivado a geração distribuída (GD) a partir de um esquema net-metering, combinado com a isenção do Imposto sobre Circulação de Mercadorias e Serviços (ICMS), que é ofertada por diferentes estados brasileiros em diferentes níveis, e as linhas de financiamento do Banco Nacional de Desenvolvimento Econômico e Social (BNDES). Entretanto, algumas fontes de energia renováveis (FER) incentivadas apresentam vantagens em determinados atributos, que muitas vezes outra FER não possui. Nesse sentindo, a combinação entre duas ou mais fontes de forma híbrida é capaz de maximizar as vantagens e minimizar as desvantagens de cada fonte, dentre elas os custos de investimento, operação e manutenção, o efeito da intermitência e, a diferença de área ocupada no terreno em que o sistema de geração é instalado. Portanto, o objetivo deste trabalho é contribuir com a configuração de sistemas híbridos biogás-solar fotovoltaico (FV) para granjas de suínos, utilizando otimização multiobjetivo. Para tal, será adotada a técnica de delineamento de experimentos para definir as funções objetivo, a construção da fronteira de Pareto utilizando o método Normal Boundary Intersection (NBI) e, também, a identificação da melhor solução Pareto-ótima por meio da relação entre a Entropia e a distância de Mahalanobis. Os dados obtidos por meio do delineamento de experimentos também serão utilizados na construção de elipses de confiança e na técnica Multivariate Analysis of Variance (MANOVA), para confrontar os resultados obtidos em três cidades de três diferentes estados brasileiros. As variáveis de entrada empregadas estão relacionadas com os dados operacionais das gerações por meio do biogás e da geração FV e as variáveis de resposta utilizadas são a média e o desvio padrão do Valor Presente Líquido (VPL). Os principais resultados obtidos foram a configuração ótima do sistema híbrido biogás-FV e a comparação do investimento realizado nas três cidades selecionadas. As contribuições geradas têm como propósito auxiliar as decisões de reguladores do mercado de energia renovável e investidores.


  • Mostrar Abstract
  • Brazil is one of the countries that seek to encourage distributed generation (DG) based on a net-metering scheme, combined with the exemption from the trading tax (ICMS), which is offered by different Brazilian states at different levels, and the lines financing from the national development bank. However, incentivized renewable energy sources (RES) have advantages in certain attributes, which many other RES do not have. In this sense, the combination of two or more sources in a hybrid way is able to minimize the disadvantages of renewable sources, including investment, operation and maintenance costs, intermittency and occupied area of the land where the generation system is installed. Therefore, the objective of this work is to contribute to the configuration of hybrid biogas-solar photovoltaic (PV) systems for pig farms, using multiobjective optimization. For this, a design of experiment technique will be adopted to define the objective functions, the construction of the Pareto frontier using the Normal Boundary Intersection (NBI) method and the Pareto-optimal solution will be located by the ratio between Entropy and Mahalanobis distance. The data obtained through the experimental design will also be used in the construction of confidence ellipses and in the Multivariate Analysis of Variance (MANOVA) technique, to compare the results obtained in three cities in three different brazilian states. The input variables used will be operational data from biogas and solar photovoltaic (PV) generation and the response variables used are the mean and standard deviation of the Net Present Value (NPV). The main results obtained were the optimal configuration of the biogas-PV hybrid system and the comparison of the investment made in the three selected cities. The contributions generated are intended to assist the decisions of renewable energy market regulators and investors.

2022
Dissertações
1
  • MARCELA XAVIER TEREZA DE MELLO
  • Investigação empírica da norma ISO 9001:2015 no Brasil: Motivações, benefícios e dificuldades

  • Orientador : CARLOS HENRIQUE PEREIRA MELLO
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • CARLOS HENRIQUE PEREIRA MELLO
  • OTAVIO JOSE DE OLIVEIRA
  • Data: 16/02/2022

  • Mostrar Resumo
  • A norma ISO 9001 é reconhecida como uma importante alternativa para organizações implementarem seu sistema de gestão da qualidade e gerar vantagem competitiva, sendo a norma mais utilizada em nível mundial, por melhorar a produtividade e eficiência das empresas, proporcionar maior satisfação aos clientes e dinamizar as rotinas organizacionais. Estando atualmente em sua 5ª edição, publicada em setembro de 2015, a norma ISO 9001:2015 representa um marco na história da gestão da qualidade, introduzindo novas abordagens, que resultaram em importantes mudanças e oportunidades. Embora já tenham se passado três anos do processo de transição, uma vez que o prazo de adequação para essa versão se encerrou em 15 de setembro de 2018, a norma ISO 9001:2015 continua sendo um tema em destaque para as organizações e, por se tratar de uma atualização considerada recente, há ainda uma falta de conhecimento sobre seus principais benefícios e dificuldades, sendo um tema que não tem sido tratado intensamente na literatura brasileira. Diante desse contexto, o presente trabalho se propôs a investigar empiricamente o impacto da norma ISO 9001:2015 no Brasil, identificando suas principais motivações, benefícios e dificuldades. Para tanto, foi empregado o método de levantamento (survey), utilizando-se como instrumento de coleta de dados um questionário estruturado autoadministrado por meio da internet e, para a análise de dados, métodos quantitativos, como a análise descritiva, a análise de agrupamento e a análise de sentimento. A pesquisa foi realizada ao longo de três meses e obteve 103 respostas. Os resultados possibilitaram uma série de conclusões a respeito do tema, evidenciando, especialmente, o valor potencial da norma ISO 9001:2015 para as organizações, reconhecendo que a norma está ainda mais alinhada à realidade e às práticas modernas de gestão e a relevância da adição dos novos requisitos, bem como da sua Estrutura de Alto Nível (do inglês High Level Structure - HLS). Foram apresentadas as principais motivações relatadas pelas organizações para implementação/manutenção da norma ISO 9001, que acabam por se manter as mesmas ao longo do tempo; e os benefícios e dificuldades da norma ISO 9001:2015, evidenciando que alguns dos novos requisitos, se destacando, principalmente, o pensamento baseado no risco, foram vistos como benefícios e também como dificuldades. Por fim, os agrupamentos de motivações, benefícios e dificuldades para implementação/manutenção da norma ISO 9001:2015 foram relacionados com o perfil das empresas respondentes, possibilitando observar a existência de associações entre algumas variáveis.


  • Mostrar Abstract
  • The ISO 9001 standard is recognized as an important alternative for organizations to implement their quality management system and generate competitive advantage. organizational routines. Currently in its 5th edition, published in September 2015, the ISO 9001:2015 standard represents a milestone in the history of quality management, introducing new approaches that have resulted in important changes and opportunities. Although three years have passed since the transition process has passed, since the adaptation period for this version ended on September 15, 2018, the ISO 9001:2015 standard continues to be a prominent topic for organizations and, as a result of dealing with an update considered recent, there is still a lack of knowledge about its main benefits and difficulties, being a topic that has not been intensively addressed in the Brazilian literature. Given this context, the present work proposed to empirically investigate the impact of the ISO 9001:2015 standard in Brazil, identifying its main motivations, benefits and difficulties. For that, the survey method was used, using a structured questionnaire self-administered through the internet as a data collection instrument and, for data analysis, quantitative methods, such as descriptive analysis, cluster analysis and sentiment analysis. The survey was carried out over three months and obtained 103 responses. The results enabled a series of conclusions on the subject, highlighting, in particular, the potential value of the ISO 9001:2015 standard for organizations, recognizing that the standard is even more aligned with reality and modern management practices and the relevance of adding of the new requirements, as well as its High Level Structure (HLS). The main motivations reported by organizations for the implementation/maintenance of the ISO 9001 standard were presented, which end up being the same over time; and the benefits and difficulties of the ISO 9001:2015 standard, showing that some of the new requirements, especially risk-based thinking, were seen as benefits and also as difficulties. Finally, the groups of motivations, benefits and difficulties for the implementation/maintenance of the ISO 9001:2015 standard were related to the profile of the respondent companies, making it possible to observe the existence of associations between some variables.

2
  • CECÍLIA APARECIDA PEREIRA
  • Comportamento de compra relacionado a desastres e seus impactos na gestão de cadeia de suprimentos: o caso da pandemia da COVID-19 no Brasil

  • Orientador : RENATO DA SILVA LIMA
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • CLAUDIO BARBIERI DA CUNHA
  • RENATO DA SILVA LIMA
  • Data: 16/02/2022

  • Mostrar Resumo
  • A pandemia da COVID-19, trágica em número de casos e óbitos confirmados, impactou não somente o sistema de saúde, mas também diversos outros setores da sociedade. Diante dos decretos de medidas de distanciamento e isolamento social, os padrões de consumo da população foram alterados. As imagens de prateleiras vazias dos varejistas e dos carrinhos cheios dos consumidores registradas pela mídia trouxeram foco para a compra em pânico. Enquanto isso, o e-commerce apresentava um crescimento jamais visto em diversos países, se configurando como um tipo de comércio que elevava a segurança sanitária dos consumidores e financeira dos lojistas durante a pandemia. Nesse sentido, dentre tantas outras mudanças imprevistas de comportamento de consumo, a gestão de cadeias de suprimentos de diversos negócios se encontrou exposta a ocorrência de eventuais perturbações e/ou rupturas. Consequentemente, o acesso das pessoas a determinados produtos, principalmente aos suprimentos básicos, estava em risco de ser limitado durante a crise, podendo afetar o bem-estar da população. Nesse cenário, esta pesquisa tem como objetivo analisar as manifestações e os fatores de influência do comportamento de compra relacionado a desastres (do termo original em inglês disaster-related buying behaviors) no Brasil durante a pandemia da COVID-19. Baseando-se no método de pesquisa levantamento, um questionário foi elaborado e aplicado em todo o país, entre abril e julho de 2020. Esse mesmo questionário foi aplicado de modo concomitante em diversos outros países do mundo num esforço de pesquisa internacional. No Brasil, foram obtidas 601 respostas, tratadas pelo método de Ajuste Proporcional Iterativo para a garantia de uma amostra que representasse ao máximo a população brasileira. A análise dos resultados mostra que uma parcela considerável dos respondentes passou a comprar em maior quantidade (40,8%) e aderir às compras online (36,8%) após o início da pandemia da COVID-19, sendo essas as principais mudanças identificas no padrão de consumo da amostra durante esse período. Como desdobramento dessas mudanças, foram identificados aumentos no nível de estoque-dias de suprimentos básicos que, consequentemente, elevaram a percepção de escassez dos respondentes em relação a alguns suprimentos básicos, como álcool gel e máscaras faciais. Por fim, foi possível observar que nenhum país é capaz de representar o Brasil em relação às manifestações do comportamento relacionado a desastres, demonstrando a importância de estudos como esta dissertação.


  • Mostrar Abstract
  • The COVID-19 pandemic, tragic in terms of confirmed cases and deaths, impacted not only the health system, but also several other sectors of society. Given the measures of distancing and social isolation, the population's consumption patterns have changed. Empty retailers' shelves and full consumers' grocery carts brought focus to panic buying. Meanwhile, e-commerce was showing a growth that has never been seen before in several countries, configuring itself as a type of commerce that increased the sanitary security of consumers and the financial security of store owners during the pandemic. In this sense, among other unforeseen changes in consumer behavior, the supply chain management of different businesses was exposed to the occurrence of possible disturbances and/or disruptions. Consequently, people's access to certain products, particularly basic supplies, was at risk of being limited during the crisis, potentially affecting the population's well-being. Given the above, this research aims to analyze the manifestations and influencing factors of disaster-related buying behaviors in Brazil during the COVID-19 pandemic. Based on the survey research method, a questionnaire was designed and applied throughout the country, being available from April 15th, 2020 to July 14th, 2020. Thus, 601 responses were obtained, which were duly treated using the Iterative Proportional Adjustment method to guarantee a sample that represented the Brazilian population at the most. The previous analysis of results shows that a considerable portion of respondents started to buy in greater quantities (40.8%) and online (36.8%) after the beginning of the COVID-19 pandemic. These were the main changes identified in the sample's consumption pattern during this period. As a result of these changes, increases in the level of stock-days of basic supplies were identified, which, consequently, increased the respondents' perception of scarcity in relation to some basic supplies, such as alcohol gel and face masks. Finally, it was possible to observe that no country is able to represent Brazil in relation to the manifestations of disaster-related buying behaviors and this shows the importance of studies such as this thesis.

3
  • ÍTALO DE ABREU GONÇALVES
  • O Uso dos Índices Cpk, Cpm e Cpmk para Monitorar Processos

  • Orientador : ANTONIO FERNANDO BRANCO COSTA
  • MEMBROS DA BANCA :
  • ANTONIO FERNANDO BRANCO COSTA
  • PEDRO PAULO BALESTRASSI
  • ROBERTO CAMPOS LEONI
  • Data: 24/02/2022

  • Mostrar Resumo
  • Os índices Cpk, Cpm e Cpmk foram originalmente criados para medir a capacidade dos processos de produzirem itens que atendam às especificações, mas, mais recentemente, eles também têm sido usados para controlar processos. Nessas novas aplicações dos índices Cpk, Cpm e Cpmk, os limites de especificação não são mais limites que decidem se o item está em conformidade ou não, são parâmetros de ajustes que aumentam ou diminuem a velocidade com que o gráfico de controle sinaliza mudanças na média e/ou na variabilidade do processo. Portanto, esta pesquisa propõe o emprego dos gráficos de controle utilizando os três índices de capacidade de processo como alternativa aos gráficos tradicionais de 𝑋̅ e R. Por meio da simulação Monte Carlo comprovou-se que os gráficos Cpk, Cpm e Cpmk são ótimas alternativas ao uso dos gráficos em conjunto 𝑋̅ e R, pois sinalizam, com maior rapidez, mudanças na média, aumentos na variância e as mudanças nas médias combinadas com aumentos na variância.


  • Mostrar Abstract
  • The Cpk, Cpm and Cpmk indices was originally created to measure the ability of the processes to produce products meeting specifications but, more recently, they have also been used to control processes. In these new applications of the Cpk, Cpm and Cpmk indices, the specification limits are no longer limits that decide whether the item is conforming or nonconforming, they are tunning parameters that increase or decrease the speed with the control charts signal process changes in the mean and/or the variance. Therefore, this research proposes the use of control charts using the three process capability indices as an alternative to the traditional charts 𝑋̅ e R Through the Monte Carlo simulation, it was that the Cpk, Cpm and Cpmk control charts are great alternatives to the use of the joint 𝑋̅ and R charts, due they signal faster mean shifts, variance increases, and also combined mean shifts with variance increases.

4
  • MÍRIAN BENTO DE ALMEIDA
  • Critérios utilizados no processo decisório para investimentos venture capital em startups

  • Orientador : CARLOS EDUARDO SANCHES DA SILVA
  • MEMBROS DA BANCA :
  • ANDRÉA MARIA ACCIOLY FONSECA MINARDI
  • ANA CAROLINA OLIVEIRA SANTOS
  • CARLOS EDUARDO SANCHES DA SILVA
  • CARLOS HENRIQUE PEREIRA MELLO
  • JEAN MARCEL SOUSA LIRA
  • Data: 12/04/2022

  • Mostrar Resumo
  • Venture Capital tem papel de destaque no cenário de inovação, sustentando
    e financiando a evolução de startups por meio do aporte de recursos. O Brasil,
    se destaca na América Latina em relação a inovação e startups pelo grande
    volume de aportes recebidos nos últimos anos, e com a perspectiva de
    crescimento, todavia está muito aquém de países mais desenvolvidos. Por isso
    é necessário o aperfeiçoamento das estratégias de tomada de decisão de
    investimento, de maneira que os critérios utilizados sejam eficientes. Neste
    contexto, este trabalho objetiva analisar os critérios que determinam a decisão
    dos especialistas em Venture Capital aportarem seus recursos. Para tanto, foi
    realizada uma survey com 14 especialistas, com a coleta de dados realizada
    por meio de um questionário estruturado enviado pela internet. E para a
    análise dos dados, foi feita a caracterização dos respondentes, detecção de
    outliers, análise das relevâncias atribuídas aos critérios de decisão de
    investimento, análise de concordância e, por fim, uma comparação entre os
    resultados da Revisão Sistemática da Literatura e a survey. Totalizaram-se
    121critérios, 51 subcategorias e 7 categorias. A partir da comparação dos
    resultados práticos e teóricos, verificou-se que a categoria características do
    empreendedor é a de maior relevância, corroborando com outros trabalhos
    identificados na RSL, onde o capital humano é o destaque; reforçando a
    importância do desenvolvimento dessas características por sistemas
    educacionais. Quanto as demais categorias, apesar de aparecerem em ordem
    diferente, a dispersão entre os valores é baixa. Esta dissertação contribui de
    forma a impulsionar o desenvolvimento dos ecossistemas de venture capital
    no Brasil, fazendo com que mais startups consigam aportes de capital através
    dos critérios aqui apresentados. Também contribui para a literatura mundial
    acerca deste tema.


  • Mostrar Abstract
  • Venture Capital has a prominent role in the innovation scenario, supporting
    and financing the evolution of startups through the size of resources. Brazil,
    stands out in America in relation to innovation and large volume of sports
    received in recent years, and with the perspective of growth, however it is
    below more developed developed countries. Therefore, it is necessary to
    improve investment decision-making strategies, so that the criteria are
    efficient. In this, this objective work is analyzed how it will determine the
    decision of specialists in the context of Venture Capital to contribute their
    resources. To this end, a survey was carried out with 14 experts, with data
    collection carried out through an internet delivery. And for the analysis of the
    data, the characterization of the respondents, detection of outliers, analysis of
    the relevance attributed to the investment decision criteria, analysis of
    agreement and, finally, a comparison between the results of the Systematic
    Literature Review and the survey. There were a total of 121 criteria, 51
    subcategories and 7 categories. From the comparison of practical and
    theoretical results, it was found that the category entrepreneur characteristics
    is the most relevant, corroborating other works identified in RSL, where
    human capital is the highlight; reinforcing the importance of the development
    of these characteristics by educational systems. As for the other categories,
    despite appearing in a different order, the dispersion between the values is
    low. This dissertation contributes in a way to boost the development of
    venture capital ecosystems in Brazil, making more startups obtain capital
    contributions through the criteria presented here. It also contributes to the
    global literature on this topic.

5
  • ANDERSON LINO DE PAULA MARTINS
  • Integrando o Machine Learning a um sistema de simulação baseada em agentes

  • Orientador : ALEXANDRE FERREIRA DE PINHO
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • FERNANDO AUGUSTO SILVA MARINS
  • JOSE ANTONIO DE QUEIROZ
  • PAULO HENRIQUE DA SILVA CAMPOS
  • Data: 10/05/2022

  • Mostrar Resumo
  • A competitividade industrial vem aumentando cada vez mais nos últimos anos e uma das alternativas para enfrentar essa competitividade é a utilização das tecnologias da Indústria 4.0, e entre elas, se encontram a Simulação e o Big Data. O Big Data envolve uma grande geração de dados que necessitam interpretação, no qual pode ser interpretado utilizando algoritmos de aprendizado de máquina a partir do aprendizado por reforço, que pode ser em conjunto com a simulação. A simulação computacional é a incorporação do mundo real em um sistema virtual, absorvendo as características fundamentais, e um dos métodos de simulação é a Simulação Baseada em Agentes, no qual o agente é o foco do sistema. Nesse contexto, esse trabalho propõe explicar como é possível integrar o aprendizado de máquina a um sistema de simulação baseada em agentes. Sendo assim, será utilizada uma ferramenta de auxílio ao modelador, mostrando duas formas para realizar essa implementação no software AnyLogic®. A primeira forma será utilizando uma ferramenta externa, o Pathmind, e para isso será criado um sistema que gera caixas de três cores diferentes (vermelho, verde e azul), representado por vetores de forma aleatória. O sistema deverá ser capaz de identificar qual a cor da caixa, sendo o foco na descrição das etapas a serem seguidas para realizar a implementação utilizando essa ferramenta. O teste de eficiência da ferramenta foi dado a partir do número de acertos que a máquina é capaz de realizar, e o resultado encontrado mostrou uma alta eficiência por parte dessa ferramenta. Uma vez que antes da implementação do aprendizado de máquina, o sistema agia de forma aleatória, acertando as cores seguindo a probabilidade estatística de aleatoriedade prevista para esse problema, que era de 12,5%, e após a implementação, o sistema alcançou uma taxa de acerto de 100%, fica evidente a eficiência da ferramenta. A segunda forma será de forma direta no software AnyLogic®, utilizando linguagem de programação Java por meio do algoritmo de aprendizagem por reforço Q-learning, que foi desenvolvido nessa pesquisa. Para isso será utilizado a mesma base do modelo computacional anterior, porém, para essa aplicação serão criadas caixas de cinco cores diferentes (vermelho, verde, azul, branco e preto), e serão representadas por meios de strings, no qual o sistema busca acertar a cor da caixa a partir do aprendizado de máquina utilizando o algoritmo Q-learning e utilizando a matriz de resultado Q. E assim como na forma utilizando a ferramenta externa, a ênfase será na demonstração de todas as etapas a serem seguidas para concluir essa implementação. O sistema novamente se mostrou eficiente sendo capaz de identificar de forma correta em todas as tentativas. Então esse trabalho conseguiu mostrar duas formas eficientes de implementar o aprendizado por reforço no software AnyLogic®, utilizando uma ferramenta externa e de forma direta, no qual a primeira necessita um nível inferior de conhecimento de aprendizado de máquina e programação, se mostrando mais simples, porém, é black box, enquanto da segunda forma é o contrário, exigindo um nível alto de conhecimento de aprendizado de máquina e programação, porém com código aberto.


  • Mostrar Abstract
  • Industrial competitiveness has been increasing more and more in recent years and one of the alternatives to face this competitiveness is the use of Industry 4.0 technologies, and among them are Simulation and Big Data. Big Data involves a large generation of data that needs interpretation, which can be interpreted using machine learning algorithms from reinforcement learning, which can be in conjunction with simulation. Computer simulation is the incorporation of the real world into a virtual system, absorbing the fundamental characteristics, and one of the simulation methods is Agent-Based Simulation, in which the agent is the focus of the system. In this context, this work proposes to explain how it is possible to integrate machine learning to an agent-based simulation system. Being a tool to aid the modeler, showing two ways to carry out this implementation in AnyLogic® software. The first way will be using an external tool, the Pathmind, for that, a system will be created that generates boxes of three different colors (red, green and blue), represented by vectors, at random. The system must be able to identify the color of the box, focusing on the description of the steps to be followed to carry out the implementation using this tool. The tool efficiency test was given based on the number of adjustments that the machine is capable of performing, and the result found showed a high efficiency by this tool. Since before the implementation of machine learning, the system acted randomly, matching the colors following the statistical probability of randomness predicted for this problem, which was 12.5%, and after the implementation, the system reached a rate 100% hit. The second way will be directly in the AnyLogic® software, using Java programming language through the Q-learning reinforcement learning algorithm, which was developed in this research. For this, the same basis as the previous computational model will be used, however, for this application, boxes of five different colors will be created (red, green, blue, white and black), and will be represented through strings, in which the system seeks to hit the right box color from machine learning using the Q-learning algorithm and using the Q result matrix. And as with the form using the external tool, the emphasis will be on demonstrating all the steps to be followed to complete this implementation. The system again proved to be efficient, being able to correctly identify in all attempts. So this work was able to show two efficient ways to implement reinforcement learning in AnyLogic® software, using an external tool and in a direct way, in which the first one needs a lower level of knowledge of machine learning and programming, proving to be simpler, however, it is black box, while the second way is the opposite, requiring a high level of knowledge of machine learning and programming, but with open source.

6
  • JONAS MARCELO DE CARVALHO SIMÃO
  • Avaliação e Análise do Sistema de Gestão Pública no Almoxarifado de uma Instituição de Ensino Superior: Uma Abordagem Fundamentada em Modelos de Excelência

  • Orientador : JOSE HENRIQUE DE FREITAS GOMES
  • MEMBROS DA BANCA :
  • CARLOS HENRIQUE PEREIRA MELLO
  • JOSE HENRIQUE DE FREITAS GOMES
  • JOÃO EDÉRSON CORRÊA
  • Data: 01/07/2022

  • Mostrar Resumo
  • As organizações, independentemente de sua natureza, área de atuação ou público-alvo, vêm a cada dia sendo mais cobradas a apresentar melhorias em aspectos como desempenho, resultados e qualidade dos produtos / serviços. Com o objetivo de orientar os entes públicos na adoção de práticas de excelência em gestão foi criado o Modelo de Excelência em Gestão Pública (MEGP), focado em resultados e na melhoria da qualidade dos serviços públicos. A partir disso, o objetivo da presente dissertação é avaliar e analisar o desempenho da gestão de um almoxarifado de uma Instituição Federal de Ensino Superior utilizando um instrumento de avaliação adaptado com base no MEGP, sendo o estudo de caso o método definido para condução da pesquisa. Antes de realizar a coleta de dados, o instrumento de avaliação próprio do MEGP passou um processo de adaptação, de modo que estivesse alinhado às características próprias dos almoxarifados públicos e que apresentasse uma sistemática objetiva, de mais fácil utilização e interpretação. Da aplicação do instrumento adaptado verifica-se que, além de averiguar o alinhamento das práticas de gestão da unidade com o MEGP, é possível ter uma visão abrangente do setor avaliado, revelando aspectos não abordados em auditorias internas e que influenciam diretamente o desempenho do almoxarifado. No que se refere à avaliação do almoxarifado, de acordo com o levantamento realizado com o instrumento adaptado, em um total de 100 pontos possíveis o almoxarifado alcançou 76,5 pontos. Este resultado demonstra que a unidade possui uma boa gestão, apresentando padrões de trabalho alinhados aos fundamentos de excelência. Além disso, é observado que está ao alcance da unidade implementar as oportunidades de melhoria identificadas com a avaliação.


  • Mostrar Abstract
  • Regardless of nature, area of activity or target audience, organizations are increasingly being requested to present improvements in their performance, results and product / service quality. To help public entities adopt management excellence practices, the Model of Excellence in Public Management (MEGP) has been created, aiming for results and for the improvement of public services quality. Considering this, through a case study, the purpose of this thesis is to evaluate and analyze a Federal Institution of Higher Education's (IFES) warehouse management performance using an adapted evaluation instrument based on the MEGP. Before carrying out the data collection, the MEGP's own assessment instrument underwent an adaptation process, so that it was aligned with the characteristics of public warehouses and, at the same time, objective, easier to use and to interpret. The adapted instrument utilization has showed that, in addition to verifying the alignment of the unit's management practices with the MEGP, it is possible to have a comprehensive understanding of the evaluated sector, discovering aspects not addressed in internal audits and that directly influence the warehouse’s performance. With regard to warehouse’s evaluation, according to the research carried out with the adapted instrument, out of a total of 100 possible points, the warehouse reached 76.5 points. This demonstrates that the warehouse has a fine level of management practices, presenting work standards that are aligned with the fundamentals of excellence. In addition, it is observed that it is within the scope of the unit to implement the improvement opportunities identified with the evaluation process.

Teses
1
  • JOSE CLAUDIO ISAIAS
  • Metodologia para Seleção de Portfólios de Projetos utilizando Multicritérios do CAPM, de Semi-variação e o Coeficiente de Risco Gini

  • Orientador : PEDRO PAULO BALESTRASSI
  • MEMBROS DA BANCA :
  • ANTONIO FERNANDO BRANCO COSTA
  • CARLOS HENRIQUE PEREIRA MELLO
  • CLAUDIMAR PEREIRA DA VEIGA
  • GUILHERME AUGUSTO BARUCKE MARCONDES
  • PEDRO PAULO BALESTRASSI
  • WESLEY VIEIRA DA SILVA
  • Data: 03/03/2022

  • Mostrar Resumo
  • Critérios de Gini-CAPM e de métricas de Gini-semi-variações são boas opções para compor métodos de seleção de portfólio de projetos. A adequação é ainda maior, principalmente quando se considera o trade-off entre retorno e risco e as covariações na seleção adjacente. Esses métodos podem ajudar significativamente porque possuem coeficientes de risco mais robustos para avaliações de distribuições de probabilidade não normais, que são muito comuns na seleção de portfólio de projetos. No entanto, pesquisas por métodos que atendam às necessidades de seleção utilizando os critérios não são bem-sucedidas, inclusive para projetos de geração de energia solar renovável utilizando painéis fotovoltaicos celulares, que têm se destacado entre as opções. Assim, este trabalho busca ajudar a minimizar a lacuna apresentando métodos de seleção utilizando critérios de Gini-CAPM e de Gini-semi-variações, e com novidades significativas. Avaliações estocásticas de dados históricos e de simulações indicam que as carteiras selecionadas pelos métodos desenvolvidos são opções atrativas para implementações. Essas carteiras possuem expectativas probabilísticas razoáveis do trade-off entre risco e retorno e proteção satisfatória para evitar erros causados por não considerar as covariações no retorno do investimento. Esses são avanços significativos na atual fronteira do conhecimento e provavelmente permitirão incrementos na utilização dos conceitos. Os métodos propostos também apresentam contribuições teóricas em adaptações dos modelos de benchmark, que ajudam a minimizar o gap literário encontrado, além de uma estrutura de classe financeira por considerar a maioria das variáveis do cenário.


  • Mostrar Abstract
  • Criteria from Gini-CAPM and of Gini-semivariations metrics are good options to compose methods for projects portfolio selection. The adequacy is even more, especially when considering the trade-off between return and risk and the covariations in the adjacent selection. These methods can help significantly because they have more robust risk coefficients for assessments of non-normal probability distributions, which are very common in projects portfolio selection. However, searches for methods that meet the selection needs using the adjacent criteria are unsuccessful, including for projects of renewable solar energy generations using cellular photovoltaic panels, which have stood out among the options. Thus, this work seeks to help minimize the gap by presenting methods for selection using criteria from Gini-CAPM and of Gini-semi variations, and with significant novelties. Historical and simulations data stochastic evaluations indicate that the portfolios selected by the methods are attractive options for implementations. These portfolios have reasonable probabilistic expectations of the trade-off between risk and return and satisfactory protection to avoid mistakes caused for not considering covariations in return on investment. These are significant advances on the current knowledge frontier and will likely allow the increased use of the concept. The methods also present theoretical contributions in adaptations of the benchmark models, which help to minimize the adjacent literary gap, in addition to a financial class structure as it considers most of the scenario variables.

2
  • LEANDRO FRAMIL AMORIM
  • Elipses de Confiança para Soluções Pareto-ótimas multivariadas.

  • Orientador : ANDERSON PAULO DE PAIVA
  • MEMBROS DA BANCA :
  • ANDERSON PAULO DE PAIVA
  • ANTONIO FERNANDO BRANCO COSTA
  • FABRICIO JOSÉ PONTES
  • MARCELA APARECIDA GUERREIRO MACHADO DE FREITAS
  • PEDRO PAULO BALESTRASSI
  • Data: 21/03/2022

  • Mostrar Resumo
  • Este trabalho apresenta um método de otimização bi-objetivo não linear para respostas correlacionadas de otimização de projeto de parâmetros robustas (RPD), usando o método da Intersecção Normal à Fronteira (NBI). Mesmo em uma região capaz para otimização de objetivos múltiplos e conflitantes as fronteiras de Pareto podem ser formadas por pontos indistinguíveis entre si o que podem exigir grandes quantidades de amostras de confirmação para se verificar a não dominância dessas soluções. Tomando como vantagem as fronteiras de Pareto uniformemente distribuídas, algumas proposições são estabelecidas para tratar a compensação entre média e variância. Nesta abordagem, a Metodologia de Superfícies de Respostas (RSM) é aplicada para modelar as características de qualidade do Processo, usando a propagação do erro (POE) para se extrair a variância implícita. Além disso, para se evitar variáveis correlacionadas na otimização subsequente, a Análise Fatorial rotacionada por Equimax é aplicada substituindo os dados originais por regressões de escores fatoriais. Na contemplação de distinguir Soluções de Pareto são formadas (1-α) regiões elipses de confiança para centralidade e dispersão de cada solução, cuja variabilidade é quantificada pela matriz de variância-covariância. Essas elipses são especialmente importantes para entender a natureza estocástica das soluções Pareto-ótimas obtidas quando o NBI é usado juntamente com o RSM. Como resultado chave, este estudo concebe o tomador de decisão Fuzzy, que é um filtro de Pareto inteligente baseado na lógica Fuzzy, combinando volume de elipses de confiança (variabilidade) e distância de Mahalanobis (deslocamento médio) como um indicador de qualidade. Esta abordagem torna possível minimizar sincronizadamente exatidão e precisão. A adequação da proposta é ilustrada com dois casos reais de processo de torneamento de aços endurecidos, otimizando custo e vida útil da ferramenta. A qualidade dos resultados práticos sugere que o método pode ser estendido para aplicações em problemas de processos de fabricação semelhantes.


  • Mostrar Abstract
  • This study presents a non-linear bi-objective optimization method for correlated responses of Robust parameter design optimization (RPD) using Normal Boundary Intersection (NBI) method. Even in capable region for multiple and conflicting objectives optimization Pareto-frontiers could be formed by indistinguishable points which may require a highly confirmatory sample sizes to verify non-dominance. Taking advantage of uniformly spread Pareto-frontiers, some propositions are established to treat a trade-off between mean and variance. In this approach, Response Surface Methodology (RSM) is applied for modeling the quality characteristics of process, using propagation of error to extract the implicit variance. Moreover, in order to avoid correlated variables on subsequent optimization, Factor Analysis rotated by Equimax is applied replacing original data by factor scores regressions. In contemplation of distinguishing Pareto-solutions are formed (1-α) confidence ellipse region for centrality and dispersion of every solution, which variability is quantified by variance-covariance matrix. These ellipses are especially important to understand the stochastic nature of Pareto-optimal solutions obtained when NBI is used coupled with RSM. As a key result, this study conceives the Fuzzy decision-maker, which is a smart Pareto filter based on Fuzzy logic, combining confidence ellipses volume (variability) and Mahalanobis distance (mean shift) as a quality indicator. This approach becomes possible to synchronously minimize accuracy and precision. The adequacy of the proposal is illustrated with two real cases of hardened steel turning process, optimizing cost and tool life. The quality of practical results motivates us to suggest the method may be extended to applications on similar manufacturing processes problems.

3
  • FLÁVIO FRAGA VILELA
  • PROPOSTA DE UMA EQUAÇÃO MATEMÁTICA PARA A INTEGRAÇÃO QUANTITATIVA DO FATOR HUMANO EM PROJETOS DE SIMULAÇÃO A EVENTOS DISCRETOS

  • Orientador : JOSE ARNALDO BARRA MONTEVECHI
  • MEMBROS DA BANCA :
  • ANEIRSON FRANCISCO DA SILVA
  • FABIANO LEAL
  • JOSE ARNALDO BARRA MONTEVECHI
  • LUIZ RICARDO PINTO
  • RAFAEL DE CARVALHO MIRANDA
  • Data: 20/04/2022

  • Mostrar Resumo
  • Em projetos de simulação a eventos discretos (SED), geralmente, alguns critérios de validação computacional não são definidos de forma assertiva e os fatores humanos não são integrados e considerados na fase de modelagem dos dados de entrada. Uma suposição errônea, assumida durante a etapa da modelagem dos dados de entrada é que os trabalhadores operam a uma taxa imutável. Isso acaba sendo um problema para a modelagem de sistemas produtivos, principalmente, se o processo a ser modelado envolver uma ampla parcela de trabalho manual. Neste contexto, o objetivo desta tese é propor uma equação matemática para integrar três fatores humanos em um projeto de SED. E a inovação desta pesquisa baseia-se na equação matemática proposta, que pretende modelar e integrar os fatores humanos, ritmo circadiano, performance e aprendizagem e aplicá-los por meio da equação em três projetos distintos de SED. A aderência da equação proposta foi verificada com o auxílio de testes de validação, utilizados, de modo a validar o modelo computacional desenvolvido. Portanto, a supracitada equação foi concebida nesta pesquisa para representar o fator humano a partir dos tempos de processamento de cada atividade considerada em cada objeto de estudo. Na etapa metodológica foi apresentada a sistemática concebida na presente tese, e foram planejados seis cenários, CIA, CIB e CIC que não consideram os fatores humanos, ritmo circadiano, performance e aprendizagem. E os cenários CIIA, CIIB e CIIC que consideram, por meio da equação proposta, esses três fatores humanos. Finalmente, foi realizado uma validação quantitativa por meio do teste two-sample t-test e uma validação qualitativa usando o Teste de Turing nos resultados provenientes do modelo computacional. Como conclusão, ficou constatado que a validação do modelo computacional conduzida por meio das duas técnicas, citadas acima, não ocorreu para os cenários CIA, CIB e CIC e, logo, somente ocorreu de forma parcial ou integral, para os cenários CIIA, CIIB e CIIC. Por conseguinte, verificou-se que a validação computacional em um projeto de SED é influenciada quando esses três fatores humanos são considerados e a equação matemática proposta é uma novidade para os pesquisadores da área de simulação a eventos discretos.


  • Mostrar Abstract
  • In discrete event simulation (DES) projects, generally, some computational validation criteria are not defined assertively and human factors are not integrated and considered in the input data modeling phase. An erroneous assumption made during the input data modeling step is that workers operate at an unchanging rate. This ends up being a problem for the modeling of production systems, especially if the process to be modeled involves a large amount of manual work. In this context, the objective of this thesis is to propose a mathematical equation to integrate three human factors in an DES project. And the innovation of this research is based on the proposed mathematical equation, which intends to model and integrate human factors, circadian rhythm, performance and learning and apply them through the equation in three different DES projects. The adherence of the proposed equation was verified with the help of validation tests, used in order to validate the developed computational model. Therefore, the aforementioned equation was conceived in this research to represent the human factor from the processing times of each activity considered in each object of study. In the methodological stage, the system conceived in this thesis was presented, and six scenarios were planned, CIA, CIB and CIC that do not consider human factors, circadian rhythm, performance and learning. And the CIIA, CIIB and CIIC scenarios that consider, through the proposed equation, these three human factors. Finally, a quantitative validation was performed using the two-sample t-test and a qualitative validation using the Turing Test on the results from the computational model. As a conclusion, it was found that the validation of the computational model conducted through the two techniques mentioned above did not occur for the CIA, CIB and CIC scenarios and, therefore, only occurred partially or in full, for the CIIA, CIIB and CIIC. Therefore, it was found that the computational validation in an DES project is influenced when these three human factors are considered and the proposed mathematical equation is a novelty for researchers in the field of discrete-event simulation.

4
  • SIMONE CARNEIRO STREITENBERGER
  • Modelo preditivo do teor de óleos e graxas em água produzida quantificado pelo método gravimétrico

  • Orientador : ANDERSON PAULO DE PAIVA
  • MEMBROS DA BANCA :
  • ALOISIO EUCLIDES ORLANDO JÚNIOR
  • ANDERSON PAULO DE PAIVA
  • ANTONIO FERNANDO BRANCO COSTA
  • CLAUDIMAR PEREIRA DA VEIGA
  • PEDRO PAULO BALESTRASSI
  • WESLEY VIEIRA DA SILVA
  • Data: 10/06/2022

  • Mostrar Resumo
  • A água produzida gerada pelo processamento primário de petróleo realizado por plataformas petrolíferas localizadas no oceano (offshore), que possui um total de óleo e graxas (TOG), geralmente é reinjetada ou descartada no mar. Este descarte é monitorado por órgãos reguladores ambientais que determinam valores máximos de TOG. No Brasil, o método homologado para a medição de TOG é o gravimétrico, que deve ser realizado em laboratórios em terra. Devido à logística de transferência das amostras da plataforma para o laboratório, o resultado da medição é disponibilizado aproximadamente 20 dias após o dia da coleta. Este trabalho propõe o desenvolvimento de um modelo preditivo de TOG gravimétrico (TOG-G) a partir de variáveis de processo, adicionadas de uma variável extraída da variável de resposta, que possa ser utilizado offshore e em tempo real, para orientar de maneira mais ágil possíveis ações preventivas ou corretivas a fim de evitar seu desenquadramento. Para isto, as observações foram agrupadas em classes associadas a faixas de TOG-G, por meio das quais foi realizado o balanceamento da base. Conjuntos de treinamento e teste foram gerados e construiu-se um classificador para o agrupamento em função das variáveis de processo mais significativas para a previsão de TOG-G, identificadas por meio de regressão linear. Na sequência, o TOG-G foi modelado a partir das variáveis de processo significativas e do agrupamento. Os resultados obtidos para o conjunto de teste foram avaliados por meio das métricas Erro Médio Absoluto (MAE), Erro Percentual Absoluto Médio (MAPE), coeficiente de determinação (R^2) e coeficiente de correlação de Pearson (ρ), e se mostraram superiores tanto às previsões geradas pelo modelo de previsão desenvolvido a partir dos mesmos previsores, mas desconsiderando o agrupamento, quanto aos valores reais das medições de TOG espectrofotométrico (TOG-S), que constitui o método de tempo real atualmente utilizado como referência na plataforma. Para validação dos ganhos de acurácia com o método proposto, este foi também aplicado a um conjunto clássico de regressão linear de previsão do peso de peixes. Assim, a inclusão da informação do agrupamento ao modelo do TOG-G mostrou-se uma abordagem inovadora e eficiente para aumentar a acurácia de sua previsão a partir de informações disponíveis na plataforma, o que pode beneficiar consideravelmente a indústria petrolífera em termos de controle do processo.


  • Mostrar Abstract
  • The produced water generated by the primary oil processing carried out by offshore oil platforms, which has a total of oil and grease (TOG), is usually reinjected or disposed into the open ocean. This disposal is monitored by environmental regulatory agencies that determine maximum TOG values. In Brazil, the gravimetric method is that homologated for measuring TOG, which must be carried out in onshore laboratories. Due to the logistics of transferring samples from the platform to the laboratory, the measurement result is available approximately 20 days after the day of collection. This work proposes the development of a predictive model of gravimetric TOG (TOG-G) from process variables, added to a variable extracted from the response variable, which can be used offshore and in real time, to more quickly guide possible preventive or corrective actions in order to avoid its non-compliance. For this, the observations were grouped into clusters associated with TOG-G ranges, through which the base balancing was performed. Training and test sets were generated and a classifier was built for the cluster according to the most significant process variables for the prediction of TOG-G, identified through linear regression. Subsequently, the TOG-G was modeled from the significant process variables and the cluster. The results obtained for the test set were evaluated by means of Mean Absolute Error (MAE), Mean Absolute Percent Error (MAPE), coefficient of determination (R^2) and Pearson's correlation coefficient (ρ), and showed to be superior both to the forecasts generated from the predictive model developed from the same forecasters, but disregarding the cluster, as to the real values of the spectrophotometric TOG (TOG-S) measurements, which constitutes the real-time method currently used as a reference in the platform. To validate the gains in accuracy with the proposed method, it was also applied to a classical set of linear regression for predicting fish weight. Thus, the inclusion of the cluster information in the TOG-G model proved to be an innovative and efficient approach to increase the accuracy of its prediction from information available on the platform, which may considerably benefit the oil industry in terms of process control.

5
  • ESTEVÃO LUIZ ROMÃO
  • Impacto das variáveis meteo-oceanográficas e do teor de óleos e graxas na formação de feições oleosas durante o processamento primário de petróleo

  • Orientador : PEDRO PAULO BALESTRASSI
  • MEMBROS DA BANCA :
  • ALOISIO EUCLIDES ORLANDO JÚNIOR
  • ANDERSON PAULO DE PAIVA
  • ANTONIO FERNANDO BRANCO COSTA
  • CLAUDIMAR PEREIRA DA VEIGA
  • PEDRO PAULO BALESTRASSI
  • WESLEY VIEIRA DA SILVA
  • Data: 10/06/2022

  • Mostrar Resumo
  • O surgimento de feições oleosas no oceano é um desafio para as empresas que realizam o processamento primário de óleo em plataformas offshore. Após a separação do gás, óleo e água presentes no petróleo bruto, parte da água é devolvida aos oceanos com um certo teor de óleos e graxas (TOG). O valor do TOG e de variáveis meteo-oceanográficas, tais como: direção do vento (DV), intensidade do vento (IV), direção da corrente (DC), intensidade da corrente (IC), direção da onda (DO) e o período de pico primário (PP), criam cenários que podem favorecer ou dificultar o aparecimento de feições oleosas. No Brasil, essas feições podem levar a sanções para as empresas caso ultrapassem 500 metros de extensão. Diante disso, o presente trabalho realiza um estudo sobre como tais variáveis influenciam a probabilidade de ocorrência e detecção de feições oleosas via satélite, bem como a sua extensão. Utilizaram-se técnicas de machine learning (random forest, k-nearest neighbors, redes neurais artificiais, regressão logística e support vector machines), análise fatorial, design of experiments (DOE) e o algoritmo de otimização desirability. As principais conclusões do estudo foram: (i) o random forest superou os demais classificadores analisados e um modelo com área sob a curva de Característica de Operação do Receptor (curva ROC) de 0,93 foi obtido; (ii) a metodologia utilizada, combinando os classificadores com as técnicas anteriormente mencionadas mostrou-se satisfatória; (iii) quanto maior os valores de IV, DV e IC, menor a probabilidade de
    ocorrência e detecção de manchas de óleo, sendo que quanto maiores os valores de TOG, PP, DO e DC maior esta probabilidade; (iv) variáveis como IC e TOG contribuem positivamente para aumentar a extensão das manchas de óleo, enquanto altos valores de DV, IV e PP reduzem a extensão das feições.


  • Mostrar Abstract
  • The appearance of oil sheens in the ocean is a challenge for companies that perform primary oil processing on offshore platforms. After the separation of the gas, oil and water that are present in crude oil, part of the water is returned to the oceans with a certain content of oils and greases. The value of the total oil and greases (TOG) associated with the values of metoceanographic variables such as: wind direction (WD), wind speed (WS), current direction (CD), current speed (CS), wind wave direction (WWD) and peak period (PP) create scenarios that favor or hinder the appearance of oil sheens. In Brazil, these oil sheens can lead to sanctions for companies if they exceed 500 meters in length. In view of this, the present work conducts a study about how such variables influence the probability of occurrence and detection of oil sheens via satellite, as well as their extent, applying machine learning techniques (random forest, k-nearest neighbors, artificial neural networks, logistic regression, and support vector machines), factor analysis, design of experiments (DOE) and the optimization algorithm desirability. The main conclusions
    of the study were: (i) random forest outperformed the other analyzed classifiers and a model whose area under the Receiver Operating Characteristic Curve (ROC curve) was 0.93 was achieved; (ii) the methodology used, combining the classifiers with the aforementioned techniques proved to be satisfactory; (iii) the higher the values of WS, WD and CS, the lower the probability of occurrence and detection of oil sheens, whereas the higher the values of TOG, PP, WWD and CD the higher the value of this probability;
    (iv) variables such as CS and TOG contribute positively to increasing the extension of the oil sheens, while high values of WD, WS and PP reduce the extension of the features.

6
  • GUSTAVO TEODORO GABRIEL
  • Validação de modelos computacionais: um estudo integrando Generative Adversarial Networks e Simulação a Eventos Discretos

  • Orientador : JOSE ARNALDO BARRA MONTEVECHI
  • MEMBROS DA BANCA :
  • JOSE ARNALDO BARRA MONTEVECHI
  • FABIANO LEAL
  • JOSE HENRIQUE DE FREITAS GOMES
  • RAFAEL DE CARVALHO MIRANDA
  • ANDERSON RODRIGO DE QUEIROZ
  • FERNANDO AUGUSTO SILVA MARINS
  • Data: 18/07/2022

  • Mostrar Resumo
  • A validação de modelos computacionais de Simulação a Eventos Discretos (SED) é primordial para o sucesso do projeto, pois é a partir dela que se garante que o modelo simulado corresponde ao sistema real. Apesar disso, não é possível assegurar que o modelo represente 100% o sistema real. A literatura sugere várias técnicas de validação, porém é preferível o uso de testes estatísticos pois eles apresentam evidências matemáticas. Entretanto, existem limitações, pois testam média ou desvio padrão de forma individual, sem levar em consideração que os dados podem estar dentro de uma tolerância pré-estabelecida. Pode-se utilizar as Generative Adversarial Networks (GANs) para treinar, avaliar, discriminar dados e validar modelos de SED. As GANs são duas redes neurais que competem entre si, sendo que uma gera dados e a outra os discrimina. Assim, a tese tem como objetivo propor um método de validação de modelos computacionais de SED para avaliar uma ou mais métricas de saída, considerando uma tolerância para a comparação dos dados simulados com os dados reais. O método proposto foi dividido em duas fases, onde a primeira, denominada “Fase de Treinamento”, tem como objetivo o treinamento dos dados e a segunda, “Fase de Teste”, visa discriminar os dados. Na segunda fase, é realizado o Teste de Equivalência, o qual analisa estatisticamente se a diferença entre o julgamento dos dados está dentro da faixa de tolerância determinada pelo modelador. Para validar o método proposto e verificar o Poder do Teste, foram realizados experimentos em distribuições teóricas e em um modelo de SED. Assim, as curvas com o Poder do Teste para a tolerância real de 5.0%, 10.0% e 20.0% foram geradas. Os resultados mostraram que é mais eficiente o uso do conjunto de dados que apresenta uma amostra maior na “Fase de Teste” e é mais adequado o conjunto de tamanho amostral menor na “Fase de Treinamento”. Além disso, a confiança do Poder do Teste aumenta, apresentando intervalos de confiança menores. Ainda, quanto mais métricas são avaliadas de uma só vez, maior deve ser a quantidade de dados inseridos no treinamento das GANs. O método ainda sugere classificar a validação em faixas que mostram o quão válido o modelo é: Muito Forte, Forte, Satisfatória, Marginal, Deficiente e Insatisfatória. Por fim, o método foi aplicado em três modelos reais, sendo dois deles na área de manufatura e um na área da saúde. Concluiu-se que o método proposto foi eficiente e conseguiu mostrar a o grau de validação dos modelos que representam o sistema real.


  • Mostrar Abstract
  • Computer model validation of Discrete Event Simulation (DES) is essential for project success since this stage guarantees that the simulation model corresponds to the real system. Nevertheless, it is not possible to assure that the model represents 100% of the real system. The literature suggests using more than one validation technique, but statistical tests are preferable. However, they have limitations, since the tests usually test the mean or standard deviation individually, and do not consider that the data may be within a pre-established tolerance limit. In this way, Generative Adversarial Networks (GANs) can be used to train, evaluate and discriminate data and validate DES models, because they are two competing neural networks, where one generates data and the other discriminates them. The proposed method is divided into two phases. The first is the "Training Phase" and it aims to train the data. The second, the "Test Phase" aims to discriminate the data. In addition, in the second phase, the Equivalence Test is performed, which statistically analyze if the difference between the judgments is within the tolerance range determined by the modeler. To validate the proposed method and to verify the Power Test, experiments were carried out in continuous, discrete, and conditional distributions and in a DES model. From the tests, the Power Test curves were generated considering a real tolerance of 5.0%, 10.0% and 20.0%. The results showed that it is more efficient to use the dataset that presents larger sample in the “Test Phase” while the set with smaller sample size needs to be used in the “Training Phase”. In addition, the confidence of the Power Test increases with big higher dataset in first phase, presenting smaller confidence intervals. Also, the more metrics are evaluated at once, the greater the amount of data inputted in the GANs' training. The method suggests classifying a validation based on the achieve tolerance: Very Strong, Strong, Satisfying, Marginal, Deficient and Unsatisfying. Finally, the method was applied to three real models, two of them in manufacturing and the last one in the health sector. We conclude that the proposed method was efficient and was able to show the degree of validation of the models that represent the real system.

7
  • AFONSO TEBERGA CAMPOS
  • Redes Adversárias Generativas: uma alternativa para modelagem de dados de entrada em projetos de simulação

  • Orientador : JOSE ARNALDO BARRA MONTEVECHI
  • MEMBROS DA BANCA :
  • ANIBAL TAVARES DE AZEVEDO
  • ALEXANDRE FERREIRA DE PINHO
  • ANEIRSON FRANCISCO DA SILVA
  • FABIANO LEAL
  • JOSE ARNALDO BARRA MONTEVECHI
  • Data: 31/08/2022

  • Mostrar Resumo
  • De forma geral, a simulação estocástica consiste em dados de entrada e lógicas, sendo os primeiros as fontes básicas de incerteza em um modelo de simulação. Por essa razão, a modelagem de dados é uma etapa essencial no desenvolvimento de projetos na área. Muitos avanços foram observados nos últimos anos nos programas de simulação e em ferramentas para coleta. Porém, os métodos para modelagem de dados permanecem praticamente inalterados há mais de 30 anos. Em seu dia a dia, praticantes de simulação enfrentam dificuldades relacionadas à escolha de Modelos de Dados de Entrada (MDEs), principalmente devido ao desafio da modelagem de dados não Independentes e Identicamente Distribuídos (IID), o que requer ferramentas específicas e não oferecidas por programas de simulação e seus pacotes de estatísticos. Por essa razão, poucos estudos consideram elementos de complexidade como heterogeneidades, dependências e autocorrelações, subestimando a incerteza do sistema estocástico. Diante dos novos desenvolvimentos na área de Inteligência Artificial, é possível buscar sinergias para resolução desse problema. O presente estudo tem como objetivo avaliar os resultados da aplicação de Redes Adversárias Generativas, ou Generative Adversarial Networks (GANs) para obtenção de MDEs. Tais redes constituem uma das mais recentes arquiteturas de redes neurais artificiais, sendo capazes de aprender distribuições complexas e, com isso, gerar amostras sintéticas com o mesmo comportamento dos dados reais. Para tanto, esta tese propõe um método para Modelagem de Dados de Entrada baseado em GANs (MDE-GANs) e o implementa por meio da linguagem Python. Considerando uma série de objetos de estudo teóricos e reais, são avaliados os resultados em termos de qualidade de representação dos MDEs e realizadas comparações com métodos tradicionais. Como principal conclusão, foi possível identificar que a aplicação de MDE-GANs permite obter MDEs com forte acurácia, superando os resultados dos métodos tradicionais nos casos de dados não IID. Com isso, a presente tese contribui ao oferecer uma nova alternativa para a área, capaz de contornar alguns dos desafios enfrentados por modeladores.


  • Mostrar Abstract
  • In general, stochastic simulation consists of input data and logic, the former being the basic source of uncertainty in a simulation model. For this reason, data modeling is an essential step in the development of stochastic simulation projects. Many advances have been observed in recent years in simulation software and in data collection tools. However, the methods for input data modeling have remained largely unchanged for over 30 years. In their daily lives, modelers face difficulties related to the choice of input data models, mainly due to the challenge of modeling non Independent and Identically Distributed Data (IID) data, which requires specific tools not offered by simulation software and their data modeling packages. For this reason, few studies consider elements of complexity such as heterogeneities, dependencies, and autocorrelations, underestimating the uncertainty of the stochastic system. Given the new developments in Artificial Intelligence, it is possible to seek synergies to solve this problem. The present study aims to evaluate the results of the application of Generative Adversarial Networks (GANs) for input data modeling. Such networks constitute one of the most recent architectures of artificial neural networks, being able to learn complex distributions and, therefore, generate synthetic samples with the same behavior as real data. Therefore, this thesis proposes a method for Input Data Modeling based on GANs (MDE-GANs) and implements it through the Python language. Considering a series of theoretical and real study objects, the results are evaluated in terms of representation quality of the input models and comparisons are made with traditional modeling methods. As a main conclusion, it was possible to identify that the application of MDE-GANs allows obtaining input data models with strong accuracy, surpassing the results of traditional methods in cases of non-IID data. Thus, the present thesis contributes by offering a new alternative for input data modeling, capable of overcoming some of the challenges faced by modelers.

8
  • RENATA PINTO RIBEIRO MIRANDA
  • PROPOSTA DE UMA SISTEMÁTICA DE BOAS PRÁTICAS PARA ESPECIFICAÇÃO E IMPLEMENTAÇÃO DE ALARMES DURANTE O DESENVOLVIMENTO DE DISPOSITIVOS MÉDICOS COM FOCO NA USABILIDADE

  • Orientador : CARLOS HENRIQUE PEREIRA MELLO
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO SANCHES DA SILVA
  • CARLOS HENRIQUE PEREIRA MELLO
  • JANAINA MASCARENHAS HORNOS DA COSTA
  • MARCELO GITIRANA GOMES FERREIRA
  • RENATA APARECIDA RIBEIRO CUSTODIO
  • RODRIGO MAXIMIANO ANTUNES DE ALMEIDA
  • Data: 25/11/2022

  • Mostrar Resumo
  • Unidades de Terapia Intensiva são ambientes de alta complexidade pela necessidade de cuidado e acompanhamento de pacientes graves. A fim de garantir a sobrevida e a qualidade dos atendimentos o monitoramento à beira do leito, pelos dispositivos médicos, é fundamental por oferecer medidas essenciais de suporte de vida. Para que o monitoramento seja ininterrupto e sinalize ao usuário/operador alterações técnicas ou clínicas tem-se os alarmes, porém o que se tem percebido na prática clínica e na literatura é o aumento considerável desses sem necessidade clínica ou técnica, o que pode levar o usuário/operador a uma fadiga de alarme e a não percepção dos mesmos. Um dos motivos desse aumento no número de alarmes se dá, segundo a literatura, pela dificuldade dos desenvolvedores em cumprir os requisitos regulatórios da norma de alarmes (IEC 60601-1-8), pois essa atividade requer dos fabricantes muito mais do que conhecimento técnico do produto, devido à complexidade de informações da norma, a linguagem técnica e a falta de um detalhamento de como executar cada requisito exigido. A fim de sanar esse viés existente na literatura o objetivo dessa tese foi desenvolver uma sistemática de boas práticas que auxiliasse na orientação e implementação de alarmes a ser incorporada no processo de desenvolvimento de dispositivos médicos, com foco na usabilidade, visando minimizar a fadiga de alarme e maximizar a segurança dos usuários/operadores e pacientes. Foram desenvolvidas 13 sistemáticas sendo essas baseadas na literatura, na norma e nos casos estudados. Para criação e validação do material desenvolvido foram realizados estudos de casos múltiplos exploratórios, com três empresas desenvolvedoras de dispositivos médicos com alarmes, a fim de primeiramente conhecer as empresas e identificar seus processos de trabalho no desenvolvimento dos equipamentos e seus alarmes, e posteriormente avaliar as percepções das mesmas, sobre as sistemáticas construídas, confrontando com a realidade das organizações. Foi possível concluir, após a criação das sistemáticas e avaliação das mesmas pelas empresas que, os materiais criados foram avaliados de forma positiva mostrando um potencial de uso pelas empresas, servindo como um passo a passo visual e objetivo para o processo de desenvolvimento de produtos médicos com alarmes. Por fim, vale ressaltar que o material poderá também ser utilizado pelos laboratórios que fazem avaliação de conformidade ou certificadores a fim de auxiliar na certificação dos produtos de forma mais efetiva e rápida, sendo um material válido para unificar o entendimento e cumprimento da normativa pelas empresas e laboratórios.


  • Mostrar Abstract
  • Intensive care units are highly complex environments, given the need for care and monitoring of critically ill patients. In order to ensure survival and quality of care, bedside monitoring by medical devices is crucial to provide essential life support measures. For the monitoring to be uninterrupted and signal the user/operator technical or clinical changes, there are alarms. However, what has been noticed in clinical practice and the literature is the considerable increase of these devices without clinical or technical necessity, which may lead the user/operator to be fatigued and lose perception of them. According to the literature, one of the reasons for this increase in the number of alarms is the difficulty of developers to meet the regulatory requirements of the alarm standard (IEC 60601-1-8) because this activity requires manufacturers to have much more than technical knowledge of the product given the complexity of information in the standard, the technical language, and the lack of detail on how to perform each requirement. In order to remedy this bias in the literature, this thesis sought to develop a systematic approach to assist in specifying and implementing alarms to be incorporated into the development process of medical devices, focusing on usability, aiming to minimize alarm fatigue, and maximizing the safety of users/operators and patients. Thirteen systematics were developed, which were based on the literature, the norm and the cases studied. To create and validate the developed material, exploratory multiple case studies were carried out with three companies that develop medical devices with alarms in order first to know the companies and identify their work processes in developing equipment and alarms, and later evaluate their perceptions about the constructed systems and comparing them with the organizations’ reality. Our findings enabled us to conclude that after the creation of the systematics and their evaluation by the companies, the materials created were positively evaluated and showed a potential use by the companies, serving as a visual and objective step-by-step for the development process of medical products with alarms. Lastly, it is worth mentioning that the material can also be used by laboratories that make conformity evaluations or certifiers to assist in certifying products more effectively and quickly, being a valid material to unify the understanding and compliance of the norm by companies and laboratories.

9
  • NATÁLIA MARIA PUGGINA BIANCHESI
  • Previsão de Séries Temporais Não Lineares Baseada em Redes Neurais e Sinais de Rastreamento

  • Orientador : ANTONIO FERNANDO BRANCO COSTA
  • MEMBROS DA BANCA :
  • ANTONIO FERNANDO BRANCO COSTA
  • CARLOS HENRIQUE PEREIRA MELLO
  • CLAUDIMAR PEREIRA DA VEIGA
  • JULIANA HELENA DAROZ GAUDENCIO
  • PEDRO PAULO BALESTRASSI
  • WESLEY VIEIRA DA SILVA
  • Data: 12/12/2022

  • Mostrar Resumo
  • A previsão de séries temporais não lineares é amplamente utilizada em diversas áreas do conhecimento para fazer boas inferências sobre o futuro e apoiar decisões. Muitos exemplos de séries temporais não lineares incluem observações médicas, registros financeiros e dados meteorológicos. A precisão das previsões é determinada considerando o desempenho do modelo em novos dados que não foram usados no ajuste do modelo e o monitoramento dos erros de previsão é essencial para garantir a precisão da previsão. Portanto, esta tese apresenta uma metodologia de previsão de séries temporais não lineares utilizando Redes Neurais e Sinais de Rastreamento para detectar viés e sua responsividade a mudanças não aleatórias na série temporal. Os conjuntos de dados foram gerados de modo a simular diferentes situações com base em séries temporais não lineares, alterando o erro da série; os conjuntos de dados também foram previstos por Rede Neural Artificial, Multilayer Perceptron, e os erros de previsão foram monitorados pelos Sinais de Rastreamento, Cumulative Sum Tracking Signals. Diferente de muitos estudos publicados na área, a metodologia de Planejamento de Experimentos foi aplicada para avaliar os sinais de rastreamento com base no número médio de observações. Em seguida, a metodologia foi aplicada em dados baseados em óleo e graxa total e comparada com a aplicação de outras metodologias tradicionais. Os resultados mostraram que a metodologia de previsão proposta é uma forma eficaz de detectar viés no processo quando um erro é introduzido na série temporal não linear devido à média e ao desvio padrão do erro ter um impacto significativo no Número Médio de Observações. Este estudo contribui para uma discussão sobre a metodologia de previsão de séries temporais, uma vez que esta nova técnica pode ser amplamente utilizada em diversas áreas para melhorar a precisão das previsões.


  • Mostrar Abstract
  • Nonlinear time series forecasting is widely used in several areas to make good inferences about the future and to support decisions. Many examples of nonlinear time series include medical observations, financial recordings, and weather data. The accuracy of forecasts is determined by considering how well a model performs on new data that were not used when fitting the model and the monitoring of forecast errors is essential to ensure forecasting accuracy. Therefore, this thesis presents a nonlinear time series prediction methodology using Neural Networks and Tracking Signals method to detect bias and their responsiveness to non-random changes in the time series. Datasets were generated to simulate different nonlinear time series by changing the error of the series. The datasets were predicted by Artificial Neural Network, Multilayer Perceptron, and the forecast errors were monitored by Cumulative Sum Tracking Signals. Different from many studies published in the area, the statistical methodology of Design of Experiments was applied to evaluate the tracking signals based on Average Run Length. After, the methodology was applied in data based on total oil and grease and it was compared with the application of other traditional methodologies. The results showed that the proposed prediction methodology is an effective way to detect bias in the process when an error is introduced in the nonlinear time series because the mean and the standard deviation of the error have a significant impact on the Average Run Length. This study contributes to a discussion about time series prediction methodology since this new technique could be widely used in several areas to improve forecast accuracy.

10
  • YASMIN SILVA MARTINS XAVIER
  • Análise do gerenciamento de riscos no setor de dispositivos médicos por meio do Estudo de Casos Múltiplos

  • Orientador : CARLOS EDUARDO SANCHES DA SILVA
  • MEMBROS DA BANCA :
  • PAULO ALEXANDRE DA COSTA ARAÚJO SAMPAIO
  • CARLOS EDUARDO SANCHES DA SILVA
  • CARLOS HENRIQUE PEREIRA MELLO
  • JEAN MARCEL SOUSA LIRA
  • JOSE HENRIQUE DE FREITAS GOMES
  • JULIANA HELENA DAROZ GAUDENCIO
  • Data: 14/12/2022

  • Mostrar Resumo
  • O setor de dispositivos médicos possui grande parcela de micro e pequenos negócios com potencial de inovação. Devido às características de suas atividades, essas empresas são submetidas a diversas normas e regulamentos, como a ISO 13485, que define os requisitos para os Sistemas de Gestão da Qualidade (SGQ) e, tendo como base a norma ISO 9001, deixa implícita a necessidade de se gerenciar os riscos. Para pequenas empresas a adoção de práticas de gerenciamento de riscos é considerada um dos maiores desafios, sendo evidenciada na literatura a necessidade de suporte científico e metodológico para tais organizações. Nesse contexto, esta pesquisa objetiva propor uma sistemática para gerenciamento de riscos aplicável aos SGQ de startups do setor de dispositivos médicos, e confrontar a proposta com as práticas realizadas pelas empresas, de forma a verificar sua adequação e implementação para pequenas e médias empresas (PMEs) do setor. O método aplicado foi o Estudo de Casos Múltiplos, por meio das seguintes etapas: inicialmente foi conduzida uma revisão sistemática de literatura, de forma a identificar como as empresas têm realizado o gerenciamento de riscos nos contextos normativo e prático, estabelecendo a base da proposta e, ainda, analisando os aspectos discutidos na literatura acerca da problemática estabelecida; em seguida 11 casos foram selecionados, sendo seis empresas brasileiras e cinco empresas portuguesas; foi elaborado o protocolo do estudo de casos, validado por meio de teste piloto; e, em seguida, realizada a coleta de dados e elaboração dos relatórios de casos individuais e cruzados. Foram identificadas algumas relações entre os casos, que sugerem a existência de possíveis padrões. Dentre os resultados destaca-se que o processo normativo no cenário nacional é visto pelas empresas como algo burocrático, e o atendimento aos requisitos fica sujeito a interpretação dos auditores, o que acaba levando as empresas a optarem pelo uso da recomendada FMEA (Failure Modes and Effects Analysis); o que não é verificado no cenário internacional. O estudo evidencia que a experiência prévia sempre será um requisito para o gerenciamento de riscos, independentemente de como ele será implementado, podendo ser uma dificuldade para as empresas. Com relação a sistemática, verifica-se que ela pode impactar positivamente no direcionamento e preparação da equipe para a realização do processo, podendo enfrentar resistência a mudança em empresas com gerenciamento de riscos já estruturado. As análises sugerem que a sistemática pode ser mais benéfica para PMEs que estão no início do processo.


  • Mostrar Abstract
  • Considering its potential for innovation and the large number of micro and small businesses, the medical device sector has become a relevant object of study. Due to the characteristics of their activities, companies are subject to several standards and regulations, such as the ISO 13485 which defines the requirements for Quality Management Systems (QMS) and based on the standard ISO 9001, leaves implicit the need to manage risks. The adoption of risk management practices is considered a major challenge for small companies, and the need for scientific and methodological support for such organizations is evidenced in the literature. In this context, this research aims to propose a systematic approach to risk management, suitable for QMS of innovative companies in the medical device sector, and to compare the proposal with the practices performed by companies, in order to verify its suitability for medical devices SMEs (small and medium sized enterprises). The method applied was the Multiple Case Study, through the following steps: initially a systematic literature review was conducted in order to identify how companies have performed the risk management in the normative and practical contexts, establishing the basis of the proposal and also analyzing the aspects discussed in the literature about this issue; then 11 cases were selected, six Brazilian companies and five Portuguese companies; the case study protocol was elaborated and validated through a pilot test; finally, data collection and elaboration of individual and crossed case reports were performed. Some relations were identified among the cases, suggesting the existence of potential patterns. Among the results we highlight that the normative process in the national scenario is considered by companies as something bureaucratic, and meeting the requirements becomes subject to the auditors' interpretation, which ends up leading companies to opt for the use of FMEA (Failure Modes and Effects Analysis), which is not observed in the international scenario. The study shows that previous experience is always a requirement for risk management, no matter how it is implemented, and it can be a challenge for the companies. Regarding the systematic, it was verified that it can positively impact the guidance and preparation of the team to implement the process, although it may face resistance to change among companies with already structured risk management. The analyses suggest that the systematic may be more beneficial to SMEs that are at the beginning of the process of risk management implementation.

11
  • CARLOS HENRIQUE DE OLIVEIRA
  • Otimização robusta multivariada no fresamento de topo do aço inoxidável duplex UNS S32205.

  • Orientador : JOAO ROBERTO FERREIRA
  • MEMBROS DA BANCA :
  • ANDERSON PAULO DE PAIVA
  • JOAO ROBERTO FERREIRA
  • MANOEL CLEBER DE SAMPAIO ALVES
  • MESSIAS BORGES SILVA
  • PAULO HENRIQUE DA SILVA CAMPOS
  • TARCISIO GONCALVES DE BRITO
  • Data: 14/12/2022

  • Mostrar Resumo
  • O aço inoxidável duplex pertence a uma classe de materiais com baixa usinabilidade por apresentar alta taxa de encruamento; baixa condutividade térmica e alta ductilidade, o que representa um grande desafio na fabricação de componentes, principalmente no processo de fresamento de topo. A otimização é uma alternativa viável para determinar os melhores parâmetros do processo e obter maiores valores de produtividade com sustentabilidade e qualidade. A presença de variáveis de ruído é um complicador adicional durante a usinagem desse material. Sua presença provoca um aumento de variabilidade durante o processo, porém, seu efeito pode ser atenuado ao se empregar métodos de modelagem robusta. Esta tese tem como objetivo apresentar a otimização robusta multivariada no fresamento de topo do aço inoxidável duplex UNS S32205. Os ensaios foram realizados seguindo um planejamento composto central combinando as variáveis de entrada (velocidade de corte, avanço por dente, largura fresada e profundidade de corte) e as variáveis de ruído (desgaste do flanco da ferramenta, vazão de fluido e comprimento em balanço). Foi aplicado o conceito de projeto parâmetro robusto, metodologia de superfície de resposta, análise fatorial, a otimização do erro quadrático médio multivariado para fatores robustos e o método da interseção normal à fronteira. A combinação de todas essas metodologias deu origem ao método EQMMFR-NBI. Como resultado da análise fatorial, as variáveis de resposta foram agrupadas em 3 variáveis latentes, sendo a primeira referente às rugosidades Ra, Rq, Rt e Rz (indicador de qualidade); a segunda ao consumo de energia elétrica e emissão de CO2 (indicador de sustentabilidade) e a terceira à taxa de remoção de material (indicador de produtividade). A otimização robusta multivariada foi realizada considerando os indicadores de sustentabilidade e produtividade, enquanto o de qualidade foi usado como restrição ao problema de otimização não linear. Ao aplicar o método EQMMFR-NBI, soluções ótimas de Pareto foram obtidas e uma fronteira equiespaçada foi construída. Os ensaios de confirmação foram realizados utilizando o arranjo L9 de Taguchi. Os resultados mostraram que os setups ótimos encontrados foram capazes de neutralizar a influência das variáveis de ruído nas variáveis de resposta, comprovando uma boa adequação da proposta e da aplicação do método.


  • Mostrar Abstract
  • Duplex stainless steel pertains to a class of materials with low machinability due to its right rate of hardening, low thermal conductivity and high ductility. This characteristic represents a significant challenge in the manufacture of components, especially in the end milling process. Optimization is a viable alternative to determine the best process parameters and obtain higher production values with sustainability and quality. The presence of noise variables is an additional complicating factor during material machining of this material, and their presence causes an increase in variability during the process, and their effect can be mitigated by employing robust modelling methods. This thesis presents the robust multivariate optimization in the end milling of duplex stainless steel UNS S32205. The tests were carried out using a central composite design combining the input variables (cutting speed, feed per tooth, milled width and depth of cut) and the noise variables (tool flank wear, fluid flow and overhang length). The concept of robust parameter design, response surface methodology, factor analysis, optimization of the multivariate mean square error for robust factors and the normal boundary intersection were applied. The combination of all these methodologies gave rise to the EQMMFR-NBI method. As a result of the factor analysis, the response variables were grouped into 3 latent variables, the first referring to the roughness Ra, Rq, Rt and Rz (quality indicator); the second to the electricity consumption and CO2 emissions (sustainability indicator) and the third to the material removal rate (productivity indicator). Multivariate robust optimization was performed considering sustainability and productivity indicators, while quality was used as a constraint to the nonlinear optimization problem. By applying the EQMMFR-NBI method, Pareto optimal solutions were obtained and an equispaced frontier was constructed. Confirmation tests were performed using Taguchi's L9 arrangement. The results showed that the optimal setups found were able to neutralize the influence of noise variables on the response variables, proving the good adequacy of proposal and the application of the method.

2021
Dissertações
1
  • JOÃO VICTOR SOARES DO AMARAL
  • Otimização Baseada em Metamodelos: Uma Abordagem para Metamodelagem em Simulação a Eventos Discretos

  • Orientador : JOSE ARNALDO BARRA MONTEVECHI
  • MEMBROS DA BANCA :
  • ANEIRSON FRANCISCO DA SILVA
  • JOSE ARNALDO BARRA MONTEVECHI
  • RAFAEL DE CARVALHO MIRANDA
  • TABATA NAKAGOMI FERNANDES PEREIRA
  • Data: 09/02/2021

  • Mostrar Resumo
  • No contexto da indústria 4.0, a otimização via simulação (OvS) surge como uma das mais potentes ferramentas da indústria moderna, permitindo aos decisores alocarem seus recursos de forma mais assertiva. Todavia, em sistemas muito complexos, o uso de técnicas convencionais de OvS demandam um tempo computacional que, muitas vezes, inviabiliza sua aplicação. Nos últimos anos, o desenvolvimento na área de machine learning surgiram algoritmos com alta capacidade de aprendizado, tornando o uso das técnicas de otimização via simulação por metamodelagem (OvSM) para solucionar problemas complexos um campo de estudo promissor. Neste sentido, o presente estudo propõe um framework para OvSM embasado nos insights e análises provindos da revisão sistemática de literatura realizada. O framework proposto incorpora o uso de técnicas de simulação a eventos discretos, design of experiments, algoritmos de machine learning, e otimização de hiper-parâmetros via algoritmo genético para problemas de OvS. A fim de validar o framework proposto, esta dissertação testou e comparou seis algoritmos de machine learning (Support Vector Machine, Redes Neurais Artificiais, Gradient-Boosted Trees, Randon Forest, Regressão Polinomial e Gaussian Process) com e sem a etapa de otimização de hiper-parâmetros em dois arranjos experimentais (Latin Hipercube Design e Aleatório) aplicados ao problema de alocação de recursos em três casos reais da indústria. Com a aplicação do método nos objetos de estudo apresentados, os metamodelos de melhor performance obtiveram soluções que atingiram, respectivamente, 100%, 96,17%, e 100% do ótimo local benchmark, demandando, em média, 35,22% menos tempo computacional. Além disto, a incorporação da etapa de otimização de hiper-parâmetros no método de metamodelagem proposto permitiu uma redução de 31,28% no root mean square error dos metamodelos se comparado ao método tradicional, que não contempla esta etapa.


  • Mostrar Abstract
  • In the context of industry 4.0, optimization via simulation (OvS) emerges as one of the most powerful tools in the modern industry, allowing decision-makers to allocate their resources more assertively. However, in very complex systems, the use of conventional OvS techniques requires computational time, which frequently, makes its application unfeasible. In recent years, the development in the machine learning area has emerged algorithms with high learning capacity, making the use of optimization via simulation by metamodeling (OvSM) techniques to solve complex problems a promising field of study. In this sense, the present study proposes a framework for OvSM based on the insights and analyses derived from the systematic literature review carried out. The proposed framework incorporates the use of discrete event simulation techniques, design of experiments, machine learning algorithms, and hyper-parameter optimization via genetic algorithm for OvS problems. To validate the proposed method, this dissertation tested and compared six machine learning algorithms (Support Vector Machine, Artificial Neural Networks, Gradient-Boosted Trees, Randon Forest, Polynomial Regression, and Gaussian Process) with and without the hyper optimization step -parameters in two experimental arrangements (Latin Hypercube Design and Random) applied to the problem of resource allocation in three real cases in the industry. With the application of the method in the study objects presented, the best performing metamodels obtained solutions that reached, respectively, 100%, 96.17%, and 100% of the optimal benchmark location, demanding, on average, 35.22% less time computational. Also, the incorporation of the hyper-parameter optimization step in the proposed metamodeling method allowed a 31.28% reduction in the root mean square error of the metamodels compared to the traditional method, which does not include this step.

2
  • LARYSSA DE ANDRADE MAIRINQUE
  • A PANDEMIA POR COVID-19 E SEUS IMPACTOS NA MOBILIDADE URBANA: UM ESTUDO DE CASO UTILIZANDO ANÁLISE ESTATÍSTICA ESPACIAL

  • Orientador : JOSIANE PALMA LIMA
  • MEMBROS DA BANCA :
  • CIRA SOUZA PITOMBO
  • ALEXANDRE FERREIRA DE PINHO
  • JOSIANE PALMA LIMA
  • Data: 11/02/2021

  • Mostrar Resumo
  • Devido ao rápido avanço da doença por Covid-19 e sua disseminação em nível global, o novo coronavírus impactou expressivamente as atividades diárias das pessoas e criou um cenário sem precedentes, uma vez que, várias medidas foram implantadas como forma de reduzir o contágio e disseminação da doença pela Covid-19. Deste modo, um aprofundamento teórico sobre as variáveis sociais que podem influenciar na disseminação da doença, é importante para que as medidas de controle à Covid-19 sejam efetivas tanto no momento atual, quanto no futuro. Portanto, o trabalho tem como objetivo avaliar o impacto do padrão de viagens, aspectos de uso do solo e socioeconômicos na distribuição espacial dos casos de Covid-19. A metodologia é composta por modelagem com a utilização dos métodos de Ordinary Least Squares (OLS) e Geographically Weighted Regression (GWR). Foi realizado um estudo de caso em São João del Rei, um município de médio porte no estado de Minas Gerais. Inicialmente foi desenvolvido um estudo descritivo e espacial nas cidades de Itajubá e São João del Rei, ambas cidades de médio porte localizadas em Minas Gerais, como forma de avaliar como a pandemia por Covid-19 impactou nos deslocamentos e atividades diárias de seus habitantes, como também o impacto gerado na segurança pública e viária. Para isso foram utilizados dados de uma pesquisa sobre as atividades diárias da população antes e durante a pandemia aplicada em 2020 nas duas cidades, dados de acidentes de trânsito e assaltos em vias públicas coletados junto às Polícias Militares de cada cidade. Foi possível identificar que existem associações entre as variáveis sócio demográficas e o local de realização da atividade principal durante a pandemia por Covid -19 dos respondentes através da aplicação do teste Qui-quadrado de Pearson. Por meio de uma análise exploratória identificou-se nas duas cidades uma redução percentual da utilização do ônibus como meio de transporte, um aumento dos deslocamentos de curta duração de até 10 minutos, como também uma redução das frequências de acidentes e assaltos em vias públicas durante o período de análise, para as duas cidades. Na cidade de São João del Rei, a amostra com os dados apresentou melhor distribuição espacial e as informações sobre o número de casos de Covid-19 estavam disponibilizadas à toda população, possibilitando um estudo mais aprofundado com análise estatística, utilizando os métodos OLS e GWR com as variáveis determinadas para a cidade de São João del Rei. Os resultados mostram uma forte associação entre o número de casos de Covid-19 e diversas variáveis do padrão de deslocamento, socioeconômicas e uso do solo. A abordagem GWR mostrou-se uma ferramenta importante para explicar a distribuição espacial dos casos de Covid-19 no município, apresentando na maioria dos casos um melhor ajuste do que o método OLS. O estudo sobre a associação entre variáveis sociais e a propagação de doenças foi importante e continua sendo necessário. O resultado serve como subsídio ao planejamento da mobilidade urbana com medidas voltadas à segurança sanitária e atendimento da população durante e após esse período de crise, e assim fazer uso mais eficiente dos recursos públicos com vista ao desenvolvimento sustentável.


  • Mostrar Abstract
  • Due to the rapid advance of the disease by Covid-19 and its spread on a global level, the new coronavirus has significantly impacted people's daily activities and created an unprecedented scenario, since several measures were implemented as a way to reduce contagion and spread Covid-19 disease. Thus, a theoretical deepening on the social variables that can influence the spread of the disease, is important for the control measures to Covid-19 to be effective both in the present moment and in the future. Therefore, the work aims to assess the impact of travel patterns, land use and socioeconomic aspects on the spatial distribution of Covid-19 cases. The methodology consists of modeling using Ordinary Least Squares (OLS) and Geographically Weighted Regression (GWR) methods. A case study was carried out in São João del Rei, a medium-sized municipality in the state of Minas Gerais. Initially, a descriptive and spatial study was developed in the cities of Itajubá and São João del Rei, both medium-sized cities located in Minas Gerais, as a way to assess how the pandemic by Covid-19 impacted the travel behavior, and daily activities of its inhabitants, such as also the impact on public and road safety. For this, data from a survey on the daily activities of the population before and during the pandemic applied in 2020 in both cities were used, data from traffic accidents and assaults on public roads collected from the Military Police of each city. It was possible to identify that there are associations between socio-demographic variables and the place where the main activity was carried out during the pandemic by Covid -19 of the respondents through the application of Pearson's chi-square test. Through an exploratory analysis it was identified in both cities a percentage reduction in the use of buses as a means of transport, an increase in short trips of up to 10 minutes, as well as a reduction in the frequency of accidents and robberies on public roads during the analysis period, for both cities. In the city of São João del Rei, the sample with the data showed a better spatial distribution and information on the number of Covid-19 cases was available to the entire population, enabling a more in-depth study with statistical analysis, using the OLS and GWR methods with the variables determined for the city of São João del Rei. The results show a strong association between the number of cases of Covid-19 and several variables of the travel behavior, socioeconomic and land use. The GWR approach proved to be an important tool to explain the spatial distribution of Covid-19 cases in the municipality, showing in most cases a better fit than the OLS method. The study on the association between social variables and the spread of disease was important and remains necessary. The result serves as a subsidy to the planning of urban mobility with measures aimed at health security and service to the population during and after this period of crisis, and thus make more efficient use of public resources with a view to sustainable development.

3
  • MARIANNA LUCINDA DE OLIVEIRA
  • Estudo de variáveis socioeconômicas, do ambiente construído e da qualidade percebida como contributos para a demanda do Transporte Público Urbano

  • Orientador : JOSIANE PALMA LIMA
  • MEMBROS DA BANCA :
  • BARBARA STOLTE BEZERRA
  • JOSIANE PALMA LIMA
  • JULIANA HELENA DAROZ GAUDENCIO
  • Data: 18/02/2021

  • Mostrar Resumo
  • As cidades, cada vez mais populosas, necessitam do desenvolvimento de sistemas eficientes de transportes para alcançar melhorias na qualidade de vida da população. Consequências negativas como poluição do ar, congestionamento e acidentes viários tem sido agravado pelo constante aumento de veículos particulares. Desse modo, a promoção do uso de modos sustentáveis de transporte é essencial para mitigar os problemas relacionados ao setor. Assim, o Transporte Público Urbano (TPU) é um grande aliado na busca de uma mobilidade urbana mais sustentável, principalmente para os deslocamentos de longas distâncias e pelo transporte de maior número de pessoas. Porém, o TPU tem enfrentado nos últimos anos uma queda constante na demanda, que se agravou com a pandemia pelo Covid-19, e a compreensão de fatores que estão relacionados ao seu uso é de extrema importância. O trabalho tem como objetivo avaliar a influência de variáveis socioeconômicas, modo de viagem, percepção de qualidade, ambiente construído e segurança na demanda do TPU, por meio da variável dependente frequência de uso. Foi utilizada a Regressão Logística Multinomial para demonstrar a significância das variáveis em relação a variável dependente. Variáveis relacionados ao ambiente construído, como acessibilidade ao TPU, densidade populacional, distância ao centro de negócios e a pontos de interesse, e relacionadas à segurança pública e viária foram desenvolvidas em um ambiente de Sistema de Informações Geográficas (SIG), retratando a relação com a localização espacial dos usuários. Os resultados obtidos do nível de satisfação demonstram que os usuários estão mais insatisfeitos com o valor tarifário, frequência dos ônibus e questões relacionadas às características dos pontos de ônibus, como informações e abrigo. Já os fatores relacionados a aspectos humanos e segurança foram os mais satisfatórios para os usuários. Em relação a características do ambiente construído, foi observado que a maioria dos usuários possui boa acessibilidade ao TPU, estando somente 2,5% dos entrevistados a uma distância maior que 500 metros de um ponto de ônibus. Em relação aos aspectos de segurança, é percebido que a maior parte dos crimes ocorre na região central e em seu entorno e, também, em bairros específicos da cidade. Já os acidentes viários ocorrem no entorno da região central e ao longo das principais ruas da cidade. Por fim, em relação à influência significativa na variável dependente frequência de uso, as variáveis escolha do TPU para trabalho e estudo, o pagamento utilizando vale transporte, a faixa etária de 36 a 59 anos, uma maior distância ao centro de negócios e uma boa acessibilidade ao ponto de ônibus, se relacionam ao uso frequente do TPU. Já o gênero masculino, a posse de veículo particular e a insatisfação com a tarifa e pontualidade dos ônibus foram as variáveis relacionados ao uso raro ou ocasional do TPU. Os resultados podem servir de subsídio para direcionar o poder público na melhoria do sistema de TPU e, consequentemente, para o aumento da demanda. Como, por exemplo, o oferecimento de subsídios financeiros para a diminuição do valor tarifário, fiscalização da prestação de serviços e a limitação de acesso a veículo individual. Um bom planejamento interno do prestador de serviço também se faz necessário, assegurando um serviço de qualidade, contínuo e eficiente. Os resultados fornecem suporte técnico na identificação de fatores que afetam a frequência de uso do TPU.


  • Mostrar Abstract
  • Cities, increasingly populated, need the development of efficient transport systems to achieve improvements in the quality of life of the population. Factors such as air pollution, congestion and road accidents have been aggravated by the constant increase in private vehicles and the promotion of the use of sustainable modes of transport is essential to mitigate problems related to the sector. Thus, Public Transport (PT) is a great ally in the search for more sustainable urban mobility, mainly for long distance travel and for the transportation of a greater number of people. However, the PT has faced a continuous drop in the demand in recent years, which has been further aggravated by the Covid-19 pandemic and understanding the factors that are related to its use is extremely important. The work aims to evaluate the influence of socioeconomic, travel mode, perception of quality, built environment and security variables, in the demand for PT, through the dependent variable frequency of use. Multinomial Logistic Regression was used to demonstrate the significance of the variables in relation to the dependent variable. Some variables were developed in a Geographic Information System (GIS) environment, portraying the relationship with the users' spatial location. The results obtained from the satisfaction level show that users are more dissatisfied with the fare value, frequency of buses and issues related to the characteristics of bus stops, such as information and shelter. The factors related to human aspects were the most satisfactory for users, such as cordiality and driver ability. Regarding the characteristics of the built environment, it was observed that most users have good accessibility to the PT, with only 2.5% of the interviewees being at a distance greater than 500 meters from a bus stop. In relation to safety aspects, it is perceived that most crimes occur in the downtown region and its surroundings, and also in specific neighborhoods on the city. Road accidents occur around the downtown region and along the main streets of the city. Finally, in relation to the significant influence on the dependent variable frequency of use, the variables choice of PT for work and study, payment using transportation vouchers, the age group of 36 to 59 years, a greater distance to the business center and a good accessibility to the bus stop, are related to the frequent use of PT. The male gender, the possession of a private vehicle and dissatisfaction with the fare and punctuality of the buses were the variables related to the rare or occasional use of PT. The results can be used as subsidy to direct the public authorities to improve the PT system and, consequently, to increase the demand. For example, the provision of financial subsidies to reduce the fare value, the inspection of the provision of services and limiting access to individual vehicles. A good internal planning of the operating company is also necessary, ensuring a quality, continuous and efficient service. The results provide technical support in identifying factors that affect the frequency of use of the PT.

4
  • JADE DE SOUZA BORDÓN
  • INTEGRAÇÃO DO PLANEJAMENTO SISTEMÁTICO DE LAYOUT, DO PENSAMENTO ENXUTO E DA SIMULAÇÃO A EVENTOS DISCRETOS PARA O PROJETO DO LAYOUT DE UM PRONTO ATENDIMENTO HOSPITALAR

  • Orientador : CARLOS HENRIQUE PEREIRA MELLO
  • MEMBROS DA BANCA :
  • CARLOS HENRIQUE PEREIRA MELLO
  • FERNANDO AUGUSTO SILVA MARINS
  • JOSE ANTONIO DE QUEIROZ
  • JOSE HENRIQUE DE FREITAS GOMES
  • Data: 22/02/2021

  • Mostrar Resumo
  • A importância do setor de saúde é indiscutível e, em tempos de pandemia do Covid-19 e suas incertezas, faz-se ainda mais crucial a aplicação dos conhecimentos de Engenharia de Produção em estudos que possam promover melhorias e maior compreensão dessa área. É realizado um estudo sobre o projeto de layout de setores hospitalares, realizado sob a ótica da integração de três ferramentas: o Systematic Layout Planning, Lean e Simulação de Eventos Discretos. A primeira, utilizada para auxiliar problemas de setores hospitalares, apresenta um roteiro para o projeto de layout ou mesmo sua alteração. A segunda, traz o pensamento enxuto e seus conceitos aplicados no cuidado com a saúde. E a última, permite que sejam realizadas múltiplas análises relacionadas à saúde, sem risco real e com baixo custo. A pesquisa propôs construir um roteiro, baseado nesta integração, onde são descritas cada uma de suas etapas e apresentadas como elas foram utilizadas para o projeto de layout do pronto atendimento de um hospital filantrópico, na região do sul de Minas Gerais. Com a montagem da sistemática para o objeto de estudo, buscou-se encontrar resultados que ajudem em uma tomada de decisão mais segura em relação às alterações físicas. Sendo assim, na etapa final de sua aplicação, foram testadas alternativas de layout para três níveis de demandas possíveis para o futuro. Foram analisados como parâmetros de interesse: o lead time, o tempo de espera e o número de atendimentos. Encontrou-se que, dependendo da variação da demanda, pode-se acrescentar processos ou então mudar alguma atividade para que se possa dividir a carga de trabalho, reduzir desperdícios de movimentação e de espera e utilizar melhor os recursos humanos. O deslocamento do paciente sem acompanhamento permite minimizar o desperdício de movimentação do médico. A inserção da triagem no layout atual não se mostra vantajosa, visto que o número de atendimentos passa de uma média de 25 para 28 pacientes por dia, com grandes aumentos nos valores dos parâmetros de interesse. Já o cenário que tem a maior capacidade de atendimentos diários, quando comparado com o layout anterior, tem um aumento pequeno nos parâmetros que é justificado por conseguir atender em média 30 pacientes a mais por dia. O guia foi utilizado para estudar as propostas de alteração física do setor de interesse, permitindo analisar o estado atual do pronto atendimento e quais são as possíveis alterações de layout cabíveis e suas implicações, bem como quando devem ser feitas.


  • Mostrar Abstract
  • The importance of the healthcare facilities is unquestionable and, in times of the Covid-19 pandemic and its uncertainties, the application of Production Engineering knowledge in studies that can cause improvements and better understanding about this area is even more crucial. A study is carried out on the layout design of hospital department from the perspective of the integration of three tools: the Systematic Layout Planning, Lean and Discrete Events Simulation. The first one, used for assist problems in hospital departments, presents a script for the layout project or even its modification. The second brings Lean Thinking and its concepts in healthcare. And the last one, allows multiple health-related analyzes to be carried out, without real risk and at low cost. The research proposes to build a script, based on this integration, where each one of its stages is described and presents how they were used for the layout design of the emergency care of a philanthropic hospital, in the southern region of Minas Gerais. With the use of the systematic proposal for the object of study, it is intended to find results that help in making a safer decision in relation to physical changes. Thus, in the final stage of its application, layout alternatives were tested for three levels of possible demands for the future. The parameters of interest were defined: the lead time, the waiting time and the number of visits. It was found that, depending on the variation in demand, it possible to add processes or change some activity so the workload can be divide, waste of movement and waiting reduced and use better the human resources. The displacement of the patient without accompaniment allows to minimize the waste of movement of the doctor. The insertion of triage in the current layout is not advantageous, since the number of visits goes from an average of 25 to 28 patients per day, with large increases in the values of the parameters of interest. The scenario with the highest capacity for daily care, when compared to the previous layout, has a small increase in parameters that is justified by being able to attend an average of 30 more patients per day. The guide was successfully used to study the proposals for physical changes in the department of interest, it allows to assess the current status of the service and what are the possible changes in layout and its implications, as well as when they should be made.

5
  • ANISSA SASSE CARDOSO
  • Sistemática para Avaliação de Cursos de Graduação: Perspectiva dos Discentes

  • Orientador : CARLOS EDUARDO SANCHES DA SILVA
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO SANCHES DA SILVA
  • JULIANA HELENA DAROZ GAUDENCIO
  • MILTON VIEIRA JÚNIOR
  • VICTOR EDUARDO DE MELLO VALERIO
  • Data: 22/02/2021

  • Mostrar Resumo
  • Sistemas de medição de desempenho permitem aos gestores identificar pontos de melhoria para garantia da vantagem competitiva das organizações. O ENADE (Exame Nacional de Desempenho de Estudantes), compõe uma das formas legais de avaliação de Instituições de Ensino Superior brasileiras. Esta avaliação, realizada trienalmente, mensura a percepção dos alunos concluintes em relação ao curso durante o período da graduação. Muitas vezes os alunos só têm contato com as questões que avaliam sua percepção do curso quando realizam o ENADE. Avaliar em intervalos menores de tempo a percepção dos alunos em relação ao curso de graduação pode potencializar ações de aperfeiçoamento. O objetivo deste trabalho é adequar as questões do Questionário do Estudante, que compõe o ENADE, de forma sistemática, permitindo a autoavaliação de cursos de graduação. Seu objeto de estudo foi o atual sistema de avaliação de desempenho do curso de Engenharia de Produção - UNIFEI, campus Itajubá-MG, onde foram realizados dois ciclos de pesquisa-ação. A sistemática proposta possui como etapas: Planejar a aplicação do questionário; Tabular dados e gerar o relatório; Analisar o relatório; Propor e acompanhar as ações propostas; e avaliar os resultados. Para isso, a escala e classificação do Net Promoter Score foi utilizada na aplicação do questionário atual de avaliação, direcionado aos discentes, concluintes e não concluintes. Após tabulação dos dados coletados, uma análise de cluster foi realizada com a finalidade de identificar possíveis agrupamentos de questões. Após análise crítica de cada agrupamento proposto e validação com especialistas, foi possível reduzir o questionário designado aos alunos concluintes de 42 para 37 questões e o designado para os alunos não concluintes de 42 para 34 questões, ou seja, uma redução de aproximadamente 12% e 19%, respectivamente. Foram implementadas ações para aumentar a taxa de respostas que foi de 22,16% no primeiro ciclo para 29,61% no segundo. Os resultados identificaram que a maior parte das ações de melhoria são de autonomia dos docentes, cabendo aos níveis hierárquicos superiores poucas ações. Nos dois ciclos, apesar do segundo ter sido impactado pela pandemia, o curso obteve um NPS de 73% e 61,4% respectivamente, sendo classificado como um serviço de qualidade na percepção dos alunos.


  • Mostrar Abstract
  • Performance measurement systems allow managers to identify points for improvement to
    ensure organizations' competitive advantage. The ENADE (National Student Performance
    Exam) is one of the legal forms of evaluation of Brazilian Higher Education Institutions.
    This evaluation, carried out every three years, measures the perception of graduating
    students in relation to the course during the period of graduation. Often students only have
    contact with the questions that assess their perception of the course when they take ENADE. Evaluating students' perceptions of the undergraduate course in shorter intervals can enhance improvement actions. The objective of this work is to adapt the questions of the Student Questionnaire, which composes ENADE, in a systematic way, allowing the self-assessment of undergraduate courses. Its object of study was the current performance evaluation system of the Production Engineering course - UNIFEI, campus Itajubá-MG, where two cycles of action research were carried out. The proposed systematic has the following steps: Plan the application of the questionnaire; Tabulate data and generate the report; Analyze the report; Propose and monitor the proposed actions; and evaluate the results. For this, the Net Promoter Score scale and classification was used in the application of the current assessment questionnaire, aimed at students, graduates and non-graduates. After tabulation of the collected data, a cluster analysis was carried out in order to identify possible groupings of questions. After a critical analysis of each proposed grouping and validation with specialists, it was possible to reduce the questionnaire assigned to concluding students from 42 to 37 questions and the one designated for non-concluding students from 42 to 34 questions, that is, a reduction of approximately 12% and 19%, respectively. Actions were implemented to increase the response rate, which went from 22.16% in the first cycle to 29.61% in the second. The results identified that most of the improvement actions are autonomous for teachers, with few higher actions falling to higher hierarchical levels. In both cycles, despite the second being impacted by the pandemic, the course obtained an NPS of 73% and 61.4% respectively, being classified as a quality service in the students' perception.

6
  • THALITA RAMIRES DA SILVA
  • AVALIAÇÃO DE UM ALGOTRADING BASEADO EM DEEP LEARNING PARA O MERCADO DE CAPITAIS UTILIZANDO GERENCIAMENTO DE RISCO.

  • Orientador : EDSON DE OLIVEIRA PAMPLONA
  • MEMBROS DA BANCA :
  • CARLOS EDUARDO SANCHES DA SILVA
  • EDSON DE OLIVEIRA PAMPLONA
  • RODOLFO CARNEIRO CAVALCANTE
  • Data: 26/02/2021

  • Mostrar Resumo
  • Previsões de séries temporais financeiras são um desafio devido a sua não linearidade e natureza caótica. Nas últimas décadas, muitos pesquisadores e investidores estudaram métodos para melhorar as análises quantitativas. No campo da inteligência artificial, técnicas sofisticadas de aprendizado de máquina, como a aprendizagem profunda, apresentaram melhor performance. Nesta dissertação, um sistema de negociação automatizado, um algotrading, para prever as tendências futuras dos preços do índice de ações Ibovespa é apresentado e avaliado. Usando um agente baseado em LSTM (Long Short-Term
    Memory) para aprender padrões temporais dos dados, o algoritmo dispara negociações automáticas de acordo com os dados históricos, indicadores de análise técnica e gerenciamento de risco. Inicialmente, foram desenvolvidas cinco estratégias distintas utilizando o algoritmo LSTM como base, em seguida, foi selecionado o modelo que reportou a melhor performance. Durante os testes experimentais, foi possível demonstrar que a utilização de Trading Strategy e gerenciamento de risco ajudaram a minimizar perdas e reduzir custos operacionais, que possuem influência direta na rentabilidade. Posteriormente, o modelo que obteve melhor resultado, o LSTM-RMODV, foi submetido à diversas melhorias. Entre elas, a implementação das técnicas de Break-even e Trailing Stop e uma série de otimizações do trading strategy. Com isto, foi possível obter um conjunto de parâmetros que trouxe melhores resultados ao ATS (Automated Trading System), dando origem ao novo modelo denominado Algo-LSTM. Em última etapa, a avaliação do slippage permitiu inferir que a longo prazo o impacto do slippage em condições razoáveis de mercado não é significante para o resultado final. Por fim, os resultados demonstraram que o método proposto, o Algo-LSTM, apresenta melhor desempenho quando comparado a outros métodos, incluindo a técnica buy-and-hold. O método proposto também funciona em condições de bear ou bull market, apresentando uma taxa sobre a rentabilidade líquida com base no capital investido de 208,23% em 2019 e 112,81% em 2015. Ou seja, apesar da baixa acurácia, o algoritmo é capaz de gerar retornos consistentes quando considerados todos os custos de transação e imposto de renda devido.


  • Mostrar Abstract
  • Financial time series predictions are a challenge due to their nonlinear and chaotic nature. In recent decades, many researchers and investors have studied methods to improve quantitative analysis. In the field of artificial intelligence, sophisticated machine learning techniques, such as deep learning showed better performance. In this work, an automated trading system, an algotrading, to predict future trends of stock index prices Ibovespa is showed and evaluated. Using an LSTM-based (Long Short-Term
    Memory) agent to learn temporal patterns in the data, the algorithm triggers automatic trades according to the historical data, technical analysis indicators, and risk management. Initially, five different strategies were developed using the LSTM algorithm as a basis, then the model that reported the best performance was selected. During the experimental tests, it was possible to prove that the use of trading strategy and risk management techniques helped to minimize losses and reduce operating costs, which have a direct influence on profitability. Subsequently, the model that obtained the best result, the LSTM-RMODV, underwent several improvements. Among them, the implementation of the Break-even and Trailing Stop techniques, and a series of optimizations for the trading strategy. Then, it was possible to obtain a set of parameters that brought better results to the ATS (Automated Trading System), giving rise to the new model called Algo-LSTM. In the last step, the evaluation of slippage alow to infer that in the long-term the impact of slippage under reasonable market conditions is not significant for the final result. Finally, the results demonstrated that the proposed method, Algo-LSTM, shows better performance when compared with other methods, including the buy-and-hold technique. The proposed method also works in bear or bull market conditions, showing a rate over net income based on invested capital of 208.23% in 2019 and 112,81% in 2015. That is, despite the low accuracy, the algorithm is capable of generating consistent profits when all the transaction costs and the income tax over net revenue are considered.

7
  • BRENO SILVA RODRIGUES
  • Proposição de melhorias em serviços destinados à implementação da filosofia Lean no agronegócio

  • Orientador : EDSON DE OLIVEIRA PAMPLONA
  • MEMBROS DA BANCA :
  • ANDREI BONAMIGO
  • EDSON DE OLIVEIRA PAMPLONA
  • FABIANO LEAL
  • PAULO FERNANDO MACHADO
  • Data: 03/03/2021

  • Mostrar Resumo
  • A importância do agronegócio para a economia brasileira traz a necessidade da implementação de técnicas de gestão de processos e de pessoas, de modo a manter as suas lucratividade e competitividade mesmo em um cenário com significativa alta dos custos produtivos. Nesse contexto, a adoção da filosofia Lean pode levar à agricultura e à pecuária os mesmos benefícios experimentados em outros setores da economia, como indústria, conhecido como Lean Manufacturing, e serviços, onde se aplica o Lean Office. Apesar deste potencial, a quantidade de publicações neste campo é ainda pequena, quando comparada com artigos relacionados às outras aplicações anteriormente citadas. Outra barreira encontrada neste campo é a resistência dos proprietários rurais em implementar uma jornada enxuta, pois não se sabe se modelos de gestão baseados no Sistema Toyota de Produção, como o proposto pela Escola de Gestão Agro+Lean®, atendem às necessidades de produtores em diferentes níveis de maturidade gerencial, ou se são aplicáveis em um ambiente mais rústico, como o de uma fazenda, de forma que garanta o suporte necessário para solucionar seus principais problemas operacionais. Neste sentido, esta pesquisa tem o objetivo de propor melhorias ao modelo de implementação das técnicas enxutas em fazendas leiteiras proposto pela Escola de Gestão Agro+Lean®, que é referência nacional na implementação da filosofia enxuta no agronegócio. Para tanto, foi realizado um estudo de caso em uma fazenda onde o modelo está implementado, verificando as oportunidades de melhoria do mesmo e foram coletadas informações sobre os cursos oferecidos pela Escola, para se substanciar as proposições realizadas por este trabalho. Através da análise de dados colhidos em entrevistas, documentos, observações, análise de layout do local de trabalho e conversas informais, foi possível realizar o cruzamento entre evidências e delas com a literatura, além de se aplicar a correlação de Pearson e analisar a confiabilidade de questionários através do Alfa de Cronbach. Tal estudo permitiu a realização de sete propostas concretas de melhoria no processo de implementação do modelo e na percepção dos problemas enfrentados pelos alunos da Escola de Gestão Agro+Lean®, permitindo melhor endereçamento dos conteúdos ensinados.


  • Mostrar Abstract
  • The importance of agribusiness for the Brazilian economy brings the need to implement techniques for managing processes and people that allow maintaining profitability and competitiveness, even in a scenario with a significant increase in production costs. In this context, the adoption of Lean philosophy can take to agriculture and livestock the same benefits experienced in other economic sectors, such as industry, known as Lean Manufacturing, and services, where Lean Office is applied. Despite this potential, there are few publications related to this subject, when compared to articles related to the other previously mentioned applications. Another barrier found is the resistance of rural landowners to start a lean journey, as it is not known if some management models, such as the one proposed by the Agro + Lean® Management School, meet the needs of producers in different levels of managerial maturity, or if they are applicable in a more rustic environment, such as a farm. In this sense, this research aims to propose improvements to the dairy farm management model proposed by the Agro + Lean® School of Management, which is the benchmark in Brazil for implementation of lean philosophy in the agribusiness. In order to achieve such objective, a case study was carried out on a farm where the model is implemented and information was collected on the courses offered by the School, in order to substantiate the proposals made by this work. Through the analysis of data collected in interviews, documents, observations, workplace layout analysis and informal conversations, it was possible to cross evidences and among themselves and with theoretical references, in addition to applying Pearson's correlation and analyzing the reliability of questionnaires by calculating their Cronbach's Alpha. This study allowed the author to make seven concrete proposals for improvement in the process of implementing the model and in the perception of the problems faced by the students of the School of Management Agro + Lean®, allowing better addressing of the contents taught.

8
  • JOSÉ EUCLIDES FERNANDES GIGLIO
  • DELINEAMENTO DE EXPERIMENTOS NO TREINAMENTO DE REDES NEURAIS ARTIFICIAIS PARA O PROBLEMA DE PREVISÃO DE SÉRIES TEMPORAIS NÃO LINEARES

  • Orientador : PEDRO PAULO BALESTRASSI
  • MEMBROS DA BANCA :
  • JULIANA HELENA DAROZ GAUDENCIO
  • PEDRO PAULO BALESTRASSI
  • WESLEY VIEIRA DA SILVA
  • Data: 29/07/2021

  • Mostrar Resumo
  • Uma série temporal é definida como uma coleção de observações de uma variável ao longo do tempo, cuja ordem dos dados é de fundamental importância devido a dependência entre estes valores consecutivos. A análise destes dados, e o entendimento desta correlação, é um importante instrumento no entendimento de fenômenos em diversas ciências, como Economia, Engenharias e Gestão de Operações, onde preços, demandas e valores são estas variáveis. A modelagem desta sequência de dados proporciona a sua utilização no objetivo de, com base nos dados históricos, realizar previsões para períodos futuros. Esta relação consecutiva pode ser considerada complexa e, não incomum, não lineares. O uso de Redes Neurais Artificiais tem se provado cada vez mais eficaz em estabelecer reconhecimento de padrões, modelagem e a previsão de valores futuros. Os programas estatísticos disponíveis no mercado disponibilizam ferramentas de uso amigável e de resultados demonstrados em diversos científicos disponíveis em publicações, porém o número de fatores e níveis que são disponibilizados para utilização durante o treinamento das Redes Neurais Artificiais, o que pode nos apontar a necessidade de centenas de anos para executarmos todas as combinações possíveis. Neste estudo a metodologia estatística de Delineamento de Experimentos (Design of Experiments - DOE) é aplicada com o propósito de determinar os melhores parâmetros de uma Rede Neural Artificial para a previsão de séries temporais não lineares e, assim, reduzir significativamente o tempo necessário para se apontar a escolha da melhor Rede Neural Artificial capaz de resolver nosso problema de previsão. Ao invés de utilizarmos a técnica mais comum de treinamento de uma Rede Neural Artificial, ou seja, o método empírico, o DOE é proposto para ser a melhor metodologia. A principal motivação para esta dissertação foi a previsão de séries temporais sazonais não lineares - que está relacionada com muitos problemas reais, tais como carga elétrica de curto prazo, preços diários e retornos, consumo de água, etc. Um estudo de caso é apresentado. O objetivo foi cumprido quando se comprovou atingir resultados de erros, entre previsão e valor real, menores para a Rede Neural Artificial do que o erro alcançado com o modelo.


  • Mostrar Abstract
  • A time series is defined as a collection of observations of a variable over time, whose data order has a fundamental importance due to the dependence between these consecutive values. The analysis of these data, and the understanding of this correlation, is an important tool in understanding phenomena in various sciences, such as Economics, Engineering and Operations Management, where prices, demands and values are these variables. The modeling of this data sequence provides its use in order to, based on historical data, make predictions for future periods. This consecutive relationship can be considered complex and, not uncommonly, non-linear. The use of Artificial Neural Networks has proven increasingly effective in establishing pattern recognition, modeling and predicting future values. The statistical programs available on the market provide user-friendly tools and results demonstrated in several scientific available in publications, but the number of factors and levels that are available for use during the training of Artificial Neural Networks, which may indicate the need for hundreds of years to execute every possible combination. In this study, the statistical methodology of Design of Experiments (DOE) is applied in order to determine the best parameters of an Artificial Neural Network for the prediction of non-linear time series and, thus, significantly reduce the time needed to point out the choice of the best Artificial Neural Network capable of solving our prediction problem. Instead of using the most common technique for training an Artificial Neural Network, that is, the empirical method, DOE is proposed to be the best methodology. The main motivation for this dissertation was the prediction of non-linear seasonal time series - which is related to many real problems, such as short-term electrical load, daily prices and returns, water consumption, etc. A case study is presented. The objective was fulfilled when it was proved to reach error results, between prediction and real value, smaller for the Artificial Neural Network than the error reached with the model.

9
  • LAERCIO ALMEIDA DE SIQUEIRA JUNIOR
  • Uso de Machine Learning para Classificação de Fornecedores no Contexto da Data Science

  • Orientador : ALEXANDRE FERREIRA DE PINHO
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • JORGE MUNIZ JUNIOR
  • RAFAEL DE CARVALHO MIRANDA
  • Data: 03/09/2021

  • Mostrar Resumo
  • A tomada de decisão por grupos, públicos ou privados, é indispensável para o desenvolvimento das organizações e encontrar mecanismos que apoiem os gestores de forma mais assertiva é fundamental para essa finalidade. Saber utilizar dados brutos transformando-os em conhecimento permite que essas decisões sejam baseadas em dados além de puramente em intuição. Dentre as decisões importantes tomadas por qualquer organização, a classificação e seleção de fornecedores é uma prática importante para a engenharia de produção e a Data Science é um campo ascendente que estuda dados e como realizar essa transformação de dados brutos em conhecimento. Para essa pesquisa foram utilizados dados reais dos fornecedores de uma empresa do setor aeronáutico em suas análises. Então, esta pesquisa atuou entre Data Science e Classificação e Seleção de fornecedores e teve seu foco no problema conhecido como clusterização (ou agrupamento) que é a segmentação de dados em regiões o mais homogêneas possíveis quando não se apresentam categorias prévias e busca-se resolver este problema auxiliando no gerenciamento dos fornecedores. Isso acontece na prática utilizando-se de ferramentas de Data Science conhecidas como Machine Learning que consistem em algoritmos que podem ser utilizados na segmentação de grupos sem nenhuma classificação inicial. Para o desenvolvimento utilizou-se o procedimento CRISP-DM que permite solucionar problemas de análises de dado ajudando a estruturar o pensamento científico. Desta forma, por meio do auxílio desse procedimento, esta dissertação teve como objetivo geral utilizar a técnica de Machine Learning para auxiliar na classificação e seleção de fornecedores dessa organização. Tendo dois objetivos específicos, o primeiro consistindo na demonstração do funcionamento e comportamento dos algoritmos clássicos de clusterização na base de dados real das técnicas clássicas. E o segundo objetivo específico consistiu em analisar esses algoritmos de clusterização em busca do mais apropriado para a base de fornecedores em estudo culminando com a criação e sugestão de um framework que pode ser utilizado para análises futuras de clusterização. As modelagens das clusterizações foram realizadas e por meio de validação interna e de estabilidade a eficiência delas foi testada permitindo que os dados fossem separados em clusters. A utilização do CRISP-DM permitiu que o framework para clusterização fosse proposto.


  • Mostrar Abstract
  • Decision-making for groups, public or private, is indispensable to the development of organizations, and searching for mechanisms to support the managers more assertively is fundamental to this goal. Know how to use raw data transforming them into knowledge allows these decisions to be based on data besides purely on intuition. Between the important decisions taken by any organization, the classification and selection of suppliers are an important practice to industrial engineering and Data Science is an ascendant field that studies data and how to realize this transformation of raw data into knowledge. To this research were used real data from suppliers of an enterprise of the aeronautical sector in its analyses. So, this research acted between Data Science and Classification and Selection of suppliers and had the focus on a problem known as clusterization that is the segmentation of data in regions as homogeneous as possible when there´s no existence of previous categories and aim to solve this problem supporting in the supplier´s management. This happens in practice using Data Science tools known as Machine Learning that are algorithms that can be used in the segmentation of groups without an initial classification. To the development has been used the procedure CRISP-DM that allows elucidate analyses´ problems helping to structure the scientific thinking. That way, by using this procedure, this dissertation had its general objetive in the use of the technique of Machine Learning to help in the classification and selection of suppliers of that organization. Having two specific objectives, the first one consisted of an analysis of those algorithms in the demonstration of the operation and behavior of the classic algorithms of clusterization of the real database. The second one consisted in analyzing those clusterization algorithms in search of the most appropriate to the supplier´s base culminating with the creation and suggestion of a framework that can be used for future clustering analises. The clustering modelings were realized and through internal and stability validations had their efficiency tested allowing the data to be split into clusters. The use of CRISP-DM allowed that the clustering framework was proposed.

10
  • ARTHUR AURÉLIO DE ALMEIDA FREITAS
  • Análise e Otimização Multiobjetivo do Processo Industrial de Fritura de Batatas-Palha

  • Orientador : JOSE HENRIQUE DE FREITAS GOMES
  • MEMBROS DA BANCA :
  • FLAVIO SOARES SILVA
  • MARCELO MACHADO FERNANDES
  • PEDRO PAULO BALESTRASSI
  • Data: 04/11/2021

  • Mostrar Resumo
  • A batata frita é um dos snack foods mais consumidos em todo o mundo. O tamanho do mercado global de batatas chips atingiu um valor de 31,2 bilhões de dólares em 2020, sendo considerado um dos alimentos mais importantes na indústria mundial de petiscos. O principal problema que acompanha o processo de fabricação desse produto é o alto teor de lipídios presente no produto final, que pode causar aumento dos níveis de pressão arterial e colesterol no sangue. Nesse contexto, o presente trabalho teve como objetivo a otimização do processo de fritura de batatas-palha por imersão em óleo. Assim, pretendeu-se identificar a combinação ótima dos parâmetros deste processo, proporcionando melhores resultados para as características do produto, sendo elas, o teor de umidade, teor de lipídios e coloração. Nesse contexto, pretendeu-se também minimizar o tempo de ciclo do processo. Os parâmetros do processo analisados foram: temperatura de operação, duração do processo de fritura e duração do escoamento do óleo após a fritura. Foram utilizadas batatas da espécie Solanum tuberosum (batata-inglesa) da variedade Asterix, em conjunto com óleo vegetal de palma. Para realizar o planejamento dos experimentos, coleta dos dados e análise dos experimentos foi utilizada a Metodologia da Superfície de Resposta. A otimização do modelo foi realizada utilizando o método do Erro Quadrático Médio Multivariado. Ao fim do trabalho, foi possível obter os valores ótimos das variáveis analisadas de 171,38 °C para temperatura de operação, 4,13 min para duração do processo de fritura e 32,27 s para duração do escoamento do óleo. Os valores ótimos obtidos para as respostas foram de 3,00% para teor de umidade, 29,57% para teor de lipídios, 1,75 para diferença total de cor e 280,05 s para o tempo de ciclo.


  • Mostrar Abstract
  • Fried potatoes are one of the most consumed snacks in the world. The size of the global potato chip market reached a value of 31.2 billion dollars in 2020, being considered one of the most important foods in the world snack industry. The main problem that accompanies the manufacturing process of this product is the high content of lipids in the finished product, which can cause an increase in blood pressure and cholesterol levels. In this context, this study aimed to optimize the frying process of shoestring potatoes using deep-fat frying process. Thus, it was intended the identification of the optimal combination of the process parameters, providing better results for the characteristics of the product, namely, moisture content, fat content and color. Also, it was intended the optimization of the process productivity by reducing cycle time. The parameters analyzed were temperature, duration of deep-fat frying process and duration of the oil drainage period after frying. Potatoes of the species Solanum tuberosum from Asterix variety and palm oil were used. The Response Surface Methodology was used in order to carry out the planning, data collection and analysis of the experiments. The model optimization was performed using the Multivariate Mean Square Error. At the end of this study, it was possible to obtain the optimized values of the analyzed inputs, which were 171.38 °C for temperature, 4.13 min for process duration and 32.27 s for oil drainage duration. The responses optimized values were 3.00% for moisture content, 29.57% for fat content, 1.75 for total color difference and 280.05 for cycle time.

11
  • BRUNO DE CASTRO FARIA
  • Localização De Delivery Lockers Para Logística Urbana Em Uma Cidade Brasileira De Porte Médio: O Caso De Divinópolis, Minas Gerais

  • Orientador : RENATO DA SILVA LIMA
  • MEMBROS DA BANCA :
  • RENATO DA SILVA LIMA
  • ALEXANDRE FERREIRA DE PINHO
  • RENATA LUCIA MAGALHAES DE OLIVEIRA
  • Data: 09/12/2021

  • Mostrar Resumo
  • Com o avanço das tecnologias e a difusão da internet no mundo, houve uma forte expansão das negociações realizadas por meio do comércio eletrônico em todos os âmbitos. Consequentemente, surge um crescimento no fluxo das operações logísticas que são responsáveis pela entrega de produtos adquiridos por este meio, fazendo com que apareçam problemas relacionados ao transporte dessas mercadorias. Dentre os problemas de transporte acarretados na última etapa da cadeia de distribuição, conhecida como última milha, ou last mile, pode-se destacar: falha na entrega de produtos, viagens excessivas, alto custo de operação, mal dimensionamento dos recursos de transporte, etc. Logo, pesquisas na área avaliam possibilidades que amenizem estas dificuldades na distribuição de cargas para que as operações logísticas sejam mais eficientes e ofereçam um bom nível de serviço a seus usuários. Uma alternativa que vem sendo utilizada em diferentes regiões do mundo para este fim são os pontos de coleta e entrega, que são estações onde os clientes retiram seus produtos adquiridos pela internet por conta própria. Os pontos de coleta e entrega (PCE’s) podem ser automatizados, conhecidos como Delivery Lockers (DL), ou não. A literatura indica que uma das dificuldades encontradas para instalação de DL’s é saber definir qual a localização que melhor irá anteder aos consumidores de cada região específica. Portanto, o presente trabalho teve como objetivo propor localizações adequadas para instalação de DL’s em uma cidade mineira de porte médio, bem como analisar quais são os fatores de maior influência para a utilização destes dispositivos de acordo com a opinião do consumidor local. Foram observados que o horário de funcionamento, distância de regiões centrais e a segurança destas operações são os principais fatores apontados pelos consumidores. Um modelo matemático multicritério baseado no método AHP foi desenvolvido para auxiliar na escolha dos estabelecimentos que melhor atenderiam aos critérios avaliados. Concluiu-se que diversos cenários podem satisfazer o problema, entretanto aqueles que apresentaram alternativas que são localizadas em regiões centrais ou em pequenos centros comerciais foram preferidas pelo modelo. Os estabelecimentos que funcionam fora dos horários convencionais, como supermercados e hipermercados foram destaques positivos nos cenários analisados, diferente das agências bancárias, que não apresentaram bons resultados devido suas limitações de espaço e horários. Por fim, nota-se que a utilização de DL’s também é válida para cidades de porte médio, entretanto, para que isto funcione de maneira eficaz, é ideal que os usuários do e-commerce tenham conhecimento dos benefícios que esta prática pode trazer, tanto em termos financeiros, quanto operacionais.


  • Mostrar Abstract
  • With the advancement of technologies and the spread of the internet around the world, there was a strong expansion of negotiations carried out through electronic commerce in all areas. Consequently, there is a growth in the flow of logistical operations that are responsible for the delivery of products acquired through this means, causing problems related to the transport of these goods to appear. Among the transport problems caused in the last stage of the distribution chain, known as the last mile, or last mile, we can highlight: failure to deliver products, excessive travel, high operating costs, poorly sized transport resources, etc. . Therefore, research in the area evaluates possibilities to alleviate these difficulties in cargo distribution so that logistical operations are more efficient and offer a good level of service to its users. An alternative that has been used in different regions of the world for this purpose are collection and delivery points, which are stations where customers pick up their products purchased over the internet on their own. Collection and delivery points (PCE's) can be automated, known as Delivery Lockers (DL), or not. The literature indicates that one of the difficulties encountered in installing DL's is knowing how to define which location will best serve consumers in each specific region. Therefore, this study aimed to propose suitable locations for the installation of DL's in a medium-sized city in Minas Gerais, as well as to analyze which are the most influential factors for the use of these devices according to the opinion of the local consumer. It was observed that the opening hours, distance from central regions and the safety of these operations are the main factors mentioned by consumers. A multicriteria mathematical model based on the AHP method was developed to help choose the establishments that would best meet the evaluated criteria. It was concluded that several scenarios can satisfy the problem, however those that presented alternatives that are located in central regions or in small commercial centers were preferred by the model. Establishments that work outside conventional hours, such as supermarkets and hypermarkets, were positive highlights in the analyzed scenarios, unlike bank branches, which did not show good results due to their limited space and hours. Finally, it is noted that the use of DL's is also valid for medium-sized cities, however, for this to work effectively, it is ideal that e-commerce users are aware of the benefits that this practice can bring, both in financial and operational terms.

12
  • Fernando Helton Sanches da Silva
  • ANÁLISE DAS DIFICULDADES ENCONTRADAS DURANTE A IMPLEMENTAÇÃO DA ENGENHARIA KANSEI

  • Orientador : CARLOS HENRIQUE PEREIRA MELLO
  • MEMBROS DA BANCA :
  • CARLOS HENRIQUE PEREIRA MELLO
  • JULIANA HELENA DAROZ GAUDENCIO
  • RICARDO COSER MERGULHAO
  • Data: 17/12/2021

  • Mostrar Resumo
  • A Engenharia Kansei é uma metodologia de desenvolvimento de produtos introduzida pelo
    professor Mitsuo Nagamachi no Japão, em 1970, que busca traduzir o Kansei (impressões,
    sentimento e demandas emocionais) dos usuários, permitindo o desenvolvimento de novos produtos e satisfazendo às necessidades dos consumidores. Nesse contexto, esta dissertação apresenta os resultados de uma pesquisa de natureza aplicada, utilizando a abordagem quantitativa, com o objetivo de identificar quais são as dificuldades encontradas durante o processo de implementação desta metodologia, avaliar o grau destas dificuldades e como elas se relacionam. A contribuição da pesquisa se dá no tocante à melhoria de performance, melhoria do design do produto, menor desperdício, aumento da qualidade e sucesso de produtos Kansei, além de proporcionar à comunidade acadêmica e aos profissionais da área o conhecimento a respeito das principais dificuldades que possam ocorrer durante a implementação da metodologia. Para alcançar o objetivo proposto, após uma revisão sistemática da literatura abordando o Processo de Desenvolvimento de Produtos e seus Fatores Críticos de Sucesso (FCS), além da metodologia Engenharia Kansei e suas etapas genéricas, foram identificados os autores principais de artigos acerca do tema Engenharia Kansei nas plataformas Web of Science e Scopus, localizadas no portal de periódicos da CAPES. Posteriormente, através de uma survey, foi questionado a autores o grau de dificuldade encontrado para aplicação de cada etapa da metodologia e com relação aos FCS. Primeiramente a amostra dos respondentes foi analisada quanto à presença de outliers usando o método multivariado de distância de Mahalanobis, retornando a exlusão de cinco respondentes. Nagamachi, criador da Engenharia Kansei e um segundo respondente experiente da Engenharia Kansei afirmam que a implementação da metodologia não apresenta dificuldades, porém através da análise de concordância (Coeficiente de Kappa) com os demais respondentes da amostra verificou que estes não concordam com os dois autores, indicando que há dificuldade em etapas específicas do processo de implementação da metodologia. Investigando um grupo que realizou a implementação dentro do ambiente empresarial com um segundo que realizou fora, por meio do teste de Mann-Whitney, foi observado que não houve diferença estatisticamente siginificativa que mostrasse a diferença dos dois grupos com relação à dificuldade de implementação da metodologia. Finalmente, através da Análise Fatorial Exploratória (AFE), das 28 variáveis iniciais foi possível a redução em 15 variáveis (8 Variáveis Externas e 7 Variáveis Metodológicas). Composto por três fatores, as Variáveis Externas formaram: “Liderança e Estrutura”, “Equipe de Desenvolvimento” e “Importância do Produto”. Para as Variáveis Metodológicas formaram-se dois grupos, denominados “Avaliar e Criar” e “Planejar e Validar”. Desta forma, pode-se concluir que os fatores formados mostram de forma mais adequada às dificuldades de implementação da metodologia percebida pelos respondentes, permitindo diagnosticar com mais precisão estas dificuldades antes de iniciar o projeto de desenvolvimento do produto
    Kansei.


  • Mostrar Abstract
  • Kansei Engineering is a product development methodology introduced by professor Mitsuo
    Nagamachi in Japan, in 1970, which seeks to translate the Kansei (impressions, feelings and emotional demands) of users, allowing the development of new products and satisfying
    consumer needs. In this context, this paper presents the results of an applied research, using a quantitative approach, with the objective of identifying what are the difficulties encountered during the process of implementing this methodology, evaluating the degree of these difficulties and how they relate to each other. The contribution of the research is given in terms of improved performance, improved product design, less waste, increased quality and success of Kansei products, in addition to providing the academic community and
    professionals in the field with knowledge about the main difficulties that may occur during
    the implementation of the methodology. To achieve the proposed objective, after a systematic literature review addressing the Product Development Process and its Critical Success Factors (FCS), also on the Kansei Engineering methodology and its generic steps, the main authors of articles on the subject were identified on the Web of Science and Scopus platforms, located on the CAPES journal portal. Subsequently, through a survey, the authors were asked about the degree of difficulty encountered in applying each step of the methodology and in relation to the FCS. First, the sample of respondents was analyzed for the presence of outliers using the Mahalanobis multivariate distance method, returning the exclusion of five respondents. Nagamachi, creator of Kansei Engineering and a second experienced respondent from Kansei Engineering state that the implementation of the methodology does not present difficulties, but through the analysis of agreement (Kappa coefficient) with the other respondents in the sample, it was found that they do not agree with the two authors, indicating that there are difficulties in specific stages of the methodology implementation process. Investigating a group that performed the implementation inside the business environment with a second that performed it outside, through the Mann-Whitney test, it was observed that there was no statistically significant difference that showed the difference between the two groups regarding the difficulty of implementing the methodology. . Finally, through Exploratory Factor Analysis (EFA), of the 28 initial variables, it was possible to reduce 15 variables (8 External Variables and 7 Methodological Variables). Composed of three factors, the External Variables formed: “Leadership and Structure”, “Development Team” and “Importance of the Product”. For the Methodological Variables, two groups were formed, called “Evaluate and
    Create” and “Plan and Validate”. Thus, it can be concluded that the factors formed show more adequately the difficulties of implementing the methodology perceived by the respondents, allowing a more accurate diagnosis of these difficulties before starting the Kansei product development project.

Teses
1
  • LEOVANI MARCIAL GUIMARÃES
  • Modelo preditivo de Aprendizagem Ativa em Engenharia baseado na Modelagem de Equações Estruturais com Mínimos Quadrados Parciais (PLS-SEM)

  • Orientador : RENATO DA SILVA LIMA
  • MEMBROS DA BANCA :
  • RENATO DA SILVA LIMA
  • FABIANO LEAL
  • PEDRO PAULO BALESTRASSI
  • RUI MANUEL DE SÁ PEREIRA DE LIMA
  • CARLOS NAZARETH MOTTA MARINS
  • Data: 22/04/2021

  • Mostrar Resumo
  • As Diretrizes Curriculares Nacionais (DCN) dos Cursos de Graduação em Engenharia de 2019 apresentaram novas demandas pedagógicas, sendo uma delas a aplicação de Aprendizagem Ativa (AA). A pesquisa científica sobre AA aplicada aos cursos de Engenharia tem crescido de forma relevante nos últimos anos e seus resultados tem revelado desafios e oportunidades para novos estudos. Instrumentos de observação em sala de aula projetados para os ambientes de AA surgiram e têm apoiado pesquisas para avaliação dos comportamentos e atitudes que caracterizam tais ambientes. Entretanto, observou-se a falta de previsibilidade para as Instituições de Ensino Superior (IES) de Engenharia quanto aos ganhos de aprendizagem ao aplicar as técnicas ativas dentro de um processo desafiador de mudança de práticas de ensino. Neste contexto, o objetivo desta tese foi propor um modelo matemático preditivo que demonstrasse a relação entre a aprendizagem dos alunos (medido pelas suas notas) e a aplicação ou não das técnicas de AA em sala de aula (medido pelo nível de atividade capturado por um protocolo de observação). Para atingir esse objetivo, uma rígida sistemática metodológica foi estabelecida, utilizando-se de pesquisa experimental controlada em uma IES de Engenharia ao longo de três anos, em duas dimensões de análise. A primeira, intraclasse, utilizou um projeto de amostras pareadas para gerar as bases de observações e graus de desempenho e demonstrar a provável relação causa-efeito em dois níveis de um fator, além de permitir a avaliação qualitativa da abordagem de AA de cada disciplina. A segunda, interclasse, envolveu amostras independentes de turmas em semestres subsequentes e utilizou a Modelagem de Equações Estruturais por Mínimos Quadrados Parciais - PLS-SEM para testar e identificar o melhor modelo preditivo para a aprendizagem em função da aplicação da AA. Os resultados intraclasse demonstraram uma relação positiva de causa-efeito, onde o desempenho acadêmico médio global foi 14% melhor na avaliação pós AA, comparado com a primeira, sem a aplicação de técnicas de AA, representando 40% do desvio padrão das notas. Além disto, a análise individual do desempenho em cada uma das disciplinas revelou as estratégias de maior e menor sucesso e permitiu recomendar aquelas estratégias mais viáveis de AA para grupos específicos de disciplinas. Na dimensão interclasse, a melhoria foi de 10% e o modelo preditivo PLS-SEM foi validado positivamente por diversos índices de desempenho, demonstrando uma relação positiva significativa e não linear entre os constructos latentes, com capacidade entre moderada e alta de predição de alvos de aprendizagem (Q^2 > 0,344), a partir dos níveis de AA. Na demonstração da relevância preditiva, a curva ajustada da relação permitiu, a partir de um escore médio entre 0 e 35,97 no nível de aderência AA (NAA) prever um escore médio de Aprendizagem (AP) entre 45,89 e 74,90, na escala de graus de desempenho. Os coeficientes β foram positivos e significativos, com valores p < 0,01. A sistemática metodológica e os resultados obtidos pretendem ser as principais contribuições desta pesquisa para a literatura e para a discussão latente da eficácia de métodos ativos de aprendizagem na Educação em Engenharia.


  • Mostrar Abstract
  • The Brazilian National Curriculum Guidelines (DCN) of the Undergraduate Engineering Courses of 2019 presented new pedagogical demands, one of them being the application of Active Learning (AL). Scientific studies on AL applied to Engineering courses has grown significantly in recent years and its results uncovered challenges and opportunities for future research. Classroom observation instruments designed for AL environments have emerged and have supported research to objectively assess the behaviors and attitudes that characterize such environments. However, there was a lack of predictability for Engineering Higher Education Institutions (EHEIs) regarding learning gains when applying AL techniques within a challenging process of changing teaching practices. In this context, the objective of this thesis was to propose a predictive mathematical model that demonstrates the relationship between the students' degree of learning and the application or not of AL techniques in the classroom (measured by the level of activity captured by an observation protocol). To achieve this objective, a strict and systematic methodological process was established, using controlled experimental research in an EHEI over three years, in two dimensions of analysis. The first one, intraclass, used a repeated measures experimental design to demonstrate the probable cause-effect relationship in a two-level one-factor approach. In addition, it allowed a qualitative analysis of AA application in individual courses. The second, interclass, involved independent class samples in subsequent semesters and used Partial Least Squares Structural Equation Modeling to test and identify the best predictive model for learning based on the application of AL. The intraclass results demonstrated, in a positive cause-effect relationship, that the global average academic performance was 14% better in the post-AL assessment, compared to the first, without the application of AL techniques, representing 40% of the standard deviation of the grades. In addition, the individual analysis of performance in each of the courses revealed the most and least successful strategies and allowed to recommend those most viable AL strategies for specific groups of courses. In the interclass dimension, the improvement was 10% and the PLS-SEM predictive model was positively validated by several performance indexes, demonstrating a significant and non-linear positive relationship between the latent constructs, with a moderate to high relevance for learning prediction (Q^2 > 0.344). In the demonstration of the predictive relevance, the best-fitting curve of the relationship allowed, from an average score between 0 and 35.97 in the level of AL adherence (NAA) to predict an average Learning score (AP) between 45.89 and 74.90 on the scale of performance degrees. β coefficients were positive and significant, with p values < 0.01. The systematic methodological design and the results obtained are intended to be the main contributions of this research to the literature and to the latent discussion of the effectiveness of active learning methods in Engineering Education.

2
  • FABRICIO ALVES DE ALMEIDA
  • Aprimoramento do poder discriminatório de funções elipsoidais modificadas por cargas fatoriais rotacionadas na formação otimizada de agrupamentos

  • Orientador : JOSE HENRIQUE DE FREITAS GOMES
  • MEMBROS DA BANCA :
  • ANDERSON PAULO DE PAIVA
  • ANTONIO FERNANDO BRANCO COSTA
  • MARCELA APARECIDA GUERREIRO MACHADO DE FREITAS
  • PEDRO PAULO BALESTRASSI
  • ROBERTO DA COSTA QUININO
  • Data: 30/04/2021

  • Mostrar Resumo
  • O advento tecnológico proporcionou a ascensão da coleta de dados em empresas, governos e diversos segmentos industriais. Nesse aspecto, técnicas que buscam realizar agrupamentos e discriminação de conglomerados são amplamente empregadas em dados que apresentam múltiplas variáveis, trazendo a necessidade de se utilizar ferramentas específicas, que contemplem a estrutura de variância-covariância existente. Com base nisso, esse trabalho apresenta uma proposta para aprimorar o poder discriminatório de regiões de confiança na formação e estimação de agrupamentos ótimos, utilizando técnicas multivariadas e experimentais para extrair informações de maneira otimizada em conjuntos de dados correlacionados. Como método multivariado exploratório, utilizou-se a análise fatorial, calibrando a rotação de cargas fatoriais através do arranjo de misturas e, em seguida, aglutinando as funções de variância total explicada pelo erro quadrático médio. A otimização dessa etapa é realizada através do algoritmo de programação quadrática sequencial. Conhecendo os escores ótimos, um arranjo fatorial multinível é formado para contemplar todas as combinações dos métodos de ligação e os tipos de análise, buscando encontrar a combinação de parâmetros que apresente a menor variabilidade e que, consequentemente, gere elipses de confiança com melhor discriminação entre os grupos. Uma estratégia para analisar os níveis de concordância e a existência de inversões na formação de clusters é proposta utilizando os indicadores de Kappa e Kendall. Motivado pela necessidade de estratégias para classificar subestações diante de fenômenos de afundamento de tensão, que causam quedas na distribuição de energia elétrica, o método foi aplicado em um conjunto de dados reais, representando os índices de qualidade de energia elétrica de subestações localizadas no sudeste do Brasil. Foram encontrados valores ótimos na rotação das cargas fatoriais e definiu-se a parametrização “Ward e análise de covariância” como as estratégias ideais para criar os clusters nesse conjunto de dados. Assim, gerou-se conglomerados de baixa variabilidade e elipses de confiança precisas para estimar os padrões de afundamentos de tensão, promovendo um melhor poder discriminatório na classificação dos clusters através das regiões de confiança. A análise confirmatória inferiu que o método de ligação “Ward” se mostrou o mais robusto para esse conjunto, mesmo sob influência de perturbações no conjunto original.


  • Mostrar Abstract
  • The technological advent provided the rise of data collection in companies, governments and various industrial segments. In this respect, techniques that seek to perform groupings and discrimination of clusters are widely used in datasets with multiple variables, bringing the need to use specific tools, which contemplate the existing variance-covariance structure. Based on this, this work presents a proposal to improve the discriminatory power of confidence regions in the formation and estimation of optimal clusters, using multivariate and experimental techniques to extract information in an optimized way in correlated datasets. Factor analysis was used as the exploratory multivariate method, tuning the rotation for factor loads through the mixture design, and agglutinating the total variance explained functions by the mean square error afterwards. The optimization of this step is performed through the sequential quadratic programming algorithm. Knowing the optimal scores, a multilevel factorial design is formed to contemplate all combinations of the linkage methods and the types of analysis, seeking to find the parameter that presents the least variability, generating confidence ellipses with better discrimination between groups. A strategy to analyze the levels of agreement and the inversions existence in the formation of clusters is proposed using the Kappa and Kendall indicators. Motivated by the need for strategies to classify substations in the face of voltage sag phenomena, which cause faults in the distribution of electricity, the method was applied to a set of real data, representing the power quality indexes of substations located in southeastern Brazil. Optimum values were found in the factor loads rotation and the parameterization “Ward-analysis of covariance” was defined as the ideal strategies to create the clusters in this dataset. Thus, low variability clusters and precise confidence ellipses were generated to estimate the voltage sag patterns, promoting a better discriminatory power in the clusters’ classification through the regions of confidence. The confirmatory analysis inferred that the “Ward” linkage proved to be the most robust method for this dataset, even under the influence of disturbances in the original data.

3
  • ANDRÉ MARQUES MANCILHA DA SILVA
  • Definição de um modelo gamificado para gestão organizacional

  • Orientador : ALEXANDRE FERREIRA DE PINHO
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • ANDRE LUIS RIBEIRO LIMA
  • ANEIRSON FRANCISCO DA SILVA
  • CARLOS HENRIQUE PEREIRA MELLO
  • FABIANO LEAL
  • Data: 30/04/2021

  • Mostrar Resumo
  • Com a mudança comportamental dos profissionais no mercado de trabalho influenciados cada vez mais pelas novas gerações e evoluções tecnológicas do século XXI, esta pesquisa, preocupada em obter um melhor desempenho desses colaboradores nas organizações, propõe um modelo de gestão organizacional baseado na gamificação. Seu aspecto ineditista está em traduzir a concorrência entre os jogadores, algo resultante de uma intervenção gamificada tradicional, em um resultado coletivo não favorecendo o individual nos ambientes corporativos. Utilizando a Pesquisa-ação como método, a gamificação foi aplicada em duas empresas reais de segmentos mercadológicos diferentes. Como resultante da aplicação do modelo gamificado, foi possível identificar sua contribuição no que se refere à gestão de conhecimento, sensos de análise crítica e de risco, interatividade entre as pessoas, clima organizacional, comprometimento e engajamento dos colaboradores e sobre tudo, uniformidade e sinergia de ações para a obtenção de um resultado positivo e comum para as empresas, tornando o trabalho desafiador e consistentemente interessante; entretanto, os resultados encontrados apontam que o modelo proposto demanda ainda de alguns ajustes e novas aplicações em outras companhias.


  • Mostrar Abstract
  • With the behavioral change of professionals in the labor market, increasingly influenced by
    new generations and technological evolutions of the 21st century, this research, aimed at
    obtaining a better performance of these employees in organizations, proposes an organizational management model based on gamification. Its unprecedented aspect is to
    translate the competition among players, resulting from a traditional gamified intervention,
    into a collective result which does not benefit the individual in corporate environments.
    Using the research-action methodology, gamification was applied in two real companies from different market segments. As a result of the application of the gamified model, it was possible to identify its contribution regarding knowledge management, senses of critical and risk analysis, interactivity between people, organizational climate, employee’s commitment and engagement and, above all, uniformity and synergy of actions in order to achieve a positive and common result for companies, making the work challenging and consistently interesting; however, the obtained results highlight that the proposed model still requires some adjustments and new applications in other companies.

4
  • LUIZ GUSTAVO DE MELLO
  • COMBINAÇÃO ÓTIMA DE MÉTODOS DE PREVISÃO SEGUNDO O CRITÉRIO PAYOFF-JOLLIFFE FATORIAL: UMA ABORDAGEM MULTIVARIADA PARA A ESTIMAÇÃO DE DEMANDA DE GÁS NATURAL

  • Orientador : ANDERSON PAULO DE PAIVA
  • MEMBROS DA BANCA :
  • ANDERSON PAULO DE PAIVA
  • ANTONIO FERNANDO BRANCO COSTA
  • FABRICIO JOSÉ PONTES
  • JULIANA HELENA DAROZ GAUDENCIO
  • PAULO ROTELLA JUNIOR
  • PEDRO PAULO BALESTRASSI
  • Data: 15/07/2021

  • Mostrar Resumo
  • Este trabalho apresenta um método de otimização multiobjetivo não-linear para definir pesos ótimos para a combinação de métodos de previsões de séries temporais usadas para a estimação de demanda anual de gás natural. A abordagem de alocação de pesos emprega um arranjo de experimentos de misturas para modelar a relação entre diversas métricas de desempenho de previsão e os pesos atribuídos aos resíduos de previsão dos métodos de séries temporais individuais escolhidos para formar a combinação. Neste trabalho, foram considerados os métodos de Alisamento Exponencial Duplo (DES) e os métodos Holt-Winters aditivo (WA) e multiplicativo (WM). As diversas métricas de desempenho relacionadas à localização, dispersão e diversidade foram modeladas por polinômios canônicos de misturas e, posteriormente, otimizadas individualmente, formando uma matriz Payoff das soluções individuais. Estas soluções foram então agrupadas de acordo com a mínima distância entre os pontos de ótimo e os critérios de Jolliffe, definidos segundo uma análise de componentes principais (PCA), aplicados a cada grupo identificado para uma primeira seleção das métricas não-redundantes (Critérios Payoff-Jolliffe). Às métricas remanescentes, aplicou-se uma análise fatorial (FA) com extração por componentes principais e rotação varimax, armazenando-se os escores rotacionados dos fatores obtidos. Após a modelagem desses escores pela mesma classe de polinômio canônicos de misturas, aplicou-se o método de otimização NBI (Normal Boundary Intersection) modificado pela adição de uma classe de restrições elípticas auxiliares. Para se verificar a razoabilidade da tratativa, confrontou-se o conjunto de resultados obtidos com aqueles proporcionados pelos melhores métodos individuais de previsão, por métodos de combinação tradicionais, pelo método FA-NBI e suas variantes obtidas segundo a aplicação das 3 regras de Jolliffe. Comparando-se também os resultados da aplicação de todos os métodos a um conjunto de teste não utilizado nas etapas de modelagem e otimização (out-of-sample), constatou-se uma destacada eficiência do método proposto neste tese em relação aos demais. Embora os resultados obtidos circunscrevam-se apenas à série estudada, sua adequabilidade pressupõe que quaisquer outros tipos de séries temporais ou combinações de métodos poderiam experimentar melhorias significativas similares quanto à assertividade das previsões geradas.


  • Mostrar Abstract
  • This study presents a nonlinear multi-objective optimization method for defining optimal weights for combining time series forecasting methods used to estimate annual natural gas demands. The weight allocation approach employs mixed experimental arrangements to model the relationship between various predictive performance metrics, and the weights assigned to the prediction residuals of the individual time series methods chosen for the combinations. The Double Exponential Smoothing (DES) method, the Holt-Winters additive (WA) method, and the multiplicative (WM) method were used in this study. Various performance metrics related to location, dispersion, and diversity were modeled using canonical polynomials for mixtures, which were then individually optimized to form a Payoff matrix for the individual solutions. These were then grouped according to the minimum distance between optimal points and the Jolliffe criterion, defined by the Principal Component Analysis (PCA), and applied to each group identified for non-redundant metric first selection (Payoff-Jolliffe Criteria). Factor analysis (FA) was applied to the remaining metrics, via principal component extraction and varimax rotation, storing the rotated factor scores. After modeling these scores with the same canonical polynomial mixture class, the Normal Boundary Intersection (NBI) optimization method was used, modified by adding an auxiliary elliptic constraint class. The set of results was compared with results from the best individual forecasting methods, results from traditional combination methods, results from the FA-NBI method, and its variants according to the 3 applied Jolliffe rules, in order to verify the reasonableness of the data treatment. The results for all methods were compared with a test set not used in the modeling and optimizing stages, i.e., an out-of-sample set, which verified the remarkable efficiency of the method proposed in this paper, relative to the other methods. Although the results are limited to the studied series alone, the adequacy of the methods presupposes that all other types of time series, or combinations of methods, might result in similar significant improvements in forecast assertiveness.

5
  • EDUARDO RIVELINO DA LUZ
  • Uma nova técnica de otimização Multiobjetivo de modelos probabilísticos multivariados de um processo de soldagem MIG em Tubos de Alumínio AA6063

  • Orientador : ANDERSON PAULO DE PAIVA
  • MEMBROS DA BANCA :
  • ANDERSON PAULO DE PAIVA
  • ANTONIO FERNANDO BRANCO COSTA
  • JULIANA HELENA DAROZ GAUDENCIO
  • MARCELO MACHADO FERNANDES
  • PEDRO PAULO BALESTRASSI
  • ROGÉRIO SANTANA PERUCHI
  • Data: 26/07/2021

  • Mostrar Resumo
  • Para auxiliar na resolução do problema de melhoria de processos, restrições e melhores condições de operação de soldagem, este trabalho aplica as metodologias de Design of Experiments (DoE), Otimização Multiobjetivo e a Estatística Multivariada em conjunto para dar o suporte necessário no gerenciamento do processo produtivo de soldagem MIG (Metal Inert Gas), de anéis de proteção anti-corona, fabricado com tubos de alumínio na liga 6063(Aluminum Alloy 6063 - AA6063), T4, de 100 mm de diâmetro e espessura de 2mm de parede. Esse tipo de processo pode ser controlado por um número relativamente pequeno de variáveis de entrada, ou seja, a taxa de alimentação do arame (Wf), a tensão (V), a velocidade de soldagem (Fr) e a distância da ponta de contato à peça de trabalho (Cf). Além disso, muitas saídas podem ser avaliadas e otimizadas simultaneamente. No presente trabalho, as variáveis de rendimento (Y), diluição (D), índice de reforço do cordão (RI) e índice de penetração (PI) foram investigadas. Para considerar a natureza multivariada do problema, técnicas como a Análise Fatorial e os intervalos de confiança simultâneos de Bonferroni foram aplicadas combinadas com restrições elípticas. As variáveis respostas foram modeladas matematicamente por meio de regressão de Poisson e os resultados obtidos foram satisfatórios, uma vez que modelos precisos foram alcançados. O método de intersecção de limite normal (NBI) produziu um conjunto de configurações viáveis para as variáveis de entrada, que permite ao experimentador encontrar a melhor configuração do sistema em relação ao nível de importância de cada resposta. A aplicação demonstrou a solução de parâmetro ótimo para o processo de soldagem em AA6063 e apresentou características de minimização da geometria do cordão de solda para contribuir com a melhor eficiência e eficácia do gerenciamento produtivo do processo de soldagem. Um procedimento experimental de confirmação foi realizado com sucesso para validar os resultados teóricos obtidos no modelo de previsão.


  • Mostrar Abstract
  • To assist in solving the problem of process improvement, restrictions and better welding operation conditions, this work applies the Design of Experiments (DoE), Multiobjective Optimization and Multivariate Statistics methodologies together to provide the necessary support in the management of the production process of MIG welding (Metal Inert Gas), of anti-corona protection rings, manufactured with tubes aluminum alloy 6063 (Aluminum Alloy 6063 - AA6063), T4, 100 mm in diameter and 2 mm thick. This type of process can be controlled by a relatively small number of input variables, that is, the wire feed rate (WF), voltage (V), welding speed (Fr) and the distance from the contact tip to the part of work (Cf). In addition, many outputs can be evaluated and optimized simultaneously. In the present work, the variables of yield (Y), dilution (D), reinforcement index (IR) and penetration index (PI) were investigated. To consider the multivariate nature of the problem, techniques such as Factor Analysis and Bonferroni's simultaneous confidence intervals were applied combined with elliptical constraints. The response variables were modeled mathematically using Poisson regression and the results obtained were satisfactory, since accurate models were achieved. The normal bound intersection method (NBI) produced a set of viable configurations for the input variables that allows the experimenter to find the best configuration of the system in relation to the level of importance of each response. The application demonstrated the optimal parameter solution for the welding process in AA6063 and presented characteristics of minimizing the weld bead geometry to contribute to the better efficiency and effectiveness of the productive management of the welding process. An experimental confirmation procedure was successfully performed to validate the theoretical results obtained in the prediction model.

6
  • BETANIA MAFRA KAIZER
  • Modelo multivariado de avaliação da aprendizagem no ensino superior remoto emergencial

  • Orientador : ANDERSON PAULO DE PAIVA
  • MEMBROS DA BANCA :
  • ANDERSON PAULO DE PAIVA
  • CARLOS EDUARDO SANCHES DA SILVA
  • EDUARDO GOMES SALGADO
  • FABIANO LEAL
  • MESSIAS BORGES SILVA
  • THAIS ZERBINI
  • Data: 14/09/2021

  • Mostrar Resumo
  • Antes da pandemia da COVID-19, gestores universitários vinham demonstrando preocupação em identificar fatores que levam os indivíduos a melhor aprender, ou a desistir de um curso ou, ainda, a serem reprovados em uma disciplina. Encontrar respostas a essas questões torna-se mais evidente quando se trata de cursos de graduação em Engenharia, dado que estes apresentam altos índices de desistência. Entretanto, as instituições de ensino superior ainda carecem de protocolos ou, ao menos, de indicadores ou instrumentos que possibilitem aos gestores conhecer esses fatores e os problemas subjacentes para, assim, agir preventivamente ou tomar decisões. Após a adoção do Ensino Remoto Emergencial – ERE e, diante das incertezas e dos novos desafios do ensino on-line, a ausência dessas informações pode comprometer ainda mais a qualidade da oferta de novas ações educacionais a distância. Além disso, o desconhecimento desses fatores inviabiliza um diagnóstico atual sobre os ganhos e os prejuízos que a pandemia tem trazido aos estudantes de Engenharia. Esta tese, portanto, busca identificar quais fatores – aqui denominados de variáveis preditoras – impactaram os processos de aprendizagem de graduandos que cursaram a disciplina Cálculo 2, um dos componentes curriculares que apresenta maior índice de retenção nos semestres letivos iniciais dos cursos de Ciências Exatas. Para isso, foi proposto e testado um modelo preditivo multivariado. A pesquisa foi realizada em uma universidade pública federal brasileira, no segundo semestre de 2020. Participaram do estudo 507 indivíduos, representando 51% da população-alvo. Foram utilizados dados primários (três escalas psicométricas que mediram variáveis psicossociais e contextuais dos alunos, bem como variáveis referentes aos procedimentos de ensino dos professores) e dados secundários (documentos oficiais da instituição envolvida). Fez-se avaliação somativa, com análise pós-fato de resultados. Foram utilizadas técnicas de estatística multivariada e procedimentos metodológicos pautados na psicometria. Após análises, com base no modelo proposto, os preditores que significativamente impactaram a aprendizagem em Cálculo 2 foram: a variável renda familiar, a variável estratégias de aprendizagem autorregulatórias e cognitivas e a variável eventos instrucionais, a qual diz respeito às condições de aprendizagem propiciadas pelos professores durante o semestre letivo. O modelo multivariado desta tese é replicável e pode orientar gestores em futuras decisões sobre a oferta de cursos e disciplinas remotas, em quaisquer campos do conhecimento. O ineditismo deste trabalho é marcado, sobretudo, pela descoberta de novas variáveis que poderão compor futuras escalas psicométricas para avaliar resultados de aprendizagem de alunos de Engenharia em quaisquer disciplinas.


  • Mostrar Abstract
  • Before the pandemic of COVID-19, university managers had been showing interest in identifying factors that lead individuals to learn better, or to drop out of a course, or even to fail a subject. Finding answers to these questions becomes more evident when it comes to undergraduate Engineering courses, since these have high dropout rates. However, higher education institutions still lack protocols or, at least, indicators or instruments that allow managers to know these factors and the underlying problems in order to act preventively or make decisions. After the adoption of Emergency Remote Learning - ERE, and facing the uncertainties and new challenges of online education, the absence of this information can further compromise the quality of the offer of new distance education actions. Moreover, the ignorance of these factors makes it impossible to make a current diagnosis about the benefits and losses that the pandemic has brought to Engineering students. This thesis, therefore, seeks to identify which factors - here denominated predictor variables - impacted the learning processes of undergraduates who took Calculus 2, one of the curricular components with the highest retention rates in the initial semesters of Exact Science courses. To this end, a predictive multivariate model was proposed and tested. The research was conducted at a Brazilian federal public university in the second semester of 2020. A total of 507 individuals participated in the study, representing 51% of the target population. Primary data (three psychometric scales measuring students' psychosocial and contextual variables, as well as variables referring to teachers' teaching procedures) and secondary data (official documents of the institution involved) were used. Summative evaluation was performed, with after-the-fact analysis of results. Multivariate statistical techniques and methodological procedures based on psychometrics were used. After the analysis, based on the proposed model, the predictors that significantly impacted learning in Calculus 2 were: the family income variable, the self-regulatory and cognitive learning strategies variable, and the instructional events variable, which refers to the learning conditions provided by teachers during the academic semester. The multivariate model of this thesis is replicable and can guide managers in future decisions about the offer of remote courses and subjects, in any field of knowledge. The originality of this work is marked, above all, by the discovery of new variables that may compose future psychometric scales to assess learning outcomes of Engineering students in any discipline.

7
  • CLARA MOREIRA SENNE
  • Índice de Sustentabilidade e Integração do Transporte e Logística Urbana (ISITransLog)

  • Orientador : JOSIANE PALMA LIMA
  • MEMBROS DA BANCA :
  • ALEXANDRE FERREIRA DE PINHO
  • BARBARA STOLTE BEZERRA
  • FABIO FAVARETTO
  • JOSIANE PALMA LIMA
  • RAFAEL DE CARVALHO MIRANDA
  • ROBERTA ALVES
  • Data: 08/12/2021

  • Mostrar Resumo
  • Milhões de pessoas buscam diariamente nas cidades oportunidades de melhor qualidade de vida. O que faz das cidades lugares tão atrativos, concentrando hoje mais de 50% da população mundial, é a capacidade que os grandes centros urbanos têm de promover a interação social e, com isso, catalisar o desenvolvimento – da cidade e das pessoas. Um dos objetivos das sociedades desenvolvidas em matéria de mobilidade é evoluir aos modelos de baixo consumo de carbono e menor consumo energético, sempre com critérios de equidade social e distribuição justa da riqueza. Em suma, o objetivo da sustentabilidade. Uma definição restrita de transporte sustentável tende a favorecer soluções tecnológicas individuais, enquanto uma definição mais ampla tende a favorecer soluções mais integradas, incluindo melhores opções de viagens, incentivos econômicos, reformas institucionais, mudanças no uso da terra, bem como inovação tecnológica. O planejamento da sustentabilidade pode exigir uma mudança na maneira como as pessoas pensam e resolvem os problemas de transporte. O objetivo deste trabalho é compreender as interações e o funcionamento do transporte de pessoas e bens no ambiente urbano e propor um modelo de avaliação em termos de sustentabilidade e transporte integrado. Em primeiro lugar, uma revisão bibliográfica aprofundada permitiu compreender as interações e o funcionamento do transporte de pessoas e mercadorias no meio urbano, verificando as principais iniciativas de promoção da sustentabilidade. Estas iniciativas, juntamente com as políticas públicas, constituem o modelo hierárquico proposto. A hierarquia foi então submetida a uma metodologia de análise de decisão multicritério que consiste na aplicação do Analytic Hierarchy Process (AHP) em um sistema especialmente desenvolvido para avaliação remota do modelo hierárquico. Essa ponderação das iniciativas resultou no fator de impacto do modelo que, juntamente com o grau de sustentabilidade e integração e o estágio de implementação das iniciativas compõe o índice ISITransLog através de uma combinação linear ponderada. O índice foi então aplicado a São Paulo, onde foram considerados dois períodos distintos, 2010 e 2020, e os resultados forneceram uma avaliação da evolução da cidade quanto à sustentabilidade e integração dos sistemas de passageiros e carga. Entre os resultados destacam-se as iniciativas que promovem: políticas de redução do uso de veículos particulares; educação e conscientização da população sobre o transporte e logística urbana sustentável; investimento em tecnologias não poluentes no transporte de pessoas e de mercadorias; investimento em integração da multimodalidade de transportes e; políticas de gestão logística que promovam o equilíbrio entre a eficiência operacional e a sustentabilidade. As conclusões indicam melhoria na sustentabilidade do transporte urbano e da logística na cidade de São Paulo, destacando a importância dos incentivos ao uso dos meios de transporte ativos e do canal de comunicação com a população.


  • Mostrar Abstract
  • Millions of people daily seek opportunities for a better quality of life in cities. What makes cities such attractive places, today concentrating more than 50% of the world's population, is the capacity of large urban centers to promote social interaction and, therefore, catalyze development – of the city and of its people. One of the objectives of developed societies in terms of mobility is to evolve towards models of low carbon consumption and less energy consumption, always with criteria of social equity and fair distribution of wealth. In short, the goal of sustainability. A narrow definition of sustainable transport tends to favor individual technological solutions, while a broader definition tends to favor more integrated solutions, including better travel options, economic incentives, institutional reforms, land use changes, as well as technological innovation. Sustainability planning may require a change in the way people think about and solve transport problems. The objective of this work is to understand the interactions and functioning of the transportation of people and goods in the urban environment, and to propose an evaluation model in terms of sustainability and integrated transportation. Firstly, an in-depth literature review allowed us to understand the interactions and functioning of transport of people and goods in the urban environment, verifying the main initiatives to promote sustainability. These initiatives, together with public policies, constitute the proposed hierarchical model. The hierarchy was then submitted to a multi-criteria decision analysis methodology consisting of the application of Analytic Hierarchy Process (AHP) in a system specially developed for remote evaluation of the hierarchical model. This weighting of the initiatives resulted in the model's impact factor which, together with the degree of sustainability and integration and the stage of implementation of the initiatives, make up the ISITransLog index through a weighted linear combination. The index was then applied to São Paulo, where two distinct periods were considered, 2010 and 2020, and the results provided an assessment of the evolution of the city regarding the sustainability and integration of the passenger and freight systems. Among the results, the following stand out: policies to reduce the use of private vehicles; education and awareness of the population on sustainable urban transport and logistics; investment in clean technologies for transporting people and goods; investment in the integration of transport multimodality and; logistics management policies that promote a balance between operational efficiency and sustainability. The conclusions indicate improve in the sustainability of the urban transport and logistics in the city, highlighting the importance of incentives to the use of active modes of transport and the communication channel with population.

8
  • CARLOS ALBERTO DE ALBUQUERQUE
  • Desenvolvimento de produto sustentável: Análise da substituição de agragados por lixo eletrônico na produção de concreto

  • Orientador : CARLOS HENRIQUE PEREIRA MELLO
  • MEMBROS DA BANCA :
  • AMANDA FERNANDES XAVIER
  • CARLOS EDUARDO SANCHES DA SILVA
  • CARLOS HENRIQUE PEREIRA MELLO
  • JOAO PAULO MARTINS
  • JOSE HENRIQUE DE FREITAS GOMES
  • VALQUIRIA CLARET DOS SANTOS
  • Data: 10/12/2021

  • Mostrar Resumo