Prévia do material em texto
GESTÃO DE QUALIDADE, PRODUTIVIDADE E MANUTENÇÃO CONFIABILIDADE Aluno: ....................................................................................................................................................................... Cursos: ....................................................................................................................................................................... Turma: ................................................................. Sumário 1.0 Introdução ......................................................................................................................... 2 2.0 Generalidades e definições ............................................................................................... 5 3.0 Tipos de Falha .................................................................................................................. 10 4.0 MTBF – Medium Time Between Failure .......................................................................... 19 5.0 Distribuições da Confiabilidade ....................................................................................... 20 5.1 Distribuição exponencial ................................................................................................. 20 5.2 Distribuição Weibull ........................................................................................................ 20 6.0 Manutenibilidade ............................................................................................................ 22 7.0 Disponibilidade ................................................................................................................ 23 8.0 Prevenção e recuperação de falhas ................................................................................ 27 9.0 Failure Mode And Affect Analysis ................................................................................... 29 9.1 Etapas para a Aplicação do FMEA ................................................................................... 32 10.0 Faut Tree Analysis ........................................................................................................... 36 11.0 Causas de falhas em sistemas eletrônicos ...................................................................... 39 12.0 Redundância .................................................................................................................... 40 13.0 Objetivos políticas da Confiabilidade .............................................................................. 42 14.0 2.11 A confiabilidade e o impacto em custos ................................................................. 45 15.0 Teste do quociente de confiabilidade ............................................................................. 46 2 1.0 Introdução A introdução de novas tecnologias, o aumento da competição e a disputa por novos mercados, e a flexibilização das relações trabalhistas, têm provocado nos últimos anos grandes mudanças no ambiente industrial e lançado as empresas numa incessante busca por qualidade e produtividade. Portanto, é nesse cenário que a confiabilidade adquire um alto grau de importância, pois além de contribuir para a melhoria da qualidade do produto, colabora para o aumento da produtividade e da competitividade da empresa, influindo diretamente na redução dos custos de retrabalho, correções de projeto e de pós‐venda. A confiabilidade de um produto ou serviço está diretamente associada às necessidades básicas dos consumidores. Ela é capaz de influenciar a percepção e a avaliação que os consumidores terão sobre a qualidade de determinado produto ou serviço. A confiabilidade dará ao consumidor a garantia de que aquele produto ou serviço por ele adquirido exercerá as funções, no mínimo, da maneira esperada, podendo até mesmo superar as expectativas que ele viesse a ter. A confiabilidade pode associar a sua marca a um conceito amplo de qualidade. As falhas em equipamentos podem representar grandes perdas econômicas e, em muitos casos, comprometimento significativo para a imagem da empresa. Para uma indústria, à medida que os produtos são desenvolvidos com prazos reduzidos e pressão por custos cada vez menores, conhecer ou estimar a confiabilidade de determinado produto é de fundamental importância para a sua competitividade, pois através desses dados o fabricante poderá estimar o maior prazo de garantia possível, sem que os custos envolvidos com reparos, que possam vir a ocorrer nessa época, tragam prejuízo ao mesmo. As várias técnicas de confiabilidade devem ser aplicadas durante todo o ciclo de vida do produto, a fim de evitar que falhas ocorram quando o produto está na mão do usuário. No entanto, o fato de aplicar estas técnicas de confiabilidade não elimina a 3 possibilidade de que falhas ocorram, pois não é possível predizer com certeza quais são todos os fatores que podem induzir sua ocorrência. De acordo com Villemeur (1992), as técnicas de dependabilidade (dependability), que engloba os termos confiabilidade (reliability), disponibilidade (availability), manutenibilidade (maintainability) e segurança de funcionamento (safety), foram desenvolvidas relativamente tarde se comparada às técnicas de outros ramos da engenharia. Ainda, de acordo com o autor, a noção de confiabilidade foi apenas recentemente desenvolvida em matéria de conceitos e técnicas, e o termo por si só possui pouco mais de quarenta anos. O termo manutenibilidade foi concebido um pouco mais tarde e o termo segurança possui pouco mais de dez anos de uso. A confiabilidade surgiu através da indústria aeronáutica, após a primeira guerra mundial. Em conseqüência do aumento do transporte aéreo, aumentaram sensivelmente os acidentes. Por conseguinte, se fez necessário o uso da técnica da confiabilidade, através dos estudos realizados sobre a segurança dos aviões equipados com um motor somente e comparados com os resultados de aviões equipados com dois motores. Do resultado destes estudos efetuados, surgiu o avião de passageiros FORD, equipado com três motores. Outro marco importante dessa época foi o início da investigação sobre a causa de acidentes aéreos. Essa nova atitude resultou no estabelecimento de itens de controle de comparação entre o número de acidentes e o número de horas voadas. Assim, em todos os anos 60, os acidentes aéreos ocorreram na razão de 1 acidente por 1 milhão de aterrissagens efetuadas. A confiabilidade como um ramo da engenharia surgiu em meados de 1950 nos Estados Unidos devido o desenvolvimento da eletrônica. A crescente complexidade dos sistemas eletrônicos, especialmente os utilizados nos equipamentos militares, foi responsável por grandes taxas de falhas e significantes diminuições da disponibilidade desses equipamentos. Também os custos para diagnóstico e reparo desses dispositivos estavam se tornando cada vez maiores. Esses fatos levaram o Departamento de Defesa Americano e as indústrias eletrônicas da época a criarem um grupo de pesquisa para conduzir estudos sobre confiabilidade. A idéia inicial e que aos poucos ganhou força nos grupos de trabalho foi a de que é mais sensato projetar um equipamento confiável 4 do que esperar por falhas e necessitar consertá‐lo posteriormente. Foi sugerido que novos equipamentos deveriam ser testados por horas nos mais diversos ambientes (temperaturas elevadas e baixas, vibrações, entre outros), de modo que os pontos fracos dos mesmos fossem corrigidos antes do início da produção em massa. Na década de 60, a partir dos esforços do International ElectrotechnicalCommission (IEC), as normas de confiabilidade ganharam um nível de padrão mundial. Como regra geral, os métodos de confiabilidade eram intensivamente utilizados apenas nas indústrias de alta tecnologia. Entretanto, as preocupações com a confiabilidade ganharam terreno nas atividades civis e nas indústrias de bens de consumo. Outro fato importante é que no final da década de 1960 a indústria japonesa também começou a assimilar os conceitos de qualidade e confiabilidade aos seus produtos. Foi nesta época também o desenvolvimento dos conceitos da árvore de falhas e do FMEA (Failure Mode and Effects Analysis). Nas décadas de 70 e 80 surgiram vários estudos de confiabilidade para industrias de diferentes segmentos. Nesta época registraram‐se os primeiros trabalhos voltados à confiabilidade de software. Também foram introduzidas novas técnicas nas indústrias de bens de consumo com o objetivo de se melhorar a qualidade e a confiabilidade dos seus produtos. Nas indústrias japonesas surgem os primeiros círculos da qualidade, visando primeiramente a solução de problemas relacionados à qualidade, à segurança, produtividade e condições de trabalho. Assim como os estudos de confiabilidade aplicados à fabricação de componentes eletrônicos, na década de 80 a indústria automobilística também usou intensivamente os métodos estatísticos. A partir da década de 80 as preocupações dos engenheiros, antes limitadas à confiabilidade e à segurança, passaram a englobar também a disponibilidade e a manutenibilidade, o que levou ao nascimento de uma nova disciplina na engenharia chamada de Dependabilidade. Daí em diante a aplicação da confiabilidade tem se propagado em diversos segmentos industriais e em serviços. 5 2.0 Generalidades e definições Genericamente, a confiabilidade pode ser definida como a probabilidade de um sistema ou um produto executar sua função de maneira satisfatória, dentro de um intervalo de tempo e operando conforme certas condições. O fator de probabilidade está relacionado ao número de vezes que o sistema opera adequadamente. Uma probabilidade de 95% por exemplo, significa, na média, que o sistema opera adequadamente em 95 vezes das 100 vezes que executou a função. Mas: Qual é a vida, ou quanto tempo o equipamento é capaz de funcionar sem falhar? Qual é a hora certa de se fazer a substituição de um equipamento, antes que ele falhe? São essas perguntas que o estudo da confiabilidade tenta responder, através de ferramentas matemáticas ou modelos estatísticos, que trataremos nos tópicos à frente. O grande problema que a Teoria da Confiabilidade deve encarar é a predição da confiabilidade e a avaliação da mesma. A predição consiste na criação de modelos matemáticos que permitem predizer a confiabilidade de um sistema, sugerir métodos para melhorá‐la, desenvolver princípios de projetos de sistemas e componentes, novos materiais e tecnologias de processo. A avaliação da confiabilidade consiste na utilização de técnicas, que permitem medir os valores reais de Confiabilidade, verificar as predições efetuadas com base nos modelos, controlar a manutenção de um nível exigido de confiabilidade. De acordo com a British Standard (BS 4778), confiabilidade é a capacidade de um item desempenhar satisfatoriamente a função requerida, sob condições de operação estabelecidas, por um período de tempo determinado. Com base no manual APQP (Advanced Product Quality Planning and Control Plan), desenvolvido em conjunto pelas empresas Chrysler, Ford e General Motors, temos outra definição para confiabilidade, qual seja, a “probabilidade de que um item continuará a funcionar de 6 acordo com os níveis de expectativa do usuário a um ponto mensurável, sob um ambiente específico e nas condições cíclicas determinadas”. O conceito de performance satisfatória utilizado nas definições de confiabilidade, está relacionado a combinação dos fatores qualitativos e quantitativos que definem a função de sistemas através de seus requisitos. Podendo ser aplicado a qualquer tipo de sistema, seja ele um serviço, um simples componente, um eletrodoméstico utilizado por uma dona de casa, etc. A ABNT define confiabilidade como: “Característica de um item eventualmente expressa pela probabilidade de que ela preencherá uma função dada, sob condições definidas e por um período de tempo definido”. Atualmente existem várias definições para confiabilidade, mas um significado comum e válido é que a confiabilidade significa a confiança que o usuário tem seu dispositivo (VILLERMEUR, 1992). Na definição da ABNT, o conceito de confiabilidade contém quatro elementos significativos: • Probabilidade ‐ A confiabilidade é uma probabilidade. É ela que caracteriza a diferença entre equipamentos de mesma natureza. A probabilidade nos permite saber o quão é a aptidão de um bem funcionar sem falha durante um certo tempo; • Função dada ‐ Antes de iniciar qualquer estudo deve‐se definir bem aquilo que se chama desempenhar uma função e indicar de que função se trata. O nível em que essa função é desempenhada pode ser definido pelo tipo de falha. Podemos distinguir os seguintes tipos falhas: Segundo o grau de influência na capacidade de trabalho total ou parcial; Pelo caráter físico de aparecimento da falha ‐ catastrófica ou paramétrica; Dependente ou independente de outras falhas; Segundo o caráter do processo de aparição ‐ repentino ou gradual; Tempo de existência da falha – estável, temporária ou intermitente; 7 • Condições definidas ‐ Deve ser também cuidadosamente definido, o tipo de aplicação no qual será utilizado o equipamento. Outro ponto que deve estar bem definido é qual o tipo de confiabilidade será utilizado: Intrínseca: em bancos de prova, onde as condições são bem controladas. Operacional: nas condições reais de uso.; • Tempo: Produtos que devem funcionar um certo tempo, de maneira intermitente ou uma única vez. Este parâmetro pode ser, dependendo do caso, a duração de uma missão, um número de ciclos ou quilometragem. Produtos cuja utilização não se observa a intervenção de tempo. Com relação às condições de operação, relacionadas ao cenário no qual o sistema opera, os fatores do ambiente são fatores críticos nas condições da confiabilidade de um sistema, incluindo ciclo de temperatura, umidade, vibração, aspiração de pó, entre outros. Estas considerações devem representar não somente as condições de operação do sistema, mas também as condições de operação das atividades de manutenção. A aplicação dos requisitos de confiabilidade em um sistema requer sempre uma análise quantitativa na maioria das vezes, definindo‐se sua probabilidade de operação, portanto, a função básica da confiabilidade pode ser descrita como: R = 1 – F Onde “R” é a confiabilidade do sistema e “F” é a probabilidade de que o sistema falhe num instante qualquer. Quando se está analisando a distribuição de falhas, geralmente se quer obter o valor das falhas em um determinado período de tempo. Para se efetuar esta estimativa, a distribuição de passos (esta distribuição é de alguma forma análoga à distribuição binomial) pode ser aplicada. Por esta distribuição, quando a taxa méd prob funci Na f cons Outr distin • obse oper • levan • da co Villem depe conh cont ia de falha babilidade d ionando em figura 1 re ideração bá a consider nções possí Confiabi ervação e d racionais; Confiabi ndo‐se em c Confiabi onfiabilidad meur descr endabilidadhecimento d roles”. s de um c de um núm m estado no epresenta‐s ásica nesta ração impo íveis para a lidade ope da análise lidade pre conta o proj lidade extr de operacion reveu um s e, definido dessas falh omponente mero de fa ormal, duran se a tradic curva é que Figura 1 ortante, de confiabilida eracional (o do compor editiva – é jeto do sist rapolada – nal para dif entido mais o por ele has, suas av e sob estud alhas (0,1,2 nte um dete cional curv e se admite ‐ Curva exp e acordo c ade: ou confiabi rtamento d é a medida ema e a con é resultant ferentes dur s amplo pa como “a valiações, s do é conhe ,3....) quan erminado in va exponen que a taxa ponencial com Villem ilidade obs de entidade a da confi nfiabilidade te de uma e rações ou c ara a confia ciência da suas previs ecida, é po ndo este co ntervalo de ncial de co de falha é c meur (1992 ervada) – es idênticas abilidade f e de seus co extensão, p ondições de bilidade, su as falhas. sões, suas ossível calcu omponente tempo. onfiabilidad constante. 2), existem é resultant s sob cond futura esti omponentes por interpol e estresse. urgindo o t Ela abran medidas e 8 ular a está de. A três te da dições mada s; ação, termo ge o seus 9 Os principais conceitos que caracterizam a dependabilidade são apresentados por Villemeur (1992), como seguem: • Confiabilidade – é a habilidade de uma entidade executar uma função requerida sob dadas condições por um dado intervalo de tempo. Ela é geralmente medida pela probabilidade de que uma entidade E possa executar uma função requerida sob dadas condições para um intervalo de tempo [0, t]: R(t) = P [ E não falhar durante [0, t] ] • Disponibilidade – é a habilidade de uma entidade estar em um estado de executar uma função requerida sob dadas condições a um dado instante de tempo. Ela é geralmente medida pela probabilidade de que uma entidade E esteja em um estado para executar uma função requerida sob dadas condições e em um dado instante t: A(t) = P [ E não estar em falha no instante t ] • Manutenibilidade – é a habilidade de uma entidade ser mantida em, ou reparável para, um estado em que ela possa executar uma função requerida, quando uma manutenção é executada sob dadas condições e utilizando‐se procedimentos e recursos previamente determinados. Ela é geralmente medida pela probabilidade que a manutenção de uma entidade E, executada sob dadas condições, e usando dados procedimentos e recursos, esteja completa no tempo t, dado que a entidade falhou no tempo t = 0: M(t) = P [ da manutenção de E estar completada no tempo t ] 10 Este conceito aplica‐se apenas a sistemas reparáveis. A manutenibilidade caracteriza a habilidade de um sistema retomar o desempenho de suas funções após uma falha. • Segurança – é a habilidade de uma entidade não causar, sob dadas condições, eventos críticos ou catastróficos. Ela é geralmente medida pela probabilidade de que uma entidade E, sob dadas condições, não causará eventos críticos ou catastróficos. 3.0 Tipos de Falha A definição de confiabilidade, vista anteriormente, fala da probabilidade de “desempenho correto de um equipamento ou sistema”, a falta de cumprimento do que se havia definido previamente por “desempenho correto” será definido como falha. Vamos definir falha como: A falha pode ser classificada conforme mostrado nos itens subsequentes: • Classificação quanto à repentinidade: Falha gradual: falha devido a uma gradual mudança com tempo de uma dada característica de uma entidade, que geralmente pode ser antecipada por análise prévia ou monitoramento. Falha repentina: falha que não resulta em uma perda progressiva do desempenho e que não pode ser antecipada por análise prévia ou monitoramento. • Classificação quanto ao grau: Falha parcial: falha resultante do desvio das características além dos limites especificados, mas que, no entanto não causam uma completa perda das funções. Falha total: falha resultante do desvio das características além dos limites especificados e que causam uma completa perda das funções. • Classificação quanto à repentinidade e ao grau: • Em g do te Falha Falha cat Falha de tempo p Classifica Frequen podem (bathtub geral existe empo: as precoces tastrófica: f egradante: f pode levar a ação quant temente, e ser caracte b curve), mo m três tipo s – Infância falha que é falha que é a uma falha o à época d entidades c erizadas po ostrada na F Figura 2 s básicos d ao mesmo ao mesmo total. de ocorrênc ujas taxas or um mod Figura 2. 2 ‐ Curva da b e falha, de tempo repe o tempo par cia dentro d de falha sã delo chama banheira acordo com entina e tot rcial e gradu da vida útil ão depende ado de cur m sua evolu tal. ual. Ao long do sistema entes do te rva da ban ução em re 11 go do a: empo, nheira elação Falha fabri (burn Falha Esse causa solub elimi preve Falha Falha irreg pont casos acom repre as precoces cação e ta n‐in). São ex Anormal Projeto d Uso dem as por desg tipo de fa ada por des bilidade, et inar o efeit entiva. as casuais ‐ as que ap gulares. Pico to fraco e p s existem mpanhamen esentados n s podem se ambém me xemplos: lidades de f defeituoso; masiadamen gaste ‐ Velh lha acontec sgaste real, c.) ou dege to das falh Vida útil resentam d o de conce roduz a que técnicas nto de co na curva da r totalment diante test fabricação; nte intenso. ice ce devido a por uma p eneração da has por des de forma entrações d ebra. Não é que o p omponente vida, mais te depurada tes antes d ao envelhec perda de car as mesmas sgaste, med inesperada de “tensões é fácil a elim permitem es adequa conhecida c as através d do envio d cimento do racterísticas . Pode‐se e diante a um a, ao acaso s” aleatória minação des fazer atra dos. Esse como curva de um cont o produto o equipame s important em alguns c m sistema o, a interv s, que atua sse tipo de f vés de u tipos de a da banheir trole rigoro ao consum ento, e pod tes (elastici casos reduz de manute valos de te am sobre a falha, em a um projeto e falhas ra. 12 so na midor de ser dade, zir ou enção empo algum lguns o de estão 13 Figura 3 ‐ Curva da banheira Usualmente, sempre existe break‐in ou mortalidade infantil, período em que problemas de projeto e de processo ocorrem. Nesta fase, se introduzidas ações corretivas o sistema vai atingir seu valor natural de confiabilidade sem a presença de causas especiais. Posteriormente a esta fase obtém‐se a estabilização da taxa de falha, tornando‐a relativamente constante, até o ponto em que seus componentes se desgastam e a taxa de falha volta novamente a aumentar. Os componentes de hardware só apresentam taxa de defeitos constante durante um período de tempo chamado de vida útil, que segue uma fase com taxa de falhas decrescente chamada de mortalidade infantil. Para acelerar a fase de mortalidade infantil, os fabricantes recorrem a técnicas de burn‐in, onde é efetuada a remoção de componentes fracos pela colocação dos componentes em operação acelerada antes de colocá‐los no mercado ou no produto final. É questionável se a curva da banheira pode ser aplicada também para componentes desoftware. Pode ser observado, no entanto, que os componentes de software também apresentam uma fase de mortalidade infantil ou taxa de erros alta no início da fase de testes, que decresce rapidamente até a entrada em operação do software. A partir desse momento, o software apresenta um taxa de erros constante até que, eventualmente, precise sofrer alguma alteração ou sua plataforma de hardware se torne obsoleta. Nesse momento, a taxa de erros volta a crescer. Intencionalmente mencionamos taxa de erros para software e não defeitos, porque erro é o termo usualmente empregado quando se trata de programas incorretos. A classificação de falhas proposto por BLACHE (1994) inseri outras duas classificações, a saber: • Falha intermitente: “falha que resulta na falta de alguma função do produto, apenas por um curto período de tempo. O componente volta completamente ao seu estado funcional imediatamente após a falha”. • Falha estendida: “falha que resulta em uma falta de algumas funções, e que continuarão até que as partes falhadas sejam substituídas ou reparadas”. 14 Relacionado à classificação de falhas está a necessidade ou não do reparo. Desta forma, os sistemas os sistemas podem ser classificados em não‐reparáveis e reparáveis. Os não‐reparáveis são aqueles em que seus componentes não são reparados ou substituídos quando falham. Isso não significa que eles não poderiam ser reparados, pois, por questões econômicas, não faz sentido fazê‐lo, já que seu reparo poderia custar tanto quanto uma unidade nova (RELIASOFT, 2003). Por outro lado, sistemas reparáveis são aqueles que são reparados quando falham. Isso é feito através do reparo ou da substituição do componente que falhou. Em sistemas reparáveis são considerados dois tipos de distribuições. A primeira é uma distribuição de falhas, e que descreve o tempo que um componente leva para falhar. A segunda é uma distribuição de reparos, e que descreve o tempo que se leva para reparar um componente. Nesse tipo de sistema, a distribuição de falhas não é suficiente como única medida de desempenho. Para medi‐la, então, é necessária a utilização do conceito de disponibilidade, que leva em conta tanto a distribuição de falhas quanto a distribuição de reparos (RELIASOFT, 2003). Como calcular ou medir a FALHA? Conforme o descrito anteriormente existem três formas: • Taxa de falha – com que frequência uma falha ocorre; • Confiabilidade – a probabilidade de uma falha ocorrer; • Disponibilidade – o período de tempo útil disponível para a operação. A taxa de falha e a confiabilidade são diferentes formas de medir a tendência de um produto ou processo falharem. Já a disponibilidade é uma medida das conseqüências da falha. A taxa de falha (TF) pode ser medida como a porcentagem do número total de produtos testados (Ntp) ou como o número de falhas (Nfalhas) no tempo. 100 Ntp Nfalhas TF 15 to Nfalhas TF , onde to é o tempo de operação. Segundo Smith (1976) a taxa de falha pode ser representada pela seguinte equação: tR tf t Dessa maneira, “a taxa de falha instantânea (a um dado tempo t) é igual à função densidade de probabilidade (PDF) dividida pela confiabilidade, com ambas as funções avaliadas em um determinado tempo t”, segundo Smith (1976). A função densidade de probabilidade, PDF (probability density function), representada aima por f(t), é uma das mais importantes funções estatísticas aplicadas na confiabilidade representa a freqüência relativa dos tempos de falha como uma função do tempo (RELIASOFT, 2003). Se X é uma variável aleatória contínua, a função densidade de probabilidade de X é uma função f(x), de tal forma que para dois números a e b, onde a b, temos: Ou seja, a probabilidade de que X assuma um valor no intervalo [a, b] é a área sob a curva da função de densidade, conforme ilustrado na figura abaixo: 16 Figura 4: Exemplo de uma função densidade de probabilidade Vamos fazer alguns exercícios! Um lote de 50 componentes eletrônicos é testado durante 2.000 horas. Quatro dos componentes falham durante o teste, como segue: • Falha 1 ocorreu após 1.200 horas; • Falha 2 ocorreu após 1.450 horas; • Falha 3 ocorreu após 1.750 horas; • Falha 4 ocorreu após 1.875 horas. Calcule a taxa de falha como porcentagem e como tempo. Solução Sabe‐se que: 100 Ntp Nfalhas TF , portanto: %8100 50 4 TF , onde o tempo total do teste foi de: to = 50 X 2.000 = 100.000 horas de componentes. Porém: 17 ‐ um componente não operou 2.000 – 1.200 = 800 horas; ‐ um componente não operou 2.000 – 1.450 = 550 horas; ‐ um componente não operou 2.000 – 1.750 = 280 horas; ‐ um componente não operou 2.000 – 1.875 = 95 horas. Portanto: O tempo total de não operação foi de 1.725 horas e o tempo de operação (to) é de: to = 100.000 – 1.725 = 98.275 horas. Sabe‐se que = to Nfalhas TF = 000041,0 275.98 4 Agora vamos dar exemplo de confiabilidade aplicada a um processo. Por exemplo, uma pizzaria possui em seu processo cinco máquinas com os seguintes níveis de confiabilidade: ‐ Misturador de massa: confiabilidade = 0,95; ‐ Rolo e cortador de massa: confiabilidade = 0,99; ‐ Aplicador de massa de tomate: confiabilidade = 0,97; ‐ Aplicador de queijo: confiabilidade = 0,90; ‐ Forno: confiabilidade = 0,98. Qual seria a confiabilidade do sistema ou qual seria a probabilidade do processo não falhar? 18 Neste caso, os componentes do sistema são interdependentes, uma falha em um compromete o sistema todo. Portanto, a confiabilidade do sistema é dada pelo produto da confiabilidade dos componentes que a compõem. Ou seja: R = R1 X R2 X ... X Rn R = 0,95 X 0,99 X 0,97 X 0,90 X 0,98 = 0,805 Desta forma, quanto maior o número de componentes interdependentes de um sistema, tanto menor será sua confiabilidade. 19 4.0 MTBF – Medium Time Between Failure O elemento tempo é muito significativo, porque ele representa a medida em relação à qual o sistema é avaliado. Um sistema é projetado para desempenhar uma função, mas por quanto tempo? Um particular interesse nesta análise está relacionado à habilidade de se definir a probabilidade de um sistema desempenhar sua função durante um intervalo de tempo sem falhas. Estas medições são efetuadas através do MTBF (Mean Time Between Failures), que representa em suma o tempo médio entre falhas. O MTBF é recíproco da taxa de falhas (em tempo). Portanto: TF ho MTBF , onde ho significa horas de operação. Assim, para o exercício sobre os componentes eletrônicos, onde taxa de falhas (em tempo) foi de 0,000041, temos o MTBF daquele componente de: 24,390.24 000041,0 1 TF ho MTBF horas. Isto significa que em média uma falha pode ser esperada a cada 24.390,24 horas. Estatisticamente o MTBF é representado pela seguinte função: 20 5.0 Distribuições da Confiabilidade 5.1 Distribuição exponencial Um dos modelos mais populares e fáceis de utilizar para representar o tempo para falhar é a distribuição exponencial. Utilizando‐a, implica que a taxa de falha é constante sobre a faixa de prognóstico. Para certas situações de falha ou trecho da vida do produto, isso pode ser bastante apropriado (KAPUR). A função que descreve a densidade de probabilidade de uma variável aleatória tempo‐ para‐falhar (T), exponencialmente distribuída, é dada por: tetf , onde t 0 e é a taxa de falha Logo, a função da confiabilidade é dada por: tetR , onde t 0 5.2 Distribuição WeibullA distribuição de Weibull é uma das mais utilizadas nos cálculos de confiabilidade e estimativa de tempo de vida, pois através de uma adequada escolha dos seus parâmetros, diversos comportamentos de taxa de falha podem ser modelados. Segundo Lewis (1996), ela pode ser formulada com dois ou três parâmetros. O modelo de distribuição Weibull é de ampla aplicabilidade, e deve sempre ser usado quando não se tem nenhuma informação sobre o desempenho do produto. Os outros tipos de distribuições, Exponencial, Normal, Log‐normal, entre outros, acabam sendo casos particulares da distribuição de Weibull. 21 A função de densidade da variável aleatória t (tempo) no modelo de Weibull tem a forma: Onde: (gama) = parâmetro de localização ou vida mínima 0 < < (eta) = parâmetro de escala ou vida característica 0 < < (beta) = parâmetro de forma 0 < < Figura 5 ‐ Gráfico f(t) X t no modelo Weibull ‐ parâmetro de localização ‐ também conhecido como vida mínima. 22 > 0 : produto recondicionado, neste caso temos uma curva convexa para cima. < 0 : produto passível de falha antes de entrar em funcionamento (Ex: produtos perecíveis). ‐ parâmetro de escala ‐ também conhecido como vida característica. Esse parâmetro nos permite obter informações relativas aos intervalos de tempo que em média ocorrerão as falhas. ‐ parâmetro de forma. É o parâmetro mais importante, o qual define a forma da distribuição. 6.0 Manutenibilidade Segundo a Reliasoft (2003, p. 199), manutenibilidade é definida como “a probabilidade de executar uma ação de reparo bem sucedida dentro de um dado tempo”. Ou seja, a manutenibilidade mede a facilidade e a velocidade com que um sistema pode ser restaurado para um estado operacional após uma falha ocorrer. Por exemplo, se um sistema possui 90% de manutenibilidade em uma hora, isso significa que há 90% de probabilidade de que o mesmo será reparado dentro de uma hora. A principal variável levada em conta para o cálculo da manutenibilidade é o tempo de reparo. Segundo Kraus (1988), o parâmetro de manutenibilidade mais comumente utilizado é o tempo médio para reparo, ou MTTR (mean time to repair). O MTTR é medido como o tempo transcorrido para se efetuar uma operação de manutenção, e é utilizado para se estimar o tempo em que o sistema não está operacional e também a sua disponibilidade. Sua representação é dada por: 23 Onde, i = taxa de falha da unidade i; i = tempo para reparo da unidade i; n = número de unidades. 7.0 Disponibilidade A disponibilidade é um critério de medida de desempenho utilizado em sistemas reparáveis, e que considera a confiabilidade e a manutenibilidade dos componentes de um sistema. Ela é definida como a “probabilidade de que o sistema esteja operando adequadamente quando ele é requisitado para uso”. Analogamente, é a probabilidade de que o sistema não está falho ou necessitando uma ação corretiva quando ele precisa ser utilizado (RELIASOFT, 2003). Por exemplo, para uma lâmpada que tem 99,9% de disponibilidade, haverá uma vez em mil que, quando alguém precisar utilizar a lâmpada, ela estará não operacional, seja porque ela está queimada ou porque está sofrendo um processo de substituição. A figura a seguir ilustra a relação existente entre a confiabilidade, manutenibilidade e disponibilidade. 24 Figura 6: Relação entre a confiabilidade, manutenibilidade e disponibilidade Segundo Kraus (1988), existem várias maneiras de se medir a disponibilidade. Três delas são citadas pelo autor: a disponibilidade inerente, a disponibilidade atingida e a disponibilidade operacional. • Disponibilidade inerente – probabilidade de que um sistema ou equipamento irá operar satisfatoriamente em um determinado momento de tempo. Ela é considerada em um ambiente de manutenção ideal e exclui os tempos não‐ operacionais de esperas administrativas, manutenção, logística, entre outros (KRAUS, 1988). Ela pode ser calculada da seguinte maneira: • Disponibilidade atingida – probabilidade de que um sistema ou equipamento irá operar satisfatoriamente em um determinado momento de tempo. Ela é considerada em um ambiente de manutenção ideal e exclui os tempos não‐ operacionais de esperas administrativas e de logística. Ela inclui os tempos não‐ operacionais de ação preventiva ou corretiva (KRAUS, 1988). Pode‐se calculá‐la da seguinte maneira: Para computá‐la, deve‐se considerar o tempo médio entre manutenções, MTBM (mean time between maintenance), e o tempo médio não‐operacional de manutenção (M ). 25 • Disponibilidade operacional – probabilidade de que um sistema ou equipamento irá operar satisfatoriamente em um determinado momento de tempo. Ela considera os tempos de esperas administrativas, logística, e o tempo em que o equipamento está pronto, mas inativo ou desligado (KRAUS, 1988). Ela pode ser calculada da seguinte maneira: De acordo com Villemeur (1992), o tempo médio não‐operacional, MDT (mean downtime), é a média de tempo em que o sistema está indisponível devido à falha. Ele considera os tempos de detecção das falhas, de reparo e o tempo necessário para colocar novamente a unidade em operação. Segundo a Reliasoft (2003), a disponibilidade operacional é aquela que o consumidor efetivamente experimenta, sendo essencialmente a posteriori, pois é baseada em eventos que aconteceram no sistema. A disponibilidade prévia, ou a priori, é baseada em modelos de falhas e distribuições que levam em conta os tempos de inatividade. Na maioria dos casos, a disponibilidade operacional não pode ser controlada pelo fabricante, devido a variação em localização, recursos e outros fatores atribuídos exclusivamente ao usuário final do produto. Vamos a um exemplo! Uma empresa que concebe e produz cartazes para exposições e eventos de promoção de vendas, compete fortemente com base em sua rapidez de entrega. Uma peça específica de do equipamento que a empresa usa está causando alguns problemas. É sua impressora colorida a laser de plataforma grande. Atualmente, o tempo médio 26 entre falhas da impressora é de 70 horas e o tempo médio de para consertá‐la é de seis horas. Temos que: Ai = 92,0 670 70 A empresa discutiu seu problema com o fornecedor da impressora, que ofereceu duas propostas alternativas para o serviço. Uma opção seria adquirir via terceirização a manutenção preventiva, que seria realizada em cada final de semana. Isto aumentaria o MTBF da impressora para 90 horas. A outra opção seria contratar um serviço de reparos mais rápido, o que reduziria o MTTR para quatro horas. As duas opções custariam o mesmo. Qual daria a maior disponibilidade para a empresa? Com o MTBF aumentando para 90 horas teríamos: Ai = 938,0 690 90 Com o MTTR reduzido para quatro horas teríamos: Ai = 946,0 470 70 27 A disponibilidade seria maior se a empresa aceitasse a proposta que oferecia o tempo de conserto mais rápido. 8.0 Prevenção e recuperação de falhas Segundo Slack (2000) existem três tarefas de prevenção e recuperação de falhas: • Recuperação – lidar com a situação quando as coisas vão mal de fato. Apagar incêndio; • Melhorar a confiabilidade do sistema – fazer as coisas pararem de dar errado; • Detecção e análise de falhas – descobrir o que está saindo errado e porquê. Dentre os mecanismos mais conhecidos para identificação de falhas de forma proativa, estão: • Verificação no processo – os funcionários verificam durante o próprio processo se o serviço ou produto sendo montado é aceitável; • Diagnóstico de máquinas – rotinas executadas nas máquinas para a confirmação de seu adequado funcionamento; • Entrevistas na saída – no final de um serviço verificar se o mesmo foi satisfatório ou não; • Pesquisas telefônicas – solicitar opinião do consumidor potencial sobre um produto ou serviço; • Grupos focalizados – identificar um grupo de clientes e solicitar análise de produto ou serviço; • Fichas de reclamações ou feedback – solicitar do consumidor seu ponto de vista sobre os produtos ou serviços; • Questionários – podem ser direcionados aos consumidores ou para uma 28 equipe especializada em um determinado produto ou serviço. Geram respostas as mais variadas e podem não identificar queixas específicas. Existem métodos estatísticos utilizados principalmente pela força de venda, com o interesse de medir não somente a opinião negativa ou produtiva de um produto ou serviço, mas também o de auxiliar na previsão de demandas. Alguns deles são: • Métodos Qualitativos: Avaliação Subjetiva: Pesquisa de opinião junto à força de vendas; Pesquisa de Mercado com consumidores finais; Júri de executivos. Avaliação Exploratória: Métodos de construção de cenários; Método Delphi (utilizam‐se uma seqüência de questionários aplicados a especialistas da empresa); Método de analogia (comparação com situações anteriores e com concorrentes, entre outros). • Métodos Quantitativos: Projeção de Tendência: Extrapolação; Suavização; Médias. Métodos causais ou explicativos: Correlação; Regressão; Modelos econométricos. Estes métodos descritos podem ser automatizados através de recursos de simulação computacional, tornado uma tarefa complexa (por utilizar estatística e especialistas da empresa) em uma ferramenta diária para a execução de planejamento. 29 De posse das informações que identificam as falhas é necessário meios para sua análise e correção, de forma que não exista o efeito de reincidência da falha. Dentre estes meios está a Análise do Efeito e Modo de Falhas (FMEA – Failure Mode And Affect Analysis), visto em mais detalhes no próximo tópico. 9.0 Failure Mode And Affect Analysis A metodologia de Análise do Tipo e Efeito de Falha, conhecida como FMEA (do inglês Failure Mode and Effect Analysis), é uma ferramenta que busca, em princípio, evitar, por meio da análise das falhas potenciais e propostas de ações de melhoria, que ocorram falhas no projeto do produto ou do processo. Este é o objetivo básico desta técnica, ou seja, detectar falhas antes que se produza uma peça e/ou produto. Pode‐se dizer que, com sua utilização, se está diminuindo as chances do produto ou processo falhar, ou seja, estamos buscando aumentar sua confiabilidade. Esta dimensão da qualidade, a confiabilidade, tem se tornado cada vez mais importante para os consumidores, pois, a falha de um produto, mesmo que prontamente reparada pelo serviço de assistência técnica e totalmente coberta por termos de garantia, causa, no mínimo, uma insatisfação ao consumidor ao privá‐lo do uso do produto por determinado tempo. Além disso, cada vez mais são lançados produtos em que determinados tipos de falhas podem ter conseqüências drásticas para o consumidor, tais como aviões e equipamentos hospitalares nos quais o mau funcionamento pode significar até mesmo um risco de vida ao usuário. Apesar de ter sido desenvolvida com um enfoque no projeto de novos produtos e processos, a metodologia FMEA, pela sua grande utilidade, passou a ser aplicada de diversas maneiras. Assim, ela atualmente é utilizada para diminuir as falhas de produtos e processos existentes e para diminuir a probabilidade de falha em processos administrativos. Tem sido empregada também em aplicações específicas tais como análises de fontes de risco em engenharia de segurança e na indústria de alimentos. 30 A norma QS 9000 especifica o FMEA como um dos documentos necessários para um fornecedor submeter uma peça/produto à aprovação da montadora. Este é um dos principais motivos pela divulgação desta técnica. Deve‐se, no entanto implantar o FMEA em um empresa, visando‐se os seus resultados (vide importância) e não simplesmente para atender a uma exigência da montadora. Esta metodologia pode ser aplicada tanto no desenvolvimento do projeto do produto como do processo. As etapas e a maneira de realização da análise são as mesmas, ambas diferenciando‐se somente quanto ao objetivo. Assim as análises FMEA´s são classificadas em dois tipos: • FMEA de produto: na qual são consideradas as falhas que poderão ocorrer com o produto dentro das especificações do projeto. O objetivo desta análise é evitar falhas no produto ou no processo decorrentes do projeto. É comumente denominada também de FMEA de projeto. • FMEA de processo: são consideradas as falhas no planejamento e execução do processo, ou seja, o objetivo desta análise é evitar falhas do processo, tendo como base as não conformidades do produto com as especificações do projeto. Há ainda um terceiro tipo, menos comum, que é o FMEA de procedimentos administrativos. Nele analisam‐se as falhas potenciais de cada etapa do processo com o mesmo objetivo que as análises anteriores, ou seja, diminuir os riscos de falha. Pode‐se aplicar a análise FMEA nas seguintes situações: • Diminuir a probabilidade da ocorrência de falhas em projetos de novos produtos ou processos; 31 • Diminuir a probabilidade de falhas potenciais, ou seja, que ainda não tenham ocorrido em produtos/processos já em operação; • Aumentar a confiabilidade de produtos ou processos já em operação por meio da análise das falhas que já ocorreram; • Diminuir os riscos de erros e aumentar a qualidade em procedimentos administrativos. O princípio da metodologia é o mesmo independente do tipo de FMEA e a aplicação, ou seja, se é FMEA de produto, processo ou procedimento e se é aplicado para produtos/processos novos ou já em operação. A análise consiste basicamente na formação de um grupo de pessoas que identificam para o produto/processo em questão suas funções, os tipos de falhas que podem ocorrer, os efeitos e as possíveis causas desta falha. Em seguida são avaliados os riscos de cada causa de falha por meio de índices e, com base nesta avaliação, são tomadas as ações necessárias para diminuir estes riscos, aumentando a confiabilidade do produto/processo. Para aplicar‐se a análise FMEA em um determinado produto/processo, portanto, forma‐se um grupo de trabalho que irá definir a função ou característica daquele produto/processo, irá relacionar todos os tipos de falhas que possam ocorrer, descrever, para cada tipo de falha suas possíveis causas e efeitos, relacionar as medidas de detecção e prevenção de falhas que estão sendo, ou já foram tomadas, e, para cada causa de falha, atribuir índices para avaliar os riscos e, por meio destes riscos, discutir medidas de melhoria. 32 9.1 Etapas para a Aplicação do FMEA Planejamento: Esta fase é realizada pelo responsável pela aplicação da metodologia e compreende: • Descrição dos objetivos e abrangência da análise: em que se identifica qual (ais) produto(s) /processo(s) será (ão) analisado(s);• Formação dos grupos de trabalho: em que se definem os integrantes do grupo, que deve ser preferencialmente pequeno (entre 4 a 6 pessoas) e multidisciplinar (contando com pessoas de diversas áreas como qualidade, desenvolvimento e produção); • Planejamento das reuniões: as reuniões devem ser agendadas com antecedência e com o consentimento de todos os participantes para evitar paralizações; • Preparação da documentação (ver na figura 3 a documentação necessária). Análise de Falhas em Potencial: Esta fase é realizada pelo grupo de trabalho que discute e preenche o formulário FMEA de acordo com os passos que seguem abaixo: • Função (ções) e característica(s) do produto/processo; • Tipo(s) de falha(s) potencial (is) para cada função; • Efeito(s) do tipo de falha; • Causa(s) possível(eis) da falha; • Controles atuais. Avaliação dos Riscos: Nesta fase são definidos pelo grupo os índices de severidade (S), ocorrência (O) e detecção (D) para cada causa de falha, de acordo com critérios previamente definidos 33 (um exemplo de critérios que podem ser utilizados é apresentado nas tabelas abaixo, mas o ideal é que a empresa tenha os seus próprios critérios adaptados a sua realidade específica). Depois são calculados os coeficientes de prioridade de risco (R), por meio da multiplicação dos outros três índices. Observações Importantes • Quando o grupo estiver avaliando um índice, os demais não podem ser levados em conta, ou seja, a avaliação de cada índice é independente. Por exemplo, se estamos avaliando o índice de severidade de uma determinada causa cujo efeito é significativo, não podemos colocar um valor mais baixo para este índice somente porque a probabilidade de detecção seja alta. • No caso de FMEA de processo podem‐se utilizar os índices de capacidade da máquina, (Cpk) para se determinar o índice de ocorrência. Melhoria: Nesta fase o grupo, utilizando os conhecimentos, criatividade e até mesmo outras técnicas como brainstorming, lista todas as ações que podem ser realizadas para diminuir os riscos. Estas medidas podem ser: • Medidas de prevenção total ao tipo de falha; • Medidas de prevenção total de uma causa de falha; • Medidas que dificultam a ocorrência de falhas; • Medidas que limitem o efeito do tipo de falha; • Medidas que aumentam a probabilidade de detecção do tipo ou da causa de falha; Estas medidas são analisadas quanto a sua viabilidade, sendo então definidas as que serão implantadas. Uma forma de se fazer o controle do resultado destas medidas é 34 pelo próprio formulário FMEA por meio de colunas que onde ficam registradas as medidas recomendadas pelo grupo, nome do responsável e prazo, medidas que foram realmente tomadas e a nova avaliação dos riscos. Continuidade: O formulário FMEA é um documento “vivo”, ou seja, uma vez realizada uma análise para um produto/processo qualquer, esta deve ser revisada sempre que ocorrerem alterações neste produto/processo específico. Além disso, mesmo que não haja alterações deve‐se regularmente revisar a análise confrontando as falhas potenciais imaginadas pelo grupo com as que realmente vem ocorrendo no dia‐a‐dia do processo e uso do produto, de forma a permitir a incorporação de falhas não previstas, bem como a reavaliação, com base em dados objetivos, das falhas já previstas pelo grupo. 35 Ponderação dos Riscos: Importância Defeito Improvável: repercursão não perceptível no comportamento do produto ou do sistema. O cliente não perceberá o defeito. Defeito sem importância: repercursão insignificante para o cliente, que perceberá provavelmente uma pequena falta de eficiência do produto ou sistema. Defeito Medianamente Grave: deixa o cliente insatisfeito, sentindo-se chateado pelo defeito. Defeito Grave: provoca insatisfação no cliente, não se tratando porém de segurança ou do não cumprimento de disposições. Defeito Extremamente Grave: afeta a segurança, não cumpre as disposições legais ou torna o produto ou serviço indisponível. Avaliação 1 2 / 3 4 / 5 / 6 7 / 8 9 / 10 Importância Defeito Improvável: repercursão não perceptível no comportamento do produto ou do sistema. O cliente não perceberá o defeito. Defeito sem importância: repercursão insignificante para o cliente, que perceberá provavelmente uma pequena falta de eficiência do produto ou sistema. Defeito Medianamente Grave: deixa o cliente insatisfeito, sentindo-se chateado pelo defeito. Defeito Grave: provoca insatisfação no cliente, não se tratando porém de segurança ou do não cumprimento de disposições. Defeito Extremamente Grave: afeta a segurança, não cumpre as disposições legais ou torna o produto ou serviço indisponível. Avaliação 1 2 / 3 4 / 5 / 6 7 / 8 9 / 10 Ocorrência Improvável: é improvável que ocorra um defeito. Muito Pequena: o projeto corresponde, em geral, a projetos anteriores onde ocorreram relativamente poucos erros. Pequena: o projeto corresponde, em geral, a projetos anteriores onde ocasionalmente ocorreram defeitos. Mediana: o projeto corresponde, em geral, a projetos anteriores onde ocorreram vários problemas. Alta: É quase certo que apareçam defeitos em grande escala. Avaliação 1 2 / 3 4 / 5 / 6 7 / 8 9 / 10 Frequência tende a 0 1 / 10.000 1 / 2.000 1 / 1.000 1 / 200 1 / 100 1 / 20 1 / 10 1 / 2 Ocorrência Improvável: é improvável que ocorra um defeito. Muito Pequena: o projeto corresponde, em geral, a projetos anteriores onde ocorreram relativamente poucos erros. Pequena: o projeto corresponde, em geral, a projetos anteriores onde ocasionalmente ocorreram defeitos. Mediana: o projeto corresponde, em geral, a projetos anteriores onde ocorreram vários problemas. Alta: É quase certo que apareçam defeitos em grande escala. Avaliação 1 2 / 3 4 / 5 / 6 7 / 8 9 / 10 Frequência tende a 0 1 / 10.000 1 / 2.000 1 / 1.000 1 / 200 1 / 100 1 / 20 1 / 10 1 / 2 Detecção Alta: defeito funcional, facilmente perceptível nas fases subsequentes do trabalho. Mediana: característica defeituosa visível. Controle 100% automático de uma característica simples. A probabilidade mínima de detecção é de 99,7%. Pequena: característica defeituosa fácil de reconhecer. Controle 100% automático de uma característica mensurável. A probabilidade mínima de detecção é de 98%. Muito Pequena: característica defeituosa difícil de ser reconhecida. Controle visual ou manual de 100%. A probabilidade de detecção é superior a 90%. Improvável: característica não é ou não pode ser controlada. Defeito oculto, impossível de ser reconhecido na fabricação ou montagem. Avaliação 1 2 / 3 / 4 / 5 6 / 7 / 8 9 10 Detecção Alta: defeito funcional, facilmente perceptível nas fases subsequentes do trabalho. Mediana: característica defeituosa visível. Controle 100% automático de uma característica simples. A probabilidade mínima de detecção é de 99,7%. Pequena: característica defeituosa fácil de reconhecer. Controle 100% automático de uma característica mensurável. A probabilidade mínima de detecção é de 98%. Muito Pequena: característica defeituosa difícil de ser reconhecida. Controle visual ou manual de 100%. A probabilidade de detecção é superior a 90%. Improvável: característica não é ou não pode ser controlada. Defeito oculto, impossível de ser reconhecido na fabricação ou montagem. Avaliação 1 2 / 3 / 4 / 5 6 / 7 / 8 9 10 36 Importância: A metodologia FMEA é importante porque pode proporcionar para a empresa: • Uma forma sistemática de se catalogar informações sobre as falhas dos produtos/processos; • Melhor conhecimento dos problemas nos produtos/processos;• Ações de melhoria no projeto do produto/processo, baseado em dados e devidamente monitoradas (melhoria contínua); • Diminuição de custos por meio da prevenção de ocorrência de falhas; • O benefício de incorporar dentro da organização a atitude de prevenção de falhas, a atitude de cooperação e trabalho em equipe e a preocupação com a satisfação dos clientes. Integração FMEA de Processo com CAPP: Na confecção do FMEA de processo deve‐se primeiramente levantar e registras todas as características do processo. Se a empresa estiver trabalhando com um sistema CAPP, que possua operações padrão, todas as operações deveriam ser interfaceadas automaticamente para o FMEA. Assim, o tempo de obtenção do FMEA seria menor e seria garantida a consistência com os processos/operações definidas. 10.0 Faut Tree Analysis A crescente necessidade de melhorar a qualidade de produtos e a satisfação dos clientes tem popularizado vários métodos e técnicas que visam melhorar a confiabilidade de produtos e processos, ou seja, aumentar a probabilidade de um item desempenhar sua função sem falhas. A análise da árvore de falhas (Fault Tree Analysis – FTA) visa melhorar a confiabilidade de produtos e processos através da análise sistemática de possíveis falhas e suas conseqüências, orientando na adoção de medidas corretivas ou preventivas. 37 A Construção do Diagrama O diagrama da árvore de falhas mostra o relacionamento hierárquico entre os modos de falhas identificados no FMEA. O processo de construção da árvore tem início com a percepção ou previsão de uma falha, que a seguir é decomposto e detalhado até eventos mais simples. Dessa forma, a análise da árvore de falhas é uma técnica de eventos gerais que são desdobrados em eventos mais específicos. Como a Árvore de Falha é um processo lógico, uma simbologia de lógica padrão e eventos é utilizada para representá‐la (O’CONNOR, 1983), conforme mostrado abaixo. Figura 7: Simbologia utilizada na árvore de falhas Legenda: • Figura 12a – Porta E – a falha ocorrerá se todas as entradas falharem; • Figura 12b – Porta OU – a falha ocorrerá se qualquer entrada falhar; • Figura 12c – Retângulo – uma falha que resulta de efeitos combinados ou de outra falha; • Figura 12d – Círculo – evento básico, que não necessita de subdivisões; 38 • Figura 12e – Diamante – evento básico, que pode ser subdivido em outros eventos básicos, mas que não é feito por falta de informações ou utilidade; • Figura 12f – Diamante duplo – evento básico, que depende de outros eventos inferiores, e importante o suficiente para justificar uma análise em separado. A seguir é mostrado um exemplo de um diagrama FTA aplicado a uma falha em um motor de elétrico. O evento inicial, que pode ser uma falha observada ou prevista, é chamado de evento de topo, e está indicado pela seta azul. A partir desse evento são detalhadas outras falhas até chegar a eventos básicos que constituem o limite de resolução do diagrama. As falhas mostradas em amarelo compõem o limite de resolução deste diagrama. Figura 8: Aplicação de FTA É possível adicionar ao diagrama elementos lógicos, tais como ‘e’ e ‘ou’, para melhor caracterizar os relacionamentos entre as falhas. Dessa forma é possível utilizar o diagrama para estimar a probabilidade de um falha acontecer a partir de eventos mais específicos. O exemplo abaixo mostra uma árvore aplicada ao problema de superaquecimento em um motor elétrico utilizando elementos lógicos. 39 Figura 9: Aplicação de FTA com portas lógicas 11.0 Causas de falhas em sistemas eletrônicos Segundo Denson (1998), a premissa dos métodos tradicionais é de que a causa primária que determina a taxa de falha em um sistema, são os seus componentes. Mas, um número importante de falhas também pode ser atribuído como sendo de não‐componentes, tais como, design e fabricação. As principais causas de falha, segundo Denson (1998), podem ser distribuídas da seguinte maneira: 1. Componentes (22%) – falhas resultantes de um componente, como por exemplo, um transistor, um microprocessador, um resistor, entre outros; 2. Sem defeito (20%) – falhas percebidas, mas que não podem ser reproduzidas mesmo com testes adicionais. Podem não ser realmente uma falha, mas causam a remoção e reposição logística; 3. Fabricação (15%) – resultante de anomalias no processo de fabricação, tais como soldas inadequadas, conectores tortos, entre outros; 40 4. Induzidas (12%) – falhas resultantes de anomalias externas, tais como tensões inadequadas da rede elétrica e quedas; 5. Design (9%) – falhas que advém de um desenvolvimento inadequado do equipamento, ou um projeto não‐robusto o suficiente para determinada condição ambiental; 6. Envelhecimento (9%) – falhas resultantes do envelhecimento dos componentes, tais como capacitores eletrolíticos, tubos de imagem, contatos de relês, entre outros; 7. Software (9%) – falha de um sistema em executar determinada função devido à manifestação de um defeito de software; 8. Gerenciamento do sistema (4%) – falhas em interpretar os requisitos do sistema, ou em providenciar os recursos necessários para desenvolver e fabricar um sistema confiável. 12.0 Redundância Introduzir redundância em uma produção significa ter sistemas ou componentes de reserva para casos de falhas. Pode ser uma solução dispendiosa para reduzir a probabilidade de falha e é geralmente usada quando a interrupção do funcionamento pode ter um impacto crítico. Redundância significa duplicar ou triplicar alguns dos componentes de um sistema, de forma que estes elementos redundantes possam entrar em ação quando um componente falha. Por exemplo, hospitais possuem geradores de eletricidade de reserva, que entram em ação quando da interrupção de energia pela concessionária. O componente de reserva também pode ser pessoas, como também ocorre em hospitais. A confiabilidade de um componente junto com sua reserva é dada pela soma da confiabilidade do componente original e a probabilidade de que o componente de reserva seja tanto necessário como esteja trabalhando. Desta forma: 41 falhaPRRR baba , onde: • Ra+b é confiabilidade do componente a com seu componente de reserva b; • Ra é a confiabilidade do componente a sozinho; • Rb é a confiabilidade do componente de reserva b; • P(falha) é a probabilidade que o componente a falhe e, portanto, o componente b seja necessário. Vamos retornar ao exemplo da pizzaria! Naquele exemplo um dos componentes do sistema era o aplicador de queijo. Este componente apresentava um nível de confiabilidade menor dentre os demais. Por ele ser menos confiável foi necessário adaptar um segundo aplicador de queijo que entrará em função se o primeiro falhar. Os dois aplicadores de queijo possuem confiabilidade de 0,90, trabalhando juntos terão uma confiabilidade de: 99,090,0190,090,0 falhaPRRR baba A confiabilidade de todo o sistema é então de: R = R1 X R2 X ... X Rn R = 0,95 X 0,99 X 0,97 X 0,99 X 0,98 = 0,885 As áreas tradicionais onde são empregados sistemas tolerantes a falhas ou redundantes são: 42 • Aplicações críticas de sistemas de tempo real como medicina, controle de processos e transportes aéreos; • Aplicações seguras de tempo real como transportes urbanos; • Aplicações em sistemas de temporeal de longo período de duração sem manutenção, como em viagens espaciais, satélites e sondas; • Aplicações técnicas como telefonia; • Aplicações comerciais como sistemas de transação e redes locais. Essas áreas não abrangem todo o universo de aplicações onde tolerância a falhas pode ser empregada com vantagens para o usuário de sistemas de computação. Exigências quanto a disponibilidade e confiabilidade são encontradas em qualquer área. Usuários, que inicialmente se mostram satisfeitos em contar apenas com a simples automação de serviços, logo passam a desejar que esses serviços sejam prestados corretamente e sem interrupções. Sistemas tolerantes a falhas são caros e portanto empregados apenas naquelas situações em que a sua não utilização acarretaria prejuízos irrecuperáveis. 13.0 Objetivos políticas da Confiabilidade Segundo Bradin (1988), os objetivos servem para dirigir a organização em direção aos resultados e também como padrões nos quais as realizações podem ser mensuradas. Dependendo da área de atuação da empresa, os objetivos ou os requisitos de confiabilidade de um produto são especificados contratualmente pelos consumidores ou podem ser estabelecidos internamente por aqueles que decidem qual o nível de confiabilidade o produto deve possuir. No último caso, ela seria baseada em fatores de mercado através do balanço entre o custo da confiabilidade e o risco da inconfiabilidade. 43 Um modelo de como a inter‐relação das atividades de planejamento de um produto pode influenciar no estabelecimento dos objetivos da confiabilidade pode ser visto na figura a seguir. Figura 10: Interação das atividades no planejamento de um produto A confiabilidade experimentada por consumidores, de itens produzidos por uma empresa, é resultado das ações, ou inações, de todos os elementos organizacionais que contribuíram ou influenciaram nos requisitos, na criação e no modo de ser do produto. Esses elementos estão distribuídos por toda a companhia, desde o departamento de marketing, vendas, serviços de campo, entre outros. Alguns desses elementos criam confiabilidade, ao passo que outros preservam ou fazem melhorias nela. Alguns impactam diretamente sobre ela, e outros de forma indireta, mas todos, de uma maneira ou outra, têm um potencial, maior ou menor, para causar algum impacto sobre ela. 44 De acordo com Slack (2002), raramente as falhas são resultados de aleatoriedades. A origem das falhas é primeiramente devido a algum tipo de erro humano, como por exemplo, um projeto ruim, uma manutenção inadequada, um erro na gestão de um programa de fornecimento, uma operação inadequada, instruções de uso imprecisas, entre outros. Isso significa que até certo ponto as falhas podem ser controladas, e que as organizações podem aprender com elas e conseqüentemente modificar seus comportamentos. Slack (2002) definiu o chamado conceito de “falha como uma oportunidade”, com a seguinte citação: “Em vez de identificar um ‘culpado’, que é considerado responsável e criticado pela falha, elas são vistas como uma oportunidade de examinar porque ocorreram e de implementar procedimentos que eliminam ou reduzem a probabilidade de ocorrerem novamente”. No contexto acima descrito, cabe às empresas a definição clara e objetiva com relação às políticas de confiabilidade utilizadas por sua organização. Estas freqüentemente se deparam com situações em que se faz necessário um estabelecimento da direção por parte da gerência, de modo a assegurar que as decisões e ações tomadas conduzam ao completo atendimento da missão e dos objetivos pretendidos. As políticas estabelecem esta direção definindo as áreas de preocupação e indicando o resultado desejado, ou especificando quais são essas direções e as ações que devem ser tomadas. Segundo Brandin (1988) as políticas de confiabilidade são necessárias nas organizações para assegurar a criação, manutenção e melhoria da confiabilidade e, para ser efetiva, ela deve partir da alta administração. Se a alta administração apoiar tais políticas, elas ganham credibilidade e legitimidade, e serão dessa maneira respeitadas. A responsabilidade final sobre a confiabilidade recai sobre o topo da administração. Ela é responsável por perseguir a confiabilidade da maneira e da extensão prescrita pela política. 45 14.0 2.11 A confiabilidade e o impacto em custos Segundo Moss (1988), apesar de o termo confiabilidade ser repetido por dezenas de engenheiros e gerentes, na maioria dos casos ele é mais sustentado apenas por palavras do que por ações, sem uma noção real de como aplicá‐lo. O autor cita ainda que pior é a crença de que alta qualidade e confiabilidade são caras e dessa crença ser aceita quase que universalmente, até mesmo por aqueles que conhecem sobre o assunto. Na realidade, os custos para se remediar a qualidade ou a confiabilidade são muito superiores ao custos para estimá‐la e preveni‐la. De acordo com estudos apresentados por Moss (1988), em grandes e supostamente bem administradas companhias, os custos da qualidade podem exceder em 20% a receita, e que até três quartos desses custos são devido às atividades que se prolongam, ou ainda existem porque o produto ou serviço não estava correto da primeira vez. Segundo Moss (1988), em uma indústria de produtos eletrônicos, as principais atividades que podem acarretar um aumento desses custos são: • Engenharia – o abandono – depois de pronto – de projetos defeituosos, reprojeto de produtos defeituosos, testes e documentação de reprojetos e esforços de projeto desviados para a produção; • Manufatura – localização e diagnóstico de defeitos, retrabalhos e testes, rejeitos defeituosos, obsolescência devido ao reprojeto, aumento do estoque, retrabalho em peças que ainda não estão terminadas, mudança de documentação, apressamento da manufatura, aumento das horas‐extras; • Marketing – altos custos de venda, altos custos de produção, altos custos da instalação, altos custos de manutenção e suporte, altos custos da garantia. Moss (1988) ainda explica que alguns custos atribuídos ao marketing, como por exemplo, altos custos de venda, são difíceis de se avaliar, mas todos concordamos que é muito mais difícil vender um produto não‐confiável, pois os gastos para promovê‐lo são maiores. 46 Outros custos são mais tangíveis, como por exemplo, o alto custo de produção, pois a produção e entrega de produtos problemáticos é atrasada ou intermitente. Os altos custos de manutenção e suporte são ocasionados por uma maior necessidade de pessoas contratadas e treinadas, mais equipamentos e instrumentos e um maior estoque de peças sobressalentes deve ser mantido. Finalmente, os custo de garantia aumentam porque é necessário bancar com recursos próprios os custos para substituir ou reparar o produto defeituoso. 15.0 Teste do quociente de confiabilidade Determine o Quociente de Confiabilidade (QC) da sua organização respondendo a este breve questionário (fonte: http://www.philipcrosby.com.br): 1) Os processos para a qualidade da sua organização têm os resultados esperados? 2) As atividades organizadas rotineiramente acontecem conforme foram planejadas? 3) Os problemas são solucionados de forma permanente ao invés de ser remediados temporariamente? 4) Todos os requisitos dos processos de trabalho são efetivos, consistentes e comunicados a todas as pessoas envolvidas? 5) Todos os colaboradores de sua organização entendem que ésua responsabilidade pessoal fazer as coisas certo? 6) Os clientes consideram que sua organização é confiável, ou seja, que fornece exatamente aquilo que necessitam na hora certa, de modo eficiente e a preços acessíveis? 7) Se você é o gerente ou diretor de Qualidade, considera que "fazer a qualidade acontecer" é fácil na sua organização? 8) Seus colegas desejam fazer as coisas certo e sabem como fazer isso acontecer? 47 9) A Alta Administração está satisfeita com o tempo que é necessário esperar para a obtenção de resultados provenientes dos esforços dedicados à melhoria? 10) A Gerência sabe como sensibilizar e mobilizar toda a organização para promover a confiabilidade? CAPA Confiabilidade