Académique Documents
Professionnel Documents
Culture Documents
MO828 Eng. Software II Prof.- Eliane Martins Aluna: Flvia Zaroni Camargo RA: 20489
SAFETY
Sistema seguro aquele que est livre de acidentes ou perdas; No fcil alcanar total e completa segurana, procura-se chegar o mais perto possvel ao ideal; Segurana uma propriedade do sistema, e no uma propriedade dos componentes, portanto a anlise de segurana considera todo o sistema e no simplesmente os componentes;
Utilizando o conceito tradicional de segurana (safety), poderamos tentar aumentar a confiabilidade do sistema e introduzir tcnicas de tolerncia a falhas ? Este conceito no funciona porque acidentes relacionados a sistemas quase nunca esto relacionados a falta de confiabilidade ou um problema por no estar satisfazendo a especificao;
Perigos (Hazard)
Definio de Perigos (hazards), Leveson: Um estado ou um conjunto de condies do sistema que combinadas com outras condies do ambiente do sistema podem levar a um acidente. Perigo diferente de falha. Os perigos podem resultar em um acidente. Uma falha uma no conformidade de uma funo de um componente.
Para alcanar a segurana, devemos comear com a identificao e a anlise dos perigos; Esta anlise deve ter incio o mais cedo possvel na fase de projeto, cedo o suficiente para afetar a especificao de requisitos; Uma vez que os perigos so identificados, passos podem ser tomados para elimin-los, reduzir seus semelhantes,ou abrandar seus efeitos; Tambm algumas causas dos perigos podem ser identificadas e eliminadas ou controladas;
Usualmente impossvel antecipar todas as causas potenciais de perigos, obtendo mais informaes sobre eles usualmente permite grande proteo a ser provida. Como parte de PHA podem ser produzidos partes de uma rvore de falhas para operaes. Como cita um dos artigos o que fizeram com um sistema chamado TRACON (Terminal Radar Approach Control)
Modelos usados para anlise de perigos so chamados de caixa preta pois no mostram detalhes de implementao; Estes modelos mostram para cada estmulo do ambiente relevante, a transio de estado; procuram mostrar o modelo de comportamento externo do sistema; Estas informaes so necessrias para carregar a mquina de estado da anlise de perigos (SMHA);
Forward / Backward
Em buscas forward (por induo) podemos procurar estados iniciais e rastrear avanando no tempo. O resultado um conjunto de estados ou condies que representam os efeitos em iniciar o evento; Em buscas backward (por deduo) a anlise comea com um evento final ou estado e identifica os eventos ou estados. Buscas backward so teis em acidentes, investigaes e tambm em se eliminando ou controlando os perigos durante o desenvolvimento do sistema, investigando potenciais acidentes depois que eles tenham ocorrido;
Utilizando a lista de perigos, alto nvel de segurana no projeto pode ser identificado; A anlise de perigos do sistema examina interfaces entre os sub-sistemas para avaliar a segurana do sistema trabalhando; Para determinar se e como o sistema pode estar nos estados de perigos; Eliminar perigos do projeto e se possvel, ou control-los se no for possvel elimin-los; Identificar e resolver conflitos ente os objetivos do projeto e dos pontos de segurana do projeto;
Anlise de Perigos
A anlise de perigos requer algum tipo de modelo do sistema, que pode ser uma especificao do sistema escrita de maneira informal ou formatada, ou um modelo matemtico formal; Diferentes modelos permitem diferentes tipos de anlises e para adicional rigor; Como exemplo, em um dos artigos foi utilizado o modelo caixa preta (blackbox).
Metodologia Safeware
A metodologia de Safeware pode ser integrada em qualquer sistema e ambiente de desenvolvimento; Em experincias desenvolvidas por Leveson e seus alunos utilizaram um projeto experimental que utiliza novas linguagens e ferramentas chamado SpecTRM (Specification Tools and Requirement Methodology); O objetivo do SpecTRM dar suporte ao projeto, implementao e evoluo de sistemas complexos e crticos em segurana;
Referncias
System Safety in Computer-Controlled Automotive Systems. Nancy G. Levenson http://sunnyday.mit.edu/papers/sae.pdf