Sistema crítico de segurança - Safety-critical system

Exemplos de sistemas críticos para a segurança. No sentido horário a partir do topo: a cabine de vidro de um C-141 , um marca - passo , a sala de controle de uma usina nuclear e o ônibus espacial .

Um sistema crítico para a segurança ( SCS ) ou sistema crítico para a vida é um sistema cuja falha ou mau funcionamento pode resultar em um (ou mais) dos seguintes resultados:

  • morte ou ferimentos graves a pessoas
  • perda ou dano grave ao equipamento / propriedade
  • dano ambiental

Um sistema relacionado à segurança (ou às vezes sistema envolvido com segurança ) compreende tudo (hardware, software e aspectos humanos) necessário para executar uma ou mais funções de segurança, em que a falha causaria um aumento significativo no risco de segurança para as pessoas ou meio ambiente envolvidos. Sistemas relacionados à segurança são aqueles que não têm responsabilidade total pelo controle de riscos como perda de vidas, ferimentos graves ou danos ambientais graves . O mau funcionamento de um sistema envolvido na segurança só seria perigoso em conjunto com a falha de outros sistemas ou erro humano . Algumas organizações de segurança fornecem orientação sobre sistemas relacionados à segurança, por exemplo, o Health and Safety Executive (HSE) do Reino Unido .

Riscos desse tipo são geralmente gerenciados com os métodos e ferramentas da engenharia de segurança . Um sistema crítico de segurança é projetado para perder menos de uma vida por bilhão (10 9 ) horas de operação. Os métodos de projeto típicos incluem avaliação de risco probabilística , um método que combina modo de falha e análise de efeitos (FMEA) com análise de árvore de falha . Os sistemas essenciais para a segurança são cada vez mais baseados em computador .

Regimes de confiabilidade

Existem vários regimes de confiabilidade para sistemas críticos de segurança:

  • Os sistemas operacionais com falha continuam a operar quando seus sistemas de controle falham. Exemplos disso incluem elevadores , termostatos a gás na maioria dos fornos domésticos e reatores nucleares passivamente seguros . O modo operacional de falha às vezes não é seguro. O lançamento de armas nucleares com perda de comunicação foi rejeitado como sistema de controle para as forças nucleares dos Estados Unidos porque é operacional em falha: uma perda de comunicação causaria o lançamento, portanto, esse modo de operação foi considerado muito arriscado. Isso é contrastado com o comportamento mortal de falha do sistema de perímetro construído durante a era soviética.
  • Os sistemas fail-soft são capazes de continuar operando temporariamente com eficiência reduzida em caso de falha. A maioria dos pneus sobressalentes é um exemplo disso: eles geralmente vêm com certas restrições (por exemplo, uma restrição de velocidade) e reduzem a economia de combustível. Outro exemplo é o "Modo de segurança" encontrado na maioria dos sistemas operacionais Windows.
  • Os sistemas à prova de falhas tornam - se seguros quando não podem operar. Muitos sistemas médicos se enquadram nesta categoria. Por exemplo, uma bomba de infusão pode falhar e, desde que alerte a enfermeira e pare de bombear, não representará risco de morte porque seu intervalo de segurança é longo o suficiente para permitir uma resposta humana. Da mesma forma, um controlador de queimador industrial ou doméstico pode falhar, mas deve falhar em um modo seguro (ou seja, desligue a combustão quando detectar falhas). Notoriamente, os sistemas de armas nucleares que são lançados sob comando são à prova de falhas, porque se os sistemas de comunicação falham, o lançamento não pode ser comandado. A sinalização ferroviária é projetada para ser à prova de falhas.
  • Os sistemas à prova de falhas mantêm a segurança máxima quando não podem operar. Por exemplo, enquanto as portas eletrônicas à prova de falhas destravam durante falhas de energia, as portas à prova de falhas irão travar, mantendo uma área segura.
  • Os sistemas fail-passivos continuam a operar no caso de uma falha do sistema. Um exemplo inclui um piloto automático de aeronave . Em caso de falha, a aeronave permaneceria em um estado controlável e permitiria ao piloto assumir e completar a viagem e realizar um pouso seguro.
  • Os sistemas tolerantes a falhas evitam a falha do serviço quando falhas são introduzidas no sistema. Um exemplo pode incluir sistemas de controle para reatores nucleares comuns. O método normal para tolerar falhas é ter vários computadores testando continuamente as partes de um sistema e ligar sobressalentes para subsistemas com falha. Desde que subsistemas defeituosos sejam substituídos ou reparados em intervalos normais de manutenção, esses sistemas são considerados seguros. Os computadores, fontes de alimentação e terminais de controle usados ​​por seres humanos devem ser duplicados nesses sistemas de alguma forma.

Engenharia de software para sistemas críticos de segurança

A engenharia de software para sistemas críticos de segurança é particularmente difícil. Existem três aspectos que podem ser aplicados para auxiliar o software de engenharia para sistemas críticos à vida. A primeira é a engenharia e gerenciamento de processos. Em segundo lugar, selecionar as ferramentas e o ambiente apropriados para o sistema. Isso permite que o desenvolvedor do sistema teste efetivamente o sistema por emulação e observe sua eficácia. Em terceiro lugar, trate de quaisquer requisitos legais e regulamentares, como os requisitos da FAA para a aviação. Ao definir um padrão pelo qual um sistema deve ser desenvolvido, ele força os projetistas a cumprirem os requisitos. A indústria de aviônica obteve sucesso na produção de métodos padrão para a produção de software de aviônica essencial para a vida . Padrões semelhantes existem para a indústria em geral ( IEC 61508 ) e automotiva ( ISO 26262 ), médica ( IEC 62304 ) e nuclear ( IEC 61513 ), especificamente. A abordagem padrão é codificar, inspecionar, documentar, testar, verificar e analisar cuidadosamente o sistema. Outra abordagem é certificar um sistema de produção, um compilador , e então gerar o código do sistema a partir das especificações. Outra abordagem usa métodos formais para gerar provas de que o código atende aos requisitos. Todas essas abordagens melhoram a qualidade do software em sistemas críticos para a segurança, testando ou eliminando etapas manuais no processo de desenvolvimento, porque as pessoas cometem erros, e esses erros são a causa mais comum de erros potencialmente fatais.

Exemplos de sistemas críticos para a segurança

A infraestrutura

Medicina

Os requisitos de tecnologia podem ir além de evitar o fracasso e podem até mesmo facilitar a terapia intensiva médica (que lida com a cura de pacientes) e também o suporte de vida (que serve para estabilizar os pacientes).

Engenharia nuclear

Lazer

Transporte

Estrada de ferro

  • Sinalização ferroviária e sistemas de controle
  • Detecção de plataforma para controlar portas de trem
  • Parada automática de trem

Automotivo

Aviação

Voo espacial

Veja também

Referências

links externos