É muito comum ouvirmos que a causa de um acidente foi o fator humano, especialmente na área da aviação. Enquanto James T. Reason propôs em 1.990 o modelo da Trajetória de Condições Latentes para explicar a dinâmica organizacional dos acidentes (Anexo 19 da ICAO – International Civil Aviation Organization); Edwards (1972) e Hawkings (1984) desenvolveram e aperfeiçoaram o Modelo SHELL, voltado para explicar as relações dos indivíduos com a complexidade de componentes presentes no contexto operacional do segmento aeronáutico. A ICAO então divulgou este conceito em sua Circular 216-AN31.
SHELL é um diagrama de blocos com as iniciais das palavras: Software, Hardware, Environment (ambiente), Liveware (pessoa), Liveware (outras pessoas). Vejamos cada integrante deste complexo sistema:
- (S) Software: considerado o suporte lógico, são as regras, procedimentos, documentos, manuais, NOTAM e todo desenvolvimento e operação de sistemas voltados para a atividade aérea.
- (H) Hardware: as máquinas utilizadas na operação, desde radares do controle de trafego aéreo até a TV da sala de embarque e os aparelhos da cabine de um Caravan.
- (E) Environment (ambiente): todo o contexto onde as interações L – H – S funcionam, tanto social e econômico quanto a metereológico. Aqui entram fatores como instalações físicas, organização e divisão de trabalho, clima organizacional, etc.
- (L) Liveware: são as pessoas. O controlador, o piloto de avião, os engenheiros, o gerente da empresa que administra a aeronave, etc. Neste tópico considera-se os fatores físicos (peso, visão, etc), fisiológicos (fome, doenças, cansaço, etc.) e psicológicos (stress, treinamento, experiência, etc.).
- (L) Liveware: todas as pessoas que interagem com o operador no momento da ação, tanto outros profissionais da área, quanto outras – a faxineira, a esposa, o passageiro, etc. Neste item estão os fatores psicossociais (pressão do chefe, divórcio, brigas, etc).
Tendo desmembrado as interações em partes, tornou-se obvio que o ponto mais flexível e mais crítico do sistema é o Liveware, especialmente quanto interagiam com outros Livewares ( L – L). Dados estatísticos divulgados pela Boeing em 2.004 mostraram que 62% dos acidentes aéreos envolvendo aeronaves de grande porte são causados por erros humanos – e pelos mais diversos motivos: falha de treinamento, estresse, fadiga, desatenção, imprudência, imperícia, negligência, erro de julgamento, falha de planejamento, supervisão deficiente, falta de coordenação entre a tripulação, falhas de comunicação, operação indevida do equipamento e outros. A verdade é que não existe ser humano livre de erros.
O erro humano é geralmente visto como consequência negativa da interação do Liveware com os outros componentes (S H E). No geral, a resposta da maioria das pessoas a um erro humano seria uma das duas abaixo:
- É impossível remover todas as falhas humanas, e como isso não é possível, não há o que fazer!
- Vamos remover o humano falho!
Pois nenhuma destas duas alternativas é eficiente na gestão operacional de recursos humanos. Os erros devem ser aceitos como um componente normal em qualquer sistema no qual seres humanos interagem com tecnologia. Sabendo disto, fica claro que os outros componentes do sistema tem que ser cuidadosamente preservado e associado ao indivíduo, ou o stress no sistema poderá causar uma ruptura que podia ter sido evitada. Sempre que for necessário compreender a interação de um sistema complexo, este modelo propõe que seja observada as interações dentro do diagrama de bloco. Sendo o Liveware o componente menos previsível e o mais suscetível a efeitos internos (fome, cansaço, motivação, tristeza, etc) e externos (temperatura, luminosidade, pressões externas); deve-se observar como o Liveware interage com os outros elementos do sistema.
Vamos olhar agora este modelo sob aspecto do paraquedismo, que tal?
L: Estamos com sono? Fome? Frio? Cansados? Desmotivados?
L – S: A interação dos paraquedistas com as regras e procedimentos poderia ser melhor? Podemos nos tornar mais conscientes estudando as normas e agindo conforme previsto? Podemos criar novas regras de segurança?
L – H: Como podemos melhorar nossa interação com o equipamento? Podemos nos esforçar para checar visualmente o equipamento do colega, mesmo ele sendo um God? Podemos nos lembrar de solicitar um check no nosso equipamento antes de ir para porta mesmo sendo instrutores?
L – E: Estamos em uma boa condição metereológica para sair da aeronave? A aeronave está adequada?
L – L: Este é definitivamente o ponto mais crítico. As interações entre humanos podem causar falhas graves no sistema. O atleta que ficou nervoso na aeronave porque o God zombou dele, o paraquedista que recebeu uma chamada porque quase perdeu a decolagem e saiu correndo, o cat AI que estava achando que já sabia muito e não prestou atenção na revisão do instrutor.
Esses são apenas exemplos, mas se pensar com cuidado, verá que todos nós podemos mais cedo ou mais tarde estar em uma situação vulnerável como estas. Afinal, somos humanos, e todos nós podemos errar. É importante que os outros componentes do sistema estejam funcionando corretamente: as normas, os equipamentos, os fatores metereologicos – assim nossa chance de ruptura sistêmica diminui. O que podemos fazer como paraquedista para ajudar é apenas tomar cuidado na maneira que interagimos com o próximo – pode ser que a sua ação afete diretamente a segurança do salto da outra pessoa.