segunda-feira, 27 de agosto de 2012

Professor Erik Hollnagel - Entrevista Transcrita

Na última terça-feira tive a oportunidade de participar de um curso ministrado pelo Prof. Erik Hollnagel, notável personagem que há muitos anos estuda a segurança no trabalho, abordando temas como Erro Humano, Engenharia de Resiliência, Ergonomia Cognitiva, etc. Foi ele também aquele que formulou o ETTO Principle, mencionado aqui em outras ocasiões. Lembrei então de uma entrevista que havia transcrito para repassar a alguns colegas e resolvi postá-la aqui. O áudio original está no endereço abaixo:

Site Namahn

Entrevistador: Eu sou Joannes Vandermeulen e hoje recebemos Dr. Erik Hollnagel,
atualmente professor da Mines Paris Tech (antiga École des Mines). Erik Hollnagel tem, desde 1971, trabalhado em universidades, centros de pesquisas e em indústrias em inúmeros países, lidando com questões em diversas áreas, incluindo geração de energia nuclear, indústria aeroespacial, aviação civil, engenharia de Software gestão de tráfego aéreo, saúde, tráfego terrestre. Seus interesses profissionais incluem segurança industrial, engenharia de resiliência, investigação de acidentes, design de sistemas cognitivos e ergonomia cognitiva. Já publicou mais de 250 artigos e editou e/ou escreveu cerca de treze livros. Dr Hollnagel, obrigado per ter vindo.

E.H.: Obrigado pelo convite. É um excelente lugar para estar. Estou ansioso para nossas discussões e para aquilo que se seguirá.

Entrevistador: Em uma conferência da OTAN, sobre Erro Humano em 1983, você afirmou que “erro humano” não é uma categoria útil, e sim que “ação humana” era mais interessante. E você também escreveu que inventar mecanismos distintos para cada tipo de erro humano pode ser uma boa diversão, mas não é muito sensato do ponto de vista científico. Você poderia nos explicar isso?

E.H.: Sim, eu posso tentar explicar. A conferência da OTAN em 83, bem...desde que eu havia sido indicado para falar sobre erro humano, eu recebi uma série de questões antes da conferência para responder, e me fizeram pensar. À época eu já vinha trabalhando há muitos anos em erro humano e acidentes relacionados a erro humano, etc. E para mim era óbvio que “erro humano” não é uma categoria útil, o que ficou ainda mais claro nos anos seguintes a razão, mas...uma das razões é que é uma categoria ambígua, significa muitas coisas. Se você olhar a literatura, como o termo tem sido usado na literatura, e na prática também, ele pode significar pelo menos três coisas: pode significar o resultado de uma ação, o resultado de alguma coisa, quando se diz, “isto foi um erro humano”. Pode significar também a ação propriamente dita: “ele a) cometeu um erro”. Pode também significar a causa de uma ação: “isto aconteceu por causa de um erro humano”. E, do ponto de vista científico, se você tem um termo que tem três diferentes sentidos – ou mesmo dois diferentes sentidos – você deveria ficar longe dele, porque ele não te ajuda.

Entrevistador: A comunidade científica tem passado a concordar com essa visão?

E.H.: A resposta é não. Vem acontecendo um longo debate sobre erro humano e este tem alcançado um status de fenômeno genuíno...e muitos livros são escritos sobre o tema, muitos artigos, e de modo geral, todos referem-se a erro humano como uma causa. Anos atrás, talvez dez anos atrás, um certo número de pessoas começou a demonstrar insatisfação com esta visão e começaram a propor uma nova visão acerca do erro humano, que significa não usá-lo no sentido de culpar pessoas ou encontrar alguém responsável, o que é praticamente o que acontece com maior freqüência “sim, isso é um erro humano”, “sim, alguém foi o responsável” e a partir disso “o colocaremos na prisão” ou “re-educaremos, treinaremos” ou “o demitimos”, dependendo do contexto de trabalho em que a coisa acontece. Mas sob essa nova visão a que me referi diríamos não, não deveríamos abordar a questão do ponto de vista da responsabilização, nós deveríamos tentar entender que as pessoas, de fato, em condições normais de trabalho, tentam fazer o que elas pensam ser o melhor, elas não tentam errar, ninguém tenta errar. E caso elas cometam um erro intencionalmente, não seria um erro, claro, pois las teriam feito o que queriam fazer. Então nós tínhamos esse debate acerca da nova visão e eu e outros colegas dizíamos que não, nós não deveríamos ter qualquer visão sobre erro humano, pois não é um conceito útil...Então...este debate está ainda em andamento, e as correntes principais na literatura ainda falam de erro humano como se fosse um conceito importante.

Entrevistador: Nós queríamos falar hoje sobre o que você chama o Princípio ETTO, um conceito importante para compreender falhas em sistemas complexos. Você poderia nos explicar o que significa?

E.H.: Bem, eu poderia começar por explicar o que a sigla significa: ETTO Efficiency Thoroughness Trade-Off) significa Escolha Conflitante entre Eficiência e Minuciosidade. E o que o princípio aponta para o que acontece em praticamente qualquer coisa que fazemos: uma escolha conflitante entre diversos critérios, outras pessoas chamam de uma decisão sacrificante, pois você sacrifica uma coisa para conseguir outra. Então, é uma escolha conflitante, nesse caso, a principal escolha é feita entre EFICIÊNCIA – que significa finalizar a tarefa, produzir o que se deve produzir – e MINUCIOSIDADE – que significa fazer as coisas buscando a perfeição, checando o que há pra checar, fazer as coisas corretamente, etc. E o que nós vemos é que...certamente na sociedade moderna(mas também em outras épocas) você tem a mesma questão, você não consegue ser tão eficiente quanto gostaria nem tão perfeito quanto gostaria ao mesmo tempo. Simplesmente não há tempo suficiente para isso. Assim, você muitas vezes tem que pular etapas, fazer sacrifícios, buscar atalhos. Isso significa que você deixa de buscar a perfeição, você é menos meticuloso do que aquilo que você, no fundo, sabe que poderia ser, mas você o faz, claro, pelo bem, pelo seu bem e pelo bem do trabalho que você tem a realizar, de modo que você é capaz de o fazer. Talvez, o mais óbvio exemplo disso é aquilo que vemos nas disputas trabalhistas, algo chamado “work to rule” onde se passa a trabalhar apenas seguindo normas e procedimentos. Por que quando as pessoas discordam de algo e não querem fazer greve eles podem “trabalhar à regra”: “nós seguimos os procedimentos, seguimos as normas”. Isso acontece no controle de tráfego aéreo, por exemplo, bancos fazem isso.

Entrevistador: Desacelerando o passo do trabalho...

E.H.: Isso não apenas desacelera o ritmo. Essa situação mostra de fato que as coisas não funcionam A NÃO SER que façamos atalhos, A NÃO SER que façamos escolhas conflitantes entre eficiência e perfeição.

Entrevistador: Sim. Exatamente.

E.H.: Assim, acho que esse é o exemplo mais poderoso que temos

Entrevistador: Como esse princípio se aplica à compreensão de falhas...

E.H.: Sim se aplica, se queremos evitar o uso do conceito erro humano como explicação de algo que deu errado. De vez em quando alguma coisa dá errado e nós nos deparamos com resultados para os quais não havíamos planejado, nem esperávamos, com situações que não queríamos. A explicação clássica é dizer “isto foi causado por um erro humano”. Mas você pode também dizer “isto não é um erro porque o que as pessoas fazem é tentar tomar os atalhos que repetidamente tomam e que normalmente funcionam. E elas continuam a fazê-lo em situações onde, por circunstâncias específicas, não funcionam. Mas não se pode chamar isso erro, pois isso é feito todos os dias e todos os dias são recompensados por isso. Isso de fato permite-lhes realizar o trabalho com os recursos disponíveis, dentro dos limites de tempo, etc. E continuam a fazê-lo em situações onde não deveriam e os resultados indesejados surgem. Mas olhar para o passado e acusar “isso é um erro humano” não nos ajuda em nada. Nós deveríamos entender que as pessoas fazem isso e que de fato elas precisam fazer isso. Bem aí depois você vem e diz “você não deveria ter sido tão rápido, você deveria ter planejado melhor, pensado melhor”. Mas como você saberia disso antes do que aconteceu?Você simplesmente não pode.

Entrevistador: Para onde isto nos leva em termos de prevenção de acidentes?

E.H.: Bem, se você quer prevenir acidentes você precisa saber porque acidentes acontecem. E você precisa conhecer os mecanismos dos acidentes. E se o mecanismo é Erro humano, você tentará prevenir o erro humano. Se o mecanismo é que pessoas fazem escolhas conflitantes (trade-offs) e....bem todo mundo faz escolhas conflitantes, e se eu fosse trabalhar com você eu buscaria conhecer a forma como você faz os seus “trade-off’s” para ajustar à minha maneira de fazê-los de modo a termos um sistema estável. Então, nós temos que entender quais escolhas conflitantes são feitas e sob quais condições elas são feitas, pois tais escolhas poderão levar a acidentes.

Entrevistador:...e aceitar isso como algo natural, e tentar conhecer melhor essa complexa interação entre eficiência e minuciosidade.

E.H.: Eu acho que devemos tentar entender que há uma certa regularidade na forma
como fazemos “trade-off’s”. Que os trade-off´s que eu faço não são aleatórios. Que eu aprendi que determinadas escolhas funcionam e que eu aprendi que sob determinadas condições uma determinada escolha é uma boa forma de sair de uma situação adversa, economizando tempo, por exemplo. E que há uma certa regularidade e que profissionais ligados à psicologia, fatores humanos, etc. deveriam tentar compreender aquilo que chamo de “variabilidade do desempenho normal”. E se você entende a variabilidade do desempenho normal, você poderá saber em que condições a variabilidade pode se combinar de maneira indesejável e a partir disso poderá planejar intervenções para prevenir tais situações.


Segunda Parte

Entrevistador: Em um artigo para ser publicado em língua japonesa você afirma, eu cito: “se sistemas sócio-técnicos fossem relativamente estáveis e mudassem apenas
lentamente, a experiência a partir de acidentes e incidentes ocorridos seria por algum tempo suficiente para garantir um nível aceitável de segurança”. Minha pergunta para você é, quão otimista você é em termos da possibilidade de sermos capazes de evitar grandes falhas, considerando o fato de que os sistemas tornam-se cada vez mais entrelaçados e mais complexos o tempo todo, ou não?

E.H.: Sim, os sistemas tornam-se cada vez mais entrelaçados e complexos e mais
dependentes entre si. Nós vemos que quando algo falha, por exemplo, se você tem um...não há muito tempo tivemos um blackout na França e toda a sociedade parou em função disso. Então eu acho que, independente de gostarmos ou não, a sociedade vai se tornando cada vez mais complexa, assim como a tecnologia de que dependemos, e eu acho que acidentes acontecerão, graves acidentes acontecerão. Não há como evitar a não ser que voltemos atrás e tentemos construir uma sociedade mais simples, de modo idealista, voltar à natureza e viver de modo mais simples, o que acho interessante. Eu
gostaria de viver uma vida menos estressante, mas não acho que isso seja possível. Então o que eu acho que devemos saber é que estas coisas acontecerão e que devemos entender PORQUE elas acontecem, entender os mecanismos. Nós precisamos entender
o que faz a sociedade falhar e o que a faz funcionar bem.

Entrevistador: Certo. Não a eliminação completa, o que seria impossível, mas mitigar, reduzir...

E.H.: Nós podemos mitigar, podemos nos proteger contra os efeitos de grandes falhas e temos que assumir riscos para conseguir o que pretendemos conseguir, para termos as facilidades que precisamos. Nós nos tornamos tão dependentes da aviação que nós precisamos dela. Não há formas de desconstruirmos o sistema de tráfego aéreo que temos agora e ele tem se tornado mais e mais complexo. Mas nós podemos tentar compreender como o risco pode ser percebido, como as coisas dão errado e assim, ou tentar prevenir de vários modos que tais coisas aconteçam ou limitar os seus efeitos. Tomemos os navios, por exemplo. Navios afundarão, eles estão sobre água e de modo geral afundarão. Você não pode prevenir que absolutamente nenhum navio afunde, mas você pode se proteger de eventos indesejados ao, por exemplo, construindo compartimentos separados, de modo que se há um buraco no casco, em apenas um compartimento a água entrará e não no navio inteiro. Eu não vou mencionar o Titanic ou outra terrível história, mas o princípio é bem conhecido, e funciona.

Entrevistador: Em um outro artigo você dividiu um sistema para caracterizar diferentes tipos de acidentes e este sistema é uma variação do sistema proposto por
Perrow (Charles Perrow), o qual tem interatividade em uma dimensão e acoplagem (coupling) em outra. Você traz gerenciabilidade e acoplagem, como alternativa. E esse artigo publicado em fevereiro de 2008 traz um novo tipo de acidente, no mercado financeiro, o qual tem como características uma baixa gerenciabilidade e alta acoplagem, mais alta que sistemas de plantas nucleares e missões espaciais.

E.H.: Eu gostaria de voltar ao sistema do Perrow. Uma das coisas interessantes que ele fez foi sugerir que é possível caracterizar sistemas sócio-técnicos em duas dimensões. Uma dimensão é Acoplagem, o grau de acoplagem, sistemas poder ter alta ou baixa acoplagem. A outra é interatividade, que vai desde linearidade à complexidade. E a abordagem embasa a tese de que os sistemas estão se tornando mais fortemente acoplados e mais complexos e, portanto, os acidentes deveriam ser considerados “ocorrências normais”...

Entrevistador: neste sentido, o título do livro dele...

E.H.: neste sentido o título do livro é “acidentes normais”, de 1984, o qual completará 25 anos no próximo ano. Eu sempre tive problema com a noção de complexidade...

Entrevistador: você refere-se à dimensão de Interatividade...

E.H.: Sim. Interatividade, desde que um dos pólos desta dimensão é a complexidade. E eu meio que pensava que a questão mais importante não é bem a complexidade, mas é quando não podemos descrever o que está acontecendo num sistema. Não podemos gerir. São incontroláveis pois são impassíveis de descrição. Por essa razão, eu sugeri que deveríamos substituir essa dimensão por uma outra, numa escala onde em um dos pólos teríamos algo que chamamos sistemas rastreáveis e no outro teríamos sistemas não rastreáveis. Rastreável basicamente significa que você pode descrever e que pode confiar na possibilidade de ter uma descrição completa do que acontece no sistema, você compreende o que está acontecendo dentro do sistema. Isto significa que o sistema não é complexo, obviamente. Isto é quase a definição de simplicidade. No outro extremo você tem sistemas que são não rastreáveis, característica esta que pode se dever a muitas razões. Uma delas é “nós não sabemos bem o que acontece, não entendemos os mecanismos do funcionamento do sistema". A outra é que “os sistemas mudam tão rapidamente que nunca teremos tempo para realizar o que se pode chamar uma descrição completa”. Isso significa que você está lidando com uma descrição incompleta do sistema. E eu escolhi o sistema financeiro não porque eu queria prever o que poderia acontecer e, podendo fazê-lo eu mudaria minhas carteiras de investimento (risos), tenha certeza, mas porque eu, por muito tempo pensava o sistema financeiro como um sistema que as pessoas não compreendem completamente, incluindo economistas, e há muitos economistas famosos que concordam com isso. Eles dizem: “nós não temos boas teorias econômicas”, “nós não sabemos realmente como a economia funciona”. Então, é um sistema não rastreável. E eu acho que os eventos ocorridos nos últimos 6 ou nove meses têm definitivamente corroborado essa idéia, de que é um sistema não rastreável. Eu meio que lia com certa satisfação as notícias do mercado financeiro pois, o que quer que seja, é de fato um sistema muito complexo, com muitos atores, muitas interações, muitas interdependências, e se você olhar bem, eles tentam controlá-lo de um modo muito simples: pela taxa de juros. É como você ter apenas um indicador num sistema complexo e você não sabe como este indicador funciona, que atrasos de tempo existem, você não sabe como de fato este indicador funciona dentro do sistema. E agora nos EUA eles mudaram ao extremo esse indicador, para taxa de juros zero. E se isso não funcionar, o que eles podem fazer? Eu não acho que eles tenham uma descrição completa sobre o que as mudanças na taxa de juros fazem exatamente com o mercado. Talvez, todo mundo acredite que elas funcionam e essa é provavelmente a razão pela qual elas funcionam. Então, eu acho que é um sistema psicológico mais que qualquer outra coisa.

Entrevistador: Há também muita fraude envolvida...

E.H.: Oh, sim, muita fraude, (risos) muita ganância e, mentiras e, deus sabe o que mais, e se você viu os últimos esquemas, o que é terrível. Isto é interessante para psicólogos, claro.

Terceira parte

Entrevistador: Em outra ocasião, você afirmou que racionalidade deveria ser considerado algo não natural. Racionalidade é um artefato de um modo específico de olhar o mundo, de pensar e não um traço constante da cognição humana. Certamente, a racionalidade, nos séculos XX e XXI, é considerada algo que deve se dar naturalmente para os humanos e você considera que isso não acontece na realidade.

E.H.: Eu acho que o que nós normalmente chamamos racionalidade sim, mas eu acho que a racionalidade é um artefato da Lógica. Se voltarmos a Aristóteles tentando em sua lógica criar regras para o pensamento de modo a chegarmos em conclusões acertadas e evitar conclusões erradas. E essa transformou-se na norma da racionalidade.

Entrevistador: As características formais da pensamento.

E.H.: As características formais da pensamento. E por essa razão falamos em pensamento racional. Este debate tem sido particularmente intensa na área de tomada de decisões onde temos teorias da tomada de decisões racionais, embasadas pela noção de homus economicus, o qual raciocina de acordo com a teoria econômica. E você tem teorias descritivas da decisão, teorias naturalistas e outras versões, as quais alegam que as pessoas não são racionais nos termos em que boa parte das teorias da decisão supõem. E na verdade, de um modo geral as teorias tem aceitado tal fato. Mas nós também caregamos conosco a idéia de que racionalidade é o que Anderson certa vez fez a distinção entre “cognição quente” e “cognição fria”.

Entrevistador: Anderson?

E.H.: John...Anderson eu esqueço seu primeiro nome. Ele escreveu um livro sobre psicologia cognitiva nos anos 70. E ele usou os termos “cognição quente” e “cognição fria”. Cognição fria é o pensamento racional. Cognição quente é o tipo de coisa emocional, afetiva. E eu acho que em nossa cultura e, certamente na civilização ocidental, cultura cristã, nós separamos a cognição fria e a cognição quente. E a racionalidade emocional não é considerada racionalidade. Mas o fato é que o que fazemos todos os dias, em nossas atividades, nós não conseguimos separar os dois. Nós agimos de modo sensato e eu acho que você pode falar em uma racionalidade pragmática ou produção de sentido, o que seria um termo melhor. Mas não é racionalidade no sentido em que as pessoas usam quando dizem “eu preciso tomar uma decisão racional, eu preciso fazer uma escolha racional”.

Entrevistador: Então racionalidade não é sequer um ideal a ser buscado?

E.H.: Eu acho que é, em grande medida, um artefato de nossa cultura. Você não encontraria uma mesma idéia de racionalidade em civilizações orientais. Então não é algo como uma dádiva de deus – ou é pelo menos na cultura ocidental (risos) – não é uma dádiva universal e certamente não é um traço da cognição humana, porque a cognição humana do modo como falamos hoje é focada no processamento de informação, uma metáfora introduzida nas décadas de 40 e 50. Antes não existia isso e nós não tínhamos as questões que temos agora. Eu acho que a maior parte das idéias sobre cognição hoje estão inspiradas em computadores digitais, o que significa apenas olhamos aquilo a que foi chamado cognição fria: o ordenamento, passo-a-passo, o algoritmo etc. E as outras formas de cognição, as outras formas de acontecimentos dentro da mente humana são tão ou mais importantes e não podem ser comparadas a computadores digitais. E portanto nós as deixamos de lado e tendemos a acreditar que elas não estão ali.