quinta-feira, 6 de setembro de 2012

A esquizofrenia e o arremedo de ciência

Há pouco mais de dois anos, me deparei com uma referência da Professora Mary Boyle, em artigo de Kenneth Gergen. Resolvi comprar o livro. Trata-se de um texto devastador sobre o conceito de esquizofrenia. Resumindo, a autora mostra que 1) nunca se identificou claramente um padrão de sinais e sintomas relacionados entre si; 2) que, portanto, a busca por "antecedentes" é inócua, uma vez que só faz sentido buscar causas de fenômenos materialmente existentes, 3) que há discrepâncias irreconciliáveis entre o que Kraepelin (alegado "descobridor") chamou de esquizofrenia e o que hoje são os critérios diagnósticos da síndrome 4) que, consequentemente, a continuidade forjada na literatura é meramente retórica, 5) que a pesquisa contemporânea sobre o assunto é repleta de incoerências e fraudes desmedidas.

Isso é apenas um resumo dos pontos levantados e que no livro estão amplamente documentados. Resolvi traduzir partes importantes do livro e parei pelo meio de um capítulo; o sétimo. Segue tradução para aqueles que se interessam. E pensem: na psicologia e na ciência em geral há casos e mais casos análogos a esse e que não passam por qualquer crítica razoável. Muito amiúde falamos de conceitos "mal-criados" como se fossem coisas do mundo real.

Boyle, M. (1990) Schizophrenia: A scientific delusion? London: Routledge

Capítulo 7 - Sustentando e Mantendo “Esquizofrenia”: Linguagem, Argumentos e Benefícios

O conceito de esquizofrenia persiste na presença de dois grandes paradoxos. O primeiro é relativo à reivindicação de seu status científico (NOTA 1), o qual ostensivamente justifica o uso da “esquizofrenia”, bem como a busca por suas causas e curas. Como vimos, tal reivindicação é absolutamente falsa. O segundo paradoxo é o fato de ser bastante comum, por parte daqueles que sustentam o conceito de esquizofrenia, que se façam afirmações que são, para sermos diretos, absurdas, embora sejam claramente apresentadas como sensatas. Por exemplo, se transferirmos para a física ou a química a preocupação do DSM-IV em estabelecer critérios para inferência de seus conceitos que sejam “amigáveis” e de simples entendimento, ela seria motivo de escárnio; assim como o seria a afirmação de Andreasen e Carpenter de que os critérios para inferir esquizofrenia do DSM-IV são, ao mesmo tempo, “arbitrários” e de “validade robusta” para alguns propósitos. De modo similar, a introdução, feita por Spitzer, do uso de critérios diagnósticos específicos (a ligação entre conceitos e manifestações observáveis) como uma “nova abordagem ao diagnóstico psiquiátrico” (1971: 451) bem como a declaração no DSM-IV desta abordagem como uma “inovação metodológica” (1994: xvii), são francamente embaraçosas, uma vez que referem-se a um processo tão básico na ciência que seria o mesmo que um chef anunciar uma inovação metodológica na cozinha – que se deve ligar o forno primeiro.

O principal objetivo deste capítulo é tornar inteligível tal contexto; discutir como e porque a “esquizofrenia” sobrevive à despeito de suas bases teórica e empírica absolutamente frágeis; e como ela é cercada de afirmações que frequentemente fazem pouco sentido no campo científico no interior do qual a “esquizofrenia” alegadamente se situa. O ponto de partida de nossa discussão é a idéia de que a “esquizofrenia” tornou-se parte de nossa realidade – um distúrbio ou doença, descoberta certa vez e que agora passa a ser diagnosticada em indivíduos, os quais são tratados e investigados. A pergunta chave é: como essa versão da realidade foi alcançada e como tem sido mantida, como ela pôde ser tomada como razoável e inevitável? Tal questão assume que a manutenção da “esquizofrenia” é um processo ativo que requer trabalho e esforço e não algo que simplesmente acontece porque “esquizofrenia” é “verdade”.

Examinarei estas questões de quatro maneiras. A primeira é através de uma análise das formas particulares de linguagem que sistematicamente constróem o conceito de esquizofrenia. Em segundo lugar, examinarei alguns argumentos específicos frequentemente usados para sustentar a “esquizofrenia” e fazê-la parecer razoável. Terceiro, eu discutirei o que podem ser chamados hábitos de pensamento – formas habituais com as quais todos gerimos a complexidade do mundo – os quais têm importante relevância na plausibilidade da “esquizofrenia”. Estas três seções tratarão da aparente razoabilidade da “esquizofrenia”. A seção final, a “desejabilidade” da esquizofrenia, será abordada em termos dos benefícios que confere ao público e profissões bem como o papel que estes desempenham na sobrevivência do conceito.

Linguagem e a construção “realística” da “esquizofrenia”

Sobre “esquizofrenia” fala-se e escreve-se como se a linguagem utilizada simplesmente refletisse uma realidade já descoberta ou prestes a ser desvendada. Tal visão representacionista da linguagem tem sido fortemente contestada por uma séria de idéias teóricas, as quais têm em comum o pressuposto de que aquilo que pensamos como realidade ou verdade não é algo descoberto e descrito, mas construído, essencialmente através do uso estratégico da linguagem (e.g. Foucault, 1976, 1979; Potter & Wetherell, 1987; Parker, 1992; Gergen, 1999). Nesta lógica, a linguagem é concebida não apenas como uma transmissora da realidade (Parker et al. 1995), mas como um meio de construir ativamente a realidade.

A idéia de discurso é central para essa abordagem (Foucault, 1976). “Discurso” refere-se a padrões ou regularidades na forma como falamos ou escrevemos (e, consequentemente, pensamos) sobre fenômenos específicos, os quais tem efeitos significativos. O discurso, portanto, não diz respeito apenas a palavras; falar ou escrever sobre um “objeto” de um modo específico é “produzir” e fazer parecer razoável uma versão específica da realidade (e.g. existem pessoas com transtornos mentais e eles não são responsáveis por seus atos); é também convidar ou fazer parecer razoável tipos específicos de ações e respostas (e.g. que tais pessoas não deveriam ser punidas) e fazer parecer outros tipos de ações (e.g. mandá-los à prisão) irrazoáveis ou mesmo impensáveis. O discurso, portanto, está intimamente ligado a práticas e instituições sociais.

Obviamente, as diferentes formas de falar e diferentes versões da realidade não gozam de status equivalentes. Na sociedade ocidental, aquelas versões sobre eventos físicos, mentais e corporais oferecidas por aquilo que consideramos ciência e medicina gozam de maior crédito e têm maior probabilidade de ganhar o espaço público, bem como, inversamente, menor probabilidade de que sejam desafiadas por praticamente quaisquer outros sistemas de pensamento – por exempo, a religião ou a astrologia. Não é obra do acaso, portanto, que a “esquzofrenia” seja amplamente construída no seio destes dois prestigiosos sistemas; examinarei a “esquizofrenia” em relação a cada um destes sistemas, antes de abordar as formas como eles podem se ajudar reciprocamente na construção da “equizofrenia” como algo razoável.

“Esquizofrenia” e o Discurso Científico

Como Kirk e Kutchins (1992) afirmaram, a ciência e as imagens da ciência são utilizadas na “luta por influência, posição e vantagem” e são usadas por profissões “como formas de se apresentar e de apresentar suas expertises ao público para conseguir legitimidade e notoriedade” (p. 247). Uma forma de fazer isso é, obviamente, utilizar massivamente as palavras “ciência” e “científico” e contar com as formas partilhadas de compreensão acerca das implicações de tais termos. Como vimos, a literatura em torno do DSM-IV – assim como o próprio manual – é caracterizada por frequentes referências a “ciência” e a termos relacionados como “pesquisa” e “evidência empírica”. Existe, contudo, um grande número de formas mais sutis com as quais a literatura sobre “esquizofrenia” recorre a representações da ciência. A primeira forma é através daquiloque veio a ser chamado de discurso ou repertório empiricista (Potter et al. 1990; Gilbert & Mulkay, 1984), uma forma sistemática de falar e escrever que permite aos pesquisadores apresentar seus conceitos e teorias preferidas como decisões neutras, objetivas, sem qualquer envolvimento de interesses e preferências pessoais. No escrever científico, tal impressão é alcançada, por exemplo, pelo uso da voz passiva (“a pesquisa foi planejada”; “o estudo foi conduzido”) bem como pelo uso de frases que sugerem que a pesquisa meramente descobre “fatos” (“os resultados mostram que...”; “a pesquisa encontrou...”; “foi descoberto que...”; entre outros). Obviamente, é muito mais fácil manter esta aparência neutra quando falamos sobre coisas do que pessoas, principalmente sobre coisas que envolvem medidas técnicas e complexas. É significativo, portanto, que muito da literatura sobre “esquizofrenia” seja voltada para eventos físicos tais como química cerebral, dimensão ventricular, e marcadores genéticos. Este foco não apenas produz a impressão de que “esquizofrenia” é uma doença orgânica, como também mantém a idéia de uma realidade descrita objetivamente. E quando eventos físicos não são estudados, uma impressão de neutralidade pode ainda ser assegurada através do uso de experimentos, questionários padronizados com opções de respostas previamente estabelecidas; em outras palavras, através de procedimentos que criam distância entre pesquisador e pesquisado.

O processo de diagnosticar esquizofrenia, contudo, representa uma ameaça potencial à aura de neutralidade, uma vez que é inteiramente baseada no julgamento, por parte do clínico, acerca de comportamentos e relatos de experiências privadas. Tal problema foi recentemente destacado pelo questionamento por parte de uma jornalista à avaliação médica de um famoso político: “você consegue observar (o estado mental) precisa ou cientificamente ou é através de sua obervação e conversa com a pessoa?” (BBC Radio 4 World at One, 17 February 2000). Nesta dicotomia, o diagnóstico da esquizofrenia seria considerado claramente “impreciso” e “não científico”. Não é surpreendente, portanto, que tanto esforço tenha sido despendido para criar uma impressão de objetividade através do uso de critérios disgnósticos acordados, alegadamente derivados de pesquisas empíricas. Sabshin (1990), por exemplo, argumentou que o sucesso do DSM-III fora “profundamente influenciado pela necessidade de objetificação na psiquiatria americana” (1972). Em outras palavras, os idealizadores do DSM estavam bem conscientes da dicotomia inerente à pergunta da jornalista e tentaram tenazmente contorná-la. E não devemos subestimar a importância de tal esforço: se a “esquizofrenia” pode ser “encontrada” objetivamente nas pessoas através do diagnóstico ela deve, em algum sentido, existir e ter suas causas. Dessa forma, a falha de pesquisadores em encontrar tais cuasas poderá ser tolerada quase que indefinidamente. O DSM-IV e seus antecessores buscaram criar uma impressão do diagnóstico como uma atividade neutra e objetiva ao alegar que eles não categorizam pessoas (o que pode não parecer neutro), mas “transtornos (mentais) que as pessoas têm” (1994; xxii)(NOTA 2) . Distúrbios mentais são, portanto, representados como algo “lá fora”, que possuem uma existência separada que pode ser determinada objetivamente.

O uso de um discurso empiricista para representar a pesquisa e a prática como objetivas, e portanto razoáveis, está intimamente ligado a uma segunda forma de de falar e escrever que pode ser denominada de repertório técnico-racional (Schon, 1983; Kirk &Kutchins, 1992) NOTA 3). Existem duas características fundamentais neste repertório. A primeira é o uso de linguagem altamente especializada cujo sentido não encontra-se acessível ao público leigo. A segunda, é a apresentação de um grande número de questões como problemas técnicos, suscetíveis à aplicação de técnicas racionais e especializadas de resolução de problemas. Um dos aspectos mais importantes desta forma de falar é a representação de problemas como potencialmente solúveis por grupos de especialistas específicos. O primeiro artigo discutido no capítulo 5, o qual estabeleceu “princípios e abordagens norteadoras para o desenvolvimento do DSM-IV” em relação à “esquizofrenia” (Andreasen & Carpenter, 1993) constitui um excelente exemplo do uso do discurso técnico-racional para sustentar a “esquizofrenia” e fazer a busca por critérios diagnósticos parecer algo razoável. O artigo utiliza claramente os dois aspectos do discurso técnico-racional: o uso de uma linguagem técnica especializada (ex.: “abordagem da moderna biométrica”, “taxas básicas”, “sensibilidade e especificidade de sintomas”, “análise discriminante”) e a apresentação de um problema (nesse caso, a falta de um conjunto válido de Regras de Correspondência para “esquizofrenia”) como uma questão meramente técnica, a ser resolvida pela quantificação das “taxas básicas, sensibilidade e especificidade para cada sintoma incluído no conjunto de critérios diagnósticos”. Como demonstrei no capítulo 5, as idéias em torno de taxas básicas, etc. foram mal apresentadas e inteiramente inapropriadas para o problema conceitual enfrentado pelos criadores do DSM-IV; não obstante, o poder retórico desta linguagem técnica para fazer a busca por regras de correspondência para a esquizofrenia parecer razoável e provavelmente bem sucedida, está bastante claro.

Eu também demonstrei no capítulo 5 que no exato momento em que seria questionado – quando da publicação do DSM-IV – este discurso técnico-racional foi substituído por uma nova versão, na qual o problema da definição de “esquizofrenia” seria abordado no futuro, através de “validação correlacional clinico-patológica utilizando as novas técnicas da neurociência” (Andreasen & Carpenter, 1993, 205). A importância deste processo de mudança na linguagem técnica e na representação de problemas e soluções é enfatizada por Kirk e Kutchins (1992) na discussão acerca de uma fase anterior do desenvolvimento do DSM, na qual a questão da confiabilidade (e não as taxas básicas, etc.) era o destaque. Em sua minuciosa análise da questão no DSM-III, Kirk e Kutchins analisaram os processos através dos quais a falta de confiabilidade diagnóstica passou “de um problema conceitual e prático seriamente ameaçador, para um problema técnico, o qual deveria ser deixado a cargo de experts, que alcançariam soluções técnicas” (13-14). Como Kirk e Kutchins apontaram, o poder desta postura reside parcialmente na forte implicação de que se o problema da falta de confiabilidade diagnóstica está prestes a ser solucionado, então a solução para o problema ainda mais ameaçador da validade não poderia estar tão longe. Isto é, obviamente, um disparate, mas o efeito mais amplo é fazer o uso contínuo da “esquizofrenia” e outros conceitos diagnósticos parecerem razoáveis. Não apenas isso, mas a contínua mudança na linguagem técnica ao longo dos anos para se adequar às demandas do momento – da confiabilidade a taxas básicas e da especificidade dos sintomas à validação correlacional clinico-patológica – pode não ser detectada ou, pior, ser confundida com progresso. (NOTA 4)

Os discursos Empiricista e Técnico-Racional estão claramente relacionados e ambos são capazes de criar um ar de razoabilidade em torno de uma versão particular da realidade. Eles podem produzir este efetio, contudo, de formas diferentes e complementares. O discurso empiricista pode criar a impressão de que uma versão particular da realidade foi objetivamente descoberta, que ela apenas “está aí”. Tais narrativas têm a propriedade de, como Kirk e Kutchins afirmam, embotar a curiosidade, tornando os questionamentos menos prováveis. Narrativas técnico-racionais, por outro lado, tendem a mistificar; a linguagem e técnica altamente especializadas da ciência estão além da compreensão da maior parte dos leigos. Tal mistificação está bem representada na resposta oferecida por um físico vencedor do Prêmio Nobel para a pergunta feita por um jornalista, a qual requeria a descrição da pesquisa que o levou ao prêmio: “se eu conseguisse descrevê-la a você, eu não teria ganho o prêmio Nobel por ela”. O discurso técnico-racional, portanto, pode não embotar tanto a curiosidade mas pode nos deixar relutante em questionar; de fato, podemos não ter a menor idéia de que tipo de questão seria minimamente apropriada. Não apenas isso, mas a linguagem altamente especializada, utilizada por aqueles que reivindicam a autoridade da ciência, pode ser aceita simplesmente porque supomos que deve ser verdadeira ou significativa (por que eles falariam dessa forma se não fosse?). Esta relutância ao questionamento, contudo, permite uma versão da realidade tornar-se dominante e quanto menos ela é questionada, menos nos parece que precisa ser questionada. A mistificação, obviamente, pode ser um subproduto não intencional da pesquisa científica; não é intrinsecamente negativa ou ameaçadora. Mas como Kirk e Kutchins demonstraram, falar para não especialistas tem suas vantagens:

“os ouvintes não encontram-se em posição para avaliar criticamente a informação científica, os métodos utilizados para obtê-la, a precisão das interpretações oferecidas. Isto confere aos cientista uma certa liberdade.” (1992: 179)

E, como vimos, esta liberdade parece ter sido utilizada com execessiva frequência no caso da “esquizofrenia”

“Esquizofrenia” e o discurso da medicina

O segundo maior campo discursivo que sustenta a idéia de esquizofrenia é o da medicina. Como no discurso científico, a questão de interesse aqui é como o discurso ou repertórios da medicina funcionam para sustentar a “esquizofrenia”, fazê-la parecer razoável, permitir seu uso persistente e continuado compreensível, ainda que em face de severos problemas empíricos e conceituais. Examinarei alguns aspectos gerais da linguagem médica que envolvem e constróem a “esquizofrenia”, antes de discutir o papel conjunto dos discursos médico e científico, bem como as vantagens adicionais oferecidas pelo primeiro, na manutenção e proteção do conceito de esquizofrenia.

“Esquizofrenia” e a linguagem cotidiana da medicina

A “esquizofrenia” é construída no seio daquilo que podemos chamar linguagem cotidiana da medicina. Os comportamentos e experiências a partir das quais ela é inferida são denominadas sintomas e sinais; a “esquizofrenia” é identificada através de “diagnóstico” e modificada através de “terapêutica”. Um dos mais importantes efeitos dessa linguagem é que a mesma constrói “esquizofrenia” pública e profissionalmente como um objeto ou fenômeno tido como certo; se determinados comportamentos são considerados sintomas ou sinais de esquizofrenia, então, a esquizofrenia deve, em certo sentido, estar causando os mesmos; se a esquizofrenia pode ser identificada através do diagnóstico, então, ela deve, em certo sentido, ainda que abstrato, “existir”; se ela pode ser tratada, então deve ser, em certo sentido, passível de modificações. Não apenas isso, mas dessa forma são obscurecidos os processos históricos pelos quais esta linguagem médica pasou a ser aplicada a comportamentos perturbadores, para então a linguagem parecer simplesmente correta e apropriada. Mas como demonstrei, a linguagem de sintomas e sinais, diagnóstico e tratamento da forma como utilizada na medicina é passível de tradução para a linguagem mais ampla da ciência, onde sintomas e sinais tornam-se padrões de regularidades, os quais servem como regras de correspondência para conceitos; onde o diagnóstico torna-se o reconhecimento de padrões previamente identificados pesquisadores e suas inferências aos conceitos originais, e assim por diante. O problema na “esquizofrenia”, como vimos anteriormente, é que tal tradução não pode ser feita; a partir de Kraepelin, os comportamentos e experiências parecem ter sido interpretados como sintomas ou sinais de esquizofrenia de acordo como um conjunto de regras e procedimentos diversos e obscuros; não apenas isso, mas a palavra “sinal” tem sido utilizada de um modo bastante diverso daquele utilizado no discurso médico, frequentemente como um termo intercambiável ao termo “sintoma” ou para referir-se a qualquer atributo passível de mensuração “objetiva”. De modo similar, “um diagnóstico de esquizofrenia” deve significar algo diferente do reconhecimento de um padrão previamente identificado, uma vez que nenhum padrão que justificasse a inferência de um conceito tenha sido efetivamente observado.

Mas esse problema da tradução pode ser difícil de identificar, até porque a tradução de “sintoma”, “sinal” e “diagnóstico” para a linguagem mais ampla do ciência não é tão frequentemente encontrada em artigos médicos, com exceção de fontes teóricas e filosóficas especializadas. O público e muitos profissionais podem, portanto, não entender prontamente a que estes termos se referem em contextos médicos, ainda menos considerando seus significados bastante distintos no âmbito da psiquiatria. A linguagem médica, portanto, funciona como um disfarce extraordinariamente eficaz, que cria uma impressão ilegítima da similaridade entre os conceitos médicos e o conceito da esquizofrenia, conferindo assim à “esquizofrenia” uma aura de razoabilidade e respeitabilidade que, de outra forma, seria impossível sustentar.

Um outro aspecto da linguagem médica cotidiana de particular importância nas discussões sobre o diagnóstico psiquiátrico, incluindo esquizofrenia, é o conceito de doença (mental), distúrbio ou enfermidade. De fato, a quantidade de atenção dada a tais conceitos na psiquiatria – tanto em seu ataque como em sua defesa – ilustra a importância percebida. Eu discutirei alguns argumentos específicos relacionados a “doença mental” e distúrbio mental” mais adiante , mas simplesmente adianto brevemente que os conceitos gerais de doença ou distúrbio mental são absolutamente centrais para a menutenção do conceito de esquizofrenia. Primeiro, se é possível ser dito que distúrbio mental ou doença mental são coisas que existem, ou que são pelo menos conceitos válidos, então parece fazer sentido falar sobre distúrbios ou doenças específicas tais como esquizofrenia(e em muitas discussões, parece ser ponto pacífico que qualquer coisa que possa ser chamada de um distúrbio mental, então é certamente esquizofrenia). E a idéia de doenças, distúrbios ou enfermidades específicasé essencial ao uso da linguagem de sintomas, sinais e diagnóstico uma vez que o ato de denominar comportamentos como sintomas ou sinais carrega uma pergunta implícita: sintomas ou sinais de que? Como mencionei no primeiro capítulo, a questão não é apropriada – estamos realmente para qual conceito estes fenômenos constituem regras de correspondência? – embora tam maneira de falar tenha se tornado tão comum que se algum psiquiatra pretende usar termos como sinais ou sintomas ele deve ter uma resposta para a pergunta “sinais ou sintomas de que?” em termos de doenças ou distúrbios específicos. Uma segunda razão pela qual os termos genéricos “doença” ou “distúrbio” mental são tão importantes é que se a validade de um “distúrbio” específico é contestada, parece natural que é apenas necessário um ajuste do conceito ou a subsitituição por um outro, e não um re-exame de todo o sistema de pensamento. Finalmente, os termos “doença” ou “distúrbio mental” mantém viva a idéia de que tais “doenças” possuem uma causa física ou biológica, mesmo quando tentativas de encontrá-las não tenham qualquer sucesso.


(NOTA 1) Uma vez que se reivindica o status científico ao conceito de Esquizofrenia, é apenas natural que o mesmo seja avaliado segundo os parâmetros que regem a ciência (por mais diversidade que “ciência” possa representar). Neste sentido, o primeiro capítulo discute exaustivamente a Validade de “esquizofrenia”. A constatação é que o mesmo não preenche qualquer requisito básico (e.g. um padrão de manifestações – sintomas e/ou sinais – nunca foi identificado para que justificasse a inferência de tal conceito) que justifique sua existência e manutenção. Como exemplo, Boyle oferece a comparação com o conceito de Diabetes, o qual, entre outras coisas, foi de fato inferido a partir da identificação de um padrão de regularidades: um grupo de sintomas que se relacionam entre si, com antecedentes comuns e que permitiam predições sobre o curso de manifestações futuras.
(NOTA 2) O processo descrito por Boyle resume bem os objetivos do uso do discurso científico no caso da esquizofrenia. Trata-se de tentar retratar o conceito como uma mera representação de algo que existe “lá fora” e não como um conceito construído social e historicamente.
(NOTA 3) Assim como a autora ao longo de todo o livro, utilizo aqui os termos repertório e discurso como sinônimos.
(NOTA 4) A construção narrativa que sugere uma imagem de progresso é de fato uma das características marcantes do discurso científico.

segunda-feira, 27 de agosto de 2012

Professor Erik Hollnagel - Entrevista Transcrita

Na última terça-feira tive a oportunidade de participar de um curso ministrado pelo Prof. Erik Hollnagel, notável personagem que há muitos anos estuda a segurança no trabalho, abordando temas como Erro Humano, Engenharia de Resiliência, Ergonomia Cognitiva, etc. Foi ele também aquele que formulou o ETTO Principle, mencionado aqui em outras ocasiões. Lembrei então de uma entrevista que havia transcrito para repassar a alguns colegas e resolvi postá-la aqui. O áudio original está no endereço abaixo:

Site Namahn

Entrevistador: Eu sou Joannes Vandermeulen e hoje recebemos Dr. Erik Hollnagel,
atualmente professor da Mines Paris Tech (antiga École des Mines). Erik Hollnagel tem, desde 1971, trabalhado em universidades, centros de pesquisas e em indústrias em inúmeros países, lidando com questões em diversas áreas, incluindo geração de energia nuclear, indústria aeroespacial, aviação civil, engenharia de Software gestão de tráfego aéreo, saúde, tráfego terrestre. Seus interesses profissionais incluem segurança industrial, engenharia de resiliência, investigação de acidentes, design de sistemas cognitivos e ergonomia cognitiva. Já publicou mais de 250 artigos e editou e/ou escreveu cerca de treze livros. Dr Hollnagel, obrigado per ter vindo.

E.H.: Obrigado pelo convite. É um excelente lugar para estar. Estou ansioso para nossas discussões e para aquilo que se seguirá.

Entrevistador: Em uma conferência da OTAN, sobre Erro Humano em 1983, você afirmou que “erro humano” não é uma categoria útil, e sim que “ação humana” era mais interessante. E você também escreveu que inventar mecanismos distintos para cada tipo de erro humano pode ser uma boa diversão, mas não é muito sensato do ponto de vista científico. Você poderia nos explicar isso?

E.H.: Sim, eu posso tentar explicar. A conferência da OTAN em 83, bem...desde que eu havia sido indicado para falar sobre erro humano, eu recebi uma série de questões antes da conferência para responder, e me fizeram pensar. À época eu já vinha trabalhando há muitos anos em erro humano e acidentes relacionados a erro humano, etc. E para mim era óbvio que “erro humano” não é uma categoria útil, o que ficou ainda mais claro nos anos seguintes a razão, mas...uma das razões é que é uma categoria ambígua, significa muitas coisas. Se você olhar a literatura, como o termo tem sido usado na literatura, e na prática também, ele pode significar pelo menos três coisas: pode significar o resultado de uma ação, o resultado de alguma coisa, quando se diz, “isto foi um erro humano”. Pode significar também a ação propriamente dita: “ele a) cometeu um erro”. Pode também significar a causa de uma ação: “isto aconteceu por causa de um erro humano”. E, do ponto de vista científico, se você tem um termo que tem três diferentes sentidos – ou mesmo dois diferentes sentidos – você deveria ficar longe dele, porque ele não te ajuda.

Entrevistador: A comunidade científica tem passado a concordar com essa visão?

E.H.: A resposta é não. Vem acontecendo um longo debate sobre erro humano e este tem alcançado um status de fenômeno genuíno...e muitos livros são escritos sobre o tema, muitos artigos, e de modo geral, todos referem-se a erro humano como uma causa. Anos atrás, talvez dez anos atrás, um certo número de pessoas começou a demonstrar insatisfação com esta visão e começaram a propor uma nova visão acerca do erro humano, que significa não usá-lo no sentido de culpar pessoas ou encontrar alguém responsável, o que é praticamente o que acontece com maior freqüência “sim, isso é um erro humano”, “sim, alguém foi o responsável” e a partir disso “o colocaremos na prisão” ou “re-educaremos, treinaremos” ou “o demitimos”, dependendo do contexto de trabalho em que a coisa acontece. Mas sob essa nova visão a que me referi diríamos não, não deveríamos abordar a questão do ponto de vista da responsabilização, nós deveríamos tentar entender que as pessoas, de fato, em condições normais de trabalho, tentam fazer o que elas pensam ser o melhor, elas não tentam errar, ninguém tenta errar. E caso elas cometam um erro intencionalmente, não seria um erro, claro, pois las teriam feito o que queriam fazer. Então nós tínhamos esse debate acerca da nova visão e eu e outros colegas dizíamos que não, nós não deveríamos ter qualquer visão sobre erro humano, pois não é um conceito útil...Então...este debate está ainda em andamento, e as correntes principais na literatura ainda falam de erro humano como se fosse um conceito importante.

Entrevistador: Nós queríamos falar hoje sobre o que você chama o Princípio ETTO, um conceito importante para compreender falhas em sistemas complexos. Você poderia nos explicar o que significa?

E.H.: Bem, eu poderia começar por explicar o que a sigla significa: ETTO Efficiency Thoroughness Trade-Off) significa Escolha Conflitante entre Eficiência e Minuciosidade. E o que o princípio aponta para o que acontece em praticamente qualquer coisa que fazemos: uma escolha conflitante entre diversos critérios, outras pessoas chamam de uma decisão sacrificante, pois você sacrifica uma coisa para conseguir outra. Então, é uma escolha conflitante, nesse caso, a principal escolha é feita entre EFICIÊNCIA – que significa finalizar a tarefa, produzir o que se deve produzir – e MINUCIOSIDADE – que significa fazer as coisas buscando a perfeição, checando o que há pra checar, fazer as coisas corretamente, etc. E o que nós vemos é que...certamente na sociedade moderna(mas também em outras épocas) você tem a mesma questão, você não consegue ser tão eficiente quanto gostaria nem tão perfeito quanto gostaria ao mesmo tempo. Simplesmente não há tempo suficiente para isso. Assim, você muitas vezes tem que pular etapas, fazer sacrifícios, buscar atalhos. Isso significa que você deixa de buscar a perfeição, você é menos meticuloso do que aquilo que você, no fundo, sabe que poderia ser, mas você o faz, claro, pelo bem, pelo seu bem e pelo bem do trabalho que você tem a realizar, de modo que você é capaz de o fazer. Talvez, o mais óbvio exemplo disso é aquilo que vemos nas disputas trabalhistas, algo chamado “work to rule” onde se passa a trabalhar apenas seguindo normas e procedimentos. Por que quando as pessoas discordam de algo e não querem fazer greve eles podem “trabalhar à regra”: “nós seguimos os procedimentos, seguimos as normas”. Isso acontece no controle de tráfego aéreo, por exemplo, bancos fazem isso.

Entrevistador: Desacelerando o passo do trabalho...

E.H.: Isso não apenas desacelera o ritmo. Essa situação mostra de fato que as coisas não funcionam A NÃO SER que façamos atalhos, A NÃO SER que façamos escolhas conflitantes entre eficiência e perfeição.

Entrevistador: Sim. Exatamente.

E.H.: Assim, acho que esse é o exemplo mais poderoso que temos

Entrevistador: Como esse princípio se aplica à compreensão de falhas...

E.H.: Sim se aplica, se queremos evitar o uso do conceito erro humano como explicação de algo que deu errado. De vez em quando alguma coisa dá errado e nós nos deparamos com resultados para os quais não havíamos planejado, nem esperávamos, com situações que não queríamos. A explicação clássica é dizer “isto foi causado por um erro humano”. Mas você pode também dizer “isto não é um erro porque o que as pessoas fazem é tentar tomar os atalhos que repetidamente tomam e que normalmente funcionam. E elas continuam a fazê-lo em situações onde, por circunstâncias específicas, não funcionam. Mas não se pode chamar isso erro, pois isso é feito todos os dias e todos os dias são recompensados por isso. Isso de fato permite-lhes realizar o trabalho com os recursos disponíveis, dentro dos limites de tempo, etc. E continuam a fazê-lo em situações onde não deveriam e os resultados indesejados surgem. Mas olhar para o passado e acusar “isso é um erro humano” não nos ajuda em nada. Nós deveríamos entender que as pessoas fazem isso e que de fato elas precisam fazer isso. Bem aí depois você vem e diz “você não deveria ter sido tão rápido, você deveria ter planejado melhor, pensado melhor”. Mas como você saberia disso antes do que aconteceu?Você simplesmente não pode.

Entrevistador: Para onde isto nos leva em termos de prevenção de acidentes?

E.H.: Bem, se você quer prevenir acidentes você precisa saber porque acidentes acontecem. E você precisa conhecer os mecanismos dos acidentes. E se o mecanismo é Erro humano, você tentará prevenir o erro humano. Se o mecanismo é que pessoas fazem escolhas conflitantes (trade-offs) e....bem todo mundo faz escolhas conflitantes, e se eu fosse trabalhar com você eu buscaria conhecer a forma como você faz os seus “trade-off’s” para ajustar à minha maneira de fazê-los de modo a termos um sistema estável. Então, nós temos que entender quais escolhas conflitantes são feitas e sob quais condições elas são feitas, pois tais escolhas poderão levar a acidentes.

Entrevistador:...e aceitar isso como algo natural, e tentar conhecer melhor essa complexa interação entre eficiência e minuciosidade.

E.H.: Eu acho que devemos tentar entender que há uma certa regularidade na forma
como fazemos “trade-off’s”. Que os trade-off´s que eu faço não são aleatórios. Que eu aprendi que determinadas escolhas funcionam e que eu aprendi que sob determinadas condições uma determinada escolha é uma boa forma de sair de uma situação adversa, economizando tempo, por exemplo. E que há uma certa regularidade e que profissionais ligados à psicologia, fatores humanos, etc. deveriam tentar compreender aquilo que chamo de “variabilidade do desempenho normal”. E se você entende a variabilidade do desempenho normal, você poderá saber em que condições a variabilidade pode se combinar de maneira indesejável e a partir disso poderá planejar intervenções para prevenir tais situações.


Segunda Parte

Entrevistador: Em um artigo para ser publicado em língua japonesa você afirma, eu cito: “se sistemas sócio-técnicos fossem relativamente estáveis e mudassem apenas
lentamente, a experiência a partir de acidentes e incidentes ocorridos seria por algum tempo suficiente para garantir um nível aceitável de segurança”. Minha pergunta para você é, quão otimista você é em termos da possibilidade de sermos capazes de evitar grandes falhas, considerando o fato de que os sistemas tornam-se cada vez mais entrelaçados e mais complexos o tempo todo, ou não?

E.H.: Sim, os sistemas tornam-se cada vez mais entrelaçados e complexos e mais
dependentes entre si. Nós vemos que quando algo falha, por exemplo, se você tem um...não há muito tempo tivemos um blackout na França e toda a sociedade parou em função disso. Então eu acho que, independente de gostarmos ou não, a sociedade vai se tornando cada vez mais complexa, assim como a tecnologia de que dependemos, e eu acho que acidentes acontecerão, graves acidentes acontecerão. Não há como evitar a não ser que voltemos atrás e tentemos construir uma sociedade mais simples, de modo idealista, voltar à natureza e viver de modo mais simples, o que acho interessante. Eu
gostaria de viver uma vida menos estressante, mas não acho que isso seja possível. Então o que eu acho que devemos saber é que estas coisas acontecerão e que devemos entender PORQUE elas acontecem, entender os mecanismos. Nós precisamos entender
o que faz a sociedade falhar e o que a faz funcionar bem.

Entrevistador: Certo. Não a eliminação completa, o que seria impossível, mas mitigar, reduzir...

E.H.: Nós podemos mitigar, podemos nos proteger contra os efeitos de grandes falhas e temos que assumir riscos para conseguir o que pretendemos conseguir, para termos as facilidades que precisamos. Nós nos tornamos tão dependentes da aviação que nós precisamos dela. Não há formas de desconstruirmos o sistema de tráfego aéreo que temos agora e ele tem se tornado mais e mais complexo. Mas nós podemos tentar compreender como o risco pode ser percebido, como as coisas dão errado e assim, ou tentar prevenir de vários modos que tais coisas aconteçam ou limitar os seus efeitos. Tomemos os navios, por exemplo. Navios afundarão, eles estão sobre água e de modo geral afundarão. Você não pode prevenir que absolutamente nenhum navio afunde, mas você pode se proteger de eventos indesejados ao, por exemplo, construindo compartimentos separados, de modo que se há um buraco no casco, em apenas um compartimento a água entrará e não no navio inteiro. Eu não vou mencionar o Titanic ou outra terrível história, mas o princípio é bem conhecido, e funciona.

Entrevistador: Em um outro artigo você dividiu um sistema para caracterizar diferentes tipos de acidentes e este sistema é uma variação do sistema proposto por
Perrow (Charles Perrow), o qual tem interatividade em uma dimensão e acoplagem (coupling) em outra. Você traz gerenciabilidade e acoplagem, como alternativa. E esse artigo publicado em fevereiro de 2008 traz um novo tipo de acidente, no mercado financeiro, o qual tem como características uma baixa gerenciabilidade e alta acoplagem, mais alta que sistemas de plantas nucleares e missões espaciais.

E.H.: Eu gostaria de voltar ao sistema do Perrow. Uma das coisas interessantes que ele fez foi sugerir que é possível caracterizar sistemas sócio-técnicos em duas dimensões. Uma dimensão é Acoplagem, o grau de acoplagem, sistemas poder ter alta ou baixa acoplagem. A outra é interatividade, que vai desde linearidade à complexidade. E a abordagem embasa a tese de que os sistemas estão se tornando mais fortemente acoplados e mais complexos e, portanto, os acidentes deveriam ser considerados “ocorrências normais”...

Entrevistador: neste sentido, o título do livro dele...

E.H.: neste sentido o título do livro é “acidentes normais”, de 1984, o qual completará 25 anos no próximo ano. Eu sempre tive problema com a noção de complexidade...

Entrevistador: você refere-se à dimensão de Interatividade...

E.H.: Sim. Interatividade, desde que um dos pólos desta dimensão é a complexidade. E eu meio que pensava que a questão mais importante não é bem a complexidade, mas é quando não podemos descrever o que está acontecendo num sistema. Não podemos gerir. São incontroláveis pois são impassíveis de descrição. Por essa razão, eu sugeri que deveríamos substituir essa dimensão por uma outra, numa escala onde em um dos pólos teríamos algo que chamamos sistemas rastreáveis e no outro teríamos sistemas não rastreáveis. Rastreável basicamente significa que você pode descrever e que pode confiar na possibilidade de ter uma descrição completa do que acontece no sistema, você compreende o que está acontecendo dentro do sistema. Isto significa que o sistema não é complexo, obviamente. Isto é quase a definição de simplicidade. No outro extremo você tem sistemas que são não rastreáveis, característica esta que pode se dever a muitas razões. Uma delas é “nós não sabemos bem o que acontece, não entendemos os mecanismos do funcionamento do sistema". A outra é que “os sistemas mudam tão rapidamente que nunca teremos tempo para realizar o que se pode chamar uma descrição completa”. Isso significa que você está lidando com uma descrição incompleta do sistema. E eu escolhi o sistema financeiro não porque eu queria prever o que poderia acontecer e, podendo fazê-lo eu mudaria minhas carteiras de investimento (risos), tenha certeza, mas porque eu, por muito tempo pensava o sistema financeiro como um sistema que as pessoas não compreendem completamente, incluindo economistas, e há muitos economistas famosos que concordam com isso. Eles dizem: “nós não temos boas teorias econômicas”, “nós não sabemos realmente como a economia funciona”. Então, é um sistema não rastreável. E eu acho que os eventos ocorridos nos últimos 6 ou nove meses têm definitivamente corroborado essa idéia, de que é um sistema não rastreável. Eu meio que lia com certa satisfação as notícias do mercado financeiro pois, o que quer que seja, é de fato um sistema muito complexo, com muitos atores, muitas interações, muitas interdependências, e se você olhar bem, eles tentam controlá-lo de um modo muito simples: pela taxa de juros. É como você ter apenas um indicador num sistema complexo e você não sabe como este indicador funciona, que atrasos de tempo existem, você não sabe como de fato este indicador funciona dentro do sistema. E agora nos EUA eles mudaram ao extremo esse indicador, para taxa de juros zero. E se isso não funcionar, o que eles podem fazer? Eu não acho que eles tenham uma descrição completa sobre o que as mudanças na taxa de juros fazem exatamente com o mercado. Talvez, todo mundo acredite que elas funcionam e essa é provavelmente a razão pela qual elas funcionam. Então, eu acho que é um sistema psicológico mais que qualquer outra coisa.

Entrevistador: Há também muita fraude envolvida...

E.H.: Oh, sim, muita fraude, (risos) muita ganância e, mentiras e, deus sabe o que mais, e se você viu os últimos esquemas, o que é terrível. Isto é interessante para psicólogos, claro.

Terceira parte

Entrevistador: Em outra ocasião, você afirmou que racionalidade deveria ser considerado algo não natural. Racionalidade é um artefato de um modo específico de olhar o mundo, de pensar e não um traço constante da cognição humana. Certamente, a racionalidade, nos séculos XX e XXI, é considerada algo que deve se dar naturalmente para os humanos e você considera que isso não acontece na realidade.

E.H.: Eu acho que o que nós normalmente chamamos racionalidade sim, mas eu acho que a racionalidade é um artefato da Lógica. Se voltarmos a Aristóteles tentando em sua lógica criar regras para o pensamento de modo a chegarmos em conclusões acertadas e evitar conclusões erradas. E essa transformou-se na norma da racionalidade.

Entrevistador: As características formais da pensamento.

E.H.: As características formais da pensamento. E por essa razão falamos em pensamento racional. Este debate tem sido particularmente intensa na área de tomada de decisões onde temos teorias da tomada de decisões racionais, embasadas pela noção de homus economicus, o qual raciocina de acordo com a teoria econômica. E você tem teorias descritivas da decisão, teorias naturalistas e outras versões, as quais alegam que as pessoas não são racionais nos termos em que boa parte das teorias da decisão supõem. E na verdade, de um modo geral as teorias tem aceitado tal fato. Mas nós também caregamos conosco a idéia de que racionalidade é o que Anderson certa vez fez a distinção entre “cognição quente” e “cognição fria”.

Entrevistador: Anderson?

E.H.: John...Anderson eu esqueço seu primeiro nome. Ele escreveu um livro sobre psicologia cognitiva nos anos 70. E ele usou os termos “cognição quente” e “cognição fria”. Cognição fria é o pensamento racional. Cognição quente é o tipo de coisa emocional, afetiva. E eu acho que em nossa cultura e, certamente na civilização ocidental, cultura cristã, nós separamos a cognição fria e a cognição quente. E a racionalidade emocional não é considerada racionalidade. Mas o fato é que o que fazemos todos os dias, em nossas atividades, nós não conseguimos separar os dois. Nós agimos de modo sensato e eu acho que você pode falar em uma racionalidade pragmática ou produção de sentido, o que seria um termo melhor. Mas não é racionalidade no sentido em que as pessoas usam quando dizem “eu preciso tomar uma decisão racional, eu preciso fazer uma escolha racional”.

Entrevistador: Então racionalidade não é sequer um ideal a ser buscado?

E.H.: Eu acho que é, em grande medida, um artefato de nossa cultura. Você não encontraria uma mesma idéia de racionalidade em civilizações orientais. Então não é algo como uma dádiva de deus – ou é pelo menos na cultura ocidental (risos) – não é uma dádiva universal e certamente não é um traço da cognição humana, porque a cognição humana do modo como falamos hoje é focada no processamento de informação, uma metáfora introduzida nas décadas de 40 e 50. Antes não existia isso e nós não tínhamos as questões que temos agora. Eu acho que a maior parte das idéias sobre cognição hoje estão inspiradas em computadores digitais, o que significa apenas olhamos aquilo a que foi chamado cognição fria: o ordenamento, passo-a-passo, o algoritmo etc. E as outras formas de cognição, as outras formas de acontecimentos dentro da mente humana são tão ou mais importantes e não podem ser comparadas a computadores digitais. E portanto nós as deixamos de lado e tendemos a acreditar que elas não estão ali.

segunda-feira, 4 de junho de 2012

Eficácia de Mentoring - Uma ilustração do problema da investigação de eficácia.

Esse texto é parte de um trabalho realizado duante o mestrado em POT. O trabalho era mais amplo, uma espécie de Estado da Arte da pesquisa sobre Programas de Mentoring. Mas a parte aqui extraída é aquela que escrevi e refere-se à aferição de eficácia dos programas. Coloco essa passagem pois a mesma ilustra o rigor que devemos ter para atribuir causalidade de modo seguro, embora muitos vejam uma mera correlação como evidência última de que A causa B.

As we have seen in previous sections, a great amount of research has been dedicated to several aspects of mentoring. However, despite the increasing use of mentoring as a development tool in organizations, findings have failed to systematically demonstrate the effectiveness of such practice (Allen, Eby, Poteet & Lima, 2004; Underhill, 2006). Thus, approaching mentoring effectiveness constitutes a strong trend of this field of research.

Allen, Eby, Poteet and Lima (2004) identified two major types of studies that examined the benefits of mentoring for protégés and considered both for their metaanalysis. The first one included studies that compared the outcomes across mentored and non-mentored individuals. The second type of studies consists on attempts to correlate mentoring functions (career and psychosocial mentoring) and protégés’ outcomes.

In an attempt to summarize literature on formal mentoring, Allen, Eby and Lentz (2006b) showed that most studies tend to a) compare formal and informal mentorships, b) examine mentor functions and protégé outcomes and c) compare those with formal mentors and those without mentors. Underhill (2006) points the lack of research comparing mentored and nonmentored groups of individuals. Such comparison, she argues, is fundamental to assess the effectiveness of mentorships. Although scholars recognize the importance of evaluating the benefits of mentoring, research on that issue appears to be relatively disperse and unconclusive.

Researchers have considered a wide variety of benefits associated with mentoring. Several criterion variables to evaluate mentorship effectiveness have been used. Allen et al (2004) divided them into objective and subjective outcomes. Within the first group are such variables as number of promotions and income (Wallace, 2001; Chao, 1997) or protégé performance (Tonidandel, Avery & Phillips, 2007). Subjective outcomes are those such as career clarity for protégés (Wanberg, Kammeyer-Mueller & Marchese, 2006) mentoring functions, role modelling and mentorship perceived quality (Allen, Eby & Lentz, 2006), perceived program effectiveness (Allen, Eby & Lentz, 2006b), organizational socialization (Chao, 1997) and so forth.

It is also important to note that most of current and past research has been centred on protégé-related outcomes, although some have considered the potential benefits of such a relationship for mentors as well (e.g. Wanberg, Kammeyer-Mueller & Marchese, 2006).

The list of factors influencing the success of mentoring relationships seems even longer. For instance, Allen, Eby and Lentz (2006b) considered mentor commitment and program understanding as mediators on the relationship between program design features (e.g. training, match input, voluntary participation, etc.) and program outcomes, namely, perceived program effectiveness for both mentors and protégés. They found that training quality had both direct and indirect effects on the outcomes measured for both parties of the mentoring dyad. Moreover, they also found match input – the extent to which protégés and mentors participate on the matching process – to influence perceived effectiveness of the program through mentor commitment and program understanding.

Tonidandel et al (2007) found support for the influence of amount of mentoring and length of relationship on protégés’ subsequent performance, though such effects were moderated by mentor success. In other words, being under orientation of a successful mentor for a long time fostered positive outcomes for mentees. On the other hand, a long relationship with an unsuccessful mentor had a detrimental effect on protégé’s performance.
Wanberg, Kammeyer-Mueller and Marchese (2006) focused on personality aspects (proactivity and openness to experience) of both mentors and protégés and their influence on mentoring outcomes. They found support for the association of mentor’s proactivity and protegé’s perceived similarity to one’s mentor with the amount of mentoring received during the program.

In summary, not only criterion variables but also predictors are diverse, and thus, they vary among the many existing researches on the topic of mentorship. Such diversity poses great difficulty in evaluating the effectiveness of mentoring. There have been recent efforts to summarize and evaluate the findings derived from this growing field of research. For our purpose, meta-analysis studies provide a good picture of the strength of results regarding mentoring effectiveness. Therefore, we analysed two examples of these meta-analitical studies by Allen, Eby, Poteet and Lima (2004) and Underhill (2006), which we intend to describe respectively.

Allen et al (2004) established a division regarding mentorship outcomes. After gathering previous papers, they separated the benefits in objective and subjective outcomes and compared the influence of both mentoring functions (career and psychosocial) on such outcomes. They found that both career and psychosocial mentoring were positively related with career outcomes. However, there appeared to be much stronger relationships between mentor functions and subjective career outcomes (e.g. career satisfaction, job satisfaction) than with objective career outcomes (e.g. promotions, income).

Moreover, they analysed studies comparing groups of mentored and nonmentored individuals. Findings revealed strong effects of mentorship on career commitment, expectation for advancement and career satisfaction. Mentored individuals showed more affective reactions to work and positive psychological feelings towards their career than those who had not been mentored. Similarly, Underhill (2006) emphasized studies that used comparison between mentored and non-mentored individuals. The overall effect sizes supported previous results by Allen et al (2004), namely, mentored individuals had career outcomes improved when compared to non-mentored individuals. However, she added to analysis comparisons between formal and informal mentoring. Informal mentoring produced larger and more significant effects on career outcomes than formal programs did.

Despite many findings helping to support the idea that mentoring benefits individuals and organizations involved, many questions arise. First, it is not clear, as Underhill (2006) stated, that the outcomes analysed in many studies are due to participation on mentoring relationships. A simple question to formulate is whether those individuals, who participated on mentoring relationships and showed improved career outcomes, could report the same results if they had not been mentored at all?

Allen, Poteet and Russel (2000) reminds us of the possibility that mentors likely choose (once they have the opportunity) those protégés with promising careers, or those who are viewed as having a wide range of competencies, rather than those who actually need help to improve their career. If that is so, how much variance of these protégés’ success could be explained by the actual participation on mentorships?
Moreover, the focus on protégés is a major feature of mentoring research. As Tonidandel et al (2007) showed, little research has focused on mentors. Such feature lies on the assumption that any mentor is a good mentor. What their study demonstrated is that mentors can also have a detrimental effect on protégés outcomes. Another study leading to caution on interpreting the results of mentoring programs is that carried on by Raabe and Beehr (2003), who found no significant relationships between mentoring and mentee outcomes (such as job satisfaction, turnover intentions and organizational commitment). In contrast, such variables appeared to be influenced by supervisor and coworker relationships.

In summary, many questions remain unanswered regarding mentoring effectiveness. In order to solve some of the issues raised by recent research it is crucial first to gather more results indicating that mentored and non-mentored individuals differ significantly (Underhill, 2006, Allen, Eby, Poteet & Lima, 2004)). However, as the findings of Allen et al (2000) suggest, if the personal characteristics that make a protégé desirable for mentors are the very same as those that lead to career success, then research comparing non-mentored and mentored individuals says very little about mentoring effectiveness. As Underhill (2006) stated, “more research is needed that compares characteristics of protégé and non-protégés and whether individual characteristics or receipt of mentoring is the catalyst for improved career outcomes” (p.304)

Also, in order to avoid confirmation bias, it is important to carry on research that aims to compare the effects of mentorship with the effects of other existing forms of relationships in work environments, such as those established with coworkers or supervisors (e.g. Raabe & Beehr, 2003), rather than only focusing on the dyad formal versus informal mentoring programs.

References
Allen, T., Eby, L., Poteet, M., & Lima, L. (2004). Career Benefits Associated With Mentoring for Prote´ge´s: A Meta-Analysis. Journal of Applied Psychology, 89(1), 127- 136.
Allen, T., Eby, L. & Lentz, E. (2006b). The relationship between formal mentoring program characteristics and perceived program effectiveness. Personnel Psychology, 59(1), 125-153.
Allen, T., Eby, L., & Lentz, E. (2006). Mentorship Behaviors and Mentorship Quality Associated With Formal Mentoring Programs: Closing the Gap Between Research and Practice. Journal of Applied Psychology, 91(3), 567-578.
Allen, T., Poteet, M. L., & Russell, J. E. (2000). Protégé selection by mentors: Whatmakes the difference? Journal of Organizational Behavior, 21(3), 271.
Brashear, T., Bellenger, D., Boles, J. & Barksdale Jr., H. (2006). An exploratory study of the relative effectiveness of different types of sales force mentors. Journal of Personal Selling and Sales Management, 1, 7-18.
Chao, G. (1997). Mentoring Phases and Outcomes. Journal of Vocational Behavior, 51, 15-28.
Raabe, B. & Beehr, T. (2003). Formal mentoring versus supervisor and coworker relationships: differences in perceptions and impact. Journal of Organizational Behavior, 24, 271-293.
Tonidandel, S., Avery, D. & Phillips, M. (2007). Maximizing returns on mentoring: factors affecting subsequent prote´ge´ performance. Journal of Organizational Behavior, 28, 89–110
Underhill, C. (2006). The effectiveness of mentoring programs in corporate settings: A meta-analytical review of the literature. Journal of Vocational Behavior, (68), 292-307.
Wallace, J. E. (2001). The benefits of mentoring for female lawyers. Journal of Vocational Behavior, 58, 366–391.
Wanberg, C., Kammeyer-Mueller, J., & Marchese, M. (2006). Mentor and Protegé predictors and outcomes of mentoring in a formal mentoring program. Journal of Vocational Behavior, 69, 410-423.


terça-feira, 29 de maio de 2012

Percepção de Risco

Percepção de risco é um tópico muito abordado na Segurança do Trabalho. Uma rápida busca no Google nos remete a uma diversidade de artigos, blogs, sites de consultorias, slides de treinamento, etc. Trata-se de uma noção fundamental mas que sofre de um mal comum a muitas outras; seu emprego generalizado e indevido.

Percepção de risco é o ato de avaliar as probabilidades de que algum perigo venha a se manifestar concretamente, e estimar a magnitude dos efeitos de um evento provável. É importante entender que o conceito é de natureza secundária, pois trata-se de aplicar conceitos primários (como a percepção e probabilidade subjetiva) ao tema da segurança.

Suponha que alguém esteja numa festa e verifica um copo de vidro cheio à beira de um balcão por onde muitas pessoas passam. Os elementos da realidade estão presentes: o copo, as pessoas, o balcão, etc. A partir dessas informações o sujeito pode avaliar a possibilidade de que alguém derrube o copo no chão. Para avaliar essa possibilidade ele se serve da análise de outros elementos que não são auto-evidentes, mas exigem algo para além da mera identificação do copo, por exemplo. Ele avalia que a área de circulação é relativamente estreita; que a distância a que as pessoas passam pelo copo é pequena; que as pessoas, em geral, não estão atentas ao copo da mesma forma que ele. Julga ainda que, dada a altura do balcão, o copo certamente quebrará ao bater o chão e que isso poderá ferir os transeuntes.

Em resumo, o sujeito entrou em contato com os elementos da realidade e construiu uma idéia acerca da probabilidade de que algo de negativo aconteça. Em outras palavras, ele identificou um risco em sua exata magnitude. Para chegar a isso ele se apoiou em seus órgãos sensoriais, em funções cognitivas, nos conhecimentos elementares da física, etc. Tudo isso sob o pano de fundo de sua experiência prévia, que o ajudou a compreender os fenômenos da realidade e identificar as relações de causa e efeito que nela se expressam.

Infelizmente,o conceito de percepção de risco nem sempre pára por aí, pelo menos em minha pequena experiência de trabalho ou nas pesquisas na web sobre o assunto. Muitas vezes ele "inclui" indevidamente a idéia de comportamento inseguro. Isso ocorre principalmente quando se recorre ao conceito para explicar acidentes. Isso se faz, muito amiúde, com base numa espécie de fusão entre a percepção do risco e o ato dirigido à sua mitigação. Neste ponto está implícita a falsa suposição de uma relação automática e necessária entre ambos.

Explicando melhor: já ouvi que a maior parte dos acidentes é causado por falta de percepção de risco. Um colega "mais informado" ousou um pouco mais e chegou a fornecer uma porcentagem: 95%. Olhando para esse número eu tenho praticamente certeza de que não estou diante de um dado da realidade, mas do efeito perverso de um problema de raciocínio. Um dado como esse só pode ser obtido da seguinte maneira: você interpreta praticamente todo e qualquer ato inseguro ou má decisão que resultou em acidente como falta ou falha na percepção de risco. E chamar a má decisão de falta de percepção de risco é uma espécie de metonímia, pois designa-se o efeito por sua (suposta) causa. Ou seja, quando se utiliza uma má decisão ou ato inseguro como elemento necessário para avaliar a percepção de risco você foi além do próprio conceito. A relação entre a identificação do risco e a conduta ou decisão do sujeito é "contingencial" e não necessária.

Dizer que a percepção de risco é premissa básica para um comportamento seguro é uma coisa. Ninguém discute o óbvio. Mas dizer, por uma espécie de lógica inversa, que comportamentos inseguros e más decisões são resultados inequívocos da falta de percepção de risco é um automatismo ingênuo. E essa lógica é empregada com mais frequência do que deveria. Afinal, de que outra forma chegaríamos à estatística oficiosa do colega segundo a qual a falta de percepção de risco “causa 95% dos acidentes”.

Cabe agora esclarecer o que é a suposição de uma relação automática entre percepção e ato, pressuposto básico que leva indivíduos a fundir as duas coisas no conceito de percepção de risco: é a idéia de que ao perceber um risco o sujeito necessariamente age para mitigá-lo - por exemplo, o sujeito de nosso exemplo, por alguma força implacável da natureza, removeria o copo imediatamente ao perceber o risco que a situação oferecia. Neste ponto fica ainda mais claro o absurdo do raciocínio por inversão, pois o fato de o sujeito não remover o copo não é necessariamente um indicativo de que ele não percebeu o risco, ou que não avaliou corretamente sua magnitude.

Ademais, assumir esse automatismo só faz sentido se imaginarmos também que tudo o que existe na cabeça do sujeito naquele momento é a sua percepção de que o copo pode ser derrubado. Nada mais lhe interessa. Mas entre a percepção deste fato e a decisão de remover ou não o copo pode haver muita coisa envolvida. O sujeito pode estar ocupado numa conversa amorosa ou de negócios; pode ter decidido que remover o copo não era sua responsabilidade, de que não é problema dele que outros se machuquem; pode ter julgado que mexer no copo de uma outra pessoa fosse algo grosseiro. As possibilidades que explicam a sua decisão por não mitigar o risco são muitas e todas podem conviver pacificamente com o fato de que o risco foi precisamente identificado e avaliado. Este ponto é fundamental.

Pense em sua vida cotidiana e tente identificar situações em que você, mesmo percebendo certos riscos, agiu de modo que a probabilidade de que ele se manifestasse se mantivesse intacta. Quantas vezes você já atravessou o sinal amarelo, ou mesmo vermelho? Quantas vezes você acelerou a 100km/h em estradas desconhecidas, sem saber se havia animais ou buracos? Quantas vezes você apostou seu dinheiro em ações de empresas que você desconhece, seguindo apenas as orientações de seu consultor? Quantas vezes você bebeu um copo a mais e voltou para casa dirigindo? No futebol, você alguma vez entrou em divididas fortes?

Agora tente lembrar se você agiu assim porque "não tinha a noção exata do risco de fazê-lo". Aqui entramos na questão da falta de percepção de riscos como categoria preferencial para explicação de acidentes. Ou seja, nos tais 95% citados pelo "estatístico" acima referido. Se você bateu o carro, foi porque você não sabia exatamente o risco de atravessar aquele sinal vermelho? Se machucou a perna na dividida foi porque não tinha idéia da probabilidade disso acontecer? Para quem funde percepção e ato numa mesma categoria e assume que se o risco não foi evitado é porque não foi identificado, a resposta é sim. É um simplismo que ofusca a verdadeira compreensão dos acontecimentos.

Com razoável freqüência estamos assumindo riscos e agindo no sentido (até mesmo) inverso ao de sua mitigação. No trabalho isso também acontece. Idealmente, não deveria, claro. É óbvio que há situações em que o sujeito toma decisões erradas porque não avaliou adequadamente os riscos envolvidos. Contudo, em grande parte das ocasiões "jogamos" com as probabilidades visando alcançar determinados objetivos. Às vezes optamos por realizar atalhos no trabalho. Outras vezes resolvemos ser mais criteriosos e, obviamente, mais demorados. A noção do princípio ETTO (Efficiency-Thoroughness-Trade-Off) de Hollnagel ajuda a explicar como jogamos com as diferentes demandas do trabalho.

Há ainda uma outra questão muito importante para entender porque se recorre tanto ao conceito para explicar coisas que deram errado. Ela consiste no hábito de se interpretar as ações do sujeito envolvido no acidente com os critérios da situação posterior ao acidente. Esclarecendo: existe uma discrepância aguda entre a situação do sujeito envolvido num determinado acidente e o sujeito que o investiga a posteriori. Basta dizer que no momento anterior ao acidente tudo o que se pode conceber são probabilidades; umas mais fortes outras nem tanto. No momento posterior ao acidente o que existe é uma relação linear de causa e efeito que se expressou concretamente na realidade. Então no primeiro momento as relações são possíveis/prováveis enquanto no segundo as relações não são apenas certas mas necessárias; afinal, o fato ocorreu "assim e assado". Ao avaliar as ações do sujeito envolvido no acidente e tentar comprrendê-las é necessário, portanto, remontar à sua situação concreta: a de um ambiente de probabilidades subjetivas e não tomar como ponto de partida e referência o ambiente de relações estabelecidas ex post facto, que é propriamente o momento da investigação. Nós, seres humanos, jogamos conscientemente com probabilidades e não com fatos acontecidos. Se aquele que investiga não atentar para a diferença entre os dois momentos ele pensará: “mas é certo que ele não tinha idéia do perigo se o resultado era tão óbvio!”. E assim, confundindo o que é óbvio com o que era apenas provável (na cabeça do sujeito) ele não entende como alguém poderia "jogar" com o óbvio. E precisamente nesse ponto a falta de percepção de risco aparecerá como explicação preferencial.

A explicitação dessas questões refere-se simplesmente ao uso cotidiano e "rasteiro" da noção de percepção de risco e em nada diminui a importância de estudar esse tema. Continua a ser importante compreender como as pessoas interpretam e integram os diversos elementos da realidade e formam idéias sobre o que pode ou não acontecer. Nesse âmbito, o conhecimento dos processos é fundamental. É necessário entender a influência de fatores como a experiência, o conhecimento técnico, o estado afetivo, os valores individuais acerca da segurança, bem como outros muitos aspectos do contexto laboral sobre a percepção de risco. Continua a ser importante entender o que faz com que pessoas façam estimativas diferentes acerca dos riscos oferecidos numa mesma situação, qual o papel das heurísticas e, ademais, como o mesmo risco parece ser mais aceitável para uns que para outros. Esses aspectos devem, certamente, ser explorados de modo identificar a probabilidade de ocorrência de atos inseguros e, consequentemente, garantir melhores resultados em sua prevenção. Enfim, percepção de risco é um assunto muito rico. Importa, contudo, separar o trigo do joio e não permitir que o uso desse conceito seja acompanhado de idéias ingênuas sobre a ação humana.

sábado, 26 de maio de 2012

Voltando à Avaliação de Desempenho

Voltando ao tema da Psicologia da Avaliação de Desempenho no Trabalho...


De modo geral, há três posturas muito comuns com relação à avaliação de desempenho que atrapalham sua investigação. E podemos dizer que todas elas nse diferenciam na posição tomada no âmbito da relação entre a descrição fidedigna do processo e as prescrições ou discursos oficiais sobre objetivos e características da Avaliação de Desempenho (AD).

Isto posto, o problema pode ser resumido de três modos:


1)Frequentemente tomamos explícita ou implicitamente o discurso institucional (de uma enmpresa ou de experts da área) que justifica a existência da AD como o processo efetivamente realizado.O que significa, nesse caso, "tomar" as prescrições como descrição do processo? É aceitar a idéia geral de que o sistema funciona, ou deveria funcionar,da forma como foi concebido: primeiramente, as lideranças estabelecem indicadores de desempenho para suas equipes (metas, resultados, coportamentos desejados, etc) e, ao final, elas fornecem a sua avaliação sobre o desempenho real dos empregados, confrontando-o com os referidos indicadores. Dessa forma, assumimos de bom grado que os avaliadores simplesmente realizam o que o sistema pede: fornecem dados de desempenho sobre os empregados. Contudo, o que se diz de um processo é apenas um elemento que o compõe e, portanto, o esforço de compreensão não pode se resumir a esse nível da realidade. Por exemplo, não podemos compreender o que de fato é um determinado produto analisando apenas a propaganda que se faz dele, nem podemos aferir precisamente os objetivos de um político apenas estudando o seu discurso de campanha.
Como consequência de tal postura, não questionamos os resultados advindos de Avaliações de Desempenho e os utilizamos para todo e qualquer objetivo. Na psicologia isso tem importância fundamental, já que os os escores de desempenho são utilizados como variável dependente nas mais diversas formas de pesquisa (ex.: validação de instrumentos de seleção, avaliação de eficácia de treinamento).
Ex.: Em estudo sobre a relação de características medidas pelo Zulliger e Avaliação de Desempenho, realizado por Ferreira e Villemor-Amaral (2005), há apenas uma breve menção às dimensões de desempenho abordadas pelo instrumento de AD da empresa. Não há qualquer menção a características do sistema como um todo. Isso parece sugerir uma confiança na precisão das informações obtidas por meio da AD. Esse caso é bastante ilustrativo da importância de investigar sistemas de AD, pois os dados de validade preditiva do Zulliger dependem da validade do instrumento que mediu a variável dependente e, portanto, das informações obtidas mediante seu uso.


2)Outras vezes, não tomamos como certo o prescrito. Ao invés disso, identificamos incongruências entre prescrição e realidade, ou seja, percebemos certas discrepâncias entre o que se pretende alcançar e os resultados efetivos(ex.: os dez empregados de uma gerência com resultados idênticos e no topo da escala de avaliação). Contudo, ainda que percebamos o gap, voltamos nossa atenção para a análise de questões que não são essenciais para explicá-lo, embora sejam, de fato, importantes(qualidade dos instrumentos, “erros de percepção”, vieses, etc.). No exemplo citado imediatamente nos vem à mente a possibilidade de um "erro de leniência" e, ao aceitar imediatamente a hipótese, perdemos a oportunidade de compreender adequadamente o problema. Ademais, quando vislumbramos, ainda que de passagem, elementos essenciais da Avaliação de Desempenho, não lhes damos a devida atenção.
Ex.: Manuais como o de Robbins (livro bastante conhecido no Brasil) apontam como principais problemas do “mundo real” da avaliação de desempenho aquilo que o autor considera “erros": efeito halo, erros de leniência, viés de similaridade. Segue ainda na listagem mencionando o uso do processo com “propósitos políticos”. Embora explique de modo mais detalhado os três primeiros, deixa o último apenas na mera referência. As distorções deliberadas parecem alvos dignos apenas de condenação e não de investigação.
Em resumo, nesse caso o sujeito percebe que o processo não corre exatamente como no discurso, que os avaliadores nem sempre informam seu julgamento real sobre o desempenho do empregado. Porém, ao constatar ele toma dois caminhos: a) assume que o avaliador quer fazê-lo mas não consegue e aí atribui as discrepâncias a erros inadvertidos, ao instrumento, etc. b) reconhece que o avaliador não quer fazê-lo e aí não considera isso digno de investigação.

3)Finalmente há os casos em que percebemos a lacuna entre o processo ideal e o real e, ao fazê-lo, imediatamente condenamos os responsáveis pela sua existência.
Um exemplo claro dessa postura é o Dr. Deming que considera a Avaliação de Desempenho uma das “doenças fatais” da gestão.

Para melhor esclarecer a necessidade de mais investigações sobre a AD e também defender uma mudança em seu foco, vamos partir de algumas idéias gerais e relacionadas entre si.

1)Uma avaliação de desempenho necessariamente possui consequências relevantes para o empregado e para o avaliador. Neste sentido, podemos dizer que ela não é apenas um processo avaliativo mas integra um processo decisório mais amplo, para o qual, geralmente, mais informações são consideradas.

2)Os produtos concretos de uma avaliação de desempenho, ou seja, os escores de desempenho, são espécies de “compactados de significados” que podem refletir informações sobre diversos aspectos. De modo algum, podemos tomá-los a priori como uma simples resposta à pergunta: qual foi o desempenho deste trabalhador?

3)Se o escore não revela apenas informações sobre o que o avaliador considera ser o desempenho do empregado, decorre que avaliar desempenho não comporta apenas as atividades de percepção, interpretação, evocação e julgamento de informações sobre desempenho. O avaliador considera também a antecipação das consequências de uma avaliação: para si, para o empregado, para seu departamento, etc. Dito de outro modo, a atividade de atribuir um escore de desempenho implica a consideração de elementos do contexto em que a decisão de atribuir determinado escore efetivamente ocorre.

4)Sendo a Avaliação de Desempenho uma atividade que envolve, ao mesmo tempo, recordar eventos passados (ex.: que metas este empregado atingiu) e considerar probabilidades subjetivas construídas a partir da leitura de informações do contexto de avaliação (ex.: o que acontecerá a ele se eu realmente avaliar da forma que vejo) o resultado concreto reflete não necessariamente o que o avaliador considera ser o desempenho do empregado, mas principalmente as estratégias que esse avaliador empregou na SITUAÇÃO concreta de avaliar alguém. Portanto, as discrepâncias encontradas são, em grande parte, estratégias deliberadas e não “erros”.

5)Como todo processo em organizações de trabalho, a Avaliação de Desempenho envolve diferentes agentes e múltiplos interesses. À medida que os dados daí extraídos são utilizados em diversos fins (identificação de necessidades de treinamento, decisões sobre salário e carreira, fundamentação de casos judiciais, etc.)e alteram consideravelmente a dinâmica grupal e organizacional, resulta ingênuo pensarmos que o único interesse em jogo é o de aferir precisamente o desempenho de alguém.


Finalmente, uma questão essencial que atravéssa todas aquelas acima pode ser formulada da seguinte maneira:


O conhecido modelo de DeNisi decreve muito bem os processos cognitivos envolvidos na Avaliação e, portanto, é excelente para compreender como gestores captam, interpretam e julgam informações do trabalho de empregados com o objetivo de formular uma avaliaçao de seu desempenho. Contudo, o modelo assume que entre a formação dessa avaliação e a atribuição de escores não há tanta coisa pra se investigar. Pode-se dizer que é assumida (pelo menos implicitamente) a idéia de que a avaliação formulada na cabeça do avaliador será passada na íntegra para o papel, em forma de escores que a reflete de modo preciso. Mas é justamente no espaço entre a avaliação formada e a atribuição de escores que a investigação deve proceder, posto que este útlimo momento constitui uma decisão, para a qual as informações de contexto necessariamente serão tratadas e poderão afetar a precisão com que a avaliação será retratada no escore. É necessário então "abrir" o modelo precisamente nessa parte e integrar os resultados que já foram alcançados por estudos nesse âmbito. Dessa forma, alcançaremos uma compreensão mais completa do processo. E essa é premissa básica para que possamos estabelecer estratégias adequadas para garantir sistemas melhores.

terça-feira, 31 de janeiro de 2012

O "Lobo Mau" da Psicologia?

A atuação de profissionais de um determinado campo é influenciada pela compreensão que os mesmos têm da realidade em que sua prática se desenvolve. Assim, a interpretação que alguém faz do contexto em que atua influencia significativamente a percepção acerca do papel que deve desempenhar bem como as próprias práticas e intervenções que julga adequadas.

O campo da Psicologia Organizacional e do Trabalho é, naturalmente, o trabalho. Como não poderia ser diferente, a atuação profissional desse psicólogo será guiada, entre outras coisas pela comprrensão que o mesmo tem do trabalho, de sua natureza.

Não é surpreendente, pois, que um dos principais livros de Psicologia Organizacional do Brasil, tenha seu primeiro capítulo inteiramente dedicado à caracterização do campo. É interessante, contudo, que a visão oferecida acerca do mundo do trabalho seja construída a partir de uma única linha de pensamento e que nenhuma das inúmeras objeções (diretas e contundentes) já oferecidas à mesma seja sequer apresentada, quanto mais discutida.

Assim, uma rápida olhada no referido capítulo nos permite constatar que a seção de referências bibliográficas é constituída quase que exclusivamente de representantes nacionais e internacionais dessa corrente de pensamento. São nove referências a Marx e Engels, mais cinco a Emir Sader, e outras tantas a autores marxistas como Meszáros, Badouin, etc.

Uma parte significativa do capítulo, portanto, dedica-se à explanação de "realidades" como a mais-valia, a exploração do homem pelo capital, etc. A narrativa é pretensamente descritiva e apresentada como um conjunto de meras "constatações". Não é acidental que o título do capítulo "o Mundo do Trabalho" anuncie exatamente isso (uma descrição) e na prática realize outra coisa.

Não há ali qualquer crítica significativa. Não se discute, por exemplo, que toda essa elaboração teórica parte de uma premissa absurda tida como regra absoluta: a de que todo o valor é produzido pelo trabalho humano. Já no início do século 20 Böhm-Baverk ofereceu uma crítica absolutamente formidável a essa premissa e demonstrou por a+b+c que pensar que o trabalho humano é o único gerador de valor é verificável apenas em situações específicas e contingenciais e está longe de contituir uma descrição apurada da realidade do trabalho. E isso está escrito já há muitos anos. Não há razão lógica (apenas ideológica) para não apresentar esse contraponto e outros tantos de natureza similar.

Com as lacunas internas da corrente apagadas e as críticas sistematicamente negligenciadas, o leitor desavisado termina o capítulo com a sensação de que aqueles conceitos são a mais pura descrição da realidade do trabalho. Dessa forma, aquele que lê admite de bom grado que a relação capitalista de trabalho é exploradora (e criminosa) por definição, e que o trabalho, consequentemente, é alienante, explorador, monótono, discriminante, embrutecedor, submisso (p. 58).

Isso tudo tem uma importância fundamental para a prática profissional: como aquele que subscreve toda essa visão conceberá o seu papel nas organizações de trabalho? Como ele conceberá sua atuação frente a uma relação de trabalho que é, logo à partida, um crime (um crime do qual, aliás, ele é também é vítima)? Que intervenções deverá julgar como adequadas? Como ele conceberá o contrato psicológico?

Admitir que a relação entre empresa e trabalhador é desigual (afinal, são entidades de natureza distinta) é algo totalmente diferente de considerá-la criminosa. De modo semelhante, admitir a possibilidade de que existem situações reais de exploração não é o mesmo que entendê-la como a base fundamental das relações de trabalho e, conseqüentemente, como ponto de partida para qualquer análise.

O psicólogo que parte de uma visão como a descrita acima falha em refletir e compreender a realidade em que o mesmo atua, algo essencial para a prática profissional. Subscrever acriticamente tais premissas oferece precisamente duas opcões. Por um lado, poderia ele adotar uma postura cínica e trabalhar como "instrumento" da exploração que ele mesmo admite, de antemão, existir. Esse seria o "lobo mau" da psicologia, alcunha que, aliás, só faz sentido dentro desse horizonte teórico/retórico. Por outro lado, o psicólogo poderia assumir o "dever moral" de, através de sua intervenção, restaurar a equidade nessa relação, saindo do âmbito do profissionalismo e penetrando o campo da militância.

Alternativamente, o psicólogo organizacional que não aceita a priori uma tal perspectiva sobre o trabalho terá a liberdade para abraçar a complexa realidade de seu campo de atuação e o desafio constante que constitui sua compreensão.