Dénes Martos 

Inicio

Artículos

Ensayos

Libros

Varios

Catálogo

 

 

ELEMENTOS

de

FUTURE MANAGEMENT

 

Técnicas para la

Administración del futuro

 

 

Buenos Aires 1977

 

 



INDICE

 

1.  Lo predecible y lo previsible

1.1 Profecías y predicciones

1.2 Planificación y previsiones.

1.2.1 Una visión por “escenarios”.

1.2.2 El Alcalde de Hiroshima

1.2.3 “Jugar” al futuro.

1.2.4 Prevea primero, pronostique después.

1.2.5 Escenarios y consenso.

1.2.6 Escenarios e inteligencia artificial.

1.2.7 Administrar el futuro.

2.  El análisis de riesgos

2.1 Probabilidades. La apuesta básica.

2.2 El seguro: una apuesta a futuro.

2.3 El costo de la incertidumbre

2.4 Administrar lo previsible

2.4.1 Las etapas del proceso.

2.4.2 Observar y aprender.

2.5 La matemática de la realidad

2.5.1 Distribuciones

2.5.2 Desviación standard

2.5.3 Correlaciones

2.5.4 Regresiones

2.5.5 Tendencias

3.  La conducción del cambio

3.1 Distintas formas de trabajar

3.2 La explosión capitalista

3.3 Eficiencia productiva y administrativa

3.4 Clientes, Competencia y Cambio

3.5 Visión de futuro

3.6 Los “change drivers” o impulsores del cambio

3.6.1 El cambio subyacente

3.6.2 El cambio deliberado

3.6.3 La Voluntad de Poder

3.7 Los “error drivers” o propulsores del error

3.7.1 Cómo equivocarse y cómo evitarlo

3.7.2 Salir de la caja

3.7.3 Los paradigmas

3.7.4 Los postulados

3.7.5 Los prejuicios

3.8 El proceso de tomar decisiones.

3.8.1 Elegir un rumbo: misión y visión.

3.8.2 Juntar los hechos

3.8.3 Analizar la realidad

3.8.4 La visión de conjunto

4.  Los problemas concretos

4.1 Sobrepoblación.

4.2 Alteración ecológica

4.3 Autoagresión y competitivismo.

4.4 Insensibilidad.

4.5 Alteración genética

4.6 Interrupción de la tradición.

4.7 Influenciabilidad y adoctrinabilidad.

4.8 Catástrofe tecnológica

5.  Conclusiones

 



 

1.     Lo predecible y lo previsible

Desde que el mundo es mundo y desde que los Hombres han tomado conciencia del tiempo, se han intentado muchas formas y muchos métodos para predecir el futuro o, por lo menos, para vislumbrarlo con algún grado de certeza.

La lista de los procedimientos que el Hombre ha inventado para adivinar lo que vendrá es por lo menos tan larga como curiosa.  Lo hemos usado casi todo para escudriñar, avizorar, predecir o adivinar el futuro. Hemos consultado a las estrellas y a los planetas, a las entrañas de los animales, a la borra del té y del café, a las cartas de diverso tipo y a las manos del interesado. Hemos usado vísceras de animales o de seres humanos, el vuelo de los pájaros, bolas de cristal, espejos, fuentes, piedras lanzadas sobre una capa de arena, péndulos, maquetas de pirámides, huesos, sueños, estados de trance, pitonisas, cábalas, tendencias estadísticas, cálculos de probabilidades y hasta simples corazonadas.

1.1     Profecías y predicciones

Las leyendas están llenas de predicciones fantásticas y hasta la historiografía registra varios casos que no dejan de ser asombrosos. La peste y el incendio que devastaron Londres en 1665 y 1666 fueron predichos catorce años antes por el astrólogo William Lilly. En el siglo XIX Joseph de Maistre predijo con desconcertante certeza el papel que jugarían Rusia y los Estados Unidos casi cien años más tarde. Maurice Berteuax, ministro de Guerra de Francia, murió el 21 de mayo de 1911, aplastado por un avión. Lo curioso es que en 1874 le habían predicho que sería rico y recibiría honores pero también que moriría aplastado por un “carro volador”. En 1906 el escritor norteamericano Morgan Robertson publicó una novela en la que se describía el naufragio de un gran barco de nombre “Titan”. El relato narra hechos muy similares a lo que el 14 de abril de 1912 realmente le sucedió al “Titanic”. En 1908 Charles Maurrás escribió: “Veo, ¡ay!, un millón y medio de muertos ensangrentados sobre su tierra mal defendida” en un contexto que predecía la Primer Guerra Mundial seis años antes de que estallara.

Uno de los hechos más reiteradamente predichos fué la Revolución Francesa de 1789, año en el que, según los astrólogos, se produjo la conjunción de Júpiter y Saturno; un hecho que ocurre una vez cada 960 años. El cardenal Pierre d’Ailly, muerto en 1420, predijo en uno de sus libros acerca del año 1789: “Si el mundo existe aún, se producirán entonces levantamientos y cambios asombrosos que afectarán nuestras leyes y a nuestra estructura política”.

En 1555 se publicaron por primera vez “Las Centurias” de Nostradamus. En la obra, escrita en cuartetas de un significado por lo general oscuro, no deja de sorprender la precisión con que se describe a la Revolución. Nostradamus predice la llegada del Tercer Estado al Poder y la huída del rey de Francia. Las circunstancias de la huida de Luis XVI como “monje gris”, la personalidad del administrador de correos Drouet que habría de reconocerlo en la ciudad de Varennes y la detención del rey con su consecuente escándalo y violencia quedan indicadas en el siguiente cuarteto:

 

De nuict viendra dans la forest de Reines

Deux pars vaultorte Hene la pierre blanche

Le moyne noir en gris dedans Varennes,

Esleu cap, cause tempeste, feu, sang, tranche.

 

En una de las cuartetas siguientes se describe bastante bien el regreso del rey, su destitución y el asalto a las Tullerías por quinientos federados marselleses. Aparecen dos nombres: el de Narbon y el de Sauce. De hecho, el nieto de Luis XVI se llamaba Narbonne Lara y el alcalde de Varennes efectivamente se llamó Saulce siendo hijo de un mercader de aceite. En cuanto a la expresión de que “el marido será mitrado”, recuérdese que a Luis XVI le pusieron a la fuerza un gorro rojo. El cuarteto dice así:

 

Le part soluz mary sera mitré

Retour: conflict passera sur la thuille

Par cinc cens un trahyr sera tiltré

Narbon et Saulce par coutaux avons d’huille.

 

A Napoleón lo vió Nostradamus casi 240 años antes de su aparición como un individuo “venido de la ciudad marinera y tributaria” que “durante catorce años ejercerá la tiranía” poniendo así fin al período revolucionario.

Mucho menos críptico y ocultista fué el escritor inglés Smollett quien en una carta escrita en 1711, poco antes de su muerte, pintó la situación de Francia en los siguientes términos:

“Francia me parece el primer teatro probable de todo cambio material a producirse. Si consideramos la endeblez, la prodigalidad, el libertinaje desenfrenado de la Corte la pobreza, la miseria y el descontento de las clases bajas, y el violento deseo de cambio que hierve y arde en el pueblo, en el cual reside el poder de producir este cambio, no podemos dejar de reconocer que, dentro de algunos años, puede producirse una gran revolución en el Gobierno, en las creencias y en las costumbres de este país. (...)

Cuando se produzca en Francia una revolución alentada por estos motivos, se encenderá en toda Europa la hoguera de la guerra, ya porque los individuos se sientan excitados, ya porque los Gobiernos se vean empujados a ella por sus temores.

Cuatro años más tarde, en 1775, el sacerdote Beauregard, predicando desde el púlpito de Notre-Dame de Paris, se interrumpió en la mitad de su sermón y, como respondiendo a una inspiración repentina, anunció:

“Esta catedral será un día devastada, prohibidos sus cultos y sus fiestas, y se blasfemará el nombre de Dios. Se escucharán en ella cánticos sediciosos y groseros, y la propia Venus, diosa infame del paganismo, usurpará el lugar del Señor y será objeto de un culto sacrílego”.

Los ejemplos arriba citados son sólo una muestra de muchas predicciones que podrían citarse. Algunas son de un transfondo mágico; otras, como por ejemplo la de Smollett, podrían ser aceptadas incluso hoy en día en círculos fríamente racionales y profesionales. Pero, de todos modos, por más que nos asombren algunas precisiones puntuales, de todas estas profecías si hay algo que queda claro es que una predicción exhaustiva y detallada de los acontecimientos futuros nos resulta imposible en la enorme mayoría de los casos. La profecía no es un método elaborado; es un fenómeno excepcional.

1.2     Planificación y previsiones.

Dejando de lado algunas premoniciones casi inexplicables y  aceptando nuestra ignorancia de los fenómenos que hemos dado en llamar parapsicológicos a falta de una denominación más feliz, lo máximo que (a veces) hemos podido lograr, con todas las disciplinas o técnicas que hemos inventado, es una visión borrosa - más o menos acertada, más o menos imperfecta - de la evolución probable de ciertos lineamientos muy amplios y genéricos. En el largo plazo y con métodos racionales, lo puntual, lo concreto, se nos escapa. Más aún: a medida en que avanzamos en el tiempo, aumenta - casi podría decirse en proporción geométrica - la imprecisión y la inconfiabilidad de nuestras predicciones racionales.

Esto, por supuesto, no quiere decir que debemos resignarnos y renunciar a buscar la forma de hacer que el futuro sea, de algún modo y a pesar de todo, más “manejable”. En última instancia, todo trabajo de planificación significa intrínsecamente una predicción del futuro y es sabido que sin planificación no hay empresa humana que pueda ser llevada a cabo con alguna razonable probabilidad de éxito. Ni siquiera tareas relativamente muy sencillas podrían realizarse sobre la base de una improvisación pura o de un voluntarismo ideológico puro. La capacidad de previsión, que no es sino la capacidad de construir alternativas en función de acontecimientos futuros - deseables o indeseables -  es una facultad que decididamente poseemos en algún grado sólo que ese grado resulta insuficiente, o al menos insatisfactorio, habida cuenta de los proyectos y actividades que desearíamos realizar.

Es probable que nunca lleguemos a “adivinar” el futuro. Es probable, incluso, que el futuro como tal no sea, en absoluto, “adivi­nable”. Hasta las profecías más espectaculares no predijeron el futuro sino tan sólo algunos hechos que luego sucedieron. Pero no por ello hemos dejado de desear siempre un futuro determinado - expresándolo, por lo general, en términos de alguna ideología - y, en función de este proyecto de futuro, hemos previsto los acontecimientos en alguna medida. El perfeccionamiento progresivo de esa capacidad de previsión y planificación está decididamente a nuestro alcance aunque con limitaciones que, por el momento, no podríamos establecer con total exactitud.

Sucede, sin embargo, que durante las últimas décadas hemos hecho bastante para reducir esas límitaciones. Naturalmente, aún no estamos - en absoluto - en condiciones de afirmar que nuestra capacidad de previsión es satisfactoria. Pero hemos desarrollado varias técnicas que permiten asistir razonablemente bien el proceso de toma de decisiones, en un sentido general, y permiten también la previsión y administración de riesgos de un modo específico. Es cierto que todas estas técnicas y disciplinas son relativamente muy nuevas y, por lo tanto, carecemos todavía de un vasto cúmulo de experiencia que las avale. Pero la experiencia es justamente lo que va brindando el futuro a medida en que se actualiza y se convierte en presente de modo que la constante evaluación del éxito o del fracaso de las previsiones realizadas nos permitirá ir, poco a poco, ajustando la precisión y confiabilidad de técnicas y herramientas. No sabemos todavía dónde está exactamente el límite de nuestra capacidad de previsión. No sabemos muy bien qué grado absoluto de certeza puede llegar a tener hasta la mejor técnica de previsión imaginable y tampoco sabemos muy bien qué cantidad de tiempo hacia el futuro se puede llegar a prever con grados aceptables de certeza. Por el momento nos manejamos en el ámbito de los grandes lineamientos y de los grandes procesos, por lapsos de “tiempo a futuro” relativamente cortos. Pero, aún así, hemos avanzado mucho desde principios del Siglo XX a esta parte y, al menos en algunos casos puntuales como la industria, la economía, las finanzas y los riesgos en general, nuestras herramientas de análisis - habida cuenta de su juventud - se encuentran sorprendentemente bien desarrolladas.

1.2.1     Una visión por “escenarios”.

Cuando por los años 1973/74 se produjo la crisis del petróleo los directivos de la Royal Duch Shell Group se encontraron en una posición bastante inquietante: muchos recordaron haber leído análisis y documentos que la habían previsto y hasta descripto de una manera bastante satisfactoria poco más o menos un año antes. Sólo que nadie había, en apariencia, hecho gran cosa al respecto.

No se trató, por supuesto, de una falla de conducción o de un imperdonable error en el proceso de toma de decisiones. Lo que había sucedido era que, en 1972, el departamento de Coordinación y Planeamiento de la Shell había tomado una técnica desarrollada durante los años 60 por H.Kahn y A.J.Wiener para el Hudson Institute y, luego de refinarla, los técnicos de planeamiento la habían aplicado al entorno de la actividad petrolera pudiendo describir con bastante buen detalle un posible desarrollo de los acontecimientos como el que en efecto tuvo lugar al año siguiente.

La técnica se conoce como la del modelamiento por escenarios o planificación por escenarios. Se basa, esencialmente, en el hecho de que, conociendo los parámetros básicos que hacen al funcionamiento de un proceso, existe la posibilidad analítica de imaginar distintas variantes coherentes de ese mismo proceso proyectadas hacia el futuro. En otras palabras: un “escenario” modelado según esta técnica describe un futuro posible mediante descripciones internamente coherentes utilizando parámetros o elementos tanto cuantitativos como cualitativos, incluyendo no sólo datos económicos sino también tecnológicos, políticos, sociales y culturales. De este modo, un sistema de escenarios correctamente construido no es meramente un juego de distintas proyecciones de variables cuantitativas tales como, por ejemplo, el consumo, la tasa de inversión, el crecimiento demográfico o el ingreso per capita. Lo que se intenta describir con los escenarios es el conjunto de los distintos cuadros de situación que pueden construirse realizando estas proyecciones dentro del marco de diferentes contextos “armados” con variables cualitativas que pueden ser políticas, culturales, psicológicas, sociales, tecnológicas o de cualquier otra índole.

Lo interesante de la técnica es que el objetivo de un escenario no es esencialmente establecer un pronóstico. Aún cuando, por supuesto, no se deja nunca completamente de lado la intención de pronosticar, el objetivo no es la descripción de algo de lo cual estamos íntimamente convencidos de que habrá de suceder. De hecho, un escenario ni siquiera tiene por qué ser “creíble” o “probable” porque los constantes procesos de cambio operan muy fuertemente sobre lo que en un momento dado se considera creíble o probable. Lo único que necesariamente tiene que ser es intrínsecamente coherente. Pierre Wack definía a los escenarios como descripciones intrínsecamente consistentes de futuros posibles. Un escenario no se modela para determinar lo que irá a pasar; se construye para describir lo que puede pasar. Más exactamente: para describir lo que puede pasar, considerando lo que seguramente (o casi seguramente) pasará y si suceden una o varias cosas posibles y coherentes dentro del contexto que se está formulando. En realidad para un ámbito determinado incluso no se desarrolla un escenario sino varios, siendo que estos distintos escenarios pueden ser sumamente diferentes entre sí. Lo que interesa siempre es que, aún a pesar de su disimilitud, se presenten alternativas posibles y coherentes para un mismo proceso.

La gran innovación que presenta la técnica del planeamiento por escenarios es que, contrariamente a las tendencias que venían operando hasta mediados de este siglo, se abandona deliberada y concientemente la suposición de que el futuro es predecible o adivinable, algo que se hallaba implícita o explícitamente contenido tanto en las cosmovisiones mágicas como en el mecanicismo materialista del Siglo XIX. Si el futuro es una cuestión de la intención de los Dioses, conociendo esa intención conoceríamos el futuro. Pero, de igual forma, si Dios no existe y todos los fenómenos obedecen a leyes expresables en términos matemáticos o racionales, conociendo esas leyes también deberíamos poder predecir el desarrollo de todos los acontecimientos. El gran problema que plantea la intención de predecir el futuro es que no todos los fenómenos que conocemos obedecen a reglas o leyes determinables mediante el método científico matemático, siendo que este método es prácticamente el único que dominamos de un modo confiable para establecer predicciones. Es muy cierto que las ciencias llamadas exactas abarcan mucho y tienen como mérito - acaso como mérito principal - la posibilidad de predecir el resultado de un proceso. Si dejo caer una piedra desde un punto determinado de la Torre de Pisa puedo, científicamente, predecir cuando, dónde y a qué velocidad caerá. Pero si le digo a Juan o a Pedro que vayan y tiren una piedra, casi no tengo forma de vaticinar lo que irá a suceder. Hasta pueden llegar a no tirarla en absoluto. En un contexto así, sólo puedo juntar todos los factores que conozco de Juan, de Pedro, de la Torre de Pisa y de la bendita piedra en cuestión para luego manejarme con los distintos escenarios posibles.

Otra de las grandes innovaciones de la técnica es que abandona la búsqueda excluyente de una única respuesta cuantitativamente “correcta” a un problema planteado. Dos piedras más dos piedras seguirá siendo igual a cuatro piedras, por supuesto, pero si de estas piedras dos me las debe aportar Juan, una me la tiene que traer Pedro y una ya obra en mi poder, el resultado ya no es tan seguro que sea de cuatro piedras al final del día. Y este ejemplo no por ser bastante banal deja de reflejar situaciones que se dan mil veces y a cada instante en cualquier actividad real.

La consecuencia más trascendente de dejar de lado la búsqueda excluyente de una única respuesta cuantitativamente correcta es que, con ello, el futuro deja de ser una posibilidad unidimensional. La esencia de la predicción consiste en la capacidad de describir exactamente un hecho o una situación compleja que ocurrirá o se producirá en el futuro. Un conjunto de escenarios, por el contrario, describe una gama de hechos o situaciones coherentemente previsibles con - a lo sumo - una apreciación acerca de la probabilidad de su ocurrencia. De este modo, el futuro que surge de un juego de escenarios es esencialmente multidimensional y la lógica del modelo se expresa normalmente mediante una serie de afirmaciones condicionales al estilo de “si X, entonces Y”.

Naturalmente, esto hace que el modelamiento por escenarios se preste a toda una serie de críticas. Una predicción correcta, al menos en teoría, permite tomar con seguridad una decisión acertada. Una serie de escenarios sigue dejando la decisión en manos de la persona que tiene la obligación de tomarla. Desde este punto de vista, uno podría llegar a preguntarse: ¿de qué sirve contar con una colección de escenarios si no se puede saber cual de ellos es el que se materializará en definitiva?. No es fácil contestar a esta pregunta pero, quizás, una adecuada comprensión de la enorme utilidad de los escenarios queda bastante en claro cuando, tras analizar la cuestión a fondo, llegamos a la sorprendente conclusión de que una profecía precisa y certera probablemente nos sería de menor utilidad todavía.

1.2.2     El Alcalde de Hiroshima

Para entender esta aparente paradoja podemos echar mano a la “Historia del Alcalde” que distintos autores han relatado de diversas maneras. Pierre Wack la relató como la historia del alcalde de Dresden y A.P.de Geus la cuenta como la del alcalde de Rotterdam. De hecho, puede narrarse tomando a cualquier ciudad como referencia y aquí utilizaremos a Hiroshima para ilustrar el punto.

Así pues, la historia nos dice que nos encontramos en Hiroshima y corre el año 1920. Llega a la ciudad un adivino con una capacidad infalible para predecir el futuro y el alcalde lo manda llamar para saber qué le depara el destino a su ciudad en los próximos 25 años (que es el período normalmente abarcado por un modelo de escenarios). Imaginemos entonces que el adivino comienza a desgranar sus predicciones y dice, aproximadamente, lo siguiente: “Occidente enfrentará una tremenda crisis económica que causará un colapso total en 1929; se producirá una hiperinflación colosal que arruinará por completo a Alemania y arrastrará consigo a la República de Weimar  abriendo el paso al nacionalsocialismo alemán. Estallará una Guerra Mundial a raíz de la cual morirán millones y millones de personas. Alemania, Italia y el Japón marcharán juntas en esta guerra enfrentándose principalmente con Inglaterra, Francia y Rusia. Los Estados Unidos también intervendrán y, finalmente, Alemania e Italia serán derrotadas. El Japón quedará por un tiempo luchando solo contra los Estados Unidos hasta que, un día, los norteamericanos arrojarán sobre Hiroshima una bomba de un tipo absolutamente ignorado hasta entonces. Esta bomba destruirá por completo la ciudad, producirá consecuencias lamentables en las personas aún muchos años después del suceso, pero la fuerza impulsora básica de la explosión constituirá toda una nueva fuente de energía para la humanidad. Japón, por supuesto, también perderá la guerra al igual que todos sus aliados, será por un tiempo una especie de vasallo de los Estados Unidos, pero después resurgirá con gran potencia ganando posiciones de liderazgo mundial sobre todo en el ámbito de la industria y la economía.”

Una vez relatada la historia, la pregunta es: ¿Qué hubiera podido hacer el alcalde de Hiroshima en 1920 luego de conocer exactamente el futuro de su ciudad?. No deja de ser sorprendente, pero la respuesta es: nada.

Aún en el caso de que supiese darle a la predicción una importancia mayor que al cúmulo de todas las demás informaciones que recibía diariamente, aún suponiendo que hubiese juntado el coraje necesario para actuar, no hubiera podido lograr el consenso entre sus conciudadanos para tomar las medidas de largo alcance necesarias a fin de prevenir y evitar el holocausto atómico que efectivamente terminó destruyendo la ciudad. Exactamente por el mismo motivo los reyes de Francia no pudieron hacer nada práctico con las numerosas profecías y predicciones que anunciaban, desde por lo menos 1420, los tumultuosos acontecimientos que sucederían en 1789.

El hecho concreto es que aún cuando el futuro fuese predecible, la predicción sería inverificable. Tendríamos no sólo que desarrollar técnicas y métodos confiables para predecir el futuro sino que, además, deberíamos usarlas con éxito durante un lapso de tiempo muy largo hasta que pudiésemos realmente tener fe en sus resultados en base a una estadística retrospectiva de aciertos. Los hechos y acontecimientos que nuestra ciencia es capaz de predecir son verificables mediante la experimentación y se basan en la presunción de que un mismo fenómeno se repetirá si se dan exactamente las mismas condiciones. Una ciencia que se dedicase a tratar de predecir el futuro sólo podría verificar su exactitud “a posteriori”, sin posibilidad alguna de experimentación y con prácticamente nula probabilidad de reiterar exactamente el mismo universo de condiciones. Con nuestra actual capacidad de predicción no sólo no nos es posible predecir con certeza el futuro sino que, además, aún en el caso de que dispusiésemos de una predicción acertada, muy probablemente no nos atreveríamos a actuar basándonos en ella.

1.2.3     “Jugar” al futuro.

Con un juego de escenarios la situación es bastante diferente. Si bien es cierto que un modelo del futuro no puede producir una predicción unívoca e indiscutible, no menos cierto es que ofrece la representación de un mundo verosímil con el cual sí se puede experimentar y, mediante la experimentación, aprender. Con nuestra tecnología actual podemos utilizar sistemas computados y producir modelos de la realidad lo suficientemente ágiles y completos como para reproducir de un modo bastante satisfactorio un determinado conjunto de condiciones reales. Los simuladores de vuelo utilizados para el entrenamiento de pilotos, las instalaciones virtuales utilizadas para complejos procesos químicos o los modelos de flujo computados para analizar comportamientos hidráulicos; incluso algunos juegos que simulan situaciones tales como la vida de una ciudad o el ecosistema de los peces de un lago, son sólo algunos ejemplos de los muchos que podrían citarse. Todos estos dispositivos y programas no predicen el futuro en absoluto. Pero le permiten a quien los utiliza experimentar con distintas alternativas sin la amenaza de sufrir consecuencias desagradables.

Así es como muchos de nuestros más destacados empresarios y hombres de negocios se han acostumbrado a experimentar con modelos virtuales, o bien, como no es infrecuente que digan - no sin bastante sorna - sus empleados y las personas que los rodean: a “jugar” con la computadora. Pero en realidad, eso es precisamente lo que los modelos permiten: jugar. Lo que sucede es que, como lo saben todos los niños, con el juego se aprende, es decir: se obtiene experiencia. La manipulación de las variables de un modelo permite aprender a tomar decisiones sin producir un desastre lamentable y la experiencia obtenida de ese modo sirve para tomar decisiones más acertadas luego en la vida real. La ventaja, naturalmente, es que se pueden ensayar decisiones que uno jamás se hubiera atrevido a tomar en situaciones reales.

1.2.4     Prevea primero, pronostique después.

La utilidad básica del modelaje por escenarios no es, pues, la de brindar la posibilidad de predecir sino la de desarrollar las aptitudes básicas para prever el futuro. El objetivo de este aprendizaje no es poder determinar si el tren de las 9:30 chocará, o no, mañana con el Expreso del Norte sino desarrollar en la mente de quien debe tomar las decisiones relativas al tráfico ferroviario algo así como “si la sincronización de las señales falla por tan sólo 20 segundos, las posibilidades de que el tren de las 9:30 choque contra el Expreso aumentan en un 80%”. Con lo cual posiblemente esta persona tome la decisión de diseñar un sistema de tráfico menos dependiente de la sincronización de las señales, lo que aumentará la seguridad del servicio y reducirá la frecuencia de los accidentes. A partir de lo cual quizás sí se atreva a realizar una predicción anunciando algo al estilo de “la seguridad del sistema aumentará en un 30% y se reducirá el número de accidentes en un 15%”.

Lo que permite el planeamiento por escenarios es superar la incapacidad de predecir por medio de la capacidad de prever. Es, con todo, cierto que ambas capacidades confluyen hacia el objetivo común anhelado por los seres humanos de todos los tiempos de adivinar el futuro. La gran diferencia es que, mientras la predicción es necesariamente categórica y binaria, la previsión puede ser gradual y aproximativa. La predicción consiste esencialmente en la afirmación o negación de la ocurrencia de un hecho, admitiendo solamente dos posibilidades: el acierto o el error. La previsión, por el contrario, consiste en la descripción de un escenario futuro siendo que dicha descripción puede ser incompleta y sus afirmaciones o negaciones sólo parcialmente acertadas, lo que aún así no invalida la capacidad de tomar decisiones, aunque más no sea de la clase de “decisiones latentes” que se implementan “si” se materializa alguno de los escenarios previstos. Así, en nuestro ejemplo ferroviario anterior, la persona responsable por tomar las decisiones podría haber llegado a la previsión de si se produce una falla de sincronización en el sistema de señalización, entonces en menos de 20 segundos daré la órden de detener los trenes”. Este razonamiento por algoritmos de “si-entonces” es la base de nuestra capacidad de prever y, con toda seguridad, la desarrollaremos enormemente en forma paralela a la tecnología de procesamiento de datos que iremos perfeccionando a lo largo del Siglo XXI. Ya hoy, las estructuras del tipo “si-entonces” constituyen una de las bases fundamentales de todos los lenguajes de programación estructurada para computadoras. Hasta qué punto un desarrollo como el indicado puede llegar a ofrecernos una mayor capacidad de predicción sigue siendo una pregunta abierta, pero no es descabellado pensar en que - al menos en cierto grado - podremos mejorar sustancialmente nuestras aptitudes para gobernar el cambio y, con ello, nuestro futuro.

1.2.5     Escenarios y consenso.

Teóricamente y en principio es cierto que podríamos desarrollar la capacidad de previsión hasta convertirla en una capacidad de predicción. Lo que sucede es que las dificultades de órden práctico son aún tan numerosas y difíciles de dominar que debemos admitir que estamos todavía muy lejos de poder considerarlo seriamente. Para que un modelo pueda ofrecernos una predicción confiable acerca de sistemas no mecánicos debería ser, en primer lugar, completo y, en segundo lugar, una representación absolutamente fiel y exacta de la realidad.

El gran problema que se plantea aquí es que no hay dos personas en el mundo que perciban la misma realidad de la misma manera, con lo que determinar cual sería una representación exacta de cierta realidad se vuelve prácticamente imposible. Esta es, justamente la gran debilidad de todos los cuerpos colegiados con decisiones dependientes del consenso mayoritario. Dos personas inteligentes jamás estarán completamente de acuerdo en un diagnóstico de la realidad y, si hacemos del acuerdo la condición necesaria para la acción, es muy posible que la misma se empantane y hasta naufrague en una serie interminable de discusiones. Cualquier modelo que construyamos, siempre será insatisfactorio para un número muy grande de personas y mientras más personas intervengan en el modelaje más difícil será arribar a la certeza de que hemos logrado una representación exacta de la realidad. Actualmente, con una mentalidad todavía muy centrada en la búsqueda de predicciones, estamos invirtiendo grandes esfuerzos en la investigación y el estudio de aquellos elementos que contribuyen a lograr el consenso. Si queremos explotar las posibilidades de un planeamiento por escenarios, es muy probable que a lo largo del Siglo XXI tengamos que  invertir un esfuerzo similar en desarrollar alternativas de acción para aquellos múltiples casos en que no se puede obtener ese consenso. Mientras hoy el gran dilema es qué hacer para ponernos de acuerdo, en el futuro la necesidad de actuar - y de actuar rápido-  nos obligará a determinar qué hacer cuando no consigamos ponernos de acuerdo y esto en el ámbito político traerá consecuencias muy importantes.

Además, la cantidad de elementos que es necesario integrar en un modelo para hacerlo incluso tan sólo aproximadamente completo, aún en realidades relativamente simples y bien delimitadas, es sencillamente enorme. A la dificultad de lograr el consenso en cuanto a la exactitud del modelo se le suma la dificultad, quizás aún mayor, de integrar efectivamente todas las variables cualitativas y cuantitativas que intervienen en la determinación de una realidad dada. Si listáramos la totalidad de los factores y relaciones que es necesario incluir en la descripción de la actividad manufacturera más sencilla que podamos imaginar, obtendríamos un listado que seguramente nos sorprendería por su enorme extensión. La más sencilla de nuestras actividades incluye una cantidad formidable de factores, condiciones, relaciones, procesos y ramificaciones. Tratar de integrar absolutamente todos estos elementos en un cuadro realmente completo es una tarea que, por el momento, está fuera de nuestro alcance en la enorme mayoría de los casos de la vida real. Por otro lado, aún cuando consiguiésemos hacer una lista completa, probablemente nos encontraríamos con que aún nos falta el soporte del “software” computacional para manejarla.

1.2.6     Escenarios e inteligencia artificial.

Con todo, nuestros escenarios, aún siendo imperfectos, ya nos permiten lograr una mayor capacidad de previsión. Las técnicas para aumentar esta capacidad quizás serán suministradas por la electrónica pero, más probablemente, por una nueva ciencia nacida de la hibridación entre electrónica y neurobiología. Ya hoy se trabaja sobre el concepto de “redes neuronales” en el mundo de la computación y esta tendencia seguramente tiene grandes posibilidades de proyectarse hacia el futuro. Esto es así porque determinados funcionamientos del cerebro humano son modelables sobre soportes electrónicos con cierta facilidad. En otras palabras: si bien estamos todavía a años luz de poder construir un cerebro artificial por medios electrónicos es relativamente simple simular algunas funciones neuronales por medio de chips programados en la forma adecuada. De hecho, en la investigación genética ya se están utilizando chips con “estructura biológica”.

Una de las cosas más interesantes en lo referente a todas estas técnicas de administrar el futuro es que la mente humana utiliza métodos muy similares al planeamiento por escenarios cuando tiene que ocuparse de prever acontecimientos. Esto quedó claro ya en 1985 cuando David Ingvar dió a conocer el resultado de los trabajos realizados en la Universidad de Lund y según los cuales la forma en que nuestro cerebro se ocupa del futuro es elaborando planes de acción bajo la forma de secuencias de eventos imaginados como desarrollados en un futuro anticipado. Estas secuencias pueden abarcar lapsos de “tiempo a futuro” muy diversos: desde los próximos minutos hasta los próximos años. Y hay varias cosas curiosas que Ingvar menciona con relación a estas secuencias. En primer lugar, llama la atención que nunca hay solamente una secuencia sino varias y correspondiendo a distintas formas de “futuro anticipado”. En segundo lugar, en las personas mentalmente sanas, generalmente sólo un poco más de la mitad de las secuencias se refiere a situaciones “favorables” u optimistas. En tercer lugar, el cerebro no solamente elabora estos planes de acción sino que los almacena, con lo que nuestra capacidad de previsión se convierte en algo así como una “memoria del futuro”. Finalmente y en cuarto lugar, es sorprendente pero parecería ser que nuestro cerebro no se interesa mayormente en predicciones propiamente dichas sino en representaciones imaginarias de varios cursos de acción en contextos distintos siguiendo la lógica ya mencionada de las estructuras del tipo “si-entonces”. En otras palabras, normalmente nuestro cerebro no piensa en las futuras vacaciones en términos de “qué playa me depara el destino” sino en términos de “si me aumentan el sueldo iré a Saint Tropez, pero si no, iré al mismo sitio del verano pasado o, en todo caso, a un lugar cerca de allí que es tan sólo un poco más caro”.

Es muy cierto que un planeamiento por escenarios no elimina nuestra posibilidad de cometer errores. Pero no menos cierto es que pone nuestro enfoque sobre carriles que hacen más fácil el evitarlos y abre el horizonte hacia nuevas técnicas que previsiblemente irán reduciendo, quizás no tanto nuestros riesgos, sino más bien nuestra miopía y nuestra incapacidad para preverlos y manejarlos apropiadamente.

1.2.7     Administrar el futuro.

El futuro quizás nunca será “adivinable”. Es muy probable que nunca lleguemos a construir el equivalente de la mítica bola de cristal que nos permita ver directamente los acontecimientos futuros. Es incluso difícil imaginarse un futuro adivinable porque, por todo lo que sabemos, gran parte del futuro depende de lo que estamos haciendo hoy y, a menos que nuestras actividades presentes estén totalmente determinadas por factores ajenos a nuestra voluntad, el futuro siempre dependerá en alguna medida de lo que hoy hayamos decidido hacer. Y, para colmo, nuestra decisión de hoy viene, al menos en parte, condicionada por lo que hicimos o dejamos de hacer ayer.

En otras palabras: el futuro no será predecible pero sí es previsible. Y si es previsible entonces es administrable. Porque administrar, según la feliz definición de Henry Fayol, es prever y planificar, organizar, conducir, coordinar y controlar. Algo que los anglosajones, con esa elegante capacidad de simplificación que les otorga su idioma, llaman simplemente “Management”.


 

2.     El análisis de riesgos

Para la construcción de escenarios y modelos de futuro hay varias técnicas y herramientas. Dejando de lado las financieras y de análisis de mercados por constituir éstas un arsenal demasiado específico y especializado, vale la pena detenerse un poco en algunas muy interesantes que, convenientemente adaptadas, pueden llegar a ser de utilidad práctica en un marco bastante amplio. Una de ellas es el análisis de riesgos con sus procedimientos matemáticos asociados.

2.1     Probabilidades. La apuesta básica.

Sería muy difícil determinar desde cuando los seres humanos hacemos apuestas. Jugamos a los dados, a las cartas, a la ruleta, a las carreras de caballos y hasta a la ocurrencia o no-ocurrencia de eventos de la vida cotidiana como, por ejemplo, cuando apostamos con un amigo a que mañana lloverá o hará un hermoso día.

En realidad cualquier actividad que emprendemos es una apuesta al futuro. Cuando iniciamos una empresa - aún cuando hayamos tomado todos los recaudos del caso en materia de estudios del mercado, diseños y previsiones - nuestros márgenes de incertidumbre son siempre bastante altos. Apostamos a la gente que hemos contratado, apostamos a que ciertas condiciones se mantendrán, apostamos a que los gustos de los consumidores continuarán aproximadamente estables, a que el valor del dinero y el crédito oscilarán dentro de determinados parámetros. Mirándolo desde cierto punto de vista, toda nuestra vida no es sino una gran apuesta.

El problema que tenemos es el de manejar nuestros márgenes de incertidumbre. Si suponemos que un suceso, de un total de casos posibles - todos igualmente factibles - puede ocurrir en una cantidad determinada de casos, la probabilidad matemática de la ocurrencia del suceso es:

 

                          Probabilidad =      Cantidad  de  ocurrencias

                                                        Cantidad de casos posibles

 

Tomemos el caso clásico del juego de dados. Tras lanzar un dado, hay seis casos posibles que pueden presentarse: el dado puede quedar con cualquiera de sus seis caras para arriba y, así, podemos “sacar” un 1, un 2, un 3, un 4, un 5 o un 6. Si el dado está realmente bien construido, cualquiera de estos seis casos es igualmente posible ( o, por lo menos, podemos suponer que lo es). Si quisiéramos saber qué chances tenemos de “sacar” cualquiera de dos números determinados, por ejemplo: ya sea un 3 o bien un 4 (dos “ocurrencias esperadas”), en una sola tirada (que puede arrojar seis resultados distintos posibles), la fórmula nos diría que nuestra probabilidad es de P = 2 ¸ 6 = 0.333.. Si en lugar de apostar a dos números lo hubiésemos hecho a uno sólo nuestras chances hubieran sido de P = 1 ¸ 6 = 0.1666  Y, si cualquiera de los seis números posibles nos hubiera servido, la fórmula nos hubiera dado P= 6 ¸ 6 = 1. Con lo que vemos que un hecho cierto, es decir: de ocurrencia cierta (tras lanzar un dado, alguno de los números posibles tiene que “salir”), posee una probabilidad igual a 1 mientras que hechos cada vez menos probables se aproximan progresivamente a 0. En otras palabras: la probabilidad de ocurrencia de un evento es una magnitud matemática expresada por un número entre 0 (seguramente no ocurrirá) y 1 (seguramente ocurrirá).

Por supuesto, ejemplos como el del dado, o la moneda lanzada a cara o cruz, o el naipe extraído de una baraja sirven sólo para ilustrar los conceptos básicos y elementales del cálculo de probabilidades. En la vida real resultan poco aplicables y las fórmulas comienzan a complicarse rápidamente a medida en que se avanza sobre casos prácticos. No obstante, muchas de nuestras actividades más importantes se basan esencialmente en una estimación del riesgo implícito en determinada “apues­ta”. Un caso típico de esto es, por ejemplo, el de las compañías de seguros.

2.2     El seguro: una apuesta a futuro.

Como es conocido, las compañías de seguros amparan a sus clientes garantizándoles un resarcimiento o indemnización en el caso de materializarse algún evento o acontecimiento que haya sido objeto específico del contrato del seguro.

Cuando una persona contrata con una compañía de seguros una cobertura por el riesgo de incendio amparando, por ejemplo, su establecimiento fabril, la compañía, a cambio del pago de una suma que es sólo una fracción relativamente pequeña del valor total de la fábrica, se compromete a pagar el valor de los bienes que se quemen en el supuesto caso de que esa fábrica realmente se incendie. En otras palabras: si el evento (el incendio) se produce, la compañía paga los daños; si no se produce, se queda con la suma abonada por el dueño de la fábrica en concepto de costo del seguro.

Puede comprenderse que, al momento de negociar el contrato, las compañías de seguros están más que interesadas en poder determinar de antemano la probabilidad de ocurrencia del evento que están por asegurar. En términos amplios y muy simplificados puede decirse que, estando la probabilidad estadística de un evento expresada por un número entre 1 y 0, se comprende que un evento de probabilidad 1 (ocurrencia cierta) es prácticamente no asegurable porque ninguna compañía asumiría un riesgo que seguramente habrá de ocurrir mientras que, por el otro lado, un riesgo de probabilidad 0 (probabilidad nula) tampoco resulta asegurable porque nadie compraría un seguro para cubrirse de un evento que seguramente no ocurrirá. En la gama intermedia se halla la “zona de incertidumbre” expresada en grados de probabilidad entendiéndose que, a mayor probabilidad de ocurrencia, más cara será la póliza de seguro y viceversa, a menor probabilidad menor precio tendrá la cobertura.

El seguro funciona así sobre el principio básico de una apuesta hecha sobre un acontecimiento futuro: el asegurado apuesta a que el evento sucederá y la compañía de seguros apuesta a que no sucederá. El que pierde, paga.

2.3     El costo de la incertidumbre

Dentro de este contexto puede comprenderse que, así como las compañías de seguros tienen sumo interés en aislar estadísticamente la verdadera probabilidad de ocurrencia de determinados eventos, los asegurados de todo el mundo por su parte, especialmente las grandes empresas y corporaciones cuyos gastos en seguros ascienden a cifras muy importantes, han estado más que interesadas en desarrollar métodos y técnicas que permitan (1) reducir esa probabilidad de ocurrencia o, al menos, (2) aumentar la certeza en las predicciones.

Consiguiendo reducir la probabilidad de ocurrencia del evento se logra reducir - y hasta eliminar - los costos del seguro porque, de llegar esa reducción al grado en que el evento se torna improbable o imposible, ya no hay razón para comprar un seguro que lo ampare. Por otro lado, si se consigue aumentar su predictibilidad en un grado razonablemente confiable, no sólo se pueden dimensionar costos de seguros de un modo más acorde con la realidad sino que también puede llegarse a una situación en que también se prescinde de la cobertura. Si en una empresa las tareas de limpieza se realizan con algún líquido inflamable, esa empresa seguramente necesitará un seguro contra incendio y pagará por él una suma importante desde el momento en que el líquido inflamable aumenta considerablemente la probabilidad de que se produzca el incendio. Pero si esa misma empresa elimina el uso de líquidos inflamables en tareas de limpieza y pasa a utilizar, digamos, detergentes solubles en agua para el mismo propósito, el riesgo de incendio puede llegar a bajar tanto que el seguro termine siendo una precaución innecesaria.

Por otro lado, si la empresa de nuestro ejemplo distribuye sus productos mediante una flota de camiones, necesitará imperiosamente un seguro que ampare esos vehículos. Pero si, por algún medio, consigue establecer que cada año se accidentan, por ejemplo, no más de ocho camiones, representando estos accidentes un total de daños de no más de 8,000 unidades de moneda, en ese caso difícilmente la empresa esté dispuesta a pagar más de 8,000 por su póliza de seguro - y la compañía de seguros, si hace el mismo cálculo, difícilmente acepte cubrir el riesgo por menos de 8,000 - con lo que, nuevamente, es improbable que el seguro termine contratándose en absoluto.

2.4     Administrar lo previsible

La técnica o disciplina mediante la cual se ha estado enfocando este tipo de problemas ha recibido por parte de los anglosajones el nombre de Risk Management, un concepto que figura indistintamente en la literatura especializada como “ad­mi­nis­tración”, “gestión” o “ma­ne­jo” de riesgos por la gran dificultad que existe para traducir correctamente el término “management”. Lo interesante de ella es que, aún siendo en cierto modo específica - ya que su nacimiento se ha producido en el ámbito de las compañías aseguradoras - se ha ido desarrollando, ampliando y refinando en múltiples direcciones abarcando prácticamente todas las actividades del ser humano. No es sólo que la actividad de las compañías de seguros comprende un ámbito muy amplio de nuestro quehacer, al punto en que hay muy pocos rubros que no sean asegurables, sino que, además, cualquier actividad, en la medida en que está expuesta a acontecimientos - o eventos - desfavorables o indeseados, está de hecho corriendo un riesgo y, por consiguiente puede ser objeto de un análisis de Risk Management porque precisamente de eso trata la disciplina en forma esencial: del análisis y del control de riesgos.

Lo primero que hay que decir de las modernas técnicas de administración de riesgos es que se trata de herramientas muy nuevas cuya eficacia aún está siendo discutida en muchos casos. Y lo segundo que hay para agregar inmediatamente es que, como en toda técnica, no se trata de una panacea. Es, con todo, una herramienta que promete ser muy interesante y razonablemente apta para enfrentar aquellos casos típicos en que las decisiones deben ser tomadas bajo consideración de probables o posibles resultados adversos en un futuro determinado, vale decir: en todos los procesos de cambio y modificación de las condiciones existentes como lo son, casi por excelencia, todas las decisiones que, de algún modo u otro, pueden considerarse como políticas o estratégicas.

2.4.1     Las etapas del proceso.

A grandes rasgos, la moderna técnica que permite una administración de eventos a futuro comprende tres etapas básicas: (1) la identificación de los riesgos existentes, (2) el control de los riesgos identificados y (3) el monitoreo constante de toda la situación.

Mediante las técnicas de identificación o análisis de riesgos se llega a la posibilidad de establecer (a) la probabilidad de ocurrencia de un hecho; (b) su frecuencia estadística en lapsos de tiempo determinados (por ejemplo, cuántas veces es esperable que suceda a lo largo de, digamos, un año) y (c) su severidad promedio, o sea: la magnitud del daño o de las consecuencias que puede llegar a producir.

Una vez identificados los riesgos a los que se halla expuesta determinada actividad, empresa o emprendimiento humano, las técnicas desarrolladas permiten elaborar criterios optimizados para un abanico de alternativas. Frente a cada hecho o evento, identificado o detectado se procede a implementar una estrategia de control de riesgos dentro de cuyo contexto se puede optar por (a) una eliminación del riesgo, que implica la anulación lisa y llana de las causas que lo producen (la suplantación del inflamable por el detergente soluble en agua de nuestro ejemplo anterior sería un caso típico de eliminación); o bien (b) una minimización del riesgo, que implica arbitrar medios para reducir su probabilidad de ocurrencia, su frecuencia o su posible severidad; o bien (c) una transferencia del riesgo, que implica traspasarlo a otras personas o a otras áreas en las que su efecto sea menor o más soportable; o bien se puede también optar por (d) asumir el riesgo lo que significa prepararse para su ocurrencia tomando las medidas necesarias para garantizar la continuidad de las operaciones en el caso de que el hecho previsto suceda efectivamente. Ninguna de estas medidas es, por supuesto, excluyente. Se podrá, dado el caso, eliminar en parte, minimizar en parte, transferir en parte y asumir el riesgo remanente. De lo que se trata siempre y en todos los casos es de reducir el margen de incertidumbre representado por determinados hechos de ocurrencia contingente o eventual pero temporalmente indeterminada ya que las técnicas funcionan tanto para acontecimientos de los que no estamos muy seguros de si habrán - o no - de ocurrir como para acontecimientos de los que estamos seguros que ocurrirán pero no sabemos cuando lo harán, como sucede, por ejemplo, en el caso de los seguros de vida.

El conjunto de medidas implementadas no es, en absoluto, un esquema definitivo o estático. No puede serlo por la sencilla razón de que la incertidumbre es siempre relativa al futuro y el futuro nunca termina. El futuro de ayer es el presente de hoy y el presente de hoy es el ayer de mañana, repitiéndose la situación día a día, año tras año, década tras década y siglo tras siglo. Además de ello, los riesgos identificados ni son inalterables, ni su número es constante tampoco. Con el correr del tiempo - por múltiples razones - los factores del análisis cambian, ya sea que se modifiquen, ya sea que desaparezcan unos y aparezcan otros, ya sea que las propias medidas implementadas formen contextos nuevos y riesgos también nuevos. El trabajo de administrar el futuro es pues una tarea absolutamente dinámica, elástica y, sobre todo, reiterativa y constante. Las situaciones a controlar deben ser constantemente monitoreadas, la eficacia de las medidas tomadas debe ser permanentemente verificada, la tarea de análisis e identificación de nuevos riesgos no termina nunca y toda la tarea se convierte en un ciclo periódico constantemente reiterado al cual, por supuesto, se van incorporando los datos que surgen de decisiones nuevas siendo que estos nuevos datos aportan, en cada caso, modelos de previsión de riesgos también nuevos. La posibilidad de este monitoreo permanente es posible, en gran medida, gracias a las nuevas técnicas de procesamiento y ordenamiento de datos que no sólo permiten la obtención de la información casi instantáneamente a medida en que la realidad la produce sino que, además, admiten toda una serie de manipuleos experimentales como, por ejemplo, modelajes sobre los denominados “sistemas expertos” en los que se está comenzando a implementar la popularmente denominada “inteligencia artificial”, o bien sobre escenarios construidos con esquemas de relaciones conocidas mediante modificaciones experimentales del tipo “what if...” que permiten ensayar distintos modelos modificando algún o algunos parámetros y contestar a la pregunta básica de “¿qué pasaría si...”?. Esto último, como puede verse, se conecta estrechamente con la técnica del planeamiento por escenarios.

2.4.2     Observar y aprender.

El monitoreo constante también es necesario por motivos más fundamentales. Como se comprenderá, en principio la administración de riesgos no inquiere acerca de la corrección o incorrección de la actividad que se desea realizar. No analiza ni los objetivos que se ha impuesto la actividad ni las razones que han concurrido a determinar que se tomara la decisión de realizarla. En principio no inquirirá si es “correcto” - o no - sembrar trigo en lugar de girasol, fabricar escarbadientes y no automóviles; invertir en un negocio y no en otro. Tampoco está a su alcance emitir un juicio de valor acerca de los móviles o las razones que han concurrido para tomar la decisión de realizar determinada actividad, con determinados métodos, normas y procedimientos.

Pero una vez puesto en marcha el mecanismo de identificación, control y monitoreo, la técnica detecta con una seguridad bastante satisfactoria los peligros que amenazan a la actividad desplegada y el fracaso de la actividad, vale decir: el no-logro de los objetivos propuestos, es justamente uno de los principales eventos analizables y controlables. De modo tal que, si bien en un principio la técnica no podrá decirnos si determinada decisión es -  o no - “correcta”, el constante monitoreo de los resultados y de las nuevas situaciones mostrará de un modo sumamente claro la medida, el modo y el costo con que se están - o no - alcanzando los objetivos propuestos. Esto permite, por añadidura, establecer también con bastante claridad las causas y las consecuencias del éxito - o del fracaso - de la acción, lo que permite calibrar más finamente el proceso de toma de decisiones retroalimentando la experiencia obtenida hacia las instancias que se ocupan de la planificación estratégica.

Naturalmente, no se puede pedir de una técnica de este tipo que establezca lo “correcto” desde el punto de vista de una categoría moral. A menos que se asocie lo moral con lo exitoso - cosa que algunas concepciones religiosas no dejan de hacer - todo lo que se puede pedir de esta clase de métodos es que nos vayan informando de lo “correcto” - o “incorrecto” - de una decisión, desde el punto de vista de su viabilidad o posibilidad concreta en términos de realización práctica. Lo que, decididamente, no es poco. Sobre todo si tenemos presente la cantidad considerable de ficciones ideológicas y meras expresiones de deseos que todavía impulsan múltiples actividades y decisiones en nuestra civilización.

La existencia de este tipo de técnicas es sumamente interesante porque, quizás por primera vez en toda nuestra existencia como especie, no tenemos forzosamente que esperar a que una equivocación se convierta en error para darnos cuenta de que hemos elegido un mal camino. Todos los modernos métodos de previsión siguen sin permitirnos “adivinar” el futuro y seguimos sin poder predecir exactamente los acontecimientos. Pero podemos ya, al menos en alguna medida, “administrar” o “manejar” nuestros riesgos vigilando y previendo las consecuencias de nuestros actos; verificando constantemente si nos conducen - o no - al objetivo que deseamos. El sólo hecho de tener esta posibilidad nos abre perspectivas cuyos alcances estamos lejos de vislumbrar siquiera porque aún debemos acostumbrarnos a toda una nueva estrategia de programar, diseñar y proyectar la acción mediante decisiones permanentemente verificadas.

2.5     La matemática de la realidad

Que “los números gobiernan al mundo” es una verdad popular que no por ampliamente extendida ha contribuido en modo significativo a fomentar el amor por las matemáticas. Sin embargo, por desgracia, sin un mínimo de conocimientos matemáticos no es posible comprender el alcance de ciertas herramientas que nos permiten analizar y comprender una realidad que muchas veces no es tan “evidente” como parecería o nos gustaría que fuese.

Tanto el Risk Management como la enorme mayoría de las modernas técnicas de análisis y modelaje hacen un uso intensivo de conceptos estadísticos y métodos matemáticos. El cálculo de probabilidades, brevemente reseñado antes, es sólo uno entre muchos otros. Vale la pena detenerse, aunque más no sea brevemente y sin entrar en detalles muy técnicos, en ciertos conceptos que reaparecerán más adelante en nuestra exposición. Para quienes padezcan de la muy extendida aversión a los formuleos matemáticos, vaya nuestra promesa de darle a esta parte el tratamiento más breve, ameno y práctico que sea humanamente posible.

2.5.1     Distribuciones

Imaginemos que alguien nos da una canasta llena de naranjas encomendándonos el trabajo de hacer un análisis sobre sus características más sobresalientes. Supongamos, por ejemplo, que se trata de evaluar la medida en que un nuevo fertilizante actúa sobre el crecimiento de ciertas frutas, algo que interesa sobremanera a los productores frutícolas del país.

Pues bien, sigamos imaginando que, luego de recibirla, volcamos el contenido de la canasta en el piso y, por un momento, nos ponemos a “jugar” con las naranjas. Tomamos una, la miramos, la dejamos; tomamos otra, la observamos desde todos los ángulos, estimamos su peso, su tamaño, nos detenemos en su color, en su aroma. De pronto, uno de nuestros colaboradores levanta una naranja y dice: “¡Fíjense en ésta!. ¡Es mucho más grande que la mayoría!”. ¿Qué ha hecho nuestro colaborador?. Pues, aunque parezca muy complicado expresarlo de este modo, ha expresado intuitivamente la desviación standard (o desviación típica) de una distribución de frecuencia.

Digámoslo con palabras menos rebuscadas: una desviación standard es una forma de expresar con precisión matemática exactamente cuanto significa eso de “mucho más”. Para poder llegar a ello, lo primero que tendremos que hacer es ordenar de algún modo el contenido de la canasta (o, como diríamos en términos estadísticos: nuestra “población” de naranjas) siguiendo determinado criterio; digamos que por su diámetro en milímetros.


Intentémoslo de la forma más simple: sin medirlas con ningún instrumento de precisión, sólo eligiéndolas a simple vista, pongamos todas las naranjas en fila, de menor a mayor, con las de diámetro más pequeño a la izquierda y las de mayor diámetro a la derecha. Obtendríamos algo como esto:

 

 

 

¿Qué podemos decir con mirar esta hilera?. Pues, por de pronto, que hay relativamente pocas naranjas muy pequeñas y que también son pocas las naranjas muy grandes. La mayoría de la población se agrupa alrededor de un diámetro medio que parecería ser casi idéntico a simple vista.

 

Esta conclusión ya de por si es bastante importante, pero todavía podemos mejorar nuestra idea del tamaño de las naranjas si las disponemos de otra forma. Hagamos algo: tomemos un calibre y midamos cuidadosamente el diámetro de cada una de las naranjas. Hallaremos que la naranja más chica tiene un diámetro de, digamos, 40 milímetros y la más grande uno de, pongamos por caso, 100 mm. Nuestro rango de diámetros es, pues, de 100 - 40 = 60 mm. Dividamos ese rango en varias categorías. En principio, podemos elegir cualquier cantidad de categorías pero, a los efectos de nuestro ejemplo, diremos que tomaremos seis (es muy usual trabajar con seis o siete en la práctica) y de la siguiente forma:

 

 

N° Categoría

Diámetros

Cat.egoría I:

Diámetros de 40 mm hasta 50 mm.

Categoría II:

Más de 50 hasta 60 mm.

Categoría  III:

Más de 60 hasta 70 mm.

Categoría IV: 

Más de 70 hasta 80 mm.

Categoría V: 

Más de 80 hasta 90 mm y, finalmente,

Categoría VI: 

Más de 90 hasta 100 mm.

 

 

Tomemos una tiza y dibujemos nuestras categorías en el piso de la siguiente forma:

 


 

Ahora tomemos nuestras naranjas y coloquémoslas sobre las líneas que hemos trazado, según la categoría a la que, de acuerdo a su diámetro, pertenecen. Obtendremos algo así como esto:

 


 

 

Desde un punto de vista estrictamente matemático, nuestro ejercicio no es muy ortodoxo que digamos pero, tratándose de un simple ejemplo ilustrativo, podemos decir que lo que acabamos de hacer es construir una distribución de frecuencia.  La línea gruesa que hemos dibujado uniendo la parte superior de nuestras categorías es aproximadamente representativa de lo que obtendremos con gráficos numéricos construidos de una forma ya más elaborada.

¿Por qué “distribución de frecuencia”?. Pues porque dentro de cada categoría hemos establecido la frecuencia con que aparecen los individuos que corresponden a esa categoría. Así, hemos encontrado que en la categoría de diámetros de entre 40 a 50 mm tenemos dos naranjas. En la categoría de más de 50 hasta 60 mm pudimos ubicar a tres y así sucesivamente. Si observamos la línea gruesa que hemos dibujado uniendo los puntos extremos de las frecuencias observaremos que tiende a subir en el medio de nuestro gráfico y tiende a bajar tanto hacia la izquierda como hacia la derecha. ¿Qué significa esto?. Nada extraordinario. En realidad, lo mismo que ya habíamos visto antes: que hay pocas naranjas muy chicas, pocas muy grandes y que las medianas son las más numerosas. Lo que sucede es que ahora lo podemos demostrar con certeza matemática.

¿Tanta explicación para algo tan simple?. Pues sí. Lo que sucede es que con lo visto podemos ahora comprender una distribución que se da en muchísimos fenómenos reales y que, de tan común y corriente que es, ha sido bautizada como distribución normal por los matemáticos. Una distribución normal perfecta nos daría una “línea gruesa” como ésta:


 

 

Naturalmente, lo primero que tenemos que decir es que una distribución normal tan perfecta es sólo una abstracción matemática que no se da nunca con fenómenos reales. Pero muchísimas cosas, una vez clasificadas por categorías, presentan distribuciones que se aproximan sorprendentemente a la normal. Que es justamente el motivo por el cual se la llama “normal”. Lo extraordinariamente grande y lo extraordinariamente pequeño es casi siempre minoría en todos los casos de la vida real. La Naturaleza tiene una extraña predilección por las medias promedio estadísticas. Quizás para tener el pretexto de deslumbrarnos luego con las - escasas - excepciones.

2.5.2     Desviación standard

Pero ¿qué tan excepcional es una excepción?. Recordemos a nuestro colaborador asombrado por lo “mucho más grande” que le parecía la naranja que encontró. ¿Qué tanto “más grande” era en realidad esa naranja?.

Dejemos las naranjas. Supongamos ahora que tenemos dos manzanas: una que pesa 300 gramos y otra que pesa 260 gramos. El promedio es de (300 + 260) ¸ 2 = 280 gramos. Tendremos una manzana con 20 gr. por sobre el promedio y otra manzana con 20 gr. por debajo del promedio. Digamos que agregamos dos manzanas más: una de 340 gr. y otra de 220 gr. El promedio de las cuatro manzanas  no nos cambia ya que (300 + 260 + 340 + 220) ¸ 4 = 280 gr. pero las nuevas manzanas están, la una 60 gr. por sobre el promedio y la otra 60 gr. por debajo. O sea, mucho más lejos del promedio que las dos anteriores.

Básicamente, la desviación standard no es nada más que una medida de estas desviaciones respecto de la media. Con las primeras manzanas teníamos una desviación de 20 gr. para cada una; con las últimas dos una de 60 gr. Un promedio de estas desviaciones sería, pues: (20 + 20 + 60 + 60) ¸ 4 = 40 gr. Desgraciadamente, este promedio simple no es todavía una desviación standard pero, para entender el concepto en términos prácticos, la podemos imaginar como un promedio de las diferencias respecto de la media. (En realidad, para obtener una verdadera desviación standard, habríamos tenido que sumar los cuadrados de las desviaciones, dividido por el total de manzanas y extraído la raíz cuadrada de ese cociente. Eso nos hubiera dado 44.72 gr. y no los 40 gr. de la media simple).

En distribuciones normales la desviación standard tiene unos cuantos usos muy útiles. Por ejemplo, nos permitiría comparar naranjas con manzanas, algo que a primera vista parecería ridículo. Supongamos que hacemos el mismo cálculo con el peso de nuestras naranjas y hallamos que su peso medio es de 170 gr. con una desviación standard (DS) de 25.80 gr. Recordemos que para las manzanas teníamos una media de 280 gr. con una DS de 44.72 gr.

Ahora bien, hagamos de cuenta que vamos al supermercado y encontramos una naranja de 230 gr. y, en la góndola del al lado, una manzana de 300 gr. En ambos casos ya a simple vista podríamos decir que se trata de frutas “grandes” porque nuestras dos muestras se hallan bastante por encima del promedio. Pero, ¿qué tan excepcional es cada una de estas frutas en su tipo y cual de ellas es más excepcional en absoluto?. Pues bien, por los cálculos que hemos hecho podemos decir que nuestra naranja está 2.32 DS por sobre la media de su especie mientras que la manzana está sólo 0.44 DS por sobre la media de las manzanas. Nuestra naranja de 230 gr. es, pues, mucho más excepcional que nuestra manzana de 300 gr.

Si relacionamos la desviación standard con la distribución normal veremos que ambas medidas son maravillosas herramientas para entender muchos fenómenos. En nuestra ilustración, la curva de distribución (o “curva de Gauss”), está segmentada por líneas horizontales que representan, cada una, 1 DS de la media. Si tomamos los casos de un fenómeno normal que caen dentro de 1 DS por encima y por debajo de la media, habremos aislado nada menos que el 68.27% de todos los casos existentes. Tomando 2 DS abarcaríamos el 95.45% de los casos. Nuestra naranja de 230 gr. es tan excepcional que es ¡más grande que el 95.45% de las naranjas existentes!.

Inteligencia, talento, mortandad, estatura, peso, jornales, horas trabajadas, robos y asaltos, incendios, producción agrícola, piezas defectuosas de una fábrica; son casi ilimitadas las cosas que - de algún modo u otro - podemos representar por medio de una distribución de frecuencia. Con los métodos estadísticos adecuados, son muchas las cosas que podemos comprender y prever en la realidad.  

2.5.3     Correlaciones

Sobre todo si complicamos las cosas un poco ( la realidad siempre se encarga de complicarlas mucho más) y hacemos intervenir varios factores en el análisis. Por ejemplo, si nos preguntamos qué relación hay entre el peso y el diámetro de nuestras naranjas.

Ya el sentido común nos dice que, casi con seguridad, esa relación es positiva; vale decir: a mayor diámetro mayor peso. Pero ¿Que tan positiva es la relación?. No entraremos ahora en el desarrollo matemático del procedimiento pero lo que justamente nos dice una correlación es el grado de concordancia que hay entre un fenómeno y otro.

El cálculo de correlaciones, al igual que el de las probabilidades, también nos arroja una cifra entre 1 y 0. Con una correlación de +1 tenemos una correspondencia absoluta, o “lineal”, entre los fenómenos analizados. Si la correlación entre el peso y el diámetro de nuestras naranjas fuese de 1 sabríamos que a cada aumento de diámetro corresponderá un aumento de peso y viceversa. En un caso así podríamos medir diámetros para calcular pesos, algo que podría parecerle una locura al lego.

A medida en que nos alejamos de 1 y nos vamos aproximando a 0 la correlación se debilita y disminuyen nuestras capacidades de predicción. Con una correlación igual a 0 no hay ninguna relación entre los fenómenos analizados, indicándonos el análisis que se trata de eventos independientes entre si. Finalmente, la correlación también puede estar expresada con magnitudes negativas entre -1 y 0, con el mismo significado que el ya expresado pero en sentido inverso: p.ej. este sería el caso si a mayor diámetro correspondiese menor peso para nuestras naranjas o manzanas.

Hay dos cosas, sin embargo, que es necesario decir respecto de las correlaciones. La primera es que, si bien es cierto que nos permiten prever la aparición de un fenómeno si detectamos la existencia de otro correlacionado, también es cierto que, en los casos reales de fenómenos socioeconómicos o similares, raramente hallaremos una correlación mucho mayor que 0.5. Para varios fenómenos que caen dentro de las llamadas ciencias sociales, una correlación de 0.2 o 0.3 ya es muy importante. Y esto es por lo segundo que es preciso señalar: ya una pequeña correlación puede producir efectos acumulados harto significativos a lo largo del tiempo. Por ejemplo, toda la teoría de la evolución de las especies se basa precisamente sobre este hecho.

2.5.4     Regresiones

Con una correlación sabríamos qué tan fuertemente se relacionan las variables consideradas (en nuestro caso: peso y diámetro). Pero una correlación todavía no nos dice lo suficiente. Si quisiéramos hacer previsiones, la correlación sola no nos alcanzaría. Para saber, por ejemplo, cuanto aumento de peso podemos esperar con un aumento de 10 mm en el diámetro, lo que deberíamos hallar es el llamado “coeficiente de regresión” en cuyo desarrollo matemático detallado tampoco entraremos aquí (tanto como para cumplir la promesa inicial de no fastidiar al lector con fórmulas). Baste con indicar que una regresión es un concepto íntimamente ligado al de correlación que nos permite estimar la medida o proporción en que un fenómeno “acompaña” a otro correlacionado. El coeficiente de regresión de nuestro ejemplo de las naranjas nos permitiría calcular cuanta diferencia en diámetro está asociada con una determinada variación de peso y, viceversa, cuanta diferencia en peso está asociada con una dada variación de diámetro.

2.5.5     Tendencias

Por supuesto que, para dar una idea de cómo funcionan nuestras herramientas de previsión aquí hemos simplificado mucho y hemos recurrido a ejemplos muy elementales. En la práctica, los administradores de riesgos serían algo así como las personas más felices del mundo si tuviesen que trabajar siempre con solamente dos variables (el peso y el diámetro de nuestros ejemplos). Lo más frecuente es que los problemas no sean tan simples y nos veamos ante múltiples variables concurriendo a determinar un fenómeno.

Matemáticamente sin embargo, los cálculos de regresiones múltiples son perfectamente posibles y es totalmente factible realizar análisis sobre, por ejemplo, el modo y la magnitud en que se relacionan la edad, el sexo, los años de escolaridad, el ingreso anual y el producto bruto interno. Incluso procesos aparentemente tan aleatorios como las cotizaciones en bolsa, las fluctuaciones de precios en diversos mercados o los cambiantes gustos del público consumidor, resultan accesibles al análisis estadístico con grados de precisión que, a veces, no dejan de ser sorprendentes. Las populares encuestas, que se realizan últimamente casi a propósito de cualquier tema, cuando están bien hechas, utilizan mucho los procedimientos que hemos estado viendo.

Con todo lo expuesto es posible formarse una idea (más que una simple idea es imposible de lograr sin entrar en el árido terreno de los formuleos) de cómo se obtienen por análisis matemático las tendencias que nos permiten construir escenarios y prever acontecimientos. Por un lado, el concepto de “tendencia” es específico y también resulta matemáticamente expresable. Por el otro, las probabilidades de ocurrencia de un evento, su correlación con diversos fenómenos, la magnitud en que resulta previsible que se alteren sus variables en función de otras variables correlacionadas, la experiencia histórica obtenida de situaciones similares en condiciones equiparables, etc.etc. son todos elementos que nos permiten construir modelos de futuro.

El grado de certeza de estos modelos será siempre discutible y a veces hasta poco confiable. Pero, algún grado de certeza siempre será mejor que navegar a ciegas. Además, en muchas ocasiones, nuestras herramientas son bastante más confiables de lo que se supone. Si no lo fueran, las grandes empresas que dominan los mercados mundiales no estarían ganando el dinero que ganan. Es más: posiblemente ni siquiera habrían conseguido sobrevivir.


3.     La conducción del cambio

Si bien tenemos métodos y recursos matemáticos bastante sólidos para construir previsiones al menos aceptables; el concepto de cambio, ese substituto contemporáneo del otrora tan idolatrado “Pro­gre­so”, sigue siendo una especie de nebulosa  estratégica definida en la gran mayoría de los casos sólo mediante tautologías. Lo único que muchas teorías del cambio saben decirnos acerca del futuro es que el mañana será diferente al hoy porque el hoy es distinto del ayer.

El problema no sólo es que esto no es intelectualmente serio. El verdadero problema es que ni siquiera resulta práctico. Con decir que el Siglo XXI será completamente distinto al Siglo XX, y que brindará la posibilidad de gozar de sólo Dios sabe cuantas maravillosas innovaciones, todavía no hemos dicho absolutamente nada de utilidad práctica acerca de los próximos cien años.

El gran “descubrimiento” del cambio indica, sin embargo, que hemos variado nuestro enfoque cultural. Los egipcios construían sus pirámides para que duraran una eternidad. Los constructores de catedrales tardaban a veces siglos en terminar su Obra y la concebían para que durase hasta el Día del Juicio Final. Todavía en el siglo pasado y bien entrado el presente fabricábamos bienes de uso para que “duraran toda la vida”. Hoy hemos abandonado esa concepción estratégica en cuanto al fruto de nuestro trabajo suplantando la durabilidad y permanencia por la novedad y la innovación. En el fondo, los padres del Progreso, por más revolucionarios que quisieran ser, se imaginaron una evolución lenta y sostenida. No previeron lo que sucedería cuando el ansiado Progreso se acelerara alcanzando velocidades imposibles de imaginar en los albores de la Revolución Industrial.

3.1     Distintas formas de trabajar

Los constructores de las pirámides, los artesanos del Medioevo, los artífices de las catedrales y los industriales de hasta antes de la Segunda Guerra Mundial producían cosas perdurables. Comparándolos con nuestra cultura de lo descartable, con nuestra aceptación del concepto del “úselo-y-tírelo”, es evidente que tenían una visión estratégica distinta de la actual. Pero también trabajaban de otra forma.

Un Maestro carpintero medieval, cuando recibía el encargo de hacer una mesa o una silla, empezaba seleccionando la madera y terminaba puliendo y lustrando el mueble. Lo hacía todo él mismo, desde el principio hasta el fin, dejando a lo sumo ciertas operaciones secundarias a algún ayudante o aprendiz pero manteniendo siempre un control absoluto sobre la totalidad del proceso. Cuando, como en el caso de las grandes catedrales, la vida de una persona no alcanzaba para abarcar la totalidad de la obra, se encargaban de garantizar la continuidad instituciones tales como la Cofradía, el Gremio, la Corporación o la Orden. Este tipo de organización, con mayor o menor éxito, consiguió suplir al Maestro unipersonal pero, en todo caso y esto es lo importante, el enfoque cultural dominante era la identificación entre Obra y Artífice, construcción y constructor, el objeto y el artesano, aún cuando este artesano fuese un cuerpo corporativo. A veces, hasta de índole mágica o mística como lo fueron, por ejemplo, los sacerdotes egipcios y los bastante misteriosos Maestros Constructores de las catedrales góticas.

Toda esta concepción cambió con la Revolución Industrial que no sólo implicó la utilización de nuevas fuentes de energía como el vapor y el empleo de máquinas tales como los famosos telares de Manchester sino que cambió radicalmente la forma de trabajar y, muy especialmente, la relación de Poder entre los actores de la ecuación económico-social.

Dentro del marco de la Sociedad Tradicional, el Poder se hallaba decididamente en mano de los consumidores. Las cortes, el Vaticano, la nobleza en general, utilizaba a artesanos, artistas y constructores como a simples sirvientes calificados. En una corte era completamente natural que músicos, a quienes hoy consideramos verdaderos genios en su arte, comiesen en la cocina junto con el resto de la servidumbre y hasta resultasen empleados como pajes o mucamos durante gran parte del tiempo. Para los artesanos, comerciantes, prestamistas y productores, el sólo hecho de ser proveedor de la Casa Real constituía un privilegio que muchas veces se adquiría soportando que el Rey pagase sus cuentas cuando se le daba la (real) gana. Y la situación, por cierto, no fue mejor para los proveedores de la nobleza o el clero en general; incluso en rubros tan críticos como la provisión de armamentos o la financiación de grandes proyectos. En términos actuales diríamos que el cliente tenía el Poder, el cliente mandaba, el cliente pagaba y el cliente establecía las condiciones.

Para fines del Siglo XVIII la situación comenzó a cambiar. En 1776, Adam Smith, quien supiera ser profesor de filosofía moral el Glasgow, publicó su “Investigación de la naturaleza y causa de la riqueza de las naciones”, un libro que desde entonces se ha convertido en un verdadero clásico. En esa obra aparecen unas cuantas ideas que más tarde contribuirían a dar forma al mundo industrial y a la primera fase de la sociedad de consumo.

Para Smith, el producto anual de cada nación está determinado por lo que se obtiene como producto directo del trabajo y lo que, con ese producto directo, se puede llegar a obtener de las demás naciones. El abastecimiento depende de la proporción que exista entre este producto total y la cantidad de consumidores, siendo que dicha proporción viene regulada por dos variables: (1) la eficiencia con que se trabaja y (2) la relación existente entre el número de personas productivas y las no productivas. Según Smith, si la situación de las sociedades primitivas en las cuales el trabajo pertenecía íntegramente al trabajador se hubiera mantenido, el salario - que es la remuneración por el trabajo - hubiera ido creciendo a medida en que aumentaba la eficiencia productiva. En otras palabras: si el trabajador hubiese continuado recibiendo el producto íntegro de su trabajo, los bienes y servicios se hubieran ido abaratando porque la correlación entre eficiencia y cantidad de trabajo es negativa: a mayor eficiencia, el mismo producto se logra con menos trabajo. Que ello no resultó así se debe, siempre según este autor, a por lo menos dos factores: [A] la propiedad privada de los medios de producción (tierra, máquinas, instalaciones, etc.) y [B] la acumulación del capital. El trabajo no es, pues, ya la única medida del valor de los productos porque en su formación interviene, además, la ganancia del propietario de los medios de producción.

En la distribución de los productos, Adam Smith advertía una contraposición de intereses importante. Mientras que para los dueños de los medios de producción el objetivo es el de lograr el máximo de eficiencia con el mínimo de competencia ya que la ausencia de competencia permite maximizar los precios y, con ello, las ganancias; para los consumidores lo conveniente sería maximizar la competencia ya que ello obliga al empresario a sacrificar ganancias y, con ello, a bajar el nivel de precios. El problema es que, mientras el trabajador consume de un modo prácticamente íntegro el salario que percibe por su trabajo, el capital acumula ganancias, crece, se expande y se concentra en un número cada vez más reducido de manos. Con ello se desvirtúa una de las variables de la ecuación (la competencia) y la relación de Poder entre los dueños de los medios de producción y los consumidores pasa a quedar muy fuertemente inclinada hacia el lado de los empresarios. Smith concluía señalando que, en el sistema mercantil, la producción y no el consumo es lo que termina siendo el fin y el objeto de la industria y el comercio. Ya no es el cliente el que manda, determina y dispone. Y efectivamente, desde fines del Siglo XVIII la situación comenzó a invertirse progresivamente: el cliente, a lo sumo, pudo elegir entre lo que le ofrecían las grandes fábricas y, en no pocos casos, simplemente debió conformarse con lo que encontraba en el mercado.

Eso en cuanto a la relación de Poder. En cuanto a la forma de trabajar Adam Smith remarcó de un modo especial la gran tendencia hacia la eficientización del trabajo que comenzaba ya en aquella época. La gran innovación de los empresarios que surgieron con la Revolución Industrial fue la división del trabajo en operaciones especializadas y sencillas. La ventaja de esta técnica era, en primer lugar, un mejor aprovechamiento de la destreza del operario; en segundo lugar, un ahorro del tiempo que normalmente se pierde cuando se pasa de un tipo de trabajo al otro; y, en tercer lugar, la posibilidad de incorporar máquinas que se encargaran de operaciones parciales muy sencillas pero que aceleraban y uniformizaban el proceso. Ya no era un maestro artesano haciendo el trabajo desde el principio hasta el final. Ahora, la nueva forma de trabajar impulsaba un esquema diametralmente opuesto: varios operarios especializados, cada uno haciendo solamente una parte del proceso, con máquinas que tendían a garantizar un ritmo y una calidad uniformes.

3.2     La explosión capitalista

Este fue el modelo que suplantó progresivamente a la Sociedad Tradicional europea. En el proceso, quedaron por el camino no solamente los métodos de producción agrarios y artesanales del Medioevo sino también las estructuras sociopolíticas que los habían sostenido. La Revolución Francesa, ocurrida apenas 13 años después de la publicación de La riqueza de las Naciones, asestó un golpe mortal a la monarquía. Poco más de un siglo después sólo quedaban algunas monarquías decorativas en Europa y el mundo entero producía bienes y servicios según el esquema que acabamos de ver.

El lugar del planeta en dónde más se desarrolló el nuevo modelo fue en los Estados Unidos de América. Quizás porque, de un modo similar al del Japón de postguerra, pudo construirse sobre un terreno virgen, sin el lastre de antiguas instituciones y estructuras que actuaran de freno. Quizás porque, con el tamizado que implica todo proceso de emigración, fueron a parar al Nuevo Mundo personas que, de alguna forma, se hallaban favorablemente predispuestas a intentar llevar el modelo hasta sus últimas consecuencias. Quizás porque el nuevo Poder representado por el dinero acumulado y concentrado halló en el norte de América un vacío que pudo ocupar con relativa facilidad. Sea como fuere, lo cierto es que a partir de alrededor de 1820, cuando los norteamericanos comienzan a construir ferrocarriles, la actividad industrial y comercial norteamericana entra en un progresivo crescendo siguiendo los lineamientos expuestos por Adam Smith: división del trabajo, concentración del capital, competencia, eficiencia, espíritu de empresa y una producción más orientada hacia el volumen y las ganancias que hacia la calidad y la diversificación de los productos.

Aproximadamente un siglo más tarde, es precisamente de Norteamérica que surge el próximo impulso que habría de cambiar nuevamente tanto nuestra forma de trabajar como la relación de Poder aunque esto último afectaría ahora no a los actores de la producción dentro de una nación sino más bien a las relaciones de Poder de las naciones entre si. El hombre que produjo el impulso se llamó Henry Ford y su innovación fue la producción en serie o, más específicamente, la “línea” de producción.

El principio de la división del trabajo enunciada por Smith implicaba subdividir un proceso en una serie de operaciones tan sencillas que prácticamente cualquiera pudiese aprenderlas y, por lo tanto, ser eficiente en su desempeño laboral. En este esquema, sin embargo, el operario seguía manteniendo cierta iniciativa y cierta independencia personal. En una fábrica cualquiera, al final del día, el operario A podía llegar a armar 10 cabezales de máquina de coser menos que el operario B y no había muchas maneras de inducirlo a ser más rápido. Además, en muchas partes, el operario encargado de cualquier operación, por más sencilla que fuese, seguía siendo el encargado de organizarse, disponer su tarea, buscar las materias primas o las piezas semiterminadas y entregar su parte de la producción. Los supervisores y capataces, por más atentamente que vigilaran, no llegaban a controlarlo todo y tanto los tiempos como los costos de producción podían de esta forma ser sumamente diferentes de una fábrica a la otra y hasta de una sección a la otra. En muchos establecimientos de países poco o mal industrializados esta es la situación hasta hoy día.

La idea básica de Ford consistió en cambiar toda la “filosofía” de un puesto de trabajo. En lugar de llevar al operario hacia la operación inventó una forma de llevar la operación hacia el operario. Una línea de producción literalmente “empuja” al operario a realizar en el tiempo previsto las operaciones encomendadas que, por regla, son ahora aún más simples que las ideadas en el esquema smithsoniano. Quienquiera que haya visto alguna vez alguna de estas líneas a plena marcha no ha podido escapar a la impresión de ver a un montón de pequeñas hormigas dándole de comer a un monstruo insaciable.

La eficiencia que se podía exigir de un trabajo manual humano quedó así maximizada y el Poder que ello le otorgó a los Estados Unidos frente a las demás naciones quedó puesto en evidencia cuando el método resultó aplicado a la carrera armamentista y, más tarde, cuando los productos norteamericanos comenzaron a competir en el mercado internacional. Durante muchos años a los norteamericanos no hubo forma de batirlos: producían más, a menor costo y más rápido que la mayoría de los competidores. Los alemanes perdieron dos guerras mundiales hasta que terminaron de entenderlo. Los rusos quisieron intentarlo de otra forma y terminaron chocando contra el muro de Berlin. Los japoneses lo entendieron mucho más rápido. Veloces e inteligentes como son, aprovecharon la tabla rasa dejada en su país por la Segunda Guerra Mundial para disponer su nuevo sistema productivo en un todo de acuerdo con este modelo y hasta consiguieron mejorarlo al cabo de algunas décadas explotando las posibilidades de la automatización y la robotización. El resto del mundo terminó simplemente copiando lo mejor que pudo y aceptando, por las buenas o por las malas, el liderazgo americano.

3.3     Eficiencia productiva y administrativa

Algún día quizás será considerado como una de las tantas ironías de la historia el hecho de que los norteamericanos llegasen a la cumbre de su gloria y poderío tan sólo para darse cuenta al día siguiente de que su base de Poder comenzaba a resquebrajarse. Cuando cayó el muro de Berlin todo fue festejos en el campamento capitalista y miles de intelectuales oficiosos vaticinaron el desarrollo de la sociedad de consumo hasta límites insospechados. Unos pocos años más tarde, ya fueron varios los que se dieron cuenta de que el muro había caído hacia ambos lados y que el progreso lineal de las tendencias de la producción masiva y la sociedad de consumo de los años ‘60 o ‘70 ya no podría mantenerse en una economía expandida a nivel planetario.

¿Qué había sucedido?. Nada extraordinario en realidad. Simplemente resultó ser que el sistema norteamericano demostró, en el largo plazo, no ser tan eficiente como se lo había supuesto durante décadas. Frente a las pujantes economías emergentes de Japón y el Asia llegó un momento que, por comparación, hasta resultaba pesado, burocrático e ineficaz.

La razón de ello residió, no tanto en los métodos de producción sino en todo el aparato administrativo que el esquema smith­soniano exigía para encuadrar, dirigir y manejar la actividad. Los hombres de la Revolución Industrial habían conseguido revolucionar la forma de producir los bienes pero, en lo que al management se refiere, la burguesía industrial y capitalista de los siglos XVIII y XIX se había limitado a copiar - casi diríamos que a calcar - el sistema burocrático monárquico. Quizás porque era un sistema de probada eficacia que había permitido a los monarcas construir Imperios y gobernar los destinos de la humanidad por más de seis mil años. Quizás porque le permitía al propietario o administrador de una gran empresa ocupar una posición de Poder similar a la de un rey plebeyo, algo que siempre halagó el ego de cierta burguesía cuyo mayor móvil contra la nobleza había sido simplemente la envidia. La Revolución Industrial fue una revolución de ingenieros. En materia de dirección, estrategia y administración de las empresas, la burguesía comerciante e industrial de la época se limitó a implementar en el ámbito privado la estructura matricial y piramidal de la administración pública. Con ello, para parafrasear a Clausewitz,  el capitalismo incipiente no fue sino una continuación de la monarquía por otros medios. Precisamente por eso, el empuje realmente revolucionario de 1789 halló su válvula de escape en el socialismo y el anarquismo, con las masas proletarias acusando a la burguesía de haber traicionado a la revolución.

La implantación de la estructura burocrática del Estado monárquico en el ámbito privado terminó significando que, para cien trabajadores activos, la empresa norteamericana típica de los años ‘70 tenía por lo menos diez supervisores, un jefe de planta, un gerente general, un gerente comercial, un gerente administrativo, 15 empleados administrativos, un jefe de personal, 4 personas en el área de recursos humanos, 20 vendedores, 5 personas en compras, otras 5 en expedición y control, 10 personas en diseño y desarrollo y por lo menos ocho más en auditoría y control. Al final, para lograr que unas 100 personas trabajaran, se necesitaban entre 80 y 90 personas más que consiguiesen hacerlas trabajar.

3.4     Clientes, Competencia y Cambio

Hacia principios de los años ‘80 la actividad general de los países industrializados comenzó a salirse de los carriles convencionales por los que había transitado prácticamente desde fines del Siglo XVIII. Cuando Michael Hammer y James Champy, los creadores de la “reingeniería” de las corporaciones norteamericanas, analizaron el fenómeno, concluyeron que las empresas se hallaban bajo la influencia de tres poderosas fuerzas que llamaron “las tres C”: Clientes, Competencia y Cambio.

Por un lado, la balanza del Poder ha vuelto a inclinarse hacia los clientes. El consumidor promedio de la sociedad industrializada de hoy tiene muchas más opciones que las que brindaba la sociedad de consumo masivo de los años ‘60/‘70. Además, en los países industrializados, el consumidor se ha convertido, para muchos artículos, en un “repositor”: ya tiene un automóvil; ya tiene una heladera, un televisor o un lavaplatos. Eso significa que no tiene ya la ansiedad por “llegar” a dichos artículos de confort y, por lo tanto, se toma su tiempo para elegir, comparar precios y decidir cuando, qué y a quién comprar. Hace 15 o 20 años atrás el problema de las grandes empresas era la cantidad: la demanda superaba, por lo general, la capacidad de producción y los clientes estaban dispuestos a tolerar ciertas fallas de calidad y de atención con tal de obtener el artículo. Hoy el problema para las empresas es la calidad: retener al cliente que ya no se conforma con cualquier artículo porque tiene docenas de variantes para elegir y tampoco admite una atención deficiente porque siempre habrá alguien que lo atienda mejor.

Esto es así porque las reglas de competencia han cambiado. Ya no es tan fácil para los grandes monstruos lograr el monopolio. La tecnología disponible ha permitido a muchos pequeños productores explotar lo que se conoce como los “nichos” del mercado. Necesidades muy puntuales o aspiraciones muy exquisitas están siendo cubiertas por empresas pequeñas y medianas, altamente tecnificadas, que no sólo no respetan mayormente las reglas de juego establecidas por las grandes corporaciones sino que hasta llegan a imponer reglas de juego diferentes obligando a las corporaciones a adaptarse. Una empresa como Microsoft, surgida casi a partir de la nada, ha podido obligar a un gigante como IBM a revisar todos sus conceptos. Por otra parte, se acabaron también los cotos de caza domésticos. Ford y General Motors ya no son las empresas automotrices por antonomasia. Tienen que competir, incluso dentro de Estados Unidos, con Honda, Mercedes Benz y Volvo. Japoneses, alemanes, franceses, taiwaneses, coreanos y suecos han declarado que el mundo entero es ahora su coto de caza. En un mercado globalizado, la riqueza de las naciones depende cada vez más de las diferencias cualitativas que la industria de un país pueda ofrecer al cliente de otro país. La estructura política de los Estados ha acusado este golpe y si antes la burguesía copió la estructura estatal para el management de las empresas, ahora se le está exigiendo al Estado un proceso de rápida “privatización” para posibilitar la adecuación de las estructuras públicas a las nuevas condiciones.

Todo esto ha llevado al mundo entero a un estado de transformación permanente. El cambio ya no es una medida excepcional, sujeta a un profundo estudio y a una larga y cuidadosa preparación. Los que quieren sobrevivir tienen que cambiar porque las condiciones cambian, las reglas de juego cambian, el comportamiento de los clientes cambia, la tecnología cambia, el mundo entero cambia. Casi todos los días aparece alguien con un nuevo producto, o con una nueva forma de vender un producto, o con una forma novedosa de atender a los que compran, consumen o usan un producto. De nuevo el cliente manda, el cliente paga y el cliente establece las condiciones. El trabajo es otra vez especializado. Las nuevas tecnologías ya no permite subdividir los procesos en operaciones tan simples que hasta un lelo pueda ejecutarlas y cada vez se habla más de operarios “polifuncionales” o “multi­fun­cionales”. En cierto sentido hemos recorrido un gran círculo y estamos otra vez en el Medioevo, sólo que esta vez el artesano es el técnico especializado que supervisa una línea robotizada o una operación computadorizada, y el Príncipe es el cliente que decide qué, a quién, cuando y por cuanto compra. Los grandes empresarios han debido bajarse de sus tronos o, por lo menos, están invirtiendo mucho dinero y esfuerzo en tratar de acomodar sus obsoletas estructuras administrativas y sus rápidamente obsolescentes estructuras productivas a las nuevas condiciones asegurándose de que el management y los departamentos de investigación y desarrollo dispongan de radares lo suficientemente sensibles como para detectar los cambios que se vienen.

En otras palabras: la realidad ha obligado a las empresas a preocuparse por el futuro.

3.5     Visión de futuro

La gran pregunta es: ¿Podía Adam Smith en 1776 prever todo esto?. En los albores de la Revolución Industrial ¿se hubiera podido abarcar todo el proceso que ha desembocado, 219 años más tarde, en la realidad brevemente descripta hasta aquí?. Por asombroso que parezca la respuesta teórica es sí.

Si se repasa un poco el pensamiento de Adam Smith se verá inmediatamente que todos - o casi todos - los factores determinantes están presentes: especialización funcional, relaciones internacionales, concentración del capital, papel del consumo, competencia, tecnología, eficiencia, mercados. Realmente infunde respeto la facultad intelectual de Smith si se valora como es debido su capacidad y su profundidad de análisis. Casi con sólo pensar cada una de sus ideas hasta el final pro­bablemente hubiera llegado a escenarios muy similares a los que hoy vemos en todas partes. ¿Por qué no lo hizo?

Parte de la respuesta se verá cuando hablemos de los paradigmas. Pero, aparte de ello, ya aquí podemos decir que no lo hizo porque nadie en su época lo hacía. El Progreso de los hombres del Siglo XVIII estaba pensado en términos lineales y prácticamente unívocos: se suponía que la humanidad caminaría en una línea más o menos recta hacia estados de progresivo perfeccionamiento, del mismo modo en que, partiendo de un muy idealizado “estado primitivo” o “estado natural”, había llegado a la vida civilizada. Y si Rousseau sentaba la tesis de que la civilización corrompía al “noble salvaje” (algo a lo cual Voltaire contestó diciendo que la filosofía de Rousseau constituía el mejor intento de volver a poner al Hombre en cuatro patas), pues la opinión general de los intelectuales era la de que el propio Progreso - principalmente a través de la Educación -  hallaría progresivamente la forma de corregir el defecto. Adam Smith no se ocupó del futuro por la sencilla razón de que lo daba por establecido.

Para los intelectuales del “Siglo de las Luces” el futuro aparecía como la concreción de un destino. Para los creyentes - y muchos de los librepensadores, en el fondo, lo eran - ese destino no era sino un designio señalado por Dios. Para los no creyentes era una especie de “Freiheit im Kreis des Zwanges” o libertad dentro del círculo de la necesidad regida por el determinismo de las leyes naturales. Que el Progreso, aún dentro del marco de las leyes naturales, podría ser un proceso de múltiples resultados finales, todos dependientes de una secuencia de decisiones recíprocamente condicionantes, fue una hipótesis que no aparece por ningún lado en la cultura enciclopedista del Siglo XVIII. El Progreso se encargaría de guiarnos al futuro, y del futuro se encargaría el Destino, Dios, las leyes naturales o el simple azar.

Adam Smith no “vio” nuestro presente porque su hipótesis de trabajo era la de un futuro. A nadie en su época se le ocurrió pensar que siempre hay varios futuros posibles que vamos simultáneamente construyendo y descartando a medida que transitamos la parte del tiempo que nos toca vivir. En aquellos años nadie pensó en un futuro como producto de una serie de cambios sucesivos y concatenados. Nadie elaboró una teoría del cambio. Es más: seguimos sin tenerla.

3.6     Los “change drivers” o impulsores del cambio

Está muy bien que nos hayamos por fin dado cuenta de que el cambio es una de las poderosas fuerzas que impulsan gran parte de nuestra actividad. La teoría de las “Tres C” - Clientes, Competencia y Cambio - ha servido ciertamente para poner al desnudo el tremendo atraso que tienen nuestras estructuras de management comparadas con la evolución tecnológica y socioeconómica. Han servido para darnos cuenta de que así como antes la actividad privada copió la estructura administrativa pública para manejar empresas, ahora se le pide al Estado que copie la estructura administrativa de las empresas exitosas para manejar los asuntos públicos o, más aún, que deje en manos de estas empresas privadas exitosas lo que el Estado - debido a la obsolescencia del management público- no sabe manejar con eficiencia.

Y se nos dice que lo que caracteriza a las empresas privadas exitosas es justamente su capacidad de adaptación a las nuevas condiciones impuestas por las “tres C”: mejor atención al cliente, mejor capacidad competitiva y mejor adaptabilidad al cambio. Sin embargo, si se la analiza a fondo, la fórmula no hace sino repetir tres veces lo mismo. En última instancia, la tercer “C” resume e integra a las dos anteriores. Porque el problema es que la actitud de los clientes ha cambiado otorgándole mayor Poder al consumo y las condiciones de competencia también han cambiado merced a la globalización de la economía. Por lo cual la pregunta específica sería: ¿qué es el cambio?. Y como la respuesta a esta pregunta es necesariamente tautológica (el cambio es variación) lo que realmente interesaría determinar serían los factores que engendran, determinan e impulsan el cambio.

No es demasiado difícil aislar buena parte de estos factores. Si repasamos la Historia de nuestra evolución socioeconómica de Adam Smith hasta nuestros días podemos apuntar ya unos cuantos. Estructurando esos y otros factores en conceptos homogéneos terminaremos obteniendo tres grandes categorías: la Evolución, el Trabajo y la Voluntad de Poder.

3.6.1     El cambio subyacente

Después de Darwin sabemos que el mundo no ha sido siempre tal como lo conocemos hoy. Los caballos que hoy montamos no existían hace cinco millones de años; hubo una época con dinosaurios y otra con mamuts y ambas especies han desaparecido. Los jazmines de nuestro jardín, hace quinientos mil años, seguramente tenían un aspecto distinto. Ni siquiera los continentes tuvieron siempre la misma forma, el mismo relieve o la misma orografía que hoy conocemos.

Más allá de los cambios por erosión, desgaste o fuerzas telúricas que afectan a la materia inerte, es un hecho que todo lo vivo cambia. Y esto aún a pesar de que, por todo lo que sabemos y según hemos visto, la materia prima de la cuan está hecho nuestro Universo - los elementos de la Tabla de Mendeleiev - ha permanecido siendo la misma a lo largo de todos los millones de años que hemos considerado.

De hecho, nosotros mismos, los seres humanos somos el producto de un largo proceso de cambio. Un Hombre de Cromagnon, bien vestido y afeitado, quizás podría pasar desapercibido en cualquiera de nuestras ciudades. Un hombre de Neanderthal posiblemente ya llamaría la atención en al menos ciertos círculos. Un australopitécido sería poco menos que un personaje para una película de horror. A un lemúrido lo llevaríamos, sin dudar un instante, al zoológico. Y, sin embargo, todos esos personajes son nuestros antepasados más o menos directos. Nosotros mismos hemos ido cambiando. No siempre fuimos como somos ahora y, casi con total seguridad, nuestros descendientes dentro de los próximos dos millones de años no serán iguales a nosotros en muchas cosas.

Llevamos el cambio dentro de nosotros mismos. Está en nuestras células, en nuestros órganos, en nuestro código genético, en la substancia básica misma de nuestro ser. En el colegio nos enseñan que todos los seres vivos nacen, crecen, se reproducen y mueren. Para la gran media promedio estadística esto es aproximadamente cierto dentro de un contexto uniforme y sin sobresaltos. Pero Madre Natura tiene sus caprichos. A veces produce algo que no conocemos muy bien pero que llamamos mutación y el ser que nace con ella salta a uno de los extremos de la curva de distribución normal de los caracteres de la especie. Luego viene el proceso de prueba. Si la mutación favorece la supervivencia, la teoría de Darwin nos dice que tenderá a multiplicarse y a reproducirse con mayor frecuencia. Si la desfavorece, sus portadores tarde o temprano sucumbirán. Si resulta indiferente o demasiado débil, la mutación se irá diluyendo en una tendencia que los genetistas llaman la regresión a la media. Pero bastará tan sólo una pequeña correlación entre progenitores portadores de la mutación y su descendencia para que, con el correr de las generaciones, se produzcan importantes cambios en la especie.

¿Qué es la mutación?. No lo sabemos. Conocemos su mecanismo aproximadamente en términos de alteración del código genético. Conocemos algunas circunstancias que la producen: radiaciones, algunas otras causas y eso es todo. Lo demás es literatura especulativa. Podemos ver en ella un azar, un destino o un designio divino. Cada uno es libre de imaginar lo que desee. Darwin sólo nos ha descripto - en parte - lo que pasa después. 

3.6.2     El cambio deliberado

En lo que a los seres humanos se refiere, lo que sucede después es que somos los animales que más modificamos nuestro medio. Desde hace dos millones y medio de años que no nos conformamos con el habitat que la naturaleza nos ha obsequiado y tampoco nos conformamos  solamente con adaptarnos a él. Desde que aprendimos a usar herramientas, quizás algo así como cincuenta o cien mil años atrás, hemos insistido en adaptar ese medio a nuestras necesidades, deseos y caprichos. En otras palabras: trabajamos.

En nuestras sociedades contemporáneas, quizás debido a esa monotonía aplastante que produjo la división del trabajo en operaciones simples, nos hemos olvidado de la enorme cantidad de elementos que componen el trabajo humano. Aún cuando muchos han terminado considerándolo una especie de mal necesario para sobrevivir, la verdad es que invertimos lo mejor que tenemos en nuestro trabajo. En realidad, si descontamos las horas de sueño, viaje y comidas; invertimos más tiempo y esfuerzo en nuestros trabajos que en todo el resto de nuestras actividades. Supongamos que un empleado promedio duerme ocho horas, pierde dos horas más viajando, gasta una hora para almorzar, otra para cenar y media hora más para desayunar. Si además trabaja  ocho horas, ¿qué le queda?. Tres horas y media, exactamente, para todo lo demás.

En nuestro trabajo ponemos nuestras aptitudes, nuestras destrezas y nuestro talento. En no pocos casos el trabajo se lleva nuestra creatividad, nuestra inventiva, nuestras mejores ideas. Siempre requiere nuestra inteligencia, sea cual fuere la cantidad que poseemos de ella. Demanda nuestra capacidad de lucha; nos hace competir, discutir, pelear por una oportunidad. Nos exige nuestro saber, nuestros conocimientos, lo que hemos aprendido, investigado o descubierto. Nos obliga a organizarnos, coordinarnos y complementarnos. El trabajo es, en pocas palabras, nuestro modo de vida por excelencia; no importa ahora si lo concebimos como una producción de tornillos, un llenar formularios, llevar una contabilidad, construir un dique, pintar un cuadro, escribir un libro o predicar a las masas. El trabajo es todo lo que ponemos en el Universo que nos rodea y que la naturaleza no nos ofrece en forma gratuita.

Es un gran tirano, es cierto. Pero gracias a él obtenemos la enorme mayoría de todo lo que tenemos. Cubre nuestras necesidades. El trabajo de los médicos cura nuestras enfermedades. El de los maestros nuestra ignorancia. El trabajo de los artistas llena nuestros vacíos espirituales. Viajamos en automóvil gracias al trabajo de los mecánicos, los metalúrgicos, los petroleros y los constructores de caminos. El trabajo nos da nuestras posibilidades y son estas posibilidades las que nos dan nuestra libertad real, más allá de la meramente declamada en simples declaraciones de principios o fórmulas legales. Lo que a Adam Smith le faltó desarrollar fue justamente la enorme gama de nuevas posibilidades que se abriría a cada vez más gente gracias a un trabajo más eficiente, más vasto, más diversificado y mejor organizado. Supuso de algún modo que todo se resumiría a fabricar lo ya existente.  No es un reproche. Toda su época no se dio cuenta de que el trabajo tiene la propiedad de crear más trabajo. Porque el trabajo crea nuevas oportunidades y los seres humanos, al aprovecharlas, crean el cambio que lleva a nuevos trabajos y a nuevas formas de trabajar.

3.6.3     La Voluntad de Poder

Hemos intentado explicar todos estos fenómenos de muchas maneras: desde quienes creyeron que se trataba sólo de automatismos encadenados mediante relaciones físicas de causa-efecto hasta quienes le adjudicaron al Hombre la misión trascendental de completar en cierta forma la Creación divina primigenia. Después de todas las especulaciones filosóficas lo único concreto y demostrado es que la vida misma es cambio y que no se deja embretar en esquemas inalterables.

Hay una componente propia a todo lo viviente, que se expresa quizás con la mayor amplitud en el ser humano y que ha recibido distintos nombres: elan vital, energía, potencia, fuerza, vitalidad, vigor, dinamismo y muchos otros. Explicamos el cambio biológico y el cambio ambiental mediante la lucha por la supervivencia y el trabajo, pero nos sigue faltando la razón por la cual luchamos y por la cual trabajamos. Realmente: ¿por qué luchamos por sobrevivir; por qué trabajamos para modificar nuestro habitat?. ¿Por qué no nos conformamos simple y pasivamente con nuestro destino y con el mundo tal cual lo hemos encontrado al nacer?. Nietzsche consiguió definir una respuesta como la necesidad inmanente de todo organismo vivo de acumular y desplegar, al máximo posible, esa componente de vigor, fuerza o vitalidad: “La voluntad para una acumulación de fuerza es específica para el fenómeno de la vida, para la nutrición, reproducción, herencia - para la sociedad, el Estado, las costumbres, la autoridad (...) No sólo constancia de la energía sino máxima economía en su consumo, de modo tal que el querer-ser-más-fuerte por parte de cada centro de fuerza es la única realidad; no la autoconservación sino la voluntad de apropiación,  enseñorearse, ser más, ser más fuerte.”

Una visión exageradamente sensualista ha tratado de fundamentar los cambios producidos por el ser humano en una ecuación de placer y desplacer. La búsqueda de la “felicidad”, tal como fue entendida en el Siglo XVIII y aparece por ejemplo en la Constitución de los Estados Unidos, estaría así básicamente sustentada en un concepto de placer. Esto nos ha llevado ciertamente a construir una sociedad hedonista pero, a su vez, el hedonismo ha actuado como una venda impidiéndonos ver la tremenda lucha por el Poder subyacente. De hecho, el placer es solamente un fenómeno periférico: la lucha no es por el Placer, es por el Poder; y el placer aparece cuando se ha alcanzado el objetivo. El placer no provoca, sólo acompaña, el despliegue de vitalidad y no es ninguna casualidad que el grado máximo del placer, lo que conocemos como éxtasis, lo percibamos simultáneamente como una sensación máxima de Poder. 

Nuestra actividad no se halla dirigida, en realidad, hacia la “con­ser­vación” de la especie. Si ése fuese de verdad nuestro objetivo, jamás hubiésemos salido de las cavernas. Lo que se conserva no cambia. Nuestro impulso instintivo más básico es una Voluntad de Poder que nos empuja a conquistar, consolidar y expandir nuestras posibilidades; a hacer más y a ser más. El impulso más fuerte de todo ser vivo es hacia el despliegue de sus facultades y energías. Si se lo observa detenidamente se hace claro que está mucho menos preocupado por mantener que por desplegar al máximo su potencialidad, a tal punto que la conservación es sólo el resultado de actividades en las cuales el ser ha puesto muchas veces toda su fuerza. El poder-ser y el poder-hacer es lo que realmente nos mueve. El poder-tener y el poder-gozar son solamente consecuencias bienvenidas.

La resistencia a entender el cambio como una consecuencia de la Voluntad de Poder tiene sus raíces sociopsicológicas y nace de suponer que la masa, el público, los clientes, constituyen el motor del cambio. Ya hoy muchos gurúes del cambio han tenido que reconocer que, lo que el cliente quiere, lo que el cliente dice que quiere, lo que el cliente realmente necesita y lo que el cliente puede o está dispuesto a pagar son con frecuencia cuatro cosas muy distintas. Muy pocas veces una encuesta de opinión masiva revela de un modo claro y preciso una voluntad definida de cambio. La visión de cambio que tienen las masas es, por regla, algo genérico, difuso, nebuloso. Más una cuestión de “nos gustaría que” que una cuestión de “queremos que”.

Esto es así porque la multitud no concibe el “salto cualitativo”, la mutación, la creación revolucionaria, la excepción intrusiva que asalta la monotonía cotidiana y produce el cambio. El instinto de la masa percibe las medias-promedio estadísticas como objetivos deseables por la sencilla razón de que en estas categorías se halla a si misma, se siente cómoda en un ambiente de igualdades y piensa que el número, la fuerza de la mayoría, es la llave que abre la puerta de todas las posibilidades. Si aún así surgen situaciones irritantes o incómodas, el recurso tradicional de las masas ha sido siempre la búsqueda de culpas: ya sea dentro del individuo mismo - como en la doctrina del pecado original - o bien en “el resto” minoritario de la sociedad - como en las doctrinas socialistas y anarquistas. Ha sido siempre uno de nuestros recursos favoritos el creer que podríamos soportar mejor nuestras miserias si hallábamos a alguien a quien echarle la culpa - aunque ese alguien fuésemos nosotros mismos.

Además, el otro recurso de las grandes mayorías ha sido la domesticación de las excepciones. En realidad, la masa odia lo excepcional y, por lo tanto, rechaza enérgicamente toda gran concentración de Poder. La antigua democracia griega enviaba a sus hombres excepcionales al ostracismo. Las democracias actuales presionan a quienes son más fuertes, más hábiles, más sabios, más creativos, más poderosos o más inteligentes, a adoptar el papel de guardianes, custodios, defensores o protectores de la sociedad. Por ello es que todas las grandes guerras contemporáneas fueron libradas en nombre de la paz y aún hoy los grandes enfrentamientos de Poder se dirimen en nombre de los Derechos Humanos, la igualdad de oportunidades o la lucha contra el hambre y la miseria. Con esto se crea la ilusión de que el Poder le es inherente a la mayoría que se ubica entre 1 a 1.5 desviaciones standard de la media y que la acción de la minoría restante debe limitarse a recibir ese Poder en forma delegada para utilizarlo en la defensa de las mayorías. La ilusión que se crea de este modo es la de un estado de cosas en el cual el Poder es esencialmente pluripersonal y la comprensión de los procesos de cambio se diluye en un intento de captar las tendencias a largo plazo de las mayorías. La realidad opera, sin embargo, de un modo completamente diferente: como lo señaló Noam Chomsky, poderosas minorías utilizan grandes recursos de Poder para “fabricar” modas, tendencias y consensos que la multitud adopta luego, posibilitando así los procesos de cambio impulsados desde las centrales de un Poder altamente concentrado.

El cambio entendido como una tendencia de la voluntad-promedio masiva es sólo una ficción intelectual. La verdadera creatividad no ha sido jamás patrimonio de las masas. No hay una sola gran obra creativa que haya sido concebida por una multitud anónima. El populacho de París fue el objeto, no el sujeto, de la Revolución Francesa. La verdadera fuerza impulsora de 1789 fue una burguesía con vocación y voluntad de Poder. Por otra parte, los grandes líderes y conductores han sacrificado masas en un número por lo menos tan grande de oportunidades como las veces en que las han defendido. Las mayorías decisivas son un invento de los intelectuales y en innumerables casos sólo han servido para hacer aquello que los realmente poderosos no se atrevían o no podían hacer en forma personal.

Porque la Voluntad de Poder es siempre personal-individual. La vitalidad de un individuo biológico tiende siempre a ocupar todo el territorio y a agotar todas las posibilidades que se hallan a su alcance. Eso es lo que precisamente establece el principio de la lucha por la supervivencia dentro de la Naturaleza puesto que dicha intención choca indefectiblemente contra la vitalidad de otros individuos que tienen exactamente las mismas intenciones. Esta lucha puede terminar solamente de dos maneras: o bien como una relación de vencedor y vencidos (una relación dirigente-dirigidos no es sino una versión civilizada de lo mismo), o bien como una relación de alianzas en la cual Poderes que no pueden aniquilarse o sojuzgarse terminan conspirando conjuntamente para la obtención del Poder o de más Poder.

Las leyes naturales, en la medida en que tratan de explicar cambios, no son sino fórmulas que expresan relaciones de Poder. La gran constante de la Naturaleza es la lucha. El trabajo es el arma con la cual el Hombre intenta dominar su medioambiente y su entorno. El “Contrato Social”, en la medida en que es viable en absoluto, sólo reglamenta pero no elimina esta lucha impulsada por la Voluntad de Poder. Esta confrontación es la que determina la transformación porque la Voluntad de Poder - como toda voluntad - sólo puede manifestarse a través de las resistencias que encuentra a su paso y, por lo tanto, buscará siempre aquello que se le opone creando así su propia dialéctica del cambio.

3.7     Los “error drivers” o propulsores del error

Como se ha visto, tenemos buenas herramientas de análisis. Nuestros métodos de previsión son maleables y razonables. Hemos conseguido tener una relativa comprensión de los procesos de cambio. Sin embargo, seguimos sintiéndonos muy inseguros en lo que al futuro se refiere porque una visión retrospectiva de las decisiones que hemos tomado durante las últimas décadas revela que cometemos errores con demasiada frecuencia.

Nuestros escenarios son solamente aproximaciones a lo posible o alternativas previstas de riesgos calculados. Y en no pocas oportunidades la realidad nos muestra que las probabilidades estaban mal evaluadas, lo posible no estaba completamente integrado y los riesgos se hallaban mal calculados. En otras palabras: todavía nos equivocamos demasiado respecto del futuro.

3.7.1     Cómo equivocarse y cómo evitarlo

Es indiscutible que la complejidad del problema es grande. Los riesgos que  enfrenta nuestra civilización son múltiples. Quien hoy relea el excelente trabajo que realizaron Kahn y Wiener en 1967 y que luego se publicó en forma de libro bajo el título “El Año 2000”, quizás se sientan tentados a ser algo injustos con estos autores por el hecho de que ahora, a mediados de los ‘90, las perspectivas para el fin del milenio se ven de un modo bastante diferente a cómo se veían o anunciaban hacia fines de los ‘60. El hecho es que el mérito de aquella obra estuvo y está más allá del acierto o desacierto de las predicciones, implícitas o explícitas, que en su momento se hicieron. Su mérito reside en que ha mostrado, quizás por primera vez, cómo puede llegar a ser enfocada la tarea de “administrar” o “manejar” el futuro, tanto mediante la utilización de las herramientas que se han ido desarrollando desde la segunda mitad del Siglo XX como mediante la aplicación de reglas, métodos y procedimientos prácticos ajustados - o, por lo menos ajustables - a la realidad como son el razonamiento por escenarios, el análisis de riesgos y la conducción del cambio.

Siguiendo de una forma más o menos libre lo expuesto en la obra citada, podemos establecer que tenemos - por lo menos - diez formas corrientes y frecuentes de equivocarnos respecto del futuro. Concretamente, podemos tener:

 

 1)-  Criterios demasiado estrechos que impiden abarcar la totalidad - o al menos la mayor parte - de los factores concurrentes a un problema o cuestión.

 2)-  Tendencia a tomar decisiones en los puntos inadecuados de una estructura o un proceso, con lo que no solamente no resolvemos algún problema sino que hasta podemos llegar a crear nuevos problemas innecesariamente.

 3)-  Una forma de pensar, un mecanismo mental inadecuado que nos impide “ver” o “plantear” determinada cuestión de una manera adecuada con lo que arribamos a la situación clásica de obtener respuestas equivocadas por haber hecho las preguntas equivocadas.

 4)-  Mala suerte por la aparición de problemas absolutamente nuevos o problemas cuya existencia ignorábamos por completo.

 5)-  Mala suerte por la materialización de eventos cuya probabilidad habíamos calculado como muy baja y que, no obstante, se produjeron igual.

 6)-  Cambio en las “reglas de juego” fundamentalmente porque las personas involucradas, en función de las cuales habíamos realizado nuestra evaluación y nuestras previsiones, cambian o resultan súbitamente reemplazadas por otras que proceden según criterios diferentes y con comportamientos distintos.

 7)-  Una representación estructural incorrecta de las cuestiones a raíz de la cual suponemos relaciones e interdependencias que no existen o se hallan dispuestas de un modo distinto a como nos las hemos representado.

 8)-  Una escala de prioridades incorrecta a raíz de la cual no tenemos en claro los “antes” y los “después”; los objetivos “de mínima” y los “de máxima”; lo imprescindible y lo accesorio.

 9)-  Una excesiva confianza o, a la inversa, una excesiva inseguridad en lo referente a nuestra capacidad de prever el futuro lo que produce una actitud excesivamente temeraria o excesivamente pusilánime.

10)- Una ambición excesiva o, a la inversa, demasiado mezquina en la fijación de objetivos lo que conduce, ya sea a emprendimientos demasiado pretenciosos habida cuenta de los recursos disponibles, o bien a emprendimientos demasiado miopes que no alcanzan a resolver el problema planteado.

 

Así como podemos aislar al menos diez formas frecuentes de equivocarnos, también podríamos hacer el listado inverso - por supuesto que no exhaustivo - de diez formas de evitar por lo menos las equivocaciones más obvias. En concreto, para modelar escenarios más ajustados a la realidad, percibir mejor nuestros riesgos y comprender mejor los procesos de cambio podemos:

 

 1)-   Aumentar nuestra amplitud imaginativa y mejorar la perspectiva de nuestra forma de considerar los problemas, para lo cual es imprescindible deshacerse de conclusiones preconcebidas y colocarse en una posición intelectualmente elástica, abierta y honesta.

 2)-  Definir adecuadamente los puntos que hacen a la cuestión, para lo cual es necesario designarlos con denominaciones claras, ubicarlos en el contexto de la estructura a la que pertenecen, describirlos en detalle con la mayor precisión posible y analizarlos desde varios ángulos dentro del marco de una discusión positiva.

 3)-  Diseñar alternativas como método de previsión pero también como método de investigación no mezquinando el tiempo y el esfuerzo invertido en el desarrollo de esquemas y metodologías basados en la respuesta a preguntas al estilo de “¿qué pasaría si...?”, “¿qué haríamos en caso de..?” y “¿no podríamos .... en lugar de ....”?.

 4)-  Reducir cuestiones extremadamente complejas a términos manejables mediante una “concep­tua­lización” del fenómeno, o sea: formulando conceptos abstractos genéricos pero que cumplan con la condición de ser claros (es decir: unívocos y fácilmente comprensibles), realistas (es decir: basados en datos ciertos y, dentro de lo posible, verificables), válidos (es decir: homogéneos con la esencia de la cuestión y carentes de analogías forzadas) y estructurados (es decir: bien relacionados tanto en cuanto a la síntesis del fenómeno al que se refieren como en cuanto al resto de los conceptos empleados en forma conexa).

 5)-  Mejorar la intercomunicación intelectual entre personas de distinta especialización profesional y distintas actitudes básicas poniendo énfasis tanto en la adecuada exposición de los criterios propios como en la adecuada comprensión de los criterios ajenos. En última instancia esto no es sino una forma algo complicada de afirmar que debemos volver a aprender a saber hablar y a saber escuchar, evitando los verdaderos diálogos incoherentes entre sordos que con tanta frecuencia se dan en la actualidad dentro de los cuerpos colegiados.

 6)-  Mejorar nuestras herramientas de monitoreo de la realidad y nuestras técnicas para detectar, aislar y vigilar las variables relevantes de un proceso. Complementariamente, mejorar también nuestras técnicas para la investigación de tendencias, para la aislación de patrones de comportamiento, para el cálculo de probabilidades, la construcción de modelos o esce­na­rios y para la realización de análisis estadísticos en general.

 7)-  Diseñar planes de acción concisos, concretos y coherentes en los que estén explicitados con claridad no solamente las acciones sino también las consecuencias previstas. Esto permite no sólo desarrollar la acción de acuerdo con las especificaciones establecidas sino, además, ir verificando las consecuencias originalmente esperadas para determinar en qué medida la acción se ajusta - o no - a lo originariamente planificado.

 8)-  En la selección de proyectos, priorizar aquellos en los que se hayan previsto métodos de toma de decisiones que permitan el máximo de flexibilidad dentro del marco de esquemas “abiertos” y ágiles. Las estructuras creadas para concretar un proyecto deben ser flexibles (capaces de adaptarse a condiciones cambiantes), “abiertas” (atentas y dispuestas a aceptar los cambios) y “ágiles” (capaces de responder rápidamente a nuevos estímulos).

 9)-  Diseñar estructuras administrativas dispuestas al cambio. Las normas burocráticas en cuanto al “quién, qué, cómo, cuando y dónde” de los procedimientos rutinarios deben ser los suficientemente amplias y carentes de ambigüedades como para dar seguridad en el funcionamiento del aparato administrativo, pero deben incluir también mecanismos capaces de manejar las situaciones imprevistas así como procedimientos que garanticen su modificación ante cambios internos o externos. Más que estructuras administrativas con alternativas previstas es necesario diseñar administraciones dotándolas de normas, métodos y procedimientos que las hagan capaces de elaborar alternativas ante situaciones imprevistas.

10)- Planificar y conducir centralizadamente. Ejecutar y administrar descentralizadamente. Garantizar un flujo y un reflujo ordenado y constante de la información y las comunicaciones que permita (A) una determinación central, clara, concisa y compacta de los objetivos fundamentales, (B) una discusión amplia y descentralizada de los proyectos, (C) una toma centralizada, homogénea y coherente de las decisiones y (D) una ejecución coordinada y descentralizada de las actividades.

 

Estos listados, obviamente, ni son un recetario, ni pretenden ser absolutos. Son simplemente guías orientadoras que nos permiten juzgar nuestros actuales métodos, rutinas, objetivos y prioridades con criterios razonablemente fundamentados. Revisar íntegramente las reglas de nuestro pensamiento, las normas que condicionan nuestras reacciones, las ideas que aceptamos como postulados, las reglas que hemos asumido como firmes, sólidas e inamovibles, no es por cierto tarea fácil. En este sentido, los puntos indicados expresan nada más que una serie de buenos consejos, no precisamente fáciles de seguir, y, desde cierto punto de vista, constituyen una especie de tautología; como si se dijera que para no equivocarse lo que hay que hacer es no cometer errores. De hecho, nadie, por lo general, comete errores ex profeso. Si aún tratando de evitarlos terminamos cometiéndolos igual es porque, por alguna razón, no los “vemos” o  mejor dicho: no los pre-vemos.

3.7.2     Salir de la caja

Nuestras vidas son, en gran parte, como cajas dentro de cajas. Costumbres, reglas, normas, culturas, prácticas, leyes, obligaciones, doctrinas, ideologías, dogmas, postulados, estructuras sociales, tecnologías, ciencias, religiones, idiomas, mitos y un buen número de otros elementos constituyen todo un andamiaje de “contenedores” de nuestro pensamiento y nuestras acciones. Dentro de la “caja” Cultura ponemos habitualmente una serie de elementos. Dentro de la caja “Ley” nos hemos acostumbrado a poner y a encontrar otra serie de elementos. Por un lado, esa estructura de recipientes conceptuales nos es útil: permite ordenar nuestros razonamientos y movernos con cierta sensación de seguridad al encontrar múltiples puntos de apoyo. Pero, por el otro lado, el andar constantemente hurgando en cajas preconcebidas nos impide ver toda la realidad que puede muy bien estar por completo fuera de nuestros esquemas mentales.

El fenómeno se percibe y se comprende cuando, de pronto, un gran cambio nos toma completamente por sorpresa. Alguien, en alguna parte, se ha atrevido a salir de la caja, a abandonar el esquema usual, a ejercer su Voluntad de Poder y actuar sobre la realidad mediante algún comportamiento no previsto y el hecho nos cae como llovido del cielo. El fenómeno, a veces, puede suceder bajo nuestras propias narices y sólo después, cuando el proceso se ha completado, nos reprochamos el no haber “visto” en su momento las posibilidades de futuro que encerraba. La verdad es que no las vimos porque la caja en la que tan cómodamente vivíamos nos cerraba el horizonte.

Quien crea que esto solamente le sucede al hombre de la calle y no a los grandes genios del Progreso se equivoca. Le ha sucedido a políticos famosos, a científicos de renombre y hasta a grandes corporaciones. Hubo un científico en la Academia de Ciencias de Francia que rechazó en su momento la existencia de meteoritos con el argumento de que “no pueden caer piedras del cielo por la sencilla razón de que en el cielo no hay piedras”. Edison alguna vez pensó que el fonógrafo de su invención serviría primariamente para que ciertos caballeros en su lecho de muerte pudiesen grabar sus últimos deseos. Thomas J. Watson, Sr. el fundador de IBM llegó a afirmar que la demanda total de computadoras no superaría nunca la cifra de unas cincuenta máquinas. Y, en este sentido, IBM heredó una verdadera tradición de miopía que la llevó a despreciar las minicomputadoras primero y a las PC después, aún a pesar de haber sido la firma que estableció el standard para gran parte del segmento de las PC. La explosión de las computadoras personales sucedió en pocos años literalmente bajo las propias barbas de la Big Blue sin que sus ejecutivos pareciesen darse cuenta de las posibilidades que encerraba.

La regla que parece desprenderse de estos ejemplos y de miles de otros que podrían citarse es que la condición fundamental para prever el futuro es atreverse a hacer lo que los norteamericanos llaman to think out of the box; literalmente: “pensar fuera de la caja”. Vale decir: saltar fuera de las cajas que constriñen nuestro ángulo visual y subir a un nivel superior que permita abarcar una porción mayor del horizonte.

Por supuesto, esto también no es sino un bello consejo. Fácil de decir y nada fácil de seguir. Nuestras “cajas” están repletas de cerrojos que dificultan su apertura.

3.7.3     Los paradigmas

En infinidad de ocasiones emitimos cierta opinión o realizamos una actividad de cierta manera simple y sencillamente porque “siempre fue así”, porque “todo el mundo lo hace así o piensa así” o porque “ésta es la manera correcta”. En buena medida la actitud es positiva porque la capacidad de utilizar experiencia previa y ajena es una de las más potentes herramientas de las que dispone el Hombre. Es lo que, en términos prácticos, nos libera de la necesidad de reinventar la rueda todos los días.

Sin embargo, en muchas oportunidades esta predisposición a aceptar las reglas establecidas es lo que nos impide hallar soluciones nuevas a problemas nuevos y hasta a prever la aparición de esos nuevos problemas que requerirán nuevas formas de resolución. Un fuerte vínculo con nuestra tradición nos permite comprender el sentido de nuestros actos y pensamientos, desde el punto de vista de su procedencia y su historia. Pero nos dice muy poco en cuanto a las consecuencias de nuestras opiniones o actos, más allá de ciertos razonamientos por analogía que, por desgracia, resultan demasiado permeables a toda una serie de errores. Una tradición cultural nos permite tomar conciencia de nuestra identidad; nos aclara quienes somos y por qué somos lo que somos. Pero no nos orienta demasiado acerca de cómo seremos ya que eso depende en gran medida de la forma y el modo en que tomemos decisiones en el ejercicio de nuestra Voluntad de Poder.

Este anquilosamiento mental en esquemas establecidos es lo que detectó Joel Baker y de él se deriva la teoría de los paradigmas. Un paradigma es un “método establecido”. La palabra proviene del ámbito de la gramática y se relaciona con las normas que regulan, por ejemplo, la conjugación de los verbos. El paradigma nos ejemplifica cómo “se dice” algo que se quiere expresar; por extensión y analogía nos impone un “se dice así”, o un “se hace así”. La persona que ha internalizado completamente un paradigma ya ni percibe que bien podría decirse lo mismo de otra manera o que hasta podría decirse otra cosa para expresar mejor lo que se quiere transmitir. Esto nos sucede todos los días cuando utilizamos un idioma: en realidad pensamos en ese idioma y son los paradigmas del idioma los que condicionan nuestra forma de encadenar pensamientos. A veces, tan sólo pensar la misma cuestión en otro idioma basta para que surjan diferencias notables, como lo saben todos los traductores que alguna vez hayan tenido que lidiar con textos filosóficos u obras de real envergadura intelectual y artística.

Cada vez que nos enfrentamos a un problema, lo primero que tratamos de hacer es de resolverlo mediante alguno de estos “métodos establecidos”. Si lo logramos, lo damos por resuelto y muchas veces ni nos damos cuenta de que puede estar mal resuelto. Si no lo logramos, nos sentimos, por lo general, terriblemente desorientados. Algo “no encaja” en nuestra concepción del mundo. Algo “no puede ser” de acuerdo a nuestros paradigmas. Algo “está mal” según lo que nos enseñaron en la escuela, el colegio o la universidad. Y consecuentemente se hace muy fuerte la tentación de negar la existencia del problema, de manipular sus términos o, a lo sumo, de tratar de resolverlo por analogía con algún caso similar con lo que terminamos creyendo haberlo resuelto - o actuando como si lo hubiéramos resuelto - cuando, en realidad, lo único que hemos hecho es barrerlo bajo la alfombra.

Otra forma ilícita (y quizás la peor) de resolver problemas y quedar atrapado en el paradigma es declarándolo tendencia. Con ello proyectamos la validez del paradigma hacia el futuro, lo declaramos “un ideal” y pretendemos resolver el problema afirmando que el desarrollo de los acontecimientos se encargará por si solo de resolver la incógnita o, por analogía con el cálculo infinitesimal, que lograremos progresivamente una aproximación a la resolución del problema porque la Evolución y el Progreso apuntan en ese sentido.

Lo difícil de salir de los paradigmas reside, por un lado, en que ni nos damos cuenta de su existencia y, por el otro, en que resultan muy útiles la gran mayoría de las veces y en muchísimos casos ni se nos ocurre salir del “método establecido” por la simple razón de que funciona bien. Hay, no obstante, al menos tres formas de comprobar si estamos, o no, atrapados en un paradigma: uno de ellos es la técnica de “pensar el problema al revés”, el otro es el buscar no una solución sino todas las soluciones posibles a un problema dado y el tercero consiste en pensar la idea hasta el final.

Hace algunos años, cuando surgió la necesidad de reciclar el papel de los diarios y periódicos, un laboratorio químico gastó mucho tiempo y dinero tratando de lograr un solvente que disolviese la tinta de imprenta sin dañar seriamente las fibras del papel. Los ensayos fueron de fracaso en fracaso hasta que a alguien se le ocurrió plantear el problema al revés: en lugar de buscar un solvente que diluyese la tinta, un grupo de trabajo se puso a elaborar una tinta de imprenta que permitiese la misma calidad de impresión pero que pudiese ser fácilmente eliminada con alguno de los solventes disponibles. En muy poco tiempo el producto estuvo desarrollado y el problema resuelto.

La otra técnica ha sido utilizada instintivamente y con frecuencia por muchos gerentes o jefes de empresa. Rara vez la primer idea es la mejor idea. Sabiendo eso, muchos ejecutivos rechazan sistemáticamente la primer solución que reciben con un “Podría ser pero no me gusta. Inténtelo de otra manera”. No es precisamente la mejor forma de ganar simpatías pero obliga a re-pensar la cuestión desde otro ángulo y, haciéndolo, es muy frecuente que algún paradigma quede por el camino.

La tercer técnica es la que Adam Smith no utilizó y que podría haberlo llevado a prever en un grado bastante aceptable nuestro mundo actual. Básicamente consiste en no conformarse con hallar la respuesta a una pregunta, o la solución de un problema o el resultado de un análisis, sino en seguir inquiriendo acerca de lo que ocurre además o lo que ocurrirá después. Es un preguntarse ¿cómo sigue la historia? o poner varias veces seguidas la pregunta de ¿por qué?. Por lo general, nos resistimos a utilizar la técnica de los varios “¿por qué?” o de varios “¿y después?” porque la hallamos irritante. Es como tratar de responder las preguntas infantiles de un niño insoportablemente curioso. Pero precisamente de eso se trata: los niños, al no estar atrapados en paradigmas, se atreven a (es más: quieren) pensar las cosas hasta el final. Por eso es que ante la espontánea sinceridad de los niños los mayores tantas veces tenemos que correr a taparles la boca. Cada vez que sintamos cierta irritación intelectual al tratar de responder el tercer o cuarto “¿por qué?”, o al tratar de imaginar lo que “viene después”, es casi seguro que será porque estamos atrapados en algún paradigma.

3.7.4     Los postulados

Por definición, un postulado es algo que no se discute. Antiguamente distinguíamos entre postulados y axiomas considerando a los segundos evidentes por si mismos mientras que los primeros no lo eran. Hoy solo hablamos de postulados y los entendemos como principios indemostrables que nos sirven ya sea para la comprensión de la realidad, ya sea para la construcción de un sistema científico o para la arquitectura de un orden moral. Por extensión, las ideologías dogmatizadas también operan como postulados.

Lo que con frecuencia perdemos de vista es su carácter de apoyo provisorio. En realidad no son más que muletillas que nos facilitan el razonamiento. Supuestos útiles cuya mayor virtud - y acaso la única - es la de ser cómodos para determinados fines. Pero sólo para determinados fines. Un postulado no es algo necesariamente “cierto”. Lo aceptamos como cierto porque no lo podemos demostrar. La geometría euclidiana y la no-euclidiana se basan en un universo de postulados bastante diferentes. ¿Cual es el “verdadero” o “correcto”?. En realidad ninguno de las dos; o ambos a la vez. La cuestión adquiere relevancia solamente si lo miramos desde la óptica de nuestros fines: un carpintero que tratase de diseñar una estantería utilizando alguna geometría no-euclidiana podría tardar más en hacer los cálculos que en fabricar el mueble; un analista matemático de la NASA tercamente aferrado a la geometría euclidiana terminaría poniendo en Venus un cohete destinado a Marte.

Cuando tomamos decisiones, con frecuencia confundimos la “verdad absoluta” con la “verdad práctica”. Así como antaño tuvimos una tendencia al dogmatismo, hoy, con el auge de las escuelas relativistas, tenemos una abusiva tendencia a relativizarlo todo. De este modo, mientras durante siglos los Hombres afirmaron que el sol giraba alrededor de la tierra con un cielo arriba y un infierno abajo, hoy nos imaginamos un universo sin puntos fijos en absoluto porque resulta ser que todo está en movimiento y no hay “arriba” ni “abajo” en un espacio infinito o esférico. De este modo, mientras que en el Siglo X el postulado era un designio divino inmutable y revelado, hoy, diez siglos más tarde, el postulado es que todo resulta relativo y discutible.

Una manera casi infalible de equivocarnos respecto del futuro es tomar a los postulados como verdades absolutas y eternas, olvidando que nadie los ha formulado con ese fin. No tienen más valor que su utilidad práctica y, si un sistema necesita de otros postulados, es perfectamente lícito buscar aquellos que convengan mejor. La única función de un postulado es la de servir de base, o punto de partida, al razonamiento ulterior. Si tras pensar una idea hasta sus últimas consecuencias hallamos que no arribamos a buen puerto, nunca estará de más revisar nuestros postulados. No es nada infrecuente errar el objetivo por haber elegido mal el punto de partida.

3.7.5     Los prejuicios

Otra forma muy frecuente de equivocarnos en nuestra decisiones es manejándonos con respuestas anticipadas. El prejuicio es exactamente eso: la respuesta prefabricada a una cuestión que no ha sido siquiera planteada o terminada de plantear. Las personas prejuiciosas “saltan” directamente a las conclusiones aún antes de conocer los detalles de una cuestión. Están, en realidad, más ansiosas por dar la respuesta que por conocer la pregunta.

En la enorme mayoría de los casos, cuando se salta a una conclusión con alguna fórmula preestablecida, esa fórmula proviene de alguna “caja” conceptual. Además, en la raíz del prejuicio generalmente lo que hay es un tremendo complejo de inferioridad: la persona prejuiciosa se adelanta a dar la respuesta porque le parece que esperar a escuchar la pregunta sería confesar una ignorancia que no quiere admitir. Es una actitud muy típica de la burguesía que, en el fondo de su alma, todavía no se ha recuperado del complejo de inferioridad que padeció ante la nobleza.

Cierto tipo de prejuicio no es sino una forma de decir: “¡Cállese!. Lo que Usted plantea ya lo conozco”. Consecuentemente se expresa, por regla, en perogrulladas o en lugares comunes que cuentan con cierto consenso universal. Es lo que “todo el mundo sabe” y muchas veces lo que “todo el mundo dice” siendo que, por desgracia, es frecuente que haya una distancia sideral entre lo que la gente realmente sabe, lo que la gente dice y lo que realmente es. Por eso, la opinión pública está, casi siempre, literalmente plagada de prejuicios.

Otro tipo de prejuicio proviene de la invasión de lo emocional en el área del pensamiento racional. Es el rechazo de una consecuencia lógica o deductiva porque choca con una ilusión cara a nuestros sentimientos. Es lo que lleva a ciertas personas a negar la realidad porque ésta no les gusta, o a afirmar ciertos dogmas de fe sencillamente porque sí les gustan. El “enojarse con la realidad” y mandarla de paseo porque no concuerda con alguna de nuestras preferencias emocionales, es una forma muy extendida del prejuicio.

Un tercer tipo de prejuicio proviene de la esfera moral y es uno de los más complicados. Nace tanto de lo que “siempre fue así” (y, por lo tanto, es “correcto”) como de lo que “debe ser” de acuerdo a un precepto establecido por fuera y por encima de la realidad como lo es, por ejemplo, un mandamiento religioso, un dogma o un sistema filosófico con postulados éticos. La moral, por lo general, da una respuesta anticipada a muchos comportamientos exigiendo un determinado tipo de actitud, ya sea en nombre de las buenas costumbres, ya sea en el de un mandamiento suprahumano. Es, decididamente, una de las “cajas” que nos contiene siendo que, además, genera un buena cantidad de prejuicios.

El problema es que resulta una caja muy necesaria. Sin pautas morales el comportamiento de los individuos de una sociedad se vuelve por completo impredecible y ninguna sociedad puede funcionar en esas condiciones. El dilema es que, mientras necesitamos un comportamiento predecible para garantizar no sólo el órden sino hasta las funciones más elementales de la convivencia, por el otro lado una sujeción esclava y bovina a reglas establecidas impide cualquier tipo de cambio y con ello se derrumban las posibilidades de mejoramiento o avance. Es el dilema de Raskolnikov: ¿quién, cuando y por qué estará autorizado a saltar por encima de las reglas morales?.

Para colmo, la cuestión se complica más aún cuando consideramos las distintas bases posibles de la moral. A una moral mística, revelada, mandatoria del “deber ser” tal como queda codificada en, por ejemplo, los Diez Mandamientos, el mundo laico liberal ha opuesto la moral utilitaria y práctica del “es conveniente que así sea”. Con lo que prácticamente todo el mundo salta por sobre las normas cuando éstas dejan de ser convenientes y sólo una Ley secular arbitrariamente endiosada consigue mantener a duras penas las cosas un poco en su lugar. Pero tampoco el Estado teocrático o el Estado de Derecho son los únicos marcos morales posibles. Los griegos construyeron una moral sobre la base de la estética, los romanos sobre un superior concepto del sentido del Deber, los orientales en general sobre el concepto de la mesura y la armonía. Como lo sabe cualquiera que haya recorrido tan sólo un poco el mundo, hay varias morales posibles y, dentro de ellas, nuestra moral cristiana - más o menos retocada por el agnosticismo liberal - es solamente una de tantas.

La persona que debe tomar decisiones fuertemente transformadoras, tarde o temprano termina chocando contra un prejuicio moral, ya sea propio o ajeno. Para la conducta a seguir en estos casos no hay recetas. Básicamente las alternativas son la in-moralidad o transgresión consciente de las normas morales, y la a-moralidad u omisión deliberada de la moral vigente y su sustitución por un código propio.

El desarrollo completo del tema excede el marco de esta exposición. Nos obligaría no solamente a tratar en profundidad la cuestión moral en sí - vale decir: qué está bien y qué está mal - sino además la cuestión ética; vale decir: por qué está bien lo que la moral dice que “está bien” y por qué está mal lo que la moral condena. Quien choque contra prejuicios morales y de algún modo deba pasar por sobre ellos hará bien en recordar lo que Maquiavelo escribió en cuanto a que el éxito justifica los medios. El éxito. No el fin. Porque - y ciertamente es bueno recordarlo también -  aquello de que “el fin justifica los medios” es una barbaridad que muchos le atribuyeron pero el pobre Maquiavelo nunca dijo.

3.8     El proceso de tomar decisiones.

La celeridad con que los cambios radicales invaden nuestra vida cotidiana y la potencia de los recursos de análisis y evaluación que cada día están más a disposición del habitante común del mundo civilizado nos indican de una forma evidente que estamos en el umbral de una verdadera revolución en materia de diseño de proyectos a futuro y en materia del proceso de toma de decisiones que tiendan a materializar esos proyectos. No obstante, debemos ser cautos porque nada nos autoriza  tampoco a esperar milagros. Por más que dispongamos de herramientas y métodos muy interesantes, ninguno de ellos está completamente exento de cierto margen de error. Además, las decisiones que tomamos, no sólo están condicionadas por los factores que acabamos de ver sino que se insertan en un contexto en el cual a los márgenes de error se les suman los márgenes de incertidumbre.

Los métodos estadísticos de extrapolaciones, proyecciones y tendencias siguen siendo sólo condicionalmente válidos. Aún los más prolijos cálculos de probabilidades se basan en la presunción de que una secuencia de fenómenos es reiterable si se mantienen inalteradas las circunstancias. Y esa presunción es tan sólo eso: una presunción. La vida no sólo presenta cambios constantes sino que, además, el factor condicionante de “mantener inalteradas las circunstancias” es, en algunas ocasiones, muy crítico y, en otras, de una definición muy ambigua sobre todo cuando la secuencia teórica de fenómenos se presupone infinita - algo que no se puede dar en la realidad.

Por ejemplo, la teoría de las probabilidades nos dice que si tiramos infinitas veces una moneda al aire, obtendremos la misma cantidad de “caras” que de “cruces”. Si efectuamos experimentos empíricos podremos constatar que la tendencia de los resultados concretos es de una aproximación positiva a la probabilidad calculada. Pero seguiremos teniendo un 50% de margen de error para la predicción de un lanzamiento determinado de la moneda; nos resultará mecánicamente casi imposible fabricar una moneda “perfecta” (vale decir absolutamente balanceada), y por cierto que nunca llegaremos a efectuar realmente una serie infinita de lanzamientos.

Lo novedoso de los nuevos sistemas y métodos de previsión, apoyados por la velocidad pasmosa del procesamiento electrónico de datos, no es que nos permitan ser infalibles en nuestras previsiones. Lo novedoso es que nos permiten descubrir nuestras equivocaciones casi en el instante mismo de cometerlas. Con ello aumenta nuestra posibilidad de enmendarlas antes de que terminen por convertirse en errores y nos hagan sufrir las consecuencias. No es que nos permitan equivocarnos menos en las cuentas. En ciertos casos lo que nos permiten es borrar rápido y poner el resultado correcto antes de que la maestra se dé vuelta; pero el error lo habremos cometido igual.

Nuestra posibilidad de equivocarnos va incluso más allá de los “error drivers” que hemos analizado. Existen situaciones en dónde una decisión - bien o mal - tomada es casi instantáneamente irreversible. La persona que aprieta el gatillo de un arma ya no puede ni corregir su puntería ni detener la trayectoria de la bala. El jugador de ajedrez que ha movido una pieza y la ha soltado no tiene más remedio que seguir jugando haciéndose cargo de esa jugada y de cada jugada anterior, siendo que todos los movimientos - tanto los suyos como los de su adversario - condicionarán las jugadas subsiguientes. Hay ocasiones en dónde tenemos que rendir examen con una maestra que nunca mira para otro lado.

Por norma general las situaciones del tipo gatillo son más maleables porque, aunque las consecuencias sean irreversibles, es muy frecuente que se mantenga la posibilidad de suspender - quizás en forma indefinida - la toma de la decisión. Por más irrecuperables que sean las consecuencias de apretar un gatillo, lo normal en este tipo de situaciones es que tengamos abierta la opción de no apretarlo en absoluto. Por el contrario, en las situaciones del “tipo ajedrez” no suele existir la opción de la negativa de la acción. Si nos hemos sentado a jugar, tenemos que efectuar movimientos, porque precisamente de eso se trata, y no sólo cada movimiento condicionará los subsiguientes sino que las reglas del juego establecen que debemos realizar al menos cierta cantidad de jugadas en un lapso de tiempo determinado. Estas situaciones se vuelven especialmente complicadas porque no sólo jugamos contra los movimientos, en buena medida imprevisibles, de un adversario sino también contra nuestras propias equivocaciones y, para colmo, también contra el reloj. Tomar decisiones en un entorno así puede volverse infernalmente difícil, como pueden atestiguarlo las úlceras gástricas de más de un gerente ejecutivo y de más de un hombre de Estado.

Allá por la década del ‘50, cuando todavía las computadoras se hallaban en el terreno de lo casi mágico y requerían algo así como edificios enteros para la instalación de una capacidad operativa no mayor que la de una PC actual, la literatura especializada de la época desbordaba de sesudos artículos que desgranaban prolijamente todos los argumentos existentes para afirmar que jamás una computadora sería capaz de jugar al ajedrez. Cuarenta años más tarde hemos tenido que archivar todos esos argumentos y soportar con estoicismo que una pantalla se burle de nuestra inteligencia anunciándonos jaque mate en quince jugadas.

Tenemos, pues, herramientas que permiten asistir nuestros procesos de toma de decisiones aún en este tipo de situaciones. Con todo, al igual que los métodos y procedimientos que nos permiten monitorear y controlar procesos prácticamente en forma casi instantánea, tampoco los métodos de análisis de combinaciones múltiples e intercondicionadas nos permiten hacer milagros. Porque, en última instancia, es cierto que las computadoras no “juegan” al ajedrez del mismo modo en que ningún sistema de inteligencia artificial realmente es capaz de “pensar”. Lo que sucede es que, por caminos distintos, los sistemas electrónicos llegan a resultados sumamente aceptables que, adecuadamente evaluados y utilizados, pueden reducir más o menos drásticamente nuestros márgenes de error. No evitan por completo que nos equivoquemos. Evitan únicamente nuestras equivocaciones más estúpidas, - lo que no deja de ser un mérito estimable -  y evitan gran parte de aquellas equivocaciones que nacen de la ignorancia, del olvido o de la falta de capacidad para interrelacionar una serie muy grande de información en un lapso de tiempo muy corto. Consecuentemente, nos ayudan a abrir los cerrojos que cierran “cajas”: los paradigmas, postulados y prejuicios; pero no evitan un grado bastante elevado de incertidumbre a la hora de diseñar proyectos a futuro.

3.8.1     Elegir un rumbo: misión y visión.

Sin importar la actividad que hayamos elegido y el puesto que ocupemos, la vida nos enfrenta con una exigencia insoslayable: tenemos que optar, elegir, escoger. Hay quienes hacen esto a medida que se ven obligados por los acontecimientos, improvisando una decisión tras otra sobre la marcha. Las empresas, los Estados y las grandes corporaciones proceden de un modo más metódico: planifican sus decisiones para el largo plazo.

Todas las escuelas de management  coinciden en señalar que lo primero a hacer en cualquier planificación estratégica es definir el rumbo. Para ello se definen normalmente dos parámetros: una visión de futuro y la misión del sujeto actuante dentro de esa concepción del futuro, sea ese sujeto una persona, una empresa o una institución. En otras palabras: se define “lo que quisiéramos que sea” o “cómo queremos que sea el resultado final” y, tomando este parámetro como referencia, se define luego “lo que haremos para lograrlo”. La función del primer parámetro es despertar nuestro entusiasmo y generar un compromiso; la del segundo es fijar pautas para la acción.

El problema de todo este tipo de construcciones intelectuales es que se desarrollan casi íntegramente en la esfera de las simples expresiones de deseos. Lo que quisiéramos que sea y lo que realmente será pueden llegar a constituir dos cosas muy distintas. Entre lo que decidimos hacer y lo que después realmente debemos, o podemos, hacer también hay muchas veces una gran diferencia.

Pero la mayor dificultad de todas es que, aún a pesar de su muy escaso grado de confiabilidad, necesitamos de estas construcciones auxiliares. No podemos trabajar sin entusiasmo y mucho menos podemos organizarnos si no tenemos un rumbo trazado. La visión no es suplantable por una mera consideración estratégica. El concepto de “qué nos gustaría lograr” no puede ser suplantado siempre por el más prosaico de “qué podemos conseguir”. La gente muere por ideales no por el saldo de una cuenta corriente.

Por su parte, la misión tampoco es suplantable por un constante re-accionar mediante improvisaciones sobre la marcha. Toda organización del trabajo requiere tanto de la visión de un “modelo terminado” como de la confección de un “plan de operaciones” que establezca las tareas primarias, las secundarias, las simultáneas y las que no se harán. Pero cuando se traza la misión, los proyectos no existen sino en la imaginación de quién los “visualizó” en su imaginación proyectada al futuro. La visión de una gran empresa, un gran país, una gran obra y hasta la de un simple edificio cualquiera no es sino una apuesta a futuro. La misión de quienes aceptan esa apuesta (los “stakeholders” en la jerga del management) sólo puede, por lo tanto, formularse ya sea en la forma de un acto de fe, o bien de un compromiso de voluntad. Y todos estos factores, que están en la base misma de nuestro sistema de toma de decisiones, conllevan múltiples incertidumbres.

3.8.2     Juntar los hechos

Todas las teorías de management coinciden en que, después de establecer el rumbo y el camino, lo primero a hacer es “recabar los hechos”.

El consejo, sin duda, es bueno; pero ¿qué hechos; cuales hechos?. La contestación clásica, por supuesto, es “todos los que sean relevantes para la cuestión”.  Otra vez: excelente consejo, pero: ¿cuales son los hechos relevantes, cuales los irrelevantes y cuantos son “todos”?. En una etapa en que la acción todavía no se ha desarrollado y el objetivo es tan sólo una apuesta a futuro ¿cómo hacemos para diferenciar lo relevante de lo irrelevante y, además, cómo se supone que sabremos cuando debemos parar de coleccionar datos?. Se ha hablado mucho de estos temas y se han publicado gruesos libros pero lo único que queda después de apartar la verborrea es nada más que una apelación a la intuición y al sentido común de la persona que se encuentra con la difícil responsabilidad de tener que tomar decisiones. La verdad es que no hay demasiadas reglas para todo esto, aparte de la un tanto elemental técnica de analizar amenazas y oportunidades del entorno junto con las propias fortalezas y debilidades.

La Historia está repleta de ejemplos para demostrar que lo aparentemente irrelevante era, en realidad, lo más importante para el futuro. Los incas conocieron la rueda; los griegos la máquina de vapor y ambos pueblos sólo utilizaron estos inventos para hacer juguetes. Los chinos inventaron la pólvora y durante siglos no la usaron para mucho más que para fuegos artificiales. El reloj digital es un invento suizo, pero cuando los relojeros suizos vieron por primera vez un reloj digital de cuarzo lo desecharon como algo poco serio. Años más tarde, los japoneses producían la bancarrota de la célebre industria relojera suiza inundando el mercado mundial con relojes digitales. Es muy fácil formular - a posteriori - la conclusión académica de que muchas veces lo aparentemente intrascendente es lo que produce el cambio. Pero, cuando tenemos lo aparentemente intrascendente debajo de las narices ¿cómo hacer para darnos cuenta de que eso es justamente lo relevante para el futuro?. Durante siglos se conoció la existencia de un líquido negro, pegajoso, de olor repulsivo que no parecía tener muchos usos prácticos. Hasta que un día alguien inventó el motor a combustión interna y el petróleo se convirtió en uno de los bienes estratégicos más críticos del mundo.

A la dificultad de establecer lo relevante se le suma la de saber cuando tenemos una cantidad suficiente de datos para juzgar una cuestión dada. Para analizar una trayectoria balística, es evidente que debemos incorporar la fuerza de la gravedad como dato. Pero ¿tendría sentido seguir y traer a colación toda la ley de Newton referida a la atracción de las masas en el espacio?. También es evidente que tendríamos que estudiar la química del explosivo que impulsó al proyectil. Pero ¿de qué nos serviría extender nuestro análisis hasta abarcar los explosivos nucleares?. Nuestro cerebro tiene una capacidad limitada. Precisamente por ello construimos sustantivos genéricos. Cuando decimos “enfermedad” es porque, en una operación de economía mental, agrupamos en un sólo concepto toda la vasta gama de patologías conocidas. Si cada vez que necesitamos usar el concepto de “enfermedad” tuviésemos que hacer la lista de todos los males conocidos no terminaríamos nunca el razonamiento. Hegel señaló, y con razón, que no podríamos pensar si para cada cuestión tratásemos de traer a colación toda la relación universal. Consecuentemente, el “recabar todos los hechos” es un buen consejo dictado por el sentido común que aconseja no ser superficial en el análisis. Pero su aplicabilidad práctica resulta difícil. Aún cuando el procesamiento electrónico de grandes bases de datos nos brinde hoy una ayuda sustancial que no tuvieron generaciones anteriores, la pregunta sigue en pié: ¿cuanto es suficiente?.

3.8.3     Analizar la realidad

Lo paradójico de toda esta problemática es que, básicamente, la reducción de nuestros márgenes de error y de incertidumbre no es tanto una cuestión de descubrimiento como una cuestión de selección. En la enorme mayoría de los casos los datos están allí, casi al alcance de cualquiera, delante de nuestros propios ojos. No es tanto una cuestión de encontrarlos sino más bien de verlos y evaluarlos correctamente. Lo que sucede es que se hace bastante difícil realizar esta operación cuando, como sucede por lo común, lo que se nos presenta es una realidad constituida por una maraña casi indescifrable de hechos, datos y fenómenos en dónde lo relevante y lo irrelevante se mezclan de un modo muy difícil de separar.

El panorama se aclara bastante, sin embargo, si aprendemos a mirar y a ver de un modo algo diferente al que estamos acostumbrados. Tenemos una visión demasiado mecanicista y dogmática del mundo, heredada, en parte del utilitarismo del Siglo XVIII y en parte de la escolástica tradicional. El futuro se nos escapa en muchas oportunidades por nuestra tendencia a querer reducirlo todo a esquemas mecánicos de causa-efecto regidos por principios universales absolutos. Nuestros análisis de la realidad se parecen demasiado a los que haría un mecánico para entender el funcionamiento de un tren de engranajes ubicado dentro de una máquina cuya finalidad es un misterio.

Frente a esto, estamos empezando a comprender la necesidad de adquirir una percepción sobre la base de procesos y sistemas estructurados. Ya el análisis meramente cuantitativo de la realidad, desde un criterio de causa-efecto, apunta en esta dirección. Wilfredo Pareto, por la vía del análisis estadístico, descubrió hace mucho tiempo que, para una cantidad muy grande de fenómenos, aproximadamente el 20% de las causas origina cerca del 80% de las consecuencias. Esto se condice muy bien con la distribución normal, puesto que el 80% de los fenómenos cabe cómodamente dentro de dos desviaciones standard de la media, lo cual ya nos permite al menos sospechar que debe existir cierta coherencia interna en la mayoría de los fenómenos.

Lo que sucede es que esta coherencia interna es muy difícilmente accesible mediante el razonamiento físico-mecánico puro. Un proceso es mucho más que la simple suma de fenómenos encadenados. Un sistema es mucho más que la simple suma de sus partes. Una estructura es mucho más que un simple “collage” de elementos. Para entender estas categorías hay que abandonar en alguna medida los ámbitos de la física y entrar en los de la biología. De hecho, para entender la realidad como un proceso, la analogía más inmediata que podemos establecer es con la Vida misma ya que, si hay algo en el mundo que constituye un proceso, ese algo es un organismo viviente.

Si queremos realmente atacar a fondo nuestras fuentes de error y lograr reducir al mínimo nuestras incertidumbres, el análisis que cabe hacer es el de la realidad entendida como un proceso en el cual interactúan sistemas estructurados. Recién poniendo los datos dentro de este marco general podremos entenderse en profundidad los factores que impulsan el cambio y prever posibilidades, probabilidades y grados de factibilidad con la mirada puesta en el futuro. No hacerlo así implicaría seguir buscando un determinismo que ejecute alguna fatalidad histórica o algún incontrolable azar universal.

3.8.4     La visión de conjunto

La pregunta fundamental es, pues, ¿qué sabemos realmente del mundo en que vivimos?. En el ámbito de las empresas y corporaciones estamos empezando a utilizar muy refinadas herramientas de análisis y procesamiento de datos. Pero en el ámbito del Estado, las instituciones sociales y la opinión pública en general nos seguimos manejando con las antiguas estructuras heredadas de los siglos XVIII y XIX. Todo ello en medio de todavía muy amplios márgenes de error e incertidumbre que sólo podremos ir reduciendo con una visión de conjunto más abarcadora, integral y estructurada del universo que nos rodea.

El siglo XX fue el siglo de los grandes inventos y los grandes avances tecnológicos. El siglo XXI, con toda probabilidad, será el siglo de profundos cambios estructurales. El desafío es detectar las esferas en que estos cambios se producirán y prever la medida en que resultarán posibles en absoluto.


4.     Los problemas concretos

En 1973, seis años después de la publicación de los trabajos de Kahn y Wiener, Konrad Lorenz  recibía el Premio Nobel de Medicina y Fisiología. Ese mismo año dió a conocer un pequeño trabajo, preparado originalmente como escrito para el festejo del 70 cumpleaños de Eduard Baumgarten, titulado “Los Ocho Pecados Mortales de la Humanidad Civilizada” y en el cual identificaba ocho riesgos particularmente graves a los cuales estaban expuestos los seres humanos civilizados del planeta. Esos riesgos siguen siendo actuales al día de hoy y, si bien es cierto que se les podría agregar un número considerable de amenazas potenciales adicionales, no menos cierto es que plantean cuestiones vitales cuyo tratamiento adecuado resulta altamente prioritario y sirven a la perfección para, al menos, ilustrar el tema que hemos venido desarrollando.

Hace, pues, ya más de 20 años atrás, Lorenz llamaba la atención sobre una serie potencialmente muy peligrosa de riesgos que debe enfrentar el mundo civilizado. Siguiéndolo muy libremente podríamos indicar los siguientes, en concreto.

4.1     Sobrepoblación.

La población mundial está en constante aumento. Se podrá discutir la tasa exacta de crecimiento; se podrá especular con la posibilidad o la probabilidad de que la curva se aplane en algún nivel determinado y se podrá discutir la tesis de Malthus en cuanto a si es, o no, aproximadamente correcto que esta población crece en proporción geométrica mientras los alimentos o medios de sustentación crecen en proporción aritmética. Podemos discutir todo lo que queramos. El hecho cierto, sin embargo, sigue siendo que al paso que vamos, en algún momento no demasiado lejano el planeta tierra no podrá sostener su población; al menos no con los niveles de consumo y la calidad de vida que actualmente poseen los miembros de las sociedades altamente civilizadas e industrializadas. El planeta es finito, sus recursos son finitos, sus posibilidades son limitadas. Aún cuando la explosión poblacional se estabilice, el sólo hecho de mantener y sostener miles de millones de personas con un nivel de vida similar al actual representa un drenaje sobre recursos naturales no renovables que, en el largo plazo, forzosamente desembocará en problemas de muy difícil solución.

Aparte de ello, aún cuando consigamos solucionar el problema energético, el problema alimentario y el problema del reciclaje de muchos materiales que provienen de ese drenaje de recursos no renovables, aún así seguiremos teniendo como problema a enfrentar las consecuencias producidas por el hacinamiento y la falta de privacidad que trae consigno la aglomeración de enormes masas poblacionales.

4.2     Alteración ecológica

No sólo la obtención de lo necesario para la vida de tantos millones de seres humanos es un problema. Cada día se convierte en una cuestión más crítica el impacto que sobre el medioambiente tiene la explotación de los recursos por un lado y, por el otro, la constante acumulación de desperdicios de todo tipo, muchos de ellos mediana o altamente contaminantes, generados precisamente por las actividades que garantizan nuestros niveles de vida.

Estamos descubriendo la dolorosa verdad y vigencia de dos leyes ecológicas muy elementales que nos dicen que en la vida nada es gratis y que todo va a parar a alguna parte. El problema ecológico es mucho más grave de lo que plantean los ecologistas más o menos románticos quienes, en realidad, parecen tener un interés mucho mayor en causarle dolores de cabeza a las grandes empresas que en comprender las verdaderas necesidades y relaciones ecológicas. Pero, al margen de que el argumento ecológico sea bien o mal, justa o injustamente, aprovechado y convertido en argumento ideológico contra las empresas que integran el sistema de producción capitalista; al margen de si la desaparición del león africano o la ballena azul tiene - o no - gran cosa que ver con las posibilidades de nuestra supervivencia sobre al planeta en condiciones aceptables; el hecho cierto es que los hábitos y niveles de consumo de los países desarrollados descansan sobre una actividad industrial que genera un impacto muy serio sobre nuestras condiciones ambientales.

Con ello la pregunta que se abre es la de hasta qué punto pueden alterarse condiciones a las que nos hemos venido adaptando durante cientos de miles y quizás millones de años de evolución como especie. Y la verdad es que no lo sabemos muy bien; lo cual constituye un serio problema no solamente para una correcta evaluación del grado de modificación admisible de nuestro “hábitat” terrestre sino que, también, es una de las cuestiones más espinosas que debe estudiar y tratar la investigación de nuestras posibilidades de avanzar sobre el espacio exterior. Porque la conquista de este nuevo espacio implicará, forzosamente, establecer relaciones con un medio para el cual la especie no está preparada por su evolución biológica y nadie sabe a ciencia cierta qué consecuencias traerá para el Hombre una adaptación a esos medios así como nadie sabe muy bien hasta qué punto podrán desarrollarse las técnicas de lo que en la jerga de los especialistas se llama el “teraforming” que se refiere a la reconstrucción de condiciones ambientales terrestres - o al menos parecidas a las terrestres - en algún otro punto de nuestro sistema solar o del espacio.

4.3     Autoagresión y competitivismo.

Sea como fuere, aún manteniendo los pies sobre la tierra se hace evidente que el “endu­re­ci­miento” de las condiciones de vida sobre nuestro planeta - el hecho de que esta vida se esté haciendo paulatinamente más difícil y más competitiva - está trayendo consigo fenómenos que van bastante más allá de la alteración de condiciones ecológicas.

La masificación de las sociedades no sólo ha reeditado a escala civilizada la competitividad de la primitiva “ley de la selva” sino que ha generado un conjunto de presiones que ha llevado a muchos seres humanos a competir incluso consigo mismos. Si bien es cierto que la selección natural ha sido el mecanismo biológico que ha permitido desarrollar nuestras facultades y capacidades como especie, no debemos olvidar que - históricamente hablando - la parte sustancial de este proceso se ha llevado a cabo dentro de un marco de competencia con las demás especies.

Por todo lo que sabemos, la selección extra-específica (es decir: la que se produce en virtud de la competencia con otras especies) ha sido el mecanismo primario de nuestra evolución, mientras que la selección intra-específica (o sea: la presión selectiva que se verifica dentro de la propia especie y de la cual podría citarse la selección sexual como un ejemplo) ha actuado apoyando y refinando, por decirlo de algún modo, aquél proceso principal. Una de las mejores pruebas de ello es la del funcionamiento de los mecanismos de agresión en las distintas especies: mientras que la agresión extra-específica prácticamente no conoce mecanismos de contención, al punto que permite a un animal matar a otro de distinta especie y comérselo, la agresión intra-específica está biológicamente regulada por toda una serie muy complicada de mecanismos heredados e instintivos que hacen, por ejemplo, prácticamente imposible que hasta los depredadores más feroces maten a un cachorro o a una hembra del mismo grupo y aún de la misma especie. Un lobo no sentirá impedimento alguno para atacar, matar, despedazar y comerse a una oveja. No obstante, le es tan instintiva y bio­lógicamente imposible matar a un cachorro o a una hembra de su propia especie que, incluso en las peleas entre lobos adultos de manadas adversarias, es suficiente que el derrotado adopte un com­portamiento similar al de un cachorro para que el agresor suspenda inmediatamente su ataque.

Lo que nos está sucediendo es que nos hemos virtualmente independizado por completo de los mecanismos de selección extra-específica por un lado y, por el otro, el hacinamiento de las megalópolis y la superpoblación está derribando los mecanismos reguladores del comportamiento intra-específico. En lugar de competir contra otras especies por el hábitat terrestre, estamos compitiendo entre nosotros mismos y hasta contra nosotros mismos lo que genera todo un ambiente de autoinstigación y autoagresión que, paradójicamente, mientras por un lado lleva al encapsulamiento social del individuo, por el otro lado conduce a un debilitamiento de los mecanismos inhibidores de la agresión intra-específica.

Nos estamos convirtiendo en lobos solitarios y agresivos lo que puede muy fácilmente conducirnos a una situación mucho peor que la imaginada por Hobbes cuando, en un sentido más bien alegórico, afirmó aquello del “Homo homini lupus”; el lobo es el lobo para el Hombre. Los lobos reales por lo menos tienen sus mecanismos de agresión intra-específica intactos. Nosotros estamos en el mejor camino de perderlos, con lo que el proceso selectivo al que nos estamos autosometiendo presiona hacia la mayor probabilidad de supervivencia de una especie de lobo humano egoísta, agresivo, impredecible y sanguinario hasta el suicidio.

4.4     Insensibilidad.

Que todo este contexto lleva a una progresiva insensibilidad social es algo que puede comprenderse inmediatamente. Un encapsulamiento egoísta, la falta de adecuados mecanismos de relación y comunicación, sumada a un aumento de la agresividad que conduce al menosprecio del semejante, generan - y forzosamente se basan en - un aumento sustancial de la insensibilidad o indiferencia por valores de comportamiento que hemos tardado milenios en adquirir.

Pero esto no es todo. También estamos insensibilizándonos artificialmente por el reiterado y permanente bombardeo de estímulos al que nos somete la vida civilizada. Una concepción que nos ha hecho apreciar el placer por sobre todas las cosas y huir del desplacer a cualquier costo y a cualquier precio, no sólo ha creado una sociedad hedonista sino una sociedad insaciable. No sólo estamos cultivando la tendencia a huir despavoridos de cualquier cosa que signifique dolor, incomodidad,  disgusto, dificultad y hasta esfuerzo. Además de ello estamos cultivando, con la misma intensidad histérica, la tendencia a correr como locos detrás de cualquier cosa que signifique placer, comodidad, confort, deleite, satisfacción o bienestar. Para nuestra cultura, la sensación de “bienestar” se ha convertido en sinónimo de “felicidad”.

Sucede, sin embargo, que nuestras sensaciones tienen particularidades curiosas: las percibimos muchas veces sólo por oposición y se saturan fácilmente si se las reitera. Disfrutamos de un buen descanso mucho más después de haber realizado un gran esfuerzo que después de haber estado una semana entera sin hacer prácticamente nada. Un ruido fuerte que, de pronto, rompe el silencio al que estábamos acostumbrados seguramente nos molestará. Si el ruido continúa llegará un momento en que la molestia se convertirá en angustia. Pero si seguimos expuestos a ese ruido de un modo constante e ininterrumpido, llegará otro momento en que nuestra sensación del mismo se habrá saturado y no solamente podremos acostumbrarnos a su existencia sino que, al final, terminaremos afirmando que ya ni siquiera lo oímos.

Sucede, sin embargo, que no sólo con los ruidos y algunos otros fenómenos molestos nos pasa eso. Con las experiencias agradables, con los placeres, sucede lo mismo. Un estímulo placentero, constantemente reiterado, lleva a la insensibilidad y necesitaremos cada vez un estímulo más fuerte para producir la misma sensación de placer. Y éste, no sólo es el principio básico de la sociedad de consumo sino de varios otros fenómenos como, por ejemplo, el de las drogadicciones, la pornografía y la dependencia del televisor. Cada vez hacen falta más estímulos para crear las mismas sensaciones hasta que se llega al punto en que el cúmulo de estímulos genera insensibilidad y la ausencia del estímulo crea un síndrome de abstinencia.

Se entra así en una carrera casi demencial por la búsqueda de estímulos placenteros y se produce una irritación casi insoportable cuando, sea por los motivos que fueren, dichos estímulos ya no están disponibles. Si unimos eso a un egoísmo exacerbado y a un descontrol de la agresividad, agreguémosle la tendencia a rechazar cualquier tipo de responsabilidad o de sacrificio, y el cuadro que se obtiene es el de una autodestrucción progresiva.

Nuestras estructuras sociales, toda nuestra cultura en realidad, se basan mucho más en el servicio que en el consumo inmediato. Hacemos, en realidad, muchas más cosas para los demás que para nosotros mismos de un modo directo. Cualquier trabajo, cualquier empleo, cualquier oficio, cualquier actividad se estructura directamente sobre el principio de la relación con los demás. El obrero de una fábrica de automóviles no produce autos para si mismo sino para los demás, el abogado no defiende sus litigios sino los de sus clientes, el médico no se cura a si mismo sino a otros enfermos, el empleado administrativo no atiende sus problemas sino los de las personas que se acercan a la ventanilla. Vivimos trabajando para los demás, haciendo cosas para los demás, atendiendo problemas ajenos y solucionando cuestiones que no nos atañen más que de un modo indirecto y sólo en ciertos casos.

Si destruimos el sentido de responsabilidad, que por siglos nos ha hecho capaces de asumir y soportar situaciones desagradables en función de un deber o de un servicio hacia los demás, si fomentamos el egoísmo hedonista que corre desesperado detrás de un aumento constante del placer y huye de esas situaciones desagradables como de la peste, entonces habremos destruido el fundamento mismo de la sociedad cuya actividad organizada nos permite, en absoluto, gozar de ciertos placeres. El “bienestar” y la “felicidad” no son objetivos. Son premios por cumplir o ayudar a cumplir con el objetivo. El objetivo es la especie y el aumento de sus posibilidades de acción y de opción.

4.5     Alteración genética

Y es precisamente el riesgo de la imposibilidad de la conservación de la especie lo que aparece como problema concreto cuando se siguen analizando todos estos factores hasta sus últimas consecuencias.

Desaparecida la presión selectiva extra-específica lo único que nos queda como motor de la evolución de nuestra especie es la selección intra-específica, y si esta evolución se halla regulada por factores como los que acabamos de ver, no hace falta - en absoluto - ser apocalíptico para predecir que nuestro futuro no aparece con colores demasiado brillantes. Debemos, sin embargo, poner las cosas en la perspectiva correcta: la descomposición de estructuras biosociales, es decir: de relaciones y comportamientos basados en instintos e impulsos heredados, no se produce de un día para otro.

Los procesos genéticos normales requieren varias generaciones y se hallan sujetos a una gama bastante amplia de variables. Así y todo, si bien no son instantáneos ni mucho menos, pueden llegar a darse con velocidades sorprendentes si concurren una serie de factores siendo el mejor ejemplo de ello nuestros animales domésticos.

La domesticación de animales salvajes, por ejemplo, produce anomalías en el comportamiento de la descendencia ya al cabo de muy pocas generaciones y, si tenemos en cuenta que, en gran medida, el Hombre se “autodomestica” y que el tiempo estadístico promedio de cada generación biológica humana se halla en el órden de los 25 años, no es para nada aventurado afirmar que, en un “pool genético” determinado y relativamente endogámico, pueden producirse alteraciones muy visibles al cabo de, digamos, unos 100 o 150 años. Y esto nos colocaría a medidados del Siglo XXII como límite previsible. Desde el punto de vista de una correcta perspectiva histórica no se trata de un futuro tan lejano. Poniéndolo en términos inversos sería como decir que hoy, podríamos estar sufriendo las consecuencias de un proceso biogenético que comenzó allá por la época en que Karl Marx escribía El Capital. Estúdiese como han cambiado los caracteres etnobiológicos de la población de América desde 1844 a la fecha, por ejemplo, y se tendrá una idea de la relativa velocidad con que operan los procesos relacionados con la autodomesticación humana.

Que estos procesos no tienen que ser forzosamente negativos o desfavorables es muy cierto. Pero, dados los demás riesgos que hemos señalado, es decir: dado el contexto general en el que transcurren y la presión selectiva intra-específica a la cual se hallan expuestos, difícilmente pueda decirse que los datos a nuestra disposición justificarían esa especie de optimismo profesional que nuestros políticos e intelectuales parecen sentir la obligación de exhibir.

Si mantenemos una cultura egoísta, agresiva, encapsulada, insensible e histéricamente insaciable durante lapsos no tan prolongados de tiempo, la lógica de la evolución indica que individuos egoístas, agresivos, egocéntricos y ambiciosos hasta la crueldad, tendrán más probabilidades de sobrevivir - o, al menos, de prosperar - que aquellos otros que no poseen estos caracteres, o que los poseen en menor grado. Nuestro mundo económico parece responder bastante bien a estos caracteres y nuestro mundo social y político se está contagiando aceleradamente de ellos. Los llamados a una mayor solidaridad y sensibilidad, desde la posición de una sensiblería más o menos lacrimógena, no constituyen barreras suficientes como para detener el proceso por el mismo motivo que casi 2000 años de prédica cristiana de amor, caridad y humildad no han conseguido evitar que cayéramos en la situación actual.

La prédica no suele tener gran influencia sobre este tipo de procesos aunque más no sea por la simple razón de que la prédica opera sobre normas educativas que regulan el comportamiento adquirido y los caracteres adquiridos no son de por si heredables. En cambio muy distinta es la situación de entornos y contextos que favorecen directamente la supervivencia y la reproducción de los poseedores de determinados caracteres, dentro de un “pool” o circuito genético más o menos endogámico. Y cuando los caracteres que constituyen la presión selectiva son de una categoría muy diferente a la que porta el promedio estadístico de la especie, la alteración genética es prácticamente sólo una cuestión de tiempo. No es que la especie se extingue. Al menos no necesariamente. Pero la media estadística promedio cambia y, al cabo de un número no tan grande de generaciones, el representante estadísticamente normal de la especie puede llegar a ser un individuo biológico tan completamente diferente de sus antepasados que al observador externo hasta le resulta difícil establecer una relación filogenética.

4.6     Interrupción de la tradición.

Con el ser humano, el proceso puede, además, retroalimentarse por muchos canales. Desde el momento en que la presión selectiva viene dada de un modo prácticamente exclusivo por las presiones del propio entorno construido por el Hombre, y desde el momento en que la caracterización de este entorno depende de múltiples factores culturales e históricos, una de las consecuencias más inmediatas de un cambio de valores selectivos es la rotura del nexo cultural que unía a los miembros de una generación con las generaciones anteriores constituyendo lo que conocemos como una tradición cultural.

Muchas personas - y no poca cantidad de intelectuales - cree ver en el concepto de “tradición” tan sólo algo así como una curiosidad folklórica. De hecho, sin embargo, la esencia del concepto va muchísimo más allá de un simple pintoresquismo regionalista. Todo nuestro conocimiento, todo nuestro saber, toda nuestra ciencia y tecnología, en una palabra: toda la base de lo que muy probablemente se convierta en el factor de Poder más importante del Siglo XXI, es nada más - y nada menos - que tradición acumulada. Todo lo que no heredamos biológicamente lo heredamos por tradición. La gran ventaja que tenemos sobre el gorila o el chimpancé es que nosotros sabemos qué pasó en 1850 mientras que el chimpancé probablemente ya no recuerda lo que pasó la semana pasada. Y es que, en realidad, nuestra forma de “recordar” el pasado es algo muy especial. Es una rara mezcla de registros documentados, transmisión oral, sobreentendidos, imitaciones, usos, costumbres y habilidades que van pasando de generación en generación mediante una forma muy curiosa de transferencia. De las tres generaciones que normalmente conviven en un momento histórico determinado, la más joven siempre trata de modificar, la más vieja siempre trata de conservar y la intermedia siempre tiene la difícil misión de compatibilizar los cambios previsiblemente necesarios con el mantenimiento de los elementos necesariamente fundamentales.

En una relación estructural de este tipo, se puede comprender que es vital una adecuada comunicación entre las generaciones que conviven. Y precisamente esta comunicación es lo que estamos descuidando peligrosamente. La generación de los ‘60 directamente odió a la de sus progenitores. Hoy muchos prefieren no recordarlo como que por regla existe la tendencia a olvidar lo desagradable, pero el conflicto generacional del los ‘50 y ‘60 fue feroz, cruel y, en no pocos casos, realmente sangriento. Incluso duró más de lo que normalmente debió haber durado en función de la edad biológica de sus participantes, dándole a la década del ‘70 un tinte de infantilismo revolucionario y cultural que costó muchas vidas y que, de alguna forma y en alguna medida, todavía subsiste en gran parte de nuestra “inteliguentsia”.

La generación de los ‘90 ha suplantado ese odio por una indiferencia casi absoluta. Es triste tener que constatarlo en muchos casos pero la verdad es que los hijos de aquellos que odiaron a sus padres resultan despreciados por sus propios hijos. Aquellos que se propusieron deliberadamente romper con la generación anterior se encuentran ahora con que no les resulta posible establecer contacto con la generación que les sigue. Quienes en nombre de grandes ideales creyeron que podían darse el lujo de tirar 10.000 años de historia por la borda y proponer una “nueva cultura” sobre la base casi exclusiva de una simple buena voluntad,  se encuentran ahora con que a la próxima generación le importan poco menos que un bledo aquellos grandes ideales. Todos los intentos de “resucitar” la mística de los ‘60 no han hecho más que arrancar algún suspiro de añoranza de quienes participaron de ella y que hoy están comenzando a peinar canas. La nueva generación no se ha dejado contagiar y probablemente un Cohn-Bendit sería silbado y abucheado hoy de la misma forma en que, en un momento dado, fue hostigado Marcuse por los militantes de su propia tendencia, quizás no con aquél rencor pero sí con una cantidad equivalente de indiferencia.

La continuidad de una tradición cultural depende del buen funcionamiento de una serie importante de relaciones estructurales. No las hemos perdido a todas y hasta pueden llegar a detectarse algunas que están mejorando visiblemente; perdiendo cierta rigidez y acartonamiento, haciéndose más abiertas, directas y sinceras. Quizás esta sea la herencia positiva de la generación del ‘60. La imaginación no ha llegado al Poder pero tiene hoy avenidas algo más anchas para circular. Lo que sucede es que hemos estado durante demasiado tiempo descuidando las reglas de tránsito y los vehículos que nos permiten la comunicación. Es posible considerar que la situación y las perspectivas generales han mejorado. El resentimiento, la amargura, el infantilismo intelectual y el caprichismo ideológico han mermado en buena medida. Pero la indiferencia tampoco es algo fácil de superar y, además, no solamente deberemos restablecer la comunicación generacional sino también una visión integral y coherente de la totalidad de nuestra tradición cultural.

Es muy probable que nuestros hijos tengan con los suyos una relación sustancialmente mejor que la que nosotros tuvimos con nuestros padres. De hecho, la nuestra con ellos - aún habida cuenta de las dificultades arriba apuntadas- ya es bastante mejor, al menos en una buena cantidad de casos. El problema es que eso, por promisorio y bueno que sea, por desgracia no resultará suficiente. Nuestra civilización no está sostenida por el caudal cultural de dos o tres generaciones sino por el resultado de una evolución histórica que se cuenta por siglos, si no por milenios. El riesgo de la pérdida de ese caudal implica el riesgo de perder la base misma de la perpetuación del Saber. Debe tenerse presente que el conocimiento tecnológico o científico, por más ordenado, sistematizado y almacenado que esté, no constituye de por sí un sustrato sólido. Una cultura no se “enseña” desde la cátedra, ni se accede a ella por medio de una base de datos. Tampoco se agota en un par de esculturas, pinturas, libros o composiciones musicales. Una cultura se cultiva de un modo muy similar a la forma en que se cultiva una amistad, una relación.

De hecho, una cultura es una relación. Es la relación intelectual y emocional de las generaciones vivientes con todas las que la precedieron y es la única herramienta de la que disponemos para aprovechar nuestra experiencia en función de los objetivos a futuro que nos imponemos. Una cultura no es una colección de datos, fórmulas, hipótesis, teorías u obras de arte. Las tradiciones culturales no se almacenan ni en museos ni en bibliotecas universitarias. Una tradición cultural es, ante todo, una concepción estratégica, basada en la experiencia previa, acerca de los mejores métodos y procedimientos que hemos ido creando y ensayando para obtener los datos, descubrir las fórmulas, elaborar las hipótesis, verificar teorías y crear nuestras obras de arte.  Una tradición cultural no es una recopilación de las cosas que se hicieron. Es el caudal de conocimientos que tenemos acerca de cómo se hacen las cosas, cómo pueden intentarse, qué vale la pena intentar, cómo vale la pena intentarlo y cuales son nuestras posibilidades de éxito en función de nuestras experiencias pasadas.

Por ello es que, para la correcta apreciación de este riesgo, resulta fundamental una visión histórica despojada de prejuicios. Si a una dificultad de comunicación entre generaciones le sumamos una visión histórica prejuiciosa, tendiente a demostrar la más variada gama de hipótesis y no a probarlas para ver si resisten la prueba, entonces se llega muy fácilmente a la conclusión de que cualquier cosa es posible porque, para demostrarlo, solamente hay que fabricar un edificio intelectual con los argumentos adecuados.

Si el riesgo de una disrupción en nuestra tradición amenaza con hacernos perder la continuidad de la evolución cultural, el riesgo de aceptar doctrinas que no son más que teorías caprichosamente fundamentadas amenaza con hacernos perder nuestra noción de lo posible y de lo probable. Cuando esas doctrinas se simplifican luego en forma de ideologías aptas para su difusión masiva se produce, además, el daño adicional de reforzar el error original mediante un consenso inducido, tanto más fácil de conseguir mientras menos experiencia - vale decir tradición - cultural posea la gran masa sobre la que se actúa. En muchos casos hemos construido verdaderos andamiajes intelectuales con argumentos cuyo único valor es el de que nos gustaría que fuesen ciertos, afirmando luego que eran ciertos por la sencilla razón de que toda una multitud de personas quisiera creer en ellos.

4.7     Influenciabilidad y adoctrinabilidad.

Las hipótesis constituyen una poderosa herramienta para el cambio. Quizás la más poderosa de todas. Prácticamente todo proyecto de cambio parte de alguna hipótesis de trabajo o de un conjunto de hipótesis. Sin embargo, la forma y el modo en que arribamos a la formulación de una hipótesis es muy curiosa: casi siempre es completamente irracional o, por lo menos, muy fuertemente irracional. Existe un viejo aforismo que dice que todo trabajo científico se compone de un diez porciento de inspiración y un noventa porciento de transpiración. Pues bien: el diez porciento de inspiración corresponde a la formulación de una hipótesis y el noventa porciento de transpiración al trabajo que, por lo general, hay que invertir en probarla.

Es comprensible que, dadas estas condiciones, exista una tendencia bastante fuerte a tomar atajos sobre todo cuando, como ha sucedido en tantos casos, quien establece la hipótesis termina enamorándose de ella. Y también es comprensible que quien se ha pasado muchos años construyendo pacientemente todo un complejo edificio de pruebas para sostener su hipótesis no esté demasiado dispuesto a tirarlo todo por la ventana solamente porque un par de hechos rebeldes insiste en no querer “encajar” en el esquema. De hecho, la situación es bastante complicada porque, desde un punto de vista genuinamente científico, ni un número muy reducido de datos es suficiente para levantar una hipótesis, ni tampoco un par de datos sueltos discordantes es suficiente para derribarla. Una buena hipótesis es aquella que permite integrar la mayoría de los datos conocidos y más adelante, cuando la hipótesis se desarrolla hasta convertirse en teoría, podemos científicamente considerar como buenas aquellas teorías que permiten la integración de prácticamente todos los datos conocidos. Así es como de verdad funcionan las cosas y así es como realmente producimos nuestros cambios.

Pero el panorama se hace distinto cuando comenzamos a simplificar y hacemos de la teoría una doctrina primero y una componente ideológica después. Por norma general, las hipótesis resultan creadas por una persona; la inspiración nace en un cerebro ya que realmente resultaría difícil - por no decir imposible - hallar algún ejemplo de “inspiración colectiva”. Las teorías, a su vez, han sido también desarrolladas generalmente por una persona o, a lo sumo, por algún equipo muy reducido de personas. La “inspiración” científica no es un artículo de distribución masiva y la “transpiración” científica no goza precisamente de gran popularidad.

Pero después vienen los discípulos. La teoría se incorpora a la tradición y es transmitida a generaciones posteriores y, en muchísimos casos y sobre todo en los últimos siglos, lo que sucede después es - simultáneamente - una exaltación y una simplificación de la teoría. Cuando caen en la cuenta de que explica prácticamente todos los datos conocidos, los discípulos se enfervorizan, se entusiasman, caen en la euforia y terminan declarando que la teoría está “científicamente demostrada” (lo cual es cierto) y que, por lo tanto, constituye la explicación definitiva a todas las cuestiones con ella relacionadas (lo cual es falso).

Con ello se ha construido una doctrina que opera, aún proviniendo - como proviene - del mundo científico, exactamente del mismo modo en que lo hacen los dogmas de fé. Las fallas en los mecanismos de transmisión de la tradición y una predisposición prejuiciosa que sobrevalora las posibilidades de los métodos científicos, hacen perder de vista a los discípulos las dudas, prevenciones, reparos y recelos que los creadores de teorías siempre tienen - sobre todo sin son intelectualmente honestos y no resultan prisioneros de una soberbia académica que, de tanto en tanto, también aparece. Carentes de este elemento de prudencia y cordura, los discípulos muchísimas veces devienen en verdaderos apóstoles que terminan haciéndole decir al Maestro cosas que éste nunca dijo y que hasta se hubiera negado decir dado el caso. Los discípulos de Marx y Freud podrían ser citados como casos ya casi clásicos en este sentido. Y la lista Maestros tergiversados sería, decididamente, muy larga.

Convertida en doctrina, una teoría no sólo pierde de vista todos los elementos que ya originalmente no “encajaban” - o lo hacían pero un poco a contramano - sino que se petrifica, perdiendo además la capacidad de ir incorporando todos los datos nuevos que, inevitablemente, van apareciendo y de los cuales resulta ser que tampoco se integran coherentemente a la construcción intelectual. Hoy, en muchos casos, lo que estamos haciendo es simplemente barrer bajo la alfombra toda una gama importante de fenómenos sólo porque no hay forma de hacerlos engranar con las doctrinas vigentes.

Procesos biológicos enteros son olímpicamente ignorados tan sólo porque no hay forma de compatibilizarlos con la doctrina ambientalista que afirma que todo ser humano nace como una especie de hoja en blanco siendo todo su posterior desarrollo obra de la educación o cierto determinado condicionamiento ambiental. Hechos históricos de real envergadura son supinamente ignorados porque se dan de patadas con las doctrinas vigentes que afirman un determinismo económico y una supremacía prácticamente absoluta de los factores racionales y materiales. Una enorme cantidad de usos, costumbres y tradiciones se declaran alegremente “superadas” tan sólo porque no sabríamos como integrarlas a nuestras doctrinas sociológicas, psicológicas o económicas. Toda nuestra noción del cambio está tremendamente distorsionada porque el futuro posible y probable no termina de entrar en los cálculos de nuestras doctrinas políticas, revolucionarias o filosóficas. De este modo, la doctrina se convierte progresivamente en un dogma de características casi religiosas y es bastante probable que el relativo debilitamiento de las religiones tradicionales se deba - al menos en parte - al cúmulo de cuasi-religiones sustitutas o artificiales que hemos estado creando.

La situación empeora cuando todo esto adquiere un contexto ideológico en el cual el dogma de fé, además de petrificado, se halla abusivamente sobresimplificado y masivamente difundido. Aquí es dónde aparece el riesgo de lo que técnicamente se ha dado en llamar la “adoctrinabilidad” del Hombre actual y que se refiere a la facilidad pasmosa con que amplias masas de la población aceptan, prácticamente sin crítica alguna, toda una serie de doctrinas e ideologismos. Dentro de un marco de hacinamiento demográfico, condiciones ecológicas adversas, agresividad social, insensibilidad progresiva, selección genética adversa y disrupción de la tradición cultural, la sobresimplificación de nuestros problemas - para colmo con soluciones propuestas no sólo también sobresimplificadas sino, además, deficientemente elaboradas - necesariamente produce una desorientación poco menos que monstruosa.

Producto de esa desorientación fenomenal es la relativamente fácil influenciabilidad del individuo-promedio. Todos los días se inventa una moda nueva, todos los días aparece un “tema” nuevo, todos los días se ensaya algún argumento, todos los días se propone alguna nueva solución milagrosa, algún producto, alguna alternativa, algún sustantivo cualquiera adornado de numerosos superlativos. En muchos campos, la técnica ha llegado a tal grado de rutina y perfección que ya ni hace falta partir de una hipótesis y pasar por el trabajoso proceso de construir una teoría para terminar arribando poco a poco a una doctrina y a una simplificación última. Sobre todo fuera del ámbito algo más estricto de las ciencias exactas, se está volviendo bastante frecuente la práctica de hacer una ensalada intelectual con seis o siete argumentos más o menos elaborados y presentar luego esa especie de principio de hipótesis de trabajo como si fuese una componente ideológica completa con posibilidades de concreción futura.

El riesgo de esto es que no sólo nos imaginamos un futuro probablemente imposible sino que, encima, lo creemos fácil. Todo nuestro sistema educativo, ahogado por la doctrina de un igualitarismo mítico, se halla abocado a hacer “fácil” el aprendizaje para los alumnos. Lo único que hemos conseguido con ello es un grado cada vez mayor de especialización unilateral porque, para hacer “fácil” lo difícil, estamos segmentado lo complejo en unidades de conocimiento cada vez más pequeñas a fin de que hasta un bobo pueda asimilar algo sin demasiado esfuerzo. Desde hace décadas, nuestros sistemas educativos han venido aplicando al Conocimiento el mismo principio de segmentación y especialización que Adam Smith descubrió respecto del Trabajo.

Pero así como la interrupción de la tradición produce un conocimiento desvinculado de sus raíces - y, por lo tanto, un conocimiento más pobre - el facilismo intelectual produce un conocimiento desvinculado del contexto - y, por lo tanto, personas sin espíritu crítico. Careciendo de espíritu crítico y, para colmo, incesantemente bombardeado por montañas de información incoherente e inconexa, el Hombre-promedio de nuestra civilización resulta enormemente influenciable. Termina creyendo las estupideces más inverosímiles solamente porque las ha visto por televisión acompañadas por algún comentario aproximadamente bien hilvanado. No se detiene a pensar en lo que le muestran, no analiza lo que le dicen, discute solamente cuando sospecha que alguna conclusión puede llegar a serle desagradable. Aún aquellas personas que no adoptan una pasividad casi absoluta frente a los medios masivos de difusión terminan muchas veces rebelándose en contra de proposiciones equivocadas con argumentos también equivocados, generándose situaciones en las que resulta difícil determinar qué es peor: si la enfermedad o el remedio propuesto.

4.8     Catástrofe tecnológica

Es obvio que si la enfermedad ha sido mal diagnosticada el remedio difícilmente cure al enfermo. Y esto nos lleva al último de los riesgos de la lista que es el de una catástrofe tecnológica. Un aparato tecnológico tan endiabladamente complejo como el que hemos montado no podrá, en el largo plazo, ser dominado ni controlado por seres humanos expuestos a tantos riesgos.

En la época de la Guerra Fría y los años subsiguientes el gran temor era a que alguien “apretara el botón” nuclear, ya sea por error, ya sea por irresponsabilidad, ya sea por puro accidente. Con la caída de la Unión Soviética y una relativa distensión entre las potencias nucleares, el terror al holocausto nuclear ha mermado en buena medida - aún cuando la cantidad de armas nucleares no lo haya hecho tanto. Tenemos todavía una cantidad nada agradable de artefactos nucleares diseminados por demasiados lugares y, precisamente luego de la caída de la URSS, no estamos para nada seguros de que todos se hallen en manos confiables.

Pero, sea como fuere, es cierto que el peligro de un enfrentamiento nuclear ha disminuido - al menos por ahora - y, en última instancia, ese riesgo es uno de los más fáciles de evitar. Para no provocar una catástrofe con nuestras armas nucleares basta con no usarlas. Más seguro sería, por supuesto, eliminar las existentes. Y más seguro aún sería no producirlas en absoluto. Al fin y al cabo su utilidad primaria nunca fué más que disuasiva y, con los elementos de detección y vigilancia electrónicos que poseemos, más las posibilidades de intercepción y destrucción que se hallan al alcance de la tecnología actual, resulta por lo menos dudosa la viabilidad de usar armas nucleares con alguna garantía razonable de éxito para la parte agresora. De modo que este riesgo, si bien no eliminado, podemos considerarlo al menos como no inminente. Acaso sea conveniente repetirlo: por ahora.

Sucede sin embargo que el peligro nuclear no es el único que constituye el riesgo de una catástrofe tecnológica. Tenemos varios otros riesgos con los que, tarde o temprano, deberemos tomar alguna medida de control. Todos los fenómenos que responden aproximadamente a una progresión geométrica o a funciones exponenciales resultan tremendamente difíciles de controlar y vigilar. Sobre todo cuando contamos con seres humanos cuyo mecanismo mental no está preparado más que para sencillas progresiones aritméticas y por lapsos de tiempo que no requieran un gran esfuerzo.

Los proyectos de economías a escala global con sus mercados mundiales y, previsiblemente, sus estructuras políticas también mundiales resultan conceptualmente débiles y técnicamente insostenibles porque parten de la suposición de que estas megaestructuras podrán ser manejadas centralizadamente con una ejecución encomendada a seres humanos científica, cultural y socialmente similares a los actuales, que se desempeñarán en un marco institucional y administrativo aproximadamente similar al actual. La propuesta es inaceptablemente riesgosa. Las chances son de que no funcionará y, aún en caso de poder implementarse, funcionará mal.

La única estructura sociopolítica posible para un proyecto que abarque la totalidad del planeta es una estructura que permita una determinación central, clara, concisa y compacta de los objetivos fundamentales; una discusión amplia y descentralizada de los proyectos; una toma centralizada, homogénea y coherente de las decisiones; y una ejecución coordinada y descentralizada de las actividades. Los seres humanos que actualmente están sobrepoblando el planeta sencillamente no están en condiciones de ejecutar este proceso. No han sido formados para hacerlo, algunos no tienen ni la capacidad, ni el talento para hacerlo y otros directamente no querrán hacerlo porque preferirán seguir aferrados a sus prejuicios ideológicos.

Podemos ser fríos y crueles aquí: podemos decir que, lamentablemente, los últimos deberán ser físicamente eliminados. Aún así: la formación - a escala planetaria - de toda una nueva generación de dirigentes, administradores y supervisores, conscientes de su responsabilidad y dispuestos a aceptarla, no es una tarea que pueda ser cumplida en poco tiempo. Estamos hablando de una estructura mundial. No bastará con “fabricar” especialistas en Harvard, Cambridge, Oxford, Eaton, el MIT y algunos otros centros europeos, americanos y asiáticos. Por un lado, los verdaderos dirigentes no pueden ser fabricados como hamburguesas. Por el otro, la esencia misma de las estructuras imperiales, el secreto mismo de su solidez y perdurabilidad, exige que haya una adecuada cantidad de dirigentes locales operando en cada región.

Roma pudo exigir que se diera al César lo que era del César porque, en contrapartida, el César pudo ofrecer lo que sólo el César estaba en condiciones de dar. Lo que Roma nunca pudo hacer es exigir que se diera al César lo que hacía falta para administrar la provincia - siendo que la administración de los asuntos estrictamente locales nunca fué de la incumbencia del César - y dar una mala administración a cambio. Una buena administración - sobre todo en un imperio global sujeto a una gran presión demográfica - dependerá de una cantidad enorme de funcionarios muy bien compenetrados tanto de la planificación central como de las particulares condiciones locales.

Pretender suplantar este “cuerpo de oficiales” con virreyes y capataces enviados desde el poder central es sencillamente infantilismo político. Pretender suplantarlos por una red de hombres de negocios unidos - o mejor dicho: agrupados y sobornados - por el lucro como único interés común es una tontería que ya le ha salido muy cara a los Estados Unidos. Es pensar el imperio desde una óptica imperialista y volver a caer por caminos distintos en los mismos errores. Si la población arraigada a las regiones no participa orgánicamente del proyecto, los “virreyes” - tarde o temprano - serán expulsados o derrocados. Y si en ese momento quedara una gran estructura tecnoindustrial en manos de quienes no están preparados para controlarla, el riesgo de una catástrofe tecnológica estará allí, a la vuelta de la esquina.

 

5.     Conclusiones

Un listado completo de todas las conclusiones posibles sería casi seguramente de una extensión aún mayor que todo lo expuesto. El mundo actual, sometido a una interrelación cada vez mayor de sus integrantes, expuesto como está a una serie muy importante de cambios, no resulta en absoluto fácil de analizar. Mucho menos fácil será, en consecuencia, formarse un cuadro claro de sus posibilidades futuras.

Pero en esto, como en muchos otros casos de la vida real, existen buenas y malas noticias. La mala noticia es que nuestro futuro se halla amenazado por muchos y muy serios riesgos. La buena noticia es que estamos desarrollando herramientas razonablemente eficaces para manejarlos.

Sin embargo, es imperativo que dejemos los extremismos del infantilismo intelectual de lado y - antes de emitir bombásticos juicios de valor, ya sea acerca de nuestras herramientas o de nuestros riesgos - nos concentremos por un momento en decidir qué es importante, qué es superfluo, qué es transable y qué no es negociable bajo ninguna circunstancia para cada uno de nosotros.

Los riesgos que podemos aislar son serios. Con las herramientas que tenemos el futuro se nos está haciendo bastante previsible. Pero, más allá de esto, si realmente queremos ser actores más que espectadores pasivos de un espectáculo dirigido y montado por otros, tendremos que poner en juego nuestra creatividad e imaginarnos el Futuro que sinceramente pretendemos y al cual honestamente estamos dispuestos a edificar, participando y trabajando en su construcción todos los días.

Cada país, cada cultura, cada sociedad en este mundo globalizado que nos presentan las tendencias actuales tiene ante sí una decisión muy importante que hacer: la de optar por un órden de prioridades, la de establecer una Escala de Valores, la de definir para si una Visión y una Misión en lo universal si es que quiere preservar su identidad. No hay ni puede haber recetas para esto. Cada país, cada cultura, cada sociedad tendrá que buscar en su idiosincracia, en sus tradiciones y en sus seres humanos los elementos necesarios para tomar esta decisión de un modo realista y satisfactorio.

Si lo hace, tendrá luego que poner en juego su Voluntad de Poder para defender la posición adoptada y construir su futuro. Si no lo hace; o si habiéndolo hecho no consigue poner en juego la voluntad necesaria, no tendrá más futuro que el que otros le dicten o le impongan.

 

 

Inicio

Artículos

Ensayos

Libros

Varios

Catálogo

Dénes Martos 

 

Hosted by www.Geocities.ws

1