COVID-19, Management, and the Future to Come

As I sit in my office, on March 16 I will have the odd honor of celebrating one year of doing business submerged in the corona virus crisis. I cannot speak openly about business matters of the company I work for, but I can say we correctly managed and sailed the murky waters of the disaster executing the right moves. We learned many lessons from the outcome. The one lesson I hold now dear is that this is not over, and that many people incorrectly think it is. 

The world will move on (the world always does.) But the world moving on is not synonymous with the world returning to normal. Things will not go back to normal, and those incapable of assimilating this notion are doomed to fail or fall short of their expectations. 

For starters, the COVID-19 is probably one of many black swan events sure to occur in the nearby future. The virus surprised everyone but epidemiologists around the world who had been warning about such an event for almost a decade now. The world has now over seven billion people. The number is putting stress on our environment, and surely we passed the line of how many is the right number of people to inhabit the land long ago. It’s only natural that under the actual scenario of climate change, overpopulation, depletion of resources, and general attitude to kick the problems forward for some future generation that might care, natural black events such as disease, pandemics, weather phenomena, and the like will play havoc with our lifestyle.

For those young enough to start a life, I would suggest sticking to a minimalistic one. There are plenty of videos on the web on how a minimalistic approach can lead to great results. I am guilty of not following that same advice, which further complicates my decision making process. For those like me sooner to retire than not, it represents a great opportunity to cut our losses short and retire to a more modest, but in no way less fulfilling life. For those stuck in the middle, it gets more complicated. 

The economies of Latin America won’t pick speed for the next five years or so. Sure, big corporations will make the most of the situation and regain lost market share and revenue fast. But big corporations are not the other 99% of Latin America. Big corporations are not even the other 99% of workers and executives working for them, many who are either furloughed, lost their jobs, or are taking on more work and less pay just to keep afloat. 

The demand for anything is less. The demand for food is less. The demand for leisure is less. The demand for clothes, shoes, computers, furniture, everything is less. Yes, some things sold-out. PS5 and new XBox sold-out. But I wonder how many units were produced versus the pandemic forecast. I have reduced inventories far below the recommended level, adjusted for pandemics and then some, to balance imperfections between demand and supply. I have seen a similar pattern in iPhone 12 except for the mini, which Apple produced in quantities to cater the voices of thousands of consumers who then rushed to buy normal and plus sizes, proving consumer sentiment analysis is anything but a fickle art even when using sophisticated AI techniques.

In the future access to credit will be restricted, but I would warn anyone to use leverage as a way to kickstart a business. If the crisis taught us anything, it is that leveraged operations were the first to fall. In the early beginning of the pandemic everyone agreed cash flow was king and that cash accounts were the vehicle to survival. For those employed or freelancing, I would recommend going out of their way to save 12 months (yes, twelve, not eight as everyone else has proposed before) of expenditure for emergency funds. It is a large sum, none the less one that might be in need given the extension of the pandemic and future black events. 

That is a perfect segway for my next thought: any business should start without leverage and be capable of monthly flows with return on investment from day one. That is a nearly impossible objective, yet a lot of people survived thanks to rapidly shifting focus, and assessing a new operations model.This is not just small business but what I call survival business: the girl who I hardly know but uses her small, low-cost Kiah Picanto to deliver food on weekends from restaurants at U$2.50 a trip, or the service person for A/C units who was furloughed but kept a good database of customers who like me resorted to tertiary assistance in order to maintain the apartment infrastructure going while in lockdown. They made do with whatever they had to generate cash flow immediately, maybe not enough, but certainly more than nothing. 

Can you make your business model black swan proof? Can anyone make their business model resilient enough to guarantee operations despite weather events, pandemics, wars, disruption of services such as web, wireless, etc.? I doubt anyone can, but at least we can take measures to minimize the effect. I think retail has a long way to go before expansion of brick and mortar, and probably expansion of brick and mortar should be ditched altogether for a fully digital model. The bad thing about this is retail is a good contractor of people, people who do not make much but certainly make more than unemployed ones. Digital business only hires at the top (programmers and engineers who have the job cut out for them and will probably thrive) and the bottom (low wage fulfillment center workers toiling in a warehouse dispatching boxes, or the drivers that accompany the movement.)

Ghost  kitchens probably fared better than restaurants in the pandemic, and I know this to be a fact in Panama. Ghost kitchens however lost revenue to the hundreds or thousands of people furloughed or fired, who turned to the Internet, social media, and their friends, offering food service of all kinds: desserts, sandwiches, pizzas, and many more amenities of the cuisine world. The consumer is probably used to delivery and staying at home and will shy away from restaurants for a long time. Some might not even have the money to do so even if they wanted. I suspect young people will leave the house for bars and food before anyone else, since they are the ones to sustain the least chance of contagion in the next months before full vaccination, and, well, they are young.

The labor climate is tricky. Thousands of young people will enter the workforce soon and compete for whatever little positions are left in a world of economic recession fiercely. People such as myself will have to fight peers thirty years younger, who are willing to work more hours for a fraction of the cost. Companies will push for such a change, inviting older executives to move from salaried to freelance work. Many will revolt at the idea but I would indicate this is not a bad move, since those with significant skills, knowledge and experience will make a substantial living working less hours and securing a place in their companies because others actually need them. It creates a necessity of service without the actual friction of competing inside the corporate structure. 

Inside corporations, and outside for those working on their own, the trinity of credit, risk, and cash flow will become the foundation stone of operations. We can no longer bear the uncertainty of risk unless there is sufficient free cash flow to fund such activities without major impacts to one’s financial position. We can no longer bear credit to leverage operations that could go months on end without revenue and thus be asphyxiated by debt. And we can no longer bear operations that don’t return frequent inflows of cash to sustain a non-leveraged operation desperate for sources of income. 

In resume, avoiding credit, bootstrapping for low-risk business models that quickly generate sources of revenue is the way of the next five years. And should black swan events become more prevalent, the way for the next decade or more. 

Review: Google Machine Learning Crash Course

Desde el comienzo Google fue un pionero en el uso de metodologías de machine learning para recopilar, ordenar y extraer sentido de las grandes cantidades de datos que generan. Trabajar para Google es una de las posiciones más buscadas en el mundo. Como una de las empresas más poderosas del globo, se dan el gusto de emplear lo mejor de lo mejor en todos los campos. Por ejemplo, cuando decidieron implementar el uso de Python como tercer lenguaje de programación (solo usaban C y Java hasta entonces) contrataron a Guido Van Rossum, ¡el dictador benévolo de por vida y creador de Python! Obviamente, tienen algunos de los mejores cerebros del mundo trabajando en cualquier cosa que tenga que ver con data.

Ahora bien, no todo el mundo en Google es un Data Scientist, y muchas veces un ingeniero querrá utilizar en su programa un poco de machine learning, no mucho, y seguir adelante con otros temas. Para tal fin Google tiene un programa llamada el Google Machine Learning Crash Course, un curso rápido para aprender aprendizaje automatizado, lo necesario para implementarlo sin destinar años de estudios.

En este blog, analizamos qué tan efectivo es el programa.

Los Temas de Hoy

Los temas de hoy son cinco:

  1. ¿Qué es exactamente el Google Machine Learning Crash Course?
  2. ¿Cómo funciona y cuantas materias son?
  3. ¿Quiénes son los profesores?
  4. ¿Cuánto cuesta? Y finalmente,
  5. ¿Vale la pena?

Qué es el Google Machine Learning Crash Course

El Google Machine Learning Crash Course es un curso rápido para aprender aprendizaje automatizado de acuerdo con el estilo de Google. Esto es muy importante, ya que no es un curso de ciencia de datos, ni de estadística. Tampoco está diseñado para mi o para ti, sino para los ingenieros de Google que están acostumbrados al lenguaje de Google y la manera de trabajar de Google. En inglés, crash course es un curso rápido y de emergencia, algo para transformar a un novato en un operador de una disciplina en el menor tiempo posible. La idea principal del curso es tomar ingenieros que saben mucho de programación, y que quieren implementar un poco de código de aprendizaje automatizado en sus programas, por ejemplo, para un sistema de recomendación o un algoritmo de clasificación. Esto pesa mucho en los materiales finales, ya que nunca se alejan mucho del propósito en mente.

Cómo Funciona y Cuántas Materias Son

No puedo hablar de materias, pero si puedo hablar de temas. Todo el curso convive en un sitio web manejado por Google, donde ahora se agregaron otros cursos adicionales y complementarios de Preparación de Datos, Clustering, Problem Framing, etc. Cada tema incluye una sección de videos producidos por el staff de Google explicando la teoría, y amplias páginas de teoría adicional para los que quieren tomar notas.

“Siendo el nerd que soy, comencé el curso manteniendo notas prolijas. Al comienzo pensé que estaba arruinando un cuaderno nuevo, pero ahora me doy cuenta de que quizás no me alcance para cuando haya terminado los cursos adicionales.”

Nota del Editor

El curso comienza con los prerrequisitos de como plantear un problema de aprendizaje automatizado, que debe ser un reto para los ingenieros que salta de AGILE y SCRUM al método científico. Luego comienza desde el punto focal de todo lo que hace Google: Gradient Descent.

Hagamos un alto. El descenso de gradiente es una técnica sofisticada de minimizar una función con una o más dimensiones, ajustando los pesos de sus clasificadores que por lo general se encuentran en forma de tensores. Cuando el problema tiene más de dos dimensiones, la función puede tener más de un punto bajo que haga difícil que gradient descent ubique el mínimo. Google se apoya mucho en su librería de TensorFlow para desdoblar los hiperplanos hasta llegar a un punto donde la función se mantiene y un problema que no parece lineal se resuelve con un discriminante lineal.

A partir de aquí, la teoría avanza explicando como aplicar tensores a la resolución de problemas lineales, que es una función de pérdida, como aplicar generalización, y el uso de juegos de datos de entrenamiento, validación y test.

“Tengo que confesar que, en esto, Google tiene la explicación más sencilla de CROSS VALIDATION. Quizás porque es practica sin tanta teoría.”

Nota del Editor

Para explicar resolución de problemas sin solución lineal aparente, el curso introduce el concepto de FEATURE CROSSES. Luego sale de los problemas de resolución lineal a otros más avanzados y toca la teoría y práctica de regresión logística, clasificadores, redes neuronales, y embeddings.

No hay muchos exámenes o pruebas, pero con cada tema mayor se incluye un ejercicio completo de entrenamiento de datos y creación de un modelo final en Python. Para tal fin Google usa el sistema de Google Colaboration, que por lo que entiendo es la implementación de Google de Jupyter Notebooks pero con 1,000 veces más velocidad. Todos los problemas se resuelven usando TensorFlow, redes neuronales, y tensores.

De hecho, otro tipo de ejercicio permite resolver problemas de redes neuronales de forma visual, tratando de crear clasificadores que minimicen una función de pérdida. Al manipular todos los hiper parámetros, incluyendo el número de capas y cuantas neuronas por capa, se entiende bien el concepto de redes neuronales y qué es cada cosa (y porqué se aplica…)

Los Profesores

Todos los videos los explican varios de los ingenieros de Google que se turnan con los temas. Sin ser profesores profesionales, se notan que todos son genios, que todos explican los temas muy bien, pero que a la vez ninguno entra profundo en las lecturas. Ningún video se pasa de diez minutos.

Una mención especial va para Peter Norvic, que en el 2001 se unió a Google como Director de Machine Learning, ¡antes que nadie hablara de machine learning!

El Costo del Programa

La buena noticia, el curso es totalmente gratis. Para la cantidad de cosas que se aprende y la teoría detrás, es imposible no decir que es espectacular.

Finalmente, ¿Vale la Pena?

Un curso de Google de Machine Learning gratis lleno de contenidos y me preguntan si vale la pena? ¡Por supuesto que vale la pena! En mi caso especial, es increíble la cantidad de temas que no me habían quedado claros en otros cursos que se explicaban en tres minutos en este curso. Cosas como cross validation, gradient descent, la importancia de la función de pérdida, y la ingeniería de los cruces de aprendices (feature cross en inglés). Solo por eso vale la pena.

Habiendo dicho esto, hay algunos puntos que debo aclarar.

  1. No es un curso de machine learning, es un curso de TensorFlow: todos los problemas, ya sea de regresión, clasificación, recomendación, todos se resuelven con redes neuronales en TensorFlow. Esto no es malo, ya que aprender TensorFlow y redes neuronales es muy valioso. Sin embargo, no es un curso para empezar o tomarlo solo. Me parece mejor comenzar con regresión lineal, regresión multivariable, y después ver los temas comunes como arboles de decisión y clasificación, K-Means, Random Forest, series de tiempo, etc.
  2. No es un curso de TensorFlow, es un curso rápido de machine learning: no me contradigo. Aprender TensorFlow lleva tiempo, el manual en línea es gigante, totalmente gigante. Y por muchos ejemplos que se incluyan en los apuntes de Colab, lo que se enseña es la punta del iceberg, lo mínimo necesario para que un programa funcione. Aprender TensorFlow bien involucra horas largas de leer, estudiar y programar.
  3. No es un curso de programación: Hay que saber Python, y no cualquier Python sino el Python 3.0 con todas las librerías modernas que le gusta a Google. Si, lo admito, yo uso la versión 2.7 todavía. Pero si alguien llega hasta aquí y no sabe Python, no se si vale la pena seguir hasta que no se tenga un buen control del lenguaje.
  4. Las librerías de TensorFlow están desactualizadas: los ejemplos en Colab se aseguran de importar la versión correcta de TensorFlow para que el código funcione. Pero las librerías nuevas de TensorFlow ya cambiaron, y lo que debió ser un ajuste mínimo en las llamadas a las funciones para probar los programas localmente se convirtió en una pelea con bibliotecas depreciadas y poco apoyo para hacer los cambios. Uno debe tener mucha paciencia con los ejemplos y hacerlos en Colab, o tomarse el tiempo para reescribir todo de nuevo y que funcione…

Consideraciones Finales

Cuando busqué otros videos de YouTube sobre el curso, me sorprendió que todos lo describen como algo rápido, para terminar en una hora o menos. No se si seré yo, pero a mí me tomó cuatro semanas y cerca de cuarenta páginas de apuntes (y sin mentir, cerca de 72 horas de estudio). Esto sin contar los cursos complementarios y la necesidad de buscar temas adicionales. Por ejemplo, TensorFlow parece al principio un simple proceso de tensores, matrices que ajustan pesos de una ecuación para minimizar la función de pérdida. Pero no fue hasta que por buscar de más encontré una explicación de Deep Neural Networks donde habla de como se desdoblan los hiperplanos hasta encontrar una transformación donde la función es continua y se puede resolver con gradient descent ya que es derivable. Aquí entra el concepto de homomorfismos y como las funciones con propiedades biyectivas continúan siendo continuas y derivables en otros planos. La matemática se pone complicada ya en este punto, salimos de la estadística que es mi zona de confort para entrar en el cálculo. Pero es cuando a uno el cerebro le hace clic y entiende que TensorFlow es más, que la parte del Flow es la increíble transformación visual de los planos donde funciones que en dos dimensiones parecen nudos o manifolds tiene continuidad y no se tocan en múltiples dimensiones o hiperplanos.

Yo recomiendo altamente este curso, pero no lo hagan de primera instancia, sino que atáquenlo cuando tengan una buena base de que significa el entrenamiento de datos, y como se hace en instancias más sencillas para ir incrementando el nivel de especialización.

Book Review – Never Split the Difference

I first saw the book Never Split the Difference by Chris Voss in a bookstore in Houston International Airport. I was skeptical because the author, Chris Voss, is a former FBI negotiator and many of the techniques used are similar to hostage negotiation. I decided to pass only to get it as a gift from the company president.

I want to be honest and tell you the book is worth reading since you will find many interesting negotiation techniques such as mirroring, labeling, and others to guide you in your dealing efforts. These are all valid but rely on the premise that no deal is better than a bad deal. That is seldom a choice in business. If I have to recount the number of times any deal was preferable to not having cash flow the next morning, or reducing aged inventory to make space for newer merchandise, it would certainly exceed the number of pages in the book.

That is not to say many of the techniques will not help push and promote a deal just as well as in a hostage situation. Leaving the nefast results of a hostage deal gone wrong, there are two specific areas where Chris Voss coaching will come very handy. The first one is the pursuit of low acquisition prices, for example in M&A or purchase of a property. Everyone knows the empiric value of buy low, sell high, but getting there is much more complicated than thought, so the advice on the book comes handy at keeping the other party engaged and actively interested in keeping the deal alive. The second area is in countering extreme anchoring follies of other bare-knuckles negotiator who might try the same ideas in extracting the lowest possible price from some asset or service you happen to offer.

Chris Voss’s style is fun and straight forward, and comes off as the big FBI guy who has put the life on the line of duty while saving lives will laugh at the pressures of corporate life wheeling and dealing. But again, corporate life is not that simple either. The premise of no deal being better than a bad deal is a luxury many of us cannot simply afford when moving a business forward (low season sales anyone?) The founding stone of all these techniques might be counter to what is best for business, so use them but learn to maintain a pragmatic approach to your negotiation goals.

Musings on Stacked Machine Learning Models

I recently worked with 3 machine learning models for FOREX prediction. One was ARIMA, the next multivariable linear regression, and the last one a stacked model that used the outputs of the first two as learners for input.

Here are the results from each:

While the regression model has an R2 value of 0.9714, the ARIMA beat it with a far better R2 value of 0.9976. That did not strike me odd, as in econometric time series analysis usually proves far more precise. But the stacked model only fared slightly better with an R2 value of 0.9978. I was expecting a little more precision out of the stacked model as it should have preprocessed and worked out the wrinkles and inefficiencies of the first two.

The topic of study is the TRM, Colombia’s official exchange rate for the US dollar. Economists and financiers have been trying to predict FOREX values since ever (or at least a very long time…) I was not looking for a break-through formula, but just something that would improve our company’s cost accounting accuracy and our ability to hedge currency volatility through forwards.

But I digress. The musing here is the additional overhead of the stacked model vs. a simple ARIMA forecast (using the excellent library by Robert Hyndmann here.) The accuracy is welcomed because when dealing with money every bit of a penny counts. But the production model is complicated at least. In my company, there is no such thing as a machine learning production model. Our IT staff is A+, but not very math-savvy. Any machine learning code is done by me, with little hope of moving it to production (and in my company it makes sense, we are small.) If a bigger enterprise how much more precision is worth the cost of additional computing cycles? The application of machine learning to ARIMA is not necessarily complicated. But having to run multiple models to ensemble does require additional computing power.

In a practical world, the difference between models is only 0.002. If the TRM is at 3,450 pesos to a dollar, the difference is 0.69 cents per dollar or 690,000 pesos in a one-million-dollar contract. That is the equivalent of 200 US dollars in one-million, which is money none the less but not a lot.

There is no right or wrong here. Since I cannot deploy my fancy algorithms to production I have not an easy way of estimating costs. But the musing is still interesting, and the simplicity of the model formulation has an incredible amount of complexity when brought to life.

Short Notes on Boosting


The following notes are from the COURSERA Practical Machine Learning course and are intended to help others understand the concepts and code behind the math. The basic idea behind boosting is to take lots of possibly weak predictors, then weigh them and add them up, thus getting a stronger one. We could see two clear steps:

  1. Start with a set of classifiers (h1, h2, …, hn). For example, these could be all possible trees, all possible regressions, etc.
  2. Create a classifier that combines classification functions

Several things we want to obtain with this process:

  • The goal is to minimize error (on the training set)
  • Iteratively, select one h at each step
  • Calculate weights based on errors
  • Up weight missed classifications and select next h

The most famous boosting algorithm is ADAboost.

Boosting in R

Boosting in R can be used with any subset of classifiers. One large subclass of boosting is gradient boosting. R has multiple libraries for boosting. The differences include the choice of basic classification function and combination rules.

  • gbm: boosting with trees
  • mboost: model based boosting
  • ada: statistical boosting based on additive logistic regression
  • gamBoost: for boosting generalized additive models

Most of these are already included in the caret package, making the implementation relatively easy.

Boosting Example

For our boosting example, we will use the ISLR package and the Wage data set included. The idea here is to try to predict wage based on the many other predictors included.

# Create training and testing sets 
wage <- subset(Wage, select = -c(logwage)) 
inTrain <- createDataPartition(y = wage$wage, p = 0.7, list = FALSE) 
training <- wage[inTrain, ] 
testing <- wage[-inTrain, ] 

Now that we have our data we can create training and testing sets. For the problem at hand, there is no pre-processing of the data necessary, but for other types of prediction models, such as regression, some pre-processing is required for non-numerical values or variables with no variability because of the predominance of zero values.

# Create training and testing sets 
wage <- subset(Wage, select = -c(logwage)) 
inTrain <- createDataPartition(y = wage$wage, p = 0.7, list = FALSE) 
training <- wage[inTrain, ]  
testing <- wage[-inTrain, ]

Fitting a boosting model in R using the caret package is very easy. The syntax is much like any other for training a data set, just include the option method = “gbm” in the option line.

# Fit a model using boosting
modFit <- train(wage ~ ., method = "gbm", data = training, verbose = FALSE)
## Stochastic Gradient Boosting 
## 2102 samples
##   10 predictor
## No pre-processing
## Resampling: Bootstrapped (25 reps) 
## Summary of sample sizes: 2102, 2102, 2102, 2102, 2102, 2102, ... 
## Resampling results across tuning parameters:
##   interaction.depth  n.trees  RMSE      Rsquared 
##   1                   50      34.39326  0.3213741
##   1                  100      33.85476  0.3322011
##   1                  150      33.79401  0.3341418
##   2                   50      33.85892  0.3324366
##   2                  100      33.77240  0.3351736
##   2                  150      33.87053  0.3330873
##   3                   50      33.73768  0.3365461
##   3                  100      33.89518  0.3324402
##   3                  150      34.09446  0.3263083
## Tuning parameter 'shrinkage' was held constant at a value of 0.1
## Tuning parameter 'n.minobsinnode' was held constant at a value of 10
## RMSE was used to select the optimal model using  the smallest value.
## The final values used for the model were n.trees = 50, interaction.depth
##  = 3, shrinkage = 0.1 and n.minobsinnode = 10.

Word of caution, boosting takes a little more of processing time in some computers, so you might have to wait a few seconds for the function to return the model object. If you run this code yourself you will see multiple warning messages related to the non-processing of the data previous to the exercise (not necessary for this simple example.) If you look closely, you will see that the function chose a Stochastic Gradient Boosting model, 2102 samples and 10 predictors. Mind you, there is a difference between observations in the training set and the final boosting model since it has resampled from our training set with bootstrap (25 reps.) The output says the summary of sample sizes is 2102, so we will keep that in mind when we try to cross-validate and test the model.

Testing the Model

Remember boosting resampled the training data set, so now it has fewer observations than in the original. Thus it is hard to cross-validate with the same data (length of vectors are not the same!) What we will do now is use the testing data to plot real wage data from the test set against the wage prediction from our model using the test data. These are numerical outcomes, a little harder to see on a confusion matrix but more visible in a plot.

qplot(y = predict(modFit, testing), x = wage, data = testing, ylab = "Prediction of Wage", xlab = "Wage")

If you look at the plot, our model seems to capture quite well those lower-bound wages, but there is a group of higher-wages that seem to fall out of our prediction capacity. We can see a quick rundown of our wage prediction ranges and real wages using the cut function.

predWage <- cut(predict(modFit, testing), 5)
realWage <- cut(testing$wage, 5)

## (67.3,88.9]  (88.9,110]   (110,132]   (132,153]   (153,175] 
##         143         372         220         103          60
## (20.7,76.6]  (76.6,132]   (132,188]   (188,244]   (244,300] 
##         128         564         164          12          30

While the real wages vary from 19.8 to 319.0, our prediction only ranges from 61.1 to 169.0. This is concentrated in the second and third subsets of real wages.


Despite having some problem with higher salaries, we clearly saw from the plot a good amount of prediction power between real wages and estimations. What is clear is the power of boosting taking rather weak predictors and incrementing their capacity through resampling for much more accurate prediction power.

La Paradoja de Leontief – Artículo de Opinión


En el blog Nociones de Economía y Empresa, el doctor David de Matías Batalla, de la Universidad Internacional Valenciana, explica de forma detallada el concepto de la Paradoja de Leontief. Batalla define así entonces la paradoja como “… se concibe a la mano de obra no como una mercancía homogénea sino por categorías, los países industrializados disponen de una oferta más abundante de mano de obra bastante educada o de fuerza de trabajo cualificada (en la que se ha realizado una elevada inversión de capital) que de otros tipos…” (Batalla, 2013).

Quizás lo que omite Batalla – o mejor dicho lo menciona muy superficialmente – es que Leontief partió con la idea inicial de corroborar la teoría Heckscher–Ohlin, también conocida como modelo H-O. Dicha teoría fue el diseño de los economistas suecos Eli Heckscher y Bertil Ohlin (en realidad profesor y estudiante). La concepción es que, dado dos países, ambos con factores de capital y trabajo, el país con mayor dotación relativa de capital exportará mercancías producidas con abundancia de capital e importará mercancías con abundancia relativa de trabajo (Fernandez & Subira, 2006).

Wassily Leontief escribió el articulo científico Domestic Production and Foreign Trade: The American Capital Position Re-Examined, y mediante el análisis intersectorial basado en la tabla de ingresos y egresos de la economía de los Estados Unidos para 1947, mostró la evidencia de que las exportaciones estadounidenses eran intensivas en labor, en tanto que las importaciones eran intensivas en capital (Leontief, 1953). En consecuencia, o bien no se cumplían los supuestos subyacentes en el teorema de Heckscher–Ohlin, o bien la economía estadounidense era relativamente abundante en trabajo, ambas cosas contra la creencia general. Tal contradicción recibió el nombre de Paradoja de Leontief (Fernandez & Subira, 2006).

¿Qué tan válida son las críticas de Batalla a la Paradoja de Leontief?

FOTO: Wassily Leontief


Uno de los puntos principales del Teorema de Heckscher–Ohlin, y quizás por donde más han hecho hincapié todos los académicos que han escrito sobre el tema, es sobre la necesidad teórica de que ambas naciones cuenten con el mismo nivel de tecnología. Este punto lo toca Batalla al detallar los trabajos de Flanders (Batalla, 2013) y también lo menciona Fernández y Subira. Adicionalmente Fernández y Subira complementan con el hecho de que Leontief volviera a hacer el análisis en 1952, solo para obtener resultados similares (Fernandez & Subira, 2006). Podemos como académicos hacer un cuestionamiento a si el mundo tenía países con igual nivel de tecnología que Estados Unidos en 1947 o en 1952 por igual. Mientras que Estados Unidos evolucionaba su economía post-guerra, Europa y Asia se encontraban en plena reconstrucción, por lo que no es arriesgado pensar que el principio de igualdad de tecnologías no se cumpliría sino hasta muchos años después.

El académico Homero Cuevas, de la Facultad de Ciencias Económicas de la Universidad Nacional de Colombia, tiene su propia interpretación sobre la problemática de la Paradoja de Leontief. Para Cuevas el modelo HO está a su vez basado – y por lo tanto sufre de las falacias – en el modelo CMPP (el modelo crudo de precios de producción). El aumento en el precio de productos intensos en labor ocasiona la baja de los productos intensos en capital, pero pocos entienden que, si los primeros afectan los insumos de los segundos, ambos deben subir. El análisis del intercambio internacional debe desarrollarse, pues mediante un sistema que tome en cuenta aquellas interacciones (Cuevas, 1994). La Paradoja de Leontief puede entonces entenderse no desde el punto de vista de falacia teórica del teorema de Heckscher–Ohlin sino de la información imperfecta de las tablas de input-output de Leontief que no pueden desagregar las interacciones pertinentes entre productos intensivos en labor o capital que se convierten a la vez en insumos para productos intensivos en un factor opuesto. Cuevas define esto como “… Aparentemente, un defecto recurrente de la teoría económica ha sido el de tratar de obtener resultados de mucho alcance y complejidad con una información deficiente…” (Cuevas, 1994)

Una explicación sobre la validación de la Paradoja de Leontief nos la entrega el Dr. Valdiviezo Ocampo, quien establece que “… La inclusión del capital humano es una respuesta a la paradoja de Leontief porque asume que la ventaja registrada por EUA en bienes intensivos en trabajo es producto de la prerrogativa en la labor cualificada.” (Valdiviezo Ocampo, 2012).


Tras la lectura de algunas de las obras que abordan el tema, parece haber una concordancia entre autores que la problemática de la Paradoja de Leontief no es tanto que refuta o invalida el teorema de Heckscher–Ohlin, sino que utiliza en su evaluación metodologías de información de insumos y egresos que no equiparan la disparidad tecnológica como factores de producción entre países. Dentro del concepto de mercados perfectos, el precepto de igualdad es una variable difícil de sobrellevar al plano matemático, más con información distorsionada por lo incompleta o sesgada. De tal manera las criticas de Batalla parecen bien fundamentadas y la Paradoja de Leontief continúa siendo un tema controversial, del cual pende hasta los primeros principios de Ricardo sobre la teoría económica.


  1. Batalla, D. d. (2013, September 12). La Paradoja de Leontief. Recuperado de Nociones de Economía y Empresa:
  2. Cuevas, H. (1994, Julio 1). Una Explicación Alternativa de la Paradoja de Leontief. Cuadernos de Economía, 14(21), 159-163.
  3. Fernández, J., & Subira, E. (2006). EL TEOREMA HECKSCHER-OHLIN A LA LUZ DE LAS TABLAS INPUT-OUTPUT DE LA UNIÓN EUROPEA. Universidad de Barcelona, Escuela Universitaria de Estudios Empresariales. Barcelona: Universidad de Barcelona.
  4. Leontief, W. (1953, September 28). Domestic Production and Foreign Trade; The American Capital Position Re-Examined. Proceedings of the American Philosophical Society, 97(4), 332-349.
  5. Valdiviezo Ocampo, G. S. (2012). Los determinantes de innovación de la conducta exportadora de España y México. Universidad Complutense de Madrid, Facultad de Ciencias Económicas y Empresariales. Madrid: Universidad Complutense de Madrid.

La Influencia de los Monopolios y Oligopolios en el Desarrollo Económico Nacional


A priori, Panamá, un país que se jacta de recalcar su estrategia nacional como centro logístico y financiero de Latinoamérica, apegado a una cultura empresarial y dinámica, no parece ser el tipo de nación donde los monopolios y oligopolios puedan existir.

El propósito de este ensayo es identificar los monopolios y oligopolios existentes en el mercado de Panamá, para luego estimar el costo de los mismos sobre el desarrollo económico del país. La sensación inicial es que el nivel competitivo de la nación mantiene a los actores lejos de prácticas monopólicas por efectos de presión competitiva del mercado. Sin embargo, la existencia de una clase empresarial altamente unida y conectada, en conjunto con la complicidad del Estado, puede abrir la puerta a prácticas oligopólicas y monopolísticas perfectamente amparadas bajo marcos y regulaciones legales.

Ciudad de Panama – Una de las vistas mas impresionantes de Latinoamérica


En el año 2010 el editor del diario La Estrella de Panamá, Gerardo Berroa, hacía un llamado hacia los oligopolios y monopolios de Panamá en su editorial (Editorial La Estrella, 2010):

“Otro de los aspectos a considerar, en materia de regulación para mejorar nuestra economía, son los monopolios y oligopolios existentes. Estos ocasionan tanto daño con su distorsión en precios al bolsillo del consumidor, frente a la imperturbable mirada de las autoridades competentes en esa materia. Situación observable en el mercado de los hidrocarburos, donde los precios del combustible (gasolina, diésel y lubricantes), aun cuando el precio del petróleo a nivel internacional disminuye, no se reflejará en igual proporción, debido a la especulación del mercado interno, que ejercen las petroleras y/o distribuidoras, generalmente expendedoras al detal.”

Una de las áreas que más aqueja al país en cuanto a monopolios es la de distribución y generación de electricidad. En Panamá la empresa ETESA tiene el monopolio de distribución de electricidad bajo acuerdo del Estado, pero la generación de electricidad está abierta a varios jugadores siempre y cuando se respeten las licitaciones de compra al mejor precio. Esto no siempre se da como evidencian las denuncias constantes de los jugadores que el proceso no es serio (Lasso, M. 2015):

“Panamá Power Corp (IPPCO) y Pentacles Energy S.A. presentarán recursos ante la Corte Suprema de Justicia contra Gas Natural Atlántico, filial de AES Corporation, empresa a la que le fue adjudicado el contrato para la generación termoeléctrica de 350 megavatios.”

Las denuncias por el oligopolio de energía muchas veces tienen como foco la empresa AES Panamá, que abastece alrededor de un tercio de la energía del país. La ley actual llama a un tope del 40% de producción para evitar oligopolios, pero la sociedad civil permanece en duda (Serrano, W. Muñoz, M. 2007):

“… Giovani Fletcher, presidente del Instituto Panameño de Derecho de Consumidores y Usuarios, expresó que hay dudas de que AES Panamá, S.A. tenga menos del 40% del mercado hidroeléctrico nacional, tal como exige la ley. Es extraño que la Autoridad de Servicios Públicos emita una resolución por la cual declare de interés social y público los proyectos de esa empresa Chan 75 o El Gavilán, Cauchero II o Chan – 140 y Chan-220, en el río Changuinola”, dijo Fletcher.”

Las empresas de producción de electricidad han visto una nueva fuente de modelo de negocio en la generación hidroeléctrica. Dicho modo pronto captó la atención de los medios en un llamado atención a las resoluciones del gobierno que las amparan (Noriega, R. 2017):

“… en el año 2012 nació la resolución AG-0691-02012 por la cual la Autoridad Nacional del Ambiente estableció el denominado Caudal Ecológico o Ambiental, que no es más que el volumen de agua disponible para todos los usos de un rio distintos a un hidroeléctrica. Así esta última podría obtener hasta el 90% del caudal del rio… En la práctica esto significa un monopolio del recurso hídrico…”

El rubro del transporte es otro que afecta la vida de miles de panameños que debe todos los días enfrentar el caos del tráfico. El Estado asumió la propiedad de los buses dentro del área capitalina, pero la adjudicación de permisos de transporte público en áreas aledañas sigue en mano de los gremios regionales afiliados al poderoso Sindicato de Transportistas de Panamá (Asprilla, K. 2014):

“… la realidad es que en lo que respecta al problema del denominado monopolio en el sector de Panamá Oeste no hay quien le quite el primer puesto… ya que los propietarios de buses de ese sector mantienen una fuerte campaña para no permitirle a ningún otro transportista operar en sus rutas, aunque el número de habitantes en Panamá Oeste cada día se incremente más…”

La entidad responsable por velar por los derechos del consumidor panameño ante casos de monopolio y oligopolio es la ACODECO (Autoridad de Protección al Consumidor y Defensa de la Competencia). Dicha autoridad mantiene investigaciones abiertas en todo momento, y muchas veces bajo el cargo de prácticas monopolísticas, no solo monopolios. Estas difieren bajo la legislación como el propio Director de la ACODECO explica en un editorial (casi a manera apologética) en el diario La Estrella de Panamá (Cardoze, O. 2013):

“… En ese sentido, Acodeco suele iniciar sus investigaciones por prácticas monopolísticas ante la evidencia de una práctica restrictiva de la competencia, no ante meros monopolios; pues aún en el peor escenario en el que se haya llegado a ellos a través de la comisión de un ilícito, lo correspondiente no es demandar el monopolio en sí, sino investigar y eventualmente demandar la práctica monopolística a través de la cual se llegó a tal posición en el mercado…”

Muchos en la sociedad civil argumentan que no hay en Panamá un interés real por parte del gobierno para combatir las prácticas de oligopolios, el resultado de una clase empresarial altamente integrada y dispuesta a hacer negocios entre si argumentando alianzas estratégicas para la defensa de la producción nacional. El Doctor y Economista Juan Jované ha sido un crítico acérrimo de tales prácticas con una voz perpetua en los medios de comunicación (La Estrella de Panamá, 2010):

“… Jované afirmó que en Panamá las leyes se han quedado rezagadas y han creado organismos (como la ACODECO) que no tienen fuerza para enfrentar los monopolios y oligopolios, a diferencia de Europa o Estados Unidos, donde las leyes son más estrictas para regular la competencia y evitar estas terribles fallas de mercado. “Si la competencia en el mercado fuese perfecta pues habría eficiencia, pero eso no es así, como ejemplo tenemos el mercado de la gasolina, donde hay un claro oligopolio, ya que hay pocos distribuidores”, afirmó el economista.”

El Doctor Jované no es el único en criticar la falta de escrutinio a los negocios oligopólicos de Panamá encubiertos bajo el manto de fomento a la empresa nacional. El Abogado y periodista Rodrigo Noriega Adames ha utilizado muchas veces el término arquitectura empresarial endogámica para denunciar practicas oligopólicas y/o corruptas por la clase empresarial del país (Noriega, R. 2016):

“… Las políticas públicas que fomentan la creación de riquezas en Panamá favorecen la concentración de las mismas en muy pocas manos… Cuando hay una oportunidad de negocios, la empresa panameña promedio no procura generar oportunidades de negocios a nuevos actores, busca a los familiares y conocidos… Es lo que algunos han dado en llamar como la República de los primos… “

En este caso se ve la conexión entre la falta de ética social y gubernamental, la corrupción y la creación de oligopolios y su efecto en la sociedad como un todo.


La sociedad civil es la que ha criticado, denunciado y aportado elementos de prueba de la existencia de monopolios y oligopolios en el país, o por lo menos de prácticas monopolísticas y oligopolísticas, las cuales están previstas como faltas al código comercial panameño. De este examen de información de hemeroteca podemos concluir dos puntos principales:

  1. Existen prácticas monopolísticas y oligopolisticas notables en la República de Panamá en los sectores de:
    1. Prestación de transporte público manipulado por los gremios regionales asociados al Sindicato de Transportistas de Panamá
    1. Venta y distribución de gasolina y diésel, la cual nos llama a la atención se denuncia de forma constante sin que se mencionen los nombres de las empresas bajo sospecha
    1. Generación de energía eléctrica, incluyendo fuentes hídricas, las cuales si están muy bien identificadas y han sido blanco de investigaciones
  2. En todos los casos, dichas prácticas parecen estar amparadas por acuerdos, resoluciones y reglamentaciones de carácter legal y promovido por el Estado.
    1. En el caso de la generación de electricidad, la ley exige que ninguna empresa aporte por encima del 40% del total del suministro eléctrico. Estos niveles aseguran de manera automática la existencia de tres jugadores activos que acaparen el mercado.
    1. En el caso de la generación hídrica, la ley resolución AG-0691-02012 concede el 90% del recurso del rio a la planta hidroeléctrica, con poco espacio para los agricultores y pescadores de aprovechar el 10% restante (recordar que no es lo mismo para propósitos de riego y pesca estar abajo o arriba de la planta hidroeléctrica).
    1. En el caso del transporte, es evidente que el favoritismo ha sido de carácter político adjudicando los derechos de transporte a los sindicatos nacionales. Esta decisión tiene subjetividad política que muchos defenderán, ya que los sindicatos debieran representar al pueblo y su clase obrera, escudando sus derechos. Habiendo dicho esto, no deja de ser una práctica de oligopolio entregar el transporte público a gremios regionales que no son sino satélites de una sola entidad, el sindicato nacional. Abstraído de su carácter político es un número finito y pequeño de jugadores usufructuando un mercado.

Dentro de este ensayo es difícil cuantificar de manera exacta el costo adicional que incurre la sociedad por las prácticas de monopolio y oligopolio existentes. Se ha criticado severamente el sobrecosto del precio de la electricidad en el país, y del litro de gasolina. Hay que sopesar que en Panamá no hay extracción de petróleo y la electricidad hasta hace poco se generaba con plantas térmicas y no con hidroeléctricas. Es probable que las limitaciones de materia prima y el costo de generación se presten para sustentar mayores niveles de ganancias a las empresas que manejan estos rubros, y las cuales tienen el amparo del Estado. Si miramos al transporte, la ganancia la obtiene el sindicato con la proliferación de unidades piratas (buses y carros no autorizados que cobran un precio superior al establecido por el gobierno). Al tener el control sobre la concesión de cupos, y limitar la cantidad de unidades activas, los usuarios no tienen otra opción que tomar transporte pirata a un mayor costo. El sindicato obvia la situación de la piratería porque la controla (de forma ilegal) y es una fuente de ingreso adicional que no tributa (y fácil de ocultar). Hacia futuro, Panamá debe revisar su marco actual de legislación comercial competitiva y auditar aquellas prácticas que no solo no aportan al desarrollo del país, sino que al estar amparadas por marcos legales son difíciles de investigar y sientan un peligroso ejemplo de jurisprudencia que pudiera afectar los esfuerzos futuros de revocarlas.


Redacción Editorial (22 de septiembre del 2010) Monopolios y oligopolios en Panamá. La Estrella de Panamá. Recuperado el 8 de abril del 2017 de

Lasso, M. (10 de septiembre del 2015) Presentarán recursos contra AES Panamá ante la Corte Suprema. Panamá América. Recuperado el 8 de abril del 2017 de

Asprilla, K. (4 de agosto del 2014) Monopolio. El Capital Financiero. Recuperado el 8 de abril de

Cardoze, O. (18 de mayo del 2013) Monopolio y prácticas monopolísticas. La Estrella de Panamá. Recuperado el 8 de abril del 2017 de

Redacción Editorial (14 de enero del 2010) Jované denuncia oligopolios en Panamá. La Estrella de Panamá. Recuperado el 8 de abril del 2017 de

Serrano, W. y Muñoz, M. (19 de diciembre del 2007) AES Panamá abastece el 32% de la energía. La Prensa. Recuperado el 8 de abril del 2017 de

Noriega, R. (17 de octubre del 2016) Cinco causas que nos convierte en la República de la desigualdad. La Prensa. Recuperado el 8 de abril del 2017 de

Noriega, R. (30 de enero del 2017) Monopolio en las concesiones de aguas. La Prensa. Recuperado el 8 de abril del 2017 de

Análisis Comparativo de Modelos de Planificación Estratégica


La planificación estratégica es el proceso dentro de una organización para definir su estrategia o dirección, tomando decisiones en el mejor uso de sus recursos con miras de alcanzar sus objetivos. Si bien el mundo académico ha llegado a una definición mas o menos homogénea, las metodologías que los diferentes autores han desarrollado no lo son tanto. ¿Qué motiva a los diferentes autores a crear diferentes metodologías de planificación estratégica? ¿Es que acaso existen diferentes formas de enfocar el proceso estratégico, hay ventajas de una metodología a la otra, o existen factores culturales que llevan a un gerente u organización a la adopción de una en particular? En este ensayo analizamos de forma breve diferentes metodologías de planificación estratégica para concluir si en sus diferencias existe alguna superior o si al igual que los estilos gerenciales, cada una satisface un enfoque distinto de gerencia.


Dentro del desarrollo de este ensayo, estudiamos a fondo cuatro modelos diferentes de planificación estratégica: el modelo de George Steiner, el modelo de Philip Kotler, el modelo de Hoshin Kanri y el modelo de Idalberto Chiavenato.

Cada uno de estos modelos ha sido analizado a fondo por sus propios autores. Al contrastarlos entre si buscamos verificar si existe alguna ventaja de uno sobre los demás o un ambiente organizacional que se preste para alguna en particular.

El Modelo de Planificación Estratégica de George Steiner

Geroge Steiner en su libro trata de no dar una definición estricta de planificación estratégica (Steiner, G., 1997). Pero la idea central queda firmemente anclada en el concepto del proceso de esclarecer en la organización los goles y planes para alcanzarlos fundamentados en la toma de decisión sobre lineamientos cuidadosamente preconcebidos: no se toman decisiones fortuitas o deliberadas.

George Steiner – The Art of Criticism

Steiner fundamente su concepción de la planificación estratégica en cuatro pilares:

  1. El futuro de las decisiones presentes: la planificación estratégica revisa la cadena de consecuencias de las tomas de decisiones corrientes y cómo estas impactan en el futuro de la organización.
  2. Proceso: la planificación estratégica es un proceso que comienza con la determinación de objetivos y continúa con el diseño de planes estratégicos y tácticos para alcanzarlos.
  3. Filosofía: la planificación estratégica es una filosofía empresarial basada en la toma de decisiones a través de la contemplación del futuro.
  4. Estructuras: la planificación estratégica encadena en su estructura tres tipos de planes: estratégicos, tácticos y operativos.

Steiner es un autor siempre preocupado por la relación presente-futuro. La planificación estratégica no es toma de decisiones porque la planificación estratégica es a futuro mientras que la toma de decisiones es solo posible en el presente, tiene carácter inmediato.

El Modelo de Planificación Estratégica de Philip Kotler

Philip Kotler es un creyente de la planificación estratégica pero en vez de preocuparse por las implicaciones futuras de causa y efecto en la toma de decisiones presentes, se enfoca en el concepto de marketing estratégico. Kotler define (Kotler, P., 2009) “… el concepto del marketing sostiene que la clave para alcanzar los objetivos de la organización consisten en identificar las necesidades y deseos del público objetivo y entregar las satisfacciones deseadas de una forma más efectiva y eficiente que la competencia… “.

Philip Kotler – The 4 P’s of Marketing

Kotler permanece subjetivo al definir planificación estratégica como “… el proceso de desarrollo y mantenimiento de un ajuste viable entre los objetivos y recursos de la compañía, y las cambiantes oportunidades del mercado … el objetivo … consiste en modelar y reestruturar las áreas del negocio y productos de la compañía de forma que den beneficios y crecimientos satisfactorios.” (Kotler, P., 2009, pg. 35)

Desde este punto en adelante, Kotler hace un giro de Steiner y prefiere asesorar la base de la planificación estratégica en base a las unidades estratégicas de negocio y la cartera de productos de la organización, ambos conceptos básicos de la gerencia de producto de corporaciones orientadas al mercadeo.

El Modelo de Planificación Estratégica de Hoshin Kanri

El modelo de Hoshin Kanri fue diseñado en Japón como técnica de despliegue de políticas para ser utilizadas a la par de los métodos de TQM (Total Quality Management). De hecho en Japón se describe Hoshin Kanri como la cola que unió el TQM como una metodología completa en vez de una colección de herramientas de medición de calidad (Akao, Y., 1991). El término en si está compuesto por hoshin (metal brillante, brújula o apuntar a la dirección) y kanri (administración o control). Sin embargo la mejor traducción literal es despliegue de políticas.

Una definición resumida de Hoshin Kanri nos la sugiere Tennant y Roberts (Tennant, R. y Roberts, P. 2001) de la Universidad de Warwick, quienes lo describen como la materialización del propósito del gerente a través de:

  • Ampliación de las habilidades de la organización y abanderamiento de sus capacidades para la mejora continua.
  • Despliegue de una política unificada y plan, basados en la hoja de ruta de la gerencia y establecido bajo un mismo eslogan o creencia.
  • Utilización de los recursos principales para la administración (gente, materias, dinero) y optimización común de la calidad, volumen, costo y tiempos.

Los principios de planificación de Hoshin Kanri están formulados alrededor de lo que los clientes de la organización desearan en cinco y diez años, y el conocimiento de que se debe hacer para alcanzar y exceder la expectativas de los mismos. Los elementos principales son:

  • Visión de Cinco Años: incluye un plan borrador por el presidente y el grupo ejecutivo de la organización.
  • Plan Anual: este plan incluye la selección de actividades basadas en su potencial de alcanzar los goles deseados.
  • Despliegue a Departamentos: Esto incluye la selección de planes, medios y metas. Incluye las áreas claves de implementación y consideraciones de cómo alcanzar los objetivos del plan.
  • Implementación Detallada: esta implementación del plan de despliegue se enfoca más que nada en planes de contingencia.
  • Diagnostico Mensual: un análisis mensual de los factores que ayudaron o atrasaron el progreso de las actividades y aprendizaje de la organización al respecto.
  • Diagnostico Anual del Presidente: un reporte anual sobre el progreso del desarrollo del plan y las actividades de la organización.

El uso de Hoshin Kanri como metodología de planificación depende mucho de la administración funcional cruzada, con comunicación continua entre departamentos y divisiones en todos los niveles que aseguren el compromiso de todos y cada uno de los colaboradores de la empresa.

El Modelo de Planificación Estratégica de Idalberto Chiavenato

Quizás uno de los factores determinantes del modelo de planificación estratégico que propone el académico Brasileño Idalberto Chiavenato es la síntesis de varios modelos en uno más universal y editado, con un fuerte enfoque al diagnóstico previo a la formulación de planes (Chiavenato, I, y Sapiro, A., 2011).

Prof. Idalberto Chiavenato

Para Chiavenato, la planificación estratégica tiene cuatro fases diferenciadas, a saber:

  1. La definición de la misión, visión, valores y objetivos (también conocido como la fase filosófica)
  2. El diagnóstico interno de la organización (fortalezas y debilidades)
  3. El diagnóstico externo de la organización (oportunidades y amenazas)
  4. Formulación de estrategias (métodos y medios)

La metodología del plan estratégico a su vez consta de cuatro elementos claves: las áreas estratégicas claves, los factores claves del éxito, los objetivos estratégicos y los planes tácticos. Visualizar este esquema de proceso de planificación estratégico es más sencillo utilizando la división del autor en partes:

Parte Filosófica | Misión, visión, principios y valores
Parte Analítica | Análisis FODA
Parte Estratégica | Diseño de estrategias
Parte Operativa | Programas específicos u operativos

Dentro de este modelo la revisión del plan estratégico es una tarea crucial. Esta revisión obliga al gerente a cuestionar cada paso del proceso con mira a mantener el plan actualizado y enfocado:

  • Mantener la misión, visión y estrategias frescas
  • Asegurarse que la lista de actividades apoyen la estrategia
  • Identificar las circunstancias que modifican las estrategias
  • Enfocarse en los planes que demandan acción inmediata
  • Asegurar la ejecución efectiva y oportuna
  • Identificar información actualizada para incluirla en el plan


Al analizar y evaluar cada uno de los modelos, es difícil aseverar que alguno tiene una ventaja que lo distinga por encima de sus pares, sino que cada uno tiene identidad propia que lo hace más propicio para cierto tipo de organización y/o estilo gerencial.

  • El modelo de Steiner tiene un fuerte carácter filosófico en su concepción de enfoque hacia la relación presente-futuro. Visto desde esta óptica, organizaciones con procesos o goles a largo plazo, como por ejemplo holdings corporativos o bancos, pudieran preferir este modelo donde el peso de las decisiones presente tiene implicaciones graves en el futuro de la organización. Esto es crítico en organizaciones como el Canal de Panamá, donde los proyectos se miden no en años sino de décadas o más.
  • El modelo de Kotler es fácil de catalogar como aquel de mejor calce en una organización comercial. Su enfoque en las necesidades latentes del consumidor y/o cliente, y su metodología orientada hacia el manejo de unidades estratégicas de negocio y carteras de producto simplifican ubicarlo en empresas de mercadeo como Procter & Gambler.
  • El modelo de Hoshin Kanri nació como un modelo integrador de las metodologías de Calidad Total. Por su concepción orientada a la producción y manufactura de calidad, tiene un calce afín a las organizaciones de producción y manufactura, donde los ingenieros tienen la responsabilidad de planificar como gerentes a la vez. El mejor ejemplo de esto es Toyota, donde Hoshin Kanri es ampliamente utilizado.
  • El modelo de Chiavenato es un modelo más general, cuyo diseño de análisis recurrente y proceso limpio y directo lo hagan más proclive a ser aplicado en organizaciones mixtas. Su hincapié en la revisión constante de los planes estratégicos y enfoque en atacar los planes que demanden acción inmediata le da una leve ventaja en las empresas como bancos o empresas de tecnología donde el entorno en muy dinámico.

Concluimos así que todos nuestros modelos de planificación estratégica son extremadamente útiles y completos, y que en el conocimiento de cada uno de ellos el gerente moderno cuenta con una amplia gama de metodologías de planificación a su alcance inmediato, listos para ser aplicados en el marco, industria y contexto adecuado.

Referencias Bibliográficas

  1. Steiner, G. (1997) Strategic Planning: What Every Manager Must Know. New York, USA. Free Press Publishings.
  2. Kotler, P. (2009) Dirección del Marketing 12a Edición. New Jersey, USA. Prentice Hall.
  3. Chiavenato, I. y Sapiro, A. (2011) Planeación Estratégica: Fundamento y Aplicaciones 2da Edición. New York, USA. McGraw Hill.
  4. Akao, Y. (1991) Hoshin Kanri: Policy Development for Successful TQM. Cambridge, USA. Productivity Press
  5. Tennant, C. y Roberts, P. (2011) Honshin Kanri: A Tool for Policy Deployment. Knowledge and Process Management. Volumen 8, número 4, pp 262-269

The Drawbacks of Sales Overloading

There is a danger inherent to sales teams and salespeople everywhere: overloading. Overloading is evil, but its effects, despite usually short-term, do not seem to affect sales teams, who will soon oversell and overload the market with despicable effect.

Overload happens whenever you sell more than you originally forecasted. I know many forecasts are weak and prone to change according to the dynamics of the market. But in many other cases, forecasts are easy to project and analyze. Accounts with a long-standing history and little change in the trade channel are good candidates for very accurate forecasting. If you did your math right and set good targets, you should hit those targets more often than not and come very close to the median of above and below the forecast target. But if you happen to surpass your target by large, let’s say anything above 10%, then you might be a victim of overloading.

I speak from experience. I have seen many times how my sales team surpassed its targets by 40% or more, only to miss them the next month (usually by the same amount, thus losing any advantage gained.) Sales managers should be very dubious of easy numbers. If you met your target and blew it out by the 20th of the month, you either had a weak forecast or most likely you are overloading the market.

Overloading has two principal problems. The first one is that since the channel can only absorb so much product if you push too much of it you are only choking the channel and promoting a bottleneck. I know brands can gain market share thus expanding sales, but market share gains come to a point at the time, sometimes even slower, thus the overload effect is usually not concomitant of market share gains. In simple words, what you sold extra this month is what your customer won’t sell this month, so he or she won’t buy next month.

The second negative effect is when overload hits retail. Too much product at the same time and sales will not grow proportionally. All of the sudden your customer will detect they have too much of your product on hand, but since sell-through will be pretty much the same, turnover of goods on hand will drop. When the product moves slowly from the warehouse to the shelves retailers have to start discounting or promoting it in some way, both measures that consume resources, thus reducing their profits on your products. Retailers will not think about the overload effect (they know it, they just won’t think about that.) Retailers will think your product is moving slow and its profits are reducing, and adjust their buy long-term. This is hurtful since your forecast will now be negatively affected.

Some will say that once the normal flow of product, or even reduced flow, start to hit the market, retailers will have to refresh their inventories more often and will start buying more. This is a truth, but it’s also a truth that consumers will buy from your competitor if they cannot find your product more often than not. Lost sales to inventory adjustments from overloading usually don’t come back, again, negating any effects from the initial rush of sales abundance.

So next time your sales team is about to throw a party for that 74% above budget sales result, think twice. Companies do get lucky from time to time, but history tends to repeat itself, and most likely you are the next victim of the overload effect, something that will come back to haunt you soon.

Brute Force Sales

I used to believe that any sales problem can usually be solved – if not best solved – by brute force sales strategies. Programmers call brute force algorithm a very general problem-solving technique that consists of systematically enumerating all possible candidates for the solution and checking whether each candidate satisfies the problem’s statement.

A brute-force algorithm to find the divisors of a natural number n would enumerate all integers from 1 to the square root of n, and check whether each of them divides n without remainder. A brute-force approach for the eight queens puzzle would examine all possible arrangements of 8 pieces on the 64-square chessboard, and, for each arrangement, check whether each (queen) piece can attack any other.

While a brute-force search is simple to implement, and will always find a solution if it exists, its cost is proportional to the number of candidate solutions – which in many practical problems tends to grow very quickly as the size of the problem increases. Therefore, brute-force search is typically used when the problem size is limited, or when there are problem-specific heuristics that can be used to reduce the set of candidate solutions to a manageable size. The method is also used when the simplicity of implementation is more important than speed.

In real life sales, brute force is usually used not when the simplicity of implementation matters more than speed or when the problem is constrained to few variables, but rather when urgency or lack of resources occur. Do you have too many boxes of product ACME in the warehouse? Brute force sales through discounting will do the trick. Did you run out of marketing budget for product X? Brute force sales with your oldest, best sales rep will do the trick? Is this market down in sales and you need a quick pick me up? Brute force sales with your sales manager and watch the numbers grow!

Or not…

I am beginning to see that brute force sales are – just as in programming – a limited tool for your sales strategy. It works in a limited set of occasions when short-term results will help alleviate short-term problems. But it will never help streamline structural problems of your overall sales or company strategy.

I have seen it many times. Companies believe they can push for ever higher sales targets pushing promotions, discounting, or just sending their best sales reps to lunch with accounts and execute sales through sheer courage. It works the first or second time, but managers begin to puzzle after the third time why the diminishing returns. The surprise is that managers keep insisting on brute force sales despite its ineffectiveness long-term.

Do not get me wrong, I know that salespeople need to continuously push for sales. I do it all the time, and I use brute force sales now and then. The case is I know how and when to use it in an effective way. The brute sales force will not solve a major category or product problem. If your product became obsolete brute sales force will not help. No matter how hard you push, you will never be able to sell 3 ½ inch diskettes. No matter how hard you try, some brands lose their positioning and appeal and the target consumer moves on to another. Then it becomes a marketing problem, an innovation problem, an advertising problem, but not one that can be solved thru brute force. It’s not about attacking the symptoms, but rather truly overcoming the illness.