Páginas

29/9/17

EL PETRÓLEO: LOS PRECIOS EN ALZA



José Rafael Revenga                                                 Octubre 01, 2017

De manera imprevista y contradiciendo numerosas alertas, los precios del petróleo evidencian durante las ultimas dos semanas, un auge significativo al alcanzar el marcador Brent, el lunes 25.09, el nivel mas alto desde  julio 2015: $59,02/b.
A la vez, el marcador WTI, mas cercano al marcador propio de la cesta venezolana superó, en la misma fecha, el techo de los $50s/b para situarse en un casi increíble $52,22/b.
El viernes 29.09 el WTI cierra en $52,54/b mientras el Brent registra $56,64/b.





Obviamente este acontecimiento sorpresivo ha generado múltiples interrogantes entre los cuales el principal se refiere a la posibilidad que el Brent supere los $60/b,
En todo caso, en lo que concierne al impacto sobe nuestros ingresos, se puede calcular que el beneficio neto es algo superior a los $5/b lo cual es un alivio –¿temporal?- siempre que se mantenga el nivel actual de producción. 
O sea, en este momento el precio de nuestro petróleo roza  $50/b.
Un primer factor causal es una demanda a nivel global mas robusta que la esperada al incrementarse en casi 1,88 millones b/d en comparación con el nivel del 2016. Lo cual ha repercutido en una disminución de los inventarios de crudo en Europa.
En la práctica, tanto China (mas de ocho millones b/d importados) como India y aun Europa exhiben un aumento del consumo. La parálisis parcial durante varias semanas de varias refinerías estadounidense debido al efecto “Harvey” también ha contribuido al incremento de los productos refinados incluyendo el diesel y el  jet fuel.

A esos factores hay que añadir la amenaza, muy creíble, de Turquía de impedir las exportaciones de crudo proveniente de la región kurda en Irak ((Kurdistan)  lo cual pudiera reducir el flujo hasta en 500.000 b/d. Esta medida sería la represalia automática generada por la realización de un referendo sobre la independencia de la región.
La incertidumbre en relación a cual es el próximo vector de los precios del crudo  es tal que analistas especulan que en el 2018 ellos pudieran acercarse a los $80/b. Citigroup Inc. considera  que la industria debe prepararse para un posible déficit del suministro (“supply gap”).
El porcentaje de cumplimiento por parte de los productores OPEP y no-OPEP gira alrededor del 90% . Esta disciplina que en teoría elimina un suministro equivalente a cerca 1.800.000 b/d ha comenzado a demostrar su eficacia visible en la reducción de los inventarios de crudo en Europa.

Dicho acuerdo vence a fines de marzo 1918 por lo cual las negociaciones para extenderlo y para determinar la magnitud de la oferta por retirar del mercado deben tener lugar a fines de noviembre. Hasta ahora, las expectativas son positivas y, por lo tanto, no es irreal considerar que el marcador Brent supere el nivel de $60/b a fines del 2017.
Todavia hay pocos comentarios en los medios profesionales sobre el impacto que ha de tener el alza de los precios como incentivo para acrecentar el desarrollo del shale en los EE.UU.
Quiero, sin embargo, referirme a dos situación reales que pueden servir de aviso premonitor para calibrar el desarrollo de la explotación del shale tanto en petróleo como en gas a nivel mundial.  En primer lugar, el gigantesco yacimiento en Argentina denominado Vaca Muerta en la provincia de Neuquen el cual ha atraído la inversión de varias transnacionales incluyendo Exxon y Chevron.
La otra es el proyecto de BP de extraer gas de piedras muy duras y profundas en Omán en la Península Arábiga. El proyecto Khazzan se iniciará con 200 pozos y prevé la extracción inicial de un millardo de pies cúbicos diarios de gas. La inversión total será de 16 millardos de dólares.


23/9/17

MAS ALLÁ DE LA IGNORANCIA


José  Rafael Revenga                                   Setiembre 24, 2017
 
La Gerencia del Conocimiento por parte de las organizaciones corporativas, públicas y privadas, tiene como misión, superar la ignorancia y la incertidumbre a fin de liberar la innovación potencial.
En algunos casos, se trata de superar la falta de conocimientos y en otros, superar una ignorancia mínima, absolutamente imperceptible la cual se traduce en una receta inercial: “si no está roto, no lo arregles. Por lo tanto, se trata  de llegar a ser un poco menos “des-conocedores” desde el punto de vista corporativo y extender este esfuerzo al desempeño profesional individual.
Tres tipos de ignorancia
1)    Yo sé lo que no sé
Para poder ir un paso más allá de la ignorancia, hay que recordar que existen tres tipos. La primera es conocida como la ignorancia iluminada. "Yo sé lo que no sé" es la mejor de todas ellas, porque de allí en adelante es fácil que el individuo quiera aprender y resulta fácil motivarlo para que adquiera conocimiento y sea capaz de transferirlo.
2)    Yo no sé lo que no sé
El segundo tipo puede resumirse en esta frase: "yo no sé lo que no sé", y se denomina ignorancia ciega. En esta situación debe asumirse el rol de catalizador y se debe exponer a la persona o a la organización a aquellos conocimientos que desconoce y que vale la pena que averigüe y asimile.
3)    Yo no sé lo que sé
Se describe el tercer tipo como "yo no sé lo que sé" y contra esa ignorancia hay que tener cautela, porque es la más dañina, la más amenazante, sobre todo en el ámbito de las corporaciones. En muchas ocasiones, las empresas cuentan con una red de conocimientos, pero sus empleados no saben que existe o desconocen que otros miembros  de la organización sí la utilizan o están al tanto de ella.
Las compañías-o las personas que las dirigen-, que no se den cuenta de lo que sí saben, tropezarán con el peor de los enemigos: no poder capitalizar sus conocimientos y, por consiguiente, quedarse en una onda estacionaria. Por lo tanto, citaré una ley tomada del gran pensador y estratega Yehezkel Dror (Universidad de Jerusalén): "las empresas más exitosas hoy en día son las que mañana tendrán mayor probabilidad de fracasar", y eso justamente es lo que debe evitarse, además de tratar de vencer el tercer tipo de ignorancia, que es la más perniciosa.
La dinamia interna de las organizaciones

Las organizaciones están sustentadas por redes de comunicación y de información. Para saber cómo es una organización, cómo se mueve y qué tipo de corporación es, no hay nada mejor que remitirse al diseño arquitectónico de estas redes, especie de sistema nervioso que la compone y sostiene, cuyo carácter puede ser formal e informal.
En el caso de las redes informales algunas de ellas son mucho más creíbles y actuales que los memoranda oficiales emitidos por la compañía. Numerosas decisiones se toman de manera más directa en pasillos o en encuentros informales, que en reuniones formales dentro de la organización.
¿Cómo expresar este tipo de redes, cómo hacer que salgan a la luz, que se visualicen? Recurro a la descripción de tres tipos de corporación, cada una de ellas definidas por sus respectivas leyes.
Tres formulas de redificación corporativa
La primera es, matemáticamente hablando, fiel a la Ley de Sarnoff. La segunda es la ley de otro gran inventor y genio de la computación, Metcalfe. La tercera obedece a la conocida Ley de Reed.
Ley de Sarnoff
La Ley de Sarnoff no es otra cosa que una suma numérica. David Sarnoff fue un emigrante ruso que llegó a los Estados Unidos y trabajó como locutor en la Empresa Marconi. En 1921 inventó la radio inalámbrica, en 1939 estuvo a cargo de la primera transmisión comercial de televisión y luego fundó el imperio corporativo llamado NBC. ¿Qué dice la Ley de Sarnoff? Que el valor de un conjunto, de una red, es la suma numérica de sus miembros, o sea, N + 1, (30+1=31+1=32), etc.
Ese es el modelo clásico de una organización que es de uno a muchos, de un emisor central a muchos receptores pasivos. Es el modelo clásico de comunicación, transmisión de información y gestión de conocimiento. Como ejemplos de esta estructura: las estaciones de radio,  los diarios impresos y la industria de la televisión hasta hace pocos años..Estos modelos empaquetan un conocimiento y lo difunden desde un punto central a muchos nodos dispersos.
El problema con este tipo de redes en las grandes empresas es que se constituyen en sistemas nerviosos de las mismas y el conocimiento tiende a concentrarse en la cabeza de la pirámide organizacional. Esta situación conduce a la desactualización. La realidad del mundo de los negocios, de los competidores y de los mismos cambios tecnológicos ya no funciona de esa manera, más bien está escapando a la Ley de Sarnoff.
La Ley de Metcalfe
La Ley de Robert Metcalfe explica que el valor de la red es equivalente al cuadrado de sus miembros. Obviamente el valor es exponencial y la “ene” somos todos nosotros. Supongamos que existe un grupo de 100 personas, el valor de la red, equivalente al número de las interconexiones entre cada uno, es de 100 al cuadrado menos la base de 100, o sea, que pudiéramos establecer, en teoría, 9.900 conexiones individuales de diversos tipos.
Las empresas asociadas con esta ley son las de telefonía básica, porque son un circuito de mucho a muchos, no de uno a muchos. Cualquier individuo puede tomar un teléfono y comunicarse con muchas personas, entonces la pirámide se desploma y entra en una dimensión que algunos han calificado como caótica, porque se pierde el orden en la organización.
Esto, sin embargo, trae como consecuencia la “horizontalización” de la corporación y de la transmisión de conocimiento. La gerencia del conocimiento, en este caso, queda diluida o dispersa, pero con la gran ventaja de que cada uno puede comunicarse con quien sea de la red, establecer un intercambio, aprender del otro, y a su vez,  inventar y transmitir, información.
La Ley de Reed
La tercera es la Ley de David P. Reed la cual nos  introduce en  una dimensión desconocida. Reed es un gran científico, inventor de VisiCalc cuando trabajaba en Software Arts. También fue Chief Scientist de Lotus. Cuando esta empresa expandió sus ofertas de productos más allá del célebre 1- 2 - 3, descubrió que la Internet como tal, permitía la interacción entre grupos muy dispersos y diferentes. Actualmente, en Japón, por ejemplo, casi todo el mundo tiene a la mano un celular Internet, o sea, las personas están permanentemente conectadas de manera inalámbrica y esto da pié para que se forme todo tipo de grupos por afinidad de intereses, individuos que no se conocen ni nunca llegarán a conocerse, pero  que están unidos únicamente por una interconexión. Inalámbrica.
Los adolescentes son muy adictos a este tipo de agrupación, dando origen a los famosos sitios de chateo. Al momento de llevar una Internet portátil, el chateo es universal y permanente con grupos que pueden ser duraderos o efímeros. Es una realidad totalmente diferente, en donde el valor de estas organizaciones, de acuerdo con esta ley, es muchísimo más complejo y exponencial. Por ejemplo, 2 elevado a la N sería equivalente a 2 elevado a la 100 menos la base de 100, que somos nosotros mismos, menos 1. Es decir, en estos casos, el flujo de la Gerencia del Conocimiento, de las relaciones de aprendizaje, adquisición y transmisión de información, pasan a una nueva dimensión.
Otro factor a tomar en cuenta es el hecho de que los cambios empresariales, económicos, sociales o políticos, siempre están rezagados-por lo menos una década- en comparación con la curva de ascensión de la tecnología, en la época actual. Un ejemplo de ello es la misma Internet..

Casos de Aplicación del Conocimiento

British Petroleum hace mas de diez años decidió descentralizar su empresa piramidal, creando BPX y formando 50 unidades de negocios. El problema, en cualquier proceso de descentralización, es que las unidades se vuelven autónomas, es decir, cada grupo empieza a ocuparse de sus negocios y pierde el marco de referencia corporativo, corriendo el riesgo de convertirse en rivales entre ellas mismas.

Sir John Brown, presidente de la junta directiva de BP, en 1995, estableció grupos de consulta y de información cruzada entre las diferentes unidades, reuniéndose con sus ejecutivos senior para tratar problemas más allá de las entidades de negocios.

¿Qué pasó? Que la gente comenzó a relacionarse con los otros colegas de las otras unidades de negocios y empezó a descuidar lo que los americanos llaman el “bottom line”, es decir, la rentabilidad propia de cada unidad de negocio, obligando a cancelar este intercambio de aprendizaje o de Gerencia de Conocimiento. Buscando un término medio, concibieron el concepto de Gerentes Tipo T, donde la barra horizontal superior de la T es justamente la colaboración más allá de las unidades de negocio a lo largo de todo el radio de acción de la corporación, mientras que la barra vertical es la gestión directa, inmediata, de todos los días de sus unidades de negocio.

¿Qué ha ocurrido? Que en algunos momentos la barra horizontal de la T se estira como un acordeón y, en comparación, la barra vertical se hace muy pequeña. También sucede que el personal sigue en su barra vertical y la barra horizontal de la T se vuelve muy pequeña, por ello, actualmente siguen en experimentación y autoaprendizaje.

El mérito de estos grupos de trabajo es que se encuentran centrados en el conocimiento y lo aplican para sí mismos, son lo que se llama organizaciones "knowledge-centric", donde los valores, el desempeño profesional, la superación personal y la utilidad de todo lo que se hace, están en función del conocimiento.

Por consiguiente, se necesitan nuevas estrategias de productos y aprender a gestionar el conocimiento en función de estos planes. Hoy los productos nuevos que sólo ofrecen incrementos no son suficientes para salir del atolladero, deben buscarse productos disruptivos o mejor dicho productos innovadores.

En otras palabras, las nuevas concepciones para las nuevas organizaciones deben basarse en aprender y gestionar el conocimiento, en hacer que los productos lleguen a los clientes e inundarlos con servicio, apoyo y mantenimiento. 

Actualmente el producto no es sólo aquello que describe la ficha técnica que viene en la caja, sino lo que el cliente hace con el producto.

Las Leyes de la Disrupción

Y ahora para colmo, Larry Downes ha difundido sus “Leyes de la Disrupción” (The laws of disruption) en un “bestseller” publicado en el 2009. El libro versa sobre los cambios necesarios en la vida y en las empresas para sobrevivir el impacto de las nuevas fuerzas de la Era Digital en nueve áreas críticas.

La nueva Ley reza así: “la tecnología cambia exponencialmente mientras los sistemas sociales, económicos y legales cambien de modo incremental”.

Los dos propulsores de la Ley de la Disrupción son la Ley de Moore que indica que la capacidad computacional de los transistores se duplica mas o menos cada año y la Ley de Metcalfe la cual indica que la potencia de una red se amplia exponencialmente con cada nuevo usuario.

Parecería que, tarde o temprano, las irrupciones no cesaran de surgir debido a las leyes de la disrupción.

11/9/17

INTERNET: LAS CIFRAS MUNDIALES




José Rafael Revenga                                  Setiembre 17, 2017                                               

La dimensión de la interconectividad vía IN continúa su propagación invasiva. Las últimas cifras oficiales, actualizadas hasta el 30-06-2017, muestran un total de 3.835.498.374 usuarios lo cual refleja una penetración del  51% de la población mundial estimada para esa fecha en 7.519.028.970.

Es comprensible que la amplitud de la cobertura varíe significativamente de una región a otra. Por ejemplo, la zona de América del Norte, la cual según Internet World Stats incluye a los Estados Unidos, Canadá, Bermuda y Groenlandia, alcanza la casi totalidad de sus pobladores con un 88,1%.


Es necesario precisar las significativas variaciones por parte de las regiones en cuanto a tasa de penetración y tasa de crecimiento. América Latina y África muestran un significativo potencial por realizar. América Latina muestra un 60,6% de cobertura con 392.215.155 personas conectadas mientras África  reporta un significativo retraso con una cobertura de 31,1% de su población o sea 388.104.452 y Asia figura con un 46% equivalente a 1.909.408.707conectados.





Sin embargo, un enfoque intraregional nos permite una visión aun mas realista y menos agregada. En América del Sur Ecuador, Argentina y Chile lideran con 81,0%, 78,6% y 75% de penetración. Venezuela figura con 19.155.425 usuarios de una población total de 31.925.706 para un radio de acción del 60%. En posiciones inferiores se encuentran  Colombia con 58,1% y Bolivia con 44,1%.



El caso de Colombia no es directamente comparable con Venezuela pues no solo hay que tener en cuenta la amplitud de la cobertura sino también, entre muchos factores, la velocidad de conexión. En Colombia ya hay ofertas de planes hasta 100 Mbps mientras en Venezuela no hay oportunidades superiores a 2 Mbps.

En términos absolutos, la región mundial con mayor número de usuarios es Asia con 1.909.408.707 usuarios lo cual representa la mitad de los usuarios globales a pesar de su tasa de penetración de 46%.

 Vale la pena destacar los siguientes casos individuales:

Japón y Corea del Sur ocupan los primeros lugares en cuanto a penetración: El primero con 94% y el segundo con 92,7%. A su vez China señala un 53,2% de penetración lo cual incluye a 738.539.792 de sus pobladores. En comparación, la otra meganación, India,  arroja solo un 34,4% de cobertura la cual incluye a 462.124.989 de sus ciudadanos.




Hay que prestarle atención a la velocidad de crecimiento de los usuarios tanto a nivel regional como nacional. Obviamente, aquellas zonas en las cuales la saturación del mercado de potenciales conectados está alcanzado límites cercanos al 90% exhibirán un tasa de expansión muy reducida y los desarrollos se darán en otras esferas.

Mas me interesa poder calibrar si aquellas regiones y naciones que exhiben una penetración menguada o, en todo caso, sensiblemente inferior a los punteros, están condenadas al atraso permanente o si bien muestran un reciente y vigoroso dinamismo de expansión.

Un claro ejemplo lo tenemos en el continente africano el cual ha evidenciado un asombroso crecimiento de 8.497% en el período 2000-2017. De mantener una tasa similar, dicha región superará el 50% de penetración en pocos años. Igual reflexión amerita el caso del Medio Oriente que exhibe una tasa de 4.374,3% a pesar de contar con el 58,7% de sus pobladores conectados.

En ambos casos  –África y Medio Oriente-  la continua y acelerada expansión los equiparará regional y nacionalmente con los actuales líderes. No obstante, tanto en Asia como en África y en el Medio Oriente permanecerán situaciones nacionales de gran retraso y encapsulamiento que ameritarían un tratamiento específico.



9/9/17

UNIVERSIDADES DE PRIMERA Y DE SEGUNDA A NIVEL MUNDIAL



José Rafael Revenga                                    Septiembre 10, 2017

Me impresionó conocer el mas reciente ranking académico de las universidades a  nivel mundial (ARWU 2017).

La evaluación anual,  formalmente conocido como Academic Ranking of World Universities y coloquialmente como el “Ranking Shanghái”, ha sido preparado a partir del 2003 por una consultoría de máximo prestigio que califica las 500 mejores universidades en base a data proveniente de ellas mismas.

Algunos resultados son los esperados pero muchos otros sorprenden. Veamos, en primer lugar, las primeras “Top 10” en el orden secuencial  que se inicia con la Universidad de Harvard en el primer puesto y la Universidad de Stanford en segundo lugar:


Saltan a la vista por lo menos tres consideraciones:
·       las primeras diez instituciones son angloparlantes; 
·       ocho de las diez primeras son estadounidenses complementadas por dos entidades británicas  
·       el hecho que una universidad ocupe un puesto a nivel global no garantiza que se encuentre en la misma posición en las diferentes categorías en las cuales el “Ranking” se divide: Ciencias Naturales y Matemática; Ingeniería, Tecnología y  Ciencias de la Computación; Ciencias de la Vida y Agricultura; Medicina Clínica y Farmacia y por último, Ciencia Social.

El informe Shanghái ofrece la clasificación de las primeras 200 universidades en esas categorías.

Por ejemplo,  si bien MIT ocupa el cuarto puesto a nivel global es la primera en la categoría “Ingeniería”. Adicionalmente, la Universidad de Harvard figura solo en el cuarto puesto en las disciplinas científicas pero mantiene su primer lugar en las Ciencias Sociales y las disciplinas relacionadas con la Medicina Clínica y la Farmacia así como su primer lugar total.

Otra consideración que no debe soslayarse es la presencia de un grupo de universidades incluidas en el “Top Ten” de Ingeniería  en diversas naciones fuera del ámbito USA y GB.

Entre ellas la Nanyang Technological University (China) la cual ocupa el segundo lugar en dicha categoría.

Otras tres universidades ocupan los siguientes lugares en  dicha casilla: King Abdulaziz University  (Arabia Saudí) (5); National University of Singapore (6); Harbin Institute of Technology (China) (9).

Para ilustrar el hecho que cualquier selección de una universidad requiere un fino análisis de sus capacidades académicas tenemos el caso de Harvard que figura en la casilla #37 en cuanto a la calidad de su oferta en Ingeniería.
Las primeras universidades hispano-parlantes aparecen en el rango #200--#300 y son: Barcelona, Granada y Pompeu Fabra.

En relación a América Latina las primeras universidades por surgir en el Ranking son la Universidad de Argentina, la Universidad de Chile y la Universidad Católica de Chile a partir de los puestos mas alla del #200 y del #300. Las demás se encuentran mas allá del nivel de #500.

Vale la pena consultar otro ranking de similar prestigio que refleja consideraciones análogas a las de Shanghái.


Ver aquí  

1/9/17

DILUVIO SOBRE TEXAS Y EL IMPACTO SOBRE EL PETRÓLEO



José Rafael Revenga                                   Septiembre 03, 2017

Las  catastróficas inundaciones en el sureste de Texas que afectaron de manera imprevista con efectos desastrosos no solo las ciudades portuarias como Port Arthur y Corpus Christi sino a la propia Houston –la cuarta megaciudad de los EE.UU.-  han causado disrupciones gigantescas en la primera región petrolera  del país. Además de los, aun por cuantificar, costos humanos, la industria petrolera ha sufrido un shock del cual tardara largas semanas si no meses en volver  a la normalidad.

Un tsunami cae de las nubes



Solo el viernes 25.08 cayeron 12 mil millones de litros de lluvia sobre la región de manera  tal que los aliviaderos de las represas han sido insuficientes y ellos mismo han contribuido  a agravar el caudal de aguas liberado.

En los primeros seis días un total de 102 millardos de litros de lluvia ha anegado numerosas ciudades y comunidades. CNN establece el equivalente de 400 días del torrente de las cascadas de Niágara. Otro calculo lo compara con el suministro de agua a la ciudad de Nueva York durante cinco décadas.

Se calcula que hasta el presente el nivel  promedio del  efecto del las lluvias desatadas por el Huracán Harvey ha sido de metro y medio de profundidad. Peor aun, el “downtown” de Houston está totalmente bajo agua. Hasta el presente se contabilizan mas de 1.000 viviendas destruidas y 50.000 dañadas.

Cerca del 25% de la capacidad de refinación nacional se encuentra inactiva. Trece refinerías han cancelado su producción. Todo la complicada madeja de distribución: transporte por vía ferroviaria, oleo y gasductos, instalaciones de carga y descarga portuaria en Port Arthur y Corpus Christi.

Un indicador directo de la situación caótica que afecta la industria del petróleo es la solicitud formulada por Phillips 66 al Departamento de Energía de permitirle acceder a un millón de barriles de crudo de la Reserva Estratégica para poder alimentar su refinería en Lake Charles, Luisiana.
Petroleum y Valero Energy han presentado requerimientos similares los cuales fueron autorizados. El objetivo de dicha solución de emergencia es intentar frenar el aumento del precio de la gasolina a fin de que el alza no supere el nivel de $2 por galón.

Toda dicha infraestructura se encuentra desmontada y en muchos casos sin energía eléctrica. Y seguirá siendo así por un largo tiempo difícil de calcular hasta que las aguas lentamente se retiren y se pueda proceder a evaluar  la situación. Solo en la zona de Houston los daños a  la infraestructura superan los diez mil millones de dólares

Las refinerías clausuradas:

 Motiva en Port Arthur, la principal refinería de los EE.UU., propiedad de Aramco, con una capacidad de 603.000 b/d, estará inoperante por lo menos por dos semanas a partir del 30.08.

ExxonMobil, Baytown con 560.000 b/d

Royal Dutch Shell, Deer Park, con 360.000 b/d

Phillips 66, Sweeny, con 247.000 b/d

Citgo, Corpus Christi, con 157.000 b/d

En total, actualmente hay 2.330.000 b/d de capacidad de refinación en Texas que ha sido clausurada. En pocos días, debido a cierres parciales la cifra pudiera alcanzar los 3.600.000 b/d lo cual ya empieza a tener un impacto directo sobre el aumento del precio de la gasolina y otros productos refinados destinados a la exportación los cuales se vuelven mas escasos.




Para el 28.08. fueron colocados fuera de producción 30 millones de producción diaria de etileno en Texas incluyendo las plantas de ExxonMobil, Chevron Phillips Chemical y Royal Dutch Shell. El volumen representa el 55% de la capacidad total de etileno instalada en Texas.
El total de la capacidad de refinación de crudo de Texas es de 4.944.000 b/d mientras que la del estado de Luisiana, también afectado por HH, es de 3.696.000 b/d.

Paradójicamente, los precios del crudo han sido impulsados a la baja debido a un exceso de crudo que no encuentra colocación en las refinerías
El martes 29.08 los precios del crudo caen a su nivel mas bajo en u

n mes debido a la reducción forzada por parte de la demanda al paralizarse un 25% de la capacidad de refinación. El WTI cae ese día en 1,6% para colocarse en $45,80/b  mientras el marcador europeo Brent acusa un decrecimiento de solo 0,6% y, por consiguiente, la brecha entre ambos ha aumentado a unos cinco dólares.

Para el viernes 01.09 el WTI se recupera y alcanza $47,29/b para los contratos por vencer en octubre.

El shale oil duramente afectado

Otra dimensión de la devastación sobre la industria petrolera es la reducción de la producción emanada de los yacimientos dedicados a la explotación del “shale oil”.

La zona Permian ha visto reducir (offline) su producción en 650.000 b/d  mientras que la empresa XTO Energy, propiedad de Exxon, cerró toda su producción. A su vez, Conoco Phillips redujó la producción  del yacimiento Eagle Ford en unos 400.000 b/d. 

La recuperación tiene que sortear numerosos imponderables: varios hospitales han tenido que evacuar a sus pacientes por falta de suministro de agua potable.

Mas amenazantes han sido las explosiones en una planta de productos químicos entre ellos peróxidos orgánicos susceptibles de una reacción tóxica  al no mantenerse refrigerados la cual contaminaría la atmósfera Los habitantes en un radio de 2 km  tuvieron que ser desalojados.

Se estima que la recuperación de la infraestructura y de las -comunidades humanas –en los primeros cinco días se rescataron 72.000 personas—tomará años.

En cuanto a la ingeniería para lograr una puesta en marcha parcial en las próximas semanas.las refinerías fuera de operación se hacen todo tipo de esfuerzos