domingo, 4 de agosto de 2013

Formación profesional y desarrollo económico

Desde la antigüedad el avance en las condiciones de vida de la humanidad ha estado directamente ligado a la capacidad para adaptar las riquezas naturales del entorno  y convertirlas en productos elaborados mediante el consumo de energía, buenas ideas y destreza técnica. Todo este proceso (denominado industrialización) y de la manera como ha sido gestionado es lo que ha permitido que algunos países sean conocidos como potencias económicas. Pero hoy en día la industrialización es condición necesaria, pero no suficiente, para alcanzar crecientes niveles de riqueza y desarrollo de un país, porque existe un sector de servicios, que no es sustituto del industrial, sino el complemento del mismo y que se ve reflejado en los logros de las metas y en el cumplimiento de las normas y exigencias ambientales. Pero para que esto funcione no debemos perder de vista dos aspectos importantes, el primero es analizar la experiencia de otros países nos muestran claramente, que una de las causas de su crisis son los costes de mano de obra y una rigidez laboral no equiparable al valor añadido que proporciona una producción excesivamente especializada y obtenida con tecnología madura. Está claro que para seguir creando riqueza hay que diversificar la economía hacia productos de alto valor añadido, y la solución más eficaz es fomentar la innovación que repercute positivamente sobre el incremento de la productividad y la competitividad de las empresas; lo cual mejora a medio o largo plazo la situación del mercado de trabajo local y, por tanto, el bienestar de los ciudadanos. En segundo lugar, considerar los problemas generales de nuestras empresas, especialmente de la PyMES que utilizan tecnología convencional, generalmente de proceso, para fabricar productos homogéneos (indiferenciados, estandarizados, comunes o de bajo valor añadido) que comercializan básicamente en el mercado nacional; siendo pocas las empresas que tienen un marcado carácter exportador.
Los empresarios y directivos concentran sus esfuerzos en disminuir los costes de producción, para ofertar los productos en el mercado a un precio igual o inferior al de la competencia. La mayor parte de empresas peruanas no solo invierten poco en investigación y desarrollo, sino que tampoco colaboran con la universidad para obtener tecnología, al considerar erróneamente que ésta vive aislada del mundo real, lo que le impide comprender los problemas y necesidades de la industria. Las empresas que solo actúan en este sentido son las llamadas a desaparecer porque siempre habrá quien lo pueda hacer más barato. En ese sentido, el directivo no se considera responsable directo de los malos resultados ocasionados por una gestión anclada en valores y productos del pasado, y no quiere reconocer que el problema de la competitividad tiene como una alternativa eficaz la producción de bienes o servicios con alto valor añadido. Y para lograr esto se requiere de trabajadores cualificados con una elevada formación, porque ellos constituyen el capital más importante en una empresa y uno de los pilares básicos  de su estrategia competitiva. La formación en nuevos modelos de dirección empresarial, la toma de decisiones con el uso adecuado de herramientas, el cumplimiento de las exigencias de seguridad laboral, el respeto por el entorno, etc., son hoy en día factores primordiales en una gestión moderna que permitirá al tejido empresarial y social incrementar su capital técnico, su capacidad innovadora y su competitividad.
Las empresas no deben olvidar que la universidad, por su propia naturaleza y funciones, constituye siempre una de las más destacadas instituciones de investigación, y es un elemento que no debe faltar en su plan estratégico.

Dr. Maximiliano Arroyo Ulloa

USAT

martes, 28 de mayo de 2013

05 de Junio Día Mundial del Medio Ambiente

05 DE JUNIO DÍA MUNDIAL DEL MEDIO AMBIENTE

“PIENSA – ALIMÉNTATE – AHORRA”

El Día Mundial del Medio Ambiente tiene como lema: Piensa Aliméntate Ahorra que pretende servir de apoyo a la campaña global del mismo nombre para reducir los desechos y las pérdidas de alimentos lanzada por el Programa de naciones Unidad para el Medio Ambiente (PNUMA), FAO y países Asiáticos. Esto en respuesta al informe elaborado por el equipo de GRID-Arendal (centro de investigación con sede en la ciudad Arendal de Noruega y financiado desde 1989 por la Norwegian Foundation) que advierte que hasta el 25 por ciento de la producción mundial de alimentos puede llegar a perderse en los próximos 35 años debido a la degradación ambiental, a menos que se tomen acciones inmediatas.
El informe muestra datos de cómo el cambio climático, la escasez de agua, las plagas invasoras y la degradación de suelos, pueden afectar la seguridad alimentaria mundial, los precios de los alimentos y la vida en el planeta, pero a su vez nos indican de cómo podemos ser capaces de alimentar al mundo de una manera más sostenible. Según la FAO, cada año se desperdician 1,3 billones de toneladas de comida, cantidad equivalente a la producción alimentaria de todo el África Subsahariana. Al mismo tiempo, una de cada siete personas del planeta se va a la cama hambrienta y más de 20.000 niños de menos de 5 años mueren de hambre cada día. :
·   A nivel global, cada año se pierde o se desecha aproximadamente 1,3 billones de toneladas de comida producida. Los desechos y comida que se pierden equivalen a más de la mitad del cultivo mundial de cereales.
·  En países en vías de desarrollo, la mayor parte de los desechos y pérdidas se producen en la primera fase de la producción.
·   En países con nivel de ingresos medio o alto, la mayor parte de los desechos tienen lugar en la fase final del proceso productivo.
·   Cada año se producen desembarques de entre 100 y 130 toneladas de pescado, de los cuales 30 millones de toneladas son descartados.
·    En Estados Unidos se desechan cada año un 30% de todos los alimentos producidos. Se calcula que la mitad del agua empleada para la producción de esos alimentos también es desperdiciada. El desecho de materias orgánicas es el segundo componente más abundante de los vertederos, que son a su vez la principal fuente de emisión de gas metano.
·   En Inglaterra aproximadamente un 32% de los alimentos que se compran cada año no se consumen y son desechados.
·    La pérdida y desperdicio de alimentos suponen además un importante gasto de agua, tierra, trabajo y capital que inevitablemente favorece el efecto invernadero y por tanto, el calentamiento global y el cambio climático.
Si desperdiciamos comida, significa que todos los recursos empleados para producirla también lo son. Así por ejemplo, producir un litro de leche supone gastar 1000 litros de agua o producir una hamburguesa 16000 litros... Todas esas emisiones de gas durante el proceso habrán sido inútiles si desechamos alimentos porque la producción global de alimentos es una de las actividades que más afectan a la pérdida de la biodiversidad y a los cambios en el uso del suelo. La producción global de alimentos ocupa un 25% de la superficie habitable, consume un 70% de agua, ha generado una deforestación del 80% y genera en promedio 30% de los gases de efecto invernadero (fertilizantes, pesticidas, transporte, etc.).
El informe llega a la conclusión de que tenemos que ser más listos y creativo sobre el reciclaje de los desechos de alimentos y los descartes de pescado en la alimentación animal. Mientras que los principales esfuerzos han ido en aumento de la eficiencia en el sector energético tradicional, la eficiencia energética de alimentos ha recibido muy poca atención. y lo que se pretende en el Día Mundial del Medio Ambiente del 2013 es dar a conocer el impacto que tienen nuestras decisiones alimentarias y lo importante que es informarse al comprar nuestros alimentos.
En definitiva, se trata de que pienses antes de alimentarte y así ahorres para proteger el medio ambiente.




Dr. Maximiliano Arroyo Ulloa
USAT

Noticia publicada en el Diario Correo 17/05/13


viernes, 8 de febrero de 2013

Addressing the Peruvian Energetic Challenges


Abstract

The Research Centre for Sustainable Development (CIDES) from Santo Toribio de Mogrovejo Catholic University makes efforts to face the negative effects of the social-economic growth on the northern areas of Peru by using fossil fuels. We propose a program with three priorities for developing a power portfolio in a middle-long term toward an energy economy based on solar-hydrogen system.
The program also emphasize the use of local renewable resources as a challenge and an opportunity for power hydrogen plants; hydrogen technology are growing in popularity all over the world, consequently, it’s our concern to propose new energy program in order to easy the market penetration of new technologies for the regional development.
The Implementation of hydrogen technologies will bring many social-environmental-economic benefits. IIRSA - Initiative for the Integration of Infrastructure in South America – represents an especial project application because the IIRSA project will cross through sensitive environmental zones of the North Peruvian Regions, and it’s necessary to reduce the high risk of environmental damage. IIRSA initiative seeks to create an infrastructure platform (Transportation, Energy, and Telecommunications) to promote trade integration in South America and reinforce the region’s position in the global economy.

Key words: fossil fuels, environment, renewable resources, hydrogen production.

Dr. Maximiliano Arroyo Ulloa
USAT

Diseño Industrial - ISSUU USAT (Apuntes de Clase)

Diseño Industrial - ISSUU USAT (Apuntes de Clase)

La intención en la que se apoya este trabajo es proporcionar al estudiante de ingeniería los conceptos generales y básicos, utilizados en el arte de expresar las cosas mediante una representación gráfica para luego ser concretados en hechos reales, pasar de la etapa del boceto a la etapa de proyecto.

Dr. Maximiliano Arroyo Ulloa
USAT

Organización de Plantas Industriales - ISSUU USAT (Apuntes de Clase)

Organización de Plantas Industriales - ISSUU USAT (Apuntes de Clase)

El tema de diseño de plantas industriales se basa en principios que se traducen en la reducción de los costes de fabricación de modo que sea posible fabricar productos con mayor margen de beneficios, sobretodo en mercados de alta competencia.

Dr. Maximiliano Arroyo Ulloa
USAT

Introducción a la Ecología Industrial - ISSUU USAT (Apuntes de Clase)

Introducción a la Ecología Industrial - ISSUU USAT (Apuntes de Clase)

La relación entre ambiente, recursos y desarrollo económico, han sido objeto de debate internacional desde la mitad de los años setenta, por efecto de la preocupación mundial por los problemas del ambiente.

Dr. Maximiliano Arroyo Ulloa
USAT

Mejorando la competitividad de la PYME


Dr. Maximiliano Arroyo Ulloa, Bach. Prisilla Quezada Castro, Ing. Oscar Vásquez Gervasi

RESUMEN  En el presente trabajo se muestran los avances y logros que se viene realizando en la empresa textil N&P Atelier SAC como parte del proyecto “Optimización de procesos en el área de diseño, patronaje, tizado y desarrollo de muestras en la empresa N&P Atelier SAC, con la implementación CAD”. El proyecto es financiado en parte por el programa de Financiamiento para la Innovación, la Ciencia y Tecnología (FINCYT) del gobierno Peruano. El estudio en la empresa se ha basado en el análisis del conjunto de actividades que forman parte de la línea de proceso del área de tejido de punto para identificar los puntos que influyen negativamente en la productividad y permitió implementar acciones correctivas. Así mismo, se muestra el planteamiento de la perspectiva de la empresa en relación a su desarrollo tecnológico con factores competitivos, costos industriales, conflictos sociales y flexibilidad de producción.

Palabras clave: Productividad, costes de producción, competitividad, flexibilidad de producción.

Revista de la Ingeniería Industrial, Vol. 6, No. 1, 2012, 14-19

                                                                                                            ISSN 1940-2163

Una grandeza física llamada presión


Hasta el día de hoy, la presión es casi siempre confundida con otra grandeza física como la fuerza. En lenguaje técnico la presión es la relación entre la fuerza que se ejerce perpendicularmente sobre una superficie, y el área de la superficie sobre la cual se aplica esta fuerza. En otras palabras: una fuerza pequeña aplicada sobre una superficie pequeñísima (como la aguja de una jeringa sobre la piel) puede ejercer una presión elevada, mientras que una gran fuerza sobre una superficie amplia (como el inmenso peso de la pirámide de Keops, que está distribuida sobre una base de 53 mil m2) produce una presión relativamente baja.

Las súper-bondades de la presión

Como súper calor, tenemos su aplicación en las ollas a presión donde todo se cocina en menos tiempo debido a la presión que se desarrolla en el interior del vapor caliente, alcanzándose temperaturas superiores a los 100°C y porque sirve menos calor para llevar el agua a su punto de ebullición.
Como súper pegamento, se utilizó mucho en el pasado para realizar experimentos, que en su momento fueron consideradas “actos de magia”. Un clásico es el que realizó en 1645 Otto Von Guerick delante de la Corona Imperial de Ratisbona: unió dos hemisferios de bronce creando el vació al interno de la esfera, luego ocho caballos trataron de separar los hemisferios, sin resultados positivos. ¿La explicación? la presión atmosférica las tenía unidas con mayor adherencia que cualquier pegamento actual.
Como súper fuerza, es posible levantar un automóvil con un dedo. Esto gracias a un descubrimiento hecho por Blas Pascal, quien descubrió que la presión aplicada a un fluido inmóvil se transmite  de manera intacta en cada punto del fluido multiplicando su fuerza.
Como súper gusto, la presión puede influenciar en el gusto de una bebida. Todas las bebidas gaseosas contienen anhídrido carbónico metida bajo presión y disuelta en el líquido y por lo tanto su composición química (y su sabor) cambian cuando pierden este gas.

La presión y el clima

Debido a la presión que tienen los gases de comprimirse y de expandirse, es el motor de los movimientos de grandes masas de aire en la atmósfera. Cuando una porción de una columna de aire se calienta por el sol, esta se expande, se hace más ligera que el aire circundante y tiende a elevarse, naciendo así lo que se llama área de baja presión. Así, el aire en las zonas de alta presión tiende a moverse hacia aquel de baja presión generando un fenómeno muy conocido por todos: los vientos.

Presión artificial

La posibilidad de comprimir los gases y someterlos a una presión externa permite aplicaciones simples, pero de notable importancia. Cuando en los neumáticos de un auto se mete aire a una presión de 2 atmósferas, estas se ponen tan rígidas y elásticas que equilibran no solo la fuerza sino también el peso del vehículo y de los pasajeros, debido a que el aire interno en los neumáticos presiona contra aquella externa que se encuentra a una presión inferior.

Presión y nuestro cuerpo: la peor parte la viven los astronautas

Nuestro cuerpo está estructurado para vivir bajo presión. ¿Qué sucedería si esta presión aumentara o por le contrario, viniera a faltar? Nuestro cuerpo explotaría. En el caso de los buceadores, se ha demostrado que se puede llegar hasta 162 metros de profundidad sin que se afecten los pulmones.
Pero son los astronautas quienes se llevan la peor parte de las consecuencias de la presión.
- es necesario 12 horas de preparativos para pasar de la presión interna de la estación espacial (1 atmósfera) a aquella del traje espacial a 0,3 atmósferas de oxígeno puro,
- deben pasar cerca de 12 horas antes de salir, mientras tanto el astronauta comienza a respirar oxígeno puro a presión normal, a intervalo de algunos minutos, en tal modo que su organismo libera el nitrógeno presente en el aire de la estación espacial,
- a 45 minutos de la salida, viene trasladado a la sala de descompresión, donde comenzará a respirar oxígeno puro con continuidad,
- después de un cuarto de hora, la presión de la cámara de descompresión viene reducida hasta las 0,3 atmósferas, en donde el astronauta respirará el mismo gas que respirará al externo. Se escogió una presión de 0,3 atmósfera porque es la más baja que se pueda lograr sin alterar las funciones vitales, garantizando el máximo ahorro de gas cuando el astronauta sale al espacio.

Dr. Maximiliano Arroyo Ulloa
USAT



Detalles breves adicionales
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
El aire tiene un peso, si bien mínimo, influye en nuestras vidas más de lo que podamos imaginar

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
Gracias a la presión, el carbón se convierte en diamante
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Son las diferencias de presiones las que causan los vientos y ciclones
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Bajo el agua la presión aumenta en 1 atmósfera cada 10 metros
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

La presión interna es un precioso indicador de nuestra salud, por el contrario aquella externa puede hacernos mal
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

Y el hombre dominó la oscuridad


La luz es para muchos científicos el único valor absoluto del universo, con una velocidad de un millardo y ochenta kilómetros por hora, que si siguiese la curvatura de la tierra, le daría siete vueltas y media al planeta en tan solo un segundo.
El primero en calcular la velocidad de la luz fue el danés Ole Roemer, quien conociendo el diámetro de la órbita de la tierra, la estimó en 227 mil kilómetros por segundo, un valor bastante próximo al valor de 300 mil kilómetros por segundo (velocidad de la luz al vacío. La velocidad de la luz no cambia nunca, cualquiera que sea la velocidad a la que se mueve la fuente con relación a quien mira o recibe el haz de luz, en otras palabras, en el universo nada puede moverse a una velocidad superior a la luz.

¿Cómo hacían las antiguas civilizaciones?

Los sabios de las culturas antiguas, sostenían que eran de nuestros ojos que salía los rayos que iluminaban las cosas. Pero la ciencia de manera gradual ha enseñado que no siempre somos nosotros los protagonistas, por el contrario los verdaderos actores son los rayos que llegan a nuestros ojos.
Hasta el momento de la invención de la electricidad, el problema de la iluminación de los ambientes se resolvía incendiando una amplia variedad de materiales. La tecnología del momento era quemar-controlar. Los restos hallados de esta tecnología muestran grandes conchas marinas de la edad de piedra en las cuales se quemaba grasa de animales. Otras teorías sostienen, que los ojos de las personas de estas civilizaciones antiguas eran diferentes a los nuestros de hoy en día, en el sentido que, ambientes en los que nosotros no podríamos distinguir nada, resultaba para ellos perfectamente iluminados.

Inicio de la iluminación pública

En el 800 se abandonaron las velas y lámparas y se desarrollaron sistemas de iluminación más eficaces. Primero con las lámparas a kerosén que fueron rápidamente sustituidas por aquellas a gas, que eran muchas más limpias y con menor necesidad de mantenimiento. Con el gas comenzó la iluminación pública, que a su vez trajo grandes problemas: desde la distribución a la facturación (¿cómo contabilizar los consumos individuales?), Un problema que fue un dolor de cabeza de los técnicos de la época hasta inicios del 900. en 1878 llegó la lámpara eléctrica, y quizá desde esta fecha se debería considerar el inicio de la edad moderna.

Cuando Edison inventó la lámpara eléctrica

En 1878 Tomás Alva Edison inventa la lámpara eléctrica a incandescencia, un nuevo sistema para iluminar los ambientes. Tras cientos de intentos y pérdidas superiores a 50000 dólares, consiguió un hilo que alcanzara la incandescencia sin fundirse. Y no era de metal, sino de algodón carbonizado.
El dispositivo lograba transformar la energía eléctrica en luz utilizando un filamento de tungsteno (metal resistente a altas temperaturas). El filamento contenido en una ampolla de vidrio al vacío al momento de su incandescencia comenzaba a brillar y emitía la luz, y así lució durante 48 horas ininterrumpidas.
Dejó en la historia de las frases célebres, que "el genio es un uno por ciento de inspiración y un noventa y nueve por ciento de transpiración". Y sin duda lo demostró con su vida.

La luz biológica

Existe un tipo de luz química generada por seres vivientes, llamada bio luminiscencia. La mayor parte de las criaturas luminosas fabrica su luz gracias a una enzima, una proteína y un fosfato que se combinan con el oxígeno. La reacción libera más del 70% de la energía en luz y el calor que se pierde es menos del 25%.
Las aguas dulces no tienen criaturas luminiscentes, mientras que el mar está lleno de ellos. Tiempo atrás se pensaba que los abismos fueran desiertos, pero hoy se sabe que a miles de metros de profundidad, existe una fauna que fabrica luz. Grupos de investigadores están tratando de emular dichos sistemas complejos de iluminación con el fin de aprovechar dichos principios en beneficio directo de la población humana.

De la luz a la electricidad

Dado que la electricidad genera luz, alguien pensó que de la luz se podría obtener electricidad. No se equivocaron, aparatos que realizan esta conversión están disponibles a nivel comercial. Este tipo de tecnología es muy ecológica, pero aún no resulta económica para quien quisiera generar electricidad en casa. El sistema propuesto utiliza ciertas propiedades eléctricas de una serie de elementos (silicio, selenio, etc.) llamados semiconductores. La tecnología es conocida como célula fotovoltaica y su presencia en el campo de generación de luz, alcanza cada día mayor demanda e interés, por su gran ventaja ecológica y la casi gratuidad de la electricidad producida.

Dr. Maximiliano Arroyo Ulloa
USAT


Notas Adicionales (por si es de utilidad)


¿LA LUZ...QUÉ COSA ES? ¿UN GAS? ¿UNA VIBRACIÓN? O ¿UNA FORMA DE ENERGÍA?
La luz es una forma de energía, con la extraña propiedad de ser a la vez una onda y una partícula

La luz viaja a casi 300 mil Km/s en el vacio y disminuye en sustancias transparentes.

Nuestros ojos captan solo una pequeña parte de la frecuencia luminosa: lo que llamamos luz visible

Los colores son la manera en la cual nuestro cerebro distingue una frecuencia de otra

Tecnología y comidad en los aires


Cuando necesitamos mejorar, innovar e incrementar las bondades de un producto o servicio, se nos hace indispensable la tecnología.  La tecnología entonces se posesiona como un elemento de comodidad, y gracias a su constante desarrollo, se convierte en imprescindible para poder competir y ahorrar recursos, bien sean temporales o financieros. Uno de los últimos ejemplos más sonados del binomio tecnología-comodidad, ocurrió el 27 de enero de este año, cuando la compañía AIRBUS presentó su superjumbo A380, el avión comercial más grande del mundo. El primer vuelo de este coloso se realizó en el aeropuerto de Toulouse en Francia,  tuvo una duración de 3 horas y 53 minutos, teniendo como únicos pasajeros a la tripulaciòn, dos pilotos y cuatro ingenieros.

AIRBUS A380

El proyecto A380 representa una inversión de 10 mil millones de euros y su presencia masiva en el mercado será a partir de abril del 2006. Si bien el primer avión será entregado a Singapur Airlines, la empresa AIRBUS ya cuenta con pedidos para construir 129 unidades, cuyo precio de lista es de 300 millones de euros cada uno. Bajo esta perspectiva, varios aeropuertos han iniciado obras para aumentar el tamaño de sus pistas de aterrizaje par poder recibir estos aviones: Fráncfort del Meno, Heathrow en Londres, el Aeropuerto Internacional John F. Kennedy de Nueva York, el de Tokio, Seúl, Hong Kong y Singapur.

Los dos primeros aviones A380 fueron ensamblados en la planta de Toulouse, a donde llegaron  todas las piezas y componentes de 16 fábricas ubicadas en diferentes ciudades de Europa. La nave mide 70,40 metros de largo y 79,75 metros de envergadura, tiene capacidad para 555 pasajeros en su versión estándar y hasta 850 en configuraciones con todos los asientos en clase turista. Su peso máximo al despegue es de 540 toneladas. Tiene dos pisos en toda su longitud, cada uno con dos pasillos, y conectadas entre sí por dos grandes escaleras.

Problemas técnicos

Como en toda gran obra, comenzaron aparecer los inconvenientes, y en este caso estaban relacionados con el sobrepeso de la estructura en el soporte de las alas. Se determinó que había un exceso de 4 toneladas, que representaba 48 pasajeros menos en el avión, y no solo eso, el “detalle de las 4 toneladas” estaba relacionada directamente con el consumo de combustible, los costos de mantenimiento (tren de aterrizaje, neumáticos, frenos, etc.) y sobretodo a las tasas aeroportuarias.

Ante esto, la tecnología ofrecía dos materiales fundamentales hoy en día para la construcción y edificación: fibra de carbono (compuesto formado a partir de una base de petróleo rellena con una resina epoxi, que lo hace cuatro veces más resistente y un 40% más ligero que el aluminio), y el glare (o cristal reforzado, una aleación de aluminio y fibra de vidrio). Los materiales en mención permitieron reducir hasta en cinco toneladas el peso de la nave, y fueron utilizados en los alerones, timones, en parte de la cola, y hasta en áreas de la estructura central. 
Seguridad

La Internacional Transport Workers Federation (ITF), sostiene que el diseño de la evacuación del AIRBUS A380 es inaceptable e irreal. Esto debido a las dificultades que siempre están presentes para desalojar una segunda planta con 200 pasajeros a bordo. ITF propone un único plan de evacuación que combine ambas plantas, indicando que se debe considerar la evacuación de minusválidos de un avión de estas dimensiones. El A380 está rediseñando la estructura para poder contar con 16 salidas de emergencia (6 en la planta superior y 190 en la inferior) con dos rutas independientes de evacuación.

La Federal Aviation Administration (FAA) sólo ha autorizado de momento los aterrizajes y despegues del A380 en pistas de 60 metros de ancho, cuando la gran mayoría de las pistas en aeropuertos norteamericanos tiene un ancho de 45 metros. No son pocos quienes opinan que buena parte de estos impedimentos no obedecen a razones técnicas sino políticas, encaminadas a dificultar la comercialización del producto de AIRBUS (europeo) frente a los de su rival Boeing (norteamericanos).

Dr. Maximiliano Arroyo Ulloa
USAT

Las ondas Kelvin y su relación con el fenómeno del Niño


La brisa calurosa que sopla en estos días podría ser el paraíso para los amantes del verano y del mar. Pero hay algo más, esta brisa calurosa puede ser una señal de inicio de un nuevo Fenómeno del Niño o ser simplemente una manifestación pasajera de otra onda Kelvin, esto debido a la temperatura inusual de estos meses y al aumento en algunas pulgadas de las mareas, sin negar el hecho del aumento de la temperatura de las aguas del mar.

Una onda Kelvin es un tipo de onda que se genera en la superficie de un líquido fijo a sistema rotante y que se propaga a lo largo de la frontera del fluido. Una onda Kelvin cobra gran importancia en el estudio de las mareas, ya que en la actualidad se considera que una onda de marea es, parcialmente, una onda Kelvin; por lo menos en cuanto a la propagación a lo largo de costas o dentro de bahías y golfos.

Los antecedentes más cercanos de anomalías en la temperatura superficial del mar se mostraron en el mes de julio del 2004 cuando los vientos alisios se debilitaron en varias zonas del Océano Pacífico ecuatorial, que generó una fuerte onda Kelvin que se propagó hacia la costa Sudamericana dando por resultado un fuerte hundimiento de la termoclina oceánica (termocline: capa de agua en la cual se da el intercambio de temperaturas entre las capas inferiores y superiores de agua y que conserva  una calidez) y un incremento en las anomalías de las temperaturas sub-superficiales. Esta onda Kelvin llego a nuestras costas a fines de agosto incrementando la temperatura del mar en Ecuador y el norte del Perú.  Un nuevo debilitamiento del sistema de vientos alisios ecuatoriales se observó a fines de agosto, pero que no llegó a más.

¿Dónde se formas las ondas Kelvin?

Las ondas Kelvin se forman cerca de las costas de Indonesia y viajan hacia el este en dirección a Sudamérica. Una onda Kelvin típica tiene temperaturas mayores que las aguas circundantes. Ellas pueden existir solamente cerca del sector ecuatorial debido a la rotación de la tierra. La amplitud de las ondas Kelvin alcanza algunas decenas de metros a lo largo de la zona termocline, y la longitud de sus ondas hasta miles de kilómetros.

Existen dos tipos de ondas Kelvin: costera y ecuatorial. Ambas son manejadas por la gravedad y por factores de dispersión nula. Frecuentemente dichas ondas son estimuladas por cambios abruptos en la dirección e intensidad de los vientos. Las ondas ecuatoriales Kelvin se propagan hacia el este en el hemisferio norte utilizando las características de la línea ecuatorial como guía. Las ondas costeras Kelvin se propagan hacia el hemisferio norte en sentido antihorario, aprovechando la línea costera como guía. Estas ondas, especialmente las superficiales se desplazan de manera rápida, con velocidades promedio de 2,8 mt/seg o 250 Km/día, en este sentido una onda Kelvin podría tomar alrededor de dos meses para cruzar el Océano Pacífico desde Nueva Guinea hasta Sudamérica.

Las ondas Kelvin y el fenómeno del Niño

La llegada de una onda Kelvin no siempre significa que puede suceder lo peor, normalmente se manifiesta quizá con pequeñas lluvias o aumentos pasajeros de temperatura. No obstante eso, los científicos prestan mucha atención a estas manifestaciones porque existe la posibilidad que  encubra un fenómeno mayor: el Niño.

De la funesta experiencia del Fenómeno del Niño en 1982-1983, países como Estados Unidos, Japón y Francia han dispuesto alrededor de 70 boyas a lo largo del Pacífico ecuatorial. A este conjunto de boyas se le conoce como Red-TAO (Tropical Atmospheric Ocean), y su función consiste en supervisar la temperatura del agua a una profundidad de 500 metros, así como los vientos, temperatura atmosférica, y la humedad relativa.  La Red-TAO es uno de los sistemas más confiables para advertirnos la presencia del Niño, se cuenta también con el satélite franco-americano TOPEX-Poseidón, que puede medir la altura de la superficie del océano con el radar a bordo con que cuenta. Ambas tecnologías (Red TAO y TOPEX-Poseidón) han rastreado las últimas ondas Kelvin desde la que se formó cerca de Indonesia en diciembre del 2001, y que cruzando el Pacífico en enero llegó hasta las costas de Sudamérica en febrero.
No todas las ondas Kelvin pueden cruzar la inmensidad del Pacífico, pero la del 2001 logró hacerlo, por eso la importancia de un monitoreo constante del Pacífico ecuatorial.

Las ondas del Niño y de Kelvin son provocados por los vientos ( o por la falta de ellos) en el Océano Pacífico. Los vientos alisios del Pacífico soplan del este al oeste (de Sudamérica hacia Indonesia). La brisa persistente hace que las aguas superficiales calentadas por el sol, avancen hacia el oeste, teniéndose como resultado, que el mar cerca de Indonesia sea 45 cm más alta en relación al Ecuador. El mar cerca de Indonesia es llamada “piscina caliente” y según David Adamec investigador climático del NASA’s Goddard Space Fligth Center, es el área más grande de agua caliente en nuestro planeta, calentando tremendamente la atmósfera del Pacífico occidental.

Sucede que algunas veces los vientos alisios dejan de soplar días o semanas, y entonces las aguas calurosas empiezan a desplazarse hacia Sudamérica. El Fenómeno del Niño empieza cuando la ausencia de los vientos alisios es de varios meses, entonces fuertes ondas Kelvin aprovechan esta situación natural y cruzan el Pacífico para depositar sus aguas calientes cerca de Sudamérica, donde el mar es normalmente frío. Este proceso altera el tiempo del planeta, pudiéndose trasladar ondas de calor, vientos fuertes y otros fenómenos climatológicos como las lluvias del Pacífico occidental hacia nuestro continente, mientras que lugares como Australia, Indonesia y la India pasarían a sufrir sequías. Otros efectos ligados a este tipo de ondas son la presencia de neblina en el litoral, y cambios bruscos en la temperatura ambiente.

Representantes del gobierno central en un inicio descartaron la posibilidad de que la onda de calor tenga relación directa con el Fenómeno del Niño, pero investigaciones y estudios internacionales demuestran lo contrario, motivo por el cual no estaría demás que el gobierno regional actualice los programas de prevención contra desastres naturales, y evitar así sorpresas desagradables.

Dr. Maximiliano Arroyo Ulloa
USAT

Los termo extremistas


La superficie terrestre recibe energía proveniente del Sol, en forma de radiación solar emitida en onda corta. A su vez, la Tierra, con su propia atmósfera refleja alrededor del 55% de la radiación incidente y absorbe el 45% restante, convirtiéndose, ese porcentaje en calor. La cantidad de energía solar recibida, en cualquier región del planeta, varía con la hora del día, con la estación del año y con la latitud. Estas diferencias de radiación originan las variaciones de temperatura. Por  otro lado, la temperatura puede variar debido a la distribución de distintos tipos de  superficies y en función de la altura (la temperatura es la medida del contenido de calor de un cuerpo).

Pero que haga calor o frío no tiene importancia para muchos seres vivientes, porque han encontrado la manera de resistir las temperaturas más extremas.

350 ºC
Es la temperatura record en la cual vive un microorganismo en las profundidades oceánicas, donde la costra terrestre está siempre en ebullición por las actividades volcánicas del lugar. Es el pyrolobus fumarii, que increíblemente logra vivir en condiciones usuales de esterilización.

113 ºC
Esta marca aún le pertenece al pyrolobus fumarii, quizá salida de los mismísimos infiernos, ya que a esta temperatura logra reproducirse. Pero, cosas de la vida celular: a 90 °C no crece, ¡le da frío!.

105 ºC
Es lo que logra soportar (por pocos minutos) la alvinella Pompejana, un gusano largo unos 15 centímetros que vive en las profundidades marinas.

60 ºC
Hasta esta temperatura se puede calentar el aire del desierto sin que las plantas que logran vivir en estas zonas empiecen a morir. Una película cerosa que cubre sus hojas y otras partes, evita que aumente la temperatura de sus superficies.

42 ºC
Es la temperatura que puede alcanzar el cuerpo de un dromedario sin que su cerebro que es muy sensible al calor se dañe. En este caso juega un papel importante la mucosa nasal del camélido que hace la función de intercambiador de calor.

- 27ºC
Es lo que soportan muchos peces del Ártico. Su sangre no se congela debido a los glicopèptido, una molécula que impide que el agua contenida en la sangre se agrupe en cristales.

- 35 ºC
A esta temperatura se desarrollan los collembola pequeños insectos, cuyos cuerpos utilizan una sustancia anticongelante muy parecido a la glicerina.

- 76 ºC
Es la temperatura del aire que puede resistir un pingüino emperador durante el periodo de incubaciòn que dura cuatro meses. El cuerpo interior del pingüino se encuentra a 39ºC, gracias a la grasa que lo protege.

- 194 ºC
A este extremo llegan (en experimentos de laboratorio) los tardigrada animalitos de longitud menor a un milímetro, que son capaces de estar hasta de miles de años en una etapa de letargo, reduciendo el contenido de agua de su cuerpo del 86 al 3%.

Dr. Maximiliano Arroyo Ulloa
USAT

Los nuevos estados de la Materia


HASTA 1879 SE PENSABA QUE EXISTÍAN SOLO TRES ESTADOS DE LA MATERIA: SÓLIDO, LÍQUIDO Y GASEOSO. HOY EN DÍA SE CONOCEN MUCHO MÁS, DESDE LOS SUPERFLUÍDOS AL PLASMA DE QUARK.

Las propiedades de la materia no dependen solamente del tipo de átomos que la forman, sino también de variables como la temperatura y la presión, que describen el estado interno. Cuanto más elevada la temperatura, mayor es el movimiento de los átomos. Algunas veces, una mínima variación de temperatura cambia completamente el estado, por ejemplo, en los procesos de fusiones o de ebulliciones.

Del gas al plasma

Si comenzamos a analizar el estado del gas, veremos que está definido por el hecho de no tener ni forma ni volumen bien definido. Los gases normales están constituidos por átomos o moléculas eléctricamente neutros que se mueven libremente en el espacio. Pero si la temperatura aumenta y va más allá de cierto límite, los electrones se separan de los átomos. Nace así el plasma, un gas de electrones e iones (átomos que a pesar de haber perdido electrones tiene carga positiva).

El plasma es un estado muy difundido en naturaleza, pero fue descubierto en 1879 por Sir William Crookes. A diferencia del gas normal, el plasma conduce electricidad y tiene propiedades magnéticas (relámpagos, llamas, auroras boreales, etc), en otras palabras el 99% de la materia es plasma.

En caso que se aumentara la temperatura por sobre millones de grados, se evaporarían los núcleos atómicos, y la materia se convertiría  en una “sopa” de electrones, luces, quarks y gluones. Esta situación es aún un estado poco conocido.

Estudiando el comportamiento de quarks y gluones libres en el plasma, los científicos del RHIC (Relativistic Heavy Ion Collider) esperan aprender más sobre la fuerza nuclear fuerte - la fuerza que mantiene unidos a los quarks en protones y neutrones
Sólidos, líquidos y superfluidos

En una realidad cotidiana, de gases normales como aire y vapor, ¿qué cosa sucedería si en lugar de aumentar la temperatura, la bajáramos? Ocurriría exactamente lo contrario: las moléculas en lugar de separarse se agruparían para formar los líquidos (sustancias con volumen definido pero sin forma determinada).

A – 100°C se condensa el vapor, a –56,6°C se licua el anhídrido carbónico y a valores menores de –268,92°C se convierte en líquido. Cuando la temperatura es muy baja, cerca del cero absoluto (-273,15°C) la materia cambia de apariencia y está caracterizada por fenómenos extraños, basados en las leyes de la física microscópica.
Por ejemplo, el helio se convierte en un superfluido a temperaturas muy cercanas a –272°C, o sea un grado sobre el cero absoluto. En otras palabras, cualquier líquido puede ser puesto en movimiento en un recipiente si lo agitamos, una comparación la podemos tener cuando movemos el café en una taza con una cucharita para disolver el azúcar, pero cierto tiempo después deja de moverse, debido a la fricción, es el caso del helio, que a determinada temperatura se convierte en superfluido y al moverlo, como el café con la cucharita, no se para, ignorando  la fricción.

Otro fenómeno frío es el de la superconductividad, estado en la cual al interno de algunos metales o cerámicos la corriente fluye como un superfluido (sin disipaciones).
La superfluidad es una excepción, normalmente cuando se baja la temperatura hasta un cierto valor, la materia pasa del estado líquido al estado sólido, adquiriendo forma y volumen bien definido. Esto sucede porque los átomos se disponen uno cerca al otro, en búsqueda de una acomodación estable reduciendo al mínimo las pérdidas de energía. Cualquiera que sea esta acomodación  siempre es dependiente de la temperatura y la presión. En el caso del hielo, existen una docena, donde el más común es el amorfo (moléculas distribuidas de manera desordenada).
En total, en los sólidos están catalogadas 230 estructuras. ¿Ejemplos? Estructuras cúbicas (en el sodio), piramidal (en los diamantes) y hexagonales (en el grafito).
La investigación de los líquidos superfluidos ha ayudado a una mejor comprensión del comportamiento de la materia en sus estados energéticos más bajos y ordenados.

Dr. Maximiliano Arroyo Ulloa
USAT
  
Información adicional:

--------------------------------------------------------------------------------------------------------------
Las cuatro fases
Cuanto más frío, mejor se ordenan los átomos
en los sólidos, los átomos son fijos y ordenados,
en los líquidos, los átomos están cerca uno de otro,
los átomos del gas se mueven libremente,
el plasma es un gas de electrones e iones (átomos sin electrones)
----------------------------------------------------------------------------------------------------------------

Gluones
El término proviene de la palabra inglesa “glue” (pegamento), y son partículas que unen a los quarks entre sí. Los gluones no poseen masa, pero son inseparables de la masa de los quarks.

Las islas urbanas de calor


Con el incremento gradual del CO2 en la atmósfera, existe la posibilidad cada vez más certera de hacer difícil nuestro vivir en ciudades que se han generado sin quererlo un “plus de calor”, trayendo como consecuencia efectos negativos en los niveles de vida de las poblaciones. A estas ciudades se les denomina “islas urbanas de calor”. Según  el Hadley Centre for Climate Protection  con sede en Londres, se ha determinado que en promedio las ciudades emiten aproximadamente  20 Watt de calor por metro cuadrado, cantidad que fácilmente puede alcanzar los 60 Watt de calor por metro cuadrado, de seguir con esta tendencia creciente de emisiones a la atmósfera.  El fenómeno tiene su origen en: el número cada vez mayor del transporte público y privado; las emisiones contaminantes; y el crecimiento habitacional.

Fue Luke Howard, pionero en los estudios de la atmósfera, quien señaló la presencia de dicho fenómeno que está convirtiendo a las grandes ciudades en enormes hornos, es decir ciudades que inmersas en grandes cantidades de aire caliente que atrapan a los rayos del sol, van creando una ciudad con un clima muy diferente en relación al resto del territorio.

La presencia del fenómeno de “las islas urbanas de calor” en nuestro país, especialmente en la zona norte, es más notoria en los meses de noviembre a abril, con temperaturas superiores en 0,8 a 1,5 grados centígrados en relación a las temperaturas mínimas de los meses mencionados, alcanzando su mayor magnitud en zonas de intensa urbanización y escasa ventilación natural, esto debido a que los materiales de las superficies urbanas, como son las pistas, paredes, techos de las casas y edificios, tienen un coeficiente de absorción de por lo menos 10 por ciento superior a las superficies verdes (vegetación). A los efectos pasivos ya mencionados (la expansión habitacional y la reducción de áreas verdes) se agregan los factores activos, constituidos por una variedad de fuentes difusas de calentamiento, como el transporte que contribuye con el calor directo de los motores y los gases del tubo de escape; las casas, oficinas, negocios e industrias a través del uso exagerado de sistemas de refrigeración y en algunos casos por los sistemas de aire acondicionado.

En este caso, merece especial atención el boom de la expansión habitacional que vive el país y la reducción de áreas verdes, que contribuyen de manera significativa a la presencia del efecto. No se está contra el crecimiento urbano, pero es necesario reconsiderar los criterios y estrategias de edificación, cambiando los sistemas de construcción, pero sobretodo en la manera de organizar y ordenar las ciudades.

Ya se ha demostrado que el calor artificial producido en un año por diferentes actividades, es del 15 al 20 por ciento de lo que en condiciones normales genera el sol. Si bien puede parecer insignificante, esta contribución es capaz de incrementar por si sola, en casi un grado centígrado la temperatura media de una ciudad. Contribuye además, el típico diseño geométrico de la ciudad, las calles estrechas en relación a la dimensión vertical de los edificios y pistas en mal estado.

Una muestra clara la tenemos, en los días de sol radiante, donde el asfalto y las paredes externas de los edificios alcanzan temperaturas superiores a la ambiental. Esto se explica porque el calor solar almacenado en los edificios, viene luego liberado por irradiación (bajo forma de energía infrarroja) sobrecalentando el aire de la ciudad. Las calles capturan una gran cantidad de radiación solar, atrapada por las numerosas reflexiones múltiples que sufren los rayos solares por parte de las paredes de las casas y edificios con el asfalto de las pistas.
Pero al sobrecalentamiento del clima urbano, se suma también el calor artificial generado en gran parte por la combustión de hidrocarburos, y en menor cantidad por los procesos metabólicos de los propios habitantes (una persona media emite cerca de 2600 kilocalorías por día, que equivale aproximadamente a tres cuartos del calor producido por un kilogramo de petróleo).

La intensidad de las islas urbanas de calor, pueden disminuir si se pudiera tener al interno de la geometría urbana una mayor cantidad de superficies evaporantes (espejos de agua, árboles, amplios parques, etc.). Para limitar la producción de calor artificial, es necesario reducir los gastos innecesarios de calor en casa, reciclando el exceso de calor en las plantas industriales y contener la expansión vertical de las dimensiones de la ciudad. Pero es indudable que  los mejores resultados pueden ser obtenidos a través de la reducción de la energía solar capturada en el área urbana.
La calidad del aire se deteriora con la intensificación de las islas de calor, debido a que las temperaturas elevadas provocan reacciones químicas más veloces, que dan lugar a la producción de una mayor cantidad de smog por unidad de tiempo.

Lo que preocupa, y en esto coincidimos todos los ambientalistas y ecologistas, es que muchos gobiernos esperan que todo se mejore o resuelva a través de los protocolos y convenios que defienden el ambiente. Los documentos en mención no resolverán por sí solo los problemas de contaminación, son solo herramientas a disposición de los gobiernos y que ofrecen alternativas para gestionar las emisiones contaminantes.

Visto que las islas urbanas de calor son un problema climático, debemos estar atentos a cómo reducir su presencia en nuestras ciudades. Algunas de las alternativas viables son: decidirse a orientar las nuevas construcciones de calles, pistas y edificios, en modo que se permita dejar pasar libremente a los vientos dominantes; recomendar que las superficies sean en lo posible de colores claros así la luz solar viene reflejada y el calor es menos.

Dr. Maximiliano Arroyo Ulloa
USAT

La Tecnoplástica


Ligera, maleable, y aislante son las propiedades tradicionales del plástico. Pero hoy en día existe también la tecnoplástica que conduce la electricidad, que brilla, o que es sensible a los olores.

Tejidos espaciales

Muchos de los más importantes desarrollos tecnológicos se han debido a la industria aeroespacial, y sin el plástico hubiese estado imposible alcanzar la luna. ¿Por qué es la base la industria aeroespacial? Las delgadísimas capas de polímeros que protege de la corrosión a la Estatua de la Libertad en New York y otros monumentos, nace de la investigación aeroespacial, porque así se protegía la plataforma de lanzamiento. Para defender a los astronautas de las temperaturas en el espacio que están comprendidas entre los –150 y 175°C se realizaron tejidos formados por 10 tipos de polímeros diferentes. De esta investigación se derivaron la vestimenta de los bomberos y de los pilotos de fórmula 1, que además de resistir las altas temperaturas, refrescan el cuerpo y limitan el  “stress térmico”, que disminuye los reflejos y que puede ser fatal en situaciones de emergencia.

Filtros y plantaciones

Otra tecnología espacial muy importante son los filtros para el agua, en espuma de polímeros, que permite el reutilizo del fluido, elemento vital en las naves espaciales, pero sobretodo en las zonas áridas de la tierra. Bajo esta concepción, y pensando en combatir la desertificación y la desertización introduciendo bajo el terreno telas plásticas impermeables es posible recuperar y ganar zonas para incorporarlas al sector agrícola. ¿Fantasía? Para nada. En China se utiliza esta tecnología, y cultivan arroz hasta en las zonas más áridas del país.

Olfato sintético

Existen prototipos de narices artificiales que reaccionan a las diferentes sustancias volátiles disueltas en el aire, como lo son los vinos y aceites. Hay también plásticos que se modifican en presencia de algunas sustancias y son muy útiles para envolver alimentos y fármacos, así cuando los productos llegan a su fecha de vencimiento, cambian de color.
Los embalajes del futuro serán caracterizados por contener un microchip en el cual se almacenarán todos los datos del producto en venta.

Televisores plegables

Pero, ¿qué hay de nuevo? Que los circuitos serán en plástico y se podrían plegar: una hipótesis impensable hasta hace unas decenas de años, cuando en la electrónica el plástico era utilizado solamente como aislante.
La empresa Philips que se encuentra trabajando en circuitos de polímeros, busca producir un televisor flexible, todo en plástico. Los prototipos ya existen, pero a nuestras casas llegaran aún en algunos años, por ahora se está expandiendo las pantallas planas de los televisores a cristal líquido.

Camisas inteligentes

Normalmente, los plásticos no tienen memoria: cuando es deformada, olvida su forma precedente. Todo lo contrario es el material “memoria de forma” creado por Andreas Lendlein y sus colegas del Politécnico de Aachen en Alemania y del MIT en Estados Unidos.
Se trata de una mezcla de polímeros de oro, que si se calienta a 70°C recupera en pocos segundos la forma que se le dio durante su fabricación. Respondiendo a deformaciones enormes de hasta el 100%. Esta tecnología encuentra otras aplicaciones en anteojos, instrumentos quirúrgicos, y en vestidos que se planchan solos. Pero el sueño es utilizarlos en automóviles, que en caso de accidentes se reparen por si solos.

El plástico que se repara solo

Está en proceso un material que se auto-repara y que contiene microcápsulas que cuando se rompen, liberan un líquido que suelda la fractura. Lo ha inventado un grupo de científicos de la Universidad de Illinois guiado por Scott White.
Las microcápsulas están hechas de urea formaldehído, un plástico frágil en la cual se insertan microesferas del diámetro de 0,1 mm rellenas de un agente “reparador” llamado DCPT. Cuando se forma un micro-fractura, la esfera se rompe y libera el DCPT que activa las reacciones de polimerización que repara la fractura.
Con este proceso es posible recuperar al menos el 75% de la robustez que tenía el plástico en su inicio. Esta invención tiene mayor interés para la industria aeroespacial.

Dr. Maximiliano Arroyo Ulloa
USAT

Información adicional
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
No son solamente ligeros, deformables y aislantes, hoy en día los plásticos pueden ser luminescentes, antiproyectiles e biocompatibles.
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++