viernes, 8 de febrero de 2013

A propósito de las fiestas navideñas


LA PARTE TRISTE DE LOS JUGUETES: las pruebas de seguridad

¿Existe alguien capaz de destrozar un osito de peluche, más de cuanto lo haga un niño? Sí, se trata de adultos, técnicos de laboratorio cuyo trabajo consiste en evaluar la resistencia de los juguetes, para garantizar a los padres que aquellos juguetes que dan a sus hijos son seguros.
Por ejemplo en la Comunidad Europea existe una norma que establece las características que un juguete debe tener para poder obtener la certificación CE (conformidad europea). Dicha certificación viene impresa por los productores en todas las cajas y/o estuches, después de haber aplicado al juguete todas las pruebas necesarias de seguridad en un laboratorio especializado.
Las pruebas de seguridad comprenden el aspecto químico, mecánico, eléctrico, inflamabilidad y radioactividad, con la finalidad de reducir todos los riesgos que los juguetes pueden representar, como son: sustancias tóxicas en los materiales y colores, la fuerza de impacto que de proyectiles de las pistolas de juguete, hasta los decibeles de las sonajas de los bebes (ha pasado que muchas veces los bebes reaccionan llorando ante el sonido de una sonaja, pues está comprobado que se debe al dolor auditivo intenso que produce la sonaja).
Pero veamos con mayores detalles algunas de las principales pruebas de seguridad que se aplican:

Pruebas físicas y mecánicas

La mayor exigencia se da en los juguetes para niños menores de tres años. Los peluches son sometidos a una serie de pruebas de torsión, tensión y tracción. Inclusive hasta los mordiscos vienen simulados con máquinas especiales para verificar que ninguna parte se desprenda fácilmente, de manera que “invite” al niño a llevárselo a la boca.

Las máquinas a pedales o eléctricas, bicicletas y triciclos, son también sometidos a pruebas de choque, similares a las que se realizan con los autos. Normalmente la prueba consiste en lanzar los triciclos (con un maniquí a bordo) contra un muro, a la velocidad de 2 metros por segundo, y así poder analizar los daños y tomar medidas de correcciones necesarias. Luego vienen las pruebas de estabilidad, inclinándolos hasta que pierdan el equilibrio.

Pruebas químicas

Estas pruebas tienen como objetivo controlar las materias primas, pegamentos y pinturas, con las cuales están construidos los juguetes, y que estén conformes a los límites de seguridad establecidos internacionalmente (se controla la presencia de metales pesados y sustancias nocivas). Los principales análisis que se siguen son:
-   Test de Robinson: análisis sensorial de “gusto”
-    Análisis de saliva y sudor
-    Control de fórmulas en juguetes cosméticos
-    Contenido de níquel en juguetes metálicos
-    Contacto con alimentos
-    Determinación de agentes aceleradores, vulcanizadores y antioxidantes
-     Aminas aromáticas en tejidos y cueros.
-  Composición de las fibras, análisis de colorantes cancerígenos o alérgicos y resistencia del color.

Pruebas eléctricas

Se entiende como juguetes eléctricos a todos aquellos juguetes que funcionan con un máximo de 24 voltios. Debido al empleo de pilas, transformadores y carga baterías, se realizan pruebas de compatibilidad electromagnética y de frecuencia de banda. Pruebas particulares y específicas se aplican en el caso de juguetes que se mueven dentro del agua.

Pruebas de inflamabilidad

Se controla además que los juguetes no sean inflamables, y si lo son, las llamas deben propagarse con una velocidad inferior a 30 mm por segundo, así el  niño tiene el tiempo de lanzarlo hacia otra parte.
Oh…y ahora ¿quién podrá salvarme?...La Ley 2837
¿Se cuenta en el país con normas o leyes que nos protejan? Sí, la ASPEC (Asociación Peruana de Consumidores y Usuarios), quien con su campaña de denuncias y marchas públicas ha logrado que el Congreso de la República apruebe la Ley 2837 que prohíbe la fabricación, importación y comercialización de juguetes y útiles escolares tóxicos.
Un caso particular, se vivió en Junio de este año cuando la Asociación de Consumidores de Chile (ACC) así como la ASPEC, solicitaron a la empresa Nestlé-Perú y Nestlé- Chile retirar del mercado los juguetes con los personajes de “Shrek 2” por contener tolueno (sustancia tóxica). Si bien Nestlé-Perú argumentó que los juguetes cumplían los estándares internacionales de calidad, en Chile se incautaron alrededor de 950 mil unidades de estos juguetes y la incautación y retiro de otros dos millones ya distribuidos.
Concientes de esta realidad, ¿seremos capaces de hacer algo? Probablemente no mucho, pero se hace necesario alzar la voz de alerta e invitar a todos aquellos negocios que de una u otra manera expenden juguetes a unir esfuerzos por ofrecer buenos productos a precios justos y no seguir timando con imitaciones burdas de marcas conocidas. A ustedes empresarios la palabra, a ustedes padres de familia la oportunidad.

Dr. Maximiliano Arroyo Ulloa
USAT

La computadora del futuro


LOS CHIPS DE SILICIO ESTÁN SIENDO SUSTITUÌDOS POR CIRCUITOS EN BASE A ADN O PLÀSTICO…UN PASO A LAS PC CUÀNTICAS

Parecería ser una broma, pero hoy en día numerosos laboratorios están estudiando e investigando las nuevas características de las PC del mañana. Ya en 1965 una revista americana de electrónica le pide a Gordon Moore, uno de los fundadores de Intel, de predecir el futuro de la industria de los microchips. La respuesta de Moore, en aquel entonces director de investigaciones de la Fairchild Semiconductor, fue que los chips duplicarían su potencia cada 18 meses, en relación al costo.
Después de 39 años, su previsión (conocida como la primera ley de Moore) sigue siendo válida: pasando de una Pentium 3 que contiene  28 millones de transistores a la Pentium 4 de casi 100 millones de transistores. Pero dentro de poco esta aparente evolución se encontrará de frente a un gran obstáculo: nadie sabe cómo construir circuitos integrados de dimensiones menores a los 100 nanómetros (100 millonésimas de milímetros).  Y, en tal caso, la miniaturización prevista de la ley de Moore no podrá seguir en pie.

Problemas de “dopaje” tecnológico

El silicio usado en los microchips, para poder tener propiedades conductivas debe ser “dopado” con algunas sustancias, y a transistores más pequeños el chip necesita de mayor “dopaje” (agregado de otras sustancias) hasta un cierto límite, esto debido a que lo átomos de la sustancia extraña (en este caso germanio) tienden a formar aglomeraciones inactivos electrónicamente.

Además, los transistores que controlan el flujo de corriente en los chips son tan pequeños (menos de 2 nanómetros) que corren el riesgo de sufrir lo que los físicos llama el efecto túnel, es decir que los electrones no pueden ser controlados, generando un cortocircuito de los transistores. A complicar las cosas, se suman otras leyes, aquella de la economía. En este sentido Gordon Moore estableció una ley, que es poco conocida, según la cual cada 36 meses se duplicarían los costos de las plantas para producir chips. Si esta ley sigue siendo válida, en el 2030 una nueva fábrica de semiconductores podría llegar a costar tanto como el producto bruto interno de todo el planeta.

El riesgo black-out

Como primera contramedida, los grandes productores están buscando la manera de hacer que el silicio sea más eficiente sin reducir las dimensiones, y de aumentar su velocidad de los chips sin duplicar los costos: por ejemplo se puede usar el cobre (mejor conductor que el aluminio) para conectar los transistores, o el germanio para distanciar los átomos de los cristales de silicio y así hacer pasar más corriente y consumir menos energía. Otra solución puede ser los nanotubos de carbono, que además de ser pequeñísimos (en un cabello humano pueden entrar unos 100 mil), permitirán hacer transitar una enorme cantidad de electrones, disipando poca corriente.

Las computadoras americanas consumen el 15% de la corriente total del país, y según las proyecciones en el 2020-2030 llegarán hasta el 50%, y llegar a producir hace latente el riesgo de tener nuevos black-out. Por estas razones. Los investigadores piensan que a pesar de los grandes avances con el silicio, ha llegado el momento de aprovechar los superpoderes de la física cuántica para crear computadoras en grado de resolver problemas imposibles para la técnica tradicional. Entre estos investigadores hay quienes piensan que se debe sustituir el silicio con otros materiales: desde el simple plástico hasta la sustancia base de la vida, el ADN.

Llega el QBIT

Para el 2030, si la ley de Moore se mantiene, los transistores tradicionales con el cual son fabricados los chips deberán ser grandes como átomos. La idea no es nueva. Hace 20 años que el físico Paul  Benioff se propuso realizar una máquina en grado de analizar información que podría ser contemporáneamente verdadera o falsa (1 o 0). Si bien no hubo resultados concretos, la mecánica cuantística tiene la posibilidad de ofrecernos las bases para proyectar computadoras de velocidades increíbles. Dos solos QBIT (quantum bit), representan la combinación de 4 posibles bit (00, 01, 10, 11) y aumentando el número de QBIT se aumenta también la posibilidad de cálculo de manera exponencial: con 40 QBIT se podría representar cada número binario de cero a más de un trillón de manera simultánea y bastarían 333 para representar todos los números desde el 1 hasta el googol (10 a la 100).
El problema es como pasar de la teoría a la práctica, especialmente a ingresar datos y la manera de poder leerlos. Investigaciones de físicos e informáticos que tiene a disposición tecnología, nuevos conocimientos, instrumentos y financiamiento, están tratando de resolver lo que los han bautizado como “trampa cuantística”.

Más allá de la lógica

En agosto del 2000, investigadores de la IBM Research Centre, lograron elaborar un dispositivo a 5 QBIT (5 núcleos de flúor que interactuaban entre ellos a través de impulsos de radio). Los Alamos Nacional Lab, trabajaron con moléculas hechas de átomos de carbono e hidrógeno anunciando un modelo de 7 QBIT. El laboratorio europeo LENS ha realizado un experimento que abre nuevos horizontes de investigación al agrupar cerca de 1 millón de átomos comportándose como si fuera un solo átomo al llevarlos a temperaturas cercanas al cero absoluto.

Cuando nuestro cuerpo está bajo esfuerzo, las células tienen necesidad de más oxígeno. Entonces una enzima comienza a producir hemoglobina (la proteína que sirve a transportar el oxígeno), tomando del ADN las instrucciones para fabricarla. De manera muy simplificada, lo descrito anteriormente es un computador: se introducen los datos (falta de oxígeno), el software (ADN) lo elabora, y el hardware (enzima) cumple la acción (produce hemoglobina). ¿Por qué no aprovechar esta biocomputadora como productora de datos? Nadrian Seeman y un grupo de investigadores de la Universidad de New York han encontrado la manera de usar el ADN como una puerta lógica y están en el proceso de pegar nanopartículas de oro a la cadena del ADN para formar circuitos electrónicos minúsculos.  Otros como Ed Shapiro del Weizmann Institute de Israel, han logrado usar moléculas de ADN  para hacer cálculos y producir resultados sin necesidad de supervisión humana. Se espera que esta computadora pueda realizar 330 trillones de operaciones por segundo, es decir 100 mil veces la velocidad actual de las PC’s actuales.

Deberán pasar aún algunos años para que una verdadera computadora-ADN pueda ser una verdadera competencia de aquellas basadas en silicio. Pero vale la pena insistir: el ADN es fácil de producir, ecológico, y en teoría, en 1 gramo es posible almacenar tantos datos equivalentes a miles de millones de CD’s.

Dr. Maximiliano Arroyo Ulloa
USAT

Investigación e industria


En el marco global del desarrollo y la formación en educación superior, la USAT subraya el papel único y fundamental que debe tener toda universidad, como eslabón principal en el círculo de la integración entre producción y transmisión del saber: la investigación.

La universidad es lugar del saber, de la investigación, punto de excelencia de la formación, y como tal debe contribuir a formar ciudadanos reflexivos y críticos. La universidad tiene la tarea de interactuar con la red social-económica-productiva del entorno, creando un ambiente favorable, donde la investigación universitaria encuentra las necesidades externas.

Hago hincapié en esto, porque para muchas organizaciones, instituciones, e inclusive en algunas universidades, la investigación es vista solamente en función del aporte que puede ofrecer a la industria, de manera particular a las pequeñas y medianas empresas, más no por su valor científico y su reconocimiento internacional. Esta visión de la investigación se encuadra en un esquema en la cual las competencias científicas y la profesionalidad individual son encasilladas de tal manera que adormecen los saltos innovadores que caracterizan a las grandes transformaciones científicas. Y necesariamente no tiene que ser así, porque el reconocimiento internacional de las investigaciones que se realizan,  permite y ofrece también la oportunidad de lograr nuevas inversiones, y nuevos conocimientos para el sector productivo. En nuestro caso, el sistema productivo, tiene en la presencia de las pequeñas y medianas industrias, la fuente del dinamismo económico y la gran oportunidad de crecimiento, pero, dadas las limitadas dimensiones productivas y financieras, no están en grado de activar procesos autónomos de investigación y de formación del personal.  En este contexto la relación de la universidad en el sistema productivo debe ser vista como una gran oportunidad de crecimiento y desarrollo recíproco, y como uno de los factores estratégicos de competitividad económica,  donde se juega en gran parte el futuro del sistema productivo.

Hoy en día, a los profesionales, se les exige, una mayor capacidad de decisión, inclusive al interno del mismo proceso productivo, por lo tanto, la instrucción superior entendida como formación y adquisición constante de conocimiento, entiéndase como investigación, se hace cada vez más necesaria. Entonces, la universidad debe ser el lugar del estudio y de la investigación de base, sin la cual el desarrollo tendría horizontes limitados; pero también debe ser uno de los actores principales del desarrollo local de las actividades económicas y productivas, en la cual las industrias se convierten en el punto de referencia de la investigación aplicada.

La Universidad es la fuente primaria de la investigación. Y si a este principio le agregamos una sólida formación humana, estamos confirmando y reafirmando el verdadero compromiso con el presente y futuro de la sociedad.

Dr. Maximiliano Arroyo Ulloa
USAT

Hacia el Cero Absoluto


Los científicos no se han tardado para hallar una salida a los vínculos del segundo principio termodinámico (el calor fluye espontáneamente de cuerpos calientes a fríos, nunca al revés), de tal manera que para obtener una eficiencia del 100% bastaría que la fuente más fría tenga una temperatura del cero absoluto. Pero, ¿qué cosa es el cero absoluto? El nivel de energía más bajo posible. El cero absoluto (0º K) corresponde aproximadamente a la temperatura de -273.16º C. Nunca se ha alcanzado tal temperatura y la termodinámica asegura que es inalcanzable. Lo impide la tercera ley de la termodinámica.

La temperatura es una medida del movimiento microscópico de los átomos: más baja la temperatura, menor es el movimiento. Por lo tanto, al cero absoluto que le corresponde un valor de – 273,15°C, el movimiento de los átomos y moléculas es el mínimo permitido por las leyes de la mecánica cuántica. Pero alcanzar esta temperatura es a su vez imposible. Esto lo demostró el químico alemán Walter Nernst, a través de una serie de experimentos, gracias a los cuales consiguió el premio Nóbel en 1920.

Los científicos continúan en su búsqueda de alcanzar temperaturas lo más bajas posibles. George Pickett de la universidad de Lancaster en Inglaterra, logró llegar a los 0,000007°K con un criostato. El actual record conseguido en 1993 llegó a 0,00000000028 grados sobre le cero absoluto, y se logró en Finlandia, en el laboratorio de la universidad de Helsinki. Este valor es el punto de partida de la escala termométrica absoluta, más conocida como escala Kelvin. En esta escala los grados son iguales a aquellos centígrados, pero el cero corresponde a – 273,15°C.

Por fortuna los primeros termómetros y las escalas termométricas se vienen utilizando desde el 1700 y fue el sueco Anders Celsius quien atribuyo el valor de 0 a la temperatura del hielo y el valor de 100 a la temperatura a la cual hierve le agua, luego dividió el intervalo en partes iguales definiendo el grado centígrado.

Pero a presión atmosférica inferior (como en montaña) el agua hierve a menos de 100 °C. La ambigüedad fue resuelta cuando se descubrió el punto triple del agua, una temperatura a la cual pueden existir en equilibrio: agua-hielo-vapor.

El concepto de cero absoluto también es importante desde el punto de vista teórico. Según la tercera ley de la termodinámica, la entropía (o desorden) de un cristal puro sería nula en el cero absoluto; esto tiene una importancia considerable en el análisis de reacciones químicas y en la física cuántica. Los materiales presentan propiedades extrañas cuando se enfrían a temperaturas muy bajas. Algunos pierden por completo su resistencia eléctrica. Este efecto se observó por primera vez en el mercurio a unos pocos grados por encima del cero absoluto, pero se están obteniendo a temperaturas cada vez más altas con nuevos materiales.

Dr. Maximiliano Arroyo Ullo
USAT

En la “Comunidad del Anillo” Energético, lo más importante es cuidar la “Comarca” Peruana


Ya lo mencioné en artículos anteriores, que una relación coherente entre energía y desarrollo económico es vital para el despegue de países como el nuestro, demostrándose esto a través de la historia. Si bien las tecnologías energéticas han evolucionado en los últimos años, no es este cambio tecnológico que genera los cambios en las políticas de desarrollo, por el contrario es la política de desarrollo la que se debe basar necesariamente en la disponibilidad de la tecnología actual existente. Pero cada día adquiere importancia relevante, la consideración de los factores ambientales de la producción, transformación y utilizo de la energía, ya sea a nivel local, regional y global siempre con referencia a la sostenibilidad y la estabilidad del clima. Las políticas energéticas que en pasado eran destinadas a la oferta existente, hoy se orientan a la demanda, y la demanda real es aquella de “servicios energéticos” y no de energía (en el sentido de la palabra). Si podemos obtener mejores beneficios sociales-ambientales-económicos, ofreciendo servicios energéticos con “menos energía contaminante” como el gas natural, en otras palabras, de manera sostenible, la pregunta que queda flotando es: ¿por qué no hacerlo?

El 22 de marzo hubo en apagón en Chile que aumentó la inestabilidad que vive la zona central del país sureño a causa de las restricciones de gas natural y escasez de agua en los embalses. Ante este fenómeno, el Ministro de Economía y Energía de Chile, Jorge Rodríguez hizo conocer la posibilidad de introducir gas desde el Perú, sosteniendo que un país como Chile requiere aumentar cada 8 años  su producción energética al doble. La iniciativa se produce en momentos que Argentina decidió recortar sus envíos de gas a Chile para poder atender su demanda interna, lo que también ha afectado indirectamente a Brasil y Uruguay. El 12 de junio, dicho Ministro manifestó: "Perú es un gran productor de gas que todavía no tiene un desarrollo comercial muy grande y creemos que las demandas que pueden hacer Argentina, Brasil, Uruguay y Chile le pueden viabilizar a Perú un negocio que es muy importante y también para nosotros. Y lo mismo en materia de electricidad, Chile le puede vender electricidad a Perú".

Nuestro país vecino, utiliza centrales termoeléctricas (que satisfacen el 46,4% de las necesidades de electricidad), sistemas de ciclo combinado cuya aportación fue del 17,8%,  e hidroeléctricas  con un 35,8% de participación en la generación de electricidad. En el caso de las centrales hidroeléctricas, la materia prima fundamental es el agua, y la escasez del mismo puso en serio aprietos a las empresas chilenas generadoras de electricidad, motivo por el cual se han establecido planes de racionalización para el uso de la energía eléctrica.

Como país estoy convencido que somos capaces de grandes cosas. Nuestro país necesita y debe revisar con detenimiento hacia donde quiere llegar desde una perspectiva energética.  Lo que la “comunidad del anillo energético” necesita es energía eléctrica, no necesariamente materia prima (gas natural). Y si eso es lo que necesitan, pues démosles lo que necesitan: electricidad. Vender electricidad significa no solo aprovechar mejor nuestros recursos, sino crear mayores oportunidades laborales para nuestros compatriotas, y mejorar los ingresos para nuestro país. La tendencia mundial está orientada en gran parte (y en donde es posible), hacia una economía energética basada en combustibles gaseosos, entonces no desperdiciemos esta oportunidad que tenemos entre manos y hagamos sentir la verdadera presencia de nuestro gas natural en la magnitud chola que debe tener.

Y no sería la primera experiencia peruana en materia de exportar “servicios eléctricos”, ya el 19 de mayo de este año, la provincia de Machala (Ecuador) se quedó sin energía eléctrica, motivo por el cual solicitó al Perú a  través del sistema de interconexión el suministro de 60 a 80 MW por un espacio de cinco días, la empresa ELECTROPERÜ brindó el suministro temporal bajo el marco de la normativa peruana y con la consiguiente responsabilidad de todos los costos incurridos por la premura.

Esto demuestra que podemos ser un referente potencial de servicios eléctricos con todos nuestros países fronterizos, y siendo el caso, utilizando a Chile como un corredor eléctrico hacia la Argentina.

Dr. Maximiliano Arroyo Ulloa
USAT

GAIA, el planeta que vive


Al inicio pocos creían en la nueva teoría. Pero hoy en día se ve reforzada por nuevos elementos. La idea que la biosfera de nuestro planeta pueda ser interpretada como un ser viviente, en el cual los ambientes naturales son los órganos, es la teoría formulada por James Lovelock, la cual llamó Gaia (nombre de la diosa griega de la tierra).

Pero, ¿cómo es que nace esta teoría? En los años sesenta Lovelock es contratado por la NASA para investigar la posibilidad  de vida extra terrestre, concluyendo luego que no había necesidad de buscar vida alienígena explorando otros planetas, que bastaba observar la atmósfera u otros parámetros, porque la vida no es una cuestión de especie, sino del rol que cada uno lleva adelante para hacer funcionar un sistema más complejo. Y es que observando los intercambios de energía y la composición de la atmósfera, se puede entender no solamente que la vida existe, sino también que se ha logrado un cierto grado de desarrollo.

En este sentido, para Lovelock la tierra es un único organismo que se nutre de energía química y solar, que respira con sus forestas y las algas de los océanos, en los cuales la energía corre a través de la cadena alimenticia. Y como organismo que es, Gaia es capaz de autorregularse. ¿De qué manera? Hace 3,8 millardos de años hasta la actualidad, la tierra no se ha calentado ni enfriado demasiado para la vida debido a los organismos reguladores, como los invertebrados que han formado las plataformas carbónicas, que capturan anhídrido carbónico del aire transformándolo en carbonato de calcio, y  haciendo que la temperatura no se eleve. Una obra colosal que ejemplifica esta aplicación son los corales que han creado las islas Bahamas, casi un millón de kilómetros cúbicos de carbonato de calcio.

De acuerdo a información del Instituto de Ecología Terrestre de Edimburgo, la teoría de Gaia cobra mayor importancia por los recientes estudios realizados sobre el plancton, porque el plancton libera en el océano azufre donde una parte se volatiza y forma partículas ácidas, y éstas a su vez permiten la formación de densas nubes de lluvia. Si el plancton no realizara esta función, según Bob Charlson de la Universidad de Washington, las lluvias serían muy escasas y la temperatura global sería más alta, hasta en 10 grados centígrados. Es el plancton que hace que Gaia se mantenga relativamente fresca.

Un conjunto de ecosistemas locales dan estabilidad a la vida de Gaia, pero en todo esto, ¿qué rol tienen los hombres? Siendo la especie dominante, algunos la consideran como las neuronas, mientras que otros sostienen que es el hombre quien está destruyendo la biodiversidad, y por lo tanto, más que un cerebro representa un conjunto de células vanas y carentes de un espíritu de servicio hacia sí mismo y la sociedad. Se debe dejar de pensar en sí mismo, en las propias necesidades y derechos, recordando siempre que somos parte del planeta, y que éste planeta es nuestra única casa.

Dr. Maximiliano Arroyo Ulloa
USAT

Fútbol y Tecnología


Para los apasionados del fútbol, la aplicación del rigor científico en la solución a las grandes dudas dominicales, sobre “si fue un gol legítimo”, o “si fue una anotación en fuera de juego”, etc., puede representar el triunfo final de la verdad. En este sentido la respuesta proviene de un nuevo diseño tanto para balones de fútbol y los protectores de piernas (espinilleras), en los cuales se han integrado transmisores microscópicos, que permitirán tener bajo control todo el campo de juego.

Sistema Cairos en el campo de fútbol

El nuevo método, denominado Sistema Cairos funciona con un microchip implantado en los balones que transmite señales de microondas a seis antenas apostadas alrededor del campo. La información es transmitida a través de cables de fibra óptica a un ordenador central que procesa las señales de forma casi simultánea a un panel fijo en el campo de juego. Los resultados pueden ser transmitidos en una fracción de segundo a un pequeño receptor que lleva el árbitro en la muñeca: controlarán su alarma instalada en su brazo, pudiendo establecer con mayor seguridad si un jugador está en off-side o si la infracción ocurrió dentro o fuera del área de penal. Para los entrenadores es un instrumento que ofrecerá mayor información técnica sobre el balón (velocidad del balón, aceleración, etc.) y sobre sus jugadores (velocidad, potencia de disparo, capacidad de elevación, área efectiva de dominio, etc.). Los expertos de medicina deportiva sostienen que el monitoreo electrónico de los jugadores proveerá información vital sobre todo en los campos de entrenamiento.
Si el chip estuviese instalado en las espinilleras de los jugadores, podría proveer, por ejemplo, una base de datos a los entrenadores sobre cada jugador conforme avanza el juego, convirtiéndose en un asistente de técnico digital. Los programas de computación que utilicen el sistema Carios podrán reconocer los movimientos de los jugadores y los patrones de juego, e incluso abrir una nueva posibilidad de apuestas sobre las estadísticas sobre los futbolistas. El Sistema Cairos serviría también para medir la distancia de la barrera en los tiros libres.
El balón con el microchip fue desarrollado por Adidas en sociedad con dos empresas alemanas especializadas en computación e informática, Cairos Technologies y Fraunhofer. La inserción del emisor de señal dentro del balón exigió un desarrollo de capas protectoras para que los desplazamientos y golpes que recibe la pelota continuamente no dañen su funcionamiento.  Los sistemas que se desarrollaron incluyen un sensor sonoro en un auricular que puede llevar el árbitro y también sus asistentes e, incluso, la reproducción de la escena en video.

Sistema Cleverpath

El club italiano de fútbol AC Milan viene utilizando la tecnología para prevenir lesiones. Cada aparato de ejercicios se conecta a una computadora central a la que llegan los datos vitales de cada jugador. Además se le suman los tomados a mano en cada partido y entrenamiento de campo. Luego, el software Cleverpath, de Computer Associates, extrae patrones de esos datos y elabora predicciones sobre cada jugador y su estado físico. El software aprende y mejora —como el cerebro humano— con el ingreso de los datos.

Mundial Sub 17 de Fútbol en Perú

Perú será el primer país de manera oficial (autorización FIFA) quien usará los nuevos balones con chips incorporados con el fin de indicar si  el balón entró en el arco. Este evento mundial, que concitará no solo a los amantes del fútbol sino también a los curiosos de la tecnología, servirá de ensayo con miras a su utilización el campeonato mundial de fútbol a realizarse en Alemania el 2006.
Hay mucho optimismo en cuanto al éxito de la tecnología en el campo de juego, sobre todo en lo que podríamos llamar, las nuevas “pelotas con antenas”. 

Dr. Maximiliano Arroyo Ulloa
USAT

¿Cuánta lluvia necesita?


¿Exprimir las nubes hasta en un 40 por ciento más e impedir grandes daños u obtener beneficios?... Ahora es posible

Volar hasta el corazón de un temporal, donde las alas comienzan a vibrar y el granizo golpetea el vidrio del avión. Luego accionar los sistemas para “inseminar” las nubes y alejarse lo más rápido posible. ¿Empresa de locos? No, es solo trabajo: es la ocupación del Weather-mods (modificador del clima), pilotos y meteorólogos un poco temerarios, que tienen como objetivos muy arriesgados, como: dominar los elementos, calmar las tempestades, y salvar las cosechas. Y que en los últimos tiempos, gracias a nuevas técnicas de “inseminación de nubes”, logran siempre aumentar las lluvias hasta en un 40 por ciento, según experimentos realizados en México.
Los objetivos de estas expediciones son dos: impedir fuertes granizadas que arruinen los cultivos, a al contrario, provocar precipitaciones en tierras muy áridas. Realmente sería necesario, si recordamos que hace un par de años una granizada en el hermano país de Bolivia provocó la muerte de 11 personas y el derrumbe de más de una decena de edificios. Otro ejemplo desastroso lo sufrió Rumania, cuando fue asolada por una sequía, que dejo 70 muertos y produjo daños por 300 millones de dólares. Los casos de sequía y/o violentas granizadas en nuestro país las conocemos y de manera alguna manera hemos sufrido las consecuencias (Arequipa, Puno, etc).
Evitar desastres como estos es el sueño de muchos meteorólogos a nivel mundial. En Israel, desde hace varios años, una sociedad privada-estatal se ocupa de “hacer llover”: el 15 por ciento de las precipitaciones sobre el territorio, en promedio unos 5 mil metros cúbicos de líquido por año, son provocados por pequeños aviones de los “magos de la lluvia”. En el estado americano de UTA, la Delta Airlines se encarga de disolver la neblina sobre el aeropuerto de SALT Lake City. EN China se combate la sequía e los incendios forestales disparando hacia las nubes pequeños artefactos rellenos de agentes químicos. Tailandia financia el famoso Bureau of Royal Rainmaking (Oficina de la Real Producción de Lluvia). Según la World Metereological Society (Sociedad Meteorológica Mundial), alrededor de 37 naciones están intentando manipular el tiempo atmosférico.
Pero los más temerarios entre los “cazadores de nubes” son los siete pilotos de la Weather Modification, una sociedad privada americana que recibe cada año la suma de un millón de dólares del estado de Oklahoma, para tener lejos las granizadas y las sequías. O mejor, para transformarlas en lluvia. ¿Cómo? Diseminando en el interior de las nubes yoduro de plata, una sal que tiene la propiedad de formar una gran cantidad de pequeñísimos núcleos de condensación, alrededor de los cuales el vapor de agua de las nubes se condensa en gotas de lluvia muy fina. Por el contrario, si se quiere producir una granizada o hacer llover en una zona árida, el mecanismo es el mismo: haciendo formar muchas gotas en las nubes, se obtiene siempre lluvia. El granizo no tiene tiempo de formarse, y en el caso sucediera, sus dimensiones son muy pequeñas, esto debido a que la formación de granizo de mayor dimensión sólo es posible en poca cantidades de núcleos de condensación.

¿De dónde nace la idea?

A fines de los años 80, algunos investigadores sudafricanos se dieron cuenta que detrás de una fábrica productora de papel, aparecían siempre muchas nubes cargadas de lluvia. Analizando el humo emitido por las chimeneas de la  fábrica, descubrieron sodio y cloruro de potasio. Probaron entonces a producir pequeños cohetes llenos de estas sales que reventaron entre las nubes, generando una gran lluvia.
Estos experimentos fueron continuados por metereólogos americanos del National Center for Atmospheric Research (centro nacional para la investigación atmosférica), quienes inseminaron una gran cantidad de nubes al norte de México con resultados muy alentadores. Pero el problema es que no existen dos nubes iguales y por lo tanto nadie aún puede saber con exactitud que puede suceder. Lo que sí queda claro para los weather-mods es que las nubes solo liberan en promedio un quinto del agua que contienen, quedando siempre potencialmente lluviosas. Potencialidad que puede resultar provechosa y oportuna para los países asolados por sequías y cuya economía tiene como componente fundamental la agricultura.
Existen también las nubes denominadas “calientes”, frecuentes en las zonas tropicales, en las cuales el vapor de agua se encuentra a temperaturas superiores al punto de congelamiento. Y esta característica hace necesario mayores investigaciones para lograr inducir estas nubes a generar lluvias.

Dr. Maximiliano Arroyo Ulloa
USAT

La fiebre del aceite de piedra (Petróleo)


El 28 de agosto de 1859 en la campiña de Tutisville en Pensilvania, un hombre gritaba: dólares, dólares es lo que sale del subsuelo. Era William Smith, un antigua ferroviario quién había construido el instrumento con el cual era posible hacer brotar del subsuelo el “aceite de piedra” (petróleo) que cambiaría nuestras vidas.
En realidad el petróleo se conoce desde hace miles de años. Hace 3 mil años AC, asirios, sumerios y babilónicos utilizaban el betún (petróleo filtrado naturalmente hasta la superficie de la tierra y secado al sol)  como mortero en la construcción y para engaste de joyas.  Hacia el año 300 AC, los chinos utilizaban el petróleo (descubierto casualmente al excavar yacimientos de sal) con fines medicinales. Los cronistas españoles del siglo XVI describen el uso que los aborígenes de México hacían del chapopote (betún que sale del mar) como incienso para perfumar templos, como pegamento y medicina. En 1272 Marco Polo describe un culto que se venía dando por 200 años en la península de Baku en el Mar Caspio, era un culto al fuego que se daba en torno a  “hogueras eternas” (manantiales petrolíferos que ardían noche y día).
Pero ha sido en el siglo XIX cuando se apreció el verdadero potencial que representaba este recurso líquido de la madre naturaleza.  En 1850 James Young químico industrial escocés, patentó un procedimiento para la obtención del aceite de piedra a partir del carbón y de las pizarras bituminosas. Luego refinó el producto con parafina, a tal punto de comenzar a sustituir el aceite de ballena. Es así que en Gran Bretaña y otros países se instalaron plantas transformadoras junto a las minas de carbón. Y aquel fue el momento en que  Edwin Drake emprendió sus perforaciones para la obtención de aceite de piedra natural.

Cuando el petróleo era ecológico

Explorando Pensilvana, en 1854, el geólogo anglocanadiense Abraham Gesner notó que a partir del aceite de piedra que afloraba espontáneamente de fracturas de las rocas, era posible fabricar un combustible de olor muy fuerte pero capaz de sustituir con éxito el aceite de ballena de las lámparas domésticas. La economía de los pioneros americanos prosperó durante 200 años gracias al aceite de ballena, pero diezmó las grandes colonias de cetáceos. Así, el aceite de piedra representaba la alternativa ecológica a implementar para lograr el equilibrio con la naturaleza.

El primer pozo petrolífero

En 1857 un ingeniero de apellido Ferris, patentó un nuevo tipo de lámpara de aceite que consumía muy poco combustible, y convencido del futuro promisorio de su invento, Ferris inició una serie de excavaciones para extraer el aceite de piedra del subsuelo, adquiriendo para tal motivo grandes cantidades de tierra en Pensilvana. Luego de un arduo año de excavaciones y de realizar agujeros, solo se encontró agua, sal, minerales, pero ni rastro del aceite de piedra.
Cerca de los terrenos donde se realiza infructuosamente la búsqueda del aceite de piedra, existía una compañía minera extractora de sales cuyo propietario Samuel Kier, no dudó en venderla cuando se percató que junto a la sal salía a la superficie un elemento contaminante de característica líquida oscura y viscosa, que le causaba muchos problemas a su negocio. La compañía de Samuel Kier fue adquirida por Edwin Laurentine Drake, un ex controlador de boletos en los barcos a vapor de la época.
Drake al adquirir la mina de sales, contrató de inmediato a Willam Smith para que realizase un sistema de perforaciones para extraer el verdadero tesoro de las tierras. La estructura del pozo para la extracción del aceite de piedra, que fue ideada por Drake, y bautizada con el nombre de “derrick”, tuvo como inspiración un patíbulo que fabricó un verdugo londinense del siglo XVI llamado Derrick.

La fiebre del aceite de piedra

Meses después de la construcción del primer pozo de extracción, la fiebre del aceite de piedra recorrería América. La primera producción de aceite de piedra, fue destinada por completo a la iluminación y vendida a 20 dólares el barril, pero pocos años después tras el descubrimiento de nuevos yacimientos y aumento de la oferta, el preció cayó abruptamente a 10 centavos el barril. En 1865 se construyó el primer oleoducto de 8 kilómetros. Posteriormente, los ritmos de extracción del aceite crudo crecerían vertiginosamente, desde los 2 mil barriles al año (en 1880) hasta los 85 millones de barriles que se extraen hoy en día, sólo en los Estados Unidos.

Situación actual

En la actualidad se producen alrededor de 75 millones de barriles de petróleo por día, y se espera que al 2015 se llegue a un punto máximo de  producción de 90 millones por día, con la consecuencia de cada vez será mayor el costo de extracción, un costo que hoy en día estamos pagando por adelantado por los efectos del cambio climático.

Dr. Maximiliano Arroyo Ulloa
USAT

Chiclayo, capital de la amistad y de las oportunidades


El principio de desarrollo sostenible es tan complejo, que no está ligado exclusivamente a los aspectos ambientales del desarrollo, a su vez tiene una fuerte connotación social y económica. En la óptica de un uso sostenible de los recursos naturales, asume una relevante importancia la cultura y las tradiciones locales, para lo cual la prospectiva y capacidad de lograr un desarrollo sostenible a escala local, están relacionada a la valorización del saber, de la cultura y de los recursos que caracterizan el territorio, haciéndolo único.
La protección de la diversidad cultural y ambiental representan por lo tanto un paso fundamental para asegurar la existencia como el crecimiento económico y social de la entera población.
La participación de investigadores, estudiosos de varias disciplinas, representantes de la vida política (de buena voluntad y formación personal), social y económico local, y teniendo en cuenta otras experiencias nacionales e internacionales, van a permitir determinar las oportunidades de desarrollo y de gestión del territorio, que partiendo de la potencialidad ofrecida por los recursos locales indicaran  e ilustraran las posibles líneas de acción y/o actividades con características de sostenibilidad que conlleven hacia un verdadero desarrollo y la generación de nuevos puestos de trabajo.
Turismo sostenible
Chiclayo capital del departamento de Lambayeque, está íntimamente relacionado al turismo, sea de manera directa (museos, huacas, etc.) e indirecta (hoteles, hostales, restaurantes, transporte, etc.) pero, ¿basta el turismo para afrontar en el corto-mediano plazo el problema de la desocupación, la reforma económica y la cohesión social? El turismo en sus variedades de agroturismo, ecoturismo, y turismo de aventura aún no se explota en su real dimensión, y aquí se tiene una primera línea de acción a explotar sosteniblemente. Investigaciones realizadas en el CIDES-USAT, demuestran que nuestra ciudad cuenta con más de cuatro mil horas anuales de iluminación natural y niveles de irradiación solar técnicamente favorables para la implementación de equipos fotovoltaicos y eólicos para sistemas de iluminación artificial, de calefacción y sistemas de aire acondicionado, sobretodo en hoteles y en nuevas propuestas de hoteles ecológicos. Las empresas hoteleras no están explotando los beneficios económicos que pueden representar las aplicaciones de sistemas solares térmicos y termodinámicos en sus instalaciones y de la imagen ambiental que pueden explotar comercialmente por la utilización de dichos sistemas.
Programa Económico Regional  Etanol (PERE)
El fenómeno de integración de Sudamérica a través de la interconectividad vial, tiene entre sus proyectos el Programa del Eje Vial del Amazonas, que buscará unir Belén en Brasil, hasta el puerto de Bayóvar en Piura, pasando por los departamentos de San Martín, Amazonas, Cajamarca, Lambayeque y Piura.  Sin embargo este programa lo vemos solo como una oportunidad de intercambio comercial con el país vecino, dejando de lado algo más relevante y que es vital en un programa de desarrollo equilibrado: la energía. Brasil es desde hace varios años el primer país que ha llevado adelante un proyecto energético de sustitución de la gasolina, reemplazando de manera gradual porcentajes de gasolina por etanol.  Hoy en día, el sistema de transporte se basa totalmente en etanol y con ello se han establecido en dicho país grandes empresas automotrices que ensamblan unidades de transporte que funcionas totalmente a etanol. He aquí dos oportunidades a considerar: la primera relacionada con la integración de unidades de transporte público y privado a etanol (importadas de Manaos) que conlleva además a la construcción de estaciones de servicio, talleres de mantenimiento, distribución, transporte y actividades conexas a dicho combustible; la segunda es el poder de convocatoria de Chiclayo para que junto a otras ciudades por donde cruzará el Eje Vial Amazónico conformar un frente ambiental en defensa del equilibrio ecológico de las zonas adyacentes a lo largo del Eje Vial, para lo cual se puede plantear la utilización del combustible etanol, por ser menos dañino a la biodiversidad. Brasil podrá abastecer sus unidades de transporte hasta en los límites de su frontera, y nuestras empresas azucareras y todas aquellas interesadas en diversificar sus cultivos podrán producir etanol para abastecer las estaciones de servicio en territorio peruano. El etanol representa una alternativa económica para las empresas azucareras y el sector arrocero, por ser los cultivos que ofrecen mayor productividad en relación a la melaza, yuca y maíz.  En ambos casos, el beneficio directo e inmediato es la creación de nuevos puestos de trabajo, seguido de una mejora del medioambiente y el desarrollo económico. En un evento organizado por la CONAZUC, en la cual tuve el honor de ser invitado, propuse la idea de formar el Programa Económico Regional Etanol (PERE) con miras a diversificar la producción azucarera y arrocera, para incrementar la competitividad local, reducir la dependencia externa energética y la polución del aire. Pero no basta, se requiere la participación activa de los entes relacionados con el mercado, de sumar esfuerzos, y de concretizar las iniciativas en resultados que puedan ser medidos.
Ciudadano global
En una sociedad global, las empresas Chiclayanas y toda la comunidad deben actuar como ciudadanos del mundo, porque es lo que somos: ciudadanos del mundo. Es decir, que en la medida que opiniones y recomendaciones contribuyan al máximo beneficio de todos, se espera pueda ser decisivo para un mundo sostenible.
Chiclayo, denominada “capital de la amistad”, afronta diariamente la globalización y los retos que presenta la nueva economía basada en el conocimiento. Y este ritmo rápido y creciente de cambios hacen necesario y urgente acciones inmediatas de parte de las organizaciones locales para aprovechar al máximo las ventajas derivadas de las oportunidades que se presentan. Chiclayo como ciudad tiene la gran ventaja de ser un punto de referencia de desarrollo en toda la región norte. A este punto, ¿sería mejor llamar a la ciudad como la “capital de la amistad y las oportunidades”?. El tiempo lo dirá.

Dr. Maximiliano Arroyo Ulloa
USAT

Andenergy: Energía para las comunidades de Incahuasi


Era el año 2004 cuando la USAT a través de su Rector fue invitada para una conferencia en la Universidad La Sapienza de Roma, les cambio gran parte el esquema y el concepto que se tenía de los países del sur, erróneamente llamados países en vías de desarrollo (PVD). Esta equivocada denominación, encontró en la conferencia Jornada para la Cooperación Italiana, una respuesta aclaradora contundente en la que demostró que las siglas PVD deberían significar personas en vías de desarrollo, porque el simple hecho de destinar fondos no significa que se logre el tan anhelado desarrollo, y lo demuestran las estadísticas, en las cuales son muchas las comunidades rurales que han recibido donaciones externas y siguen siendo tan iguales como entonces. Todo debido a la falta de compromiso e identificación por parte de los pobladores con el bien común, y la primacía del interés personal por tener mayores beneficios de manera fácil y rápida. Si bien en este tema hay mucho por decirse, es como consecuencia de ésta conferencia que nació el interés de las universidades europeas como La Sapienza (Italia), y la Universidad Técnica Superior  (Portugal), ante una propuesta de investigación que alcanzó posteriormente la Universidad Católica Santo Toribio de Mogrovejo para promover el desarrollo de las comunidades andinas de la Región Lambayeque a través del establecimiento de  sistemas energéticos que permitan impulsar el desarrollo de las actividades productivas locales y mejorar las condiciones de vida de las comunidades que se encuentran dispersas. La USAT acuño el término ANDENERGY (energía para los andes), y la propuesta coordinada y liderada por la Sapienza tuvo acogida en la convocatoria COOPENER que realiza anualmente la Comunidad Europea, y siendo una convocatoria participativa, se invitó a la Universidad de Piura y a la Universidad Politécnica de Guayaquil, completándose el consorcio que permita cubrir parte de la costa norte peruana y parte del sur de Ecuador: desde Lambayeque hasta Guayaquil. Siendo nuestro partner la organización ECO que ya viene realizando actividades de desarrollo en el alto Lambayeque.
El  proyecto aprobado en el 2005, que ha iniciado su ejecución a inicios del presente año, busca en su primera fase la elaboración de un plan energético a la medida, para las comunidades seleccionadas en el distrito de Incahuasi que permitan proponer políticas y regulaciones que faciliten el acceso de servicios energéticos básicos en los hogares. El proyecto busca evidenciar el rol de los servicios energéticos en el alivio de la pobreza, pero no solo, sino también el desarrollo de capacidades de los miembros de las comunidades comprometidas, sea en la toma de decisiones, la  recolección de datos de irradiación solar-eólica, aplicación de encuestas, y en la puesta en práctica de lo que se va aprendiendo. En este sentido la participación es integral y conjunta, razón por la cual, los investigadores de la USAT y los miembros del consorcio han participado en varias visitas de trabajo al distrito de Incahuasi.
El compromiso de servicio a los demás es latente en el proyecto, y en esta perspectiva buscamos alinear los objetivos del proyecto con todas aquellas organizaciones e instituciones públicas o privadas que busquen abandonar la pasividad y victimismo que caracteriza a sus muchos de sus directivos y colaboradores.


Dr. Maximiliano Arroyo Ulloa
USAT

Capa de Ozono el agujero avanza


El aumento del deterioro de la capa protectora de ozono permite que penetre con mayor intensidad la luz ultravioleta a la superficie de la tierra. Este fenómeno pone en riesgo a todos aquellos que se exponen al sol de manera directa o indirecta, especialmente los niños, para lo cual se recomienda protegerse con bloqueadores solares y gorros o sombreros.
Investigaciones realizadas por la Universidad de Cambridge, y respaldada por organizaciones científicas especializadas en el estudio y monitoreo del comportamiento de los niveles de ozono, han determinado que en el mes de marzo el nivel de ozono ha alcanzado el nivel más bajo jamás registrado.
Un estudio realizado por Cambridge ha demostrado que este debilitamiento (a grandes altitudes el 50% de la capa protectora de ozono ha desaparecido) es debido a los efectos secundarios del cambio climático. La causa es el incremento de nubes estratosfèricas a 24 kilómetros por encima de la tierra, haciendo que se forme una plataforma nubosa que facilita y propicia reacciones químicas que destruyen el ozono. El aumento de los gases de invernadero en el aire atrapa el calor en las capas bajas de la atmósfera, pero en la estratosfera se están enfriando, y esto hace que se formen nubes de muy baja temperatura (a 14-26 kilómetros sobre la tierra), exactamente en la zona donde se encuentra la capa protectora y donde el ozono alcanza su protección máxima. En esta zona se ha perdido la mitad de ozono, sin dejar de ser importante el treinta por ciento que se está perdiendo en las capas más bajas de la atmósfera.
Estos son los niveles más bajos de ozono que se han registrado desde hace 40 años, a pesar de todas las recomendaciones y logros conseguidos a través del Protocolo de Montreal (que establece límites para la producción y el consumo de CFC y gases halones perjudiciales para el agotamiento de la capa de ozono).
Los primeros signos de pérdida importante de ozono se presentaron en el mes de enero, aumentando su destrucción a lo largo de febrero y marzo.
Gracias al Protocolo de Montreal, se ha logrado detener en gran parte los niveles de emisiones de gases dañinos al ozono, pero los cambios en la atmósfera, aún por explicar, están facilitando reacciones químicas fatales para la capa protectora de ozono. Esta complejidad que necesita ser investigada para poder buscar una explicación científica, ha hecho que la Unión Europea invierta 16 millones de euros en un proyecto a cinco años para intentar entender lo que está ocurriendo, porque a la vista de los resultados no se puede entender cómo es posible que se empeore el nivel de ozono a pesar de la disminución del nivel de contaminantes.
Observaciones satelitales de la tierra han permitido evaluar la verdadera distribución media del total de ozono, en función de la latitud y de las estaciones. La unidad de medida del ozono es la Unidad Dobson (DU). Por agujero de ozono se entiende entonces la zona en donde la columna vertical del ozono total es inferior a las 220 Unidades Dobson (unos 2,2 mm). El límite de alerta se considera cuando la columna de la capa de ozono llega a los 250 DU.
El comportamiento de estos niveles que corresponde al mes de abril (día 26) oscila en el caso del norte peruano, entre los 240 a 270 DU, con un gran riesgo para la parte central-oriental del país. En relación a las imágenes de fecha 15 de abril, podremos ver que toda la costa peruana estuvo en niveles verdaderamente bajos: 225 a 250 DU. Pero hasta el día 26 se ha notado una relativa recuperación del nivel de ozono.
No está demás tomar las medidas del caso que nos permita proteger de la nociva radiación ultravioleta, más aún ahora en que estamos viviendo un “verano adicional”.

Dr. Maximiliano Arroyo Ulloa
USAT