viernes, 8 de febrero de 2013

A propósito de las fiestas navideñas


LA PARTE TRISTE DE LOS JUGUETES: las pruebas de seguridad

¿Existe alguien capaz de destrozar un osito de peluche, más de cuanto lo haga un niño? Sí, se trata de adultos, técnicos de laboratorio cuyo trabajo consiste en evaluar la resistencia de los juguetes, para garantizar a los padres que aquellos juguetes que dan a sus hijos son seguros.
Por ejemplo en la Comunidad Europea existe una norma que establece las características que un juguete debe tener para poder obtener la certificación CE (conformidad europea). Dicha certificación viene impresa por los productores en todas las cajas y/o estuches, después de haber aplicado al juguete todas las pruebas necesarias de seguridad en un laboratorio especializado.
Las pruebas de seguridad comprenden el aspecto químico, mecánico, eléctrico, inflamabilidad y radioactividad, con la finalidad de reducir todos los riesgos que los juguetes pueden representar, como son: sustancias tóxicas en los materiales y colores, la fuerza de impacto que de proyectiles de las pistolas de juguete, hasta los decibeles de las sonajas de los bebes (ha pasado que muchas veces los bebes reaccionan llorando ante el sonido de una sonaja, pues está comprobado que se debe al dolor auditivo intenso que produce la sonaja).
Pero veamos con mayores detalles algunas de las principales pruebas de seguridad que se aplican:

Pruebas físicas y mecánicas

La mayor exigencia se da en los juguetes para niños menores de tres años. Los peluches son sometidos a una serie de pruebas de torsión, tensión y tracción. Inclusive hasta los mordiscos vienen simulados con máquinas especiales para verificar que ninguna parte se desprenda fácilmente, de manera que “invite” al niño a llevárselo a la boca.

Las máquinas a pedales o eléctricas, bicicletas y triciclos, son también sometidos a pruebas de choque, similares a las que se realizan con los autos. Normalmente la prueba consiste en lanzar los triciclos (con un maniquí a bordo) contra un muro, a la velocidad de 2 metros por segundo, y así poder analizar los daños y tomar medidas de correcciones necesarias. Luego vienen las pruebas de estabilidad, inclinándolos hasta que pierdan el equilibrio.

Pruebas químicas

Estas pruebas tienen como objetivo controlar las materias primas, pegamentos y pinturas, con las cuales están construidos los juguetes, y que estén conformes a los límites de seguridad establecidos internacionalmente (se controla la presencia de metales pesados y sustancias nocivas). Los principales análisis que se siguen son:
-   Test de Robinson: análisis sensorial de “gusto”
-    Análisis de saliva y sudor
-    Control de fórmulas en juguetes cosméticos
-    Contenido de níquel en juguetes metálicos
-    Contacto con alimentos
-    Determinación de agentes aceleradores, vulcanizadores y antioxidantes
-     Aminas aromáticas en tejidos y cueros.
-  Composición de las fibras, análisis de colorantes cancerígenos o alérgicos y resistencia del color.

Pruebas eléctricas

Se entiende como juguetes eléctricos a todos aquellos juguetes que funcionan con un máximo de 24 voltios. Debido al empleo de pilas, transformadores y carga baterías, se realizan pruebas de compatibilidad electromagnética y de frecuencia de banda. Pruebas particulares y específicas se aplican en el caso de juguetes que se mueven dentro del agua.

Pruebas de inflamabilidad

Se controla además que los juguetes no sean inflamables, y si lo son, las llamas deben propagarse con una velocidad inferior a 30 mm por segundo, así el  niño tiene el tiempo de lanzarlo hacia otra parte.
Oh…y ahora ¿quién podrá salvarme?...La Ley 2837
¿Se cuenta en el país con normas o leyes que nos protejan? Sí, la ASPEC (Asociación Peruana de Consumidores y Usuarios), quien con su campaña de denuncias y marchas públicas ha logrado que el Congreso de la República apruebe la Ley 2837 que prohíbe la fabricación, importación y comercialización de juguetes y útiles escolares tóxicos.
Un caso particular, se vivió en Junio de este año cuando la Asociación de Consumidores de Chile (ACC) así como la ASPEC, solicitaron a la empresa Nestlé-Perú y Nestlé- Chile retirar del mercado los juguetes con los personajes de “Shrek 2” por contener tolueno (sustancia tóxica). Si bien Nestlé-Perú argumentó que los juguetes cumplían los estándares internacionales de calidad, en Chile se incautaron alrededor de 950 mil unidades de estos juguetes y la incautación y retiro de otros dos millones ya distribuidos.
Concientes de esta realidad, ¿seremos capaces de hacer algo? Probablemente no mucho, pero se hace necesario alzar la voz de alerta e invitar a todos aquellos negocios que de una u otra manera expenden juguetes a unir esfuerzos por ofrecer buenos productos a precios justos y no seguir timando con imitaciones burdas de marcas conocidas. A ustedes empresarios la palabra, a ustedes padres de familia la oportunidad.

Dr. Maximiliano Arroyo Ulloa
USAT

La computadora del futuro


LOS CHIPS DE SILICIO ESTÁN SIENDO SUSTITUÌDOS POR CIRCUITOS EN BASE A ADN O PLÀSTICO…UN PASO A LAS PC CUÀNTICAS

Parecería ser una broma, pero hoy en día numerosos laboratorios están estudiando e investigando las nuevas características de las PC del mañana. Ya en 1965 una revista americana de electrónica le pide a Gordon Moore, uno de los fundadores de Intel, de predecir el futuro de la industria de los microchips. La respuesta de Moore, en aquel entonces director de investigaciones de la Fairchild Semiconductor, fue que los chips duplicarían su potencia cada 18 meses, en relación al costo.
Después de 39 años, su previsión (conocida como la primera ley de Moore) sigue siendo válida: pasando de una Pentium 3 que contiene  28 millones de transistores a la Pentium 4 de casi 100 millones de transistores. Pero dentro de poco esta aparente evolución se encontrará de frente a un gran obstáculo: nadie sabe cómo construir circuitos integrados de dimensiones menores a los 100 nanómetros (100 millonésimas de milímetros).  Y, en tal caso, la miniaturización prevista de la ley de Moore no podrá seguir en pie.

Problemas de “dopaje” tecnológico

El silicio usado en los microchips, para poder tener propiedades conductivas debe ser “dopado” con algunas sustancias, y a transistores más pequeños el chip necesita de mayor “dopaje” (agregado de otras sustancias) hasta un cierto límite, esto debido a que lo átomos de la sustancia extraña (en este caso germanio) tienden a formar aglomeraciones inactivos electrónicamente.

Además, los transistores que controlan el flujo de corriente en los chips son tan pequeños (menos de 2 nanómetros) que corren el riesgo de sufrir lo que los físicos llama el efecto túnel, es decir que los electrones no pueden ser controlados, generando un cortocircuito de los transistores. A complicar las cosas, se suman otras leyes, aquella de la economía. En este sentido Gordon Moore estableció una ley, que es poco conocida, según la cual cada 36 meses se duplicarían los costos de las plantas para producir chips. Si esta ley sigue siendo válida, en el 2030 una nueva fábrica de semiconductores podría llegar a costar tanto como el producto bruto interno de todo el planeta.

El riesgo black-out

Como primera contramedida, los grandes productores están buscando la manera de hacer que el silicio sea más eficiente sin reducir las dimensiones, y de aumentar su velocidad de los chips sin duplicar los costos: por ejemplo se puede usar el cobre (mejor conductor que el aluminio) para conectar los transistores, o el germanio para distanciar los átomos de los cristales de silicio y así hacer pasar más corriente y consumir menos energía. Otra solución puede ser los nanotubos de carbono, que además de ser pequeñísimos (en un cabello humano pueden entrar unos 100 mil), permitirán hacer transitar una enorme cantidad de electrones, disipando poca corriente.

Las computadoras americanas consumen el 15% de la corriente total del país, y según las proyecciones en el 2020-2030 llegarán hasta el 50%, y llegar a producir hace latente el riesgo de tener nuevos black-out. Por estas razones. Los investigadores piensan que a pesar de los grandes avances con el silicio, ha llegado el momento de aprovechar los superpoderes de la física cuántica para crear computadoras en grado de resolver problemas imposibles para la técnica tradicional. Entre estos investigadores hay quienes piensan que se debe sustituir el silicio con otros materiales: desde el simple plástico hasta la sustancia base de la vida, el ADN.

Llega el QBIT

Para el 2030, si la ley de Moore se mantiene, los transistores tradicionales con el cual son fabricados los chips deberán ser grandes como átomos. La idea no es nueva. Hace 20 años que el físico Paul  Benioff se propuso realizar una máquina en grado de analizar información que podría ser contemporáneamente verdadera o falsa (1 o 0). Si bien no hubo resultados concretos, la mecánica cuantística tiene la posibilidad de ofrecernos las bases para proyectar computadoras de velocidades increíbles. Dos solos QBIT (quantum bit), representan la combinación de 4 posibles bit (00, 01, 10, 11) y aumentando el número de QBIT se aumenta también la posibilidad de cálculo de manera exponencial: con 40 QBIT se podría representar cada número binario de cero a más de un trillón de manera simultánea y bastarían 333 para representar todos los números desde el 1 hasta el googol (10 a la 100).
El problema es como pasar de la teoría a la práctica, especialmente a ingresar datos y la manera de poder leerlos. Investigaciones de físicos e informáticos que tiene a disposición tecnología, nuevos conocimientos, instrumentos y financiamiento, están tratando de resolver lo que los han bautizado como “trampa cuantística”.

Más allá de la lógica

En agosto del 2000, investigadores de la IBM Research Centre, lograron elaborar un dispositivo a 5 QBIT (5 núcleos de flúor que interactuaban entre ellos a través de impulsos de radio). Los Alamos Nacional Lab, trabajaron con moléculas hechas de átomos de carbono e hidrógeno anunciando un modelo de 7 QBIT. El laboratorio europeo LENS ha realizado un experimento que abre nuevos horizontes de investigación al agrupar cerca de 1 millón de átomos comportándose como si fuera un solo átomo al llevarlos a temperaturas cercanas al cero absoluto.

Cuando nuestro cuerpo está bajo esfuerzo, las células tienen necesidad de más oxígeno. Entonces una enzima comienza a producir hemoglobina (la proteína que sirve a transportar el oxígeno), tomando del ADN las instrucciones para fabricarla. De manera muy simplificada, lo descrito anteriormente es un computador: se introducen los datos (falta de oxígeno), el software (ADN) lo elabora, y el hardware (enzima) cumple la acción (produce hemoglobina). ¿Por qué no aprovechar esta biocomputadora como productora de datos? Nadrian Seeman y un grupo de investigadores de la Universidad de New York han encontrado la manera de usar el ADN como una puerta lógica y están en el proceso de pegar nanopartículas de oro a la cadena del ADN para formar circuitos electrónicos minúsculos.  Otros como Ed Shapiro del Weizmann Institute de Israel, han logrado usar moléculas de ADN  para hacer cálculos y producir resultados sin necesidad de supervisión humana. Se espera que esta computadora pueda realizar 330 trillones de operaciones por segundo, es decir 100 mil veces la velocidad actual de las PC’s actuales.

Deberán pasar aún algunos años para que una verdadera computadora-ADN pueda ser una verdadera competencia de aquellas basadas en silicio. Pero vale la pena insistir: el ADN es fácil de producir, ecológico, y en teoría, en 1 gramo es posible almacenar tantos datos equivalentes a miles de millones de CD’s.

Dr. Maximiliano Arroyo Ulloa
USAT

Investigación e industria


En el marco global del desarrollo y la formación en educación superior, la USAT subraya el papel único y fundamental que debe tener toda universidad, como eslabón principal en el círculo de la integración entre producción y transmisión del saber: la investigación.

La universidad es lugar del saber, de la investigación, punto de excelencia de la formación, y como tal debe contribuir a formar ciudadanos reflexivos y críticos. La universidad tiene la tarea de interactuar con la red social-económica-productiva del entorno, creando un ambiente favorable, donde la investigación universitaria encuentra las necesidades externas.

Hago hincapié en esto, porque para muchas organizaciones, instituciones, e inclusive en algunas universidades, la investigación es vista solamente en función del aporte que puede ofrecer a la industria, de manera particular a las pequeñas y medianas empresas, más no por su valor científico y su reconocimiento internacional. Esta visión de la investigación se encuadra en un esquema en la cual las competencias científicas y la profesionalidad individual son encasilladas de tal manera que adormecen los saltos innovadores que caracterizan a las grandes transformaciones científicas. Y necesariamente no tiene que ser así, porque el reconocimiento internacional de las investigaciones que se realizan,  permite y ofrece también la oportunidad de lograr nuevas inversiones, y nuevos conocimientos para el sector productivo. En nuestro caso, el sistema productivo, tiene en la presencia de las pequeñas y medianas industrias, la fuente del dinamismo económico y la gran oportunidad de crecimiento, pero, dadas las limitadas dimensiones productivas y financieras, no están en grado de activar procesos autónomos de investigación y de formación del personal.  En este contexto la relación de la universidad en el sistema productivo debe ser vista como una gran oportunidad de crecimiento y desarrollo recíproco, y como uno de los factores estratégicos de competitividad económica,  donde se juega en gran parte el futuro del sistema productivo.

Hoy en día, a los profesionales, se les exige, una mayor capacidad de decisión, inclusive al interno del mismo proceso productivo, por lo tanto, la instrucción superior entendida como formación y adquisición constante de conocimiento, entiéndase como investigación, se hace cada vez más necesaria. Entonces, la universidad debe ser el lugar del estudio y de la investigación de base, sin la cual el desarrollo tendría horizontes limitados; pero también debe ser uno de los actores principales del desarrollo local de las actividades económicas y productivas, en la cual las industrias se convierten en el punto de referencia de la investigación aplicada.

La Universidad es la fuente primaria de la investigación. Y si a este principio le agregamos una sólida formación humana, estamos confirmando y reafirmando el verdadero compromiso con el presente y futuro de la sociedad.

Dr. Maximiliano Arroyo Ulloa
USAT

Hacia el Cero Absoluto


Los científicos no se han tardado para hallar una salida a los vínculos del segundo principio termodinámico (el calor fluye espontáneamente de cuerpos calientes a fríos, nunca al revés), de tal manera que para obtener una eficiencia del 100% bastaría que la fuente más fría tenga una temperatura del cero absoluto. Pero, ¿qué cosa es el cero absoluto? El nivel de energía más bajo posible. El cero absoluto (0º K) corresponde aproximadamente a la temperatura de -273.16º C. Nunca se ha alcanzado tal temperatura y la termodinámica asegura que es inalcanzable. Lo impide la tercera ley de la termodinámica.

La temperatura es una medida del movimiento microscópico de los átomos: más baja la temperatura, menor es el movimiento. Por lo tanto, al cero absoluto que le corresponde un valor de – 273,15°C, el movimiento de los átomos y moléculas es el mínimo permitido por las leyes de la mecánica cuántica. Pero alcanzar esta temperatura es a su vez imposible. Esto lo demostró el químico alemán Walter Nernst, a través de una serie de experimentos, gracias a los cuales consiguió el premio Nóbel en 1920.

Los científicos continúan en su búsqueda de alcanzar temperaturas lo más bajas posibles. George Pickett de la universidad de Lancaster en Inglaterra, logró llegar a los 0,000007°K con un criostato. El actual record conseguido en 1993 llegó a 0,00000000028 grados sobre le cero absoluto, y se logró en Finlandia, en el laboratorio de la universidad de Helsinki. Este valor es el punto de partida de la escala termométrica absoluta, más conocida como escala Kelvin. En esta escala los grados son iguales a aquellos centígrados, pero el cero corresponde a – 273,15°C.

Por fortuna los primeros termómetros y las escalas termométricas se vienen utilizando desde el 1700 y fue el sueco Anders Celsius quien atribuyo el valor de 0 a la temperatura del hielo y el valor de 100 a la temperatura a la cual hierve le agua, luego dividió el intervalo en partes iguales definiendo el grado centígrado.

Pero a presión atmosférica inferior (como en montaña) el agua hierve a menos de 100 °C. La ambigüedad fue resuelta cuando se descubrió el punto triple del agua, una temperatura a la cual pueden existir en equilibrio: agua-hielo-vapor.

El concepto de cero absoluto también es importante desde el punto de vista teórico. Según la tercera ley de la termodinámica, la entropía (o desorden) de un cristal puro sería nula en el cero absoluto; esto tiene una importancia considerable en el análisis de reacciones químicas y en la física cuántica. Los materiales presentan propiedades extrañas cuando se enfrían a temperaturas muy bajas. Algunos pierden por completo su resistencia eléctrica. Este efecto se observó por primera vez en el mercurio a unos pocos grados por encima del cero absoluto, pero se están obteniendo a temperaturas cada vez más altas con nuevos materiales.

Dr. Maximiliano Arroyo Ullo
USAT

En la “Comunidad del Anillo” Energético, lo más importante es cuidar la “Comarca” Peruana


Ya lo mencioné en artículos anteriores, que una relación coherente entre energía y desarrollo económico es vital para el despegue de países como el nuestro, demostrándose esto a través de la historia. Si bien las tecnologías energéticas han evolucionado en los últimos años, no es este cambio tecnológico que genera los cambios en las políticas de desarrollo, por el contrario es la política de desarrollo la que se debe basar necesariamente en la disponibilidad de la tecnología actual existente. Pero cada día adquiere importancia relevante, la consideración de los factores ambientales de la producción, transformación y utilizo de la energía, ya sea a nivel local, regional y global siempre con referencia a la sostenibilidad y la estabilidad del clima. Las políticas energéticas que en pasado eran destinadas a la oferta existente, hoy se orientan a la demanda, y la demanda real es aquella de “servicios energéticos” y no de energía (en el sentido de la palabra). Si podemos obtener mejores beneficios sociales-ambientales-económicos, ofreciendo servicios energéticos con “menos energía contaminante” como el gas natural, en otras palabras, de manera sostenible, la pregunta que queda flotando es: ¿por qué no hacerlo?

El 22 de marzo hubo en apagón en Chile que aumentó la inestabilidad que vive la zona central del país sureño a causa de las restricciones de gas natural y escasez de agua en los embalses. Ante este fenómeno, el Ministro de Economía y Energía de Chile, Jorge Rodríguez hizo conocer la posibilidad de introducir gas desde el Perú, sosteniendo que un país como Chile requiere aumentar cada 8 años  su producción energética al doble. La iniciativa se produce en momentos que Argentina decidió recortar sus envíos de gas a Chile para poder atender su demanda interna, lo que también ha afectado indirectamente a Brasil y Uruguay. El 12 de junio, dicho Ministro manifestó: "Perú es un gran productor de gas que todavía no tiene un desarrollo comercial muy grande y creemos que las demandas que pueden hacer Argentina, Brasil, Uruguay y Chile le pueden viabilizar a Perú un negocio que es muy importante y también para nosotros. Y lo mismo en materia de electricidad, Chile le puede vender electricidad a Perú".

Nuestro país vecino, utiliza centrales termoeléctricas (que satisfacen el 46,4% de las necesidades de electricidad), sistemas de ciclo combinado cuya aportación fue del 17,8%,  e hidroeléctricas  con un 35,8% de participación en la generación de electricidad. En el caso de las centrales hidroeléctricas, la materia prima fundamental es el agua, y la escasez del mismo puso en serio aprietos a las empresas chilenas generadoras de electricidad, motivo por el cual se han establecido planes de racionalización para el uso de la energía eléctrica.

Como país estoy convencido que somos capaces de grandes cosas. Nuestro país necesita y debe revisar con detenimiento hacia donde quiere llegar desde una perspectiva energética.  Lo que la “comunidad del anillo energético” necesita es energía eléctrica, no necesariamente materia prima (gas natural). Y si eso es lo que necesitan, pues démosles lo que necesitan: electricidad. Vender electricidad significa no solo aprovechar mejor nuestros recursos, sino crear mayores oportunidades laborales para nuestros compatriotas, y mejorar los ingresos para nuestro país. La tendencia mundial está orientada en gran parte (y en donde es posible), hacia una economía energética basada en combustibles gaseosos, entonces no desperdiciemos esta oportunidad que tenemos entre manos y hagamos sentir la verdadera presencia de nuestro gas natural en la magnitud chola que debe tener.

Y no sería la primera experiencia peruana en materia de exportar “servicios eléctricos”, ya el 19 de mayo de este año, la provincia de Machala (Ecuador) se quedó sin energía eléctrica, motivo por el cual solicitó al Perú a  través del sistema de interconexión el suministro de 60 a 80 MW por un espacio de cinco días, la empresa ELECTROPERÜ brindó el suministro temporal bajo el marco de la normativa peruana y con la consiguiente responsabilidad de todos los costos incurridos por la premura.

Esto demuestra que podemos ser un referente potencial de servicios eléctricos con todos nuestros países fronterizos, y siendo el caso, utilizando a Chile como un corredor eléctrico hacia la Argentina.

Dr. Maximiliano Arroyo Ulloa
USAT

GAIA, el planeta que vive


Al inicio pocos creían en la nueva teoría. Pero hoy en día se ve reforzada por nuevos elementos. La idea que la biosfera de nuestro planeta pueda ser interpretada como un ser viviente, en el cual los ambientes naturales son los órganos, es la teoría formulada por James Lovelock, la cual llamó Gaia (nombre de la diosa griega de la tierra).

Pero, ¿cómo es que nace esta teoría? En los años sesenta Lovelock es contratado por la NASA para investigar la posibilidad  de vida extra terrestre, concluyendo luego que no había necesidad de buscar vida alienígena explorando otros planetas, que bastaba observar la atmósfera u otros parámetros, porque la vida no es una cuestión de especie, sino del rol que cada uno lleva adelante para hacer funcionar un sistema más complejo. Y es que observando los intercambios de energía y la composición de la atmósfera, se puede entender no solamente que la vida existe, sino también que se ha logrado un cierto grado de desarrollo.

En este sentido, para Lovelock la tierra es un único organismo que se nutre de energía química y solar, que respira con sus forestas y las algas de los océanos, en los cuales la energía corre a través de la cadena alimenticia. Y como organismo que es, Gaia es capaz de autorregularse. ¿De qué manera? Hace 3,8 millardos de años hasta la actualidad, la tierra no se ha calentado ni enfriado demasiado para la vida debido a los organismos reguladores, como los invertebrados que han formado las plataformas carbónicas, que capturan anhídrido carbónico del aire transformándolo en carbonato de calcio, y  haciendo que la temperatura no se eleve. Una obra colosal que ejemplifica esta aplicación son los corales que han creado las islas Bahamas, casi un millón de kilómetros cúbicos de carbonato de calcio.

De acuerdo a información del Instituto de Ecología Terrestre de Edimburgo, la teoría de Gaia cobra mayor importancia por los recientes estudios realizados sobre el plancton, porque el plancton libera en el océano azufre donde una parte se volatiza y forma partículas ácidas, y éstas a su vez permiten la formación de densas nubes de lluvia. Si el plancton no realizara esta función, según Bob Charlson de la Universidad de Washington, las lluvias serían muy escasas y la temperatura global sería más alta, hasta en 10 grados centígrados. Es el plancton que hace que Gaia se mantenga relativamente fresca.

Un conjunto de ecosistemas locales dan estabilidad a la vida de Gaia, pero en todo esto, ¿qué rol tienen los hombres? Siendo la especie dominante, algunos la consideran como las neuronas, mientras que otros sostienen que es el hombre quien está destruyendo la biodiversidad, y por lo tanto, más que un cerebro representa un conjunto de células vanas y carentes de un espíritu de servicio hacia sí mismo y la sociedad. Se debe dejar de pensar en sí mismo, en las propias necesidades y derechos, recordando siempre que somos parte del planeta, y que éste planeta es nuestra única casa.

Dr. Maximiliano Arroyo Ulloa
USAT

Fútbol y Tecnología


Para los apasionados del fútbol, la aplicación del rigor científico en la solución a las grandes dudas dominicales, sobre “si fue un gol legítimo”, o “si fue una anotación en fuera de juego”, etc., puede representar el triunfo final de la verdad. En este sentido la respuesta proviene de un nuevo diseño tanto para balones de fútbol y los protectores de piernas (espinilleras), en los cuales se han integrado transmisores microscópicos, que permitirán tener bajo control todo el campo de juego.

Sistema Cairos en el campo de fútbol

El nuevo método, denominado Sistema Cairos funciona con un microchip implantado en los balones que transmite señales de microondas a seis antenas apostadas alrededor del campo. La información es transmitida a través de cables de fibra óptica a un ordenador central que procesa las señales de forma casi simultánea a un panel fijo en el campo de juego. Los resultados pueden ser transmitidos en una fracción de segundo a un pequeño receptor que lleva el árbitro en la muñeca: controlarán su alarma instalada en su brazo, pudiendo establecer con mayor seguridad si un jugador está en off-side o si la infracción ocurrió dentro o fuera del área de penal. Para los entrenadores es un instrumento que ofrecerá mayor información técnica sobre el balón (velocidad del balón, aceleración, etc.) y sobre sus jugadores (velocidad, potencia de disparo, capacidad de elevación, área efectiva de dominio, etc.). Los expertos de medicina deportiva sostienen que el monitoreo electrónico de los jugadores proveerá información vital sobre todo en los campos de entrenamiento.
Si el chip estuviese instalado en las espinilleras de los jugadores, podría proveer, por ejemplo, una base de datos a los entrenadores sobre cada jugador conforme avanza el juego, convirtiéndose en un asistente de técnico digital. Los programas de computación que utilicen el sistema Carios podrán reconocer los movimientos de los jugadores y los patrones de juego, e incluso abrir una nueva posibilidad de apuestas sobre las estadísticas sobre los futbolistas. El Sistema Cairos serviría también para medir la distancia de la barrera en los tiros libres.
El balón con el microchip fue desarrollado por Adidas en sociedad con dos empresas alemanas especializadas en computación e informática, Cairos Technologies y Fraunhofer. La inserción del emisor de señal dentro del balón exigió un desarrollo de capas protectoras para que los desplazamientos y golpes que recibe la pelota continuamente no dañen su funcionamiento.  Los sistemas que se desarrollaron incluyen un sensor sonoro en un auricular que puede llevar el árbitro y también sus asistentes e, incluso, la reproducción de la escena en video.

Sistema Cleverpath

El club italiano de fútbol AC Milan viene utilizando la tecnología para prevenir lesiones. Cada aparato de ejercicios se conecta a una computadora central a la que llegan los datos vitales de cada jugador. Además se le suman los tomados a mano en cada partido y entrenamiento de campo. Luego, el software Cleverpath, de Computer Associates, extrae patrones de esos datos y elabora predicciones sobre cada jugador y su estado físico. El software aprende y mejora —como el cerebro humano— con el ingreso de los datos.

Mundial Sub 17 de Fútbol en Perú

Perú será el primer país de manera oficial (autorización FIFA) quien usará los nuevos balones con chips incorporados con el fin de indicar si  el balón entró en el arco. Este evento mundial, que concitará no solo a los amantes del fútbol sino también a los curiosos de la tecnología, servirá de ensayo con miras a su utilización el campeonato mundial de fútbol a realizarse en Alemania el 2006.
Hay mucho optimismo en cuanto al éxito de la tecnología en el campo de juego, sobre todo en lo que podríamos llamar, las nuevas “pelotas con antenas”. 

Dr. Maximiliano Arroyo Ulloa
USAT