Tecnología

Tecnología (14)

La energía eólica es de las más limpias, ya que los aerogeneradores eléctricos no producen emisiones contaminantes (atmosféricas, residuos, vertidos líquidos, etc.) y no contribuyen, por lo tanto, al efecto invernadero ni a la acidificación, aunque consumen volúmenes altos de lubricantes. No obstante, presentan factores negativos y algunas de las consecuencias hacia el ambiente son: Impacto visual, Impacto potencial sobre las aves, Efectos directos sobre la flora y la fauna, Efecto del ruido (con una frecuencia inferior a 20 hercios, Hz) , Impacto por erosión durante la construcción y el Impacto por las interferencias electromagnéticas (Saber Más 23:28-30).

Con el propósito de renovar este tipo de generadores de energía eólica con hélices o aspas, que fueron inventados para convertir la energía cinética del viento en energía mecánica y ésta en energía eléctrica a través de un alternador, nuevos modelos de éstos se han desarrollado con el propósito de disminuir o eliminar el ruido que los primeros producen y reducir el efecto sobre la flora y la fauna.

La tecnología Vortex ha dado un nuevo impulso a los aerogeneradores ya que aportan diversas ventajas: son más eficientes, producen un mínimo de ruido, requieren menor espacio, presentan poco impacto visual y no provoca la mortalidad de aves. 

¿Cómo son y cuál es su mecanismo de funcionamiento?

Los generadores “Vortex Bladless” consisten en un cilindro crónico vertical anclado al suelo mediante varillas flexibles. En este tipo de generadores de energía eólica, el cilindro oscila cuando el viento circula a través de éste, impulsando ciclos de circulación y rotación. Debido a un sistema de bobinas e imanes que lo componen, el movimiento se traduce en electricidad. El cilindro está fabricado con fibra de vidrio y su funcionamiento se basas en el principio físico conocido como “la calle de vórtices von Kármán”, en el que el viento con un patrón repetido de remolinos de movimiento espiral, al azotar la estructura, la hacen mecer. Este fenómeno corresponde su nombre al ingeniero y estudioso de la dinámica de los fluidos, Theodore von Kármán. 

Inventores

Los españoles David Suriol, David Yáñez y Raúl Martín de la empresa Deutecno, son los responsables de esta innovación tecnológica. Su proyecto ya consiguió un millón de euros de financiamiento para la comercialización de estos Vortex. Actualmente este tipo de aerogeneradores son de 12.5 m de altura con un costo aproximado de 5500 euros, que generan 4 kilovatios (KW). En este año, la meta es construir equipos de mayor altura (hasta de 100 m), ya que a más altura, se tendrá más rendimiento y generará más cantidad de energía, con los que se espera generar hasta 1 megavatio (MW).

Un aerogenerador de 1 MW situado a un buen emplazamiento produce más de 4 millones de unidades de electricidad cada año. Esto es suficiente para satisfacer las necesidades de más de 1000 hogares o para hacer funcionar una computadora durante 1500 años. 

Video:

https://www.indiegogo.com/projects/vortex-bladeless-a-wind-generator-without-blades--3#/

Texto tomado de la revista "Saber más" en su edición No. 37 consultas en: https://www.sabermas.umich.mx/secciones/tecnologia/578-energia-eolica-sin-aspas-y-sin-ruido.html

Investigadores de la Universidad Politécnica de Madrid han ideado un método para mejorar el aislamiento y absorción de los materiales de construcción utilizando un residuo vegetal: huesos de aceituna carbonizados. Este desecho de la producción de aceite de oliva también aumenta las propiedades térmicas y acústicas de los materiales. 
 
<p>Producir materiales de construcción utilizando huesos de aceituna los hace más sostenibles para el medioambiente. Fuente pixabay.</p>
Producir materiales de construcción utilizando huesos de aceituna los hace más sostenibles para el medioambiente. Fuente pixabay.

Un equipo liderado por la catedrática Mercedes del Río, de la Escuela Técnica Superior de Edificación (ETSEM), y el catedrático Francisco Fernández de la Escuela Técnica Superior de Ingeniería y Diseño Industrial (ETSIDI) de la Universidad Politécnica de Madrid (UPM), ha demostrado que los huesos de aceituna carbonizados pueden servir para sustituir de forma más sostenible a los agregados ligeros más utilizados en construcción de edificios y obra civil.

Esta nueva aplicación de los residuos de la producción de aceite de oliva reduce la densidad de los materiales de construcción y mejora sus propiedades térmicas y acústicas. Esto, unido a que en su ciclo de producción su demanda energética es menor, los convierten en una alternativa más sostenible para la fabricación de morteros de construcción aligerados.

Los huesos de aceituna carbonizados pueden servir para sustituir de forma más sostenible a los agregados ligeros más utilizados en construcción

España es el primer país productor de aceite de oliva del mundo. Cada año, esta industria genera unas 37.500 toneladas de residuos en forma de huesos de aceituna. En la actualidad este residuo se utiliza como biomasa, pero su poder calorífico es siete veces más bajo que el gasóleo de calefacción. Por ello, se plantea la búsqueda de una nueva aplicación más rentable de estos residuos.

Esto fue lo que motivó al grupo de Tecnología Edificatoria y Medio Ambiente de la UPM a estudiar su utilización como sustitutos de los agregados ligeros más utilizados en la construcción de edificios y obras civiles: la perlita, la vermiculita y sobre todo la arcilla expandida, materiales que se añaden a pastas, morteros y hormigones para reducir su densidad y mejorar sus capacidades térmicas y acústicas.

Estos aligerantes, necesitan para su fabricación una gran cantidad de energía. Sin embargo, los residuos de las aceitunas tienen una baja demanda energética en su ciclo de producción. “Si se probara la efectividad de su aplicación como agregado de morteros”, cuenta Francisco Fernández, “permitiría que la producción de los materiales de construcción fuera más sostenible desde el punto de vista medioambiental”.

Para demostrar la viabilidad de la nueva aplicación para reutilizar los huesos de aceituna, los investigadores, en colaboración con el alumno Javier Guijarro, hicieron pruebas con diferentes tipos de residuos: huesos enteros, triturados y calcinados. El plan experimental incluía la caracterización física de los huesos, la confección de probetas de mortero de cemento y la sustitución de la arena de este mortero por los tres tipos de huesos de aceituna así como por arcilla expandida (dado que tiene granulometría similar a la de los huesos) para comparar los resultados con los distintos agregados. Además, confeccionaron otra serie de probetas con un plastificante añadido.

Morteros con huesos de aceituna calcinados 

Los resultados, publicados en la revista Revista de la construcción, concluyeron que ni los huesos enteros ni los triturados sirven como agregados de morteros puesto que no llegaron a fraguar. Sí fraguaron, sin embargo,  los morteros que contenían los huesos de aceituna calcinados debido a su gran porosidad, granulometría uniforme, baja densidad real y aparente y su grado de adherencia con el cemento, de modo que demostraron funcionar como agregados ligeros.

Además, todos los morteros aligerados con huesos calcinados cumplieron con la condición de tener una densidad aparente inferior a la de referencia (1500 Kg/m³), en especial el mortero con adición de plastificante, que redujo esta densidad en un 30% respecto a la referencia, aumentando su resistencia a compresión en torno al 20%.

La única particularidad de estos nuevos morteros aligerados con huesos de aceituna es que para poder trabajar con ellos de forma adecuada necesitan una relación agua/cemento mayor que otros morteros aligerados con otro tipo de agregados ligeros, pero esto en ningún caso condiciona las resistencias mecánicas.

En opinión de Mercedes del Río, investigadora del grupo, “las excelentes cualidades de estos agregados permiten que se utilicen en edificación u obra civil para la realización no solo de morteros aligerados para revestimientos o recrecidos, sino también para la confección de hormigones ligeros aislantes o estructurales que pueden aplicarse en la ejecución de recrecidos, soleras y pendientes en las azoteas, ayudando al aislamiento térmico del conjunto o para rellenos en taludes de movimientos de tierra”.

Además, continúa la investigadora, “también podrían utilizarse en la fabricación de elementos prefabricados como bovedillas, bloques huecos o macizos, placas de imitación a piedra, etc., e incluso utilizarse para la realización de rellenos en seco.”

Referencia bibliográfica:

Del Rio Merino, Mercedes; Guijarro Rodriguez, Javier; Fernandez Martinez, Francisco; Cruz Astorqui, Jaime Santa. "Viability of using olive stones as lightweight aggregate in construction mortars". Revista de la construcción, 16 (3):431-438; DEC 2017

Zona geográfica: Comunidad de Madrid
Fuente: Universidad Politécnica de Madrid

Aunque existen numerosos tipos de láser, en medicina se ha utilizado desde hace varios años el láser Nd:YAG, que pertenece al grupo de los láser de estado sólido y emite también en el rango del infrarrojo. Éste se ha empleado ampliamente en el diagnóstico de enfermedades, en cirugía y como terapéutico para el tratamiento oftalmológico de las cataratas y en la curación de úlceras y heridas, así como en la medicina estética.

Según la intensidad de la luz hay diferentes tipos de rayos láser, con diferente aplicación de cada uno de ellos: los de intensidad baja o media se emplean para aliviar el dolor y para el tratamiento de inflamaciones en tendones y articulaciones; los rayos láser calientes, denominados quirúrgicos son usados en cirugías ya que tienen el efecto de un bisturí, coagulando, vaporizando y uniendo los tejidos lesionados; también hay los utilizados para diagnóstico durante reconocimientos médicos y estudios a nivel celular, ya que detectan tumores aún en fases tempranas de desarrollo; y los de alta intensidad, que destruyen células, dejando intactas las que están a su alrededor, también empleados en el tratamiento de algunos tipos de tumoraciones.

En la actualidad tenemos otras aplicaciones médicas de los rayos láser, como la eliminación de coágulos y placas de colesterol en las arterias, y la desintegración de cálculos de las vías urinarias. Y en un futuro, para eliminar tumoraciones que sean inaccesibles en el interior del cerebro y de la médula espinal.

Sin embargo, todas estas aplicaciones son realizadas en centros hospitalarios especializados por lo complejo de los equipos. Debido a que es posible manipular la intensidad de los rayos láser, ahora se diseñan instrumentos menos sofisticados y fácil de utilizarse, en este año se lanzará al mercado una Pluma Láser especialmente para curar heridas. 

La Pluma Láser que cura heridas

Esta terapia ha sido diseñada para curar heridas de manera eficiente y rápida, ya que ayuda a evitar las complicaciones o impedir el proceso curativo. La curación de una herida o úlcera se ve perturbada cuando no hay el suficiente cuidado de inflamación, asepsia y dolor, y es aquí donde la terapia láser hace su función.

La Pluma Láser para curación fue inventada por el físico Abraham Katzir de la Universidad de Tel Aviv, un instrumento portátil que puede ser utilizado para tratar heridas. 

Principales características de la Pluma Láser

La pluma utiliza un tipo de fibra óptica que transmite luz infrarroja y de forma simultánea mide la temperatura del tejido herido, de tal manera que ha sido diseñada para no trabajar a temperaturas por arriba de los 60°C, el mecanismo controla la temperatura, por lo que no hay riesgo de quemar los tejidos y dejar cicatrices.  Esta brillante técnica ahora se conoce popularmente como “Láser Katzir” y se ha probado en tejidos de piel principalmente, pero también en cornea.

La pluma hasta ahora sólo ha sido utilizada por médicos, pero los científicos predicen que la pluma estará lista para el mercado en 2017 y poder tenerla en cualquier botiquín.

Texto tomado de revista "Saber Màs" en su ediciòn No. 34 consultas en: www.sabermas.umich.mx

En 2015, la revista Nature Communications publicó un artículo en el que informaba de la construcción del primer rayo tractor sónico del mundo, capaz de levantar y mover objetos a través de ondas de sonido. Con estas ondas, se genera un holograma acústico que mueve los pequeños objetos.

Los rayos tractores son haces que pueden agarrar y levantar objetos. El descubrimiento del 2015 abrió la posibilidad de desarrollar una línea de producción sónica para transportar objetos y ensamblarlos, sin necesidad de tocarlos. Se pensó también en una aplicación médica con esta tecnología, como transportar cápsulas de medicamentos e incluso instrumentos quirúrgicos dentro de tejidos vivos.

Ahora, una nueva investigación amplía considerablemente este descubrimiento: ingenieros de la Universidad de Bristol han demostrado que es posible atrapar de forma estable objetos de una longitud superior a la longitud de onda de un rayo tractor acústico.

Este descubrimiento no sólo amplía la posibilidad de manipular cápsulas de medicamentos o instrumentos microquirúrgicos dentro del cuerpo humano, sino que también permitirá transportar sin contenedor objetos más grandes y delicados. Incluso podría conducir a la levitación de seres humanos, según se explica en un comunicado de la citada universidad.

 Barrera derribada

La barrera que ha derribado este descubrimiento es la creencia de que los rayos de los tractores acústicos se limitaban fundamentalmente a la levitación de objetos pequeños.

Hasta ahora, todos los intentos de atrapar objetos más grandes que la longitud de onda sónica del tractor acústico habían sido inestables, ya que esos objetos más grandes giraban sin control, impidiendo su manipulación.

Esta inestabilidad se debe a que el campo de sonido giratorio transfiere parte de su movimiento giratorio a los objetos, lo que hace que orbiten más y más rápido hasta que son expulsados.

La nueva investigación, publicada en Physical Review Letters, ha conseguido superar este obstáculo utilizando vórtices acústicos que fluctúan rápidamente. Los investigadores de Bristol descubrieron que la velocidad de rotación de los objetos puede controlarse con precisión cambiando rápidamente la dirección de torsión de los vórtices, lo que estabiliza el rayo tractor.

Luego aumentaron el tamaño del núcleo del rayo tractor, lo que permitió contener objetos más grandes. Trabajando con ondas ultrasónicas de un tono similar al que sólo los murciélagos pueden escuchar, los investigadores sostuvieron suspendida en el aire una esfera de poliestireno de casi dos centímetros en el rayo tractor.

Humanos, después

Esta esfera mide más de dos longitudes de la onda acústica generada por el rayo y es la más grande atrapada hasta ahora en un rayo tractor. La investigación sugiere que, en el futuro, objetos mucho más grandes podrían ser levitados también por este procedimiento.

Asier Marzo, autor principal del artículo, explica que los investigadores acústicos se han sentido frustrados por el límite de tamaño durante años, por lo que es satisfactorio encontrar una manera de superarlo. Cree que este hallazgo abre la puerta a muchas nuevas aplicaciones.

Mihai Caleap, investigador principal asociado, que desarrolló las simulaciones, concreta que en el futuro, con más potencia acústica, será posible sostener objetos aún más grandes, no descartando que pueda aplicarse a la levitación de seres humanos.

Bruce Drinkwater, quien supervisó el trabajo, agrega que los rayos de tractor acústico tienen un enorme potencial en muchas aplicaciones, ya que permitirán líneas de producción sin contacto donde se ensamblan objetos delicados sin necesidad de tocarlos.

Fuente:

tendencias21.net

 

Texto tomado de "Investigaciòn y Desarrollo (ID)" consultas en: http://invdes.com.mx

Imitando a las hojas de los árboles, investigadores de la Universidad Rovira i Virgili han creado un dispositivo que absorbe CO2 a alta velocidad y lo transforma en productos como el metanol, uno de los ingredientes del biodiésel. El prototipo realiza una fotosíntesis artificial que, algunos aspectos, mejora la de las plantas, consiguiendo energía limpia diez veces más rápido que con la biomasa.

<p>El investigador Ricard Garcia-Valls muestra el dispositivo que captura CO<sub>2 </sub>y genera metanol y otros productos. / URV</p>

El investigador Ricard Garcia-Valls muestra el dispositivo que captura COy genera metanol y otros productos. / URV

La función de las plantas ha inspirado la creación de un nuevo dispositivo que permite acumular el dióxido de carbono (CO2) para transformarlo en biocombustible. Investigadores del departamento de Ingeniería Química de la Universidad Rovira i Virgili (URV, Tarragona), liderados por Ricard Garcia-Valls del grupo de investigación MEMTEC, han imitado el proceso natural de la fotosíntesis e incluso la han mejorado en el laboratorio.

Los autores, que publican su trabajo en Science of The Total Environment, han desarrollado un prototipo que aumenta de cuatro a diez veces más la capacidad de acumulación del CO2 respecto a las hojas de los árboles. Además, la velocidad de producción de energía es, como mínimo, diez veces más rápida que con la biomasa vegetal.

El dispositivo podría generar combustible limpio unido a placas solares para producir electricidad cuando se necesite.

 

Membrana con poros artificiales

Los árboles absorben el CO2 del aire, que penetra a través de los poros de las hojas, llamados estomas. Observando este modelo, los investigadores han diseñado una membrana con estomas artificiales, unos poros de tamaño controlado a los que han aplicado unos compuestos que, en contacto con el agua, hacen que las moléculas de este gas queden atrapadas sobre la superficie.

En el caso de los árboles, el dióxido de carbono concentrado en las hojas se transforma en materia orgánica. El dispositivo que han diseñado aprovecha esta concentración de CO2 para conseguir un compuesto concreto: ácido fórmico o metanol, que pueden entrar a formar parte de combustibles limpios con la ayuda de placas solares, sin ningún impacto medioambiental. Además, este biocombustible se puede almacenar para producir electricidad en el momento en que haga falta.

hojaartificial
Detalle y esquema del prototipo que captura CO2. / R. Garcia-Valls et al. / Science of The Total Environment

Esta línea de investigación no es nueva, ya que en los últimos años se han fabricado diferentes dispositivos de captación de CO2. Pero el prototipo aporta ventajas añadidas respecto a lo que existía hasta ahora. La velocidad para producir energía es superior a la media de los productos que ya se conocen, lo que permitirá optimizar el proceso de captación de CO2 y conseguir más energía en menos tiempo.

Un producto patentado

Los investigadores ya han fabricado un prototipo del dispositivo y han solicitado la patente, que tiene la titularidad compartida entre la URV y el Centro de Tecnología Química (CTQ),. Para proteger esta tecnología han recibido el asesoramiento de la Unidad de Valorización y Comercialización de la URV. Actualmente se está trabajando para optimizarlo y sacarlo al mercado.

Este tipo de dispositivos se podría aplicar como sustitutos en pequeño formato de las baterías solares, por ejemplo, o bien en pilas que se cargarían solas con esta energía renovable para poder hacer funcionar teléfonos, ordenadores, tabletas e incluso coches y casas.

Referencia bibliográfica:

A.Nogalska, A.Zukowska, R Garcia-Valls. “Atmospheric CO2 capture for the artificial photosynthetic system”. Science of The Total Environment. Volume 621, 15 April 2018, Pages 186-192. DOI: 10.1016/j.scitotenv.2017.11.24

Zona geográfica: Cataluña
Fuente: URV

Desde hace unos años, escuchar las palabras “genéticamente modificados” (OGM) hace que muchas personas corran del susto. Pareciera que nos gustan los mutantes en el cine, pero no en nuestra comida.

Y, la verdad, es que la realidad está muy lejos de nuestra imaginación. Un jitomate genéticamente modificado no va a comenzar a hablar con nosotros de repente; su único súper poder es hacer más rica una ensalada.

Genéticamente modificado… ¿qué es eso?

¿Qué son los OGM?

Un organismo genéticamente modificado es uno al que se le ha dado una característica nueva que lo mejora, con la ayuda de otro. Por ejemplo: una fruta que se le adhirió un gen resistente a una plaga (historia verdadera de las papayas).

Una de las cosas que nos hace temer a los organismos modificados genéticamente es que no sabemos cómo se hacen. Por eso, pensamos presentarte algunas de las técnicas más utilizadas.

Bacterias

Las bacterias tienen características que pueden ayudar a que otro organismo sea más resistente. Lo que se hace es poner a la bacteria en una solución especial que hace que su membrana exterior sea más porosa. Entonces, el gen que se quiere modificar se pone en la solución y la bacteria lo atrapa. La bacteria es capaz de reproducirse y, al hacerlo, replicará también el gen elegido.

Fosfato de calcio

Se elige una parte de ADN que se quiere modificar y se expone a fosfato de calcio. Esto hace que se formen unos granitos muy pequeños; las células reaccionan a estos granitos y “se los comen”. En esta reacción, el ADN se libera y es más fácil usarlo para modificarlo.

Electricidad

Las células se ponen en una solución y se les da una descarga eléctrica corta pero intensa. Esto rasga ligeramente la pared de la célula y por ahí se pueden poner los genes que se quieren que tenga.

Silenciamiento genético

No todas las modificaciones genéticas se tratan de agregarle algo que no tenía a un organismo. También se puede quitar una característica indeseable, por ejemplo, que los cacahuates dejen de provocarnos alergia.

En estos casos, lo que se hace es identificar los genes que causan la característica negativa y se le pone algo (por lo general, una proteína) que impide que ese gen se exprese. A eso se le llama “silenciamiento”.

Estas son algunas de las técnicas que se usan para modificar genéticamente a los organismos. En cada uno de esos casos, se trabaja con ADN que es el código que guarda la información que dice cómo es un organismo.

Los avances tecnológicos han permitido que estas modificaciones sean cada vez más precisas y más seguras. De hecho, gracias a esta biotecnología, se han salvado distintas especies y otras han mejorado su comercialización.

Es cierto que la biotecnología, y en especial los organismos modificados genéticamente, generan mucha controversia. Lo cual es bueno, siempre y cuando nos tomemos la molestia de averiguar un poco más antes de estar a favor o en contra.

 

Fuentes:

http://www.geneticallymodifiedfoods.co.uk/types-techniques-used-genetically-modify-food.html

http://www.foodinsight.org/basics-genetics-food-technology-biotechnology-gmo-amino-acid-protein

 

Texto tomado de revista digital "Hablemos Claro" consultas en: http://hablemosclaro.org

Los nanosatélites, satélites de poco tamaño y bajo peso, son lo nuevo en comunicación espacial y han sido diseñados para diferentes actividades como observar nuestra luna y nuestro planeta a más detalle, así como en reparaciones de los satélites comunes. Además, ya algunos nanosatélites monitorean oleoductos, pozos petroleros, campos agrícolas, glaciares, la detección de rayos, la medición de la vegetación y la humedad de suelo. Su gran aportación es brindar acceso a internet a cerca de 3 mil millones de personas en el mundo, que no pueden hacerlo por las redes de distribución tradicionales.

Para ser considerado un nanosatélite, deben de tener una masa 1 y 10 kg, aunque ya hay prototipos con masas menores a 1 kg. Los avances en microelectrónica y de la tecnología actual han dado como resultado la fabricación de este tipo de satélites artificiales, empleando técnicas de bajo costo y con una producción masiva. El tamaño y peso reducido han sido factores positivos en conseguir una máxima precisión, pero prestaciones modestas como las comunicaciones en diferido, observación y la medida de diversos parámetros.

Pequeños y de bajo costo

Con el lanzamiento de estos pequeños satélites, inicia otra etapa en el acceso a la tecnología espacial, en la que diversas empresas y no solo las agencias espaciales, pueden hacer uso de estos recursos, debido a que son de bajo costo y de una inversión menor, si los comparamos con los satélites comunes.

Sin embargo, actualmente solo las empresas dedicadas a la comunicación espacial pueden costear ya sea su fabricación o la compra, por lo que están naciendo en diferentes países este tipo de compañías que ofrecen los servicios para los que han sido diseñado lo nanosatélites. También Institutos Tecnológicos, Universidades y empresas pequeñas están dedicadas a diseñar, fabricar y lanzar este tipo de satélites.

Hoy cuestan entre 50 y 100 mil dólares, y el lanzamiento va de 20 a 50 mil dólares por kilogramo.

Los nanosatélites están formados por tres unidades y sus medidas generalmente son 3x10x 30, de los cuales actualmente hay entre 600 y 700 proyectos en el mundo. Su lanzamiento ahora se realiza aprovechando otras misiones, por lo que ahora siempre están sujetos a que exista la oportunidad y haya disponibilidad de los viajes.

 Empresas y nanosatélites

En Estados Unidos de Norteamérica, en el 2013, una de las primeras empresas que fabrica nanosatélites es “Other 3 billon” (O3b), lanzó los primeros prototipos al espacio, pero eran medianos de unos 700 kilos con órbitas terrestre bajas (8,000 kilómetros de distancia) con fines de dar servicio de Internet. También, la empresa Space X, que nació con la meta de bajar el costo de los lanzamientos, que también tiene el proyecto de llevar humanos a Marte, ofrecen un gran número de nanosatélites (aprox. 4 mil) para dar servicios de comunicación.

Algunas empresas de Argentina ya han lanzado nanosatélites al espacio, como Satellogic, primera empresa privada argentina que produce pequeños satélites como “Capitán Beto”, “Manolito”, “Tita”, “Fresco”, “Batata” y “Milanesat”, que realizan actividades para las industrias del petróleo, gas y agrícolas.

En España, se ha lanzado el NANOSAT con menos de 20 kg de peso, es un nanosatélite desarrollado por el Instituto Nacional de Tecnología Aeroespacial de España, que lleva a bordo cuatro experimentos, que pretenden demostrar el uso de varias tecnologías nuevas; El “CHASQUI I”, primer nanosatélite de La Universidad Nacional de Ingeniería (UNI) del Perú, será lanzado al espacio, éste mide sólo 10 centímetros por lado y es de 1 kg, permitirá tomar fotografías de la tierra para diferentes estudios climáticos, forestales y arqueológicos; el nanosatélite, cuyas siglas significan Organismo/Orgánico Expuesto al Estrés Orbital (O/OREOS), ha recorrido casi todo el mundo entre los círculos polares Ártico y la Antártida a más de 400 kilómetros sobre la superficie de la Tierra, es de apenas  unos 5.4 kg y es el primer CubeSat lanzado por la Administración Nacional de Aeronáutica y del Espacio (NASA, por sus siglas en inglés); también está el EXOPLANETSAT, primer satélite diseñado por los Laboratorios Draper y el Instituto Tecnológico de Massachussets (EE.UU.) para buscar planetas similares a la Tierra fuera de nuestro sistema solar, tiene un volumen de tres litros, posee 10 centímetros de alto, 10 centímetros de ancho y 30 centímetros de largo fuera de nuestro sistema solar o exoplanetas, los cuales podrían albergar vida; y en este Instituto se ha diseñado el “Synchronized Position Hold Engage and Reorient Experimental Satellite”, por sus siglas en inglés SPHERES, que son pequeños satélites prácticamente esféricos, de 20 centímetros de diámetro; y otros nanosatélites han sido fabricados y lanzados por otros países como los de la Comunidad Europea, Japón, Israel, Emiratos Árabes Unidos, India, entre otros más.

 

Nanosatélites en México

También en nuestro país hay diseño, manufactura y pronto el lanzamiento de nanosatélites, debido a la gran demanda nacional y de la comunidad internacional. Sin embargo, por los presupuestos de lanzamientos, considerados aún de alto costo, la mayor parte está en la etapa de investigación en universidades.

Entre los nanosatélites diseñados en México, tenemos el Ulises 1, desarrollado en el Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE) a iniciativa del Colectivo Espacial Mexicano, con una misión muy particular, ya que aparte de ciencia y tecnología, es un experimento social y artístico, ya que lleva a bordo arte sonoro y poemas, unos en clave morse. Ulises 1 fue lanzado el 4 de diciembre de 2015 desde una plataforma durante la Feria Internacional del Libro de Guadalajara (FIL) y durante 2016 brindó datos importantes de su misión, de ese proyecto derivaron Ulises 2 y Ulises 3. Este nanosatélite fue el inicio en la historia del espacio mexicano y forma parte de la primera generación de una constelación de satélites de la nueva época espacial.

Se han lanzado diversos tipos de nanosatélites diseñados por estudiantes de algunas universidades mexicanas, pero que son prototipos solo de lanzamiento y no de órbita. Como el Nano Connect del Laboratorio de Instrumentación Espacial (LINX) del Instituto de Ciencias Nucleares (ICN) de la Universidad Nacional Autónoma de México (UNAM), con el objetivo de verificar que sus componentes funcionan en condiciones suborbitales, y otros diseñados y lanzados por el Centro de Investigación y Desarrollo en Telecomunicaciones Espaciales (CIDTE), de Zacatecas, y por el Centro de Ingeniería y Tecnología (CITEC), Valle de las Palmas, de la Universidad Autónoma de Baja California (UABC), Campus Tijuana.

En la carrera en ingeniería aeroespacial de la Universidad Popular Autónoma del Estado de Puebla se ha diseñado un nanosatélite tipo CubeSat que será puesto en órbita para el año 2019 con el apoyo de la NASA y la Agencia Espacial Mexicana (AEM), fue llamado AzTechSAT-1 y su misión consiste en comunicarse con la constelación Globalstar para que participe de las transmisiones de señal en las telecomunicaciones terrestres.

Las perspectivas de lanzamiento y uso de los nanosatélites señalan que para el año 2022, unos 3 mil pequeños satélites surcarán el espacio. El número es asombroso, ya que desde 1957, unos 4 mil satélites han sido lanzados para orbitar nuestro planeta. Esto podría congestionar el espacio y deberán tomarse medidas para evitar la proliferación de desechos espaciales y los riesgos para los otros satélites como posibles accidentes con la chatarra espacial.

 

Para Saber Más:

Valdez-Alvarado A. 2015. Nanosatélites. Revista de Información, Tecnología y Sociedad, La Paz, 6:7-12.

http://www.revistasbolivianas.org.bo/scielo.php?pid=S1997-40442011000100002&script=sci_arttext&tlng=es

Texto tomado de revista "Saber Màs" consultas en: www.sabermas.umich.mx

Se espera que sean una revolución energética en el futuro.

Pensar en un futuro en el que cada persona decida a quién comprarle la electricidad, cómo consumirla e incluso en producirla, es una de las revoluciones que se espera que haya en materia de electricidad en el mundo. Más aún, ¿te imaginas que tu propia casa fuera generadora de electricidad o que tu auto pudiera cargarse durante toda la noche y al otro día ser una fuente de energía? Esto, sin duda, es el futuro.

Tradicionalmente, la electricidad es producida en grandes centrales hidroeléctricas o termoeléctricas. Y las energías no renovables son las que mayormente se han utilizado para este fin. Una vez generada, se transmite por grandes distancias y se adecua para poder ser distribuida a las comunidades.

Este sistema, que se ha estado utilizando hasta la fecha, genera pérdidas de electricidad, ya sea por aspectos técnicos o no técnicos (como el robo de la luz). Además de que la calidad del servicio puede ser baja por el tiempo que pueden tardar en reponer una falla, existe un alto gasto de energías no renovablesque contribuye a la generación de gases de efecto invernadero.

Frente a estas problemáticas, con la llegada del nuevo milenio apareció en el mundo el concepto de Redes Eléctricas Inteligentes (REI) o smart grids que hace referencia a un sistema integrado por los elementos del sistema eléctrico tradicional: generación, transmisión, distribución y comercialización de la electricidad, más un sistema de comunicaciones.

El doctor César Ángeles Camacho, del Instituto de Ingeniería de la UNAM, explicó que ha venido cambiando el paradigma de la red eléctrica, ya que se tenía un sistema vertical en el que una sola empresa controlaba la generación y transmisión e inclusive la distribución. Pero con las REI se espera que varias empresas realicen esta labor y el usuario tenga mayor poder de decisión sobre a quién consumirle la electricidad e interactúe con el propio sistema.

Infraestructura de una REI

De acuerdo con el Programa de Redes Inteligentes de la Secretaría de Energía, emitido en 2016, una REI debe mejorar el sistema eléctrico nacional a través de ser eficiente, seguro, flexible, resiliente, de calidad, confiable y sustentable. Ante todo debe ser capaz de reestructurarse y de recopilar información para conocer cuáles fueron las fallas que se dieron en el sistema y solucionarlas.

La arquitectura de una REI debe estar integrada (además de la generación, transmisión y distribución) por los clientes y un proveedor de servicios, quien supervisa los productos ofrecidos por terceros, como portales web que ofertan la electricidad a los clientes, la instalación y el mantenimiento.

Otros sistemas que son parte de este REI son la operación (que gestiona el flujo de electricidad de los distintos dominios de la red) y el mercado (que coordina a los que participan en el comercio de servicios energéticos dentro de la REI).

Estos elementos en conjunto le otorgarían a las REI mayores ventajas en cuanto a su funcionamiento, costo y eficiencia. Además de que se espera que puedan agregar el uso de energías renovables (como la solar, la eólica o la mareográfica) a su desarrollo.

Flexible y confiable

Para conformar una REI es necesaria la implementación de varios sistemas informáticos a la red eléctrica tradicional. Por ejemplo, aquellos que almacenen y analicen la información geográfica y estadística, así como el estado de la red eléctrica y de adquisición de datos para control y monitoreo de equipos de campo, además de softwares que otorguen la energía de manera segura, económica y confiable.

Se necesitan medidores inteligentes, sistemas de información de datos que permitan la comunicación entre los medidores y la empresa, así como un sistema de administración de datos que recopile la información de distintos servidores y la procese.

Además, se requiere de un sistema que indique la ubicación de cada trabajador, para saber qué actividad realiza y si pueden acudir a una emergencia; un sistema que administre las fallas de la red eléctrica, como lugar y magnitud, así como la automatización de la distribución de la energía, entre otros.

Toda la información que se recopile sería enviada a un centro de control para ser analizada, buscar fallas y ofrecer mejoras para el sistema. “Podemos usar esa información para operar la red eléctrica sola, sin necesidad de que haya un operador”, señaló el doctor Ángeles Camacho.

Seguridad y beneficios de las REI

Uno de los principales riesgos que corren este tipo de REI, es que al estar basadas en sistemas de comunicación pueden ser susceptibles de ser saboteadas o alteradas por hackers, con lo cual podrían tenerse apagones u otras fallas en el sistema.

Por el contrario, entre los principales beneficios de las REI están incrementar la participación de las energías renovables, con lo cual se lograría una reducción de los gases de efecto invernadero, lograr precios competitivos en materia de electricidad, mejorar la calidad y confiabilidad del servicio, auto reparación de las fallas del sistema eléctrico, automatización de mantenimiento y reparación del mismo, entre otras.

“Cuando la red no era inteligente, si había una falla en un transformador, la electricidad se iba en las casas que estaban conectadas a éste. La gente hablaba a Comisión Federal de Electricidad y ésta mandaba una plantilla a ver qué había pasado. La plantilla veía el transformador y hacia la corrección que se tuviera que hacer”, explicó el universitario.

  • Una REI podría detectar y atender las fallas antes de que representen un problema para el usuario, es decir, después de segundos que empezó, realizar diagnósticos y mediciones del sistema.

La idea es que con apoyo de la tecnología se vea cuál fue la falla desde un centro de operación, el mismo transformador trate de repararla de manera automática y sólo si no puede hacerlo, enviaría una alerta al operador. Esto ya se consideraría como una acción secundaria, ya que la primaria sería que él mismo encienda sus protecciones. Este concepto es conocido como resiliencia, es decir, que el sistema se repare solo.

“La capacidad de que el sistema se repare solo permitirá que el usuario no se percate de que hubo un problema en el transformador. En caso de que éste falle, la red tiene que estar configurada para que los usuarios que estaban conectados se puedan conectar a otro, de manera instantánea.”

 

Texto tomado de "Ciencia UNAM" consultas en: http://ciencia.unam.mx

Estos aparatos prometen controlar las nubes, un sueño de los humanos aún lejos de la realidad

Cuidar la siembra de fenómenos naturales, es una de las principales preocupaciones de los agricultores. Son situaciones que no siempre se pueden predecir y por ello, se han buscado diversas alternativas para proteger la cosecha, aunque no siempre son las más adecuadas y eficientes. Un ejemplo de ello son los cañones antigranizo creados con el fin de que el granizo se convierta en una simple lluvia.

Los cañones antigranizo han sido utilizados por los agricultores para prevenir las lluvias acompañadas de piedras de hielo que pudieran dañar las cosechas; sin embargo, la utilidad de éstos ha sido muy cuestionada pues no está científicamente comprobado que en realidad logren su objetivo.

Pensar que los cañones antigranizo realmente sirvan para detener grandes precipitaciones es un mito, un acto de fe, señala Fernando García García, investigador del Centro de Ciencias de la Atmósfera de la UNAM. De hecho, hay quienes se oponen a que se sigan usando, tal es el caso de los académicos de la Universidad de Guadalajara y de San Luis Potosí; en  Chihuahua, ya se convencieron de que no son viables.

¿Cómo funcionan estos cañones? A finales del siglo XIX, en Austria, un científico italiano de apellido Combicci emitió la primera hipótesis de que las partículas de humo proyectadas por los Generadores de Ondas Ionizantes podrían servir de núcleo de condensación de nube para formar gotitas. Pero no sólo en ese país existía esa suposición. En varias partes del mundo se dio el auge de los cañones.

Un poco de historia

Por aquellos días, en Estados Unidos hubo quienes hacían experimentos con los cañones; utilizaban pólvora y nitroglicerina con el fin de modificar el proceso de desarrollo y la formación de partículas de la nube.

Según el científico italiano, la hipótesis era válida. Al llevar a cabo este procedimiento la lluvia aumentaba y disminuía el granizo; aunque la base científica no tiene un fundamento sólido, se sabe que el granizo que se funde en el camino produce lluvia.

Para 1900 se introdujo el cañón que en lugar de pólvora usaba acetileno, sustancia que hasta hoy se sigue usando; se trata de un gas compuesto por Carbono e Hidrógeno un poco más liviano que el aire y que genera una gran y estruendosa explosión, que produce ondas que se creía que llegaban hasta las nubes.

A principios del siglo XX existían alrededor de 60 modelos diferentes de cañones antigranizo, aún cuando su eficacia no estaba confirmada. Su comercialización se volvió toda una industria, incluso, se organizaron congresos y conferencias con fabricantes y científicos en torno a este instrumento. Ahí se trató de mejorar las técnicas implementadas y se discutía si era mejor usar pólvora, glicerina o acetileno.

Tecnología no aprobada

Los europeos fueron los primeros en implementar los cañones para que la lluvia no dañara las cosechas, y su experiencia arrojó como resultado el uso generalizado de una tecnología no probada científicamente para resolver el problema, además de un entusiasmo inicial, un gran oportunismo, desilusión y, por supuesto, el cuestionamiento científico ante la falta de resultados concluyentes y definitivos.

Después de la Segunda Guerra Mundial, la idea de los cañones antigranizo vuelve a surgir. En años recientes, en regiones como España, Vermont, Nebraska, Argentina, este instrumento ha sido nuevamente empleado. En México, se han comercializado desde los años sesenta.

La conclusión es que no hay evidencia de que funcionen. Incluso, los resultados de experimentos planeados y realizados en Suiza en la década de 1980 -con rigor científico y utilizando técnicas modernas de siembra de nubes-, indican que estadísticamente existe la posibilidad de que la incidencia de granizo disminuya sólo en un 35 por ciento de los casos, en tanto que la probabilidad de que se genere más granizo de lo normal es de 65 por ciento.

 

Texto tomado de "Ciencia UNAM" consultas en: http://ciencia.unam.mx

La hazaña siguiente se desarrolló en Cataluña, y no tiene que ver con su pretendida independencia y tampoco con Lionel Messi en el Camp Nou.
Se trata de una hazaña de otra índole: la síntesis y control de un grupo de intermediarios moleculares de carbono llamados carbinos. La humanidad lleva toda la vida haciendo experimentos químicos, pero apenas hace poco más de dos siglos los realiza de manera sistemática y controlada. A veces los experimentos se llevan a cabo para replicar lo encontrado en la naturaleza, pero la gran mayoría de las veces el fin es hallar algo nuevo con base en sustancias encontradas en la Tierra o en otra parte del universo, para remediar alguna enfermedad o para hacer un nuevo material.
 
Hace poco más de ocho décadas se descubrieron en el espacio los carbinos que se podrían utilizar como intermediarios moleculares; es decir como moléculas a base de carbono que se usarían para llegar a un producto final. No obstante, son casi imposibles de encontrar en forma pura en la Tierra, dada su rapidez y facilidad de reaccionar con otras sustancias. Dicho de manera general se trata de un tipo de carbono con tres uniones de sus cuatro posibles, dispuestas a reaccionar con la sustancia que se deje. Su extrema reactividad y la falta de un compuesto a partir del cual iniciar las modificaciones para obtener los carbinos, habían hecho imposible su síntesis, control y uso. Los químicos veían grandes posibilidades si se alcanzaba esta hazaña, pues los carbinos serían comodines para fabricar compuestos de carbono al gusto; es decir, unir sobre ellos como piezas de lego los grupos de átomos funcionales en el orden deseado.
 
Como siempre, hay algunos que asumen el reto y logran el éxito. En esta ocasión Zhaofeng Wang, Ana G. Herraiz, Ana M. del Hoyo y Marcos G. Suero del Instituto Catalán de Investigación Química, fueron los cracks que lo lograron y publicaron la hazaña en la revista Nature del 1° de febrero de este año. Lo que el equipo hizo fue establecer una estrategia que parte de un grupo de compuestos que forman intermediarios llamados radicales diazometilos. Éstos funcionan como equivalentes de carbinos; en otras palabras, en algún punto reaccionan como carbinos y actúan como tales; por tanto pueden unir selectivamente hasta tres grupos funcionales distintos al carbono del carbino, para así transformarlo en lo que los químicos llaman un centro quiral, pues tendrá cuatro diferentes grupos unidos y en cierta posición deseada. Esto es importante porque más de dos tercios de los fármacos presentan centros quirales, por lo que esta estrategia puede generar nuevos candidatos a fármacos.
 
En este proceso las reacciones son de óxido-reducción; es decir, se pierden y ganan electrones entre los compuestos involucrados, se llevan a temperatura ambiente y son catalizados en presencia del metal rutenio (Ru). Algo muy importante es que también se usa en las reacciones una fuente de luz visible, el equipo utilizó luces LED de color azul. Los autores muestran reacciones a manera de ejemplo donde los equivalentes de carbinos provenientes de los diazometilos reaccionan con compuestos aromáticos y otros compuestos como agua, sales como fluoruro de sodio o cloruro de potasio, metasulfonamida, estireno, el complejo N-metilpirrolidina borano y el sulfuro de metilo y alilo.
 
Sin embargo y a pesar de la evidencia de éxito, en la misma edición de Nature viene un artículo donde se comentan estas reacciones, aunque se reconoce su importancia no se deja de señalar que los rendimientos son bajos; es decir, que no son reacciones con alto un porcentaje de transformación. Así que ahora habría que optimizar las condiciones de la reacciones para mejorar los rendimientos.
 
Para que se lo cuentes a quien más confianza le tengas.  

Fuentes:

-Zhaofeng Wang, Ana G. Herraiz, Ana M. del Hoyo & Marcos G. Suero. “Generating carbyne equivalents with photoredox catalysis”. Nature 554 : 86–91, 1 de febrero de 2018.
-Servicio de Información y Noticias Científicas (SINC); España 2018. “Carbinos, nueva pieza de ensamblaje para la química.” http://www.agenciasinc.es/Noticias/Una-especie-interestelar-del-carbono-se-domestica-en-el-laboratorio 
 
Video resumen de cómo funcionan los carbinos https://youtu.be/y7TIZ8GR6PA 
 
Imagen: Izquierda, los investigados cracks: Zhaofeng Wang, Ana G. Herraiz, Ana M. del Hoyo y Marcos G. Suero, equipo del Instituto Catalán de Investigación Química. Derecha, Imagen artística de la metilidina, el carbino más sencillo posible, un carbono unido a un hidrógeno y con tres enlaces disponibles.

Créditos: ICIQ/Ella Maru Studio, Inc. Carbinos, nueva pieza de ensamblaje para la química.

 

Texto tomado de revista electrònica "Cienciorama" consultas en: http://www.cienciorama.unam.mx/

 

© 2018 Faraday News es un proyecto de Divulgación de Ciencia apoyado por la Secretaría de Desarrollo Económico de Tlaxcala y CONACYT.