domingo, 22 de mayo de 2011

Nuevo método transforma el dióxido de carbono en energía renovable

Un especialista de la Universidad de Delaware, en Estados Unidos, ha desarrollado un método que transforma el dióxido de carbono (CO2), un gas de efecto invernadero cuyas emisiones son una de las principales causas del cambio climático, en energía limpia que puede ser empleada como combustible para vehículos, por ejemplo. Si esta alternativa avanza podrían reducirse los niveles de CO2, además de obtenerse un nuevo método de producción de energías renovables.

Un nuevo método para producir energía renovable aprovechando el dióxido de carbono ha sido desarrollado en la Universidad de Delaware, Estados Unidos. Este avance, que ha sido merecedor de un importante premio, tendría una doble implicación positiva: por un lado, permitirá disminuir los niveles de CO2 y, por otro, permitirá avanzar en la generación de combustibles a base de energías limpias.

La investigación, desarrollada por Joel Rosenthal, obtuvo concretamente el Ralph E. Powe Junior Faculty Enhancement Award, un premio otorgado por Oak Ridge Associated Universities (ORAU), un consorcio de 98 universidades. Rosenthal fue uno de los 30 ganadores de este premio en Estados Unidos, que tiene como objetivo la mejora y optimización de las investigaciones.

El premio incluye 5.000 dólares de financiación inicial (unos 3.460 euros), aportados por ORAU, y otros 5.000 dólares que corren a cargo de la universidad que acoge el proyecto. Además de enriquecer la investigación, el galardón pretende servir como referencia e impulso para nuevas oportunidades de financiación.

La innovación gira en torno a electrocatalizadores de metales como el níquel y el paladio, que producen electrones al reaccionar con el dióxido de carbono. Esto genera un efecto químico que permite la reducción de este gas de efecto invernadero y su transformación en monóxido de carbono o metanol, ricos en energía para múltiples usos.

Importantes aplicaciones

Además de su uso en la fabricación de plásticos, solventes, alfombras y otros productos, el metanol es empleado como combustible en coches de carrera en los Estados Unidos, y actualmente se está investigando su posible empleo como portador de hidrógeno para los vehículos que utilizan pilas de combustible.

El monóxido de carbono, por su parte, es un importante complemento para el trabajo con hidrocarburos líquidos en el campo de la energía, además de tener aplicaciones como producto químico industrial para la producción de plásticos y detergentes o para desarrollar el ácido acético utilizado en la conservación de alimentos, fabricación de medicamentos y otros campos.

El novedoso método ha sido difundido a través de una nota de prensa de la Universidad de Delaware, y además mereció un artículo en el medio especializado Science Daily. Rosenthal obtuvo su licenciatura en química orgánica en la New York University, y su doctorado en química inorgánica en el MIT.

En esa etapa de su formación, el investigador estudió los distintos procesos de conversión de energía y catalización. Su asesor de doctorado en el MIT fue Dan Nocera, un científico líder en el terreno de la investigación en energías renovables. Rosenthal llegó a la Universidad de Delaware el pasado otoño, y allí ha conformado un grupo de investigación compuesto por ocho especialistas, dedicados al proyecto en cuestión.


Ecología y generación energética

Según el propio Joel Rosenthal, la reducción catalítica del dióxido de carbono al monóxido de carbono es una transformación de gran trascendencia, ya que permitiría la disminución de los niveles atmosféricos de CO2, mientras que produciría un sustrato rico en energía que serviría de base para la producción de combustibles.

El científico tiene como propósito optimizar los procesos químicos que permiten concretar esta transformación, pero con el objetivo final de generar combustible líquido a partir de fuentes renovables como la energía eólica y solar, sin emplear la base tradicional de combustibles fósiles.

A nivel ecológico, es evidente que el problema del CO2 es muy importante. Por eso, Rosenthal busca trazar los principios de diseño molecular que permitan la conversión de CO2 en combustibles eficientes. Una vez que se concrete este paso, será posible desarrollar esta técnica a escala comercial.

Cabe recordar que las estimaciones más conservadoras predicen que para el año 2050 la tasa de consumo de energía mundial se duplicará con relación a las cifras registradas sobre finales del siglo XX. Asimismo, la mayoría de los científicos cree que el aumento de los niveles de dióxido de carbono es una de las causas principales del cambio climático global. Evidentemente, dos condiciones que incrementan la importancia de este nuevo método.


Fuente: tendencias21

40 kilómetros con un litro de orina

Los biocombustibles, aquellos producidos con materia orgánica como el maíz o la soja han sido cuestionados como los sustitutos de los combustibles fósiles por múltiples razones. Por esta razón los investigadores se afanan en buscar nuevas fuentes de energías a partir de materias primas renovables como, en esta ocasión, en la Universidad de Ohio, a partir de la orina.

El ser humano genera entre dos y tres litros de orina al día, un deshecho que se desperdicia y debe ser tratado para no crear problemas medioambientales. Sin embargo, el equipo de investigadores dirigidos por la profesora Gerardine Botte de la Universidad de Ohio ha encontrado una salida mejor a estos residuos: utilizar la orina como combustible.

Esta profesora asociada de química e ingeniería biomolecular del Russ College de Tecnología e Ingeniería, perteneciente a la Universidad de Ohio ha conseguido separar el hidrógeno presente en el orín y el amoniaco para así utilizarlo para energía. Además, "es un proceso más barato y eficiente" explicaba a la BBC la propia Botte.

En ciertos lugares como las granjas, los restos de orín de los animales pueden convertirse en un problema para el medio ambiente. Esta tecnología que provoca la electrolisis del amoniaco gracias a una pequeña corriente eléctrica podría ser la solución a cientos de miles de litros de estos residuos. "Hay que seguir desarrollando la tecnología para permitir a estas granjas utilizar el hidrógeno resultante como energía" explicaba Botte.

¿Recargaremos los depósitos con orín?

Aplicado al transporte y según los cálculos de Gerardine Botte, un vehículo que se moviera con una celda de hidrógeno podría recorrer unos 40 kilómetros por cada litro de orín. Igualmente esta nueva tecnología se podría aplicar a las casas. En palabras de Botte, "la orina de los 22.000 estudiantes de la Universidad de Ohio podría generar energía para unas 50-70 casas, al ser procesadas por una celda de combustible".

En épocas de crisis la ciencia y la innovación tienen la clave en muchos aspectos de la mejora de las condiciones de vida de los habitantes y de la disminución del daño al medio ambiente. En esta ocasión, un recurso renovable, o mejor dicho un desecho diario, parece que podría convertirse en el mejor combustible para los coches del mañana. Aun así todavía queda mucho camino científico que recorrer en el desarrollo tanto de motores como de combustibles y sistemas de almacenamiento.

Fuente: Muyinteresante

Diseñan un nuevo método de producción de hidrógeno a partir de luz solar

Un equipo de ingenieros e investigadores de la University of Colorado Boulder, en Estados Unidos, ha desarrollado un nuevo método de producción de hidrógeno a partir de luz solar que, según un informe del Departamento de Energía norteamericano, constituye una de las opciones tecnológicas más interesantes para el desarrollo de esta fuente de energía sostenible. Las ventajas del método radican en su alto rendimiento y su eficacia en términos económicos.

Un mayor rendimiento en términos productivos y una mejora sustancial en cuanto a los costes serían las dos ventajas principales de un nuevo método de producción de hidrógeno mediante luz solar, desarrollado por especialistas de la University of Colorado Boulder. El equipo de ingenieros y científicos norteamericanos ha recibido, además, el apoyo del Departamento de Energía de los Estados Unidos, por la efectividad del método para la generación de este combustible renovable.

El proyecto, dirigido por el profesor Alan Weimer, consiste en una serie de espejos destinados a concentrar los rayos del sol y a crear temperaturas muy elevadas, en torno a los 2.640 grados Fahrenheit (unos 1450º C). Gracias a ese proceso y a otros complementarios, se logra dividir el hidrógeno y el oxígeno del agua empleada en el sistema.

En la actualidad, el método más barato para la producción de hidrógeno es un proceso que combina metano con vapor de gas natural. A pesar de su eficacia en términos económicos, durante este proceso se liberan cantidades significativas de dióxido de carbono a la atmósfera, provocando en consecuencia que la producción de este combustible afecte al medio ambiente.

Buscando nuevos métodos que combinen la eficiencia económica, el rendimiento productivo y la disminución de las emisiones contaminantes, el Departamento de Energía de los Estados Unidos encargó un informe a la compañía TIAX sobre diferentes procesos en desarrollo e investigación para la generación de hidrógeno y su empleo como combustible.

Principales ventajas

El mencionado informe concluyó que el método desarrollado en la University of Colorado Boulder no produce emisiones de gases de efecto invernadero y es más rentable que el resto de las tecnologías analizadas. El avance fue difundido a través de una nota de prensa de la universidad y de un artículo publicado por Science Daily.

¿Por qué el método diseñado por Alan Weimer y su equipo fue calificado de esta forma en el informe de TIAX para el Departamento de Energía? Básicamente, porque las reacciones de disociación del agua se producen a temperaturas más bajas y son más rápidas que en otros procesos. Además, se requiere una menor cantidad de energía y de materiales activos, lo que se traduce en una disminución de los costes de producción.

Según Weimer, el uso de una película fina como recubrimiento en el receptor solar, de características porosas, permite que el calor y el vapor necesario para el proceso fluyan más fácilmente a través del dispositivo, provocando que las reacciones se produzcan de manera más eficiente.

Los especialistas han podido reducir la temperatura necesaria para dividir el agua en unos 482 grados Fahrenheit (250º C), además de eliminar la inestabilidad del proceso (uno de los grandes obstáculos en muchos métodos empleados en la actualidad), mediante el uso de películas delgadas como recubrimiento y de un sustrato de reactivos.

Purificación de agua

Para los ingenieros e investigadores de la University of Colorado Boulder, este nuevo método constituye un avance importante para el desarrollo del hidrógeno como combustible, y existe una buena oportunidad para que se convierta en la corriente principal en términos de energías sostenibles en el suroeste de los Estados Unidos y en otras regiones de alta incidencia de energía solar en todo el mundo.

Por otra parte, el método de división del agua desarrollado por Weimer y sus colegas no solamente utiliza recursos renovables y produce hidrógeno sostenible, sino que además puede ser muy eficaz para purificar y potabilizar agua, lo que podría solucionar los problemas de escasez de agua en el futuro.

Weimer está presentando actualmente su investigación en distintas organizaciones para obtener el apoyo necesario para continuar la investigación, para la que se requieren recursos gubernamentales y privados. Entretanto, el Departamento de Energía continúa investigando nuevos enfoques para la producción de hidrógeno a partir de luz solar.

El objetivo final es la comercialización de la producción, tanto con éste como con otros métodos. Según el Departamento de Energía, la planificación de costes en el análisis de producción de hidrógeno hacia 2015 indica un precio de seis dólares por kilogramo, mientras que en 2025 los valores deberían oscilar entre los dos y los tres dólares por kilogramo.

Fuente: tendencias21

Importante avance en el desarrollo de biocombustibles a partir de microbios

Un grupo de ingenieros e investigadores del Lawrence Berkeley National Laboratory y del Joint BioEnergy Institute (JBEI), organismos pertenecientes al Departamento de Energía de los Estados Unidos, han concretado un importante avance en el campo de la producción de biocombustibles mediante microbios. La metodología desarrollada permite disminuir en gran medida la toxicidad de los biocombustibles para los microbios, logrando de esta forma un importante incremento de la productividad.

Especialistas norteamericanos han dado un paso trascendente en el desarrollo de biocombustibles mediante microbios, al lograr reducir de manera considerable la toxicidad de los compuestos empleados para los microbios. Este enfoque innovador permitirá un fuerte incremento en la productividad de este tipo de proyectos energéticos.

Se sabe que los biocombustibles producidos a partir de distintas especies vegetales y residuos agrícolas podrían convertirse en uno de los sustitutos más efectivos de la gasolina y otros combustibles fósiles. Aunque también se han marcado algunos puntos negativos que ponen en duda su carácter sostenible, no puede obviarse que en la actualidad constituyen una de las salidas posibles de la dependencia de las fuentes energéticas tradicionales.

Asimismo, el desarrollo de biocombustibles a través de la actividad microbiana es otra faceta estudiada en los últimos años. Sin embargo, hasta ahora, esa posibilidad tenía un fuerte condicionante en términos de productividad: gran parte de los compuestos que se utilizaban en la producción eran tóxicos para los microbios, una característica que reducía fuertemente los niveles productivos.

La investigación mencionada ha logrado desarrollar las condiciones para aliviar la toxicidad de los biocombustibles en E. coli y otros microorganismos, abriendo el camino para una mayor productividad. Así lo establecen una nota de prensa del Lawrence Berkeley National Laboratory, y un artículo del medio especializado Molecular Systems Biology.

Microbios resistentes

Según Aindrila Mukhopadhyay, una de las especialistas responsables de la investigación, el avance se ha obtenido a partir del trabajo con todos los datos disponibles de la secuencia del genoma de los microorganismos, con los que se generó una "biblioteca" de genes capaces de generar una estrategia simple pero eficaz para aliviar la toxicidad de los compuestos en E. coli. De esta forma, se ha logrado mejorar la producción de biocombustibles.

Este nuevo enfoque ya ha propiciado en el Joint BioEnergy Institute (JBEI) y en otros centros de investigación el diseño de sistemas que emplean microorganismos, tales como E. coli, para producir biocombustibles avanzados de una manera rentable. Estos combustibles pueden reemplazar a la gasolina y se utilizan actualmente en distintas infraestructuras y motores.

Estos nuevos biocombustibles, producidos a partir de compuestos de cadena ramificada de carbono, también serían superiores al biodiésel empleado en la actualidad, que se produce a partir de ésteres de ácidos grasos lineales. Una de sus aplicaciones más efectivas sería como combustible para aviones.

La solución: bombas de eflujo

Aunque las vías de biosíntesis para la producción de estos compuestos de carbono en los microbios han sido identificadas, la toxicidad de los productos aplicados atenta directamente contra la productividad. Para que la producción de biocombustible microbiano sea rentable, se requiere el desarrollo de cepas de microbios resistentes al estrés y a la toxicidad.


Los microbios utilizan diversas estrategias para hacer frente a la toxicidad celular, pero quizás la solución más eficaz son las denominadas bombas de eflujo, proteínas ubicadas en la membrana citoplasmática cuya función es transportar las sustancias tóxicas fuera de la célula. Sin embargo, hasta hoy no se había demostrado su efectividad en el campo de los biocombustibles.

Mediante la clasificación del conjunto de bombas de eflujo, los investigadores del Lawrence Berkeley National Laboratory y del Joint BioEnergy Institute lograron seleccionar un subconjunto de gran eficacia para su aplicación en el desarrollo de biocombustibles.

Según Mukhopadhyay, el equipo se centró de manera específica en la llamada "bomba borkumensis A.", probando su efectividad sobre la cepa del microbio empleado para producir limoneno como biocombustible para aviación. Los microbios a los cuales se aplicó la bomba de eflujo indicada produjeron una cantidad significativamente mayor de limoneno que aquellos que no tenían la bomba.

Además de aumentar la tolerancia de los microbios a los biocombustibles exógenos, el nuevo mecanismo mejora en gran medida el rendimiento total del sistema de producción. Gracias a este éxito, Mukhopadhyay y sus colaboradores han comenzado a evaluar las bombas de eflujo en otros compuestos importantes, lo que podría desembocar en nuevas y trascendentes aplicaciones.

Fuente: Tendencias21

El boom antes de tiempo de la TV en 3-D

Las ventas de televisores en 3-D podrían aumentar cinco veces este año, a medida que se vendan más televisores con la tecnología ya incorporada, y la gama de contenidos disponibles aumente constantemente.

Un informe publicado esta semana por la compañía de investigación de mercado In-Stat sugiere que las ventas de televisores en 3-D podrían aumentar en un 500 por ciento en 2011. El año pasado, sólo el 1 ó 2 por ciento de los 210 millones de televisores vendidos en todo el mundo fueron con capacidad 3-D.

"No es que los consumidores lo pidan", afirma Michelle Abraham, autora del informe de In-Stat. "Es que los fabricantes lo hacen una característica [estándar] de sus conjuntos de pantalla más grande".

Paul Gagnon, director de investigación televisiva estadounidense en DisplaySearch (una compañía de investigación propiedad de la misma empresa matriz a la que pertenece In-Stat), afirma que muchos consumidores siguen confundidos acerca de la tecnología de TV en 3-D. El lunes, en la Conferencia de Negocios de la Sociedad para la Visualización de Información en Los Ángeles, Gagnon explicó que los fabricantes también se alejaron de la TV en 3-D mediante la introducción de varias tecnologías de televisión distintas el año pasado.

"En 2010, la televisión 3-D tuvo que compartir el escenario con la retroiluminación LED, así como con los televisores conectados a Internet", señaló Gagnon. "No nos podemos enfocar en todos los mensajes todo el tiempo y esperar que los consumidores nos entiendan".

Para seguir siendo rentables, los fabricantes se centran en la adición de características superiores. Hasta aproximadamente 2007, las tecnologías nuevas e importantes se introducían cada dos años. Ahora, afirma Gagnon, los ciclos más cortos son de seis meses. "Especialmente en los EE.UU., vemos ciclos de desarrollo cada vez más cortos", explicó.

Según una encuesta realizada recientemente por Sony Entertainment, sólo el 54 por ciento de las personas saben que los televisores 3-D también pueden mostrar el contenido normal en 2-D. La mayoría de los consumidores también afirman que estos sistemas son demasiado caros (un promedio de alrededor de 1.600 dólares en comparación con alrededor de 500 para un televisor de 2-D, aunque el precio ha bajado considerablemente en el último año).



La disponibilidad de nuevos contenidos podría ayudar a fomentar la adopción de la tecnología. Representantes de LG, Sony, y ESPN detallaron sus planes para crear más contenidos 3-D en la conferencia sobre pantallas.

En febrero, ESPN comenzó a ofrecer contenidos en 3-D las 24 horas del día en su canal de 3-D. Xfinity y DirecTV también pusieron en marcha canales 3-D este año. "La distribución por cable es la clave", afirma Bryan Burns, vicepresidente de ESPN. En 2010, sólo había alrededor de 40 películas en 3-D en formato Blu-ray disponibles, de acuerdo con DisplaySearch, y aumentar esa cifra tomará tiempo.

Burns afirma que ESPN ha aprendido muchas lecciones en el año desde que lanzó su canal 3-D. "Estamos trabajando mucho en nuestros costes de producción", afirma. Al principio, la cadena utilizaba dos equipos de producción para filmar en 2-D y en 3-D, lo que hizo que se duplicaran los costes de producción. Ahora usan lo que ellos llaman un sistema de producción "5-D" que integra más de cerca el equipo y las personas necesarias para la filmación de ambos sistemas.

Varias compañías, incluyendo a LG, también ofrecen televisores 3-D que funcionan con gafas sin pilas y más cómodas. A diferencia de los anteriores tipos de gafas, estas también funcionan cuando un usuario inclina su cabeza.

"El 3-D auto-estereoscópico [sin gafas] no llegará hasta pasado mucho tiempo", afirma Mike Abary, vicepresidente senior de Sony.


Fuente: Technologyreview

Atrapan múltiples longitudes de ondas de luz en un solo chip

Científicos norteamericanos han conseguido atrapar múltiples longitudes de ondas de luz en un solo chip, abriendo así nuevas posibilidades a las comunicaciones ópticas. Por el momento, han logrado atrapar las ondas de luz que van desde el rojo al verde, pero el objetivo de estos investigadores es atrapar una longitud de onda más amplia, que abarque del rojo al azul. Quieren atrapar el arco iris entero, según explican. La luz viaja en general muy rápidamente, pero las estructuras que crean la banda ancha pueden reducirla de forma significativa, añaden. "Es como si se pudiera sostener la luz en una mano".

Uno de los retos que la comunidad científica aún no ha logrado superar es detener la luz por completo. Por ello, son muchos los investigadores que estudian los mecanismos que permitan captar ondas de luz y reducir su velocidad o incluso pararla totalmente.

Uno de estos investigadores es el joven ingeniero eléctrico Qiaoqiang Gan, de la Universidad de Buffalo de Nueva York, que trabaja desde hace años en esta línea con el objetivo de reducir las ondas de luz y conseguir así grandes avances en el campo de las comunicaciones ópticas, tal y como recoge este comunicado emitido por dicha universidad.

Junto con Gan, un equipo formado por los ingenieros eléctricos y químicos, Filibert Bertoli, Yongkang Gao, Yujie Ding, Kyle Wagner y Dmitri Vezenov, todos ellos de la Universidad de Lehigh, tratan de demostrar que todas las longitudes de ondas de luz se pueden ralentizar empleando un tipo de materiales que ellos mismos han desarrollado.

Estructuras capaces de frenar la luz

Según el comunicado emitido por la Universidad de Buffalo, la mayoría de los planteamientos anteriores habían señalado que la luz sólo se puede frenar sobre una gama estrecha de longitudes de ondas de luz. Pero Gan y su equipo han dado un paso adelante en este sentido, y mediante el desarrollo de una estructura metálica con ranuras en forma de rejilla han sido capaces de parar o detener las ondas de luz en un rango de longitud de onda muy amplia. De esta forma, han abierto la puerta a la posibilidad de controlar las ondas de luz en un chip.

Este logro, del que se hace eco Eurekalert, había sido previsto antes únicamente por estudios teóricos sobre metamateriales. Los resultados obtenidos resultan prometedores para la mejora del almacenaje de datos, del procesamiento de datos ópticos, de células solares y de sensores biométricos, entre otras tecnologías.

Por el momento, los científicos han logrado atrapar las ondas de luz que van desde el rojo al verde. “Ahora estamos concentrados en atrapar una longitud de onda más amplia, que abarque del rojo al azul. Queremos atrapar el arco iris entero”, avanza Gan.

El arco iris es un fenómeno óptico que presenta, en forma de arco de bandas concéntricas, los siete colores elementales, y que está causado por la refracción o reflexión de la luz solar en el agua pulverizada, generalmente perceptible en la lluvia.

Estos colores a los que se refiere la definición anterior son el rojo, el naranja, el amarillo, el verde, el azul, el añil y el violeta, y son producto de la descomposición de frecuencias de la luz.

Capaces de frenar la luz

Las estructuras desarrolladas por Gan y sus colaboradores en su estudio son capaces de atrapar múltiples longitudes de onda de la luz en un solo chip, mientras que los métodos convencionales sólo pueden atrapar una sola longitud de onda en una longitud de onda estrecha.

"La luz viaja en general muy rápidamente, pero las estructuras que crean la banda ancha pueden reducirla de forma significativa", dice Gan. "Es como si se pudiera sostener la luz en una mano."

En un artículo publicado por la revista PNAS, Gan explica que el objetivo final de sus investigaciones es lograr un gran avance en las comunicaciones ópticas de multiplexado, que es la transmisión de información (en cualquier forma) de más de una fuente a través de un mismo medio. Si estas comunicaciones se pueden producir en múltiples longitudes de onda, y los datos ópticos llegan a ser domesticados en longitudes de onda diferentes, se aumentaría el procesamiento y la capacidad de transmisión.

"Por el momento, el procesamiento de datos con las señales ópticas se ve limitado por la rapidez con que la señal puede ser interpretada", dice Gan. "Si la señal pudiera ser más lenta, se podría procesar más información sin necesidad de sobrecargar el sistema", asegura el investigador.

Chips plasmónicos

Esta ralentización se consigue con estructuras nanoplasmónicas, un tipo de material que actúa como freno ante las ondas de luz.

Gan y sus colegas crearon estas estructuras nanoplasmónicas haciendo surcos a tamaño nanométrico y a diferentes profundidades en superficies metálicas, lo que altera las propiedades de los materiales ópticos, explican los investigadores en PNAS.

Estos chips plasmónicos proporcionan la conexión crítica entre la nanoelectrónica y la fotónica, permitiendo a su vez que estos diferentes tipos de dispositivos se integren.

Las propiedades ópticas de las estructuras nanoplasmónicas permiten, según Gan y su equipo, que diferentes longitudes de onda de la luz puedan ser atrapadas en diferentes posiciones, permitiendo potencialmente el almacenamiento de datos ópticos y mejorando la óptica no lineal.

Además, también encontraron que debido a que las estructuras nanoplasmónicas desarrolladas pueden atrapar resonancias de la luz muy lentas, pueden hacerlo a temperatura ambiente, en lugar de a las temperaturas ultra frías que se requieren en las tecnologías convencionales.

Posibles aplicaciones en biomedicina

Reconocido en 2008 por el Ministerio de Educación del Gobierno chino con el premio a estudiantes sobresalientes auto-financiados en el extranjero y con varias patentes y múltiples artículos científicos publicados en diversas revistas científicas, los intereses de investigación de Gan incluyen la nanofotónica, la plasmónica y la biofotónica.

Durante los últimos tres años, el investigador ha pasado gran parte de su tiempo tratando de controlar el movimiento de ondas de luz mediante el uso de plasmones en superficie de películas de metal nanoestructurada, publica la Universidad de Lehigh.

Qiaoqiang Gan está explorando asimismo las aplicaciones de su trabajo tanto en el ámbito de las comunicaciones como en otros campos de la ciencia. Tanto es así, que está estudiando nuevas estructuras nanoplasmónicas que podrían ser de utilidad para investigar células biológicas y biomoléculas, cuyas aplicaciones se centran en el campo de los biosensores y la biomedicina.


Fuente: tendenciasd21

Un nanosatélite buscará mundos alienígenas

Draper Laboratory y el MIT han desarrollado un satélite del tamaño de una hogaza de pan que llevará a cabo una de las mayores tareas de la astronomía: la búsqueda de planetas similares a la Tierra fuera de nuestro sistema solar—o exoplanetas—que pudieran albergar vida. Se tiene previsto su lanzamiento en 2012.

El "nanosatélite", llamado ExoPlanetSat, lleva consigo instrumentos ópticos de gran potencia y alto rendimiento, así como una nueva tecnología de control y estabilización.

Si bien con anterioridad ha existido una gran cantidad de pequeños satélites, estos se han utilizado normalmente para realizar comunicaciones simples o misiones de observación. "Estamos haciendo algo que no se ha hecho antes", afirma Séamus Tuohy, director de sistemas espaciales en Draper.

ExoPlanetSat buscará planetas midiendo la atenuación de una estrella a medida que un planeta pase en órbita por delante de ella, una técnica llamada observación de tránsito. El detector de luz del satélite tiene dos conjuntos de plano focal—uno para el seguimiento de estrellas y otro para observaciones de tránsito. La medición del cambio en el brillo de una estrella con precisión también permite calcular el tamaño del planeta. Además, al medir la cantidad de tiempo que tarda el planeta en completar su órbita, los investigadores pueden determinar la distancia del planeta a su estrella.

Esta técnica está bien establecida, aunque sólo se utiliza por naves espaciales en órbita mucho más grandes, incluyendo el satélite francés CoRoT, que hizo un importante descubrimiento planetario el año pasado, y el satélite Kepler de la NASA, lanzado en 2009. ExoPlanetSat no pretende sustituir a naves más grandes, sino ser complementario, afirma Sara Seager, profesora de ciencias planetarias y física en el MIT, refiriéndose a que el nanosatélite se centrará en estrellas individuales que las grandes naves espaciales ya han identificado como científicamente interesantes. Mientras que una nave espacial como Kepler observa alrededor de 150.000 estrellas, un nanosatélite como ExoPlanetSat está diseñado para el seguimiento de una única estrella.

Para medir con precisión el brillo de una estrella, los ingenieros deben mantener la nave estable—los fotones entrantes deben golpear la misma fracción de un píxel en todo momento, afirma Seager, quien también participa como científica en el satélite Kepler. "Cualquier disturbio que sacuda a la nave desenfoca la imagen y hace que las mediciones sean inservibles", afirma. "Además, las naves espaciales más pequeñas son más fáciles de mover".

Para controlar con precisión y estabilizar al ExoPlanetSat, Draper y los investigadores del MIT incluyeron una estructura aviónica personalizada y ruedas de reacción genéricas, un tipo de dispositivo mecánico utilizado para el control de actitud, en la base de la nave espacial para maniobrarla hasta alcanzar la posición deseada. Unos dispositivos piezoeléctricos alimentados por baterías controlan el movimiento del detector de imagen, desacoplado de la nave y que opera por separado. (La batería se cargará con paneles solares.) "Estos dispositivos mueven el detector en contra de la nave espacial de forma tan precisa que el ojo humano no es capaz de ver el movimiento", asegura Seager. "Esto es un orden de magnitud mejor que cualquier nanosatélite del que se haya hecho una demostración con anterioridad", afirma.

El nanosatélite tiene un volumen de tres litros; tiene 10 centímetros de alto, 10 centímetros de ancho y 30 centímetros de largo. "Fue una hazaña de ingeniería meter todo el hardware, incluyendo el poder de procesamiento y el almacenamiento de datos necesarios, en un tamaño tan pequeño", afirma Tuohy.

Cada nanosatélite costará como poco 600.000 dólares una vez que entre en producción—el ExoPlanetSat cuesta aproximadamente 5 millones—y su vida orbital estimada es de uno a dos años. En última instancia, afirma Seager, los investigadores esperan poner en marcha toda una flota de nanosatélites para supervisar las estrellas más brillantes y más cercanas.


Fuente: technologyreview

Un vistazo virtual bajo la piel

Un equipo de investigadores de Microsoft ha desarrollado un dispositivo portátil que ofrece a los pacientes de fisioterapia un vistazo virtual bajo su piel para ver el estado de su lesión interior. La esperanza es que esto los hará un poco más dispuestos a seguir haciendo sus ejercicios.

"Las personas somos realmente pésimas en lo que a seguir los regímenes de fisioterapia se refiere", afirma Amy Karlson, del Grupo de Experiencias Computacionales de Usuario de Microsoft Research. Entre el 30 y el 50 por ciento de los pacientes con enfermedades crónicas no cumplen sus terapias recomendadas, continúa la investigadora. Como resultado, estas enfermedades pueden tardar más tiempo en sanar o incluso pueden empeorar.

Karlson opina que cuánta más información tengan los pacientes sobre sus lesiones, más probable es que cumplan con los regímenes de fisioterapia. La nueva herramienta, llamada AnatOnMe, tiene como objetivo aportar a los pacientes este extra de información. El dispositivo proyecta una imagen de la estructura ósea, el tejido muscular, los tendones, o los nervios sobre la piel, ofreciendo a los pacientes una mejor comprensión de la lesión y de lo que tienen que hacer para ayudar al proceso de curación, indica Karlson.

El prototipo consta de dos partes. La primera contiene un proyector portátil, o pico, una cámara digital común, y una cámara de infrarrojos. El segundo contiene un puntero láser y los botones de control. "No se trata de un dispositivo de alta tecnología", comenta Karlson, quien presentó el dispositivo esta semana en la CHI 2011, la Conferencia de la Asociación para la Maquinaria Informática sobre Factores Humanos en Sistemas Informáticos, que tuvo lugar en Vancouver.

En vez de utilizar un complicado sistema de corrección automática para hacer corresponder con precisión la imagen de la lesión interna sobre la piel del paciente, el terapeuta simplemente apunta el proyector y lo alinea a ojo. Además, con el prototipo, las imágenes mostradas no provienen realmente de las exploraciones de los pacientes sino de imágenes de pago utilizadas para mostrar uno de los seis tipos diferentes de lesiones.

Aún así, parece ser muy eficaz, defiende Karlson. Los experimentos controlados del dispositivo llevado a cabo por dos fisioterapeutas sugieren que el dispositivo alienta a los pacientes a seguir con sus terapias.

Un médico o terapeuta también podría utilizar AnatOnMe para proyectar las imágenes sobre una pared cercana. La interfaz de usuario también funciona de esta manera, comenta Karlson, con las opciones del menú proyectadas sobre una superficie. Las opciones se seleccionan mediante el puntero láser, que es detectado por la cámara de infrarrojos.

Anne E. Reicherter, miembro de la Asociación Americana de Fisioterapia y de la Escuela de Medicina de la Universidad de Maryland-Baltimore, destaca que el incumplimiento de la fisioterapia es un problema importante, en parte porque por lo general involucra ejercicio, y en parte porque implica cambiar un hábito o renunciar a un comportamiento que puede haber causado la lesión desde un principio.

"Sin embargo, la mayoría de los pacientes están muy interesados ​​en la comprensión de lo que está pasando en su cuerpo, así que algo como esto, que visualmente pueda ayudarles a comprenderlo realmente, sería realmente beneficioso", opina Reicherter. Incluso, añade Reicherter, si una cierta porción de la población, en particular los pacientes mayores, es posible que encuentren los detalles viscerales como algo de mal gusto


Nanoperlas de hierro detectan sustancias tóxicas al instante

Investigadores de la Universidad de Oregón, en Estados Unidos, han diseñado un novedoso sistema que podría revolucionar el tamaño, la velocidad y la precisión de los sistemas de detección química actualmente existentes. Se trata de un sensor portátil formado por nanopartículas de hierro que, gracias a su magnetismo, permite detectar al instante la presencia de agentes químicos y biológicos perjudiciales para la salud.

os sistemas utilizados actualmente para detectar agentes patógenos y contaminantes presentes en el agua o en el aire, nocivos para la salud humana, presentan algunas limitaciones, como que sólo pueden hallar un producto químico específico o que sus resultados no son inmediatos y se conocen al cabo de unas horas.

Para agilizar el proceso, y conseguir que estos sistemas puedan detectar en paralelo diversos contaminantes, investigadores de la universidad norteamericana de Oregón (OSU) han desarrollado unas "nanoperlas" magnéticas.

Según explican los responsables del estudio, el profesor de química de la OSU Vicent Remcho, y Pallavi Dhagat, profesor asistente en la Escuela de OSU de Ingeniería Eléctrica y Ciencias de la Computación, en un comunicado emitido por dicha universidad: “Esta investigación podría revolucionar el tamaño, la velocidad y la precisión de los sistemas de detección química de todo el mundo”.

La clave de la tecnología, de la que se hace eco la revista Sensors and Actuators B: Chemical, está en aprovechar la capacidad de las nanopartículas ferromagnéticas de óxido de hierro.

Por un lado, estas pequeñas partículas sirven para detectar de forma selectiva la existencia de productos químicos; por otro, permiten ofrecer resultados al instante, tras ser incorporadas a un sistema de circuitos integrados.

Tal y como muestra el diagrama anterior, este novedoso método de sensores funcionaría a partir de una esfera magnética, encargada de atraer a los agentes biológicos y químicos con la ayuda de anticuerpos.

Identificación al instante

Otra de las características innovadoras de este nuevo dispositivo es su tamaño, bastante inferior a los actuales, y su usabilidad tanto dentro como fuera de los laboratorios: "Las partículas que estamos utilizando son 1.000 veces más pequeñas que las utilizadas hasta el momento en las pruebas de diagnóstico, lo que permite poder llevar el dispositivo a cualquier sitio y su utilización sobre el terreno", señala Remcho.

El material del que están hechas las nanopartículas es otro valor añadido del método diseñado por los investigadores de la Universidad de Oregón.

Según Remcho: “Igual de importante es que (las nanopartículas) están hechas de hierro. Por ello, podemos utilizar el magnetismo y la electrónica para hacerlas funcionar, también, como dispositivo de señalización, que nos dé acceso inmediato a la información disponible”.

Con esta combinación de tecnología, los científicos del proyecto saben que han dado el primer paso hacia una nueva forma de detección más rápida, precisa y económica, lejos de complicados y lentos ensayos realizados con sondas bioquímicas: “Esto podría cambiar completamente el mundo de los ensayos químicos”, augura por su parte Dhagat.

En concreto, las nanopartículas se unirían a estas pruebas bioquímicas con el objetivo de localizar agentes químicos. Cuando se detecta uno de estos agentes, una “resonancia ferromagnética” es la encargada de transmitir la información de forma electrónica a un pequeño equipo, y así mostrar la información al usuario de forma inmediata.


Aplicaciones

Según sus autores, el sistema podría ser utilizado para detectar casi cualquier elemento de interés en el aire o el agua.

Así, entre las múltiples aplicaciones de este sistema, los investigadores apuestan su utilización por campos tan dispares como el bioterrorismo, el diagnóstico médico o la prueba de medicamentos, la vigilancia del medio ambiente o incluso el tratamiento del agua o la seguridad alimentaria.

En relación a su uso en la lucha contra el bioterrorismo, el sistema serviría para llevar a cabo una rápida detección de las toxinas químicas utilizadas en este tipo de actos, en particular de ántrax, ricina o viruela. Para profundizar el estudio en esta línea, el trabajo de investigación ha recibido financiación del Laboratorio de Investigación del Ejército, en colaboración con el Instituto de Microtecnologías y Nanociencias de Oregón.

Los científicos norteamericanos continúan probando las utilidades de su nuevo sistema mientras prosiguen los trabajos de investigación de microfluidos con el propósito de aplicar esta tecnología en el campo.


Test para tóxicos en alimentos

En el marco de otra investigación situada dentro del proyecto europeo CONffIDENCE coordinado por el RIKILT (Instituto de Seguridad Alimentaria de los Países Bajos), el Consejo Superior de Investigaciones Científicas (CSIC) está desarrollando unos test rápidos que permitirán detectar la presencia de contaminantes químicos en alimentos y en piensos, según un artículo publicado por el periódico ADN.

El objetivo del proyecto, que comenzó en 2008 y tiene una duración de cuatro años, es proporcionar soluciones para el seguimiento de una amplia variedad de compuestos químicos, como plaguicidas, contaminantes orgánicos persistentes, productos farmacéuticos veterinarios, antibióticos, metales pesados, toxinas del marisco o micotoxinas.

Tal y como señalan los investigadores del proyecto, los kits combinarán varias tecnologías, desde los test de tira más sencillos (que se emplean como las pruebas de embarazo) hasta tecnologías de bajo coste basadas en métodos de laboratorio.

Fuente: tendencias21

viernes, 29 de abril de 2011

Toyota apuesta por la recarga inalámbrica de los vehículos eléctricos

Gracias a la colaboración que acaban de iniciar la empresa estadounidense WiTricity y Toyota, la marca de coches pretende impulsar el uso generalizado de sistemas inalámbricos de recarga de automóviles. La empresa utiliza el sistema de resonancia para conseguir recargar las baterías.

Básicamente existen dos tipos de recarga inalámbrica, la electromagnética, que sí requiere contacto directo entre dispositivos y por resonancia, en la que no hace falta que contacten las baterías. La primera está empezando a consolidarse entre los pequeños aparatos como los teléfonos móviles, mientras que el sistema por resonancia puede ser la solución a la recarga rápida de baterías de coches. Como explican desde Toyota, "creemos que la recarga inalámbrica mediante resonancia es adecuada para automóviles y pretendemos fomentar su aplicación práctica".

El objetivo de esta nueva colaboración es, en boca de Toyota, "acelerar el desarrollo y la futura implantación de la recarga inalámbrica para automóviles". Además explican desde la marca que cargar la batería de un vehículo híbrido enchufable podría ser "tan sencillo y práctico como aparcar cerca de un cargador integrado en un domicilio o en un aparcamiento público".

Fuente: Muyinteresante

martes, 19 de abril de 2011

Acelerando el proceso de curación

Damos por sentado que los cortes, magulladuras y rasguños se curan con el tiempo, pero las heridas crónicas que no sanan son un importante problema de salud para millones de personas, y la lentitud de la curación normal de las heridas deja el cuerpo susceptible a infecciones que ponen en riesgo nuestra vida. Un equipo de investigadores de la Universidad Tufts está desarrollando unos nuevos agentes que, al aplicarlos sobre las llagas abiertas, podrían eventualmente ayudar a curar las heridas crónicas con éxito, y acelerar el proceso normal de curación.

Los agentes cicatrizantes de heridas se centran en la angiogénesis, el proceso de crecimiento de los vasos sanguíneos. "Si no se pueden construir nuevos vasos sanguíneos, es prácticamente imposible curar", afirma Ira Herman, líder del proyecto y director del Centro Tufts para la Innovación en la Investigación sobre la Curación de Heridas. Cuando un tejido se daña, las células migran a la región herida y proliferan para formar nuevos vasos que suministren oxígeno y nutrientes a la capa superior de la piel. Éste es uno de los procesos que se detiene en las heridas crónicas.

Hace dos décadas, Herman y sus colaboradores demostraron por primera vez que una enzima llamada colagenasa, producida por la bacteria Clostridium histolyticum podía promover el proceso de curación en cultivos celulares y en animales. Cuando se añadía a los cultivos celulares, ésta estimulaba las células para que migraran y crecieran más rápido. "En esencia, conseguía convertir en estrellas de atletismo a los rezagados", recuerda Herman. Aunque los seres humanos también producen colagenasa, la enzima bacteriana resultó ser más eficaz. La enzima digiere el colágeno, creando pequeños fragmentos de proteína llamados péptidos. Los investigadores creen que los péptidos creados por la enzima bacteriana provocan una respuesta más robusta de las células.

Los investigadores analizaron los péptidos que fueron producidos exclusivamente por la enzima bacteriana, y sintetizaron varios de ellos para ver si alguno de ellos era capaz de promover la cicatrización de heridas por sí solo. Herman destaca que los péptidos serían más fáciles de producir y de administrar como tratamiento que las enzimas. También sería más fácil controlar sus efectos, afirma Herman. En un artículo publicado el pasado mes de septiembre en la revista Wound Repair and Regeneration, el equipo demostró que los péptidos aumentan la proliferación celular y la angiogénesis en modelos celulares constituidos por varias capas de células que imitan la estructura de la piel y los vasos sanguíneos subyacentes. Herman destaca que desde entonces, el equipo ha obtenido resultados prometedores en las pruebas de los agentes en modelos animales, y que confía avanzar la tecnología hacia los ensayos en humanos. Herman prevé que los péptidos podrían ser rociados sobre las heridas en forma de partículas secas o, tal vez, suspendidos en un gel.

Robert Kirsner, jefe de dermatología del Hospital de la Universidad de Miami, opina que la obra "ofrece una idea sobre novedosos mecanismos de reparación, que, si se consiguen capitalizar, se espera que puedan dar lugar a nuevas oportunidades para una mejor y más rápida curación."

Elizabeth Ayello, enfermera y experta en el cuidado de heridas de la Escuela de Enfermería Excelsior College, comenta, "Lo que es interesante sobre esto es que acelera la curación", lo cual Ayello indica que podría reducir las cicatrices e infecciones. Este tratamiento podría ser utilizado en los campos de batalla o en las zonas rurales que carecen de un fácil acceso a los hospitales. La aceleración de la curación, afirma Ayello, es especialmente interesante dado el alto coste y el dolor significativo que las heridas causan a los pacientes.

Fuente: technologyreview

viernes, 15 de abril de 2011

Edificios hechos con una impresora

En la construcción convencional, los trabajadores construyen los edificios con ladrillos, vigas, columnas de hormigón, placas de vidrio y otros elementos prefabricados y producidos en masa. Neri Oxman, arquitecta y profesora en el Media Lab del MIT, tiene la intención de imprimir estos elementos—en esencia, usando hormigón, polímeros y otros materiales en el lugar de tinta. Oxman está desarrollando una nueva forma de diseñar edificios para aprovechar la flexibilidad que puede proporcionar la impresión. Si tiene éxito, su enfoque podría dar lugar a diseños que son imposibles con los métodos de construcción de hoy día.

Las impresoras 3-D existentes, también llamadas máquinas de prototipado rápido, construyen estructuras capa por capa. Hasta ahora, estas máquinas se han utilizado principalmente para crear modelos detallados de plástico sobre la base de diseños hechos por ordenador. Sin embargo, a medida que estas impresoras mejoran y son capaces de utilizar materiales más duraderos, incluyendo metales, se han convertido en una forma potencialmente interesante para crear productos de trabajo.

Oxman está trabajando para ampliar las capacidades de estas máquinas—haciendo posible cambiar la elasticidad de un polímero o la porosidad del hormigón al tiempo que son impresos, por ejemplo—y montando cabezales de impresión sobre brazos robóticos flexibles que poseen una mayor libertad de movimiento que las impresoras actuales.

Ella también se inspira en la naturaleza para desarrollar nuevas estrategias de diseño que aprovechan estas capacidades. Por ejemplo, la densidad de la madera en el tronco de un árbol de palma varía, dependiendo de la carga que debe soportar. La madera más densa está en el

exterior, donde la tensión de flexión es más grande, mientras que el centro es poroso y pesa menos. Oxman estima que hacer columnas de hormigón de esta manera—con hormigón poroso de baja densidad en el centro—podría reducir la cantidad de hormigón necesaria en más del 10 por ciento, un ahorro significativo en la escala de un proyecto de construcción.

Oxman está desarrollando un software para llevar a cabo su estrategia de diseño. Ella toma datos sobre la tensión física en una estructura, así como sobre limitaciones de diseño tales como el tamaño, forma global, y la necesidad de dejar que pase la luz en determinadas zonas de un edificio. Basándose en esta información, el software aplica algoritmos para especificar cómo deben cambiar las propiedades del material a lo largo de toda una estructura. Luego imprime pequeños modelos basados ​​en estas especificaciones.

Los primeros resultados de su trabajo son tan hermosos e interesantes que han sido destacados en el Museo de Arte Moderno de Nueva York y el Museo de la Ciencia en Boston. Un ejemplo, al que ella llama La

Bestia, es una silla cuyo diseño se basa en la forma de un cuerpo humano (el suyo) y la distribución prevista de la presión sobre la silla. El modelo resultante en 3-D cuenta con una red compleja de células y estructuras de ramificación que son suaves allí donde es necesario aliviar la presión y rígidas donde es necesario el soporte.

El trabajo está en una fase temprana, pero el nuevo enfoque de construcción y diseño sugiere muchas nuevas posibilidades. Un muro de carga podría ser impreso con elaborados patrones que correspondan a las tensiones que experimentará de la carga que soporte procedente del viento o de terremotos, por ejemplo.

El patrón también podría tener en cuenta la necesidad de permitir que la luz entre en un edificio. Algunas áreas tendrían hormigón fuerte y denso, pero en las zonas de baja tensión, el hormigón podría ser muy poroso y ligero, sirviendo sólo como barrera ante los elementos, ahorrando material y reduciendo el peso de la estructura. En estas áreas que no soportan carga, también podría ser posible imprimir un tipo de hormigón tan poroso que permita que la luz pueda penetrar, o mezclar el hormigón gradualmente con materiales transparentes. Tales diseños podrían ahorrar energía al aumentar la cantidad de luz natural dentro de un edificio y reducir la necesidad de iluminación artificial. En última instancia, podría ser posible imprimir aislamiento y ventilación eficientes al mismo tiempo. La estructura puede ser compleja, ya que no cuesta más imprimir patrones elaborados que simples.

Otros investigadores están desarrollando un tipo de tecnología para la impresión de paredes y otras estructuras de gran tamaño. Behrokh Khoshnevis, profesor de ingeniería industrial y de sistemas, y de ingeniería civil y ambiental en la Universidad del Sur de California, ha construido un sistema capaz de depositar paredes de hormigón sin la necesidad de formas para contener el hormigón. El trabajo de Oxman llevaría todo esto un paso más allá, añadiendo la capacidad de variar las propiedades del hormigón y, finalmente, trabajar con múltiples materiales.

Las primeras aplicaciones del enfoque de Oxman es probable que se produzcan a una escala relativamente pequeña, en productos de consumo y dispositivos médicos. Ella ha utilizado sus principios para el diseño y la impresión de muñequeras para el síndrome del túnel carpiano. Están personalizadas en base al dolor que experimenta un paciente en particular. El enfoque también podría mejorar el rendimiento de las prótesis.

Oxman, de 35 años, está desarrollando sus técnicas en colaboración con una serie de especialistas, tales como Craig Carter, profesor de ciencias de los materiales en el MIT. Aunque él afirma que su enfoque se enfrenta a retos en el control de las propiedades de los materiales, está impresionado con sus ideas: "No hay duda de que los resultados son sorprendentemente hermosos".

Fuente: technologyreview

Crean el primer atlas integral del cerebro humano

El Allen Institute for Brain Science, de Estados Unidos, ha lanzado el “Allen Human Brain Atlas”, que es el primer mapa del cerebro humano que integra tanto la anatomía como la genómica del cerebro. De acceso gratuito y abierto en Internet, este recurso funciona como un GPS: es capaz de identificar 1.000 localizaciones anatómicas del cerebro humano, y complementa esta información con más de 100 millones de datos sobre la expresión genética particular de cada localización, así como sobre su bioquímica subyacente. La posibilidad de observar cómo funcionan los genes a nivel cerebral ayudará a conocer este misterioso órgano, y a descubrir nuevos tratamientos para todo el espectro de trastornos y enfermedades cerebrales.

El Allen Institute for Brain Science, de Estados Unidos, ha hecho público el llamado “Allen Human Brain Atlas”, el primer mapa del cerebro humano que integra tanto la anatomía como la genómica (o información genética) del cerebro.

El empleo de las tecnologías más punteras de análisis cerebral y más de cuatro años de rigurosos estudios y trabajos de documentación han hecho posible el desarrollo de este atlas de nuestra materia gris, publica el Instituto Allen en un comunicado.

El Allen Human Brain Atlas es ya un recurso abierto para científicos, médicos y comunidad educativa en la Red. Con él se pretende acelerar la comprensión del funcionamiento del cerebro, y también potenciar nuevos descubrimientos al respecto por parte de la comunidad científica global.

Perspectivas sin precedentes

Para el desarrollo del Allen Human Brain Atlas, los investigadores del Allen Institute caracterizaron y cartografiaron la bioquímica de los cerebros de dos humanos adultos normales.

Estos procesos supusieron un estudio del cerebro exacto y detallado. Los datos obtenidos a partir de él han revelado, por ejemplo, que la similitud entre los cerebros humanos es sorprendentemente elevada, del 94%. Este parecido ha permitido establecer patrones firmes, que podrían resultar esenciales en la investigación clínica del cerebro.

Por otro lado, el análisis de los cerebros constató que al menos el 82% de todos los genes humanos está expresado en el cerebro (lo que constituye una muestra de su enorme complejidad), y proporcionó un diseño genético clave para una mejor comprensión del funcionamiento del cerebro, así como para el impulso de investigaciones sobre enfermedades neurológicas y otros trastornos cerebrales.

Según Allan Jones, director ejecutivo del Instituto Allen: “Hasta ahora, no se había realizado un mapa definitivo del cerebro humano, tan detallado. Simplemente, no existía”.

“El Allen Human Brain Atlas proporciona unas perspectivas sin precedentes de nuestro órgano más complejo e importante. Comprender cómo nuestros genes son empleados por el cerebro ayudará a los científicos y a la comunidad médica a comprender mejor (el cerebro) y a descubrir nuevos tratamientos para todo el espectro de trastornos y enfermedades cerebrales, desde las enfermedades mentales o la adicción a las drogas, hasta el Alzheimer, el Parkison, la esclerosis múltiple o el autismo”, afirma Jones.

GPS cerebral

El Allen Human Brain Atlas funciona de manera similar a un sistema de navegación GPS: es capaz de identificar 1.000 localizaciones anatómicas del cerebro humano.

El atlas complementa esta información espacial con más de 100 millones de datos sobre la expresión genética particular de cada localización, así como sobre su bioquímica subyacente.

De este modo, puede ser utilizado por los científicos como herramienta para la exploración del cerebro, por ejemplo, para identificar cómo las enfermedades o los traumas, incluidas las lesiones cerebrales o los trastornos de la salud mental, afectan a áreas específicas del cerebro.

El atlas Allen hace posible asimismo, desde determinar con precisión en qué parte del cerebro actúa una droga específica, hasta controlar el grado de eficiencia de numerosas terapias.

Un aspecto clave que hace de este mapa cerebral una potente herramienta de investigación es que en él se integran, completamente, diferentes tipos de datos que han sido recopilados con diversas metodologías de exploración cerebral.

El Atlas incorpora así tanto imágenes del cerebro tomadas con tecnología de resonancia magnética (RMI) o de tensor de difusión (ITD), como datos histológicos (referentes a los tejidos del cerebro) y datos de expresión genética, derivados de metodologías como la técnica de hibridación in situ o biochips (que son micromatrices en las que se depositan los genes para su estudio).

Pasado y futuro

En 2006, el Instituto Allen culminó la cartografía del cerebro de un ratón adulto, el llamado “Allen Mouse Brain Atlas” y, de igual forma, la puso a disposición gratuita de los científicos.

Aquellos datos propiciaron importantes avances de investigación sobre el cerebro en todo el mundo, tal y como reflejan los más de 500 artículos publicados desde entonces, en los que se cita dicho mapa.

Los creadores del “Allen Human Brain Atlas” creen que este nuevo recurso también resultará útil a investigadores biomédicos de todo el mundo, y en especial a los neurocientíficos.

Los científicos que estén investigando el cerebro humano, y aquéllos que trabajen con modelos de ratones u otros, encontrarán en esta herramienta una oportunidad de probar tanto la relevancia de sus propios descubrimientos como sus potenciales aplicaciones en el cerebro humano.

Asimismo, el mapa cerebral Allen podrá ser usado a pequeña y gran escala para examinar enfermedades y trastornos desde la perspectiva del cerebro, como la obesidad, el Parkinson, la esquizofrenia, etc., así como para explorar el funcionamiento del cerebro humano sano.

En los próximos años, el Allen Institute for Brain Science continuará expandiendo este recurso, con nuevos datos tomados de otros cerebros y con mejoras en las herramientas de búsqueda, de análisis y de revisión de datos.

Otros mapas

El Allen Human Brain Atlas no es el primer mapa que se crea del cerebro humano. Ha habido otros proyectos, aunque no centrados en la relación del cerebro con los genes. En 2003, por ejemplo, un consorcio internacional lanzó el primer atlas del cerebro humano, que fue elaborado a partir del estudio de 7.000 cerebros de personas, con un total de 40 billones de datos recopilados.

Este primer atlas mostraba los planos del cableado y los circuitos de las neuronas, la bioquímica y la biología molecular de las estructuras y las funciones cerebrales, e iba destinado a la exploración minuciosa de los mecanismos de la actividad cerebral.

Asimismo, también en 2010, neurólogos de la Universidad de Tel Aviv, en colaboración con científicos de diferentes partes del mundo, anunciaron que pretendían generar un “atlas cerebral” para la comprensión del desarrollo y el funcionamiento de ciertas enfermedades del ser humano, como el autismo o la esquizofrenia, trastornos que hasta ahora no han podido “localizarse” en áreas concretas del cerebro.

Fuente: Tendencias21

domingo, 10 de abril de 2011

Fabrican una retina en el laboratorio a partir de células madre

Investigadores japoneses han conseguido por primera vez convertir células madre de un mamífero en un ojo embrionario. Los resultados, de los que se hace eco la revista Nature, abren la posibilidad de que, en el futuro, se pueda restaurar la vista de personas ciegas con retinas trasplantadas generadas a partir de las propias células madre del paciente.

En sus experimentos, Yoshiki Sasai y sus colegas, del centro RIKEN de Biología del Desarrollo en Kobe (Japón), hicieron crecer células madre embrionarias de ratón en un medio de cultivo cuidadosamente diseñado, logrando que se diferenciaran y se ensamblaran por sí solas en una estructura tridimensional, una copa óptica, con dos paredes correspondientes a las capas interior y exterior de la retina durante el desarrollo de un embrión.

"Lo que hemos hecho ha sido resolver un problema de casi un siglo en la embriología, mostrando que los precursores retinales tienen la capacidad inherente de generar la compleja estructura de la copa óptica", dijo Sasai en un comunicado. "Estamos en el buen camino para generar no sólo distintos tipos de células, sino tejidos organizados" que puedan emplearse en la medicina regenerativa, añade.

Sasai y sus colegas acompañan el estudio con una serie de fotos y vídeos que registran por primera vez en tiempo real los estadios tempranos del desarrollo del ojo en los mamíferos, con la particularidad de que las imágenes no se han obtenido de animales vivos sino de un cultivo de laboratorio.








Crean piezas de plástico que pueden repararse a sí mismas

Un grupo de ingenieros e investigadores de Fraunhofer-Gesellschaft ha desarrollado componentes de plástico que pueden autorrepararse, utilizando para ello polímeros elásticos que detienen en forma independiente el crecimiento de las microgrietas que pueden observarse en estos materiales, y que en ocasiones pueden desembocar en la rotura imprevista de los mismos. La aplicación de esta solución tendría un amplio campo de acción en distintas ramas de la industria.

Un importante avance hacia el logro de plásticos capaces de autorrepararse ha sido concretado a través de una investigación realizada en Fraunhofer-Gesellschaft. Los ingenieros emplearon polímeros elásticos capaces de detener el crecimiento de diminutas grietas que se presentan en los componentes al soportar distintas presiones. Muchos elementos, maquinarias y dispositivos industriales podrían beneficiarse con este adelanto.

Los elementos indestructibles pueden apreciarse únicamente en los avisos publicitarios y en el cine, por lo menos por ahora. Aunque los componentes de plástico empleados en la industria llegan a ser muy resistentes, todavía pueden romperse al soportar importantes cargas mecánicas.

Las microgrietas pueden encontrarse en cualquier parte de los componentes, y son tan diminutas que es imposible advertirlas durante el uso cotidiano. Como consecuencia de ellas, pueden producirse el imprevisto estallido de un neumático en un vehículo o el colapso de una silla de plástico al sentarse.

Las grietas y fracturas en los componentes de plástico se desarrollan lentamente o de un momento a otro, por eso es vital el avance obtenido por los especialistas alemanes. La investigación fue difundida a través de una nota de prensa de Fraunhofer-Gesellschaft y mediante un artículo publicado en el medio especializado Physorg.com.

Inspiración vegetal

Concretamente, los ingenieros alemanes han desarrollado elastómeros que pueden repararse a sí mismos, evitando de manera totalmente autónoma el crecimiento de las grietas desde un principio, para así poder superar el riesgo del colapso material espontáneo. La fuente de inspiración para este desarrollo fue el comportamiento de distintas especies vegetales, como por ejemplo el árbol de caucho Hevea brasiliensis.

El principio aplicado a los elastómeros tiene que ver precisamente con la forma de autocuración que practica el Hevea brasiliensis. Cuando el árbol de caucho sufre algún daño, libera naturalmente una proteína que se combina con las partículas de látex para cerrar la herida en su estructura.

Según el Dr. Anke Nellesen, del Fraunhofer Institute for Environmental, Safety and Energy Technology, el nuevo proceso consiste en la carga de microcápsulas con un componente especial (poliisobutileno) en los elastómeros realizados con caucho sintético, para estimular así un mecanismo de autocuración del plástico.

Cuando las cápsulas advierten una presión determinada, se abren y expulsan el poliisobutileno, que se mezcla con las cadenas del polímero de los elastómeros y cierra las grietas producidas. El grupo ya ha tenido éxito en algunas pruebas, pero el efecto de autorreparación aún debe optimizarse.
Resultados prometedores

Los resultados sobre los elastómeros de caucho sintético indican la presencia de importantes propiedades de autorreparación, ya que los defectos provocados por la presión sobre el material se superaron y reestablecieron en un 40 por ciento, después de un periodo de reparación autónoma de 24 horas.

Por otra parte, una variante en el proceso parece también incrementar su efectividad. Los ingenieros alemanes han logrado todavía mejores resultados mediante el suministro de iones en los elastómeros. El árbol de caucho también actuó como modelo para este método complementario.

Al igual que en el árbol, los iones logran optimizar la adherencia y permitieron unir más rápidamente las partes dañadas. Considerando que las partículas con cargas opuestas se atraen (un ión positivo busca unirse con un ión negativo), el elastómero dañado se favorece con este proceso y logra reparar más fácilmente las grietas y fisuras.

Por otra parte, los iones permiten asegurar la estabilidad de las reparaciones realizadas. Una de las industrias que se podría ver más beneficiada con este desarrollo es la automovilística, y es por eso que los especialistas de Fraunhofer-Gesellschaft han desarrollado un prototipo de suspensión del silenciador con capacidad de autorreparación.

Fuente: Tendencias21

sábado, 9 de abril de 2011

Un microbio crea butanol directamente a partir de celulosa

El butanol—una prometedora nueva generación de biocombustibles—posee más energía que el etanol y puede ser distribuido a través de oleoductos. Sin embargo, al igual que el etanol, la producción de biobutanol se centra en el uso de materias primas comestibles como la remolacha, el almidón de maíz y la caña de azúcar.

James Liao, ingeniero biomolecular de la Universidad de California en Los Ángeles, acaba de desarrollar dos vías para liberar al butanol de su dependencia de los cultivos alimentarios. Liao, con experiencia en procesos de comercialización de biocarburantes innovadores, ha demostrado que los microbios pueden producir el biocombustible avanzado directamente a partir de desechos agrícolas, así como de materias primas de proteínas como las algas.

La demostración de conversión directa de celulosa a butanol que ha hecho Liao podría reducir el coste de los biocombustibles de celulosa, que es actualmente prohibitivo. Su proceso basado en proteínas proporciona opciones de materias primas totalmente nuevas al campo de los biocombustibles.

Si bien son renovables, los biocombustibles se enfrentan a los ataques de activistas del medio ambiente y los alimentos, y el biobutanol no es una excepción: la primera generación de plantas de biobutanol en fase de desarrollo funcionará a base de azúcar y almidón a base de maíz. "El butanol posee algunas ventajas técnicas, pero el problema real es la cantidad de comida que se necesita para crear un galón de combustible", señala Jeremy Martin, científico senior de la Unión de Científicos Preocupados, un grupo de defensa con sede en Cambridge, Massachusetts, que forma parte de una amplia coalición que está presionando al Congreso para poner fin a los lucrativos créditos fiscales para el etanol de maíz.

Las innovaciones de Liao podrían poner fin a la asociación del biobutanol con el maíz—una asociación que, irónicamente, es en parte su responsabilidad. En 2008, Liao desarrolló una vía microbiana para convertir el azúcar en isobutanol, un isómero de butanol de alto octanaje. Esa innovación está siendo actualmente comercializada por Gevo, una startup con sede en Englewood, Colorado, de la que Liao es cofundador. Gevo recaudó 107 millones de dólares en una oferta pública inicial el mes pasado para apoyar sus planes de modernización de las plantas de etanol de maíz, y con ello pasar a producir isobutanol en su lugar.

Los planes para un cambio a la producción de biocombustibles a partir de materias primas de biomasa tales como el pasto varilla, los tallos de maíz, y el bagazo de caña de azúcar (o residuos vegetales) están, por su parte, moviéndose lentamente, debido a sus mayores costes. La Agencia de Protección Ambiental de los EE.UU. obligó al uso de sólo 6,6 millones de galones de etanol celulósico este año—menos de un 3 por ciento del objetivo de 250 millones de galones fijados por el Congreso hace cuatro años. El retraso viene dado por los pasos de procesamiento necesarios para descomponer estas materias primas celulósicas y generar así los azúcares para la fermentación; el proceso aumenta los costes considerablemente, por lo que las instalaciones de producción son difíciles de financiar.

El proceso directo de celulosa a butanol, desarrollado en colaboración con investigadores del Oak Ridge National Laboratory, promete simplificar las cosas, mediante la ampliación de las capacidades de fermentación de los microbios. La clave fue la adición de la vía de azúcar-a-isobutanol de Liao a un microbio, el Clostridium cellulolyticum, al que le gusta masticar la biomasa, pero que no suele crear butanol. El microbio fue aislado originalmente a partir de la hierba de abono, y hace dos años, Instituto Compuesto de Genoma del Departamento de Energía de los EE.UU. completó una secuencia de su genoma.

El resultado de la ingeniería genética, publicado este mes en la revista Applied and Environmental Microbiology, es un solo organismo que toma la celulosa y produce isobutanol. Liao afirma que la tasa de salida y la conversión son bajas, pero explica que esta "prueba de principio" es probablemente la parte más complicada del proceso de desarrollo. "El resto es relativamente sencillo. No es trivial, pero sencillo. Se convierte en una cuestión de financiación y recursos", afirma Liao.

El siguiente paso es mover las modificaciones genéticas a una variante de más rápido crecimiento del Clostridium o algún otro microbio. Liao apuesta que la tecnología podría estar lista para la producción en tan sólo dos años.

Un bache que podría ralentizar las cosas es el litigio sobre derechos de uso de la tecnología de Liao. Gevo está siendo demandada por violación de patente por el competidor Butamax Advanced Biofuels, una unión entre BP y DuPont que, al igual que Gevo, tiene planes para convertir las plantas de etanol basado en maíz en isobutanol. Butamax alega que el uso de Gevo de la ingeniería genética para crear butanol viola una amplia patente que los EE.UU. emitió a Butamax en diciembre de 2010.

Otro obstáculo es la preocupación sobre el impacto ambiental del uso de biomasa pesada. En enero, la EPA emitió un borrador de informe al Congreso sobre los impactos ambientales de la producción de biocombustibles. El informe destacaba varios problemas relacionados con la producción de combustibles basados ​​en biomasa. Señalaba que el uso de rastrojo de maíz (las hojas y tallos que quedan después de la cosecha) para producir combustibles, en lugar de arar los rastrojos de nuevo en tierras de cultivo, podría dar lugar a la degradación del suelo y ahogar los arroyos y ríos con mayores residuos. Los ecologistas han expresado su preocupación por el cultivo de tierras marginales que hayan sido reservadas para impulsar la diversidad biológica y proporcionar barreras de protección alrededor de cuerpos acuáticos.

La demostración de Liao de la E. coli modificada por ingeniería capaz de convertir la proteína en isobutanol también ofrece una alternativa potencial a las materias primas de biomasa: algas fotosintéticas de crecimiento rápido. Los proyectos actuales de I+D para el desarrollo de biocombustibles a base de algas tratan de convertir las grasas producidas por algas, que representan aproximadamente una cuarta parte de la masa de algas. Las proteínas, por el contrario, constituyen aproximadamente las dos terceras partes.

Sería posible, asegura Liao, crear un sistema de producción de reciclaje en el que los microbios productores de isobutanol estuvieran sostenidos por la proteína de las algas, así como por residuos industriales de fermentación recuperados de las rondas previas de la producción de butanol. Al igual que las algas, los residuos de fermentación están compuestos en gran parte de proteínas.

"Estos resultados demuestran la factibilidad del uso de proteínas para las bio-refinerías", escribió Liao y el equipo de UCLA este mes en la revista Nature Biotechnology.

Liao señala que las biorrefinerías de isobutanol alimentadas con proteínas probablemente tarden de cinco a 10 años en crearse, así que es probable que lo primero en llegar sea el isobutanol celulósico. Reconoce que las materias primas a base de proteínas de algas podrían, al igual que la biomasa celulósica, resultar tener costes imprevistos. Sin embargo una cosa es cierta, sostiene Liao: "Son sin duda mucho más sostenibles que el petróleo, el carbón o el azúcar".

Fuente: Technology Review