viernes, 11 de junio de 2010

+LED: Diodo emisor de luz ,es un dispositivo semiconductor (diodo) que emite luz incoherente de espectro reducido cuando se polariza de forma directa la unión PN del mismo y circula por él una corriente eléctrica. Este fenómeno es una forma de electroluminiscencia. El color, depende del material semiconductor empleado en la construcción del diodo y puede variar desde el ultravioleta, pasando por el visible, hasta el infrarrojo. Los diodos emisores de luz que emiten luz ultravioleta también reciben el nombre de UV LED y los que emiten luz infrarroja se llaman IRED.

Los diodos infrarrojos (IRED) se emplean desde mediados del siglo XX en mandos a distancia de televisores, habiéndose generalizado su uso en otros electrodomésticos como equipos de aire acondicionado, equipos de música, etc., y en general para aplicaciones de control remoto, así como en dispositivos detectores, además de ser utilizados para transmitir datos entre dispositivos electrónicos como en redes de computadoras y dispositivos como teléfonos móviles, computadoras de mano, aunque esta tecnología de transmisión de datos ha dado paso al bluetooth en los últimos años, quedando casi obsoleta.
Los LEDs se emplean con profusión en todo tipo de indicadores de estado (encendido/apagado) en dispositivos de señalización (de tránsito, de emergencia, etc.) y en paneles informativos (el mayor del mundo, del NASDAQ, tiene 36,6 metros de altura y está en Times Square, Manhattan). También se emplean en el alumbrado de pantallas de cristal líquido de teléfonos móviles, calculadoras, agendas electrónicas, etc., así como en bicicletas y usos similares. Existen además impresoras LED.
El uso de diodos LED en el ámbito de la iluminación (incluyendo la señalización de tráfico) es moderado y es previsible que se incremente en el futuro, ya que sus prestaciones son superiores a las de la lámpara incandescente y la lámpara fluorescente, desde diversos puntos de vista. La iluminación con LEDs presenta indudables ventajas: fiabilidad, mayor eficiencia energética, mayor resistencia a las vibraciones, mejor visión ante diversas circunstancias de iluminación, menor disipación de energía, menor riesgo para el medio ambiente, capacidad para operar de forma intermitente de modo continuo, respuesta rápida, etc. Asimismo, con LEDs se pueden producir luces de diferentes colores con un rendimiento luminoso elevado, a diferencia de muchas de las lámparas utilizadas hasta ahora, que tienen filtros para lograr un efecto similar (lo que supone una reducción de su eficiencia energética). Cabe destacar también que diversas pruebas realizadas por importantes empresas y organismos han concluido que el ahorro energético varia entre un 70% y 80% respecto a la iluminación tradicional que se utiliza hasta ahora.3 Todo ello pone de manifiesto las numerosas ventajas que los LEDs ofrecen en relación al alumbrado público.
Los LEDs de Luz Blanca son uno de los desarrollos más recientes y pueden considerarse como un intento muy bien fundamentado para sustituir las bombillas actuales (lámparas incandescentes) por dispositivos mucho más ventajosos. En la actualidad se dispone de tecnología que consume el 92% menos que las bombillas incandescentes de uso doméstico común y un 30% menos que la mayoría de las lámparas fluorescentes; además, estos LEDs pueden durar hasta 20 años y suponer un 200% menos de costes totales de propiedad si se comparan con las bombillas o tubos fluorescentes convencionales.4 Estas características convierten a los LEDs de Luz Blanca en una alternativa muy prometedora para la iluminación.
También se utilizan en la emisión de señales de luz que se trasmiten a través de fibra óptica. Sin embargo esta aplicación está en desuso ya que actualmente se opta por tecnología láser que focaliza más las señales de luz y permite un mayor alcance de la misma utilizando el mismo cable. Sin embargo en los inicios de la fibra óptica eran usados por su escaso coste, ya que suponían una gran ventaja frente al coaxial (aun sin focalizar la emisión de luz).
Pantalla de leds: pantalla muy brillante, formada por filas de leds verdes, azules y rojos, ordenados según la arquitectura rgb, controlados individualmente para formar imágenes vivas, muy brillantes, con un altísimo nivel de contraste, entre sus principales ventajas, frente a otras pantallas encontramos: buen soporte de color, brillo extremadamente alto, lo que le da la capacidad ser completamente visible bajo la luz del sol, es increiblemente resistente a impactos.


+MATERIALES SUPERCONDUCTORES: Se denomina superconductividad a la capacidad intrínseca que poseen ciertos materiales para conducir corriente eléctrica sin resistencia y pérdida de energía nulas en determinadas condiciones.
La resistividad eléctrica de un conductor metálico disminuye gradualmente a medida que la temperatura se reduce. Sin embargo, en los conductores ordinarios, como el cobre y la plata, las impurezas y otros defectos producen un valor límite. Incluso cerca de cero absoluto una muestra de cobre muestra una resistencia no nula. La resistencia de un superconductor, en cambio, desciende bruscamente a cero cuando el material se enfría por debajo de su temperatura crítica. Una corriente eléctrica que fluye en una espiral de cable superconductor puede persistir indefinidamente sin fuente de alimentación. Al igual que el ferromagnetismo y las líneas espectrales atómicas, la superconductividad es un fenómeno de la mecánica cuántica.
La superconductividad ocurre en una gran variedad de materiales, incluyendo elementos simples como el estaño y el aluminio, diversas aleaciones metálicas y algunos semiconductores fuertemente dopados. La superconductividad no ocurre en metales nobles como el oro y la plata, ni en la mayoría de los metales ferromagnéticos.

EJEMPLOS:
-el cobre
-aluminio
-bronce
-la mina del lapiz grafito

+NANOTECNOLOGÍA:
Es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia a nano escala.
Cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas.Nos interesa, más que su concepto, lo que representa potencialmente dentro del conjunto de investigaciones y aplicaciones actuales cuyo propósito es crear nuevas estructuras y productos que tendrían un gran impacto en la industria, la medicina (nanomedicina), etc..
La nanotecnología avanzada, a veces también llamada fabricación molecular, es un término dado al concepto de ingeniería de nanosistemas (máquinas a escala nanométrica) operando a escala molecular. Se basa en que los productos manufacturados se realizan a partir de átomos. Las propiedades de estos productos dependen de cómo estén esos átomos dispuestos. Así por ejemplo, si reubicamos los átomos del grafito (compuesto por carbono, principalmente) de la mina del lápiz podemos hacer diamantes (carbono puro cristalizado). Si reubicamos los átomos de la arena (compuesta básicamente por sílice) y agregamos algunos elementos extras se hacen los chips de un ordenador.

La característica fundamental de la nanotecnología es que constituye un ensamblaje interdisciplinar de varios campos de las ciencias naturales que están altamente especializados. Por tanto, los físicos juegan un importante rol no sólo en la construcción del microscopio usado para investigar tales fenómenos sino también sobre todas las leyes de la mecánica cuántica. Alcanzar la estructura del material deseado y las configuraciones de ciertos átomos hacen jugar a la química un papel importante. En medicina, el desarrollo específico dirigido a nanopartículas promete ayuda al tratamiento de ciertas enfermedades. Aquí, la ciencia ha alcanzado un punto en el que las fronteras que separan las diferentes disciplinas han empezado a diluirse, y es precisamente por esa razón por la que la nanotecnología también se refiere a ser una tecnología convergente.

NEREA MARQUÉS Y SARA PERÉZ
+CELULA ARTIFICIAL:

Craig Venter, el célebre -y controvertido- científico y empresario que echó leña al fuego de la carrera por la decodificación del genoma humano, acaba de lanzar otra de sus bombas mediáticas: anunció que planea crear una nueva forma de vida.
Según publicó The Washington Post, el proyecto ya cuenta con el respaldo del Departamento de Energía de los Estados Unidos -y un presupuesto de tres millones de dólares, y contempla fabricar un organismo unicelular artificial con el mínimo número de genes necesarios para sobrevivir. Si tiene éxito, una vez completo el organismo comenzaría a alimentarse y dividirse, creando una población celular diferente de todo lo conocido hasta el momento.
Junto con Hamilton Smith, premio Nobel de Fisiología y Medicina 1978, que lo secunda en esta aventura, Venter aseguró que la célula será mantenida en estricto confinamiento, y diseñada de tal modo que será incapaz de infectar a los seres humanos o de subsistir si escapa al medio ambiente.
Según The Washington Post, el trabajo podría tener en el futuro aplicaciones prácticas. Partiendo del Mycoplasma genitalium , un organismo que vive en el tracto genital humano y que está dotado de un genoma de apenas unos cientos de genes (el humano tiene entre 30.000 y 50.000), piensan remover el material genético, reemplazarlo por uno artificial y, eventualmente, agregarle funciones, como por ejemplo la capacidad de producir hidrógeno.
Sin embargo, los planes inmediatos, afirman, son más modestos: en principio intentarán integrar en un modelo virtual absolutamente todos los aspectos concebibles de la biología de un organismo, un desafío del que la ciencia hasta ahora nunca había salido triunfante. Y, dado que la química es la misma para todas las formas de vida terrestres, lograrían aclarar muchas cuestiones fundamentales de la biología.
"Pensamos que podríamos esbozar una definición molecular de la vida -declaró Venter-. Nuestra meta es entender cómo funcionan los componentes básicos de las células."
Por supuesto, una investigación de estas características no sólo promete una prolífica cosecha de conocimientos... sino también considerables inquietudes éticas: ¿un organismo hecho para sobrevivir en el laboratorio puede considerarse vida?, ¿tienen los científicos derecho a crear organismos? Y si así fuera, ¿podrían, como sugirió el propio Venter, dar pie para el diseño de nuevas armas biológicas?
Sin duda, el desafío posee los ingredientes de fantasía y audacia con que se escriben algunos de los capítulos más apasionantes de la historia de la ciencia. Pero, antes de dejar volar la imaginación, caben algunas consideraciones.
"Es muy difícil que una célula como ésta pueda utilizarse como arma biológica -dice Martín Lema, investigador especializado en el tema, del laboratorio de ingeniería genética y biología celular y molecular, y de la unidad de fisicoquímica, de la Universidad de Quilmes-. ¿Por qué? Porque un micoplasma de este tipo es muy frágil. Es un parásito que se adhiere a las células y vive de muchas de las sustancias nutritivas que fabrica su anfitriona. Y para qué hacer algo nuevo si es mucho más fácil usar organismos que ya existen en la naturaleza. Por ejemplo, para fabricar el ántrax habría que trabajar como cien años..."
Para el científico, el valor de un emprendimiento como éste radica en sus perspectivas comerciales. Permitiría, por ejemplo, desarrollar reactores biológicos más sencillos. "Cuando uno usa organismos completos -explica Lema- tiene ventajas y desventajas: ofrecen una cantidad de funciones prefabricadas, pero por otro lado poseen funciones que uno no emplea. Esto abriría la puerta para diseñar una maquinaria celular con las funciones estrictamente necesarias."
Por su parte, Osvaldo Uchitel, del laboratorio de fisiología y biología molecular de la Facultad de Ciencias Exactas de la UBA, subraya que "aunque hay elementos de la célula que se pueden generar artificialmente -la membrana, por ejemplo, es una capa lipídica, y si uno pone lípidos en agua espontáneamente toman una forma esférica-, las demás estructuras celulares no van sueltas dentro de ese espacio, y aún no sabemos cómo están ensambladas. Los estudios bioquímicos descubrieron cuáles son los elementos unitarios de un sistema biológico, pero no cómo están ubicados".
La evaluación de Lino Barañao, investigador del Instituto de Biología y Medicina Experimental, es algo diferente. "Teóricamente es posible -afirma-. Ya hay cromosomas artificiales. De hecho, sería posible partir de una célula natural, vaciarla y agregárselos. Hasta se podría fabricar un embrión sintético, y el individuo resultante sería... sintético."
Por eso, subraya, evolutivamente éste es un momento tanto o más importante que la aparición del primer organismo en la Tierra. "Esta es una revolución no sólo tecnológica, sino biológica. Todos usamos el mismo software -dice-, y conociéndolo estamos en condiciones de producir en un instante cambios que antes ocurrían por azar y requerían cientos de millones de años. También desde el punto de vista filosófico es un paso importante, porque esto podría probar que la vida puede constituirse a partir de sus partes. Por otro lado, que el hombre tenga el control sobre la vida conlleva una innegable responsabilidad: la de usar este conocimiento en forma sabia y no en busca de fama o rentabilidad. Lo preocupante no es el experimento biológico, sino el económico que hay detrás... y ése no pasa por comités de ética. Deberíamos estar reflexionando, no sobre peligros lejanos, sino acerca de cómo pretendemos que sea el mundo del futuro, con una humanidad feliz o con asimetrías tan notables como que se usen tres millones de dólares para sintetizar una célula, mientras hay chicos que se mueren de hambre."


+Accidente de Seveso, Italia, 1976:

A las 12:37 del sábado 9 de julio de 1976, se produjo la rotura de un disco de ruptura en un reactor de la planta Icmesa Chemical Company en Seveso (Italia). Se produjo la emisión de sustancias tóxicas y, entre ellas, de dioxina (TCDD), muy tóxica. Se produjeron numerosos intoxicados y daños muy graves en cultivos, suelo y medio ambiente. Todavía se están pagando las consecuencias.
*La tarde anterior al accidente, el reactor se cargó con 2.000 kg de triclorobenceno (TCB), 1.050 kg de hidróxido de sodio, 3.300 kg de etilenglicol y 600 kg de xileno. La reacción no terminó esa tarde, dejando el final para la mañana siguiente, cerrando el vapor y parando la agitación en el reactor. A la mañana siguiente, se produjo una reacción exotérmica incontrolada del tipo runaway, lo que generó un aumento de presión en el reactor y la apertura del disco de ruptura. El resultado fue la emisión de una nube tóxica que contenía TCDD en una concentración aproximada de 3.500 ppm y con aproximadamente entre 0,45 y 3 kg de TCDD. El área cubierta por la nube fue de aproximadamente 1.800 hectáreas y produjo numerosos daños a las personas (730 en el área).
Las lesiones fueron principalmente dérmicas, así como daños al medio ambiente (flora y fauna). Se produjeron daños también en la agricultura, ganadería, suelos contaminados, construcción, comercios, etc. En total, más de 300 millones de francos suizos ha tenido que abonar Roche en concepto de compensaciones al Estado Italiano por el accidente.
En la actualidad, todavía se están pagando indemnizaciones y las consecuencias no han desaparecido del todo.


+Gestión de los residuos radiactivos:
Algunos residuos de baja actividad se eliminan muy diluidos echándolos a la atmósfera o las aguas en concentraciones tan pequeñas que no son dañinas y la ley permite. Los índices de radiación que dan estos vertidos son menores que los que suelen dar muchas sustancias naturales o algunos objetos de uso cotidiano como la televisión.
Los residuos de media o baja actividad se introducen en contenedores especiales que se almacenan durante un tiempo en superficie hasta que se llevan a vertederos de seguridad. Hasta el año 1992 algunos países vertían estos barriles al mar, pero ese año se prohibió esta práctica.
Los almacenes definitivos para estos residuos son, en general, subterráneos, asegurando que no sufrirán filtraciones de agua que pudieran arrastrar isótopos radiactivos fuera del vertedero. En España la instalación preparada para esto es la de El Cabril (Córdoba) en la que se podrán llegar a almacenar hasta 50 000 m3 de residuos de media y baja actividad.
Los residuos de alta actividad son los más difíciles de tratar. El volumen de combustible gastado que queda en las centrales de energía nuclear normales se puede reducir mucho si se vuelve a utilizar en plantas especiales. Esto se hace en algunos casos, pero presenta la dificultad de que hay que transportar una sustancia muy peligrosa desde las centrales normales a las especiales.
Los residuos que quedan se suelen vitrificar (fundir junto a una masa vítrea) e introducir en contenedores muy especiales capaces de resistir agentes muy corrosivos, el fuego, terremotos, grandes colisiones, etc. Estos contenedores se almacenarían en vertederos definitivos que deben estar construidos a gran profundidad, en lugares muy estables geológicamente (depósitos de arcilla , sales o macizos graníticos) y bien refrigerados porque los isótopos radiactivos emiten calor.
Se están estudiando varios emplazamientos para este tipo de almacenes, pero en el mundo todavía no existe ninguno, por lo que por ahora, la mayoría de los residuos de alta actividad se almacenan en lugares provisionales o en las piscinas de la misma central


+DATOS DE CONCENTRACIONES DE CO2:
La prueba definitiva de que el CO2 no es el regulador del clima se encuentra en los períodos Ordovícico-Silúrico y el Jurásico-Cretácico, cuando los niveles de CO2 fueron mayores de 4.000 ppmv (partes por millón en volumen) y cerca de 3.000 ppmv, respectivamente. Si la teoría del IPCC fuera correcta, durante esos períodos se hubiera producido un cambio climático desbocado inducido por el efecto invernadero mientras que, por el contrario, fueron épocas glaciales.
Respuesta científica
Cuando en el pasado los niveles de CO2 fueron mayores, la intensidad de la radiación solar era también mucho menor. El efecto combinado del sol y el CO2 encaja correctamente con el clima del momento.
Comentario
A lo largo de la historia de la Tierra ha habido ocasiones en que los niveles de CO2 en la atmósfera han sido superiores a los de la actualidad. Sorprendentemente, el planeta experimentó amplias regiones glaciales durante esos períodos. ¿Contradice esto el efecto del CO2? No, por un simple motivo: el CO2 no es el único regulador del clima. Para entender el clima del pasado es preciso incluir otros forzamientos. Para ello, un estudio agrupó 490 medidas indirectas (proxy) y reconstruyó los niveles de CO2 a lo largo de los últimos 540 millones de años ). Este período es conocido por la denominación de Eón Farenozoico.
Fig. 1.- Concentración atmosférica de CO2 a lo largo del Farenozoico. La línea de puntos muestra las predicciones del modelo del ciclo del carbono GEOCARB, y la zona gris corresponde al margen de incertidumbre. Las líneas continuas muestran representaciones suavizadas de los registros indirectos).
Los niveles atmosféricos de CO2 han alcanzado valores espectaculares en la gran antigüedad, tal vez llegando a 5.000 ppmv en el Ordovícico tardío, hace 440 millones de años. Sin embargo, la actividad solar es menor cuanto más lejos nos situemos en el tiempo. En el Farenozoico temprano, la actividad solar era un 4% menor que en la actualidad. El efecto combinado de esa intensidad solar con esos niveles de CO2 da como resultado neto.
Farenozoico. Los valores están expresados en relación a los del período preindustrial (CO2 = 280 ppmv; luminosidad solar = 342 W/m2). Las bandas oscuras corresponden a períodos con fuerte evidencia de hielo generalizado.
Los períodos con bajos niveles de CO2 se corresponden con los de épocas glaciales (con una excepción notable, mencionada más abajo). Esto nos lleva al concepto del nivel umbral de CO2-hielo: el nivel de CO2 requerido para iniciar una glaciación. Cuando el sol es menos intenso, este umbral es mucho más elevado. Por ejemplo, mientras que el umbral de CO2-hielo se sitúa, en las condiciones actuales, en 500 ppmv, el umbral equivalente en el Ordovícico tardío (hace 450 millones de años) era de 3.000 ppmv.
Sin embargo, hasta hace poco se creía que los niveles de CO2 en el Ordovícico tardío eran muy superiores a 3.000 ppmv, lo que resultaba problemático en tanto que se sabía la Tierra estaba experimentando condiciones de glaciación. Los datos de CO2 en el Ordovícico tardío son escasos, y cubren un único punto cercano a este período. Este punto muestra un nivel de CO2 de 5.600 ppmv. Dado que la intensidad solar era del orden del 4% inferior que el nivel actual, el CO2 debería ser de 3.000 ppmv para permitir la condición glacial.
¿Puede reducirse el nivel de CO2 tan deprisa? Dada la baja resolución temporal del registro de CO2, esos datos no eran concluyentes.
Una investigación de los isótopos de estroncio de los sedimentos del momento arrojó mayor luz sobre la cuestión. La meteorización de las rocas retira CO2 de la atmósfera. Este proceso produce a su vez un isótopo particular del estroncio, que es llevado al océano por los ríos. La relación de los isótopos de estroncio en las capas de sedimento puede ser empleada para construir una indicación de la actividad de la meteorización continental. Este registro muestra que, cerca del Ordovícico mediano, el aumento de la meteorización conllevó un mayor consumo de CO2 por la corteza terrestre. Sin embargo, este hecho resultó compensado por la fuerte actividad volcánica, que añadía más CO2 a la atmósfera. Pero hace unos 446 millones de años, la actividad volcánica decayó, mientras que se mantuvo el nivel de meteorización. Esto hizo que el nivel de CO2 descendiera por debajo de las 3.000 ppmv, iniciándose el enfriamiento. Resulta pues que la disminución del nivel de CO2 fue la causa de la glaciación del Ordovícico.
Vemos pues que las comparaciones del clima actual con el de períodos de hace 500 millones de años requieren tener en cuenta la intensidad solar, mucho menos que la del presente. Pero ¿qué ocurrió en tiempos más recientes? El período más reciente en el que los niveles de CO2 fueron similares a los actuales (400 ppmv) se dio hace 15 millones de años, durante el Mioceno medio. ¿Cómo era el clima entonces? La temperatura media de la Tierra era entre 2,8 ºC y 5,5 ºC mayor. El nivel del mar entre 22,8 y 36,5 metros mayor. No había hielo permanente en el Ártico, y muy poco en la Antártica y en Groenlandia. Este importante acoplamiento entre CO2 y clima llevó al autor a concluir que “las observaciones geológicas de las que ahora disponemos, de los últimos 20 millones de años, soportan fuertemente la idea de que el dióxido de carbono ha sido un factor determinante del clima a lo largo de la historia de la Tierra” .
Si los climatólogos afirmaran que el CO2 fuera el único regulador del clima, sería difícil compatibilizar esta afirmación con los períodos glaciales. Pero todo climatólogo le dirá que el CO2 no es el único regulador. La climatóloga Dana Royer lo manifiesta mejor: “los registros geológicos contienen un tesoro oculto de ‘Tierras alternativas’ que permiten a los científicos estudiar de qué forma responden los distintos componentes del sistema climático a las variaciones de distintos forzamientos.”
Períodos anteriores de mayores concentraciones de CO2 no contradicen, pues, la noción de que el CO2 hace aumentar la temperatura. Por el contrario, confirman su estrecha relación.


NEREA MARQUES

martes, 8 de junio de 2010

Clases de Composites.

Materiales Compuestos o “Composites”
Definición y utilidad
Un objetivo siempre deseado ha sido la obtención de un material que tenga a la vez gran ductilidad y dureza extrema .
Los materiales simples y homogéneos no combinan estas cualidades
Los metales han servido como una solución de compromiso
Definición y utilidad
Las necesidades crecientes de materiales cada vez más livianos, resistentes y duros, han llevado al desarrollo de materiales compuestos
Se utiliza la combinación de una matriz dúctil y resistente con la dureza de fibras o partículas.
Ejemplos de uso
Sistemas compuestos
No interactúan químicamente
Tienen una mejor relación resistencia – peso que los materiales homogéneos
Tabla resistencia - peso
Tipos de materiales compuestos
Matriz reforzada con fibras
Laminados
Matriz reforzada con partículas
Propiedades buscadas
La obtención de compuestos se debe a la búsqueda de una o más de las siguientes propiedades:
Resistencia Dureza Peso Respuesta a temperaturas extremas Conducción o aislamiento térmico Conducción o aislamiento acústico Respuesta química o comportamiento inerte Aislamiento o conducción electromagnética Resistencia a fractura Costo Fabricación
Material estructural o matriz
A) Plásticos o polímeros
Termofijos: poliéster, epoxies, fenólicos
Termoplásticos: nylon, polietileno, poliestireno, polipropileno,
Material estructural o matriz
B) Metales
Hierro, acero
Aluminio
Zinc
Cobre
Níquel
Plata
Titanio
Magnesio
C) Cerámicos
Whipox ® Rotor Al - SiC
Materiales de refuerzo
a) Vidrio (fibra de vidrio)
b) Nylon, Kevlar, Spectra (polietileno)
c) Metales (continuos, trozados o fibras): grafito, titanio, hierro, acero.
d) Cerámicas
e) Partículas
Spectra ®
Matrices reforzadas con fibras
La resistencia la proporcionan las fibras, mientras que la ductilidad y tenacidad la matriz.
Las fibras son muy pequeñas y tienen pocos defectos, lo que les da su fortaleza.
Generalmente tienen mayor resistencia en la dirección de las fibras
Tipos de fibras de refuerzo
a) Fibra de vidrio: los filamentos de vidrio son los materiales más populares como refuerzo. Se utilizan varios tipos de vidrio con aditivos para mejorar las propiedades. Tienen alta resistencia pero poca rigidez.
Son de bajo costo
Se utilizan con resinas epoxy, poliésteres y poliamidas.
Proceso de la fibra de vidrio
Tipos de fibras de refuerzo
b) Fibras de boro
Utilizadas en la industria aeroespacial
Tiene la misma resistencia que el vidrio pero mayor rigidez (4 a 5 veces más)
Son bastante más caras
Se las utiliza con resina epoxy
Tipos de fibras de refuerzo
c) Fibras de carbono y/o grafito: se obtienen a partir de dos materias primas: brea o poliacrilonitrilo (PAN)
A partir del PAN se realizan varios procesos:
I) Oxidación
II) Carbonización (grafitización)
III) Tratamiento de superficie
+ información: http://www.geocities.com/CapeCanaveral/1320/ (en inglés)

Propiedades de la fibra de carbono
Aplicaciones aeronáuticas
Aplicaciones aeronáuticas Desde interiores…… Hasta partes críticas
Tipos de fibras de refuerzo
c) Aramidas (Kevlar): es una poliamida fabricada por DuPont, que se comenzó a comercializar en 1972
Dos variedades: Kevlar 29 (tal como se obtiene) y Kevlar 49 (para composites)
+ info: http://www2.dupont.com/Kevlar/en_US/
Usos del Kevlar
Refuerzos particulados
Los refuerzos más importantes son:
Carburos cementados (“cermets”): consisten de un material cerámico duro disperso en una matriz metálica.
Un ejemplo típico es el carburo de tungsteno, disperso en carbono metálico (herramientas de corte)
Uso de los “cermets”
Refuerzos particulados
2) Polímeros reforzados con partículas: los elastómeros y los plásticos se refuerzan frecuentemente con partículas.
Un caso típico son los cauchos que se refuerzan con negro de humo.
Laminados
Un caso típico es el laminado de tres o más capas de madera con resinas fenólicas, bajo determinadas condiciones de calor y presión.
Un clásico es la “Fórmica”, que es un laminado de melamina y resinas fenólicas
Laminados
Matrices poliméricas
Matrices poliméricas
b) Resinas de poliéster: otra opción muy común a las resinas epoxy. Su ventaja es su bajo costo
c) Resinas fenólicas: son termoplásticas a baja temperatura. Son más baratas y livianas que las epoxy y muchas de las de poliester.
No son tan utilizadas, una de sus desventajas es el encogimiento durante el curado
Resinas epoxy: son plásticos termoestables. Tienen gran resistencia, y se adhieren a la mayor parte de metales y fibras.
Se refuerza con fibra de vidrio, boro, kevlar, grafito o fibras metálicas.


nerea Marqués Marín y Sara Pérez Fernández

viernes, 21 de mayo de 2010

El equipo de Craig Venter crea la primera célula artificial

EFE Científicos estadounidenses han creado por primera vez una célula controlada por un genoma sintético. En un informe divulgado por la revista Science, los investigadores del Instituto Craig Venter, el considerado padre del genoma, señalan que esperan usar el método para estudiar la maquinaria biológica y crear bacterias diseñadas para resolver problemas ambientales y de energía.

El equipo científico, encabezado por el fundador del instituto, ya había sintetizado un genoma bacteriano y lo había trasplantado de una bacteria a otra. Para su investigación los científicos sintetizaron el genoma de la bacteria M. mycoides a la cual agregaron secuencias de ADN para distinguir ese genoma de uno natural.

Según el informe, los investigadores crearon lo que califican como una "célula sintética" aun cuando sólo el genoma es sintético. "Esta es la primera célula sintética que se ha hecho y la llamamos sintética porque está totalmente derivada de un cromosoma sintético", manifestó Venter. Agregó que se logró con cuatro tipos de sustancias en un sintetizador químico a partir de información proporcionada por un ordenador.

El científico manifestó que el procedimiento puede ser un instrumento importante para manejar procesos biológicos. Con este método los científicos proyectan diseñar algas que puedan atrapar el dióxido de carbono y producir otro tipo de hidrocarbonos de utilidad en refinerías.

También podría usarse en la creación de nuevas sustancias o ingredientes alimentarios, la producción de vacunas y hasta en la limpieza del agua. "Esto se convierte en una herramienta muy poderosa para tratar de diseñar lo que queremos que haga la biología. Tenemos una amplia gama de aplicaciones en mente", dijo Venter.

celula artificial


Craig Ventery y su equipo han logrado fabricar en el laboratorio el ADN completo de la bacteria ‘Mycoplasma mycoides’ e introducirlo en otra célula recipiente de otra especie llamada ‘Mycoplasma capricolum’.
¿Esto que significa?. Es la primera vez que un investigador crea, con todas las implicaciones que esta palabra tiene, una forma de vida sintética, cuyo material genético procede de cuatro botes de productos químicos.

Para lograrlo, los investigadores fabricaron en una máquina de su laboratorio todas y cada una de las unidades básicas del ADN de la bacteria ‘Mycoplasma mycoides’ y los ensamblaron como si de un Mecano se tratase. Una vez montado el complicado puzzle, vaciaron una célula de otra especie de bacteria e introdujeron el código genético sintético en la célula recipiente.

En poco tiempo, el nuevo ’software genético’ se adueñó de la bacteria y dentro de ella no quedó ni un sólo rasgo de la antigua especie. A partir de ese momento, sólo expresaba las proteínas de la bacteria sintetizada y sus características eran las que confería el código genético fabricado en el laboratorio. En pocos segundos se había transformado en una especie diferente.

Imaginaros las implicaciones éticas que tiene el invento. A partir de ahora la palabra vida podría tener otras implicaciones. Se podría mejorar el genoma humano para eliminar enfermedades o hacernos todos rubios con ojos azules y guapos.

En el terreno de la Ciencia, las novedades son mucho más sencillas de asimilar. Las mismas técnicas de laboratorio pueden ser utilizadas para fabricar en el futuro combustibles limpios, productos químicos o sustancias alimenticias o para limpiar agua o acelerar el proceso de fabricación de antibióticos.

Desde hace años, Venter trabaja con al idea de diseñar organismos que puedan ayudar a combatir el cambio climático. “No hay ningún alga natural que conozcamos que pueda hacer esto en la escala que nosotros necesitamos, así que tendremos que usar las nuevas tecnicas de genómica sintética para desarrollar nuevas algas a partir de las que ya existen o desarrollar otras nuevas que tengan las propiedades que queremos que tengan”, explicó Venter.

“Creo que lo más importante es que estamos entrando en una nueva era científica limitada sólo por nuestras imaginaciones”, sentenció el investigador.

Primera célula artificial de la historia. ( Sara Pérez Fernández)

El científico norteamericano Craig Venter fue el impulsor de la primera secuenciación de un genoma humano. Pero no se ha quedado aquí. Ahora ha dado un primer y espectacular paso en el camino para crear la primera forma de vida artificial.

De momento y por primera vez en la historia, Venter asegura que ha fabricado una "célula sintética", es decir, la primera célula (en este caso de una bacteria) que es controlada por un genoma construido por el hombre en un laboratorio con la ayuda de un super-ordenador.

Este nuevo avance científico derriba otra de las barreras de la naturaleza y acaba de ser publicado por la prestigiosa revista Science. "Me parece un gran logro", asegura a la cadena SER Emilio Muñoz, experto en genética y ex-presidente del CSIC, el mayor organismo de investigación de España.

"Es de una gran complejidad técnica y, por lo tanto, estamos ante una revolución técnica, porque estamos hablando de vida, aunque sea a nivel celular".

Con este nuevo y revolucionario paso, Greig Venter se ha convertido en un nuevo doctor Frankenstein, pero él trata de tranquilizar a la población asegurando que estas primeras "células sintéticas" se podrán utilizar, en el futuro, para atrapar el CO2 de la atmósfera o para comerse las sustancias contaminantes que se vierten ahora al mar o los ríos.

viernes, 7 de mayo de 2010

EXTINCION DE ANIMALES


Época Consecuencias
Precámbrico Superior, hace unos 670 millones de años Disminuyó el Fitoplancton unicelular del océano
A finales del Ordovícico, hace unos 440 millones de años Eliminó unas 100 familias de animales marinos
A finales del Devónico, hace unos 370 millones de años Desaparecieron simultáneamente muchos grupos de animales marinos tropicales
Al final del Paleozoico, hace unos 240 millones de años Desapareció el 95 % de todas las especies marinas
Hace unos 210 millones de años Desapareció el 50 % de las especies de reptiles
Al final del Cretácico, hace unos 65 millones de años Se extinguieron los dinosaurios y el 70 % de todas las especies conocidas

Actividad Nº5

Debido a la contaminacion del hombre se ha producido un cambio en la temperatura y tambien por el aumento de el dioxido de carbono. Debido algunos contaminantes que se emiten a la atmosfera se producen algunos fenomenos atmosfericos distintos a los habituales.Me baso en las graficas del ejercicio Nº1.

Actividad Nº2

EE.UU es un país que no ha ratificado el Convenio de Basilea y exporta unos 275 millones de toneladas al año, principalmente a países poco desarrollados industrialmente y carentes de una legislación ambiental estricta, como es el caso de Haití. Un país donde atracó un barco llamado Khian Sea que llevaba un cargamento de 14.000 toneladas de cenizas tóxicas, procedentes de las incineradoras de Filadelfia. Después de pasar dos años buscando un lugar donde verter su cargamento, en 1988 el Khian Sea pudo deshacerse de 4.000 toneladas gracias al beneplácito del dictador respaldado por EE.UU. Duvalier, que emitió un permiso para verter lo que consideraba "fertilizante" en la playa de Gonaives. No pudo deshacerse de toda su mercancía debido a la presión ejercida por parte de la población y de grupos ecologistas al percatarse de que no se trataba de fertilizante. El gobierno acabó aceptando esta consideración y reclamó a la embarcación que recogiese el cargamento que había vertido; pero ya era demasiado tarde: el barco había escapado de noche. En noviembre del mismo año vertió el resto de su cargamento en el Océano Índico.

La India, al igual que Haití, es un paraíso para las empresas que se quieren deshacer de sus desechos tóxicos. La empresa norteamericana HoltraChem, por ejemplo, intentó descargar 20 toneladas de mercurio en la India a principios del 2001, pero esta vez sus planes no tuvieron éxito gracias a la intervención de la red de ONGs Basel Action Network y a activistas hindúes, que consiguieron que el barco diera media vuelta hacia Estados Unidos cuando estaba en Egipto.

A parte de ser receptores de residuos tóxicos, la India junto con Pakistán, Bangladesh y China son países utilizados como cementerios de barcos. Las compañías propietarias de las embarcaciones reciben grandes cantidades de dinero a cambio de los barcos viejos sin tener que responsabilizarse de llevar a cabo una correcta gestión o recuperación de los materiales. Esto causa graves problemas de salud a los trabajadores que se ocupan del desmantelamiento, debido a la elevada toxicidad de ciertos componentes de los barcos.

Se calcula que un 12% de la degradación del suelo agrícola de la China es debida al vertido de residuos tóxicos industriales.

Foto de Zehng Shong publicada en el libro Perspectivas del medioambiente mundial. GEO 3 del Programa de las Naciones Unidas para el Medio Ambiente, Ed. Mundiprensa 2002.





Hay centenares de casos como éstos. La isla de Teshima, por ejemplo, ha sido utilizada como vertedero de los residuos tóxicos de Japón durante trece años. Si nos desplazamos hasta China podremos ver que actualmente este país cumple la función de vertedero electrónico mundial. O si nos acercamos a algún país africano como Zambia veremos que, debido a la presión ejercida por las multinacionales de pesticidas, actualmente tiene un legado histórico de 200.000 toneladas de residuos tóxicos, procedentes de países económicamente desarrollados.

Situaciones que se repiten con mucha frecuencia en diferentes países y que se agravan debido a la falta de laboratorios que analicen la composición de los residuos, a la escasez de personal sanitario para tratar a los afectados y a la falta de infraestructura para gestionarlos.

Esta vuelta alrededor del mundo nos ha mostrado cómo las industrias y los gobiernos eluden la responsabilidad de gestionar los residuos tóxicos que han generado o permitido. El seguimiento y la denuncia del problema son llevados a cabo sobre todo por ONGs. De hecho, algunos poderes públicos no parecen ser conscientes de que la exportación de residuos tóxicos constituya ningún problema: Lawrence Summers, ex economista jefe del Banco Mundial, manifestaba en 1991: "Creo que la lógica económica que hay detrás de verter residuos tóxicos en países con niveles salariales bajos es impecable".

Los ciudadanos debemos presionar a los gobiernos para que penalicen severamente a las empresas que se dedican a estas prácticas y para que favorezcan la proliferación de tecnologías limpias. Teniendo siempre en cuenta que el mejor residuo tóxico es el que no se produce.

domingo, 25 de abril de 2010

actividad Nº4

Las algas: la verdura del mar
El uso alimentario de los vegetales marinos, en la cuenca mediterránea, está documentado desde el año 600 a de C. Aunque se han encontrado datos de su inclusión en la alimentación humana que datan de 10.000 años atrás en Oriente, especialmente en Japón donde las algas pueden llegar a constituir el 25% de la dieta.

En la mayoría de países europeos las algas se han ganado un lugar en la gastronomía local, como por ejemplo en Austria y Alemania donde utilizan las algas para elaborar un tipo de pan muy apreciado, el Algenbrot, un pan de cereales al cual se le agrega un 2-3 por ciento de algas disecadas en la harina.

Bajo la influencia de las dietas macrobióticas se ha valorizado mucho el consumo de algas en Occidente. España no ha sido ajena a este movimiento y desde hace unos años se están llevando a cabo una experiencias pioneras y artesanas en Redondela (Pontevedra) donde además de las conocidas algas japonesas nos ofrecen otras tres típicamente atlánticas; el sabroso espagueti de mar, el musgo de irlanda y el fucus.El descubrimiento de la penicilina en 1928 desencadenó la búsqueda sistemática de otros antibióticos a partir de microorganismos del suelo, lo que condujo al descubrimiento de la estreptomicina, la neomicina, el cloranfenicol y la clorotetraciclina. Durante muchos años, la investigación se centró en las plantas y microorganismos terrestres, principalmente porque sus especímenes son fáciles de obtener. Sin embargo, una parte cada vez mayor de la investigación farmacéutica más prometedora se centra actualmente en el mar, porque la evolución de los organismos marinos ha dado lugar a moléculas de gran interés biológico.

El descubrimiento de la penicilina en 1928 desencadenó la búsqueda sistemática de otros antibióticos a partir de microorganismos del suelo, lo que condujo al descubrimiento de la estreptomicina, la neomicina, el cloranfenicol y la clorotetraciclina. Durante muchos años, la investigación se centró en las plantas y microorganismos terrestres, principalmente porque sus especímenes son fáciles de obtener. Sin embargo, una parte cada vez mayor de la investigación farmacéutica más prometedora se centra actualmente en el mar, porque la evolución de los organismos marinos ha dado lugar a moléculas de gran interés biológico.

Las esponjas fueron objeto de numerosos estudios tras el descubrimiento, en 1959, de que algunas de ellas producían sustancias con actividad antimicrobiana. Los investigadores no tardaron en descubrir que otros invertebrados, como los tunicados, las ascidias, los equinodermos, los briozoos, los corales y los moluscos producían sustancias similares. Biólogos y químicos de todo el mundo se lanzaron al estudio de los productos de origen marino, dando lugar a la eclosión de la bioprospección marina: la búsqueda de organismos acuáticos para la investigación y el desarrollo de nuevos productos terapéuticos. En la década de 1980, el descubrimiento de varios compuestos de origen marino capaces de inhibir el crecimiento de cultivos celulares estimuló el interés del sector farmacéutico.
Yondelis®, el primer fármaco para el tratamiento de los sarcomas de tejidos blandos que se comercializa en los tres últimos decenios, es un ejemplo excelente del tipo de medicamentos que pueden obtenerse de la investigación de los organismos marinos. PharmaMar, una biofarmacéutica española subsidiaria del Grupo Zeltia, se fundó en 1986 con el objetivo principal de investigar los recursos marinos como fuente de nuevos principios activos para el tratamiento del cáncer. Es una empresa pionera en este campo y su labor fue recompensada en 2007 cuando la Agencia Europea del Medicamento (EMEA) y la Comisión Europea autorizaron la comercialización de Yondelis (trabectedina). Yondelis es el primer fármaco antitumoral de origen marino elaborado por una empresa española. Su aprobación viene a confirmar el potencial del mar como fuente de nuevos medicamentos.

El producto se obtuvo por extracción de la ascidia Ecteinascidia turbinata. La necesidad de extraer grandes cantidades de la ascidia para aislar los ingredientes activos hizo que se elaboraran técnicas de maricultura, así como de síntesis orgánica del producto. En la actualidad se obtiene por semisíntesis a partir de la cianosafracina, un metabolito de la bacteria Pseudomonas fluorescens.

Las Ascidias (Ascidiacea) son invertebrados marinos bentónicos, que crecen sobre el fondo marino en formas solitarias o coloniales. Pertenecen al grupo de los Tunicados, llamados así porque la pared de su cuerpo segrega una túnica constituida por una sustancia celulosa llamada tunicina. La ascidia Ecteinascidia turbinata vive en las zonas tropicales y subtropicales del Atlántico, desde las costas mediterráneas hasta el norte del Brasil y la región caribeña. La especie se encuentra en todos los ecosistemas litorales, desde la zona de las mareas hasta los arrecifes exteriores.

Otras compañías farmacéuticas, como Novartis, Aventis, Eli Lilly, Inflazyme Abbott, Wyeth, y Taiho Pharmaceuticals Co, están poniendo a punto productos terapéuticos de origen marino. A continuación mencionaremos algunos de los que se encuentran actualmente en fase de investigación clínica.

El primer compuesto marino que fue objeto de ensayos clínicos de fase II en seres humanos fue la didemnina, aislada por el grupo de Rinehart en la Universidad de Illinois a partir del tunicado Trididemnum solidum.

actividad Nº3

El accidente de Seveso
La Directiva 96/82/CE, relativa al control de los riesgos de accidentes graves en los que intervengan sustancias peligrosas, más conocida como Seveso II, que sustituyó a la Seveso I de 1982, toma su nombre del accidente ocurrido en la localidad italiana de Seveso en 1976, en una fábrica de productos químicos. El accidente, uno de los más graves de la reciente historia industrial de Europa, provocó la emisión de una nube de gases tóxicos con una alta proporción de dioxinas que llegó a las zonas vecinas, especialmente a la localidad de Seveso, en donde 736 personas fueron evacuadas y hubo que descontaminar suelos y viviendas. Unos 3.300 animales, principalmente pollos y conejos, murieron en los alrededores de la fábrica y unos 77.000 animales fueron sacrificados para impedir que la dioxina 2,3,7,8-TCDD (dioxina muy tóxica, cancerígena y disruptora endocrina) entrara en la cadena trófica.

Estudios realizados con posterioridad a este suceso demostraron que, entre otros efectos, aumentó significativamente el ratio de nacimientos de niñas/niños en aquellas parejas con altos niveles de concentración de esta dioxina como consecuencia de su exposición a la nube tóxica originada por el accidente.

actividad Nº1



Dióxido de carbono

El dióxido de carbono (CO2) es un gas incoloro, denso y poco reactivo. Forma parte de la composición de la tropósfera (capa de la atmósfera más próxima a la Tierra) actualmente en una proporción de 350 ppm. (partes por millón). Su ciclo en la naturaleza está vinculado al del oxígeno. El balance del dióxido de carbono es sumamente complejo por las interacciones que existen entre la reserva atmosférica de este gas, las plantas que lo consumen en el proceso de fotosíntesis y el transferido desde la tropósfera a los océanos. El aumento del contenido de dióxido de carbono que se verifica actualmente es un componente del cambio climático global, y posiblemente el mejor documentado. Desde mediados del siglo XIX hasta hoy, el aumento ha sido de 80 ppm. El análisis de gases retenidos en muestras de hielo obtenidas a distintas profundidades en Antártida y Groenlandia, ha permitido conocer la concentración de dióxido de carbono atmosférico, y de otros gases del llamado efecto invernadero, durante por lo menos los últimos 150.000 años. Estas concentraciones han variado en la escala temporal de las glaciaciones, con concentraciones bajas durante los períodos glaciales (temperaturas bajas) y relativamente altas durante los períodos interglaciales (temperaturas altas), con transiciones rápidas tanto en la variación de la temperatura como de la concentración de dióxido de carbono. Se ha discutido si este aumento del contenido de dióxido de carbono atmosférico corresponde o no a estas fluctuaciones naturales, dado que transitamos por un período postglacial. A partir de la misma fuente de información, las burbujas de gas retenidas en hielos de diferentes edades, se ha comprobado que el actual incremento de la concentración de dióxido de carbono se superpone a la variación esperada del mismo y los niveles alcanzados superan a los registrados en el pasado, siendo el aumento sustancial y acelerado durante los últimos 160 años e indudablemente causado por la actividad humana.

Se estima que este aumento es causado por una concurrencia de factores entre los cuales el uso de combustibles fósiles (carbón, petróleo y derivados, gas) y las quemas con fines agrícolas pueden señalarse como los más significativos. Se calcula que este aumento del nivel de dióxido de carbono ocasione cambios climáticos considerables.

-Cambio climático global

Cambio global signifca, en el uso restringido que se le dá hoy al término, un calentamiento global de la atmósfera producido por el aumento de la concentración de los gases de invernadero en la atmósfera. Entre los más importantes de ellos se encuentra el dióxido de carbono (CO2), el vapor de agua, los compuestos clorofluorcarbonados (CFC) y el metano (CH4). Su aumento tiene que ver con el incremento del consumo de energía y de la actividad agrícola - ganadera (CH4) e industrial (CO2 y CFC). Este aumento de temperatura trae aparejado un cambio en las otras variables climáticas, o sea un “cambio climático global”.

Cambios cuali y cuantitativamente diferentes se han producido con cierta frecuencia durante todos los períodos geológicos y mucho antes de la aparición del hombre. Si hablamos de un posible cambio global actual pensamos en un cambio provocado por las actividades globales del hombre, que abarcan la sobreexplotación de los bosques, el uso indiscriminado de las reservas energéticas, la producción de alimentos y la actividad industrial en general. Asimismo, el crecimiento desmedido de la población mundial, en un planeta que podría absorber tal vez, los desechos de una población de mil millones de habitantes humanos, y ha llegado a un estado de crisis al casi sextuplicar la cifra.

Las actividades mencionadas están cambiando paulatinamente la atmósfera terrestre, reforzando el efecto invernadero.

En la cercanía del suelo, la atmósfera contiene en el momento actual: 0,035% de CO2, 20,95% de O2), 78,08% de N2 y 0,3% de N2O (Datos de la Organización Meteorológica Mundial, 1986.

viernes, 26 de marzo de 2010

Nanotecnologia

La nanotecnología es un campo de las ciencias aplicadas dedicado al control y manipulación de la materia a una escala menor que un micrómetro, es decir, a nivel de átomos y moléculas (nanomateriales). Lo más habitual es que tal manipulación se produzca en un rango de entre uno y cien nanómetros. Se tiene una idea de lo pequeño que puede ser un nanobot sabiendo que un nanobot de unos 50 nm tiene el tamaño de 5 capas de moléculas o átomos -depende de qué esté hecho el nanobot-.

Futuras aplicaciones: Según un informe de un grupo de investigadores de la Universidad de Toronto, en Canadá, las quince aplicaciones más prometedoras de la nanotecnología son:

Almacenamiento, producción y conversión de energía.
Armamento y sistemas de defensa.
Producción agrícola.
Tratamiento y remediación de aguas.
Diagnóstico y cribaje de enfermedades.
Sistemas de administración de fármacos.
Procesamiento de alimentos.
Remediación de la contaminación atmosférica.
Construcción.
Monitorización de la salud.
Detección y control de plagas.
Control de desnutrición en lugares pobres.
Informática.
Alimentos transgénicos.
Cambios térmicos moleculares (Nanotermología).

viernes, 5 de marzo de 2010

LOS TRANSGENICOS

La Unión Europea aprueba los transgénicos y consumo de ORGANISMOS GENETICAMENTE MODIFICADOS,los primeros en realizarlos son la empresa MONSACO con el maiz stacks, y más tarde fue la empresa BASF, con una patata llamada anflora. Se ha autorizado la importación y consumo de los cinco transgénicos.


La patata anflora se destinara a obtener almidón para la industria papelera, aunque también se podra emplear para piensos para los animaleS, y el maiz es una resistencia herbicida.

viernes, 12 de febrero de 2010

La energía solar gana a la eólica en subvenciones




Las últimas estadísticas sobre energías de régimen especial (renovables) elaboradas por la Comisión Nacional de la Energía (CNE) reflejan un giro histórico en el sistema de subvenciones que cobra este sector.

En mayo, por primera vez, las primas a la energía fotovoltaica han superado, en términos absolutos, a las que cobra la energía eólica, tradicionalmente la tecnología que, por su amplio despliegue, se llevaba la mayor porción de las subvenciones.

Desde enero de este año hasta el 7 de mayo, las empresas solares cobraron por toda su producción 393,3 millones de euros, de los cuales, 355,6 millones corresponden a lo que la CNE denomina ‘prima equivalente’. La prima equivalente es el sobrecoste que suponen las renovables con respecto a otros tipos de generación tradicional.

Mercado


En la práctica, la prima equivalente es la forma más afinada para calcular cuánto reciben en subvenciones las renovables, que venden su electricidad al sistema eléctrico por encima del precio que marca diariamente el libre mercado.

Este sobrecoste se carga contra la factura que pagan todos los usuarios de luz. Las energías eólicas recibieron entre enero y mayo 301 millones de euros como prima. La solar y la eólica son las energías verdes que más subvenciones reciben en términos absolutos. Se llevan casi dos terceras partes de toda la tarta. En total, entre todas las energías renovables con prima (cogeneración, algunas hidráulicas, biomasa y residuos, además de la solar y la eólica), el sistema soportó hasta comienzos de mayo 996 millones.

Crecimiento ordenado
El Gobierno intenta, desde hace meses, articular fórmulas que logren un crecimiento ordenado. Sin renunciar a la apuesta por las energías verdes, trata de poner freno al desbocado crecimiento de los últimos años, para que no explote el sistema de primas.

Se están ajustando a la baja todas las subvenciones. Es decir, se está reduciendo la tarta de las primas, lo que está originando tensiones entre tecnologías. Una y otra se miran ahora de reojo con más suspicacia y recelos que nunca para ver quién se está llevando la mayor porción de las subvenciones.

Cualquier dato se analiza ahora con lupa. Según la CNE, el precio medio con el que se ha retribuido a las fotovoltaicas este año alcanza los 46 céntimos por kilovatio hora (Kwh). A las eólicas se les ha pagado 8,5 céntimos. Debido a este desequilibrio, en el sector eólico se esperaba que, en algún momento de este año, las fotovoltaicas les superarán en subvenciones totales, aunque sigan teniendo muchos menos megavatios instalados. Productividad, calendario de desarrollo y estructura del despliegue de las instalaciones son otros frentes de debate.

Producción

Al mes de mayo, había ya 15.578 megavatios (MW) eólicos funcionando, frente a los 3.390 MW fotovoltaicos. Sin embargo, las instalaciones eólicas (694) son menos que las fotovoltaicas (50.260).

Entre enero y mayo, las eólicas consiguieron generar 7.443 gigavatios hora (GWh), frente a los 843 GWh de las fotovoltaicas. La energía eólica ha producido casi la mitad de toda la energía que generaron las renovables (15.155 GWh). Por cada gigavatio hora generado, han recibido una prima de unos 40.000 euros, frente a los 400.000 de la fotovoltaica. A favor de las fotovoltaicas está el escaso tiempo que llevan produciendo un sobrecoste multimillonario. La energía eólica lleva años cobrando suculentas primas. En concreto, más de 4.400 millones entre 2004 y 2009, frente a los 1.570 millones de la solar en ese periodo.

viernes, 29 de enero de 2010

en españa

Tabla 2.1. Balance de energía primaria en España.

Fuente % sobre el total
Petróleo 49,0%
Gas Natural 20,9%
Carbón 12,6%
Nuclear 10,8%
Renovables Biomasa 2,9%
Hidráulica 1,6%
Eólica 1,3%
Biocarburantes 0,4%
R.S.U. 0,3%
Biogás 0,2%
Solar térmica 0,05%
Solar fotovoltaica 0,03%
Geotermia 0,01%
Total renovables 6,8%
Otros residuos 0,1%
Saldo eléctrico -0,2%

Tabla de gastos en energía geométrica en Europa ( Sara Pérez )

energia hidraúlica


CONSUMO DE ENERGIA A NIVEL MUNDIAL:

viernes, 15 de enero de 2010

(JENNIFER DE LA FUENTE(WWF INVERTIRA 4 MILLONES DE EUROS EN LA PROTECCION DE LOS OSOS PANDA

El Fondo Mundial para la Naturaleza WWF anunció que invertirá 4 millones de euros en tres años para el apoyo a la protección del hábitat del oso panda, el animal que es protagonista de su conocido logotipo.





WWF designará ese dinero a un programa de conservación del lugar donde habitan estos animales en el río Yangtsé, en las provincias occidentales de Sichuan, Gansu y Shaanxi.





La organización trabajará para evitar la construcción de edificios" y los efectos negativos que el turismo causa en estos hábitats, incluyendo bosques y humedales, ayudando también a los campesinos de la zona.





El oso panda es uno de los animales en mayor peligro de extinción del mundo, debido a la dificultad que este mamífero tiene para reproducirse. Actualmente hay unos 1.600 animales de esta especie en libertad.





Hay tres bases de cría e investigación de los pandas en Chengdu (capital de Sichuan), en la reserva natural de Wolong de la misma provincia, y en el zoológico de Pekín, aunque se está preparando la creación de una cuarta en la provincia de Shaanxi.





WWF y otras ONGs medioambientales como Greenpeace tienen presencia legal en China y participan en proyectos de cooperación estatales, situación que contrasta con la de organizaciones no gubernamentales dedicadas a los derechos humanos como Amnistía Internacional o Human Rights Watch, cuya actividad en el país es prohibida por Pekín y suele desarrollarse clandestinamente.

foto de noticia biodiverdidad( Laura Marcela Cañon Hernandez)

foto de noticia biodiverdidad( Nerea Marqués Marín)

Se acelera el ritmo de la pérdida de la biodiversidad en todo el mundo. (Sara Pérez)

EFE Actualizado 11-10-2009 21:42 CET
Toronto (Canadá).- El ritmo de la pérdida de la biodiversidad en todo el mundo se ha acelerado en los últimos años y será imposible cumplir el compromiso internacional de reducir su descenso, advirtió hoy un grupo de científicos.


En abril del 2003, los ministros de 123 países de todo el mundo se comprometieron a alcanzar en 2010 "una reducción significativa de la actual tasa de pérdida de biodiversidad a nivel local, nacional y regional, como una contribución para paliar la pobreza y para beneficio de toda la vida sobre la Tierra".

Pero seis años después, y a pocos meses antes de que se cumpla el plazo acordado en la VI Conferencia de la Diversidad Biológica de París, no sólo no se ha reducido el ritmo de pérdida sino que de hecho ha aumentado hasta extremos alarmantes, según los expertos.

"Con toda seguridad no vamos a cumplir el objetivo de reducir la pérdida de biodiversidad para 2010 y por tanto también vamos a incumplir las metas medioambientales de los Objetivos del Desarrollo del Milenio del 2015", afirmó Georgina Mace, vicepresidenta de Diversitas.

Diversitas es un programa internacional establecido en 1991 por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) y el Consejo Internacional para la Ciencia, que promueve la investigación científica sobre biodiversidad.

Diversitas organiza del 13 al 16 de este mes la II Conferencia Abierta Científica en Ciudad del Cabo (Suráfrica), con la asistencia de 600 expertos de todo el mundo, y que tiene entre otros objetivos crear un mecanismo similar al que existe para luchar contra el cambio climático.

"Es más, los cambios de ecosistemas y pérdidas de biodiversidad se han acelerado. Los ritmos de extinción de especies son al menos 100 veces más elevados que los que existían antes de la aparición de seres humanos y se espera que sigan en aumento", añadió Mace.

Los expertos coinciden en señalar que la deforestación, tanto para cultivar el suelo como para explotar madera, es la principal causa de la pérdida de diversidad biológica en el planeta.

Anne Larigauderie, directora ejecutiva de Diversitas, dijo a Efe que un estudio que se presentará durante la conferencia de Ciudad del Cabo "señala que el principal motivo de cambio de biodiversidad es el cambio del uso de la tierra, esencialmente deforestación".

Pero la situación cambiará en 2050 porque para entonces el cambio climático será el principal motor de la pérdida de biodiversidad.

Aunque aún faltan 40 años para ese momento, la situación es ya alarmante para los científicos, según declaró a Efe Hal Mooney, profesor de la Universidad de Stanford y presidente de Diversitas.

"Lo que sucede ahora, y alarma a la mayoría de científicos, es que empezamos a ver grandes impactos del cambio climático. Vemos nuevos elementos a consecuencia del cambio climático, como el aumento de la frecuencia de fuegos y nuevas especies invasoras que se extienden por todo el mundo" afirmó.

Mooney, que en el 2008 recibió el Premio Fundación BBVA a la Investigación en Ecología y Biología de la Conservación, explicó que el cambio climático crea grandes transtornos en los ecosistemas y cambia las reglas del juego.

"En respuesta al cambio climático, vemos cómo emigran especies a lugares donde hay otras especies. Vemos cambios sobre cuando los árboles pierden sus hojas, cambios muy pronunciados, lo que afecta a cómo opera el sistema, cómo los insectos (que dependen de estos materiales) se desplazan en el tiempo" añadió.

Ante esta situación, "hace falta que aumente el nivel de concienciación sobre la amenaza al planeta que representa la pérdida de tantas especies".

Una de las soluciones es la creación de un mecanismo similar al Panel Internacional contra el Cambio Climático (IPCC por sus siglas en inglés).

La posibilidad de crear ese mecanismo ha sido discutido durante una reunión ministerial celebrada en Nairobi la semana pasada y la decisión será anunciada durante la conferencia de Ciudad del Cabo, explicó Larigauderie.

Nerea Marqués Marín (Noticia de Biodiversidad)

Guardias del zoológico de El Salvador afrontan juicio por matar a coatí
Archivado en:medio ambiente, naturaleza, justicia, interior, juicios, biodiversidad, el salvador
EFE Actualizado 29-10-2009 18:50 CET
San Salvador.- Dos guardias de seguridad del zoológico de El Salvador afrontan un juicio por matar a golpes y pedradas a un pezote o coatí (Nasua narica), tras encontrarlo en una zona abierta del parque durante la madrugada del 3 de marzo pasado, informo hoy una fuente judicial.

(EFE)El Tribunal Tercero de Paz de San Salvador decretó el miércoles la instrucción formal, sin detención, contra Rafael Fabián y Jeremías Elías Guzmán, quienes no se presentaron a la audiencia, detalló una fuente judicial a Efe. EFE/Archivo
El Tribunal Tercero de Paz de San Salvador decretó el miércoles la instrucción formal, sin detención, contra Rafael Fabián y Jeremías Elías Guzmán, quienes no se presentaron a la audiencia, detalló una fuente judicial a Efe.

Los dos vigilantes son acusados por la Fiscalía General del delito de "depredación de fauna protegida y daños agravados" contra el coatí, un pequeño mamífero parecido al mapache, explicó la fuente.

Según el requerimiento contra los imputados, la madrugada del 3 de marzo cuando se encontraban trabajando en el parque localizaron al pequeño mamífero en las ramas de un árbol y procedieron a lanzarle piedras hasta derribarlo.

Una vez en el suelo, le propinaron "patadas hasta darle muerte", según consta en el documento.

Los guardias envolvieron el cuerpo del animal, en un maletín con la intención de sacarlo del parque, pero fueron descubiertos durante el registro rutinario al abandonar las instalaciones.

En El Salvador, el pezote, que se encuentra especialmente en Mesoamérica y está catalogado en peligro de extinción, es considerado comestible principalmente por personas que habitan en la campiña.

laura marcela cañon hernandez/ noticia de biodiversidad

Un nuevo parque natural colombiano tiene la capacidad de enfrentar el cambio climático
Archivado en:medio ambiente, conservacion, biodiversidad, cambio climático, colombia
EFE Actualizado 28-10-2009 00:02 CET
Bogotá.- La organización ambientalista Conservación Internacional (CI) dijo hoy en Bogotá que el nuevo Parque Nacional Natural Yaigojé Apaporis, establecido en territorios indígenas de la cuenca amazónica colombiana, tiene capacidad para enfrentar los efectos del cambio climático en la región.

(EFE)La nueva reserva es la número 55 en el Sistema de Parques Nacionales Naturales de Colombia, que tiene un área de más de 12,57 millones de hectáreas. EFE/Archivo
La nueva área protegida, con un nivel de conservación del 95%, está caracterizada por una alta precipitación, una elevada estabilidad climática y una leve estacionalidad, explicó la oficina en Colombia de CI, que apoyó junto a la Fundación Gaia Amazonas el proceso de creación de esta reserva.

La zona del Yaigojé Apaporis, de más de 1,06 millones de hectáreas, fue declarado Parque Nacional Natural el lunes por el Ministerio de Ambiente, Vivienda y Desarrollo Territorial de Colombia.

La nueva reserva es la número 55 en el Sistema de Parques Nacionales Naturales de Colombia, que tiene un área de más de 12,57 millones de hectáreas.

La reserva está situada en la parte sureste del Vaupés, departamento selvático de la frontera este con Brasil, y su territorio es ancestral de las etnias Macuna, Tanimuca, Barazano Yuhup y Cabillarí, que promovieron su declaración como parque natural, el primero de naturaleza cultural indígena del país.

"Con la declaratoria del Parque Yaigojé Apaporis se sienta un precedente acerca del importante papel que juegan los pueblos indígenas, sus culturas y su manera de relacionarse con la naturaleza para la conservación de la biodiversidad", afirmó el director ejecutivo de CI en Colombia, Fabio Arjona.

El ambientalista observó que tiempos de amenazas globales como el cambio climático "demandan iniciativas participativas que puedan ser replicables en otras regiones",

El nuevo parque acoge 362 especies de aves, 81 de reptiles, 73 de anfibios, 201 de peces, 443 de mariposas y 16 de mamíferos, todos estos en vía de extinción, según un inventario del área al que hizo mención el ministro de Ambiente, Carlos Costa, al momento de anunciar su formalización como reserva natural.

La organización CI resaltó que entre las especies a las que el Yaigojé Apaporis ofrece refugio están en peligro el mico churuco, el perro de agua y el delfín,