viernes, 11 de junio de 2010

+LED: Diodo emisor de luz ,es un dispositivo semiconductor (diodo) que emite luz incoherente de espectro reducido cuando se polariza de forma directa la unión PN del mismo y circula por él una corriente eléctrica. Este fenómeno es una forma de electroluminiscencia. El color, depende del material semiconductor empleado en la construcción del diodo y puede variar desde el ultravioleta, pasando por el visible, hasta el infrarrojo. Los diodos emisores de luz que emiten luz ultravioleta también reciben el nombre de UV LED y los que emiten luz infrarroja se llaman IRED.

Los diodos infrarrojos (IRED) se emplean desde mediados del siglo XX en mandos a distancia de televisores, habiéndose generalizado su uso en otros electrodomésticos como equipos de aire acondicionado, equipos de música, etc., y en general para aplicaciones de control remoto, así como en dispositivos detectores, además de ser utilizados para transmitir datos entre dispositivos electrónicos como en redes de computadoras y dispositivos como teléfonos móviles, computadoras de mano, aunque esta tecnología de transmisión de datos ha dado paso al bluetooth en los últimos años, quedando casi obsoleta.
Los LEDs se emplean con profusión en todo tipo de indicadores de estado (encendido/apagado) en dispositivos de señalización (de tránsito, de emergencia, etc.) y en paneles informativos (el mayor del mundo, del NASDAQ, tiene 36,6 metros de altura y está en Times Square, Manhattan). También se emplean en el alumbrado de pantallas de cristal líquido de teléfonos móviles, calculadoras, agendas electrónicas, etc., así como en bicicletas y usos similares. Existen además impresoras LED.
El uso de diodos LED en el ámbito de la iluminación (incluyendo la señalización de tráfico) es moderado y es previsible que se incremente en el futuro, ya que sus prestaciones son superiores a las de la lámpara incandescente y la lámpara fluorescente, desde diversos puntos de vista. La iluminación con LEDs presenta indudables ventajas: fiabilidad, mayor eficiencia energética, mayor resistencia a las vibraciones, mejor visión ante diversas circunstancias de iluminación, menor disipación de energía, menor riesgo para el medio ambiente, capacidad para operar de forma intermitente de modo continuo, respuesta rápida, etc. Asimismo, con LEDs se pueden producir luces de diferentes colores con un rendimiento luminoso elevado, a diferencia de muchas de las lámparas utilizadas hasta ahora, que tienen filtros para lograr un efecto similar (lo que supone una reducción de su eficiencia energética). Cabe destacar también que diversas pruebas realizadas por importantes empresas y organismos han concluido que el ahorro energético varia entre un 70% y 80% respecto a la iluminación tradicional que se utiliza hasta ahora.3 Todo ello pone de manifiesto las numerosas ventajas que los LEDs ofrecen en relación al alumbrado público.
Los LEDs de Luz Blanca son uno de los desarrollos más recientes y pueden considerarse como un intento muy bien fundamentado para sustituir las bombillas actuales (lámparas incandescentes) por dispositivos mucho más ventajosos. En la actualidad se dispone de tecnología que consume el 92% menos que las bombillas incandescentes de uso doméstico común y un 30% menos que la mayoría de las lámparas fluorescentes; además, estos LEDs pueden durar hasta 20 años y suponer un 200% menos de costes totales de propiedad si se comparan con las bombillas o tubos fluorescentes convencionales.4 Estas características convierten a los LEDs de Luz Blanca en una alternativa muy prometedora para la iluminación.
También se utilizan en la emisión de señales de luz que se trasmiten a través de fibra óptica. Sin embargo esta aplicación está en desuso ya que actualmente se opta por tecnología láser que focaliza más las señales de luz y permite un mayor alcance de la misma utilizando el mismo cable. Sin embargo en los inicios de la fibra óptica eran usados por su escaso coste, ya que suponían una gran ventaja frente al coaxial (aun sin focalizar la emisión de luz).
Pantalla de leds: pantalla muy brillante, formada por filas de leds verdes, azules y rojos, ordenados según la arquitectura rgb, controlados individualmente para formar imágenes vivas, muy brillantes, con un altísimo nivel de contraste, entre sus principales ventajas, frente a otras pantallas encontramos: buen soporte de color, brillo extremadamente alto, lo que le da la capacidad ser completamente visible bajo la luz del sol, es increiblemente resistente a impactos.


+MATERIALES SUPERCONDUCTORES: Se denomina superconductividad a la capacidad intrínseca que poseen ciertos materiales para conducir corriente eléctrica sin resistencia y pérdida de energía nulas en determinadas condiciones.
La resistividad eléctrica de un conductor metálico disminuye gradualmente a medida que la temperatura se reduce. Sin embargo, en los conductores ordinarios, como el cobre y la plata, las impurezas y otros defectos producen un valor límite. Incluso cerca de cero absoluto una muestra de cobre muestra una resistencia no nula. La resistencia de un superconductor, en cambio, desciende bruscamente a cero cuando el material se enfría por debajo de su temperatura crítica. Una corriente eléctrica que fluye en una espiral de cable superconductor puede persistir indefinidamente sin fuente de alimentación. Al igual que el ferromagnetismo y las líneas espectrales atómicas, la superconductividad es un fenómeno de la mecánica cuántica.
La superconductividad ocurre en una gran variedad de materiales, incluyendo elementos simples como el estaño y el aluminio, diversas aleaciones metálicas y algunos semiconductores fuertemente dopados. La superconductividad no ocurre en metales nobles como el oro y la plata, ni en la mayoría de los metales ferromagnéticos.

EJEMPLOS:
-el cobre
-aluminio
-bronce
-la mina del lapiz grafito

+NANOTECNOLOGÍA:
Es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia a nano escala.
Cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas.Nos interesa, más que su concepto, lo que representa potencialmente dentro del conjunto de investigaciones y aplicaciones actuales cuyo propósito es crear nuevas estructuras y productos que tendrían un gran impacto en la industria, la medicina (nanomedicina), etc..
La nanotecnología avanzada, a veces también llamada fabricación molecular, es un término dado al concepto de ingeniería de nanosistemas (máquinas a escala nanométrica) operando a escala molecular. Se basa en que los productos manufacturados se realizan a partir de átomos. Las propiedades de estos productos dependen de cómo estén esos átomos dispuestos. Así por ejemplo, si reubicamos los átomos del grafito (compuesto por carbono, principalmente) de la mina del lápiz podemos hacer diamantes (carbono puro cristalizado). Si reubicamos los átomos de la arena (compuesta básicamente por sílice) y agregamos algunos elementos extras se hacen los chips de un ordenador.

La característica fundamental de la nanotecnología es que constituye un ensamblaje interdisciplinar de varios campos de las ciencias naturales que están altamente especializados. Por tanto, los físicos juegan un importante rol no sólo en la construcción del microscopio usado para investigar tales fenómenos sino también sobre todas las leyes de la mecánica cuántica. Alcanzar la estructura del material deseado y las configuraciones de ciertos átomos hacen jugar a la química un papel importante. En medicina, el desarrollo específico dirigido a nanopartículas promete ayuda al tratamiento de ciertas enfermedades. Aquí, la ciencia ha alcanzado un punto en el que las fronteras que separan las diferentes disciplinas han empezado a diluirse, y es precisamente por esa razón por la que la nanotecnología también se refiere a ser una tecnología convergente.

NEREA MARQUÉS Y SARA PERÉZ
+CELULA ARTIFICIAL:

Craig Venter, el célebre -y controvertido- científico y empresario que echó leña al fuego de la carrera por la decodificación del genoma humano, acaba de lanzar otra de sus bombas mediáticas: anunció que planea crear una nueva forma de vida.
Según publicó The Washington Post, el proyecto ya cuenta con el respaldo del Departamento de Energía de los Estados Unidos -y un presupuesto de tres millones de dólares, y contempla fabricar un organismo unicelular artificial con el mínimo número de genes necesarios para sobrevivir. Si tiene éxito, una vez completo el organismo comenzaría a alimentarse y dividirse, creando una población celular diferente de todo lo conocido hasta el momento.
Junto con Hamilton Smith, premio Nobel de Fisiología y Medicina 1978, que lo secunda en esta aventura, Venter aseguró que la célula será mantenida en estricto confinamiento, y diseñada de tal modo que será incapaz de infectar a los seres humanos o de subsistir si escapa al medio ambiente.
Según The Washington Post, el trabajo podría tener en el futuro aplicaciones prácticas. Partiendo del Mycoplasma genitalium , un organismo que vive en el tracto genital humano y que está dotado de un genoma de apenas unos cientos de genes (el humano tiene entre 30.000 y 50.000), piensan remover el material genético, reemplazarlo por uno artificial y, eventualmente, agregarle funciones, como por ejemplo la capacidad de producir hidrógeno.
Sin embargo, los planes inmediatos, afirman, son más modestos: en principio intentarán integrar en un modelo virtual absolutamente todos los aspectos concebibles de la biología de un organismo, un desafío del que la ciencia hasta ahora nunca había salido triunfante. Y, dado que la química es la misma para todas las formas de vida terrestres, lograrían aclarar muchas cuestiones fundamentales de la biología.
"Pensamos que podríamos esbozar una definición molecular de la vida -declaró Venter-. Nuestra meta es entender cómo funcionan los componentes básicos de las células."
Por supuesto, una investigación de estas características no sólo promete una prolífica cosecha de conocimientos... sino también considerables inquietudes éticas: ¿un organismo hecho para sobrevivir en el laboratorio puede considerarse vida?, ¿tienen los científicos derecho a crear organismos? Y si así fuera, ¿podrían, como sugirió el propio Venter, dar pie para el diseño de nuevas armas biológicas?
Sin duda, el desafío posee los ingredientes de fantasía y audacia con que se escriben algunos de los capítulos más apasionantes de la historia de la ciencia. Pero, antes de dejar volar la imaginación, caben algunas consideraciones.
"Es muy difícil que una célula como ésta pueda utilizarse como arma biológica -dice Martín Lema, investigador especializado en el tema, del laboratorio de ingeniería genética y biología celular y molecular, y de la unidad de fisicoquímica, de la Universidad de Quilmes-. ¿Por qué? Porque un micoplasma de este tipo es muy frágil. Es un parásito que se adhiere a las células y vive de muchas de las sustancias nutritivas que fabrica su anfitriona. Y para qué hacer algo nuevo si es mucho más fácil usar organismos que ya existen en la naturaleza. Por ejemplo, para fabricar el ántrax habría que trabajar como cien años..."
Para el científico, el valor de un emprendimiento como éste radica en sus perspectivas comerciales. Permitiría, por ejemplo, desarrollar reactores biológicos más sencillos. "Cuando uno usa organismos completos -explica Lema- tiene ventajas y desventajas: ofrecen una cantidad de funciones prefabricadas, pero por otro lado poseen funciones que uno no emplea. Esto abriría la puerta para diseñar una maquinaria celular con las funciones estrictamente necesarias."
Por su parte, Osvaldo Uchitel, del laboratorio de fisiología y biología molecular de la Facultad de Ciencias Exactas de la UBA, subraya que "aunque hay elementos de la célula que se pueden generar artificialmente -la membrana, por ejemplo, es una capa lipídica, y si uno pone lípidos en agua espontáneamente toman una forma esférica-, las demás estructuras celulares no van sueltas dentro de ese espacio, y aún no sabemos cómo están ensambladas. Los estudios bioquímicos descubrieron cuáles son los elementos unitarios de un sistema biológico, pero no cómo están ubicados".
La evaluación de Lino Barañao, investigador del Instituto de Biología y Medicina Experimental, es algo diferente. "Teóricamente es posible -afirma-. Ya hay cromosomas artificiales. De hecho, sería posible partir de una célula natural, vaciarla y agregárselos. Hasta se podría fabricar un embrión sintético, y el individuo resultante sería... sintético."
Por eso, subraya, evolutivamente éste es un momento tanto o más importante que la aparición del primer organismo en la Tierra. "Esta es una revolución no sólo tecnológica, sino biológica. Todos usamos el mismo software -dice-, y conociéndolo estamos en condiciones de producir en un instante cambios que antes ocurrían por azar y requerían cientos de millones de años. También desde el punto de vista filosófico es un paso importante, porque esto podría probar que la vida puede constituirse a partir de sus partes. Por otro lado, que el hombre tenga el control sobre la vida conlleva una innegable responsabilidad: la de usar este conocimiento en forma sabia y no en busca de fama o rentabilidad. Lo preocupante no es el experimento biológico, sino el económico que hay detrás... y ése no pasa por comités de ética. Deberíamos estar reflexionando, no sobre peligros lejanos, sino acerca de cómo pretendemos que sea el mundo del futuro, con una humanidad feliz o con asimetrías tan notables como que se usen tres millones de dólares para sintetizar una célula, mientras hay chicos que se mueren de hambre."


+Accidente de Seveso, Italia, 1976:

A las 12:37 del sábado 9 de julio de 1976, se produjo la rotura de un disco de ruptura en un reactor de la planta Icmesa Chemical Company en Seveso (Italia). Se produjo la emisión de sustancias tóxicas y, entre ellas, de dioxina (TCDD), muy tóxica. Se produjeron numerosos intoxicados y daños muy graves en cultivos, suelo y medio ambiente. Todavía se están pagando las consecuencias.
*La tarde anterior al accidente, el reactor se cargó con 2.000 kg de triclorobenceno (TCB), 1.050 kg de hidróxido de sodio, 3.300 kg de etilenglicol y 600 kg de xileno. La reacción no terminó esa tarde, dejando el final para la mañana siguiente, cerrando el vapor y parando la agitación en el reactor. A la mañana siguiente, se produjo una reacción exotérmica incontrolada del tipo runaway, lo que generó un aumento de presión en el reactor y la apertura del disco de ruptura. El resultado fue la emisión de una nube tóxica que contenía TCDD en una concentración aproximada de 3.500 ppm y con aproximadamente entre 0,45 y 3 kg de TCDD. El área cubierta por la nube fue de aproximadamente 1.800 hectáreas y produjo numerosos daños a las personas (730 en el área).
Las lesiones fueron principalmente dérmicas, así como daños al medio ambiente (flora y fauna). Se produjeron daños también en la agricultura, ganadería, suelos contaminados, construcción, comercios, etc. En total, más de 300 millones de francos suizos ha tenido que abonar Roche en concepto de compensaciones al Estado Italiano por el accidente.
En la actualidad, todavía se están pagando indemnizaciones y las consecuencias no han desaparecido del todo.


+Gestión de los residuos radiactivos:
Algunos residuos de baja actividad se eliminan muy diluidos echándolos a la atmósfera o las aguas en concentraciones tan pequeñas que no son dañinas y la ley permite. Los índices de radiación que dan estos vertidos son menores que los que suelen dar muchas sustancias naturales o algunos objetos de uso cotidiano como la televisión.
Los residuos de media o baja actividad se introducen en contenedores especiales que se almacenan durante un tiempo en superficie hasta que se llevan a vertederos de seguridad. Hasta el año 1992 algunos países vertían estos barriles al mar, pero ese año se prohibió esta práctica.
Los almacenes definitivos para estos residuos son, en general, subterráneos, asegurando que no sufrirán filtraciones de agua que pudieran arrastrar isótopos radiactivos fuera del vertedero. En España la instalación preparada para esto es la de El Cabril (Córdoba) en la que se podrán llegar a almacenar hasta 50 000 m3 de residuos de media y baja actividad.
Los residuos de alta actividad son los más difíciles de tratar. El volumen de combustible gastado que queda en las centrales de energía nuclear normales se puede reducir mucho si se vuelve a utilizar en plantas especiales. Esto se hace en algunos casos, pero presenta la dificultad de que hay que transportar una sustancia muy peligrosa desde las centrales normales a las especiales.
Los residuos que quedan se suelen vitrificar (fundir junto a una masa vítrea) e introducir en contenedores muy especiales capaces de resistir agentes muy corrosivos, el fuego, terremotos, grandes colisiones, etc. Estos contenedores se almacenarían en vertederos definitivos que deben estar construidos a gran profundidad, en lugares muy estables geológicamente (depósitos de arcilla , sales o macizos graníticos) y bien refrigerados porque los isótopos radiactivos emiten calor.
Se están estudiando varios emplazamientos para este tipo de almacenes, pero en el mundo todavía no existe ninguno, por lo que por ahora, la mayoría de los residuos de alta actividad se almacenan en lugares provisionales o en las piscinas de la misma central


+DATOS DE CONCENTRACIONES DE CO2:
La prueba definitiva de que el CO2 no es el regulador del clima se encuentra en los períodos Ordovícico-Silúrico y el Jurásico-Cretácico, cuando los niveles de CO2 fueron mayores de 4.000 ppmv (partes por millón en volumen) y cerca de 3.000 ppmv, respectivamente. Si la teoría del IPCC fuera correcta, durante esos períodos se hubiera producido un cambio climático desbocado inducido por el efecto invernadero mientras que, por el contrario, fueron épocas glaciales.
Respuesta científica
Cuando en el pasado los niveles de CO2 fueron mayores, la intensidad de la radiación solar era también mucho menor. El efecto combinado del sol y el CO2 encaja correctamente con el clima del momento.
Comentario
A lo largo de la historia de la Tierra ha habido ocasiones en que los niveles de CO2 en la atmósfera han sido superiores a los de la actualidad. Sorprendentemente, el planeta experimentó amplias regiones glaciales durante esos períodos. ¿Contradice esto el efecto del CO2? No, por un simple motivo: el CO2 no es el único regulador del clima. Para entender el clima del pasado es preciso incluir otros forzamientos. Para ello, un estudio agrupó 490 medidas indirectas (proxy) y reconstruyó los niveles de CO2 a lo largo de los últimos 540 millones de años ). Este período es conocido por la denominación de Eón Farenozoico.
Fig. 1.- Concentración atmosférica de CO2 a lo largo del Farenozoico. La línea de puntos muestra las predicciones del modelo del ciclo del carbono GEOCARB, y la zona gris corresponde al margen de incertidumbre. Las líneas continuas muestran representaciones suavizadas de los registros indirectos).
Los niveles atmosféricos de CO2 han alcanzado valores espectaculares en la gran antigüedad, tal vez llegando a 5.000 ppmv en el Ordovícico tardío, hace 440 millones de años. Sin embargo, la actividad solar es menor cuanto más lejos nos situemos en el tiempo. En el Farenozoico temprano, la actividad solar era un 4% menor que en la actualidad. El efecto combinado de esa intensidad solar con esos niveles de CO2 da como resultado neto.
Farenozoico. Los valores están expresados en relación a los del período preindustrial (CO2 = 280 ppmv; luminosidad solar = 342 W/m2). Las bandas oscuras corresponden a períodos con fuerte evidencia de hielo generalizado.
Los períodos con bajos niveles de CO2 se corresponden con los de épocas glaciales (con una excepción notable, mencionada más abajo). Esto nos lleva al concepto del nivel umbral de CO2-hielo: el nivel de CO2 requerido para iniciar una glaciación. Cuando el sol es menos intenso, este umbral es mucho más elevado. Por ejemplo, mientras que el umbral de CO2-hielo se sitúa, en las condiciones actuales, en 500 ppmv, el umbral equivalente en el Ordovícico tardío (hace 450 millones de años) era de 3.000 ppmv.
Sin embargo, hasta hace poco se creía que los niveles de CO2 en el Ordovícico tardío eran muy superiores a 3.000 ppmv, lo que resultaba problemático en tanto que se sabía la Tierra estaba experimentando condiciones de glaciación. Los datos de CO2 en el Ordovícico tardío son escasos, y cubren un único punto cercano a este período. Este punto muestra un nivel de CO2 de 5.600 ppmv. Dado que la intensidad solar era del orden del 4% inferior que el nivel actual, el CO2 debería ser de 3.000 ppmv para permitir la condición glacial.
¿Puede reducirse el nivel de CO2 tan deprisa? Dada la baja resolución temporal del registro de CO2, esos datos no eran concluyentes.
Una investigación de los isótopos de estroncio de los sedimentos del momento arrojó mayor luz sobre la cuestión. La meteorización de las rocas retira CO2 de la atmósfera. Este proceso produce a su vez un isótopo particular del estroncio, que es llevado al océano por los ríos. La relación de los isótopos de estroncio en las capas de sedimento puede ser empleada para construir una indicación de la actividad de la meteorización continental. Este registro muestra que, cerca del Ordovícico mediano, el aumento de la meteorización conllevó un mayor consumo de CO2 por la corteza terrestre. Sin embargo, este hecho resultó compensado por la fuerte actividad volcánica, que añadía más CO2 a la atmósfera. Pero hace unos 446 millones de años, la actividad volcánica decayó, mientras que se mantuvo el nivel de meteorización. Esto hizo que el nivel de CO2 descendiera por debajo de las 3.000 ppmv, iniciándose el enfriamiento. Resulta pues que la disminución del nivel de CO2 fue la causa de la glaciación del Ordovícico.
Vemos pues que las comparaciones del clima actual con el de períodos de hace 500 millones de años requieren tener en cuenta la intensidad solar, mucho menos que la del presente. Pero ¿qué ocurrió en tiempos más recientes? El período más reciente en el que los niveles de CO2 fueron similares a los actuales (400 ppmv) se dio hace 15 millones de años, durante el Mioceno medio. ¿Cómo era el clima entonces? La temperatura media de la Tierra era entre 2,8 ºC y 5,5 ºC mayor. El nivel del mar entre 22,8 y 36,5 metros mayor. No había hielo permanente en el Ártico, y muy poco en la Antártica y en Groenlandia. Este importante acoplamiento entre CO2 y clima llevó al autor a concluir que “las observaciones geológicas de las que ahora disponemos, de los últimos 20 millones de años, soportan fuertemente la idea de que el dióxido de carbono ha sido un factor determinante del clima a lo largo de la historia de la Tierra” .
Si los climatólogos afirmaran que el CO2 fuera el único regulador del clima, sería difícil compatibilizar esta afirmación con los períodos glaciales. Pero todo climatólogo le dirá que el CO2 no es el único regulador. La climatóloga Dana Royer lo manifiesta mejor: “los registros geológicos contienen un tesoro oculto de ‘Tierras alternativas’ que permiten a los científicos estudiar de qué forma responden los distintos componentes del sistema climático a las variaciones de distintos forzamientos.”
Períodos anteriores de mayores concentraciones de CO2 no contradicen, pues, la noción de que el CO2 hace aumentar la temperatura. Por el contrario, confirman su estrecha relación.


NEREA MARQUES

martes, 8 de junio de 2010

Clases de Composites.

Materiales Compuestos o “Composites”
Definición y utilidad
Un objetivo siempre deseado ha sido la obtención de un material que tenga a la vez gran ductilidad y dureza extrema .
Los materiales simples y homogéneos no combinan estas cualidades
Los metales han servido como una solución de compromiso
Definición y utilidad
Las necesidades crecientes de materiales cada vez más livianos, resistentes y duros, han llevado al desarrollo de materiales compuestos
Se utiliza la combinación de una matriz dúctil y resistente con la dureza de fibras o partículas.
Ejemplos de uso
Sistemas compuestos
No interactúan químicamente
Tienen una mejor relación resistencia – peso que los materiales homogéneos
Tabla resistencia - peso
Tipos de materiales compuestos
Matriz reforzada con fibras
Laminados
Matriz reforzada con partículas
Propiedades buscadas
La obtención de compuestos se debe a la búsqueda de una o más de las siguientes propiedades:
Resistencia Dureza Peso Respuesta a temperaturas extremas Conducción o aislamiento térmico Conducción o aislamiento acústico Respuesta química o comportamiento inerte Aislamiento o conducción electromagnética Resistencia a fractura Costo Fabricación
Material estructural o matriz
A) Plásticos o polímeros
Termofijos: poliéster, epoxies, fenólicos
Termoplásticos: nylon, polietileno, poliestireno, polipropileno,
Material estructural o matriz
B) Metales
Hierro, acero
Aluminio
Zinc
Cobre
Níquel
Plata
Titanio
Magnesio
C) Cerámicos
Whipox ® Rotor Al - SiC
Materiales de refuerzo
a) Vidrio (fibra de vidrio)
b) Nylon, Kevlar, Spectra (polietileno)
c) Metales (continuos, trozados o fibras): grafito, titanio, hierro, acero.
d) Cerámicas
e) Partículas
Spectra ®
Matrices reforzadas con fibras
La resistencia la proporcionan las fibras, mientras que la ductilidad y tenacidad la matriz.
Las fibras son muy pequeñas y tienen pocos defectos, lo que les da su fortaleza.
Generalmente tienen mayor resistencia en la dirección de las fibras
Tipos de fibras de refuerzo
a) Fibra de vidrio: los filamentos de vidrio son los materiales más populares como refuerzo. Se utilizan varios tipos de vidrio con aditivos para mejorar las propiedades. Tienen alta resistencia pero poca rigidez.
Son de bajo costo
Se utilizan con resinas epoxy, poliésteres y poliamidas.
Proceso de la fibra de vidrio
Tipos de fibras de refuerzo
b) Fibras de boro
Utilizadas en la industria aeroespacial
Tiene la misma resistencia que el vidrio pero mayor rigidez (4 a 5 veces más)
Son bastante más caras
Se las utiliza con resina epoxy
Tipos de fibras de refuerzo
c) Fibras de carbono y/o grafito: se obtienen a partir de dos materias primas: brea o poliacrilonitrilo (PAN)
A partir del PAN se realizan varios procesos:
I) Oxidación
II) Carbonización (grafitización)
III) Tratamiento de superficie
+ información: http://www.geocities.com/CapeCanaveral/1320/ (en inglés)

Propiedades de la fibra de carbono
Aplicaciones aeronáuticas
Aplicaciones aeronáuticas Desde interiores…… Hasta partes críticas
Tipos de fibras de refuerzo
c) Aramidas (Kevlar): es una poliamida fabricada por DuPont, que se comenzó a comercializar en 1972
Dos variedades: Kevlar 29 (tal como se obtiene) y Kevlar 49 (para composites)
+ info: http://www2.dupont.com/Kevlar/en_US/
Usos del Kevlar
Refuerzos particulados
Los refuerzos más importantes son:
Carburos cementados (“cermets”): consisten de un material cerámico duro disperso en una matriz metálica.
Un ejemplo típico es el carburo de tungsteno, disperso en carbono metálico (herramientas de corte)
Uso de los “cermets”
Refuerzos particulados
2) Polímeros reforzados con partículas: los elastómeros y los plásticos se refuerzan frecuentemente con partículas.
Un caso típico son los cauchos que se refuerzan con negro de humo.
Laminados
Un caso típico es el laminado de tres o más capas de madera con resinas fenólicas, bajo determinadas condiciones de calor y presión.
Un clásico es la “Fórmica”, que es un laminado de melamina y resinas fenólicas
Laminados
Matrices poliméricas
Matrices poliméricas
b) Resinas de poliéster: otra opción muy común a las resinas epoxy. Su ventaja es su bajo costo
c) Resinas fenólicas: son termoplásticas a baja temperatura. Son más baratas y livianas que las epoxy y muchas de las de poliester.
No son tan utilizadas, una de sus desventajas es el encogimiento durante el curado
Resinas epoxy: son plásticos termoestables. Tienen gran resistencia, y se adhieren a la mayor parte de metales y fibras.
Se refuerza con fibra de vidrio, boro, kevlar, grafito o fibras metálicas.


nerea Marqués Marín y Sara Pérez Fernández