Tecnología antigua de 2000 años de antigüedad para recubrimientos metálicos superior a los estándares actuales

Tecnología antigua de 2000 años de antigüedad para recubrimientos metálicos superior a los estándares actuales

La investigación ha demostrado que los artesanos hace 2.000 años usaban una forma de tecnología antigua para aplicar películas delgadas de metal a estatuas y otros artículos, que era superior a los estándares actuales para producir DVD, células solares, dispositivos electrónicos y otros productos.

El increíble descubrimiento, publicado en julio de 2013 en la revista Accounts of Chemical Research, confirmó "el alto nivel de competencia alcanzado por los artistas y artesanos de estos períodos ancestrales que produjeron objetos de una calidad artística inigualable en la antigüedad. y aún no se ha alcanzado en los modernos ".

El dorado al fuego y el plateado son procesos ancestrales basados ​​en mercurio que se utilizan para revestir la superficie de elementos como joyas, estatuas y amuletos con finas capas de oro o plata. Si bien se usaba principalmente para decoración, a veces se usaba de manera fraudulenta para simular la apariencia del oro o la plata en un metal menos precioso.

Desde un punto de vista tecnológico, lo que los antiguos doradores lograron hace 2000 años, fue hacer que los recubrimientos metálicos fueran increíblemente delgados, adherentes y uniformes, lo que ahorró metales costosos y mejoró su durabilidad, algo que nunca se ha logrado al mismo nivel en la actualidad.

Aparentemente, sin ningún conocimiento sobre los procesos químico-físicos, los antiguos artesanos manipulaban sistemáticamente los metales para crear resultados espectaculares. Desarrollaron una variedad de técnicas, incluido el uso de mercurio como pegamento para aplicar películas delgadas de metales, como oro y plata, a los objetos.

Si bien los científicos concluyeron que sus resultados eran importantes porque podrían ayudar a preservar los tesoros artísticos y de otro tipo del pasado, los hallazgos podrían tener una importancia aún mayor, ya que una vez más demuestran que había un nivel mucho más alto de comprensión y conocimiento de conceptos avanzados. y técnicas en nuestro pasado antiguo de lo que se les atribuye. Otros ejemplos de tecnología antigua incluyen el mecanismo Antikythera de 2000 años de antigüedad, un antiguo dispositivo metálico que consiste en una combinación compleja de engranajes que se cree que se utilizó para calcular las posiciones de los cuerpos celestes para determinar los eclipses solares y lunares con precisión precisa, y la Batería de Bagdad, una vasija de barro que encapsula un cilindro de cobre con una barra de hierro suspendida en el centro que parece ser la forma más antigua de una batería eléctrica.

El nivel de sofisticación presente hace 2.000 años e incluso antes es desconcertante y plantea muchas preguntas sobre de dónde vino el conocimiento y cómo se originó. Una cosa es segura, nuestros libros de historia deben reescribirse para incluir logros tan significativos de nuestro pasado antiguo y no simplemente dejarlos de lado en la canasta "demasiado difícil de entender".


    La historia del bisturí: del pedernal al acero recubierto de circonio

    Nota del editor: El siguiente artículo está basado en un póster presentado en la Sesión de pósteres de Historia de la Cirugía en el Congreso Clínico del Colegio Americano de Cirujanos (ACS) 2017 en San Diego, CA. La sesión es patrocinada cada año por el Grupo de Historia Quirúrgica. Para obtener más información, visite el sitio web de ACS.

    El bisturí, uno de los primeros instrumentos quirúrgicos, ha evolucionado durante 10 milenios. Si bien la palabra “bisturí” deriva de la palabra latina scallpellus, los instrumentos físicos que utilizan los cirujanos hoy en día comenzaron como herramientas de corte de pedernal y obsidiana durante la Edad de Piedra. A medida que la cirugía se convirtió en una profesión, también evolucionaron los cuchillos dedicados a usos específicos. Los cirujanos barberos embellecían sus bisturíes como parte del arte de su oficio. Más tarde, los cirujanos apreciaron la velocidad y la agudeza. Los avances actuales en la tecnología del bisturí incluyen medidas de seguridad adicionales y recubrimientos de piedras preciosas y polímeros. El instrumento por excelencia de los cirujanos, el bisturí es el símbolo de larga data de la disciplina. El seguimiento de la historia de esta herramienta refleja la evolución de la cirugía como cultura y como profesión.


    Una mirada al pasado sobre el auge de la industria de los techos

    Esta publicación es parte de una serie mensual que explora las aplicaciones históricas de los materiales y sistemas de construcción, utilizando recursos de la Building Technology Heritage Library (BTHL), una colección en línea de catálogos AEC, folletos, publicaciones comerciales y más. El BTHL es un proyecto de la Association for Preservation Technology, una organización internacional de preservación de edificios. Lea más sobre el archivo aquí.

    El papel del techo no puede subestimarse. Protege los interiores de un edificio y sus ocupantes de las fuerzas de la naturaleza, protege los sistemas de servicios vitales y ayuda a definir la estética del exterior. La necesidad del techo ha generado su ubicuidad y, por extensión, ha fomentado un mercado sólido para materiales para techos que varían en rendimiento y características físicas.

    Estos materiales tienen una larga historia y su evolución ha sido impulsada en gran medida por el rendimiento. Las tejas de madera y pizarra y las tejas de arcilla fueron la elección predominante para techos hasta mediados del siglo XIX, cuando los sistemas de techos de metal y bituminoso hicieron posible las aplicaciones en pendientes bajas. Durante el siglo XX, se desarrollaron varios materiales nuevos para techos de pendiente baja y pronunciada. Entre ellos se encontraba la teja de asfalto, que llegó a la escena a principios del siglo XX y sigue siendo el material de techo superior para las casas. Después de un período de experimentación en el mercado con diversas formas, patrones y texturas, la teja de asfalto evolucionó hasta convertirse en la versión de tres pestañas más popular en la actualidad.

    Los materiales compuestos, como el asbesto y el fibrocemento, rivalizaron con el asfalto durante un tiempo al pretender un mejor rendimiento al intentar reproducir materiales tradicionales como la pizarra o las tejas de arcilla. Posteriormente, la imitación se convirtió en un tema en la categoría de techos, con ejemplos tempranos que incluyen tejas de metal que replican el aspecto de tejas de arcilla y tejas de asfalto que simulan techos de paja. El siglo XX también vio el desarrollo de materiales para techos con varios niveles de durabilidad y resistencia al fuego, así como la introducción de componentes relacionados con el techo, como canalones, bajantes y tapajuntas.

    Los siguientes folletos, panfletos y revistas de la biblioteca digital Building Technology Heritage Library exploran cómo evolucionaron los sistemas de techado a lo largo del siglo XX.

    H.M. Reynolds Shingle Co., 1910: El H.M. Reynolds Company de Grand Rapids, Michigan, afirmó a principios del siglo XX haber inventado las tejas de asfalto para techos. Al igual que con muchos productos ahora omnipresentes, esto es difícil de probar. Sin embargo, el techo de asfalto laminado recubierto con gránulos de pizarra estaba disponible a fines del siglo XIX, por lo que no es exagerado ver cómo se pudo haber usado el material para hacer tejas individuales poco después; también hace que sea aún más difícil determinar quién, exactamente , lo hizo primero. Las tejas de asfalto estaban ampliamente disponibles en 1910 y reemplazaron rápidamente a las tejas de madera debido a su economía y resistencia al fuego. A lo largo del siglo XX, la teja de asfalto evolucionó para incluir una variedad de formas y texturas con el revestimiento de pizarra triturada reemplazado por gránulos de cerámica.

    Penrhyn Stone: techos de pizarra de calidad, J. W. Williams Slate Co., c. 1930: La pizarra ha sido durante mucho tiempo un material para techos prominente a nivel regional en el noreste de los EE. UU. Y partes cercanas de Canadá debido a la abundancia de canteras de pizarra en el área. La pizarra también se hizo popular en el resto de los EE. UU. En estilos de época de arquitectura residencial y comercial. La extrema durabilidad del material lo hizo popular entre los propietarios institucionales. También es bastante pesado, adecuado para techos empinados, en lugar de poco profundos. De la gama limitada de colores de pizarra, el rojo es el más raro y, por lo tanto, se usa típicamente para acentos ornamentales.

    Manual de Barrett sobre techado e impermeabilización para arquitectos, ingenieros y constructores, Barrett Manufacturing Co., 1896: El desarrollo de techos construidos, que comprenden capas alternas de tela impregnada de asfalto y revestimientos bituminosos, cambió la forma de los edificios, literalmente, en las regiones templadas de los EE. UU. ya no es necesario para la protección contra la lluvia, y los techos planos resultantes cambiarían para siempre la escala y la apariencia del entorno construido. Barrett Manufacturing Co., en Nueva York, fue un importante productor de materiales para techos construidos, y BTHL presenta los catálogos técnicos de la empresa desde la década de 1890 hasta la de 1950.

    Productos para techos de acero Republic, Republic Steel Co., c. 1939: Los grandes paneles de acero para techos fueron particularmente populares para edificios agrícolas e industriales. Las corrugaciones permitieron que los paneles se extendieran a distancias más largas, lo que redujo el volumen del material y el peso de la estructura, mientras que los revestimientos galvanizados dieron a los paneles una vida útil más larga. El material, que se originó en el siglo XIX, sigue siendo muy utilizado en la actualidad.

    Manual Certigrade de tejas de cedro rojo, Red Cedar Shingle Bureau, 1957: Las tejas de cedro comúnmente cubrieron las estructuras residenciales durante el siglo XIX, pero fueron suplantadas en popularidad en el siglo XX por el asfalto. La tipología de tejas ha sido revivida en el siglo XXI para aplicaciones de techos y revestimientos, generalmente en proyectos de alto nivel.

    El Libro de los Techos, Johns Manville, 1923: La combinación de asbesto y cemento resultó en fibrocemento que, cuando se aplicaba como tejas para techos, resultó en un producto extremadamente duradero que pesaba significativamente menos que las tejas de arcilla y pizarra. Las tejas de fibrocemento que simulaban el aspecto de la pizarra y la arcilla eran particularmente comunes. Una variación popular fue un factor de forma hexagonal a gran escala que produjo un patrón distintivo.

    Sobre el Autor

    Mike Jackson, FAIA, es un arquitecto con sede en Springfield, Illinois y profesor invitado de arquitectura en la Universidad de Illinois Urbana – Champaign. Dirigió la división de arquitectura de la Agencia de Preservación Histórica de Illinois durante más de 30 años y ahora defiende el desarrollo de la Biblioteca del Patrimonio de Tecnología de la Construcción de la Asociación para la Tecnología de Preservación, un archivo en línea de documentos AEC anteriores a 1964.


    Identificar el problema antes de volver a apuntar volver al principio & # 9650

    La decisión de volver a apuntar suele estar relacionada con algún signo obvio de deterioro, como mortero desintegrado, grietas en las juntas de mortero, ladrillos o piedras sueltas, paredes húmedas o yeserías dañadas. Sin embargo, es erróneo suponer que la reasignación por sí sola resolverá las deficiencias que resultan de otros problemas. La causa principal del deterioro y mdashugas en los techos o canaletas, el asentamiento diferencial del edificio, la acción capilar que causa el aumento de la humedad o la exposición a condiciones climáticas extremas siempre deben tratarse antes de comenzar a trabajar.

    Los albañiles practican el uso de mortero de cal para reparar mármol histórico. Foto: archivos NPS.

    Sin las reparaciones adecuadas para eliminar la fuente del problema, el deterioro del mortero continuará y cualquier reposición habrá sido una pérdida de tiempo y dinero.


    Cronología de la nanotecnología

    Esta línea de tiempo presenta ejemplos premodernos de nanotecnología, así como descubrimientos e hitos de la era moderna en el campo de la nanotecnología.

    Ejemplos premodernos de nanotecnologías

    Los primeros ejemplos de materiales nanoestructurados se basaron en la comprensión empírica y la manipulación de materiales por parte de los artesanos. El uso de altas temperaturas fue un paso común en sus procesos para producir estos materiales con propiedades novedosas.

    La Copa Licurgo en el Museo Británico, iluminada desde el exterior (izquierda) y desde el interior (Derecha)

    Siglo IV: los Copa de Licurgo (Roma) es un ejemplo de vidrio dicroico El oro coloidal y la plata en el vidrio permiten que se vea de un verde opaco cuando se ilumina desde el exterior, pero de un rojo translúcido cuando la luz atraviesa el interior. (Imágenes a la izquierda.)

    Cuenco de lustreware policromado, siglo IX, Iraq, Museo Británico (©Trinitat Pradell 2008)

    Siglos IX-XVII: Resplandeciente, resplandeciente Esmaltes cerámicos "lustre" utilizados en el mundo islámico, y más tarde en Europa, contenía plata o cobre u otras nanopartículas metálicas. (Imagen a la derecha).

    El rosetón del sur de la catedral de Notre Dame, ca 1250

    Siglos VI-XV: Vibrante vidrieras en las catedrales europeas debían sus ricos colores a las nanopartículas de cloruro de oro y otros óxidos y cloruros metálicos, las nanopartículas de oro también actuaban como Purificadores de aire fotocatalíticos. (Imagen a la izquierda).

    Siglos XIII-XVIII: Hojas de sable "Damasco" contenía nanotubos de carbono y nanocables de cementita, una formulación de acero con alto contenido de carbono que les dio fuerza, resistencia, la capacidad de mantener un filo afilado y un patrón de muaré visible en el acero que da nombre a las hojas. (Imágenes a continuación).

    (Izquierda) Un sable de Damasco (foto de Tina Fineberg para The New York Times). (Derecha) Imagen de microscopía electrónica de transmisión de alta resolución de nanotubos de carbono en un auténtico sable de Damasco después de la disolución en ácido clorhídrico, que muestra restos de nanocables de cementita encapsulados por nanotubos de carbono (barra de escala, 5 nm) (M. Reibold, P. Paufler, AA Levin, W. Kochmann, N. Pätzke y amplificador DC Meyer, Naturaleza 444, 286, 2006).

    Ejemplos de descubrimientos y desarrollos que posibilitaron la nanotecnología en la era moderna

    Estos se basan en una comprensión e instrumentación científicas cada vez más sofisticadas, así como en la experimentación.

    Coloide de oro "rubí" (Boletín de oro 2007 40,4, pág. 267)

    1857: Michael Faraday descubrió oro coloidal "rubí", demostrando que el oro nanoestructurado bajo ciertas condiciones de iluminación produce soluciones de diferentes colores.

    1936: Erwin Müller, que trabaja en el Laboratorio de Investigación de Siemens, inventó el microscopio de emisión de campo, lo que permite imágenes de materiales con una resolución casi atómica.

    1947: John Bardeen, William Shockley y Walter Brattain en Bell Labs descubrieron la transistor semiconductor y un conocimiento científico muy ampliado de las interfaces de semiconductores, sentando las bases para los dispositivos electrónicos y la era de la información.

    Transistor de 1947, Bell Labs

    1950: Victor La Mer y Robert Dinegar desarrollaron el teoría y un proceso para cultivar materiales coloidales monodispersos. La capacidad controlada para fabricar coloides permite innumerables usos industriales, como papeles, pinturas y películas delgadas especializadas, incluso tratamientos de diálisis.

    1951: Erwin Müller fue pionero en microscopio de iones de campo, un medio para obtener imágenes de la disposición de los átomos en la superficie de una punta de metal afilada, primero tomó imágenes de los átomos de tungsteno.

    1956: Arthur von Hippel del MIT introdujo muchos conceptos de (y acuñó el término)"Ingeniería molecular" aplicado a dieléctricos, ferroeléctricos y piezoeléctricos

    Jack Kilby, alrededor de 1960.

    1958: Jack Kilby de Texas Instruments originó el concepto, diseñó y construyó el primer circuito integrado, por la que recibió el Premio Nobel en 2000. (Imagen a la izquierda).

    Richard Feynman (archivos de Caltech)

    1959: Richard Feynman, del Instituto de Tecnología de California, dio lo que se considera la primera conferencia sobre tecnología e ingeniería a escala atómica ".Hay mucho espacio en la parte inferior"en una reunión de la Sociedad Estadounidense de Física en Caltech. (Imagen a la derecha).

    El primer gráfico público de Moore que muestra su visión de que la industria de los semiconductores es capaz de "meter más componentes en circuitos integrados".

    1965: El cofundador de Intel, Gordon Moore, describió en Electrónica revista varias tendencias que previó en el campo de la electrónica. Una tendencia ahora conocida como "Ley de Moore, ”Describió la densidad de transistores en un chip integrado (IC) que se duplica cada 12 meses (luego se modificó a cada 2 años). Moore también vio cómo el tamaño de los chips y los costos se reducían con su creciente funcionalidad, con un efecto transformador en la forma en que las personas viven y trabajan. El hecho de que la tendencia básica que Moore imaginó ha continuado durante 50 años se debe en gran medida a la creciente dependencia de la industria de los semiconductores en la nanotecnología a medida que los circuitos integrados y los transistores se han acercado a las dimensiones atómicas.1974: El profesor de la Universidad de Ciencias de Tokio Norio Taniguchi acuñó el término nanotecnología describir el mecanizado de precisión de materiales dentro de las tolerancias dimensionales de escala atómica. (Vea el gráfico de la izquierda).

    1981: Gerd Binnig y Heinrich Rohrer del laboratorio de IBM en Zurich inventaron el microscopio de efecto túnel, permitiendo a los científicos "ver" (crear imágenes espaciales directas de) átomos individuales por primera vez. Binnig y Rohrer ganaron el Premio Nobel por este descubrimiento en 1986.

    1981: Alexei Ekimov de Rusia descubrió nanocristalinos semiconductores puntos cuánticos en una matriz de vidrio y realizó estudios pioneros de sus propiedades electrónicas y ópticas.

    1985: Los investigadores de la Universidad de Rice Harold Kroto, Sean O’Brien, Robert Curl y Richard Smalley descubrieron la Buckminsterfullereno (C60), más comúnmente conocido como el buckyball , que es una molécula que se asemeja a un balón de fútbol y está compuesta completamente de carbono, al igual que el grafito y el diamante. El equipo recibió el Premio Nobel de Química de 1996 por su papel en este descubrimiento y el de la clase de moléculas fullereno en general. (Representación del artista a la derecha).

    1985: Louis Brus de Bell Labs descubrió nanocristales semiconductores coloidales (puntos cuánticos), por la que compartió el Premio Kavli de Nanotecnología 2008.

    1986: Gerd Binnig, Calvin Quate y Christoph Gerber inventaron el microscopio de fuerza atómica, que tiene la capacidad de ver, medir y manipular materiales hasta fracciones de un nanómetro de tamaño, incluida la medición de diversas fuerzas intrínsecas a los nanomateriales.

    1989: Don Eigler y Erhard Schweizer en el Centro de Investigación de Almaden de IBM manipuló 35 átomos de xenón individuales para deletrear el logotipo de IBM. Esta demostración de la capacidad de manipular átomos con precisión marcó el comienzo del uso aplicado de la nanotecnología. (Imagen a la izquierda).

    Década de 1990: Las primeras empresas de nanotecnología comenzaron a operar, por ejemplo, Nanophase Technologies en 1989, Helix Energy Solutions Group en 1990, Zyvex en 1997, Nano-Tex en 1998….

    1991: A Sumio Iijima de NEC se le atribuye el descubrimiento de la nanotubos de carbono (CNT), aunque también hubo observaciones tempranas de estructuras tubulares de carbono por otros. Iijima compartió el Premio Kavli en Nanociencia en 2008 por este avance y otros avances en el campo. Los CNT, como las buckybolas, están compuestos enteramente de carbono, pero en forma tubular. Presentan propiedades extraordinarias en términos de resistencia, conductividad eléctrica y térmica, entre otras. (Imagen de abajo).

    Nanotubos de carbono (cortesía, National Science Foundation). Se están explorando las propiedades de los CNT para aplicaciones en electrónica, fotónica, tejidos multifuncionales, biología (por ejemplo, como un andamio para hacer crecer células óseas) y comunicaciones. Ver un 2009 Descubrimiento Artículo de revista para otros ejemplos Micrografía SEM de "papel" de nanotubos purificado en el que los nanotubos son las fibras (barra de escala, 0,001 mm) (cortesía, NASA). Una serie de nanotubos de carbono alineados, que pueden actuar como una antena de radio para detectar luz en longitudes de onda visibles (barra de escala 0,001 mm) (cortesía de K. Kempa, Boston College).

    1992: CONNECTICUT. Kresge y sus colegas de Mobil Oil descubrieron la materiales catalíticos nanoestructurados MCM-41 y MCM-48, ahora se utiliza mucho en la refinación de petróleo crudo, así como para la administración de fármacos, el tratamiento del agua y otras aplicaciones variadas.

    MCM-41 es un nanomaterial de sílice de "tamiz molecular mesoporoso" con una disposición hexagonal o "panal" de sus poros cilíndricos rectos, como se muestra en esta imagen TEM (cortesía de Thomas Pauly, Michigan State University). Esta imagen TEM de MCM-41 observa los poros cilíndricos rectos que se encuentran perpendiculares al eje de visualización (cortesía de Thomas Pauly, Michigan State University).

    1993: Moungi Bawendi del MIT inventó un método de síntesis controlada de nanocristales (puntos cuánticos), allanando el camino para aplicaciones que van desde la informática hasta la biología, la energía fotovoltaica y la iluminación de alta eficiencia. En los próximos años, el trabajo de otros investigadores como Louis Brus y Chris Murray también contribuyó con métodos para sintetizar puntos cuánticos.

    1998: El Grupo de Trabajo Interagencial sobre Nanotecnología (IWGN) se formó en el marco del Consejo Nacional de Ciencia y Tecnología para investigar el estado del arte en ciencia y tecnología a nanoescala y pronosticar posibles desarrollos futuros. El estudio e informe de la IWGN, Direcciones de investigación en nanotecnología: visión para la próxima década (1999) definió la visión y condujo directamente a la formación de la Iniciativa Nacional de Nanotecnología de EE. UU. En 2000.

    La progresión de los pasos del uso de la punta de un microscopio de efecto túnel para "ensamblar" una molécula de carbonilo de hierro, comenzando con moléculas de Fe (hierro) y CO (monóxido de carbono) (A), uniéndolos para producir FeCO (B), luego agregando una segunda molécula de CO (C), para lograr la molécula FECO2 (D). (H.J. Lee, W. Ho, Ciencias 286, 1719 [1999].)

    1999: Los investigadores de la Universidad de Cornell, Wilson Ho y Hyojune Lee, investigaron los secretos de los enlaces químicos mediante ensamblar una molécula [hierro carbonil Fe (CO) 2] de los componentes constituyentes [hierro (Fe) y monóxido de carbono (CO)] con un microscopio de efecto túnel. (Imagen de la izquierda).

    1999: Chad Mirkin de la Universidad de Northwestern inventó nanolitografía por inmersión® (DPN®), que conduce a la “escritura” reproducible y fabricable de circuitos electrónicos, así como a la creación de patrones de biomateriales para la investigación de biología celular, nanoencriptación y otras aplicaciones. (Imagen de abajo a la derecha).

    Uso de DPN para depositar biomateriales © 2010 Nanoink

    1999-principios de 2000: Productos de consumo El uso de la nanotecnología comenzó a aparecer en el mercado, incluidos los parachoques de automóviles livianos habilitados con nanotecnología que resisten abolladuras y raspaduras, pelotas de golf que vuelan más rectas, raquetas de tenis más rígidas (por lo tanto, la pelota rebota más rápido), bates de béisbol con mejor flexión y " kick, "calcetines antibacterianos de nano-plata, protectores solares transparentes, ropa resistente a las arrugas y las manchas, cosméticos terapéuticos de penetración profunda, revestimientos de vidrio resistentes a los arañazos, baterías de recarga más rápida para herramientas eléctricas inalámbricas y pantallas mejoradas para televisores, teléfonos celulares, y cámaras digitales.

    2000: El presidente Clinton lanzó la Iniciativa Nacional de Nanotecnología (NNI) para coordinar los esfuerzos federales de I + D + i y promover la competitividad estadounidense en nanotecnología. El Congreso financió el NNI por primera vez en el año fiscal 2001. El Subcomité NSET del NSTC fue designado como el grupo interagencial responsable de coordinar el NNI.

    2003: El Congreso promulgó la Ley de Investigación y Desarrollo de Nanotecnología del Siglo XXI (P.L. 108-153). La ley proporcionó una base legal para el NNI, estableció programas, asignó responsabilidades de agencia, autorizó los niveles de financiación y promovió la investigación para abordar cuestiones clave.

    Simulación por computadora del crecimiento de nanocapas de oro con núcleo de sílice y una capa superior de oro (cortesía de N. Halas, Genome News Network, 2003)

    2003: Naomi Halas, Jennifer West, Rebekah Drezek y Renata Pasqualin de la Universidad de Rice desarrollaron nanoconchas de oro, que cuando se "ajustan" en tamaño para absorber la luz del infrarrojo cercano, sirven como plataforma para el descubrimiento, diagnóstico y tratamiento integrados del cáncer de mama. sin biopsias invasivas, cirugía o radiación o quimioterapia sistémicamente destructiva.2004: La Comisión Europea adoptó la Comunicación “Hacia una estrategia europea de nanotecnología, ”COM (2004) 338, que proponía institucionalizar los esfuerzos europeos de I + D + i en nanociencia y nanotecnología dentro de una estrategia integrada y responsable, y que impulsaba los planes de acción europeos y la financiación continua para I + D en nanotecnología. (Imagen de la izquierda).

    2004: Publicación de la Royal Society y la Royal Academy of Engineering de Gran Bretaña Nanociencia y nanotecnologías: oportunidades e incertidumbres abogando por la necesidad de abordar los problemas potenciales de salud, ambientales, sociales, éticos y regulatorios asociados con la nanotecnología.

    2004: SUNY Albany lanzó el primer programa de educación a nivel universitario en nanotecnología en los Estados Unidos, el Facultad de Ciencias e Ingeniería a Nanoescala.

    2005: Erik Winfree y Paul Rothemund del Instituto de Tecnología de California desarrollaron teorías para Computación basada en ADN y "autoensamblaje algorítmico”En el que los cálculos están integrados en el proceso de crecimiento de nanocristales.

    Nanocar con ruedas giratorias de buckyball (crédito: RSC, 29 de marzo de 2006).

    2006: James Tour y sus colegas de la Universidad de Rice construyeron un coche a nanoescala hecho de oligo (fenilen etinileno) con ejes de alquinilo y cuatro ruedas esféricas de fullereno C60 (buckyball). En respuesta a los aumentos de temperatura, el nanocoche se movía sobre una superficie dorada como resultado del giro de las ruedas de buckyball, como en un coche convencional. ¡A temperaturas superiores a 300 ° C, se movía demasiado rápido para que los químicos pudieran seguirlo! (Imagen de la izquierda).

    2007: Angela Belcher y sus colegas del MIT construyeron un batería de iones de litio con un tipo común de virus que no sea dañino para los humanos, utilizando un proceso de bajo costo y benigno para el medio ambiente. Las baterías tienen la misma capacidad de energía y rendimiento energético que las baterías recargables de última generación que se consideran para alimentar automóviles híbridos enchufables, y también podrían usarse para alimentar dispositivos electrónicos personales. (Imagen a la derecha).

    (De izquierda a derecha) Los profesores del MIT Yet-Ming Chiang, Angela Belcher y Paula Hammond muestran una película cargada de virus que puede servir como ánodo de una batería. (Foto: Donna Coveney, MIT News).

    2008: El primer oficial Estrategia de NNI para la investigación ambiental, de salud y seguridad (EHS) relacionada con la nanotecnología fue publicado, basado en un proceso de dos años de investigaciones patrocinadas por NNI y diálogos públicos. Este documento de estrategia se actualizó en 2011, luego de una serie de talleres y revisión pública.

    2009–2010: Nadrian Seeman y sus colegas de la Universidad de Nueva York crearon varios Dispositivos de ensamblaje a nanoescala robóticos similares al ADN. Uno es un proceso para crear estructuras de ADN en 3D utilizando secuencias sintéticas de cristales de ADN que pueden programarse para autoensamblarse mediante "extremos adhesivos" y colocarlos en un orden y orientación establecidos. La nanoelectrónica podría beneficiarse: la flexibilidad y la densidad que permiten los componentes a nanoescala 3D podrían permitir el ensamblaje de piezas más pequeñas, más complejas y más espaciadas. Otra creación de Seeman (con colegas de la Universidad de Nanjing de China) es una "línea de montaje de ADN". Por este trabajo, Seeman compartió el Premio Kavli en Nanociencia en 2010.

    2010: IBM utilizó una punta de silicio que medía solo unos pocos nanómetros en su vértice (similar a las puntas utilizadas en los microscopios de fuerza atómica) para cincelar material de un sustrato para crear un mapa en relieve 3D a nanoescala completo del mundo una milésima del tamaño de un grano de sal, en 2 minutos y 23 segundos. Esta actividad demostró una poderosa metodología de creación de patrones para generar patrones y estructuras a nanoescala tan pequeñas como 15 nanómetros a un costo y una complejidad muy reducidos, lo que abre nuevas perspectivas para campos como la electrónica, la optoelectrónica y la medicina. (Imagen de abajo).

    Una imagen renderizada de una punta de silicio a nanoescala cincelando el mapa en relieve más pequeño del mundo a partir de un sustrato de vidrio molecular orgánico. En primer plano medio se muestra el mar Mediterráneo y Europa. (Imagen cortesía de Materiales avanzados.)


    2011:
    El Subcomité NSET actualizó tanto el Plan Estratégico NNI y el Estrategia de investigación ambiental, de salud y seguridad de NNI, aprovechando las numerosas aportaciones de los talleres públicos y el diálogo en línea con las partes interesadas del gobierno, el mundo académico, las ONG y el público, entre otros.

    2012: El NNI lanzó dos más Iniciativas exclusivas de nanotecnología (NSI) - Nanosensores e Infraestructura de Conocimiento de Nanotecnología (NKI) - lo que lleva el total a cinco NSI.

    2013:
    -El NNI comienza la siguiente ronda de Planificación estratégica, comenzando con el Taller de partes interesadas.
    -Los investigadores de Stanford desarrollan la primera computadora con nanotubos de carbono.


    Cronología de la historia y tipos de pintura automotriz

    ¿Qué es lo primero que nota cuando ve un automóvil o camión viejo por primera vez? Si eres como la mayoría de la gente, la respuesta probablemente sea la pintura. No solo el color, sino también el estado general del acabado de la pintura. ¿Tiene un hermoso brillo intenso o una “pátina” suave y agradable que solo las manos del tiempo y la exposición al sol y la intemperie pueden producir? Por supuesto, todo es subjetivo, ya que esperaríamos que una restauración de alto nivel recientemente completada tenga una apariencia impecable, similar a un espejo. Por el contrario, un automóvil o camión que tiene 40, 50, 60 años o incluso más y todavía usa su acabado aplicado de fábrica es muy admirado y muy apreciado por su belleza, a pesar de que se puede usar hasta la imprimación después de muchos años de ser amorosamente. pulido o incluso mostrando con orgullo algunas corridas o imperfecciones que adquirió de la mano de ese pintor de línea de producción tantos años antes.

    De hecho, en muchos eventos de la feria, un automóvil o camión sin restaurar con su pintura original a menudo atraerá mucha más atención por parte de los admiradores que un ejemplo perfectamente restaurado. Lo que es aún más notable cuando admiramos estos viejos acabados conservados es el hecho de que esas pinturas no eran realmente tan buenas en comparación con las que están disponibles en la actualidad. Esto no quiere decir que esas pinturas fueran de calidad inferior ya que los fabricantes generalmente usaban los mejores materiales que estaban disponibles con cualquier tecnología de recubrimiento permitida en el período. También es importante considerar que, a medida que avanzaban las décadas hacia la década de 1950 y 1960, el tiempo necesario para aplicar pintura se convirtió cada vez más en un factor más crítico en el ensamblaje de un automóvil y, con la excepción de algunos de los automóviles de lujo más caros, un pocas fallas, como las corridas, la textura y el exceso de pulverización, se consideraron aceptables y, de hecho, algunas organizaciones de jueces de espectáculos las buscaron en la actualidad.

    En los primeros días del automóvil, los maestros artesanos de muebles y carruajes aplicaban minuciosamente esmaltes o barnices primitivos a base de aceite y revestimientos de acabado de ¡cepillar! Estos acabados tenían una opacidad algo pobre que requirió numerosas capas para cubrirse y tardaron semanas en secarse. Utilizaron principalmente pigmentos de tinta que tendían a ser colores más oscuros. Estos recubrimientos no resistieron muy bien el clima y la luz solar y tendieron a secarse y quebrarse en poco tiempo. Dado que esos trabajos de pintura no duraban tanto tiempo, en esos días, era común que un propietario comprara pintura en una ferretería o un catálogo de pedidos por correo como Montgomery Ward junto con un buen cepillo de pelo de caballo o pintar el coche. Con la idea de preservar el automóvil, algunas personas incluso lo hicieron cada año más o menos ... ¡con brocha, por supuesto!

    Varios fabricantes, incluido Ford en la línea Modelo T, utilizaron una combinación de cepillado, inmersión e incluso vertido para cubrir y proteger completamente las diversas partes de un automóvil o camión. La década de 1920 vio el comienzo de la introducción de equipos de pulverización y lacas e imprimaciones de nitrocelulosa que se desarrollaron juntos para acelerar la aplicación y el tiempo de secado a una semana o menos, lo que redujo drásticamente el tiempo necesario para pintar un automóvil, aunque todavía requerían mucho trabajo y tiempo. consumir frotamiento de manos para lograr un brillo. Esto no fue especialmente cierto en la producción de los primeros camiones, sin embargo, la mayoría de los camiones de las décadas de 1920 a 1960 se consideraban equipos de trabajo sencillos construidos para ser usados ​​y abusados, no para ser mimados y mimados. A great example of this is with 1930’s Model AA Ford trucks with that were built with dull, non-shiny, non-rubbed lacquer finishes. Rubbing-out was an extra-cost Ford AA truck option that according to a Ford service letter of 06-05-31 cost $15.00 extra for the cab, cowl and hood while a pickup bed cost $7.00. In addition to reduced dry times, nitrocellulose lacquers were more durable and allowed the use of brighter colored although more expensive pigments. Interestingly, although with constant improvements, the organic-based nitrocellulose lacquer was used by some manufacturers well into the later 1950s when it was replaced with the much more durable acrylic lacquers and primers which were synthetics.

    Appearing shortly after nitrocellulose lacquers were enamels or more specifically, alkyd enamels and primers. These were generally a thicker material which required fewer coats than lacquers and usually were baked onto a partially assembled vehicle body by passing it through a large oven. This baking hardens the enamel and “flows” it out for a great shine and greater durability. Many more brilliant colors were available with the enamels which became possible due to the use of organic pigments which were widely popular with some of the more flamboyant and attractive two and tri-toned 1950’s combinations. Eventually, the alkyd enamels too were replaced in the early 1960s by the new and superior acrylic enamels and primers favored by several manufacturers.

    Of course as we all know, any paint finish has a limited lifespan and with the harsh conditions it is exposed to, it is remarkable that it can last as long as it does given adequate care. With time and exposure, even the best lacquers will lose their luster, shrink and crack while enamels will fade out and become dull and chalky. These shortcomings and a move toward greater environmental friendliness led to the eventual changeover by most car and truck manufacturers to new base-clear, water-borne systems in the late 1970’s to early 1990s however this period was not without serious issues as many of us will recall the peeling clear coats of many vehicles from that era resulting in scores of cars and truck being repainted through factory warranty claims. Fortunately, the major paint manufactures quickly resolved those problems and the newer finishes are the most durable in history and require virtually no care to survive.

    What does this all mean to the owner of a vintage car or truck today who is planning for a paint job in the near future? To begin with, lacquer, while still available, is very difficult to buy today and is actually illegal for sale in certain areas of the country especially California. This is because of state and federally mandated VOC laws. VOC’s are Volatile Organic Compounds which are chemicals found in paints and solvents that are considered harmful to the environment and living creatures. In addition, with the limited life of a lacquer or enamel paint job and the clear superiority of some of the higher quality modern paints, unless you are striving for 100% authenticity on your restoration, it would probably be to your advantage to choose one of the modern alternatives to lacquer or enamel. With today’s modern paints, there are two major choices suitable for use on a vintage vehicle Single Stage Urethanes also known as Single Stage Urethane Enamels and Two-Stage Urethanes. These urethanes are extremely durable, chip resistant, and chemical resistant and retain their gloss without dulling or fading. The single stage products are only similar to the old air dry lacquers and enamels in that they are one coating with the color, gloss and UV protection all in one material and do not require a clear topcoat. That is, the color is all the way through. They are all 2K formulations which means that an activator must be added per the manufacturer’s instructions which will chemically cure and harden the paint. They can be color sanded and rubbed out to provide that hard to describe yet pleasing, softer “polished bowling ball” look of a genuine lacquer paint job that looks so right on the rounded contours of a restored older car or truck. The two-stage products also known as “base-clear” are also 2K formulations requiring an activator but consist of a thin, no gloss color only film “base” which is sprayed on then top coated with multiple coats of urethane clear. The clear is then responsible for all the UV resistance, gloss and protection of the paint coating. While the two stage base clears do provide an attractive, deep, high gloss finish on more modern vehicles and the clear can also be color sanded and buffed to a glass-like surface, they often can be también glossy and look out of place on an older car.

    Another two-stage, base-clear system is the “water-based” coatings that are rapidly growing in popularity especially in today’s VOC sensitive world. It should be noted however that it is only the color base coat that is water based. At this time, there are no known, successful water-based clear coats. They are still solvent based formulations although the paint manufacturers are working hard to introduce successful, water based clear product.


    Composition of Historic Stucco

    Before the mid-to-late nineteenth century, stucco consisted primarily of hydrated or slaked lime, water and sand, with straw or animal hair included as a binder. Natural cements were frequently used in stucco mixes after their discovery in the United States during the 1820s. Portland cement was first manufactured in the United States in 1871, and it gradually replaced natural cement. After about 1900, most stucco was composed primarily of portland cement, mixed with some lime. With the addition of portland cement, stucco became even more versatile and durable. No longer used just as a coating for a substantial material like masonry or log, stucco could now be applied over wood or metal lath attached to a light wood frame. With this increased strength, stucco ceased to be just a veneer and became a more integral part of the building structure.

    Caulking is not an appropriate method for repairing cracks in historic stucco. Photo: NPS files.

    Today, gypsum, which is hydrated calcium sulfate or sulfate of lime, has to a great extent replaced lime Gypsum is preferred because it hardens faster and has less shrinkage than lime. Lime is generally used only in the finish coat in contemporary stucco work.

    The composition of stucco depended on local custom and available materials. Stucco often contained substantial amounts of mud or clay, marble or brick dust, or even sawdust, and an array of additives ranging from animal blood or urine, to eggs, keratin or gluesize (animal hooves and horns), varnish, wheat paste, sugar, salt, sodium silicate, alum, tallow, linseed oil, beeswax, and wine, beer, or rye whiskey. Waxes, fats and oils were included to introduce water-repellent properties, sugary materials reduced the amount of water needed and slowed down the setting time, and alcohol acted as an air entrainer. All of these additives contributed to the strength and durability of the stucco.

    The appearance of much stucco was determined by the color of the sand&mdashor sometimes burnt clay&mdashused in the mix, but often stucco was also tinted with natural pigments, or the surface whitewashed or color-washed after stuccoing was completed. Brick dust could provide color, and other coloring materials that were not affected by lime, mostly mineral pigments, could be added to the mix for the final finish coat. Stucco was also marbled or marbleized&mdashstained to look like stone by diluting oil of vitriol (sulfuric acid) with water, and mixing this with a yellow ochre, or another color. As the twentieth century progressed, manufactured or synthetic pigments were added at the factory to some prepared stucco mixes.


    Is America the New Rome? – United States vs. the Roman Empire

    Share this Article

    The example of the first great republic in recorded history (509 B.C. to 29 B.C.) was omnipresent in the minds of America’s founders as they created a new republic centuries later. As a consequence of their deliberations and, perhaps, the “protection of divine Providence” as written in the Declaration of Independence, the United States of America, in the mind of many of the founders, was intended to be the modern equivalent of the Roman Republic. The Roman Republic ended with the infamous assassination of Julius Caesar in 27 B.C..

    After a protracted civil war, Octavian became the first “Imperator Caesar,” or Roman emperor. The subsequent period – post-republic – of Roman dominance is known in history as the “Roman Empire.” While Rome enjoyed an additional 500 years of world dominance and internal conflict under the Caesars, history reports its disintegration in the fifth century A.D. (476 A.D.) following the successful invasion of the barbarian Germanic tribes.


    How can 30-year-old receivers sound better than new ones?

    Since no one listens before they buy, selling today's receivers is a numbers game, and sound quality takes a back seat.

    />A 31-year-old Pioneer SX-1980 receiver, still sounding great today. Brent Butterworth

    It's a strange turn of events, but mainstream manufacturers long ago gave up on the idea of selling receivers on the basis of superior sound quality. I'm not claiming today's receivers sound "bad," but since almost no one ever listens to a receiver before they buy one, selling sound quality is next to impossible.

    Back in the days when brick-and-mortar stores ruled the retail market, audio companies took pride in their engineering skills and designed entire receivers in-house. Right up through the 1980s most of what was "under the hood" was designed and built by the company selling the receiver. That's no longer true the majority of today's gotta-have features--auto-setup, GUI menus, AirPlay, iPod/iPhone/iPad compatibility, home networking, HD Radio, Bluetooth, HDMI switching, digital-to-analog converters, Dolby and DTS surround processors--are sourced and manufactured by other companies. Industry insiders refer to the practice of cramming as many features as possible into the box as "checklist design." Sure, there are rare glimpses of original thinking going on--Pioneer's proprietary MCACC (Multi Channel Acoustic Calibration) auto-setup system is excellent--it's just that there's precious little unique technology in most receivers.

    It doesn't matter if those features are useful to the majority of buyers, or if they're easy to use no, the features are included to make the product more attractive to potencial compradores. It's a numbers game, pure and simple. The receiver with the right combination of features is judged to be the best receiver.

    OK, so what's wrong with that? The receiver engineers have to devote the lion's share of their design skills and budget to making the features work. Every year receiver manufacturers pay out more and more money (in the form of royalties and licensing fees) to Apple, Audyssey, Bluetooth, HD Radio, XM-Sirius, Dolby, DTS and other companies, and those dollars consume an ever bigger chunk of the design budget. The engineers have to make do with whatever is left to make the receiver sound good. Retail prices of receivers, the ones that sell in big numbers, never go up. The $300 to $500 models are where most of the sales action is, just like 10, 20 or 30 years ago, when their $300 to $500 models weren't packed to the gills with the features I just listed. Something's got to go, and sound quality usually takes the hit.

    />The Pioneer SX-1980 housed a more massive power supply than the best of today's receivers. Brent Butterworth

    I don't blame Denon, Harman Kardon, Marantz, Onkyo, Pioneer, Sony, or Yamaha for making "good-enough-sounding" receivers, but it would be nice if they could occasionally offer one or two models with a minimal features set, and devote the maximum resources to making the thing sound as good as possible. Oh right, that's what high-end audio companies do!

    As luck would have it, my friend Brent Butterworth just wrote an article where he compared the sound of a 2009 Yamaha RX-V1800 receiver with a 1980 Pioneer SX-1980 and a 1978 Sony STR-V6 receiver. In blind tests, where the listeners did not know which receiver was playing, most preferred the sound of the ancient Pioneer. Butterworth said, "Even with all the levels carefully matched, and even in conditions where none of the receivers were ever pushed past their limits, the Pioneer SX-1980 simply beat the hell out of the other receivers." Gee, what a shock in three decades, the industry has gone backward!

    Right up through most of the 1990s power ratings differentiated models within a given manufacturer's lineup, but that's barely true anymore. In those days the least expensive models had 20 or 30 watts a channel, but now most low- to midprice receivers have around 100 watts per channel. For example, Pioneer's least expensive receiver, the VSX-521 ($250) is rated at 80 watts a channel its VSX-1021 ($550) only gets you to 90 watts: and by the time you reach the VSX-53 ($1,100) you're only up to 110 watts per channel! Doubling the budget to $2,200 gets you 140 watts per channel from their SC-37 receiver. Denon's brand-new $5,500 AVR-5308CI delivers 150 watts per channel! The 31-year-old Pioneer SX-1980 receiver Butterworth wrote about was rated at 270 watts per channel. He tested the Pioneer and confirmed the specifications: "It delivered 273.3 watts into 8 ohms and 338.0 watts into 4 ohms." It's a stereo receiver, but it totally blew away Denon's state-of-the-art flagship model in terms of power delivery!

    So if you care more about sound quality than features, look around for a great old receiver! Go ahead and hook up your Blu-ray player's HDMI output directly to your display and get state-of-the-art image quality, and the player's stereo analog outputs to the receiver, and you may get better sound than today's receivers.


    Ver el vídeo: Πώς έμοιαζαν οι αρχαίοι Έλληνες; Αναπαραστάσεις προσώπων αρχαίων Ελλήνων βάσει προτομών τους