Post on 12-Mar-2016
description
Revista del Grupo Noviembre 2009
Participación
V ENIDI 2009
Resúmenes, pósters
y fotos
Encuentro de Investigadores y Docentes de Ingeniería 2009 EnIDI 2009, Los Reyunos, San Rafael. Mendoza, Argentina
EnIDI 2009 Estudio Estadístico de Simulación de disolución de
Fármacos
Carlos A. Martínez,a, Lucas I. Candiaa, Fabricio O. Sanchez Varrettia, Guillermo D. Garcíaa, Félix D. Nietob
a Universidad Tecnológica Nacional, Facultad Regional San Rafael, Gral. Urquiza 314,
5600, San Rafael, Mendoza, Argentina carlosalberto_888@yahoo.com.ar
b Departamento de Física, Universidad Nacional de San Luis, CONICET, Chacabuco 917,
5700 San Luís, Argentina
Resumen. El fenómeno de la liberación del principio activo en las píldoras comerciales es un fenómeno de gran importancia en la industria farmacológica debido a que rige la dosificación, que de ser excesiva puede tornarse tóxica y, además, posee un límite inferior para que esta sea efectiva. Este proceso ha sido modelado hasta ahora con procesos analíticos continuos. Sin embargo, este proceso posee un aspecto cuya naturaleza es fundamentalmente estocástica y no se ha realizado hasta el momento un análisis del mismo a una escala microscópica que reproduzca las curvas experimentales de disolución. El objetivo del presente trabajo es presentar modelos estadísticos que reproduzcan estas curvas experimentales para así poder relacionar este proceso con el fenómeno percolativo que parece regir el proceso de disolución. La metodología a emplear consiste en la simulación computacional mediante simulación de MonteCarlo, de una pastilla en dos dimensiones, considerando dos clases de partículas, “Medicamento” y “Excipiente”, considerando además los intersticios que quedan entre ellas. En las curvas de simulación obtenidas, se observa una variación no lineal, similar a la encontrada en la experiencia de laboratorio, pero la variación de curvas simuladas con la concentración de remedio en la pastilla no presentan las mismas características que las obtenidas experimentalmente. En estas últimas se producen saltos bruscos en las velocidades de extracción entre los porcentajes de 65% y 80%. Las diferencias observadas pueden deberse a que las probabilidades de extracción excipiente y medicamento (p) pueden no estar relacionadas de forma inversa (p y 1-p) sino con una funcionalidad más general. Claramente este parámetro condiciona la cinética del proceso y determina fuertemente los resultados.
Palabras Clave: Medicamento – Excipiente – Simulación MonteCarlo - Percolación
Encuentro de Investigadores y Docentes de Ingeniería 2009 EnIDI 2009, Los Reyunos, San Rafael. Mendoza, Argentina
Modelo analítico y simulación de Monte Carlo de un proceso de deposición de especies poliatómicas con
interacciones laterales a primeros vecinos sobre superficies energéticamente homogéneas
Guillermo D. Garcíaa, Fabricio O. Sánchez V.b
a Grupo de Fisico-Química de Sistemas Complejos � UTN FRSR � General Paz y Urzuiza � San Rafael � Mendoza - Argentina
ggarcia@frsr.utn.edu.ar,
b Grupo de Fisico-Química de Sistemas Complejos � UTN FRSR � General Paz y Urzuiza � San Rafael � Mendoza - Argentina
fsanchez@frsr.utn.edu.ar,
Resumen. En el presente trabajo se presenta un modelo analítico que complementa y generaliza una pluralidad de modelos que describen el fenómeno de adsorción en multicapas para incluír la adsorción de especies poliatómicas en un régimen de multicapas con interacciones atractivas/repulsivas en la primera capa del adsorbato. Se contrasta el modelo con simulaciones de Monte Carlo y se analizan las consecuencias experimentales del mismo. El modelo es analizado en sustratos unidimensionales y bidimensionales de redes cuadradas.
Palabras Clave: Adsorción – Gas de red – Monte Carlo – Multicapas - interacciones
1 Introducción
La porosimetría es una técnica experimental ampliamente desarrollada y difundida que tiene, como uno de sus objetivos, determinar la porosidad (distribución de tamaños de poros) y topología de las superficies de los diversos materiales [1-5]. Claramente, las diferencias en los distintos materiales son prácticamente infinitas, así como los poros de los mismos varían desde los pocos amstrongs (tamaños atómicos) hasta las micras (milésimas de milímetros) que son los denominados macroporos. En un mismo material existe una distribución de tamaños de poros, como así también la denominada: superficie específica. Es sabido que existen sustancias, como los carbones, que presentan una gran superficie específica que alcanza los 400 m2/gr. Estas sustancias presentan una profusa aplicación en filtros y membranas filtrantes, como así también en sustratos para catalizadores, difusión de fluidos y gases en diversos materiales[8].
Capítulo 1 Page 244
Encuentro de Investigadores y Docentes de Ingeniería 2009EnIDI 2009, Los Reyunos, San Rafael. Mendoza, Argentina
Simulación Monte Carlo de Especies Poliatómicas con Interacciones Laterales sobre Sustratos Heterogéneos
Fabricio Orlando Sanchez Varretti a , Guillermo Daniel Garcíaa, Jose Antonio Ramirez Pastorb, Federico Romáb.
a Grupo de Físico-Química de Sistemas Complejos, Facultad Regional San Rafael (UTN), Gral. Paz y Urquiza, M5600ADQ, San Rafael, Mendoza, Argentina.
fsanchez@frsr.utn.edu.ar, ggarcia@frsr.utn.edu.ar
b Departamento de Física, INFAP, Universidad Nacional de San Luis, CONICET, Chacabuco 917, 5700 San Luís, Argentina.
antorami@unsl.edu.ar, froma@unsl.edu.ar
Resumen. La descripción teórica de la adsorción es un problema complejo en la ciencia de superficies que no tiene una solución general. Pocas teorías se han propuesto para describir la adsorción de múltiples capas en el equilibrio pero las de Brunauer-Emmett-Teller (BET) y la de Halsey-Hill y Frenkel- (FHH) son los más simples que proporcionaron la base para construir acercamientos más elaborados que explicaban la interacción lateral entre los moléculas adsorbidas. Estos modelos han desempeñado un papel importante en la caracterización de superficies sólidas por medio de la adsorción de gas. La isoterma de la BET es la más útil, cubriendo la gama completa de presiones. Por otro lado hay pocos estudios que explican el hecho de la ocupación múltiple de sitios en el régimen de múltiples capas. Las determinaciones de las superficies y de las energías de adsorción pueden ser subestimadas si el carácter poliatómico no se incorpora correctamente en las funciones termodinámicas de las cuales se interpretan los experimentos. Para un substrato heterogéneo la energía de adsorción varía de sitio a sitio y es caracterizada por una función de densidad de energía. Un trabajo recientemente muestra cómo el volumen de la capa monomolecular previsto por la ecuación BET es diferente de su valor verdadero cuando se consideran el tamaño del adsorbato y la topografía superficial. Por ultimo existe otro hecho físico importante que no se ha estudiado suficientemente; a saber, el efecto de las interacciones laterales entre las moléculas adsorbidas en presencia de adsorción de múltiples capas. En este contexto, los trabajos recientes amplían el tratamiento al incluir interacciones laterales entre los adsorbatos con vecinos próximos en la primer capa. Siguiendo el enfoque de Bragg-Williams y la aproximación cuasi-química un trabajo reciente nos da un acercamiento mecánico estadístico simple para estudiar la adsorción de múltiples capas de especies poliatomicas. En base a estos antecedentes es que nos proponemos utilizar estos modelos en forma conjunta para analizar el posible efecto de compensación entre la multiple ocupación de sitios y la heterogeneidad superficial e interacciones laterales.
Palabras Clave: Adsorción, Heterogeneidad superficial, Interacciones laterales,Simulación.
Capítulo 1 Page 229
PROPUESTA Y ANÁLISIS DE NUEVOS PROCESOS DE ELABORACIÓN DE MATERIALES COMPUESTOS
C. Mella, N. Romia, G. García, F. O. Sánchez Varretti, W. Guarino,Universidad Tecnológica Nacional, Regional San Rafael, Gral. Urquiza 314, 5600, San Rafael, Mendoza, Argentina
A. J. Ramírez-Pastor.Departamento de Física, INFAP, Universidad Nacional de San Luis, CONICET, Chacabuco 917, 5700 San Luís, Argentina.
Introducción Como vivimos en un mundo donde fabricantes y consumidores están demandando productos que no solamente tengan mejores características, sino que tengan un impacto menos negativo con el medio ambiente, es que proponemos un nuevo tipo de proceso en el cual trataremos de reducir los pasos necesarios para la obtención de un mismo resultado. Este proceso contribuirá a dar un nuevo paso en la fabricación de piezas estructurales cambiando el concepto de moldeo y adaptación al medio. Permitirá conocer mejor la idea de organización de estructuras en el núcleo de los paneles, estudiando sus movimientos de traslación y organización para la elaboración de los mismos [1-4].
[1] , ED. METER W. R. BEAUMONT, (1995) Applied Composite Materials, pag. iiiVol. 2 Nº4, kluwer Acad. Press.[2] Sourcebook 2008, (Dec. 2007),pag. 6-45, Vol. 16, , A Gardner Publication Suplement, 2007.[3] DUILLO D´ARSIÉ (1980), Los Plásticos Reforzados con Fibras de Vidrio, , editorial América Lee, pag. 83 – 120.[4]The Doorway, M.C. Gill Corporation Group of Companies, (2007), Vol. 44, Nº 3, Summer.
Síntesis del análisisLos paneles sándwich se fabrican por medio de un proceso de plegado de papel
o del material a utilizar como núcleo. Una vez obtenido el panel con núcleo “honeycomb”, se procede a un baño de resina para lograr así una mayor resistencia del material; luego se cortan secciones del mismo hasta lograr el núcleo del panel, Fig.1.
Fig. 1. Componentes de un panel típico.
Nuestro proceso modifica el procedimiento de elaboración del núcleo mediante la unión de columnas hexagonales individuales. Para analizar su comportamiento se ensayan las probetas de paneles con núcleo honeycomb y caras reforzadas mediante un análisis mecánico; flexión , compresión, para determinar parámetros de resistencia mecánica y poder comparar con paneles comerciales, Fig.2.
Fig.2. Ensayo a la flexión con 4 puntos de apoyo.
AplicaciónComo siempre acontece cuando un nuevo concepto técnico aporta una contribución substancial o una solución efectivamente útil para algún problema o limitación que presenta el empleo de determinados materiales o productos en desarrollo- ávidos por eso mismo de nuevos progresos para completar su reciente tecnología, inmediatamente la práctica se apodera de él para probarlo y lanzarlo en un sinnúmero de aplicaciones consideradas hasta ese momento técnica o económicamente inconveniente y a veces sólo latentes; con el resultado de extender con gran rapidez el empleo del material interesado a campos cada vez más amplios y de mayor jerarquía o responsabilidad..
Esto es indudablemente lo que ha sucedido con las construcciones sándwich de plástico reforzado, cuyas aplicaciones abarcan actualmente sectores tan diversos e interesantes como la investigación espacial, la aeronáutica, la marina, los transportes por riel y carretera, la náutica deportiva, la fabricación de tanques, y en general, una multitud de otras construcciones de toda clase, especialmente de grandes dimensiones.Es particularmente importante tener presente que la resistencia mecánica final de un elemento de construcción sándwich, depende no solo de la resistencia combinada de sus dos capas exteriores y de la unión entre los laminados externos y el núcleo, o dicho de otra manera, cualesquiera que sean los materiales que forman este tipo de estructuras, su calidad estará siempre vinculada de manera decisiva a la posibilidad de lograr una unión íntima, perfecta, entre el núcleo y los estratificados exteriores; lo cual, de ser necesario, deberá asegurarse por medio de un pre-tratamiento apropiado de las superficies internas de los laminados para un mejor anclaje del núcleo.En cuanto a la selección del material más conveniente para la parte central del sándwich, es evidente que dependerá sobre todo del destino que habrá de tener la estructura.
ConclusiónLos materiales compuestos “composites” difieren de los materiales tradicionales en que los primeros están compuestos por dos tipos de materiales, fibras y una matriz por lo general polimérica, que cuando se combinan a pesar de estar separadas (sistema heterogéneo) funcionan interactuando para hacer un nuevo material cuyas propiedades no pueden ser predichas por la simple suma de las propiedades de las sustancias que lo componen. De hecho una de las mayores ventajas de los “composites” es la naturaleza complementaria de sus propiedades, por ejemplo las fibras poseen una muy alta resistencia a la tracción, pero son susceptibles al daño. En cambio las resinas poliméricas son frágiles pero son extremadamente maleables y resistentes al daño.En este trabajo proponemos profundizar en el conocimiento experimental y teórico de los materiales compuestos. Mejorar los procesos productivos tendientes a la obtención de un material de mejores características. Reducir los costos de fabricación al reducir el uso de insumos y procesos, tanto como el tiempo de procesamiento. Para todo esto es que analizamos las características mecánicas del material obtenido mediante el nuevo procedimiento.
Ensayo a la compresiónDurante la investigación en el proyecto, realizamos un ensayo a la compresión. Para ello se analizaron 11 probetas de papel de 80 gramos/m2 , las cuales presentaban las siguientes dimensiones: 12 cm de ancho, 15 cm de largo y 5 cm de alto. El ensayo se realizo en una máquina donde la carga se aplicaba de forma puntual, y mediante un suplemento es distribuida uniformemente sobre el área de la probeta. El promedio obtenido de la resistencia a la compresión de las probetas fue: 1,68 Kg/cm2 , Fig.4.Hay que destacar que la realización de las probetas fue de forma manual, por lo tanto se debe tener en cuenta un rango de tolerancia comparado con la fabricación automática y tradicional de estas. A pesar de la producción manual de éstas probetas, se considera que la realización del ensayo fue de manera positiva debido a los datos obtenidos.
Fig.3. Ensayo a la compresión con carga puntual y distribuido
uniformemente.
Fig.4. Datos de esfuerzo a la compresión.
SUSTRATOS GENERADOS POR MEZCLAS CON NSUSTRATOS GENERADOS POR MEZCLAS CON NÚÚMERO DE MERO DE COORDINACICOORDINACIÓÓN ESTOCN ESTOCÁÁSTICA.STICA.
J. Carbonetti, L. I. Cándia, G. D. García, F. O. Sánchez Varretti.Universidad Tecnológica Nacional, Regional San Rafael, Gral. Urquiza 314, 5600, San Rafael, Mendoza, Argentina.
F. Nieto Quintas.Departamento de Fsica, Universidad Nacional de San Luis, CONICET, Chacabuco 917, 5700 San Luís, Argentina.
Dirección de contacto:J. Carbonetti: julio_carbonetti@hotmail.com
Introducción. En la literatura se han propuesto métodos que producen objetos cuya topología posee dimensionalidad fraccionaria; uno de estos métodos es la agregación limitada por difusión (DLA), otra muy similar, es la deposición balística. En el presente trabajo utilizamos una generalización de esta idea para generar este tipo de topologías particulares por Deposición Balística con partículas caracterizadas por un número de coordinación por sitio distinto de aquel dado por los sitios de la red, además en el presente estudio, estas entidades depositadas no se encuentran en una única tipología sino que se presentan en mezclas de diferentes proporciones. Una vez generada esta estructura se caracteriza su topología midiendo las dimensiones fractal, y del caminante. Además se analiza la dinámica de cubrimiento y se obtienen los exponentes característicos del sistema.
Deposición Balística.El sustrato generado por deposición balística con diferentes proporciones de objetos depositantes presenta diferentes topologías conforme varía dicha relación, como se puede apreciar en las figuras 2 y 3. Se simularon sustratos con diversas proporciones en redes de tamaño 100 x 100. La metodología de simulación que adoptamos, a diferencia de trabajos anteriores, se basa en detectar la cantidad de conexiones posibles dada por los objetos depositados al tiempo t y finalizamos la simulación cuando el número de éstas es cero, es decir no quedan posibilidades de absorción o bien, el sustrato está saturado (Figura 4). De esta manera se logró disminuir el costo computacional.
Simulación.Se generaron sustratos mediante la deposición de partículas de distintos números de coordinación en distintas proporciones. Los números de coordinación (k) son 4 y 1. Se estudiaron los casos en que la orientación de las partículas k=1 era aleatoria. A los sustratos se les determinó la dimensión fractal (df) utilizando el método counting box (Figura 6), el cual puede escribirse matemáticamente como sigue:
Conclusiones.Se midió la dimensión fractal (df, Figura 6) y la dimensión del caminante (dw, Figura 7) para sustratos generados por deposición balísitica (BDA). Esto para mezcla de partículas con k (número de coordinación) 4 y 1. Obviamente, los resultados que se obtuvieron para una proporción x = 0.00son coincidentes con los dados en la bibliografía, coincide con la red cuadrada df = 2 y dw = 2.Pudimos ver que con proporciones entre 0 < x < 0.30 la dimensión del sustrato es un poco menor que el de la red cuadrada, pero a partir de x = 0.31 comenzamos a observar pequeñas variaciones (incrementos de dw y decrementos de df) y a partir de x ≈ 0.37 las variaciones se incrementaron en mayor medida (Figuras 13 y 14). Tales variaciones se deben al incremento en tamaño y cantidad de agujeros contenidos en el cuerpo del sustrato.Puede verse en la Figura 10 que a medida que aumenta el porcentaje de dopado con partículas de k = 1 el cubrimiento es cada vez menor, siguiendo una ley de variación semejante a la de df.No se calcularon valores del tiempo de saturación, a veces llamado Tx (ref: Barabasi) debido a que, como se aprecia en la Figura 8, para valores x > 0.31 el sustrato sigue dos leyes de crecimiento. Tampoco se tomaron los valores correspondientes a la velocidad de deposición, debido a que para valores del cubrimiento x > 0.31 no es claro que la variación sea lineal en tramos antes de la saturación (Figura 9).De los resultados que se obtuvieron de la rugosidad (Figura 15) no pudimos obtener los exponentes críticos debido a que la curva no sigue una clara ley polinomial. Observamos de las curvas de la Figura 11 y 12 que rm y NC siguen una ley de potencias posterior a un periodo transitorio de los primeros pasos de simulación.
Fig. 1: Tipos de partículas utilizada BDA.
Fig. 2 y 3: En estas representaciones las diferentes estructuras que se obtienen mediante BDA con diferentes proporciones, en la figura izquierda x=0.3 y en la derecha x=0.4
( ) ~ fdl lΘ
( ) ~ 1/ wR t t dν ν∴ =
Fig. 6 y 7:Variación de la dimensión fractal y del caminante del sustrato frente a diversas proporciones de los objetos depositantes.
Fig. 8 y 9:Variación de las leyes de cubrimiento (izquierda) y velocidad de deposición (derecha) como funciones del tiempo del sustrato frente a diversas proporciones de los objetos depositantes.
( ) ( ) ( )( )
1
1 , ,CN t
m i i iiC
r t r x y tN t =
= ∑
También hemos prestado especial atención en mantener constante la proporción de la mezcla, x, esto puede verse en la Figura 5, y en la misma se ve un periodo transitorio al inicio de la simulación.
Fig. 4 y 5:Variación de las conexiones posibles (izquierda) y variación de la proporción x = Nk=4 / Nk=1 (derecha). Ambas curvas para x = 0.25.
Fig. 10, 11 y 12: Variación de valor correspondiente a la saturación como función del porcentaje de dopado (izquierda). Radio medio como función del tiempo (centro) y cantidad de partículas de contorno como función del tiempo (derecha), ambas para las proporciones allí indicadas.
Fig. 13, 14 y 15:Variación de la dimensión fractal y del caminante del sustrato frente a diversas proporciones de los objetos depositantes.
También se midió (Figura 7) la dimensión del caminante (dw), para la cual:
Se buscaron relaciones para el cubrimiento como función del tiempo y la velocidad de deposición, como se ve en las Figuras 8 y 9, respectivamente.Para la determinación de los exponentes se analizaron casos con cubrimientos de por lo menos el veinte por ciento del tamaño dado por la red, ya que pudimos notar que en determinadas ocasiones el sustrato saturaba para un número mucho menor.Para la determinación de los exponentes característicos del sustrato se definió el radio medio (rm) de las partículas depositadas en el contorno al tiempo t según la relación siguiente y la cual puede verse en la figura 11 para distintas proporciones.
Generamos un algoritmo que nos permitió detectar las partículas de contorno (NC) al tiempo t, en la figura 12 puede verse el crecimiento de las mismas dependiente del tiempo.Las dos definiciones anteriores (NC y rm) las utilizamos para medir la rugosidad (w) del contorno según (Figura 15):
( ) ( ) ( ) ( )( )( )
2
1
1, , ,CN t
i i i miC
w L t r x y t r tN t =
= −∑
INFORME MENSUAL DE INVESTIGACIÓN
Informe correspondiente al mes de octubre Nombre y apellido del becario: Celeste Yanina Mella Nombre y apellido del director de beca: Ing. Walter Guarino Detalle de tareas desarrolladas
San Rafael, Mendoza 15 de octubre de 2009.
Firma del becario Firma del director de beca Mella Celeste Ing. Guarino Walter
Tuvimos respuesta de la empresa “Carmas Composites s.r.l”, nos confirman que el corte de 30 x 90 cm es el más pequeño que realizan, el importe actual del mismo es de $ 147.70 - final. Precio con IVA del 21% incluido.
Nuevamente consultamos a “Carmas Composites s.r.l” acerca del tiempo de espera para recibir el material, y si tendremos otro tipo de gasto.
Se evaluó la posibilidad de realizar algún ensayo para poder así tener valores de las propiedades mecánicas, para compararlos con los valores de las probetas originales, o sea, del material a comprar. Por lo tanto, se esta viendo la posibilidad de conseguir el lugar donde realizar el ensayo. Una de las posibilidades podría ser la Máquina Universal de Ensayos que se encuentra ubicada en la escuela Nº 4-117 Ejercito de los Andes.
Informe Mensual de Investigación
Periodo: Septiembre. Becario: Julio Carbonetti.
---------------------------------------------- Julio Carbonetti
Becario. - 1 -
---------------------------------------------- Ing. Fabricio O. Sánchez Varretti.
Director de Beca.
San Rafael, Mendoza. 24 de septiembre de 2009.
PID: Adsorción en multicapas de especies poliatómicas con interacciones laterales sobre sustratos heterogéneos.
Periodo: Septiembre.
Becario: Julio Carbonetti.
Director de beca: Ing. Fabricio O. Sánchez Varretti.
Sustratos generados por mezclas con número de coordinación estocástica. Tareas realizadas durante el mes de Septiembre.
1. Presentación de resultados en la 94ª Reunión Nacional de Física.
Se armó el póster con los resultados obtenidos hasta el momento para la presentación en la 94ª Reunión Nacional de Física, organizada por la Asociación de Física Argentina, la cual tuvo lugar en Corrientes.
Se llevaron a cabo las tareas de una cuidadosa revisión de los resultados obtenidos, se elaboraron conclusiones y se presentó la información en formato póster.
Vale aclarar que debido a la gran cantidad de información recopilada y/u obtenida a lo largo de las tareas de investigación, no se pudieron presentar en la Reunión todos los resultados obtenidos al día de la fecha.
2. Conclusiones.
Quedamos a la espera de una reunión de grupo, con los representantes del mismo que asistieron al congreso para definir nuevas tareas o la corrección de algunas ya realizadas.
Artículos de Interés (¡Mirá vos!)
The National Ignition Facility (Fusión
Nuclear mediante Laser, Laser Focus World) .
Skinning the F-35 Fighter (Materiales
Compuestos, High Performance Composite).
VGA OLED Microdisplay (Laser Focus
World) . Meteorología Planetaria, Issac Asimov.
VIDE
CO
VE
R S
TO
RY
33Laser Focus World www.laserfocusworld.com November 2009
JEFF HECHT contributing editor
NIF is up and running at last
The National Ignition Facility has
been a long time coming. The Depart-
ment of Energy approved building the
giant laser at the Lawrence Livermore
National Laboratory (Livermore, CA)
in 1994, with construc-
tion costs estimated at
$900 million and com-
pletion scheduled for 2002. But by
1999 the project was in deep techni-
cal and management trouble, and its
very survival seemed in question.
On March 31 of this year, Energy
Secretary Steven Chu formally declared
construction complete. Building NIF
cost $3.5 billion, nearly four times the
original estimate, and lagged nearly
seven years behind initial plans. The fully
assembled system is now fi ring test shots,
although not delivering the full design
energy of 1.8 MJ of ultraviolet light on
target. That will come in time as
Livermore tests and fi ne-tunes
the laser, slowly nudging its out-
put energy upward. They aren’t
shooting to meet a specifi c date;
they’re waiting until they are
sure the laser is ready.
That slow and careful
approach is a hallmark of Ed
Moses, principal associate
director of Livermore for NIF
and photon science,
who has run NIF since
1999. This approach
took time, but it got
the 192-beam laser
up and running after
some had thought the
project was doomed. It won’t change
as NIF approaches full power. Moses
views his role as stewardship for a
national asset, and his biggest concern
is optical damage. “I’m not blowing up
my machine,” he says. “The last thing
you want is to be a cowboy.” He cites
last year’s damage to the Large Hadron
Collider at CERN and says that, had he
been running their tests, he would have
increased power in much smaller steps.
Inertial confi nement fusion
The job of NIF is to heat and com-
press targets contain-
ing hydrogen isotopes
beyond the threshold
for nuclear fusion. The
idea of inertial confi ne-
ment fusion was born
at Livermore, where
John Nuckolls and colleagues outlined
the concept in a 1959 internal memo.
Soon after Theodore Maiman built the
fi rst laser in 1960, Livermore began fi r-
ing laser pulses at potential targets.
Laser fusion became a hot idea by the
early 1970s, with major U.S. projects at
Livermore, the University of Rochester
(Rochester, NY), KMS Fusion (Ann
Arbor, MI), the Naval Research
Laboratory (Washington, DC), and
the Los Alamos National Laboratory
(Los Alamos, NM). By then fusion work
was divided into two distinct but closely
related efforts. One was development
of fusion reactors for civilian energy
production, pursued by KMS and
Rochester, and described by Nuckolls,
Lowell Wood, and two Livermore col-
leagues in Nature.1 The second effort
was a long-classifi ed program to simu-
The National Ignition Facility has yet to
reach its full 1.8 MJ UV pulse energy, but
it has already begun target experiments.
Managers plan a slow ramp-up to full
power, and hope to reach ignition by 2012.
FIGURE 1. NIF’s Laser
Bay 2, shown looking
away from the target
area, includes 96 of the
192 beam lines. Note
the three workers in
yellow hard hats for scale.
(Courtesy of Lawrence
Livermore)
P H O T O N I C F R O N T I E R S : THE NATIONAL IGNITION FACILITY
Previous Page | Contents | Zoom in | Zoom out | Front Cover | Search Issue | Subscribe | Next PageLaser WorldFocus BA
M SaGEF
Previous Page | Contents | Zoom in | Zoom out | Front Cover | Search Issue | Subscribe | Next PageLaser WorldFocus BA
M SaGEF
00:00
BladeCam™
The Smallest Beam Profiler
in the Known
Universe
Actual Size
1.8 “ x 1.8 “ x 0.65”
WWiinnCCaammDD™™ CCaammeerraass
PPoorrtt PPoowweerreedd
UUSSBB 22..00 IInntteerrffaaccee!!
DataRay - the industry’s
leading innovator in
Beam Diagnostics.
� High Resolution to 1.0 μm
� 190 nm to 1100 nm
1475 nm to 1620 nm optional
� Auto-capture - CW & Pulsed
� External trigger Sync.
� 2/3” and 1/2” sensor options
� Multiple cameras
� ISO 11146 measurements
� Mode Field Diameter
� Divergence
� Collimation
� Active X software interface
� RoHS and WEEE compliant
� OEM Pricing available
DataRay Inc.www.dataray.com
1-866-WinCamD (946-2263)
1-203-210-5065
Advancing the technology of laser analysis
November 2009 www.laserfocusworld.com Laser Focus World 34
late the heating and compression of hydro-
gen isotopes in thermonuclear weapons,
pursued at Livermore and the other gov-
ernment labs.
The serious money went to the military
program, centered at Livermore. Called
indirect drive fusion, it uses a two-stage
process, with the intense laser pulse fi rst
generating a burst of x-rays from a metal
foil, and those x-rays then compressing
the hydrogen to produce fusion, simulat-
ing hydrogen-bomb physics on a smaller
scale. During the 1970s, Livermore built
increasingly big and powerful neodym-
ium-glass lasers, including Argus, Janus,
and Cyclops. The 20-beam, 20 TW
Shiva followed at the end of the decade.
Livermore’s next step was the 10-beam
Nova laser, completed in 1985, which
eventually was able to produce 40 kJ,
2.5 ns pulses at 351 nm, delivering 30
kJ to targets.2
However, research at Livermore and
elsewhere also revealed unexpected prob-
lems. The laser-energy threshold for
fusion ignition proved to be much higher
than the 10 kJ that Nuckolls had origi-
nally calculated. The tests also revealed
that target illumination had to be very
uniform to avoid troublesome plasma
instabilities that could disrupt target com-
pression and fusion. After some debate,
Livermore proposed multiplying pulse
energy delivered to the target by a factor
of 60 to achieve ignition in NIF.
Building NIF
Like Nova, NIF splits a single oscilla-
tor pulse among parallel chains of neo-
dymium-glass amplifi ers to generate
high-energy pulses on the fundamental
near-infrared line, and then generates
the 351 nm third harmonic. But NIF
marks big steps up in energy per beam
line, the number of beam lines, and sheer
mass and complexity of the system. With
192 beam lines, NIF includes several
thousand laser amplifi ers and fi nal op-
tics wider than 50 cm (see Fig. 1). The
amount of glass is staggering, and the la-
ser is housed in a three-building complex
measuring 704 × 403 × 85 ft.
Livermore built and tested a proto-
type beam line called “Beamlet” to ver-
THE NATIONAL IGNITION FACILITY cont inued
FIGURE 2. The fi nal optical inspection system inside the target chamber examines focusing
optics to spot signs of potential damage. (Courtesy of Lawrence Livermore)
Previous Page | Contents | Zoom in | Zoom out | Front Cover | Search Issue | Subscribe | Next PageLaser WorldFocus BA
M SaGEF
Previous Page | Contents | Zoom in | Zoom out | Front Cover | Search Issue | Subscribe | Next PageLaser WorldFocus BA
M SaGEF
Lasiris™ ColdRay Laser
Features
����������� ����� ����������������������
����������������������������������
������������������������������� ��� ����
��������������������� ����
��������� �������!���"���# �$��
Applications
���!��������� �
������%����&� �����
���'��(������
���)�� �����
!� ������������ �*+� ����,��(������+����������������-������ ������������� ���������+ �!���"���# �$�� ��������� ����.�+������ ����������,��(���� �/����������%� �/����0
www.stockeryale.com
Call today for more information!
T: 1-800-814-9552 I (514) 685-1005lasers@stockeryale.com
THER
MOE
LECT
RIC
ALLY
COO
LED
SC-3 Sub-Miniature
Resonant Scanner
������������ ����������������������������������������������������!��"����������#$�$����%&�$��
'��(���)��*+���,)����-�������)%���!��%����!
Laser Safety
Shutters
�/������������+��������#���+�����
0'11���������2��-��2��)���+��
�����3%���4���%�3&���4�����+��
�5������!�#6����+�����7����6��
����-�����6����,#������)�
��8#%&8��&�8�����������
�5��������7�����+��)��99;���+���������
�<��5���������
�;�2=���
The Smallest
Available Non-MEMS
Resonant Scanner
ELECTRO-OPTICAL PRODUCTS CORP.
>�'�?'A"����%�1<B5��BC�'�5#DE�9B;3$%F4��"G"����1CA3$%F4��"G"����222�B'>=����
35Laser Focus World www.laserfocusworld.com November 2009
ify its NIF design. Although the Beamlet
tests seemed successful, serious problems
emerged with capacitors, optical damage,
and project management and by 1999 NIF
was in trouble. Moses was put in charge
with a mandate to get NIF on track.
Optical damage was a key issue. Energy
densities reached about one joule per
square centimeter on the fi nal optics of
both Nova and Rochester’s Omega laser,
but NIF’s design called for 8 J/cm2, a big
jump. Beamlet exposed a relatively small
area to peak energy, so it gave a poor
assessment of the risk of damage to NIF,
which with 192 beams has 7000 opti-
cal components more than 50 cm across,
including fi nal optics, lenses, doublers and
triplers. “You’re talking about a lot of area”
at risk of damage, Moses says.
Laser damage is a two-stage process. A
high-energy fl ux initiates the damage, but
after the initial event, the damaged zone
can grow at a lower energy. “When I got
here, we were seeing 100,000 initiators
per shot,” Moses says. “We fi gured out
we had to go down fi ve orders of magni-
tude” to limit damage in NIF. To do that
he launched an intense effort that ranged
from studying the physics of the dam-
age process to working with vendors on
cleanliness and post-processing. To check
for damage to surfaces, Livermore added
an inspection system that can spot fail-
ure initiators as small as 5 μm—it spends
45 minutes after each shot checking the
optics (see Fig. 2). If the system detects
any weak points, the affected component
is swapped out and repaired.
It’s been a big effort, but Moses says,
“We think damage is in the bag.” He boasts
that NIF is now fi ring with optics “that
seem damage-proof at around 10 J/cm2.”
Ramping up the power
NIF is now in the midst of its National Ig-
nition Campaign, which runs from 2006
Previous Page | Contents | Zoom in | Zoom out | Front Cover | Search Issue | Subscribe | Next PageLaser WorldFocus BA
M SaGEF
Previous Page | Contents | Zoom in | Zoom out | Front Cover | Search Issue | Subscribe | Next PageLaser WorldFocus BA
M SaGEF
______
We spent a year interviewing hundreds of users like you who
told us exactly what they wanted in a recirculating chiller.
The Thermo Scientific NESLAB ThermoFlex platform offers
superior performance and flexibility to cost effectively meet
the broadest range of applications. Our chillers provide:
• Enhanced reliability: advanced refrigeration technology and
recirculation system protection ensure maximum uptime
• Ease-of-use and maintainence: an integrated ramp for
simple unpacking and a quick-start guide for fast set-up
plus filters that can be changed while the unit is in operation
• Total peace of mind: backed by Thermo Scientific global
support and service for worry-free operation
Learn more about the complete family of NESLAB ThermoFlex
chillers, visit www.thermo.com/thermoflex
Moving science forward
When talented engineers talk to smart customers, the results are remarkable.
Thermo Scientific NESLAB
ThermoFlex recirculating
chillers
Configurable for a variety
of markets including:
• laser • optical • analytical
• industrial • printing
• packaging • semiconductor
© 2
00
9 T
he
rmo
Fis
he
r S
cie
nti
fic
Inc.
All
rig
hts
re
serv
ed
.
37Laser Focus World www.laserfocusworld.com November 2009
THE NATIONAL IGNITION FACILITY cont inued
to 2012, and aims at demonstrating igni-
tion. Early this year, NIF easily passed the
criteria set in 1997 for commissioning—
installation of all 192 beams, with 96 of
them together generating 500 kJ in the
ultraviolet. In March, Livermore brought
ultraviolet energy up to 1.1 MJ, just un-
der 60% of the full output energy. It also
ran eight beam lines at energies of 9 kJ in
the ultraviolet, enough to reach the target
1.8 MJ when all 192 beams are operating.
But the cautious Moses plans to continue
ramping the power up slowly, not reach-
ing full power until autumn 2010.
The system’s modular design and sophis-
ticated control system gives Livermore
tremendous control over operation. The
beams are grouped in hierarchical struc-
tures. Quads of four beams combine to
enter a port of the target chamber (see
Fig. 3). Two quads make a bundle, one
entering the top half of the target cham-
ber, the other entering the bottom. Six
8-beam bundles make a cluster, two clus-
ters make a 96-beam laser bay, and two
bays make NIF. Each beam can be man-
aged separately, or grouped with others
in its quad, bundle, and so forth.
Two million lines of software manage
laser operation. “It shoots itself, to the fi rst
order. All the beam lines are autoaligning.
We’re trying to get to the point where we’re
spectators,” Moses says. With 192 beams
in NIF, he thinks that’s a necessity.
In early September, Livermore research-
ers described their fi rst ignition-campaign
experiments at the sixth international
Inertial Fusion Science and Applications
conference in San Francisco, CA.3 “We
fi red nine shots at 600 kJ with 192 beams,
delivering the right spot size,” in a series
of cryogenic target shots spanning two
weeks, says Moses. “We are very happy
about this.” He’s also happy about shots
with targets containing 10% deuterium
mixed with 90% helium, which yielded
NIF’s fi rst fusion neutrons that Livermore
is still analyzing.
Outlook
NIF has come a long way from its low
point, and Moses credits the optics and
laser industry for playing a big role in the
recovery. He says NIF should reach the
full 1.8 MJ level in about a year, and fi re
250 shots in fi scal 2010, reaching 700
shots a year in 2012. By then he hopes to
have demonstrated ignition as well.
Yet success is not guaranteed. Optical
damage is a notoriously tough problem
and reaching new realms of laser energy
has a history of revealing new physics that
makes it harder to control laser-plasma
interactions. Questions have been raised
about how well NIF can perform, how
well laser fusion can simulate nuclear
detonations, and whether civilian fusion
power is within the technological horizon.
Within a few years, we should have some
of the answers.
Previous Page | Contents | Zoom in | Zoom out | Front Cover | Search Issue | Subscribe | Next PageLaser WorldFocus BA
M SaGEF
Previous Page | Contents | Zoom in | Zoom out | Front Cover | Search Issue | Subscribe | Next PageLaser WorldFocus BA
M SaGEF
USA: 1-856-547-3488 | www.edmundoptics.com
EUROPE: 44 (0) 1904 691469 | www.edmundoptics.eu
ASIA: 65 6273 6644 | www.edmundoptics.com.sg
JAPAN: 81-3-5800-4751 | www.edmundoptics.jp
more optics | more technology | more service
Visit us atPHOTONICS
WESTBooth 1312
From DNA SEQUENCING
to MICROSCOPY
to MEDICAL DEVICES
In-stock and Available
PRECISION BIOTECH OPTICS
NEED A VOLUMEOPTICS QUOTE?
Contact ourSales Departmenttoday or to receiveyour FREE catalog!
Screen
Microprojection optics
Microdisplay
Micr
M
VGA OLED microdisplay
is picoprojector sourceAn all-digital VGA (640 x 480-pixel)
resolution full-color organic-light-emit-
ting-diode (OLED) microdisplay is being
developed by engineers at Fraunhofer
IPMS (Dresden, Germany) for projection
applications. The backplane for the dis-
play was designed in a 0.18 μm commer-
cial CMOS process and is currently under
prototype manufacturing; microprojector
optics for the display have been created
by Fraunhofer IOF (Jena, Germany) and
are now fully functional. In a step toward
practical implementation for consumers,
the microdisplay—called the Hypoled—
even has Wi-Fi connectivity.
With dimensions of 7.68 x 5.76 mm, the
display is situated on a chip 12 x 11 mm
in size. The pixels have a 12 μm pitch and
are separated by gaps of only 0.5 μm; the
frame rate is a standard 50 or 60 Hz, while
the color depth reaches 24 bits. A mono-
chrome version of the display has a bright-
ness of up to 30,000 cd/m2; the bright-
ness for the full-color version has not been
revealed. Along with microprojection,
the Hypoled device is intended for use in
head-mounted displays. Other partners
in the project include Mobintech (Farum,
Denmark), Universität zu Köln (Köln, Ger-
many), and the University of Edinburgh
(Edinburgh, Scotland). Contact Uwe Vogel
at uwe.vogel@ipms.fraunhofer.de.
A monochrome display
has a bright ness of
up to 30,000 cd/m2;
the brightness for the
full-color version has not
been revealed.
Previous Page | Contents | Zoom in | Zoom out | Front Cover | Search Issue | Subscribe | Next PageLaser WorldFocus BA
M SaGEF
Previous Page | Contents | Zoom in | Zoom out | Front Cover | Search Issue | Subscribe | Next PageLaser WorldFocus BA
M SaGEF
Meteorología Planetaria El Estudio de Otros Mundos Nos Ayudará a Entender Mejor el Nuestro.
Por Isaac Asimov Si hay algo que encierra continuo
interés para los hombres es el tiempo meteorológico. La temperatura y las precipitaciones, las tormentas y las calmas, las inundaciones y las sequías nos afectan con carácter inmediato y a largo plazo. Lo bueno sería poder controlar el tiempo y prevenir extremos destructivos; pero en su defecto sería útil, al menos, predecirlo con precisión.
Las predicciones meteorológicas, sin embargo, siguen siendo poco certeras e inseguras incluso a corto plazo, y casi inservibles a plazo largo. A pesar de que actualmente contamos con satélites metereológicos que envían cada hora fotografías de la cubierta de nubes de la Tierra y de los movimientos de las tormentas, no estamos en condiciones de predecir con exactitud.
El problema es que la atmósfera de la Tierra es un sistema
extraordinariamente complejo. En cualquier momento dado la atmósfera es calentada irregularmente por el Sol. La configuración de zonas caldeadas cambia constantemente a medida que la Tierra gira sobre su eje cada veinticuatro horas, alternando día y noche, y a medida que la Tierra rota alrededor del Sol recorriendo las estaciones del año.
Luego tenemos un amplísimo océano que, al evaporarse bajo la luz
del Sol, engendra nubes, que se forman y se mueven irregularmente, complicando todo ello por la existencia de extensiones de tierra pluriformes donde la evaporación es mucho menor que sobre el mar.
Todos estos cambios imprevisibles de temperatura de un lugar a otro
en configuraciones siempre cambiantes producen vientos cuya velocidad y dirección varían de forma infinitamente compleja.
Una cosa que podría ayudarnos a comprender mejor el problema
sería simplificar de algún modo el sistema atmosférico: reducir la irregularidad del caldeamiento, o dilatar la rotación planetaria, o enderezar el eje, o eliminar la cubierta de nubes, o eliminar las masas de tierra irregulares, o vaciar los océanos. De este modo podríamos estudiar una configuración más regular de los movimientos del aire y de los cambios de temperatura, comprender bien la situación, añadir uno a uno los factores que complican la situación, observar las modificaciones y
complejidades que introduce cada uno y llegar así, en último término, a comprender realmente la meteorología.
Pero ¿cómo simplificar la tierra? Pues utilizando otros planetas como
laboratorios atmosféricos. Los cohetes-sondas han estudiado ya cuatro planetas que poseen
atmósfera: Marte, Venus, Júpiter y Saturno. Marte gira alrededor de su eje en algo más de veinticuatro horas; pero
como es un cuerpo menor que la Tierra, la superficie se mueve tan sólo a mitad de velocidad. Su calentamiento es irregular, igual que en la Tierra, y la inclinación axial es muy parecida a la de ésta; pero dado que Marte se halla más lejos del Sol, el año es dos veces más largo y los cambios estacionales son más lentos. Y como tiene muy poca agua superficial, apenas tiene cubierta de nubes. Así pues, la tenue atmósfera de Marte debe ser más simple que la terrestre.
Consideremos luego Venus. Este planeta se halla cerca del Sol, pero
su cubierta de nubes y la naturaleza de su espesa atmósfera determinan una temperatura superficial bastante uniforme a lo largo y ancho de todo el planeta. Carece por completo de agua superficial, y la temperatura y la capa de nubes no varían significativamente ni con el lugar ni con el tiempo. Además, el planeta rota muy lentamente, de modo que no existe prácticamente el efecto Coriolis, que es el que ocasiona las tormentas circulares en la Tierra: huracanes, tifones y tornados.
En Cuanto a Júpiter, posee también una cubierta de nubes
permanente y una temperatura superficial uniforme. Sin embargo, a diferencia de Venus, gira muy rápidamente: su ingente masa da una vuelta cada diez horas solamente. Bajo la espesa atmósfera de Júpiter parece ser que existe una superficie de hidrógeno líquido, una especie de océano planetario ininterrumpido.
Saturno se parece a Júpiter, pero sin alcanzar sus extremos. Es más
pequeño, gira más despacio y es más frío. Viene a ser un mundo con todas las características de Júpiter, aunque algo simplificadas.
Hasta ahora sólo tenemos información fragmentaria acerca de las
pautas de cambio atmosférico en estos cuatro planetas. No obstante, si el programa de exploración espacial prosigue, es posible que acabemos sabiendo mucho sobre cada uno de ellos. Con estos nuevos conocimientos podremos comparar lo que sucede en el caso de rotaciones rápidas, medias y lentas de atmósferas espesas y tenues, de superficies enteramente líquidas y enteramente sólidas, de calentamiento regular e irregular. Aprenderemos mucho más sobre las leyes generales
que gobiernan los movimientos atmosféricos si estudiamos los cuatro planetas que si estudiamos uno sólo.
A continuación podríamos aplicar ese conocimiento a nuestro propio
sistema atmosférico, que probablemente sea más complicado que cualquiera de los otros; y al comprenderlo mejor, nos convertiríamos en expertos “hombres del tiempo” en la Tierra.