Gran toro de Princeton | |
---|---|
Tipo de dispositivo | Tokamak |
Ubicación | Princeton , Nueva Jersey , Estados Unidos |
Afiliación | Laboratorio de Física del Plasma de Princeton |
Especificaciones técnicas | |
Radio mayor | 1,32 m (4 pies 4 pulgadas) |
Radio menor | 0,4 m (1 pie 4 pulgadas) |
Campo magnético | 4 toneladas (40.000 gramos) |
Potencia de calentamiento | 5 MW ( ICRH ) 3 MW ( NBI ) 1 MW ( LH ) |
Corriente de plasma | 700 kA |
Historia | |
Fecha(s) de construcción | 1972 [1] |
Año(s) de operación | 1975–1986 |
Precedido por | Tokamak simétrico (ST) |
Sucedido por | Reactor de prueba de fusión Tokamak (TFTR) |
Dispositivos relacionados | Compresor toroidal adiabático (ATC) |
El Princeton Large Torus (o PLT ) fue uno de los primeros tokamak construidos en el Laboratorio de Física del Plasma de Princeton (PPPL). Fue una de las primeras máquinas tokamak a gran escala y una de las más potentes en términos de corriente y campos magnéticos. Originalmente construido para demostrar que los dispositivos más grandes tendrían mejores tiempos de confinamiento, fue modificado posteriormente para realizar el calentamiento del combustible de plasma , un requisito de cualquier dispositivo práctico de energía de fusión .
El tokamak se convirtió en un tema de seria discusión en 1968, cuando los soviéticos publicaron nuevos datos que demostraban que eran mucho mejores que cualquier otro dispositivo de fusión. Esto generó un escepticismo significativo entre otros investigadores y pasó algún tiempo antes de que la PPPL se convenciera de convertir su estelarizador Modelo C a la configuración de tokamak. Inmediatamente validó los resultados soviéticos y luego los superó. El siguiente paso en el desarrollo del sistema sería construir una máquina más grande para probar si el tiempo de confinamiento del plasma escalaba como se esperaba. PLT fue diseñado no solo para ser más grande, sino también para tener corrientes de plasma internas drásticamente más altas, del orden de 1 MA. [2] : 214
Otro problema con el enfoque del tokamak es que no calienta directamente su combustible a las temperaturas requeridas de más de 50 millones de Kelvin . En la época en que se estaba construyendo el PLT, el Laboratorio Nacional de Oak Ridge había introducido con éxito el concepto de calentamiento por inyección de haz neutro , o NBI. El NBI se agregó al PLT y comenzó a establecer récord tras récord, llegando finalmente a 75 millones de K, muy por encima del mínimo necesario para un dispositivo de fusión práctico. Su éxito fue motivo de cierta controversia dentro del recién formado Departamento de Energía (DOE), que al mismo tiempo buscaba recortar el presupuesto de fusión. Esto dio lugar a lo que se conoció como "el fin de semana del PLT", cuando la prensa se enteró del éxito y el DOE intentó restarle importancia.
El éxito de PLT abrió el camino a los planes para construir una máquina aún más grande capaz de alcanzar el punto de equilibrio , un objetivo largamente buscado en la energía de fusión. Este sistema surgió como el Reactor de Prueba de Fusión Tokamak , o TFTR. Originalmente programado para ser construido en Oak Ridge, el éxito de PLT lo llevó a ganar también el concurso TFTR.
Cuando la física de la fusión nuclear se puso por primera vez en una base sólida a principios de la década de 1950, se creó rápidamente una serie de dispositivos propuestos para aprovechar esa energía. Todos ellos apuntaban a resolver el problema de contener un combustible de plasma que se calentaba al menos a 50 millones de Kelvin , lo que fundiría cualquier sustancia. El truco utilizado por la mayoría de estos dispositivos era manipular el plasma con campos magnéticos ; como el plasma estaba compuesto de electrones e iones libres , podía transportar una corriente eléctrica y estaba sujeto a fuerzas magnéticas. [3]
Basándonos en la teoría de la difusión del plasma , el tiempo que tarda un ion en escapar de una botella magnética depende del tamaño de la botella y del cuadrado de la potencia de sus imanes. Esto significa que las máquinas más grandes serán inherentemente mejores para confinar su combustible, tanto porque tiene que recorrer más distancia para salir como porque las máquinas más grandes pueden albergar imanes más grandes y potentes. El corolario es que las máquinas pequeñas sólo pueden decirnos mucho sobre el rendimiento de un diseño a la escala necesaria para un reactor práctico; habría que construir una máquina de tamaño intermedio y comparar la tasa de fuga de plasma para asegurarse de que siguiera la escala esperada . Hubo algunas dudas iniciales sobre este punto; la única experiencia directa con plasmas, del Proyecto Manhattan , sugería que la tasa de fuga era lineal con el campo magnético. Si esta difusión de Bohm fuera cierta, un reactor de fusión práctico probablemente sería imposible. [4] [5]
De los muchos conceptos iniciales para los diseños de reactores, tres sistemas pasaron a primer plano: el espejo magnético , el sistema de pinzamiento en z y el estelarizador . Los primeros ejemplos demostraron que podían confinar el plasma al nivel esperado de una máquina pequeña. El caso atípico fue el sistema de pinzamiento, que demostró inestabilidades obvias que se abordaron con nuevos imanes. Estos primeros dispositivos dieron lugar a versiones más grandes y más potentes de estos mismos conceptos. Estos invariablemente no lograron mejorar el confinamiento del plasma, lo que provocó fugas de combustible a tasas insostenibles. Las investigaciones condujeron a varias inestabilidades recién descubiertas que parecían ser una parte inherente de todos estos diseños. [4]
En la primera reunión internacional sobre fusión, celebrada en 1958, quedó claro que todos los dispositivos adolecían de estos problemas. A principios de los años 60, todo el campo había caído en lo que se conoció como "la crisis". Incluso Lyman Spitzer , uno de los mayores defensores de la fusión, concluyó que la difusión de Bohm parecía ser un límite fundamental. [4]
En una reunión similar celebrada en 1965 en el recién inaugurado Centro Culham para la Energía de Fusión en el Reino Unido, el equipo soviético presentó los resultados preliminares de un dispositivo al que llamaron tokamak . Físicamente, era muy similar al concepto de pinzamiento en Z, que había sido ampliamente desarrollado por el Reino Unido en el dispositivo ZETA y que demostró no ser más útil que otros sistemas anteriores, plagados de inestabilidades. En cambio, los soviéticos afirmaban que su variación aparentemente menor del ZETA estaba produciendo resultados drásticamente mejores, unas diez veces superiores al límite de Bohm. Sus afirmaciones fueron desestimadas de plano, especialmente por Spitzer. [6]
En la siguiente reunión, celebrada en 1968 en Novosibirsk , los soviéticos presentaron muchos más datos y todos ellos demostraban que sus máquinas producían tiempos de confinamiento de 10 a 100 veces mejores que cualquier otro dispositivo. Una vez más, estos resultados fueron recibidos con escepticismo. [7] Esta vez, sin embargo, los soviéticos estaban preparados. El equipo británico que trabajaba en ZETA había introducido una nueva técnica de diagnóstico mediante láseres que Lev Artsimovich había calificado de "brillante". Invitó al equipo británico a su laboratorio, el corazón del establecimiento soviético de fabricación de bombas, para que hicieran sus propias mediciones. [8] En el verano de 1969, el láser demostró que el tokamak era incluso mejor de lo que sugerían los resultados soviéticos. [9] Llamaron por teléfono a una reunión de investigadores estadounidenses en materia de fusión en agosto [10] y les comunicaron la noticia antes de que se hiciera pública en noviembre. [11]
Al principio, hubo poco movimiento en los EE. UU., ya que cada uno de los laboratorios tenía su propio diseño que consideraban más interesante. Los directores del programa de fusión dentro de la Comisión de Energía Atómica (AEC) estaban interesados en al menos confirmar o negar los resultados soviéticos, pero encontraron que los laboratorios no estaban interesados en ese trabajo. En particular, la AEC pensó que sería fácil convertir el estelarador Modelo C de Princeton en un tokamak, pero el director del laboratorio, Harold Furth , se negó a considerarlo, descartando de plano las afirmaciones soviéticas. [12] Solo el Laboratorio Nacional de Oak Ridge mostró algún interés; no tenían otros dispositivos a gran escala en planificación y estaban abiertos a probar el tokamak. Tan pronto como se anunciaron los planes a tal efecto, el jefe de Furth, Melvin B. Gottlieb, tuvo una conversación a la hora del almuerzo con Furth. Los dos regresaron del almuerzo para describir cómo convertir el Modelo C. [9]
La conversión comenzó en septiembre de 1969 y se completó ocho meses después, cuando se lo rebautizó como Tokamak simétrico. [13] Confirmó de inmediato, y luego superó, los resultados soviéticos. Parecía por fin que era posible una configuración de plasma estable y de repente se abrió el camino hacia la energía de fusión práctica. [14]
El éxito de confinar el plasma en máquinas más pequeñas dejó muchas preguntas que debían ser respondidas. Una era si el tokamak escalaba como se esperaba; para probar esto, se necesitaría una máquina más grande con corrientes internas y campos magnéticos más altos. Otra cuestión era cómo calentar el plasma; el tokamak carecía de un autocalentamiento significativo, por lo que se necesitaría alguna forma de calentamiento externo. [15] Finalmente, se necesitaría algún sistema para extraer impurezas del plasma, tanto del combustible no puro inicial como para eliminar las "cenizas de fusión", los resultados de reacciones exitosas (normalmente helio). [16]
De los tres problemas, el más obvio era la extracción de impurezas. Desde hacía tiempo se sabía que el uso de un espectrómetro de masas modificado permitiría eliminar iones más pesados. Estos se conocían como desviadores , y los dispositivos stellarator de Princeton estaban entre las primeras máquinas en utilizarlos. El estilo de desviador de los stellarators no era ideal para el tokamak, pero Princeton ya había resuelto ese problema como parte de su máquina Floating Multipole-1, que, antes del tokamak, era uno de los pocos dispositivos que demostraban tiempos de confinamiento más allá del límite de Bohm. Para probar si su desviador poloidal funcionaría en una configuración de tokamak, comenzaron los planes para una nueva máquina pequeña, el Experimento del Desviador Poloidal o PDX. [16]
El calentamiento era otro problema, y había muchas ideas diferentes sobre cómo hacerlo. El estellarator también carecía de autocalentamiento, y para abordar esto, Princeton había estado llevando a cabo experimentos utilizando calentamiento por resonancia de ciclotrón iónico . Esto utiliza potentes transmisores de radio sintonizados a la frecuencia rotacional de los iones, calentándolos de una manera similar a la forma en que un horno de microondas calienta las moléculas de agua. Como esta tecnología ya era bien entendida, Princeton propuso una pequeña máquina de prueba para probar un enfoque de calentamiento diferente utilizando compresión de plasma, como las máquinas de pinza anteriores, en un sistema conocido como el Compresor Toroidal Adiabático (ATC). Otros conceptos incluían el uso de turbulencia en el plasma y la inyección de iones calientes en el combustible utilizando pequeños aceleradores de partículas . [15]
Finalmente, para probar la escalabilidad, se necesitaría una máquina más grande con imanes y corrientes internas mucho más potentes. Inicialmente, este era el objetivo principal del Princeton Large Torus, pero se hicieron concesiones para que se pudieran agregar nuevas formas de calefacción a la máquina sin interrupciones graves. El diseño se finalizó a principios de 1971 y la construcción comenzó más tarde ese año.
Oak Ridge no tenía su propio diseño de fusión durante los primeros días del programa, y se concentró en cambio en formas de mantener alimentadas las máquinas de fusión. Esto llevó al desarrollo de una serie de pequeños aceleradores de partículas que disparaban átomos de combustible al plasma de uno en uno. Esto resultó ser también una excelente manera de calentar el plasma, y Oak Ridge continuó trabajando en estas líneas utilizando reactores de espejo durante la década de 1960. [17] Cuando se anunciaron los resultados soviéticos, comenzaron a considerar cómo hacer lo mismo con un tokamak. Sus primeros cálculos no fueron prometedores, pero una visita de Bas Pease del laboratorio de fusión de Culham en el Reino Unido los instó a continuar con este enfoque. [18]
Mientras PPPL había estado debatiendo si convertir el Modelo C en un estelarizador, Oak Ridge había propuesto construir un nuevo tokamak, ORMAK. Este utilizaba una forma novedosa de generar el campo magnético para hacerlo más uniforme, para igualar o superar el rendimiento de la máquina soviética TM-3. En la segunda etapa de desarrollo, agregarían calentamiento por haz neutro. [18] Fue en este punto, en junio de 1970, cuando el Tokamak Simétrico comenzó a informar los resultados iniciales. Preocupado por ser redundante, el equipo de Oak Ridge decidió adaptar la jaula del transformador de ORMAK como base para un tokamak mucho más grande y agregar NBI inmediatamente. Su máquina estuvo completa a fines de 1970, pero ponerla en funcionamiento tomó la mayor parte de 1971 y los primeros resultados de física no se devolvieron hasta principios de 1972. En 1973, la máquina estaba funcionando lo suficientemente bien como para que el laboratorio comenzara a planificar la activación de los inyectores NBI. [18]
PPPL no estaba dispuesta a renunciar a su posición de liderazgo y rápidamente urdió un plan para "superar" a Oak Ridge. Abandonaron la técnica de calentamiento por compresión en el ATC y rápidamente le instalaron NBI de baja potencia. Estos demostraron efectos de calentamiento claros en 1973, antes de que los sistemas NBI en ORMAK estuvieran operativos. Con este éxito, Oak Ridge comenzó a perder el favor del Comité Directivo de Washington. [19]
Fue en esa época cuando dos teóricos soviéticos publicaron un artículo que describía un nuevo y preocupante problema en el concepto del tokamak: la inestabilidad de las partículas atrapadas. En él se sugería que, a medida que las condiciones de funcionamiento del reactor aumentaban hacia valores útiles para una máquina productora de energía, se volverían más inestables y acabarían arrojando su combustible fuera del reactor. [20] En 1975, Edwin Kintner , recientemente promovido por Hirsch para dirigir los esfuerzos de fusión en la AEC, decidió que esto tenía que probarse de inmediato. Le dijo a Oak Ridge que "siguiera adelante" [20] y le dijo a PPPL que añadiera NBI a su diseño de PLT. [20]
El PLT se había estado construyendo desde 1972 y ya estaba bastante avanzado. Se había diseñado desde el principio con amplio margen para añadir cualquier tipo de sistema de calefacción, por lo que la demanda de NBI no era particularmente difícil de satisfacer. Sin embargo, era caro, pero Kintner proporcionó financiación adicional. [21] El PLT se convirtió entonces en el foco de atención de gran parte del establishment de la fusión estadounidense, con la misión de "dar una indicación clara de si el concepto de tokamak más la calefacción auxiliar puede formar una base para un futuro reactor de fusión". [22]
El PLT se declaró operativo el 20 de diciembre de 1975. [22] Las adiciones de NBI comenzaron casi inmediatamente, y los dos primeros haces estuvieron operativos en el otoño de 1977. [23] Las primeras pruebas mostraron que el sistema no estaba ganando temperatura como se esperaba. Afortunadamente, esto resultó no ser debido a la inestabilidad de las partículas atrapadas, de la que no se pudo encontrar ninguna señal. El problema era simple, visto en muchas máquinas anteriores: las impurezas en el combustible estaban causando emisiones de rayos X que extraían energía del plasma. Sin embargo, en diciembre los dos haces estaban operando a 1,1 MeV y habían elevado la temperatura a 25 millones de grados. [24]
La fuente de las impurezas se rastreó rápidamente hasta un dispositivo conocido como "limitador". En cualquier plasma, las partículas tienen un rango de velocidades, y las que se mueven más lentamente no están bien confinadas y eventualmente chocarán con las paredes del reactor. Cuando esto sucede, desprenden átomos del metal que envenenan el plasma. La solución es agregar un pequeño trozo de metal con forma de dedo que se extienda desde la pared hasta justo afuera del área de plasma deseada. Cuando estas partículas que se mueven más lentamente comienzan a alejarse, golpean el limitador antes que la pared y son absorbidas. La idea es usar algún material liviano para el limitador para que los átomos que se desprenden no envenenen el plasma en el mismo grado, pero se descubrió que el material de aluminio que se está usando no cumple con este requisito. [24]
En 1978, el equipo comenzó a planificar la incorporación de otras dos líneas NBI y la sustitución del limitador por un material nuevo. Finalmente, seleccionaron el grafito , cuyos átomos de carbono seguirían desprendiéndose en el plasma, pero al hacerlo causarían muchas menos emisiones de rayos X. [24]
En enero, la nueva administración Carter tomó el poder y comenzó a planificar la reorganización de varias ramas del gobierno en el nuevo Departamento de Energía (DOE). James Schlesinger , que había dirigido la AEC desde 1971 hasta 1973 durante los primeros avances de los tokamak, regresó para tomar el timón de la nueva rama. John M. Deutch fue puesto a cargo de la Oficina de Investigación Energética del DOE e inmediatamente comenzó a planificar el recorte de 100 millones de dólares de su presupuesto. [25]
En respuesta, Kintner afirmó que la investigación sobre la fusión era crítica y no se la debería recortar sin una buena razón. Sugirió formar un grupo de expertos para realizar un estudio en profundidad de todo el campo. Con el visto bueno, Kintner logró que John S. Foster Jr. dirigiera el grupo. Publicado en junio de 1978, el "Informe final del grupo de expertos ad hoc sobre fusión" afirmaba que "se debería mantener el impulso", un código para mantener el presupuesto como estaba. [26] Sin embargo, también sugería que el tokamak podría no ser la forma definitiva de un generador de fusión y que también se debería dar tiempo a otros enfoques, como el espejo magnético , para que maduraran de modo que "pudieran llevar la fusión a su nivel más alto". [27]
Furth, de PPPL, no se impresionó y sugirió que sería una excusa para no hacer nada. Pero tenía un plan para hacer que sus sugerencias fueran irrelevantes. Para entonces, en julio de 1978, PLT había completado la instalación de dos haces NBI más, así como un limitador de grafito refrigerado por agua. Pronto aumentaron la potencia del NBI a 2 MW a 4 kV, lo que produjo una temperatura de plasma de 45 millones de grados. Esto estaba muy por encima del área donde deberían haberse producido los problemas de partículas atrapadas. Una vez más, no se vio ni un rastro de ello. [28]
En la noche del 24 de julio, llevaron el sistema a 5,5 kV, alcanzando los 60 millones de grados. Esto fue un hito en el programa de fusión; PLT demostró que se podía fabricar un tokamak que pudiera confinar su plasma el tiempo suficiente para calentarlo a las temperaturas necesarias en un reactor práctico. La densidad del plasma tendría que ser mayor en una máquina de producción, pero PLT estaba cumpliendo con todos los demás requisitos. [28]
La importancia del resultado era obvia, no sólo para la física, sino también para los esfuerzos que se estaban llevando a cabo en Washington; Deutch estaba preparando su informe sobre las sugerencias del Panel Foster, y este resultado tendría un enorme beneficio positivo. [29] Kinter estaba de vacaciones con su familia en ese momento, y cuando regresaron a su hotel en Stowe al día siguiente, el recepcionista les dijo que había una serie de mensajes urgentes esperando de Gottlieb. Kinter y Gottlieb acordaron que la noticia debía guardarse para la próxima reunión sobre fusión, que se celebraría en Innsbruck ese otoño. [30]
Como sucedió con ZETA y los tokamaks originales, la noticia era demasiado buena para guardarla en secreto y, en cuestión de días, empezó a aparecer en los demás laboratorios de fusión. El 31 de julio, Energy News publicó un breve artículo en primera plana en el que hablaba de "insistentes informes de un gran avance", lo que llevó al DOE a planificar un comunicado de prensa para el 15 de agosto en lugar de esperar hasta Innsbruck. [30]
El 10 de agosto, Morris Levitt, editor de la revista Fusion , llamó a Gottlieb y éste le dijo que esperara hasta que se hiciera público el comunicado de prensa. Levitt llamó entonces al Departamento de Energía para pedirle más detalles y se puso en contacto con alguien que no estaba al tanto de los hechos y le dijeron que no se iba a hacer público ningún comunicado de prensa. Esto fue un grave error; la revista de Levitt estaba convencida de que había una conspiración para acabar con la investigación sobre la fusión y la negación del Departamento de Energía sirvió para demostrar sus sospechas. [31]
Levitt filtró inmediatamente toda la historia a Dave Hess, de la agencia de noticias Knight Ridder . Hess comenzó a investigar y finalmente llegó a Kinter. Tras ser presionado sobre el tema, Kinter admitió que había sucedido algo interesante, pero se negó a proporcionar detalles. Esto fue un estímulo para la prensa y la historia de Hess apareció en la portada del Miami Herald al día siguiente, sábado 12 de agosto. [31]
El resultado es lo que hoy se conoce como el "fin de semana PLT". Publicada en un día de poca actividad informativa, la historia fue recogida por los periódicos de todo el mundo, incluido el Washington Post , y pronto llegó a los escritorios de Deutch y Schlesinger. Ninguno de ellos quiso hablar públicamente con los periódicos, que ahora clamaban por una declaración del DOE. Esa tarea finalmente recayó en Stephen O. Dean , uno de los directores principales de Kinter, que apareció en CBS News esa noche. El propio Kinter estaba en el Laboratorio Nacional Lawrence Livermore en ese momento y regresaba a Washington esa noche. Mientras conducía a casa desde el aeropuerto, escuchó la historia en la radio de noticias WTOP . [31]
Jim Bishop, portavoz de prensa del Departamento de Energía, estaba furioso. Acusó a Kintner de filtrar deliberadamente la historia para influir en las próximas decisiones sobre asignaciones presupuestarias. Luego telefoneó a Gottlieb para hacerle las mismas acusaciones. Gottlieb declaró que todavía estaba trabajando en la publicación original del 15 de agosto y que no había dicho nada a la prensa, pero Bishop no lo escuchó. Gottlieb llamó entonces a William Bowen, presidente de Princeton, y le dijo que si no cancelaban el ataque, celebraría su propio evento de prensa y luego dimitiría. Bowen conocía a Schlesinger y lo llamó, diciéndole después a Gottlieb que las cosas se calmarían. [32]
Cuando Kintner y Dean llegaron a trabajar el lunes por la mañana, Eric Willis los recibió y les dijo que los dos iban a ser despedidos; Schlesinger estaba convencido de que Kintner había filtrado información y Dean había estado feliz de amplificar ese mensaje en la CBS. La noche anterior, el vicepresidente Walter Mondale le había escrito a Schlesinger exigiéndole que preparara un memorando sobre los eventos, lo que aumentó la tensión de todos. Willis luego fue y habló con Schlesinger y Deutch, convenciéndolos de que no los despidieran a los dos, y finalmente accedió a publicar un comunicado de prensa significativamente más moderado. [33]
La reunión tuvo lugar más tarde esa noche, a la que asistieron 75 periodistas. Deutch no permitió que nadie más del DOE hablara, y le dijo a la prensa que era un resultado rutinario que se esperaba desde hacía mucho tiempo y que muchos otros programas energéticos también estaban haciendo grandes progresos. Gottlieb habló entonces y explicó la importancia del resultado, y cómo el problema latente con las partículas atrapadas resultó no existir. Al final, todos estaban contentos con el resultado. Kintner solo se reunió con Schlesinger por primera vez más tarde, cuando Schlesinger se calmó; Kintner prometió que no se repetiría la actuación y los dos resolvieron su diferencia. [34]
Durante la semana siguiente, las noticias del éxito de la PLT se extendieron por todo el mundo. Incluso Pravda se mostró encomiable al afirmar que "sería incorrecto pensar que los partidarios de la 'guerra fría' están ganando en todas partes. Estos días también se están difundiendo noticias de un tipo completamente diferente... Los científicos de la Universidad de Princeton han logrado un gran éxito en el campo de la fusión termonuclear. Consiguieron alcanzar una temperatura de 60 millones de grados C en un reactor experimental tipo tokamak. Esto se logró gracias a la cooperación con científicos soviéticos". [35]
La reunión de Innsbruck tuvo lugar en la última semana de agosto de 1978. Rob Goldston fue seleccionado para dar la presentación sobre PLT, y se armó con una gran cantidad de resultados experimentales. Los organizadores de la reunión organizaron una sesión especial para su presentación, y fue interrogado por científicos de todo el mundo. Las dos cuestiones principales eran si se podía confiar en los resultados y si estaban midiendo la temperatura global o solo puntos calientes. Goldston mostró resultados de cuatro tipos totalmente diferentes de sensores que dieron todos el mismo resultado, y esos resultados demostraron que las energías eran efectivamente maxwellianas, como se esperaría de una temperatura global. [36]
Al final de la presentación, la física rusa Katerina Razumova le entregó a Goldston un pájaro de fuego tallado a mano , que según el folclore eslavo , trajo el fuego del sol a la humanidad. Gottlieb le dio un lugar en la sala de control del PLT, donde permaneció durante años. [36]
En septiembre, Deutch presentó sus recomendaciones al Congreso, basadas en los informes de Foster. Rechazó los pedidos de que se iniciara una máquina después del TFTR y reiteró los pedidos de que el programa de espejos también continuara su trabajo. Pidió que el presupuesto se mantuviera como estaba, con aumentos por el costo de vida. El plan de Schlesinger de recortar el presupuesto para la fusión estaba muerto. [37]
Los trabajos con los haces NBI continuaron, y finalmente se alcanzaron los 2,5 MW para producir 75 millones de grados, evento que fue concluido con sus propias camisetas . [28]
Poco después, el PLT comenzó a experimentar una serie de cambios para probar nuevos conceptos. En 1981 logró crear una corriente en el plasma utilizando ondas de radiofrecuencia híbridas inferiores, en lugar de utilizar una corriente inducida por transformador. Los transformadores eran formas simples de inducir una corriente, pero tenían la desventaja de ser dispositivos pulsados. Para un tokamak de producción que funcionara durante minutos seguidos, se necesitaría algún sistema nuevo para mantener la corriente en el plasma. La radiofrecuencia híbrida inferior lo hace enviando señales de radio al plasma. [22]
PLT también añadió calentamiento por radiofrecuencia de iones-ciclotrón y en 1984 produjo un plasma de 60 millones de grados utilizando únicamente esta forma de calentamiento. [22]
Calefacción por RF: