Professional Documents
Culture Documents
Universidad Federal del Rio Grande del Sul, Programa de Posgrado en Ingeniería Mecánica,Calle
Sarmentó Leite, 425, CEP: 90.050-170 Porto Alegre, RS-Brasil. (e-
mail: edsantos@mecanica.ufrgs.br; xavier_carla@yahoo.com.br; adrianep@mecanica.ufrgs.br)
Resumen
Palabras clave: flujo turbulento, flujo laminar, convección mixta, cavidades, métodos numéricos
Abstract
A numerical study about three-dimensional steady state turbulent channel flows and laminar
transient cavity flows with mixed convection heat transfer has been done. The solution of the
conservation equations is obtained by means of Finite Element Method and Taylor-Galerkin explicit
scheme. Large Eddy Simulation is employed for the treatment of turbulence. For the isothermal
case, flows with Re = 3300 were simulated using the Smagorinsky and Dynamical subgrid models.
The latter model allowed improving the average velocity profiles as well as turbulence statistics.
The transient velocity and temperature fields were compared with results of the literature, leading
to a deviation lower than 6%.
Keywords: turbulent flow, laminar flow, mixed convection, cavities, numerical methods
INTRODUCCIÓN
La gran variación existente entre las grandes y las pequeñas escalas presentes en la estructura de
la turbulencia, asociada con sus características como: irregularidad, elevados números de Reynolds
y la tridimensionalidad de las estructuras vorticiales tornan el análisis numérico de este fenómeno,
a través del abordaje numérico de Simulación Directa, extremamente onerosa, visto que los
dominios bajo análisis precisan de enormes discretizaciones espaciales y temporales, conduciendo
a un número de grados de libertad y de ecuaciones muy grande para ser resueltas en cualquier
equipamiento computacional disponible actualmente. Según Wang et al. (2005) el número de
nodos de una malla para simulación de un flujo no-isotérmico es del orden de Pr3Re9/4. Algunos
ejemplos del costo computacional correlacionado con la simulación directa pueden ser vistos en
(Lesieur et al., 2005).
Como consecuencia de la imposibilidad de aplicar Simulación Directa para la gran mayoría de los
problemas es necesario utilizar metodologías alternativas como los modelos clásicos basados en la
hipótesis de la media temporal de Reynolds (RANS) (Wilcox, 2002) y en la Simulación de Grandes
Escalas (LES) utilizada en el presente trabajo (Lesieur et al., 2005; Saugat, 2006). En la
Simulación de Grandes Escalas se realiza solamente el modelado de las pequeñas escalas (siendo
las grandes escalas resueltas directamente). La gran ventaja de utilizar este tipo de abordaje es
que las escalas submalla poseen una naturaleza más universal, con una estructura más isotrópica,
del que las restantes estructuras turbulentas (Lesieur et al., 2005; Saugat, 2006) lo que permite
un modelado más adecuado del flujo, además de requerir un menor costo computacional que la
simulación directa.
El modelado numérico de flujos incompresibles a través del método de elementos finitos presenta
dificultades oriundas de las fuertes características del problema discretizado, causadas por la
presencia de elementos nulos en la diagonal principal de la matriz de masa correspondiente a la
ausencia de los términos de presión (de forma explícita) en la ecuación de la continuidad. Puede
ser citado como ejemplo la imposibilidad del uso de métodos de integración temporales puramente
explícitos debido a la ausencia de la derivada temporal de la presión en la ecuación de la
continuidad (Reddy y Gartling, 1994). Con el objetivo de superar esa dificultad es usado el método
de seudo-compresibilidad (Kawahara y Hirano, 1983) donde la derivada de la presión en el tiempo
permanece en la ecuación de la continuidad (Petry y Awruch, 2006).
Donde la barra sobre la variable indica el campo de grandes escalas, el apostrofe indica un campo
submalla. Todas las propiedades termo físicas serán evaluadas en el campo medio (grandes
escalas), entonces p'=CP'=k'=0. Después el proceso de filtrado las ecuaciones gobernantes
(conservación de masa, cantidad de movimiento y energía, respectivamente) quedan de la
siguiente forma, Ec. 2, 3 y 4:
En general los términos Lijy Cij pueden ser despreciados (Lesieur et al., 2005). Inclusive, en el
trabajo de (Silveira Neto et al., 1993) fue realizada una comparación entre las tensiones de
Reynolds submalla y la suma de los términos cruzados y de Leonard (L ijy Cij), donde aquellas
fueron más de cuarenta veces mayores que estas. En lo que se refiere a los términos de flujo
turbulento de Leonard y cruzado, Silveira Neto et al. (1993) despreciaron estos términos en su
trabajo. Teniendo en cuenta lo que fue dicho antes, también despreciaremos los términos y flujos
turbulentos cruzados y de Leonard.
Modelos submalla
Los dos modelos implementados son basados en el concepto de viscosidad turbulenta. Usando la
hipótesis de Boussinesq, las tensiones de Reynolds submalla son dadas por la Ec. 8:
El modelo para el flujo turbulento es obtenido por analogía entre el transporte de cantidad de
movimiento y energía. Consecuentemente, la misma hipótesis de Boussinesq es aplicada al flujo
turbulento submalla el cual está dado por Ec.9:
Modelo de Smagorinsky
El modelo dinámico submalla propuesto por (Germano et al., 1991) y modificado por (Lilly, 1992)
fue implementado para la solución del campo hidrodinámico (todavía no lo fue para el campo
térmico). El tensor de Reynolds submalla también es aproximado por la Ec. 8, considerando todo
esto la viscosidad turbulenta está definida como:
El coeficiente dinámico es calculado en función a las características locales del flujo, utilizando un
proceso de doble filtrado. El cálculo de C(x,t) está basado en las informaciones de las menores
escalas resueltas, siendo definido por la Ec. 16 y los tensores L¡j y M¡j relacionados con esta
ecuación son presentados en la Ec. 17:
Donde (∆) define la longitud característica del segundo filtro, siendo (∆)>∆. En las
ecuaciones anteriores, la barra indica el primer proceso de filtrado (filtro a nivel de malla) y el
símbolo ( ) se refiere al segundo proceso de filtrado (filtro de prueba).
Análisis numérico
Para la solución del sistema de ecuaciones, el método de elementos finitos es empleado. Para
obtener el sistema de ecuaciones algébricas, las derivadas temporales son expandidas en series de
Taylor, incluyendo los términos de segunda orden (Zienkiewicz y Taylor, 2000) y para la
discretización espacial el método estándar de Galerkin es aplicado (Reddy y Gartling, 1994). Para
ahorrar tiempo de procesamiento son utilizadas expresiones analíticas para las matrices y
elementos hexaédricos isoparamétricos (Azevedo, 1999). El esquema temporal es explícito y
condicionalmente estable; y el paso de integración posee la siguiente restricción:
Donde ∆X¡(min) es la dimensión mínima de los elementos de la malla, C es la velocidad del sonido
en el medio y V es la velocidad de referencia.
Para la realización del segundo filtrado, utilizada en la determinación del coeficiente C(x,t) del
modelo dinámico, fue utilizada la metodología propuesta por (Petry, 2002). El Segundo Filtrado por
Elementos Finitos utiliza técnicas comunes al método de elementos finitos, como: la definición de
los elementos por conectividades, el uso de dos sistemas de coordenadas (global (X 1,X2,X3) y
natural (ξ ,η,ζ) la transformación de coordenadas y funciones de interpolación de elementos. El
esquema consiste en la generación de un súper elemento en torno de cada nodo de la malla,
entonces, con funciones de forma usuales, una interpolación linear de las variables en los nodos de
los súper elementos es realizada para adquirir valores filtrados en el correspondiente nodo interno.
Mayores detalles sobre esa metodología pueden ser vistos en (Petry, 2002).
RESULTADOS
Simulaciones de flujo en canal tridimensional con número de Reynolds 3300 son realizadas para
validar el código. Los resultados son obtenidos usando los modelos de Smagorinsky y Dinámico y
comparados con datos experimentales (Nishino y Kasagi, 1989) y con otras simulaciones
numéricas (Kim et al., 1987; Germano et al., 1991). La geometría del canal y la malla uniforme de
60 x 60 x 20 elementos en las direcciones (x,y,z) son mostradas, respectivamente, en las Fig.
1 y 2.
Fig. 1: geometría del canal
El coeficiente de fricción, basado en la velocidad volumétrica media del canal, obtenido por (Kim et
al., 1987) fue de Cf0 = 6,04 * 10-4. En el presente trabajo, tanto el coeficiente obtenido con el
modelo dinámico cuanto el obtenido con el modelo de Smagorinsky fueran más bajos, con una
diferencia de 4,5% y 16%, respectivamente. Con referencia a las estadísticas de la turbulencia, las
tensiones no se previeron de manera satisfactoria con el modelo de Smagorinsky, lo que sugiere
que la constante del modelo debería haber sido menor. Las tensiones obtenidas a través del
modelo dinámico con la misma malla empleada en el modelo de Smagorinsky llevaron a resultados
más satisfactorios, reduciendo los problemas relacionados a selección del parámetro submalla. Así
las tensiones para este modelo también fueron ligeramente sobrestimadas. Entonces, es posible
decir que la selección adecuada del parámetro submalla, que es realizada por el modelo dinámico,
llevó a la mejora de los parámetros medios (velocidad media y coeficiente de fricción) así como de
las estadísticas de la turbulencia.
Las condiciones de contorno e iniciales utilizadas en el presente trabajo fueron las mismas
utilizadas en (Ji et al., 2007), las de contorno pueden ser vistas en la Fig. 5 en cuanto las iniciales
son reescritas abajo:
En la Fig. 6 son presentadas isotermas, permitiendo una comparación entre los campos de
temperatura obtenidos por (Ji et al., 2007) (Fig. 6 - a, b y c) y los obtenidos en el presente trabajo
(Fig. 6 d, e y f) para los tiempos adimensionales de t adm= 1.4, 3.7 y 5 respectivamente. Las
isotermas demuestran que los dos métodos numéricos utilizados presentan un comportamiento
bastante semejante en el régimen transitorio.
Fig. 6: Campos de temperatura transitorios - resultados numéricos de (Ji et al., 2007) a)
tadm=1.4,
b) tadm=3.7, c) tadm=1.4 - resultados numéricos del presente trabajo d) tadm=1.4, e) tadm=3.7 e f)
tadm=5.0
En la Fig. 7 es posible evaluar la evolución de la temperatura (Fig. 7a) y velocidad en X (Fig. 7b)
con el tiempo (adimensionales) en el plano vertical medio (X = 0,5) para un valor fijo de Z= 0,27
para el presente código sin la utilización de los términos de flotabilidad en la formulación
(denominado en el gráfico: convección _ forzada) y con los términos de flotabilidad insertados
(convección_mixta), ya en las Fig. 8 y 9 (a - campo de temperaturas y b - campo de velocidades
en x) son presentados los resultados para dos posiciones de la cavidad en la coordenada Z
(Z=0,48, próximo al centro de la cavidad y Z=0,93 próximo a placa móvil). En Z = 0,27 fue donde
los resultados obtenidos por el código desarrollado en el presente trabajo presentan mayor
discordancia con los resultados de (Ji et al., 2007) (que utiliza el método de volúmenes finitos
basado en el algoritmo SIMPLER), obteniéndose un error medio estadístico porcentual des = 5,56%
en esta región de la cavidad para el programa con flotabilidad (consecuentemente, menor que el
error de medición I ~ 7,1% presentado por el autor para el experimento). De un modo general los
resultados obtenidos en el presente trabajo se presentaran muy semejantes a los obtenidos por (Ji
et al., 2007) permitiendo una validación del presente código desarrollado para casos no isotérmicos
en régimen laminar. En todas las regiones donde los campos de velocidad y temperatura fueron
comparados se nota la existencia de una tendencia de convergencia de los resultados conforme el
flujo tiende al régimen permanente. También se observa la mejora en el campo de temperaturas y
en el perfil de velocidades al insertar los términos de flotabilidad en las ecuaciones de conservación
de cantidad de movimiento.
Para obtener los resultados fue utilizado el supercomputador SunFire X2200, AMD Opteron 1.8GHz
Dual Core del Centro Nacional de Supercomputacion (CESUP-RS). Para el mejoramiento del
desempeño computacional fue utilizada la técnica de paralelización OpenMP.
CONCLUSIONES
En este trabajo fue presentado un estudio numérico sobre flujos turbulentos, estacionarios, en
canales tridimensionales con Re = 3300 y flujos transitorios bidimensionales en cavidades con
transferencia de calor por convección mixta (Re = 400, Pr = 6 y Gr = 16000). La solución numérica
fue basada en un código desarrollado en FEM, utilizando esquema temporal explícito de Taylor-
Galerkin. La turbulencia fue abordada a través de LES.
En la simulación de los flujos turbulentos en canales fueron comparados los dos modelos de
submalla empleados. Se observó que los parámetros medios, así como las estadísticas de la
turbulencia fueron mejor predichas en las simulaciones hechas con el modelo dinámico. El
coeficiente de fricción predicho con los modelos dinámico y de Smagorisnky fueran 4,5% y 16%,
respectivamente, más bajos que el predicho a través de DNS por (Kim et al., 1987). Con referencia
a las estadísticas de la turbulencia, las tensiones no se previeron de manera satisfactoria con el
modelo de Smagorinsky, lo que sugiere que la constante de submalla debería ser adaptable a lo
largo del dominio. Esto tornase evidente cuando las tensiones son obtenidas a través del modelo
dinámico con metodología del segundo filtrado propuesta por (Petry, 2002), visto que este modelo
ha conducido a resultados más satisfactorios, reduciendo los problemas relacionados a selección
del parámetro submalla.
Para abordar problemas con transferencia de calor fue inserida la ecuación de la energía y de los
términos de flotabilidad en el código pre-existente en FORTRAN, que simulaba flujos isotérmicos,
tridimensionales, incompresibles, en régimen laminar y turbulento. Para evaluación del código,
fueron simulados flujos transitorios con transferencia de calor en una cavidad con estratificación
estable. El término de flotabilidade fue evaluado mediante dos simulaciones, una con los términos
desactivados (convección forzada) y otra con los términos activados (convección mixta). Las
topologías del campo de temperaturas indican que el comportamiento fluido dinámico y térmico fue
bastante coherente con el presentado en la literatura (Ji et al., 2007). Además, los campos
transitorios de velocidad y temperatura en función del tiempo se compararon con los resultados de
(Ji et al., 2007), obteniéndose un desvío inferior a 6%. El próximo paso es realizar la validación del
código desarrollado para flujos turbulentos y no isotérmicos utilizando LES.
NOMENCLATURA
REFERENCIAS
Ampofo, F., Karayiannis, T.G., Experimental benchmark data for turbulent natural convection in an
air filled square cavity, Int. J. Heat Mass Transí.: 46, 3551 - 3572, 2003. [ Links ]
Doñea, J., A Taylor-Galerkin Method for Convective Transport Problems, Int. J. Numer. Methods
Eng.:20, 101-119(1984). [ Links ]
Eiamsa-ard, S., Promvonge, P., Thermal Characteristics of Turbulent Rib-grooved Channel Flows,
Int. Commun. Heat Mass Transí.: 36 (7), 705-711 (2009). [ Links ]
Germano, M., U. Piomelli, P. Moin y W.H. Cabot, A Dynamic Subgrid-Scale Eddy Viscosity Model,
Phys. Fluids A: 3 (7), 1760-1765 (1991). [ Links ]
Ji, T.H., S. Y. Kim, J. M. Hyun, Transient Mixed Convection in an Enclosure Driven by Sliding Lid,
Heat and Mass Transfí.: 43, 629-638 (2007). [ Links ]
Kawahara, M. y H. Hirano, A Finite Element Method for High Reynolds Number Viscous Fluid Flow
Using Two Step Explicit Scheme, Int. J. Numer. Meth. Fluids: 3, 137-163 (1983). [ Links ]
Kim, J., P. Moin y R. Moser, Turbulence statistics in fully Developer channel flow at low Reynolds
Number, J. Fluid Mech.: 177, 133-166 (1987). [ Links ]
Kobayashi, T., Large Eddy Simulation for Engineering Applications, Fluid Dyn. Res.: 38 (2-3), 84-
107(2006) [ Links ]
Lesieur, M., Metáis, O., Comte, P., Large-Eddy Simulations of Turbulence, Cambridge, New York,
USA (2005). [ Links ]
Lilly, D.K., A Proposed Modification of the Germano Subgrid-Scale Closure Method, Phys. Fluids A:
4 (3), 633-635 (1992). [ Links ]
Nishino, K., Kasagi, N., Turbulence Statistics Measurement in a Two-dimensional Channel Flow
Using a Three-dimensional Particle Tracking Velocimetry, Proc. 7 th Symp. Turbulence Shear Flows,
Stanford, 22.1.1-22.1.6, USA (1989). [ Links ]
Petry, A. P. y A. M. Awruch, Large Eddy Simulation of Three-Dimensional Turbulent Flows by the
Finite Element Method, J. of the Braz. Soc. of Mech. Sci. & Eng.: 28, 224-232
(2006). [ Links ]
Reddy, J.N. y D.K. Gartling, The Finite Element Method in Heat Transfer and Fluid Dynamics, 1-
251, CRC, Boca Ratón, USA (1994). [ Links ]
Saugat, P., Large Eddy Simulation for Incompressible Flows, An Introduction, Springer Berlin
Heidelberg, Berlin, Germany (2006). [ Links ]
Silveira Neto, A., D. Grand, O. Metáis, M. Lesieur, A Numerical Investigation of the Coherent
Vórtices in Turbulence Behind a Backward-Facing Step, J. Fluid Mech.: 256, 1-25
(1993). [ Links ]
Smagorinsky, J., General Circulation Experiment with Primitive Equations, I. The Basic Experiment,
Mon. Weath.: 91, 99-164 (1963). [ Links ]
Wang, L, Y. Dong y X. Lou, An investigation of turbulent open channel flow with heat transfer by
Large Eddy Simulation, Computers & Fluids: 34, 23-47 (2005). [ Links ]
Yoon, K. T., S.Y. Moon, S.A. Garcia, G.W. Heard y T.J.Chung, Flowfield-dependent mixed explicit-
implicit (FDMEI) methods for high and low speed and compressible and incompressible flows,
Comput. Methods Appl. Mech. Engrg.: 151, 75-104 (1998). [ Links ]
Zienkiewicz, O.C. y R.L. Taylor, The Finite Element Method, 5 th Edition, Butterworth-Heinemann,
Woburn, Massachussets, USA (2000). [ Links ]
Eugenio Sandone
RESUMEN
En este artículo son presentados los resultados obtenidos de la aplicación de un código computacional
que permite resolver las ecuaciones de Navier-Stokes, continuidad y energía que rigen el flujo
turbulento de un fluido newtoniano monofásico. El código fue desarrollado completamente por el autor
en la Escuela de Ingeniería Mecánica de la Universidad Central de Venezuela y utiliza el método del
Elemento Finito. De forma particular fue adoptada una estrategia de solución basada en trayectorias
características que fue aplicada a mallas cuyos nodos permanecen fijos en el tiempo. En cada instante,
se aplica una técnica de paso de tiempo fraccionado en la cual las ecuaciones diferenciales son resueltas
de forma secuencial siendo garantizada la condición de Courant durante cada paso. Con el propósito de
evaluar el desempeño de la metodología computacional desarrollada en una primera etapa, ésta fue
aplicada para resolver el campo de flujo turbulento bidimensional incompresible e isotérmico, transversal
a un cilindro circular donde el dominio de cálculo fue subdividido en un número determinado de bloques
estructurados. El número de elementos de frontera entre dos bloques en conexión es el mismo, de
forma que la malla resultante es estructurada en su totalidad. La solución obtenida es comparada con
datos experimentales y numéricos apropiados para la geometría estudiada.
Palabras clave: Flujo turbulento, Simulación de grandes vórtices, Método del elemento finito, Mallas
multi bloques, Trayectorias características.
ABSTRACT
This paper presents the results obtained by the application of a homemade computational code based on
the finite element method for solving the Navier-Stokes, continuity and energy equations derived from
the turbulent flow of a single phase Newtonian fluid. This code was completely developed by the author
at the Mechanical Engineering School of “University Central de Venezuela”. A specific strategy based on
characteristic lines was selected and applied to time-fixed grids. A fractional time step was used to solve
the partial differential equations in a sequential scheme, showing good damping performances, based on
the Courant condition applied during the whole calculation. In order to evaluate the performance of the
computational code at its first stage, the bi-dimensional, turbulent, incompressible and isothermal cross
flow around a circular cylinder was solved. The computational domain was divided in a predetermined
number of blocks. Since the common frontiers between a pair of blocks match each other with the same
number of boundary elements, a full structured grid of the whole domain was obtained. The solution was
compared with experimental and numerical results suitable for the geometry analyzed.
Keywords: Turbulent flow, Large eddy simulation, Finite element method, Multi-block grids,
Characteristic lines.
INTRODUCCIÓN
Hoy en día la solución por la vía computacional de las ecuaciones diferenciales que rigen el movimiento
de los fluidos son importantes ya que a través de éstas se pueden obtener los campos de distintas
cantidades vectoriales y escalares como el campo de velocidades, el campo de presión y otras
cantidades relevantes que permiten analizar de manera minuciosa la interacción que puede existir, por
ejemplo, entre el flujo de un fluido y distintos elementos de máquinas como los impulsores o rodetes de
turbomaquinarias, o también en situaciones en las cuales se quieren evaluar los porcentajes de las
componentes de una mezcla reactiva (como en los procesos de combustión) o no reactiva, o aquellos
que se relacionan con el transporte y la difusión de contaminantes en un líquido o en la atmósfera, entre
otras aplicaciones. Todos éstos son aspectos de interés relacionados con procesos de conversión de
energía y fenómenos del transporte de masa, concernientes al dominio de la ingeniería.
Diferentes metodologías numéricas han sido aplicadas hasta el presente para resolver las ecuaciones
diferenciales que rigen el movimiento de los fluidos newtonianos. La complejidad que presentan estas
ecuaciones, reside en la no linealidad existente en los términos convectivos de las ecuaciones de
momentum. La otra dificultad que se presenta reside en la presión ya que ésta, al igual que las
componentes escalares de la velocidad, se encuentra presente en las ecuaciones de momentum y se
requiere por lo tanto de otra ecuación adicional como la ecuación de continuidad para tener un número
compatible de ecuaciones e incógnitas (en el flujo incompresible). Sin embargo, la ecuación de
continuidad presenta una estructura distinta a las ecuaciones de momentum y no incluye a la presión
como variable. Por esta razón, se han desarrollado diferentes estrategias numéricas teniendo en cuenta
factores diversos como la rapidez de cálculo, la capacidad de almacenamiento computacional y la
confiabilidad de los resultados obtenidos expresados mediante algún tipo de error respecto a valores
analíticos exactos o datos experimentales apropiados. Dentro de las técnicas numéricas que se han
aplicado en problemas de flujos viscosos, las más utilizadas siguen siendo hoy por hoy aquellas basadas
en métodos de diferencias finitas, el método del Volumen Finito y el método del Elemento Finito. Aunque
el método del Volumen Finito ha ganado popularidad para resolver las ecuaciones del flujo de fluidos
viscosos, se ha demostrado (Zienkiewicz et al. 2005) que el método del Elemento Finito inicialmente
aplicado en problemas vinculados con la Mecánica de Sólidos o la Resistencia de Materiales, es tan
eficiente como la técnica precedente, siendo un método muy favorable para tratar geometrías complejas
en donde pudieran ser utilizados distintos tipos de elementos en una misma malla, así como mallas
estructuradas y no estructuradas y donde las condiciones de contorno son fáciles de imponer, inclusive
en aquellos casos en lo que se requieren establecer gradientes de cantidades físicas (Zienkiewicz et al.
2005; Chung, 2006). El método del Volumen Finito fue inicialmente concebido partiendo del concepto
del Volumen de Control, concepto que se utiliza mucho en Termodinámica Clásica y Mecánica de Fluidos,
que permite simplificar el estudio de sistemas materiales sujetos a fenómenos de transferencia de
energía. Inicialmente los tipos de celdas o volúmenes de control empleados en el método del Volumen
Finito, eran geometrías regulares, básicamente de tipo rectangular. La transformación a espacios
curvilíneos no ortogonales, impone severas restricciones a los elementos de control y se requieren de un
conjunto de transformaciones que son confiables en la medida de que los elementos sean reducidos
considerablemente de tamaño en relación con las escalas del flujo.
En los últimos años se han desarrollado algoritmos de cálculo eficientes los cuales han potenciado
notablemente la aplicación del método del Elemento Finito en el campo de la Mecánica de Fluidos. En el
caso del flujo incompresible destacan entre otras estrategias numéricas las siguientes: métodos
generalizados tipo Petrov-Galerkin (Generalized Petrov-Galerkin Methods), métodos basados en
operadores que separan las ecuaciones de momentum y continuidad (Operator Splitting Methods),
métodos de vórtices (Vortex Methods), además de los ya conocidos métodos de penalización de la
presión (Penalty methods) y los métodos basados en la solución de variables primitivas (velocidad y
presión en el caso del flujo incompresible), utilizando funciones con igual o diferentes órdenes de
interpolación (Equal-Order Velocity and Pressure Formulation, Mixed Velocity and Pressure Formutation).
Todas estas metodologías numéricas son bien reportadas, entre otros autores, por Chung, 2006 y
Huebner et al. 2001. Los métodos que aplican operadores para tratar las ecuaciones de continuidad y
momentum por separado, son eficientes en el sentido que permiten la aplicación de distintos tipos de
elementos finitos. Estos métodos se aplican también de forma eficiente en el cálculo del flujo
compresible. En años recientes Zienkiewicz et al. 2005, publican sus resultados con una metodología
basada en este tipo de técnica, la cual consiste en una formulación explícita en tiempo de las ecuaciones
de Navier-Stokes y una formulación semi implícita para la presión, en el caso del flujo incompresible. En
esta formulación, una transformación adecuada de coordenadas permite escribir las ecuaciones de
momentum en términos de líneas características o trayectorias definidas por medio del campo de
velocidades del flujo. Esta técnica ha resultado efectiva para tratar una amplia variedad de flujos
compresibles e incompresibles, donde pueden haber o no fenómenos de interface y por esta razón fue
escogida para la elaboración del programa de cálculo. En el programa que ha sido desarrollado se aplica
entonces lo que se conoce como un método segregado basado en líneas características (Characteristic-
Based Split, CBS). Nithiarasu 2003 y Nithiarasu et al. 2004, desarrollaron un código para aplicaciones de
flujo compresible e incompresible, el cual ha sido concebido para elementos triangulares simples en el
caso bidimensional y tetrahédricos de cuatro nodos en el caso tridimensional. Las versiones de estos
códigos para cada tipo de flujo, están separadas y no han sido integradas en un código único. En el
presente código desarrollado, se extiende la aplicación de la técnica CBS a diferentes tipos de elementos
en geometrías 2D y 3D, también se incorpora una técnica de solución basada en el empleo de mallas
multi bloques que permite reducir el tiempo de cálculo del proceso de factorización matricial para el
sistema de ecuaciones resultante asociado con la presión, donde se aplica una técnica eficiente de
factorización de matrices que sirve para mallas de múltiples bloques conectados de forma estructurada y
no estructurada. Esta técnica de factorización se basa en una adaptación y completa modificación del
método frontal para tratar mallas estructuradas (Taylor & Hughes, 1981). El programa de cálculo fue
escrito completamente en lenguaje C estandar. Adicionalmente fueron desarrollados también los
siguientes programas: uno para la generación de malla, uno de pre procesamiento de los archivos de
entrada, utilizados por el programa de cálculo principal y un programa de visualización gráfica de
resultados, para el cual fue empleada la librería OPEN GL. El programa de cálculo principal fue ejecutado
inicialmente en el computador del Instituto de Mecánica de Fluidos de la Universidad Central de
Venezuela, el cual es básicamente una plataforma multi procesador, constituida por 16 procesadores
que permiten el cálculo en ambiente paralelo y recientemente, en dos servidores HP Prolant con
unidades centrales de procesamiento (CPU) de 12 núcleos cada uno, adquiridos en un proyecto de
investigación, No. PG08-8290-2011-1 llevado a cabo por el autor del trabajo a través del Consejo de
Desarrollo Científico y Humanistico, CDCH de la Universidad Central de Venezuela. Sin embargo para los
cálculos realizados, se utilizó sólo un procesador ya que no han sido todavía incorporadas las librerías de
paralelización en el código y esto hace que el cálculo aún no sea tan rápido como se requiere en
aplicaciones de esta índole. La principal motivación para realizar un código de esta naturaleza, se debe a
que en los países desarrollados, tales códigos son concebidos y elaborados en universidades y centros
de investigación y cuentan con el auspicio del sector tecnológico e industrial con el propósito de resolver
problemas complejos o realizar modificaciones importantes desde el punto de vista del diseño de
equipos y sistemas de gran envergadura y donde los aspectos experimentales pudieran elevar
considerablemente aquellos de tipo económico del estudio que se desea emprender. Así que la
universidad resulta el lugar idóneo para la realización de este tipo de actividades y en Venezuela la
brecha de separación entre el sector industrial tecnológico y el académico será cada vez menor en la
medida de que este tipo de desarrollos computacionales sea aplicado para tratar problemas de interés
en los cuales se requiere un alto nivel de especialización y conocimiento.
El programa de cálculo se basa en la solución de las ecuaciones de transporte del flujo turbulento. De
forma general estas ecuaciones pueden ser escritas en la siguiente forma:
METODOLOGÍA NUMÉRICA
La naturaleza matemática de las ecuaciones del flujo de fluidos, corresponde a aquella de una onda
que se propaga y se difunde en un medio continuo. En problemas simples de convección dominante
y suponiendo un campo de velocidades uniforme, la solución de las ecuaciones de momentum en
una dimensión, pudiera estar dada en términos de la ecuación de la onda en el plano
complejo: ux(x,t) = Uoe(xx-wt)i, siendo Uo el módulo de la velocidad en el instante inicial, κ el número
de onda y ω la velocidad angular asociada a su frecuencia. Esta naturaleza de onda que presentan
las ecuaciones de transporte, motiva la formulación de métodos numéricos que contemplen de
mejor forma la física del problema.
La figura 1 muestra la relación entre dos vectores de posición uno fijo: y otro móvil: Ambos
vectores están relacionados por medio de la velocidad local característica del flujo: en un punto
arbitrario “P” del dominio de cálculo. En un instante de tiempo Δt suficientemente pequeño donde
se puede suponer que la velocidad característica del flujo es constante, se puede escribir de
acuerdo al diagrama:
Pasando el término difusivo del lado derecho y aproximando el término de variación local por medio
de diferencias en el tiempo, se puede escribir:
En esta ecuación los términos del lado derecho han sido promediados en un paso de tiempo, con el
valor del instante de tiempo actual, (t+1) y el instante anterior, (t), a través de un cierto
parámetro α constante. Para todos los términos evaluados en el instante de tiempo (t), se realiza
una expansión en series atrasadas respecto de la variable espacial δ=uk Δt, a fin de incorporar los
términos que están en la dirección característica del flujo corriente arriba al instante (t+1) (upwind
terms), como se indica en la Figura 2.
En el caso del término difusivo D y el término fuente Q, se realiza una expansión atrasada hasta el
término de primer orden en δ, ya que estos términos contienen entre otras, las derivadas de las
variables primitvas: velocidad, presión y temperatura. En el caso del vector de variables
conservativas, U, la expansión se realiza hasta el término de segundo orden en δ. La expansión
atrasada en el instante de tiempo (t), se hace conforme a un desarrollo en series y para cualquier
variable escalar en un dominio unidimensional, esta tiene la forma siguiente:
Estableciendo el valor del parámetro α= ½, sustituyendo las variables expandidas para el instante
de tiempo (t) y agrupando convenientemente, se tiene para un espacio multidimensional:
En la ecuación (10) el símbolo supra tilde (~), utilizado en el primer corchete, denota en este caso
una operación de promediado temporal. Para una variable escalar arbitraria esta promediación se
define en la forma: . La formulación resultante es semi explícita debido a la
presencia de los términos evaluados en el instante de tiempo (t+1) que aparecen en el primer
corchete. Ya que estos términos contienen las derivadas de las variables primitivas expresadas de
forma distinta al vector de incógnitas de variables conservativas U, se suele establecer una
formulación totalmente explícita en tiempo (Zienckiewicz et al.; 2005, Chung, 2006), que es una
forma particular de la ecuación (10). Por otro lado y para el segundo corchete, los términos que
resultan de la derivación del vector de términos difusivos D, son de tercer orden, O(dx’3), de
diferenciación y pueden ser despreciados en relación a los restantes términos de la ecuación.
Haciendo entonces todas estas consideraciones y aplicando (6), la ecuación simplificada de (9)
tiene la forma final siguiente:
A continuación se aplica una estrategia de paso de tiempo fraccionado que permite resolver las
ecuaciones de momentum y continuidad de forma secuencial. Se emplea entonces en la ecuación
de momentum un operador lineal, que separa los términos de velocidad y presión como sigue:
Partiendo desde un instante de tiempo: (t) y hasta el siguiente instante: (t+Δt), se sigue la
siguiente secuencia de cálculo:
Paso 1: Se resuelven de forma secuencial en cada una de las direcciones espaciales, las
ecuaciones de momentum, suprimiendo los términos de presión, como sigue:
El gradiente de la presión en la expresión: Δ (ui )** es promediado con el valor del paso anterior
y el paso de tiempo actual, utilizando un cierto factor constante θ2:
o también:
resultando:
En el caso de flujo incompresible, es conveniente utilizar el cambio de presión en vez del cambio de
densidad. A continuación se tratan las variables: de forma similar a como se hizo con el gradiente
de presión y donde se utiliza un factor de ponderación θ1:
luego:
Reemplazando las ecuaciones (15) y (16) en la ecuación (19) y despreciando los términos de orden
de diferenciación superior a 2, se obtiene la siguiente ecuación para la diferencia de presión:
En el caso de flujo incompresible la ecuación produce una ecuación de tipo Poisson para la
variable Δp:
Paso 3: Finalmente se resuelve la ecuación que resulta para el término el cual se obtiene de la
combinación de las ecuaciones (15) y (16):
El método del Elemento Finito es aplicado para la solución espacial del vector de incógnitas U, en
un instante de tiempo en particular. Las ecuaciones tratadas de forma numérica en el caso del flujo
incompresible son: la ecuación (13), la ecuación (21) y la ecuación (22). La técnica de
discretización conlleva a la aplicación de un método de ponderación a fin de reducir el error de
discretización a cero en cada subdominio Ωe, o elemento finito de cálculo. En este caso puede ser
usado sin problemas, el método de Bubnov-Galerkin en el cual las funciones de ponderación N r son
las mismas que aquellas, Ns, utilizadas para interporlar la variable de campo en un elemento. La
solución presenta comportamiento convergente monótono u oscilante con un adecuado margen de
error si el paso de tiempo seleccionado satisface los requerimientos mínimos establecidos por la
velocidad y el tamaño de los elementos de la malla utilizada. Las ecuaciones de transporte
discretizadas tienen entonces las formas que se muestran a continuación:
- Ecuación de momentum:
En estas ecuaciones los subíndices r y s denotan a los nodos que corresponden a un elemento
finito. El supra símbolo sombrero utilizado en los términos que se encuentran a mano derecha,
denota una operación de ponderación espacial efectuada en el elemento. La notación sub
indicial, ef, usada en la ecuación (23), denota al tensor de esfuerzos efectivos que resulta de la
suma de los esfuerzos viscosos y turbulentos. En cada una de las ecuaciones, los términos de
segundo orden de diferenciación fueron integrados por partes y en las ecuaciones correspondientes
a la presión y el término de corrección de momentum, las contribuciones de estos términos fueron
despreciadas en los contornos del dominio de cálculo.
El paso de tiempo fue calculado de forma local por elemento de acuerdo a la siguiente expresión
(Zienkiewicz et al. 2005):
Aunque la técnica de aglutinamiento ha sido incorporada en el código. En este trabajo se optó por
resolver las matrices de masa de forma consistente (no aglutinada), lo cual es más robusto del
punto de vista numérico, al evitar la propagación de errores en cada paso de tiempo que pudieran
resultar de la aplicación de alguna técnica iterativa. A tal fin se desarrolló y fue puesta a punto una
técnica de solución de ecuaciones simultáneas basada en un procedimiento de factorización
eficiente, el cual es una adaptación del método frontal (Taylor & Hughes, 1981). De acuerdo con
esta técnica, las ecuaciones concernientes a un nodo son eliminadas de la matriz una vez que todos
los elementos relacionados con dicho nodo han dado su contribución, reduciéndose
considerablemente de esta forma el almacenamiento en memoria. Esta técnica fue adaptada para
el tratamiento de mallas multi bloques como se indica en la Figura 3 y una explicación más
detallada del proceso de factorización será dado en la parte 2 de este trabajo.
Para el cálculo del error fue utilizada para todas las incógnitas, la norma L2 del error relativo
(Zienkiewicz et al. 2005), la cual es definida como sigue:
CASO DE APLICACIÓN
El método desarrollado se aplicó para resolver el flujo turbulento, incompresible e isotérmico 2D,
transversal un cilindro circular. En este tipo de geometría, los efectos convectivos y transitorios del
flujo son importantes detrás del cilindro, donde se producen inestabilidades queconducen a la
formación de vórtices contra rotativos los cuales pudieran desprenderse de forma alternante. En el
caso de desprendimiento alterno de vórtices se denomina a esta inestabilidad de tipo von Kármán
(Schlichting & Gersten, 2000). Para el caso del cilindro, existen suficientes datos experimentales
donde se indican los valores del coeficiente de arrastre a diferentes números de Reynolds, basado
en el diámetro del cilindro, ReD. Todas éstas fueron las razones que se tomaron en cuenta a la hora
de seleccionar un caso de prueba.
La geometría utilizada para el cálculo del flujo es indicada en la Figura 4. El dominio fue dividido
inicialmente en 20 bloques en conexión estructurada donde el número de elementos en las
fronteras comunes entre bloques es el mismo. El tipo de elementos finitos seleccionados para todos
los bloques fue el de ocho nodos (bi-cuadrático), el cual ha sido utilizado tradicionalmente en el
tratamiento de problemas de convección-difusión cuando la técnica del elemento finito ha sido
aplicada.
Las condiciones de contorno fueron impuestas como sigue: en el contorno (I) que corresponde a la
entrada del dominio se impuso una condición de flujo uniforme, en los contornos laterales (II) y
(III) se impuso una condición de simetría del flujo que consistió en la imposición de un flujo normal
nulo a través de tales fronteras (un = 0). En el contorno (IV) que está alejado del cilindro y donde
se espera que los cambios de presión no sean significativos en relación con lo que ocurre en las
inmediaciones del cilindro, se impuso una distribución uniforme de presión. Esta condición de
contorno, sin embargo, pudiera tener efectos sobre la estela que se produce detrás del cilindro, por
lo que habría que estudiar cuál es la distancia conveniente a la que se pudiera establecer una
condición de presión que se aproxima a la condición de uniformidad. Tal estudio no fue realizado en
este trabajo. Finalmente, en el contorno (V) se impuso la condición de no deslizamiento del flujo
sobre el cilindro. Estas condiciones conocidas también como condiciones de Dirichlet, fueron
mantenidas fijas en el tiempo. En el caso de las condiciones de contorno naturales que derivan del
proceso de integración por parte, cuando se aplica la técnica del elemento finito, éstas son
variables y son calculadas en cada instante de tiempo en las fronteras del dominio de cálculo.
RESULTADOS
Para la obtención de la solución, se utilizó una condición semilla tanto en el campo de velocidades
como para el campo de presión, que corresponde a la del flujo uniforme, salvo en los contornos del
dominio, donde se impusieron en todo tiempo, las condiciones de Dirichlet previamente discutidas.
La condición semilla no necesariamente satisface en principio a las ecuaciones diferenciales que
rigen el flujo con la geometría dada, pero sirve para establecer sobre todo, la direccionalidad del
flujo en el dominio. La convergencia de la solución se obtiene al cabo de un número de pasos de
tiempo determinados y es monitorizada por el comportamiento del error relativo que permite
determinar a partir de qué instante de cálculo la solución satisface las ecuaciones de campo y si se
obtiene una solución de tipo monótona o periódica. El primer caso estudiado, correspondió a uno
donde ReD = 1,4x105. Para este caso existe particularmente un estudio numérico previo (Breuer,
2000), llevado a cabo mediante el método del Volumen Finito, donde se estudian dos versiones del
modelo de grandes vórtices: el tradicional modelo de Smagorinsky con función de tratamiento
parietal de Van Driest y el modelo de grandes vórtices dinámico basado en las ideas de Germano
(1991) y Lilly (1992). También en ese trabajo se muestran las comparaciones entre los resultados
numéricos y los datos experimentales que se registraron en el trabajo de Cantwell & Coles, 1983.
Según el valor ReD establecido, se impuso un campo de velocidades uniforme de 7m/s. Durante los
cálculos efectuados, el incremento de tiempo fue mantenido constante e igual al valor Δt=1x10-
5
s con el cual se obtuvo un comportamiento estable en el cálculo que conllevó a la convergencia
numérica. El número de pasos de tiempo empleados a tal fin fue de 50000 con lo cual se alcanzó a
simular un tiempo real de 0,5s y se obtuvo una solución cuyo comportamiento fue definitivamente
periódico. La gráfica de la Figura 5 muestra la distribución de la norma de error L2 para la presión.
Se aprecia que al cabo de 100 pasos de tiempo la norma del error se reduce prácticamente a cero.
Las Figuras 6, 6.a y 7, muestran el comportamiento de la norma de error L2 para las dos
componentes cartesianas de la velocidad, ux y uy. En estas gráficas se aprecia de manera mucho
más marcada que para el caso de la presión, la existencia de dos patrones de flujo. El primero
correspondiente a una situación de flujo cuasi estacionario.
Este patrón ha sido denotado como zona A en la Figura 6.a. Dicho patrón de flujo está
caracterizado por la formación de estructuras de vórtices completamente simétricas respecto del
eje x, donde destacan dos vórtices simétricos contra rotativos cuyos tamaños son cercanos al del
cilindro y son prácticamente tangentes al eje x. Estos vórtices comienzan a crecer simultáneamente
y al cabo de un determinado número de pasos de tiempo de aproximadamente 5000 pasos,
alcanzan una condición de inestabilidad caracterizada por movimientos alternados de avance y
retracción, hasta que finalmente uno de los vórtices se desprende completamente. Este
comportamiento es lo que ha sido señalado en la Figura 6.a como zona B y representa una zona de
transición de corta duración hacia un nuevo tipo de régimen (zona C). Luego de la transición
comienza un proceso de desprendimiento periódico de vórtices, inferior y superior, conllevando a la
formación de una estela cuya estructura es sinuosa, la cual perdura hasta la salida del dominio.
Esta situación se refleja también en las gráficas del coeficiente de arrastre.
Para los cálculos realizados, los parámetros del esquema numérico θ1 y θ2 que aparecen como
consecuencia de la metodología utilizada, fueron tomados iguales a 1. sin variación.
Con el propósito de visualización de la estructura del flujo, se muestran a continuación algunos
patrones de líneas de corriente instantáneas. En la Figura 13 se muestra para el caso ReD=1,4x105,
el patrón de líneas de corriente en el instante t = 0,00438s correspondiente al paso de tiempo 438
situado en la zona de flujo no oscilante (zona A) conforme a las gráficas previamente mostradas.
En este caso los vórtices principales corriente abajo del cilindro, son simétricos y contra rotativos y
sus diámetros son cercanos al del cilindro. Se aprecia también la aparición de un conjunto de
cuatro vórtices adicionales más pequeños apareados en dos vórtices que rotan en el mismo
sentido, dispuestos en la mitad superior e inferior del cilindro respectivamente. Estas estructuras
resultan completamente simétricas respecto del eje principal del flujo (eje x).
En las Figuras 14 y 14.a, es mostrada para el valor ReD=1,4x105, la estructura del flujo al cabo de t
= 0,5scorrespondiente al paso de tiempo 50000 que se sitúa de acuerdo a la gráfica del coeficiente
de arrastre, más allá de la zona de transición de régimen de flujo (zona C). Las líneas de corriente
muestran un comportamiento sinuoso de la estela del flujo, el cual es debido al tránsito de vórtices
que se desprenden continuamente y de forma alternada tanto de la mitad superior (y>0) como de
la mitad inferior (y<0) del cilindro. En la zona cercana al cilindro, se ha detallado de mejor forma la
estructura del flujo donde se aprecia la complejidad del patrón instantáneo de líneas de corriente,
caracterizado por vórtices de distintos tamaños interactuando con el vórtice principal de tamaño
próximo al del cilindro. Estas estructuras que se forman en cada una de las mitades del cilindro son
completamente asimétricas. También se ilustra el campo de velocidades que permite visualizar el
sentido de rotación de los vórtices y el campo de presión absoluta. Se aprecia que en las zonas de
fuerte recirculación la presión cae por debajo del valor nominal debido a un proceso de
transformación de energía de presión en energía cinética.
CONCLUSIÓN
El procedimiento adoptado fue aplicado para conseguir la solución numérica para tres valores del
número de Reynolds en un caso de flujo complejo como lo es el del flujo bidimensional,
incompresible e isotérmico transversal a un cilindro circular, siendo apreciado que los tres valores
del coeficiente de arrastre conseguidos fueron posicionados bastante cerca respecto de los datos
experimentales, siguiendo la tendencia reportada en el trabajo experimental de Achenbach (1971).
En los casos donde fue utilizado el modelo de turbulencia, la solución obtenida fue satisfactoria y
debe ser estudiada en profundidad la influencia de la malla y el empleo de funciones de
tratamiento de la turbulencia parietal, como la reportada en el trabajo de Breuer (2000). En el caso
particular de las dos mallas empleadas, todo parece indicar que las características del flujo tienden
a mejorar en la medida de que la malla utilizada es más densa, sin embargo, esto no es cierto en
todos los casos, como fue apreciado en la distribución de la componente de velocidad ux, para la
sección x/D = 1, donde se obtuvieron mejores resultados con la malla más gruesa y esto
concordaría también con lo reportado en trabajo de Breuer (2000), donde el autor expresa en su
conclusión, el haber obtenido resultados incluso adversos cuando se utilizaron mallas más finas.
REFERENCIAS
2. Breuer, M. (2000). A Challenging test case for large eddy simulation: high Reynolds number
circular cylinder flow. International Journal of Heat and Fluid Flow, (21); pp. 648-654.
3. Cantwell, B. & Coles, D. (1983). An experimental study on entrainment and transport in the
turbulent near wake of a circular cylinder. Journal of Fluid Mechanics, (136); pp. 321-374.
5. Germano, M., Piomelli, U., Moin, P., Cabot, W. H. (1991). A dynamic subgrid scale eddy viscosity
model. Phys. Fluids A 3(7); pp. 1760-1765.
6. Huebner, K. H., Dewhirst, D. I., Smith, E., Byrom, T. G. (2001). The Finite Element Method for
Engineers, John Wyley & Sons, INC, 4th edition, New York.
7. Lesieur, M., Metais, O., Compte, P. (2005). Large Eddy Simulations of Turbulence, Cambridge
University Press, 1th edition.
8. Lilly, D. K. (1992). A proposed modification of the Germano subgrid-scale closure method. Phys.
Fluids A 4(3); pp. 633-635.
10. Nithiarasu, P., Mathur, J. S., Weatherill, N. P., Morgan, K. (2004). Three-dimensional
incompressible flow calculations using the characteristic based split (cbs) scheme. International
Journal for Numerical Methods in Engineering, (44); pp. 1207-1229.
11. Schlichting, H. & Gersten, K. (2000). Boundary Layer Theory. Springer Verlag Berlin
Heidelberg, 8th edition, Germany.
12. Smagorinsky, J. (1963). General circulation experiments with the primitive equations. Mon.
Weath Rev, (3): 99-164.
13. Taylor, C. & Hughes, T.G. (1981). Finite element programming of the Navier-Stokes equations.
Pineridge Press Ltd, 1th edition, Swansea, U.K.
14. Zienkiewicz, R.L., Taylor, R.L., Nithiarasu, P. (2005). The Finite Element Method for Fluid
Dynamic. Elsevier, Butterworth Heinemann, 6th edition. Amsterdam.
I V . G A L A X I A S , H U R A C A N E S Y D E S A G Ü E S
Los movimientos con vorticidad son los más comunes en nuestro Universo. Desde
el microscópico ámbito de los átomos hasta el inconmensurable espacio del
Cosmos, los vórtices hacen acto de presencia simultánea en casi todos lados, es
decir, ejecutan el portentoso acto de la ubicuidad. Y claro uno se pregunta ¿qué
es la vorticidad?, ¿qué son los vórtices?, ¿cómo están relacionados estos
conceptos?
Antes de intentar precisar ideas veamos algunos aspectos relacionados con ellas,
siguiendo el adagio de "por sus obras los conoceréis".
Figura IV. 1. Galaxia espiral. Messier 81, en la Osa Mayor. Observatorio Hale.
Con respecto a los vórtices, de misterioso sólo tienen el mestizante efecto que da
un buen espectáculo, lo que no significa que sean triviales de entender, manejar o
predecir. De hecho, son protagonistas de algunos de los problemas más profundos
de la física.
Figura IV. 2. La gran mancha Roja de Júpiter.
El interés por entender este truco giratorio que los alrededores practican sobre
nosotros todo el tiempo no es, desde luego, ni reciente ni morboso. Se manifiesta
ya en las estelas asirias, los jeroglíficos egipcios, los mitos más antiguos de las
culturas nórdicas y las preocupaciones de los griegos. Lo encontramos también en
los glifos mayas, en las grandes obras de la literatura universal, en los dibujos
exquisitos de Leonardo da Vinci y en lo que nos contó una tía de su niñez casi
olvidada. Este interés nos nace al ver volar un papalote o un paraguas, al lavarnos
las manos, o cuando alguna vez jugamos con el agua de la orilla de un estanque
prohibido. En los permitidos también se ven, dicen.
Uno de los últimos intentos por construir un universo dominado por los vórtices
fue hecho por lord Kelvin, hacia finales del siglo XIX. Al formular la
atractiva teoría de nudos, que es motivo de un renovado interés para describir,
entre otras cosas, una parte de la dinámica de los plasmas, Kelvin intentó explicar
la naturaleza atómica y molecular con anillos de vorticidad; los anillos de humo
son un buen ejemplo. De esta manera, los átomos y sus compuestos eran
interpretados como las diversas formas en que estos anillos podían combinarse,
anudándose de acuerdo con ciertas reglas; las ideas originales de Kelvin sufrieron
el mismo fatal decaimiento que sufren todos los vórtices.
Ya sea porque fueron mencionados en las epopeyas de Homero, en los andares
por el Infierno de Dante o en las Reflexiones de Goethe, o porque fueron
ilustrados en las pinturas de Van Gogh y Tamayo, y porque son sugeridos por los
rollos de mar que se mueren en las playas o por el humo que sale a borbotones
de una chimenea, los vórtices siguen siendo un tema recurrente para quienes
estudian la naturaleza, desde cualquiera de sus enigmáticos ángulos.
Donde hay un fluido en movimiento hay vorticidad y casi siempre vórtices; ahora
que cuando hay vórtices, siempre hay vorticidad. Sí, hay que aceptarlo, es un
tanto oscuro pero se irá aclarando, como la ropa con las lavadas.
Definir un vórtice no ha sido, hasta ahora, algo sencillo. Es más o menos claro
que tiene que ver con el dar vueltas en torno a un punto y que el giro debe estar
referido a un movimiento colectivo, que comprende a más de un objeto o
partícula. Con estas ideas en mente podemos hacer la siguiente proposición: Un
vórtice es el patrón que se genera por el movimiento de rotación de muchas
partículas alrededor de un punto común (no necesariamente fijo en el espacio);
recordando nuestro muy particular remolino o los ejemplos previos, la definición
parece ser suficiente. Sin embargo, si uno busca en la bibliografía especializada
resulta que no hay consenso sobre el asunto; no hay una definición clara y
unívoca, ya no se diga matemática. Ingenieros, matemáticos o físicos, ni qué
decir de otros especialistas, difícilmente aceptarían nuestra propuesta y cada
quien sacaría su ejemplo preferido para mostrar la necesidad de ampliarla,
recortarla o todo lo contrario. Más adelante veremos la importancia que tendría el
poder contar con ella. La definición que hemos dado es la suma de lo que todos
intuimos más algunos detalles adicionales. Eso sí, si el "remolino" que usted
escogió no está correctamente descrito por la definición, por favor, piense en otro.
Basta con observar con atención para descubrir vórtices en casi cualquier lado.
Las "presentaciones" en que éstos vienen son de lo más diversas; aparecen en
gases, en líquidos y hasta con cuerpos sólidos y sus tamaños varían entre las
dimensiones cósmicas y las atómicas.
Para darnos una idea de las escalas de tamaño y velocidad que tienen estas
ubicuas estructuras, veamos unos ejemplos; algunos serán comentados con cierto
detalle más adelante.
En este cuadro, vemos que las estructuras vorticosas más grandes tienen
dimensiones de miles de años-luz (distancia que recorre la luz en un año; viaja a
casi 300 000 km/seg) y las más pequeñas, en el interior de los núcleos atómicos,
son de un metro dividido por un 1 seguido de diecisiete ceros; las longitudes son
en ambos casos inimaginables...
Dentro del inmenso foro que constituye el Universo, muy lejos de nosotros, hasta
donde podemos percibir con nuestros más potentes telescopios, hay objetos que
parecen remolinos multicolores congelados en el espacio y el tiempo. Formados
por miles de millones de estrellas que se revuelven en torno a un centro
demasiado luminoso para desentrañarlo y entenderlo, descubrimos fantásticos
vórtices de dimensiones inimaginables. De hecho, el grupo de estrellas del que
forma parte nuestra estrella más cercana, el Sol, es una de estas exquisitas y
arremolinadas estructuras.
Nuestra Galaxia, la Vía Láctea, es muy parecida a la que se ilustra en la figura IV.
1. Con un diámetro cercano a los 70 000 años-luz, nuestro Sistema Solar se
encuentra en una zona cercana a la orilla, como a 30 000 años- luz del centro.
Como un punto común y corriente, sin ninguna característica especial o
privilegiada, el Sol gira alrededor del centro de la galaxia, de modo que da una
vuelta cada 250 millones de años. Por la distancia a la que nos encontramos del
centro, la velocidad efectiva de giro es de casi 1 000 000 km/h. Por algo Galileo
dijo en voz baja para sí, ante mentes inmóviles, "y sin embargo, se mueve". ¡Lo
hubiese gritado de haber sabido la velocidad de la Tierra en la Galaxia!
Inmensas regiones de gases, millones de veces mayores que una galaxia como la
nuestra, son estudiadas como fluidos autogravitantes en los que la densidad
fluctúa; de estas contracciones locales de materia se generan nuevas estrellas y
con ellas galaxias. De la manera en que la vorticidad puede estar distribuida y de
cómo evoluciona es posible inferir mecanismos que expliquen las formas de los
cúmulos de estrellas, los gigantescos chorros de materia que se observan con los
radiotelescopios o la aparición de nuevas inhomogeneidades espaciales
(irregularidades en la densidad de materia).
La gran Mancha Roja de Júpiter es sin lugar a dudas el vórtice más famoso y
conspicuo del espacio exterior a nuestro planeta. A 22° abajo del ecuador del
planeta más grande del Sistema Solar se encuentra un gigantesco remolino rojo.
Si este monstruoso torbellino se encontrase en la Tierra estaría ubicado en la
latitud de Río de Janeiro (no es de sorprender que el remolino terrestre
correspondiente lo formen los cariocas). Las dimensiones de la Mancha Roja son
de 22 000 km de largo por 11 000 km de ancho y va disminuyendo poco a poco
con el tiempo. Hace más de cien años, mientras Benito Juárez discutía las Leyes
de Reforma, la Mancha Roja era del doble del tamaño y, como aún sucede, podría
contener a todos los planetas internos, desde Marte hasta Mercurio, pasando por
la Tierra. Su intenso color anaranjado, que varía entre el tenue crema sonrosado
y el rojo carmín, se debe a las complejas reacciones químicas que ocurren entre
los gases que conforman su atmósfera.
Sin contar con la misma belleza o las grandiosas dimensiones que posee la
Mancha Roja, remolinos espectaculares se han observado en las superficies de
Saturno, Neptuno y Urano. Como apocalípticas tormentas sobre inexistentes
habitantes, estos gigantescos vórtices aparecen, se extienden y se disipan para
regocijo de los astrofísicos planetarios. Sin embargo, los mecanismos que los
engendran parecen ser muy distintos a los que generan los grandes huracanes
venusinos, terrestres y marcianos.
Otros factores relativamente comunes entre la Tierra, Venus y Marte son las
velocidades de rotación, la proporción entre superficie sólida y grosor de la
atmósfera, las densidades atmosféricas y la diferencia entre la energía que
reciben y la que reflejan o emiten; todo esto muy distinto a lo que sucede en los
grandes planetas externos.
Por ejemplo, mientras que la Tierra emite la misma energía que recibe del Sol,
Júpiter emite casi el doble de la que recibe; aún guarda energía de su proceso de
formación al contraerse gravitacionalmente al principio de los tiempos. Desde la
cuna fue más generoso que la Tierra. Siendo mucho mayor que nuestro planeta
gira casi dos y media veces más rápido. Además, de grandes consecuencias
climáticas, en la atmósfera de Júpiter la densidad depende sólo de la presión, o lo
que es equivalente, las regiones con igual presión tienen la misma temperatura;
se dice entonces que es barotrópica. Esto no sucede en nuestra blanquiazul
envoltura que llamamos baroclínica. Por lo tanto, la dinámica atmosférica joviana
es muy distinta a la terrestre (afortunadamente).
Los otros planetas mayores comparten con Júpiter algunas de sus vistosas
características. Saturno presenta además su extraordinario sistema de anillos.
Fuera de su atmósfera exhibe uno de los vórtices más fantásticos que se conocen,
para no ser menos conspicuo que su hermano mayor. Como queriendo desafiar
las leyes mecánicas que conocemos, muestra millares de anillos concéntricos,
regulares y notablemente planos. Salvo por algunas irregularidades que transitan
como fantasmas a lo ancho y largo de los anillos, la perfección del movimiento
vorticoso de millones de trozos de hielo nos sigue asombrando. Como
seguramente le sucedió a Galileo cuando descubrió sin entender la inverosímil
estructura, las preguntas que se ocurren superan a las respuestas que tenemos.
Los anillos, como casi todas las características que se han ido encontrando en
nuestros planetas vecinos, no son exclusivos de alguno en especial. Varios de
ellos tienen bandas y anillos, algunos tienen superficies sólidas complejas y
atmósferas activas, otros tienen satélites naturales, etc. Así los planetas, como
sucede con los humanos y los animales en la granja de H. G. Wells, siendo todos
iguales hay unos más iguales que otros y, sin embargo, no existen dos
completamente iguales.
Del vasto espacio cósmico a la vecindad del Sol, los movimientos giratorios, como
gigantescos tiovivos, son más la regla que la excepción. Nada parece moverse en
línea recta. Nuestra galaxia gira, con muchas otras. En su movimiento hacia la
constelación de Lira, nuestra estrella local se revuelve en torno al misterioso
centro de la Vía Láctea; los planetas, que tanto estimulan la imaginación por los
deseos de una inexistente compañía, rotan alrededor del Sol y sobre sí mismos.
Desde su tenue superficie hasta el inaccesible interior, cada planeta manifiesta
una agitada vida dominada por vórtices.
La Tierra, el único sitio habitado que conocemos, vista desde fuera parece una
esfera azul con caprichosas pinceladas blancas que cambian suavemente con el
paso del tiempo. Con cada revolución parecen generarse de la nada, se organizan
y se desvanecen otra vez para recomenzar otra composición plástica. Un aspecto
curioso del espectáculo pictórico permanente es la tendencia a girar de estas
móviles decoraciones. Bajo circunstancias especiales, las hermosas espirales se
estabilizan por un rato, se organizan hasta cubrir cientos de kilómetros y en un
recorrido aparentemente loco se convierten en fuentes de destrucción y,
paradójicamente, de vida.
Huracán, que viene de la palabra furacán, y que escuchara Cristóbal Colón de los
nativos durante su segundo viaje, es el nombre más común que se da a los
vórtices atmosféricos terrestres más grandes. Son tormentas caracterizadas por
vientos huracanados (mayores de 120 km/h) que, en trayectorias espirales, se
mueven hacia un centro común conocido como el ojo del huracán. En el
hemisferio norte el giro es invariablemente ciclónico, es decir, en contra de las
manecillas del reloj, y en el hemisferio sur al contrario. Llamados también tifones
y ciclones, entre otros muchos nombres, se empezaron a registrar en forma
regular a partir del descubrimiento de América.
Kamikazi, el viento divino, es el nombre que recibió el tifón que en 1281 acabó
con las aspiraciones de Kublai Khan para invadir el Japón. La flota completa, con
más de 100 000 soldados chinos, mongoles y coreanos, desapareció en la Bahía
de Hakata, Japón.
Con una extensión que puede llegar a los 2 000 km de diámetro, los huracanes
viajan con velocidades relativamente bajas e irregulares que oscilan entre los 10 y
los 50 km/h. La duración de un ciclón también es muy variable, pues puede ser de
unas horas hasta semanas, y recorrer distancias de hasta 2 000 km. Los vientos
en la espiral alcanzan velocidades cercanas a los 350 km/h en la vecindad del ojo,
dentro del cual una calma desconcertante aparece abruptamente; en unos
minutos el viento pasa de una violencia feroz a una leve brisa. En el ojo, cuyas
dimensiones varían entre los 20 y los 100 km, la presión alcanza los valores más
bajos que se hayan registrado en la superficie de la Tierra.
Para tener una idea sobre los elementos que contribuyen a la formación,
estructura y sostén de un huracán, es necesario tomar en cuenta que todo lo
vemos desde un carrusel, es decir, desde la giratoria superficie de la Tierra, lo que
complica un poco las cosas.
En la Tierra, que rota hacia el este, un objeto que es lanzado de sur a norte
seguirá una trayectoria curva; en lugar de viajar directo al norte se deflectará
hacia la derecha, en el hemisferio norte, y hacia la izquierda en el hemisferio sur,
abajo del ecuador. Por otra parte, la velocidad de giro depende de la latitud,
siendo cada vez más pequeña al acercarse a los polos y máxima en el ecuador;
quien se encuentra más lejos del eje de rotación recorre mayor distancia en
menos tiempo (va más rápido), como saben los que han practicado las "coleadas".
Así, la magnitud de la fuerza de Coriolis depende del movimiento del objeto (su
velocidad y la dirección de ésta), de la rotación terrestre y de la latitud.
Con la guía de Coriolis podemos ahora resumir las condiciones que se requieren
para la formación de los huracanes.
Una es que la fuerza de Coriolis sea mayor que cierto valor mínimo. Como ésta es
cero en el ecuador y empieza a crecer con la latitud; los vórtices que nos ocupan
se generan fuera de un cinturón de aproximadamente 7º de latitud, al norte y al
sur del ecuador (como de 1 300 km de ancho). La dirección del giro de los
huracanes se debe únicamente a esta fuerza. Dentro de esta banda los posibles
huracanes son presa de la esquizofrenia, al no saber en qué dirección girar, y
prefieren no existir.
Bajo las circunstancias arriba descritas, la zona se encuentra en un estado tal que
pequeñas perturbaciones pueden amplificarse y dar lugar a movimientos de
grandes masas de aire húmedo, especialmente si se presentan corrientes
horizontales (chorros) de aire. La convección resultante (movimiento de masas de
aire) se hace tumultuosa en un tiempo relativamente corto, reforzándose los
vientos y permitiendo que el efecto de Coriolis entre en juego para introducir una
curvatura en la corriente, organizándose la estructura ciclónica.
Una vez iniciado el fenómeno se sostiene por periodos que van de unas horas
hasta varias semanas, gracias al mecanismo que describiremos
esquemáticamente a continuación. En una zona de unos centenares de metros
sobre la superficie del agua, llamada capa de Ekman, el aire húmedo se mueve
horizontalmente y en espiral hacia el centro de giro. Al llegar cerca del ojo del
huracán cambia abruptamente su dirección y asciende varios kilómetros en una
especie de chimenea hueca, que limita la zona del ojo. En este movimiento de
subida, que no es otra cosa que una consecuencia del principio de Arquímedes, el
aire caliente se expande y se va enfriando. En consecuencia, la humedad se
condensa, liberándose energía (calor latente) en grandes cantidades. Las gotas de
agua condensada forman las torrenciales lluvias y la energía disponible es
empleada en reforzar los vientos y trasladar el ciclón.
Esta es la razón por la que se habla de una máquina térmica cuando se refiere
uno al mecanismo físico que mantiene a un huracán. Al llegar a tierra firme pierde
su fuente más importante de energía y se debilita, disipándose en cuantiosas
lluvias.
Los tornados, raros en México, son extremadamente "populares" al norte del río
Bravo y representan la amenaza atmosférica más temida en el grupo local de
galaxias. Los vientos más fuertes que se han registrado en la Tierra están
asociados a estos espeluznantes remolinos que, afortunadamente, sólo viven unas
horas.
La descripcion siguiente, tomada de la obra inédita de un autor poco conocido,
representa lo que ocurre cada año en las planicies centrales de los EUA o de
Australia y confirma las narraciones de múltiples testigos.
Las vacaciones de Pascua no podían ser mejores ni más apacibles. Sentado en la recién
pintada veranda, disfrutaba del sol primaveral del mediodía y gozaba del paisaje rural que
sólo ofrece una casa de campo, cómoda y rústica. Tres días de arreglos domésticos,
destapando drenajes, reparando techos y limpiando la apreciada herencia, eran
recompensados con un merecido descanso. Valió la pena el viaje —me dije— y empezaré
con mis lecturas atrasadas más tarde.
Debí quedarme dormido varias horas porque las nubes parecían haber salido de la nada.
Sin el cambio en la luminosidad del día y la sensación incipiente de hambre y frío, hubiese
jurado que sólo me había distraído pensando en quienes no estaban conmigo. Habiéndome
alejado de la civilización con toda intención pense que todavía me encontraba bajo el sopor
del sueño al escuchar el lejano murmullo que sólo hacen los trenes de carga. Sin más
motivación que la curiosidad por la persistencia y el paulatino aumento del murmullo,
presté más atención. Empecé a darme cuenta de que era más parecido al distante, aunque
grave, zumbido de un enjambre de abejas. Estando en el campo, desde luego, era una
explicación más probable para el ruido.
El fresco que empezaba a sentir me obligó a levantarme de la agradable mecedora y, con
un horizonte más amplio para la vista, busqué la fuente de la creciente vibración. El cielo,
ya nublado, se oscurecía hacia la parte posterior de la casa, desde donde podría verse el
rancho vecino, a unos tres kilómetros.
No tuve que dar la vuelta a la casa para ver que, más allá de la troje que sobresalía del resto
de la granja de mis fortuitos vecinos y partiendo de la orilla más oscura de las nubes, se
extendía una columna que unía al nubarrón con la superficie de la tierra. Con forma de
embudo en su parte más alta y tan caprichosa y viva como una culebra, parecía envolver en
una bruma a la ancha zona de contacto.
Cuando yo era más joven, antes de que los adultos aceptaran que mis opiniones eran
valiosas o de que yo aceptara que en realidad no lo eran, una tía, notable por sus
exageraciones y su ignorancia, describió sus experiencias cuando un tornado, al que
llamaba twister, pasó por el pueblo en el que había crecido. Petrificado, como parecía
estarlo en ese momento la zumbante columna, recordé la historia.
Después de unos minutos de incredulidad, percibí cómo se movía el extremo inferior del
tornado y parecía engullir todo a su paso. El horizonte, más claro, contrastaba con la
serpenteante columna y con los rayos que vestían de luz y sonido al diabólico espectáculo.
Cuando pasó por las minúsculas estructuras de la granja, a la que no pude dejar de mirar,
como queriendo conservar los detalles que la guardarían en mi memoria como algo que no
imaginé, todo desapareció. La troje, la vieja carreta, el camino arbolado que recibía las
cosechas y todo lo que hacía familiar la escena fue borrado por el siniestro remolino. La
diluida nube de despojos y objetos irreconocibles que volaban cerca de la parte central de
la columna eran la prueba de que la ranchería de los vecinos había existido.
No me moví. Me quedé clavado al pasto, mojándome, sin poder quitar la vista del
gigantesco remolino. Nunca podré describir la inextricable mezcla de aprensión y
admiración que me mantuvo paralizado durante tantos y valiosos minutos. De ello no me
arrrpiento. Vi a la naturaleza desentrañar sus fuerzas y volcarlas con violencia sobre sí
misma. Luego, como consciente de mi presencia irreverente, el tornado cambió su
dirección y se dirigió hacia mí con una velocidad vertiginosa.
Sin premeditación alguna corrí a mi automóvil y cerré las puertas en forma instintiva,
como queriendo impedir la entrada del viento, esperando la inexorable llegada del fin.
Minutos después, durante los segundos que tardó en suceder todo, fui testigo inerme de lo
que Dante describió en su Infierno. Voces graves y chillantes mezcladas con golpes secos
y sordos, cegadoras luces que hacían más fantasmagórico el espectáculo brevemente
nocturno. Cientos de pequeños remolinos en tumulto quitaron la transparencia al aire y,
como desconectando la gravedad, hicieron volar todo alrededor y cambiaron mi oasis
personal en pandemónium. Aferrado al volante, miraba la casa que parecía resistir la lluvia
de objetos que caían sobre ella. Por un instante y en forma absurda, pensé en las
reparaciones que había hecho y en su nueva pintura. Como si fuera un castigo a mi
pensamiento pusilánime, la casa explotó como si se hubiese inflado hasta el límite sin
querer distenderse. Deapareció entre los escombros dispersos en el aire y me cerré al
mundo externo apretando los ojos, los dientes y las manos.
Más tarde, acalambrado por la tensión inútil en los brazos y las piernas, abrí los ojos y
frente de mí aparecía la puesta de Sol más hermosa que había visto. El amplio e
irreconocible paisaje sólo mostraba los signos del abandono, como si despertara de un
sueño de años. El automóvil, reorientado sin que recordara cómo, apuntaba sobre un
camino cubierto de ramas y tierra que me invitaba a partir. La tormenta y su furia se habían
desvanecido con la casa y su contenido. Esa tarde, durante el ocaso de un día desigual a los
demás, me senté a pensar sobre el miedo, la muerte y lo temporal de nuestros actos.
Una de las trombas más famosas fue vista por cientos de turistas bañistas y
varios científicos en la costa de Massachusetts, el 19 de agosto de 1896. Se
estimó que su altura era de 1 km, el ancho de 250 m en la parte superior, 150 m
en la zona intermedia y 80 m en la base. La envoltura de rocío que rodeaba al
vórtice en la base era de 200 m de ancho y 120 m de altura. Desapareció y volvió
a formarse tres veces, durando una media hora en cada ocasión; el tamaño y la
vida de ésta fueron mucho mayores que la generalidad. Aunque son un peligro
para embarcaciones pequeñas, hay pocas indicaciones confirmadas de que barcos
de calado mediano o grande hayan sido destruidos por uno de estos vórtices
acuícolas. Lo que sí ha sucedido es que emigren a tierra con afanes anfibios y
causen destrucción y muerte.
Si bien aparecen en cualquier época del año y a cualquier hora, son más
frecuentes entre mayo y octubre y, como los violentos y pedestres parientes, les
gusta el sonido del idioma inglés modificado; se ven seguido en las costas
estadounidenses y australianas. En Nueva Gales del Sur, Australia, se registró uno
de más de 1 800 m de altura. El Golfo de México es un buen lugar para espiarlos.
Otros vórtices comunes son los vórtices de marea, los vórtices de desagüe y
los remolinos de tierra.
Los vórtices de marea resultan de las corrientes causadas por las mareas. Cuando
la marea entrante alcanza las aguas de la marea saliente, en estrechos que
separan grandes masas de agua, se manifiestan estos temidos enemigos de los
navegantes. Esto explica por qué son protagonistas en leyendas y mitos de la
antigüedad.
El más famoso de los vórtices de marea es sin duda Caribdis, que dio nombre
temporal a estos vórtices. Descrito por Homero en la Odisea, Caribdis fue el terror
de los héroes que navegaban en el Mar Mediterráneo; otros, no glorificados por
las epopeyas homéricas, también le temieron y sucumbieron en él. No en vano
Virgilio los muestra a Dante en su paso por el Infierno.
El Estrecho de Messina, entre Sicilia y Calabria, al sur de Italia, separa los mares
Jónico y Tirreno; el estrecho es casi un canal que acaba abruptamente en el
Tirreno. Varios elementos combinados lo convierten en el lugar ideal para la
malévola existencia de Caribdis. Los dos mares tienen mareas opuestas, y la alta
de uno coincide con la baja del otro; así, cuando uno va, el otro viene. Además, el
mar Jónico tiene una temperatura menor y una salinidad mayor que el Tirreno, lo
cual hace que las aguas del Jónico sean más pesadas. Estas circunstancias
provocan una situación inestable y propicia, durante los cambios de marea, para
la formación de intensos vórtices verticales y horizontales. Para perfeccionar los
maquiavélicos detalles, en la parte más angosta del Estrecho de Messina,
precisamente en la salida al Tirreno, el fondo marino tiene la menor profundidad
(100 m). Del lado norte, en el Tirreno, la profundidad es de 350 m, a 1 km de
distancia de la salida del estrecho. Del lado sur, dentro del canal y a la misma
distancia de la salida, la profundidad es de 500 m. Ahí, justamente, acechó oculta
la clásica monstruosidad a los valientes argonautas.
Los remolinos de tierra, que seguramente todos hemos visto, son como versiones
miniatura de los tornados. Tienen la forma de columnas o de conos invertidos y el
movimiento del aire es giratorio, en cualquier dirección, y ascendente. Cerca del
piso la corriente es de forma espiral y es capaz de arrastrar toda clase de
pequeños objetos, incluyendo animales no muy grandes, como liebres.
Los de tamaño apreciable son visitantes frecuentes de los desiertos del mundo;
cientos de informes sobre ellos provienen de los desiertos de EUA, México, Sudán,
Egipto, Arabia Saudita, Iraq y Etiopía; entre otros. Se cree que las nubes de polvo
que se observan en la atmósfera de Marte, nuestro enigmático y colorado vecino
cósmico, son debidas a grandes remolinos de tierra.
Los remolinos que vemos todos los días en el lavabo son los llamados vórtices de
desagüe. Si uno le da rotación con la mano al agua dentro de un lavabo o de un
recipiente y permite que empiece a salir por un agujero situado en la parte central
del fondo, observará que se genera un remolino. La superficie libre del vórtice (la
que está en contacto con el aire) toma una forma que depende, entre otras cosas,
de la cantidad de rotación que se le imprimió al agua, de la profundidad del
recipiente (el tirante) y del diámetro del agujero. Dos aspectos sobre este tipo de
vórtices han llamado la atención de investigadores durante siglos. Uno tiene que
ver con la forma de la superficie libre y otro, independiente, con el sentido de la
rotación del vórtice.
Figura IV. 7. Superficie libre del vórtice de desagüe. De izquierda a derecha, (a) vórtice
débil, (b) mediano con núcleo de aire y (c) núcleo del vórtice llegando al desagüe.
Aquí vamos a considerar algunas de las ideas mencionadas con anterioridad para
esbozar lo que constituye uno de los desafíos más grandes de la física, el
problema de la turbulencia. El problema aparece en casi todas las ciencias
experimentales y, por su formulación, en las matemáticas. La "solución" a este
problema ha eludido a matemáticos, ingenieros y físicos por más años de los que
el decoro permite aceptar. Los intentos de abordar el problema han generado o
estimulado ramas de las matemáticas, han introducido múltiples ideas en física y
han generado una gran variedad de métodos matemáticos y experimentales;
todos de una utilidad notable en otras disciplinas. Muchos científicos
sobresalientes estudiaron el problema y luego prefirieron cambiar de tema para
lograr las contribuciones que los hicieron figurar en la historia. Por intentos no ha
quedado, si bien las cosas no están como al principio.
Algo claro e irreversible que sucedió a lo largo de este proceso, fue el inicio de un
cambio en la actitud de la mayoría de los físicos; en los que no se ha dado es
porque no lo requerían o porque todavía no lo pueden aceptar.
Comienza a verse claro que el buscar las leyes básicas de los constituyentes
últimos de la materia es tan fundamental como investigar las leyes que rigen los
procesos que se dan con el aumento en la complejidad de los sistemas. Casos
característicos son los estudios sobre los mecanismos que dan lugar a la
autorganización, a la formación de patrones, a la aparición de simetrías o a la
desaparición de éstas y al orden que nace cada día en lo que sólo parece ser el
caos...
Todos los flujos que se observan pueden clasificarse en dos grandes grupos, los
laminares y los turbulentos. Los casos más sencillos que ejemplifican a los
primeros son el flujo uniforme, donde la velocidad del fluido es la misma en todos
lados, y el flujo de Couette plano, ilustrado en la figura IV. 3. Los hay más
complicados, como los que aparecen en las figuras II. 7, II. 8, IV. 2, IV. 4 y IV. 7.
En todos estos el fluido se mueve en láminas y parece obedecer reglas más o
menos claras. Estudiando los flujos laminares es como se han entendido los
principios básicos que describen a los fluidos. Por otra parte, son los flujos
turbulentos los que dominan el foro.
No sólo la velocidad cambia en esta forma irregular. Casi todas las variables
hacen lo mismo. Por ejemplo, supongamos que se determina el gasto, que es la
cantidad de agua que sale cada segundo, manteniendo todo fijo. El resultado sería
de -digamos- un litro cada diez segundos (100 ml/s), aproximadamente; a veces
unos mililitros más, a veces otros menos. Es decir, fluctúa alrededor de un valor
promedio, el de 100ml/s. El asunto no tiene remedio, siempre es así cuando el
valor promedio de alguna cantidad excede de cierto valor, llamado crítico. Para
ciertos casos muy simples se ha logrado predecir razonablemente el valor crítico
que debe alcanzar cierto parámetro (usualmente el número de Reynolds) para
que el flujo pase de un movimiento laminar a uno turbulento. Es decir, que se
pierda completamente la estabilidad del flujo (se vuelva un tanto loco). Por otra
parte, el describir estas fluctuaciones, que podemos observar y cuantificar, es uno
de los aspectos más difíciles de abordar que tiene el problema, ya que se trata de
poderlos predecir, no sólo de medirlos; la medición es hoy en día un trabajo de
rutina en muchos laboratorios, si bien es necesaria una tecnología relativamente
complicada.
and so on to viscosity
Imaginemos un tanque con agua, a la que agitamos con una paleta de cierto
tamaño (escala). Al mover la paleta se producen vórtices de la misma escala.
Observamos que estos vórtices migran y se desintegran, generándose en el
proceso otros vórtices de una escala menor. Este mecanismo se continúa de una
escala a otra, hasta que la escala es lo suficientemente pequeña como para que el
movimiento de los vorticillos resultantes sea dominado por los efectos de la
fricción interna del fluido, la viscosidad. Ahí, los pequeños remolinos comienzan
una etapa de decaimiento, disipándose hasta desaparecer; la longitud típica de
esta última escala es de fracciones de milímetro.
De acuerdo con estas ideas, la energía pasa de una escala a otra, como en una
cascada en la que el agua cae de un nivel a otro, perdiendo altura (energía
potencial) pero ganando movimiento (energía cinética). En el fondo de las escalas
el movimiento se convierte en calor, disipándose la energía, y queda el fluido en
reposo. En la medida en que se siga agitando la paleta (inyectando energía al
fluido) se podrán apreciar las estructuras en las distintas escalas, siendo la más
pequeña la más difícil de ver.
Curiosamente, el mismo resultado fue obtenido en 1948 por tres físicos del más
alto nivel, en forma independiente y por caminos diferentes. Werner Karl
Heisenberg (1901-1976) y Karl Friedrich von Weizsacker (1912), durante su
detención en Inglaterra con otros científicos alemanes, y Lars Onsager (1903-
1976), en los EUA. Como ha sucedido en otros casos, la ley descubierta por estos
investigadores debía llevar como nombre un anagrama con sus iniciales, algo
como wookh; afortunadamente no fue así.
¿Qué tan independiente es el valor que tiene la velocidad en un punto del que
tiene en otro punto o del valor que tomó tiempo antes? La respuesta a esta
pregunta se encuentra en la autocorrelación de las velocidades, espacial o
temporal, respectivamente. Nos dice cómo están (cor)relacionados los valores de
la velocidad (el prefijo auto indica que es la correlación de una cantidad dada
consigo misma). Si los puntos están muy cercanos, es de esperarse que exista
alguna conexión entre los valores de la velocidad, mientras que si están muy
separados probablemente no tendrán relación alguna. En lenguaje técnico se dice
que la autocorrelación de las velocidades decae con la distancia. Por ejemplo, mi
autocorrelación temporal de memoria es de corto alcance; hay quienes aseguran
que no pasa mucho tiempo para que mis recuerdos sean cada vez más vagos...
Los intentos por extender las ideas de Kolmogorov, Obukhov, Heisenberg, Von
Weizsäcker y Onsager han sido hasta ahora infructuosos. Las extensiones han
requerido de aparatos matemáticos formidables y en ellas el esfuerzo realizado
contrasta con los escasos resultados o lo poco significativo que son. Una de ellas
fue desarrollada por Robert H. Kraichnan, durante los años cincuenta y sesenta,
con técnicas importadas de la teoría cuántica del campo, desarrolladas para el
tratamiento de fenómenos relacionados con las partículas elementales.
El uso de computadoras cada vez más grandes y veloces, de electrónica cada vez
más rápida y versátil, de sondas mecánicas, ópticas y acústicas más complejas y
delicadas han dado lugar a una revolución en la forma de hacer experimentos en
las ciencias naturales. Los laboratorios dedicados al estudio de la turbulencia no
son la excepción, es más, son un excelente ejemplo. No sería exagerado afirmar
que, por ejemplo, el desarrollo de computadoras cada vez más grandes ha tenido
como principal promotora a la dinámica de fluidos. Sin embargo, aún no existe un
problema de turbulencia que se pueda solucionar con la computadora más grande
disponible, aunque ya se empiezan a acercar...
En la figura V.3 se ilustra una de las primeras fotografías que exhibían estas
estructuras coherentes. En ésta se pone de manifiesto una estructura
bidimensional de vórtices sobre la que hay superpuesta una complicada trama de
vorticillos (la turbulencia). El flujo corresponde a lo que se llama la capa de
mezclado. Dos fluidos, uno arriba y otro abajo, se mueven de derecha a izquierda
con velocidades distintas. En este caso se trata de nitrógeno (arriba) y de una
mezcla de helio y argón (abajo). Las velocidades son de 1 000 cm/s y de 380
cm/s, respectivamente, y la presión es de 8 atmósferas. La fotografía fue tomada
por el grupo de Anatol Roshko, en la década de los setenta, usando un método
que podríamos llamar sombragrafía.
Hay la sospecha fuerte de que una de las mejores formas de acorralar a las
elusivas estructuras coherentes es estudiar el problema en términos de la
vorticidad, y los enfoques teóricos se mueven en esta dirección. De esta manera,
los experimentales tratan de medir la vorticidad y los teóricos de ver cómo se
distribuye en el espacio y el tiempo. Aquí, de nuevo, los investigadores depositan
sus esperanzas en las computadoras. Los experimentales, para la adquisición,
manejo y análisis de grandes cantidades de datos; sin ellas, este trabajo tomaría
cientos de miles de años, de todos aquellos que trabajan en el tema, ¡para un solo
caso! A los teóricos les pasa algo semejante. Para todos se ha convertido en la
herramienta indispensable y la fuente de inspiración para muchos estudios, desde
las simulaciones directas de flujos sobresimplificados hasta el terreno de juego
para los experimentos pensados.
¿Cómo era posible que el resultado de una ecuación, compuesta por términos bien
definidos y perfectamente regulares, diera lugar a un comportamiento no
determinista? Otros, seguramente, hubieran descartado los resultados y pensado
que había algo equivocado con el método de solución o con la computadora
misma. Para Lorenz había algo nuevo y profundo en lo que acababa de encontrar;
había descubierto a los atractores extraños. Pasaron varios años para que la
comunidad cientifica se percatara de la enorme importancia de su hallazgo. Baste
decir que gracias a su trabajo, ahora sabemos que nunca podremos predecir el
tiempo más allá de siete días. Si oímos que se espera buen clima para la semana
próxima, podemos asegurar que es precisamente eso, una esperanza.
¿Qué es un atractor extraño? Veamos primero qué son los no extraños, por
extraños (o triviales) que parezcan.
Si estiramos un resorte con una canica de cada lado y lo soltamos dentro del
agua, observaremos que empieza a oscilar y que poco a poco se va parando. Si
hacemos la misma prueba fuera del agua, en el aire sucio que algunos respiran,
sucede lo mismo, aunque el amortiguamiento será mucho menor y se tardará más
en detenerse. Decimos que la disipación es menor en este caso. Si lo pudiéramos
hacer en el vacío, tardaría más en detenerse; habríamos reducido aún más la
fricción. Al cambiar el material del que está hecho el resorte por uno más elástico
(más caro), la disipación podría reducirse aún más. A pesar de que nunca
podríamos quitar la fricción (disipación) por completo, podríamos ver que cada
vez tarda más en detenerse. En condiciones ideales se quedaría oscilando ad
infinitum. Estas observaciones ilustran el punto siguiente.
Lev Davidov Landau (1908-1968), tal vez el más brillante físico soviético, famoso
por sus profundos trabajos en la más variada gama de temas de la física, publicó
en 1944 un célebre artículo. En éste propuso un modelo sobre la forma en que se
genera la turbulencia en todos los flujos. En forma esquemática, la idea era que si
en cierto flujo se iba aumentando el parámetro básico, como el número de
Reynolds, el estado de movimiento cambiaría con el tiempo a otro de naturaleza
un poco mas complicada. Al seguir aumentando el parámetro de nuevo ocurriría
un cambio en la estructura del flujo, y así sucesivamente. A la larga decía, el flujo
es lo suficientemente complicado como para que se vea turbulento.
Figura V. 6. Estela detrás de un cilindro circular en flujo uniforme. La velocidad del flujo es
mayor que en los casos de las figuras II. 7. Y II. 8.
Esto explica por qué cada vez que se empieza un flujo dentro de un túnel de
viento, por ejemplo, se observan patrones muy diferentes. Sucede que nunca
podemos repetir un experimento exactamente en la misma forma; siempre
partimos de un estado muy parecido, pero no del mismo. Todo tiene que ver con
la forma en que un movimiento va a evolucionar; la contaminación del aire en el
túnel, la deformación nocturna del dispositivo mecánico y, podría argumentarse,
el humor del investigador. Ernst Mach (1838-1916), uno de los profundos
pensadores sobre el quehacer científico, hubiera estado fascinado por tal
resultado; el llamado principio de Mach, en pocas palabras, postula la influencia
de cada parte del Universo sobre el resto. Esto, "aunque usted no lo crea", le
ocurre a los queridos fluidos; algo así tenía que andar pasando.
De hecho, desde el siglo XIX, James Clerk Maxwell fue explícito al respecto
cuando decía: "Es una doctrina metafísica que de las mismas causas se siguen los
mismos efectos... Pero es poco útil en un mundo como éste, en el que las mismas
causas nunca se repiten y nada ocurre dos veces..." Luego agregaba: "[....] el
axioma físico análogo es que de causas semejantes se siguen efectos semejantes.
Ahora hemos pasado de la igualdad a la semejanza, de la certeza absoluta a la
burda aproximación [...]; cuando sucede, el curso de los acontecimientos es
estable. Hay fenómenos más complicados en los que ocurren inestabilidades [...]
que aumentan rápidamente con el número de variables relacionadas". Con la
intuición que lo llevó al Olimpo de la ciencia, concluía: "[...] el estudio de las
singularidades y las inestabilidades, más que el de las cosas continuas y estables,
tal vez elimine el prejuicio en favor del determinismo [...]."
Digamos que la forma del atractor es la que se ilustra en la figura V.5. El estado
inicial del fluido corresponde a un punto cualquiera en el papel de la gráfica; el
punto escogido podría describir un movimiento regular y sencillo que no cambia
en el tiempo.
Al publicarse la teoría, los investigadores pensaron que las cosas eran demasiado
abstractas como para tener conexión alguna con los experimentos. Después de
todo, a pesar de que los autores tenían un reconocido prestigio, se trataba de
matemáticas muy complicadas. Al irse traduciendo la teoría al lenguaje de los
interesados en el tema, se vio que había formas de poner a prueba algunas de las
afirmaciones de la teoría.
Como dijera hace unos años Uriel Frisch, destacado físico contemporáneo: "Yo
creo que tenemos un conocimiento peor sobre lo que sucede en un milímetro
cúbico de agua, que sobre lo que ocurre en el interior del núcleo atómico."
Sabiendo que se refería al problema de la turbulencia, como prototipo de esta
ignorancia crasa que cargamos sobre los hombros, no puede uno menos que
compartir su visión.
Una anécdota sobre este punto la debemos a Sir Horace Lamb (1849-1934),
destacado investigador inglés en el campo de la mecánica de fluidos. En un
homenaje internacional que se le brindó al cumplir los ochenta años, en 1929,
declaró lo siguiente: "Cuando muera, espero ir al cielo. Ahí, espero ser iluminado
sobre la solución de dos problemas, la electrodinámica cuántica y la turbulencia.
Sobre el primero, soy muy optimista..." En cuanto al segundo esperamos que
Lamb haya ido al cielo. Seguramente así sabrá la respuesta del primero. Cabe
agregar que el primero fue resuelto por uno de los grandes físicos de este siglo,
Richard P. Feynman (1918-1988), por lo que le fue otorgado el premio Nobel en
1965. En palabras de Feynman: "la turbulencia es el último problema importante
por resolver de la física clásica."
I I I . U N A " H I S T O R I A " D E L A S I D E A S
Una historia no es sólo una secuencia de nombres, fechas, hechos y las anécdotas
que los conectan. Es más bien una explicación e interpretación de éstos a partir
de hipótesis fundamentadas y basadas en patrones globales del comportamiento;
en nuestro caso es la tarea de los profesionales del campo, los historiadores de la
ciencia. Más que evocar una historia, lo que haremos será una visita parcial a
través del tiempo para recordar pasajes exquisitos del desarrollo del pensamiento
humano. Así, pasaremos por algunos aspectos que costaron mucho entender o
manejar, por ciertos puntos sencillos y prácticos que nos dejan sospechar las
peculiaridades de un fluido y otros más bien curiosos o simplemente divertidos,
que aparecen distribuidos en el tiempo y en diferentes sitios, lo cual les da una
perspectiva que, al recordar las circunstancias culturales, políticas, sociales o
económicas, permite intuir la historia.
Los primeros que se estaban ahogando por humo dentro de una cueva sacaron al
fuego a la intemperie o se buscaron una cueva con el techo más alto, y
aprendieron que el aire caliente sube, pero sin intuir en ello el principio de la
flotación. Los primeros navegantes tal vez surgieron de una poco afortunada
pérdida de equilibrio en la orilla de un río y del fortuito paso de un tronco en la
vecindad inmediata. También podemos imaginar que, al observar que ciertos
objetos flotaban en un río, a más de uno se le ocurrió aprovechar el hecho para
viajar río abajo y, con suerte, al otro lado.
El paso de la información en forma oral, de una generación a otra, hizo que gran
parte de ella se perdiera en el tiempo. Por otro lado, algunos instrumentos y tal
vez sus principios se manejaban con el más meticuloso sigilo por quienes
detentaban el poder político o religioso, o ambos, como usualmente sucedía. Los
portentos exhibidos en los templos egipcios para mantener la fe, mostrar el
beneplácito de los dioses o dejar ver la ira divina, se lograban usando
mecanismos hidráulicos ocultos, empleando aire o agua como vehículo; elevar
objetos, desplazarlos y, con ingenio, desaparecerlos, fue una práctica desarrollada
en ciertas esferas no exclusivas a los cultos a Ra. Que el saber trae consigo el
poder no sólo fue explotado por quienes disfrutaban los médanos del Nilo... Pero
el secreto que rodeó a esa "tecnología" se quedó en el pasado y no podemos más
que especular qué tanto la entendían.
De las diez obras que se conocen de Arquímedes (287-212, a.C.) destacan sus
dos volúmenes sobre la hidrostática y la flotación. En la mejor tradición de la
escuela de Euclides, con cuyos discípulos se educa, basa todo su análisis en dos
postulados sencillos y ciertamente correctos. A partir de éstos demuestra varios
resultados que todavía forman parte del cuerpo de los teoremas básicos de la
hidrostática y la estabilidad de cuerpos que flotan. Uno de ellos es el principio que
lleva su nombre y establece que "si un sólido es parcial o totalmente inmerso en
un fluido, sufre una fuerza ascendente igual al peso del fluido desplazado". Este
sencillo enunciado nos permite entender un sinnúmero de fenómenos
aparentemente disímbolos Veamos ahora tres de ellos: la flotación de un barco, la
flotación de globos meteorológicos de altura fija y la proporción de oro en un
anillo de bodas.
El principio dice que las cosas flotan en un fluido, lo que implica que pesan menos.
La reducción en peso es igual al peso de una cantidad de líquido de volumen igual
al del objeto sumergido. Consideremos un ejemplo. Imaginemos un cubo de
cuarzo de 1 cm³, se mide un centímetro por lado. Al vacío, encontramos que pesa
2.65 g. Al sumergirlo en agua desplaza 1 cm³ de ésta. Al pesar esta cantidad de
agua se halla que pesa 1 g. Por lo tanto, en el agua, el peso de nuestro cubito de
cuarzo es de 1.65 g.
Puesto que un metro cúbico de agua pesa una tonelada, para hacer flotar (reducir
su peso a cero) a un barco de 1 000 toneladas es preciso que desplace 1 000 m³
de agua. Es decir que el volumen del barco, abajo de su línea de flotación (Figura
III.2), debe ser de, digamos, ¡un cubo de 10 m por lado! Si es más largo que
ancho no tiene por qué estar tan sumergido y será de menor calado. Criterios de
estabilidad, también desarrollados por Arquímedes, son algunos de los aspectos
que determinan la forma más adecuada para el casco del barco, la parte
sumergida.
Figura III. 2. Línea de flotación.
Un globo lleno de algún fluido menos pesado que el aire sufre una fuerza que lo
hace ascender, por flotación. Puesto que con la altura el aire es cada vez menos
denso, más enrarecido, el globo subirá hasta la altura en que ambos fluidos (el
contenido en el globo y el aire externo desplazado) pesen lo mismo. Conociendo
la forma en que varía la densidad del aire con la altura es posible predeterminar la
altura a la que un globo meteorológico llegará y permanecerá, con sólo variar su
volumen y contenido. Estos globos se emplean principalmente para medir
propiedades de la atmósfera como la presión, la temperatura, la humedad y los
contaminantes (¡en la ciudad de México éstos pueden medirse con un globo sobre
la banqueta!).
Siendo el aire un fluido, todas las cosas sufren flotación y, me apena decirlo, ¡las
personas son más pesadas de lo que creen!
La herencia que recibió Grecia para su notable desarrollo en todas las áreas le fue
legada principalmente por Mesopotamia y Egipto. Sobre ella construyó el partenón
intelectual que conocemos. Por otro lado, las bases sobre las que creció la cultura
latina fueron tomadas e incorporadas intactas de los griegos. El imperio romano
se consolidó sin que Alejandría hubiese dejado de ser el emporio cultural del
mundo occidental. Si Grecia es recordada sobre todo por sus contribuciones en
filosofía, artes y matemáticas, Roma buscó brillo en otras direcciones y muy poco
contribuyó al avance de las matemáticas y al conocimiento de los fluidos.
Los mil quinientos años subsecuentes fueron ricos en obras de gran importancia
en torno al manejo de aguas. Todavía pueden apreciarse los notables acueductos
que los romanos sembraron en el orbe que dominaron. El diseño y construcción
de sistemas de aprovisionamiento de agua, de su distribución a través de grandes
ciudades y de los drenajes correspondientes, hablan del grado de desarrollo de la
ingeniería hidráulica en el imperio. La necesidad de resolver problemas prácticos
impulsó ese desarrollo. El regado de inmensos jardines palaciegos y el proveer de
comodidades a sus ocupantes fue un ingrediente adicional. Poco o nada se logró
sobre el entendimiento y uso del agua y el viento. El intercambio con el mundo
árabe, a través de las diversas guerras de conquista y reconquista mutua,
incluyendo las Cruzadas, permitió un flujo de ideas, invenciones y costumbres que
en el crisol del tiempo dieron luz a la deslumbrante explosión renacentista.
Los diez siglos que siguen a la caída del Imperio romano y que gestan la aparición
de una brillante era en la historia de nuestra civilización, sirven para consolidar el
sistema económico feudal y el poder de la iglesia cristiana, asimilándose el legado
filosófico griego. Este último aspecto llegó a su climax con la aristotelización del
cristianismo por Tomás de Aquino en el siglo XI. La incorporación de las
matemáticas, la lógica, la metafísica y la astronomía griegas a la enseñanza en las
"universidades" medievales, que fundara Carlomagno en el siglo VIII, llevó a la
formulación de la educación escolástica basada en las siete artes liberales
agrupadas de la siguiente manera: el trivium(gramática, lógica y retórica) y
el quadrivium o artes matemáticas (aritmética, astronomía, geometría y música).
En el periodo que concluye con el siglo XIV destacan los procesos de crítica a la
metafísica y mecánica aristotélicas, representados por Juan Buridan en Francia
(1300-1358) y Guillermo de Occam (1285-1349) en Inglaterra. Esta etapa de
revisión crítica fue el fruto de un proceso lento, laborioso y acumulativo de
múltiples, protagonistas, tiempos y lugares. Una consecuencia directa de esto es
el nacimiento de las ciencias experimentales.
En las palabras de Leonardo: "En cada parte de un río, y en tiempos iguales, pasa
la misma cantidad de agua, independientemente de su ancho, profundidad,
tortuosidad y pendiente. Cada masa de agua con igual área superficial correrá
tanto más rápido como poca profunda sea [...]" (ver Figura III. 3);"[...] en A el
agua se mueve más rápido que en B, tanto más como la profundidad de A cabe
en B...".
Este análisis básico y casi evidente, que eludió a sus predecesores, puede
considerarse como la primera formulación clara y cuantitativa de la ecuación de
continuidad para el flujo estacionario (que no cambia con el tiempo) de un fluido
incompresible (de densidad constante). Este resultado, en términos más
apropiados, que no más comunes, establece que la velocidad es inversamente
proporcional a la sección transversal. Equivalentemente, el producto de la
velocidad y el área, en cada sección, es constante. La generalización de este
resultado a la forma en que hoy se conoce tomó todavía 300 años mas.
A + B + C = constante;
Imagine un tubo vertical por el que sale un chorro de aire (Figura III. 6(a)), por
ejemplo, el tubo de una aspiradora casera conectado por la parte de atrás. Al
poner una esfera ligera, digamos una pelota de ping-pong, dentro del chorro
ascendente, ésta permanece ahí sin caer. La razón es que la presión del aire en el
chorro (cuya velocidad es grande) es menor que la del aire fuera de éste (con
velocidad baja). Cuando la pelota empieza a salir de la corriente, la presión
exterior, mayor a la interior, la regresa al chorro. El otro efecto, superpuesto al
anterior, es la competencia entre el empuje del chorro, hacia arriba, y el peso de
la esfera.
Figura III. 7. (a) El Olympic alcanza al Hauk. (b) Resultado de la atracción hidrodinámica.
El teorema fue sólo una de las aportaciones de Bernoulli. El original enfoque que
dio el planteamiento y solución de diversos problemas fue de gran valor para el
desarrollo de la naciente disciplina y constituyó un vigoroso estímulo para las
brillantes dotes de algunos de sus contemporáneos y amigos.
En 1755 aparecen, una tras otra, las obras clásicas de Euler sobre los
fundamentos de la mecánica de los fluidos. El genio matemático más notable del
siglo había asimilado por completo la obra newtoniana y lo había plasmado en un
lenguaje mucho más elegante y preciso. Formuló las ecuaciones diferenciales de
movimiento en su forma general, deduciendo a partir de ellas los resultados
previos ya conocidos, como el teorema de Bernoulli, dándoles su verdadera
dimensión y generalidad. Posteriormente, exploró un gran número de
consecuencias y atacó múltiples problemas de carácter práctico asociados a la
maquinaria hidráulica, particularmente la turbina, la resistencia sobre barcos y la
propulsión.
En los cien años comprendidos entre 1750 y 1850 se sentaron las bases teóricas y
experimentales de la mecánica de los fluidos. Ese siglo sirvió para resumir,
ordenar y extender el conocimiento que sobre los fluidos se había acumulado
durante miles de años. Desde entonces hasta la fecha la tarea ha sido la de
extraer de estos principios, formulados en forma matemática, la información
necesaria para poder entender y predecir el comportamiento de los fluidos.
El periodo de gestación asociado a los últimos cincuenta años del siglo XVIII no se
limitó, desde luego y antes bien al contrario, a los fluidos, a la parte académica o
a la intelectual. La sociedad estaba fraguando una lucha contra el hambre, contra
la injusticia y por la libertad e igualdad. Así, se entiende la intensa actividad que
se aprecia en los fluidos; nada sorprende pues que Lagrange visitara a Voltaire a
instancias de D'Alambert y que este último dirigiera y participara en una extensa
obra de coordinación y planeación de vías fluviales, navegación y canalización en
toda Francia.
Con la segunda etapa, correspondiente a la primera mitad del siglo XIX, concluye
el nacimiento de la mecánica de los fluidos. Mucho se ha hecho desde entonces y
mucho, seguramente mejor, habrá de hacerse en el futuro. La criatura nació y
creció, llegando a su infancia al empezar el último siglo del milenio. Veamos cómo
acabó de formarse y qué dones (y defectos) trajo al mundo. Para hablar de su
madurez habrá que esperar, al menos, un ratito.
Desde el punto de vista experimental, el siglo XIX se inició con una sólida
tradición. Se contaba con una gran variedad de técnicas y métodos muy
confiables y, en consecuencia, de resultados razonablemente precisos, en especial
sobre la resistencia de obstáculos a un flujo. La hidráulica había avanzado en
forma casi independiente de la hidrodinámica teórica. En cierto sentido,
caminaban por veredas distintas, aunque paralelas, compartiendo problemas y
perspectivas pero difiriendo en métodos, prioridades y lenguaje.
Un año después, Navier presentó una memoria en la que, guiado por una analogía
formal con la teoría de la elasticidad, deducía por primera vez las ecuaciones que
incorporaban la viscosidad en la dinámica de un fluido. Como caso especial, el
fluido ideal o invícido (que no presenta fricción interna), recuperaba las
ecuaciones de Euler; en el caso general, las ecuaciones eran de una naturaleza
esencialmente distinta. Desafortunadamente, la deficiente interpretación que dio a
sus resultados, al resolver ciertos casos, le impidió explorar su notable
contribución. Aun así, el agua, y todos los fluidos, ¡habían empezado a mojar!
Las ideas de Navier sobre la atracción y repulsión entre las moléculas, como
origen de la viscosidad, fueron seguidas y ampliadas por dos excelentes
matemáticos de la época: Simeon Denis Poisson (1781-1840) y Agoustin Lonis de
Cauchy (1789-1857). El carácter especulativo de las hipótesis "microscópicas" que
usaron le da a sus trabajos en este particular un interés sólo histórico.
El resultado clave fue encontrar que la fuerza de fricción de una parte de fluido
sobre otra depende de la velocidad con la que se mueve una respecto de la otra;
en términos más técnicos, se diría que la fuerza de fricción, por unidad de área,
depende linealmente del gradiente de la velocidad (es decir, de la forma en que
varía la velocidad de un punto a otro); qué tan estrecha es esta relación lo
determina un factor constante llamado el coeficiente de viscosidad. A diferencia
de Navier y de Saint Venant, Stokes analizó y resolvió las ecuaciones para
algunos casos, obteniendo los primeros resultados que podían ser
contrapunteados exitosamente con los experimentos. Las ecuaciones llevan ahora
el nombre de Navier Stokes.
Sería difícil hallar a un científico cuyo nombre esté asociado a más resultados que
el de Stokes. En matemáticas hay un importante teorema que lleva su nombre, en
fluidos las ecuaciones básicas llevan su apellido, al igual que una ley de
movimiento para esferas y una paradoja; en óptica, unas líneas espectrales y el
corrimiento de la luminiscencia son sus hijas registradas y bautizadas.
Se podría pensar que con las bases de la teoría bien establecidas, una sistemática
educación daría a la criatura una madurez de brillante productividad. Como suele
suceder, lo que podía salir mal, salió mal. Apareció un problema que hasta la
fecha no ha sido resuelto satisfactoriamente: las matemáticas necesarias para
resolver las recién descubiertas ecuaciones (no lineales) no se habían desarrollado
(¿inventado?, ¿descubierto?...). Así, al comenzar la segunda parte del siglo XIX ,
los interesados en la hidrodinámica se encontraron con un problema claramente
planteado pero con insuficientes herramientas para resolverlo.
Entre otros, destacan los trabajos de Gotthilf Heinrich Ludwig Hagen (1797-1884)
y de Jean Louis Poiseuille (1799-1869). El primero fue un distinguido ingeniero
alemán cuyas contribuciones recibieron la injusticia de la historia; nunca recibió el
crédito por su trabajo. Poiseuille fue un médico interesado en la fisiología de
aparato cardiovascular que, para caracterizar el flujo sanguíneo, llevó a cabo
cuidadosos experimentos en tuberías muy delgadas (tubos capilares) para
determinar la forma del flujo, la resistencia de éste y la descarga. De esta manera
estableció que la cantidad de líquido que pasa por un tubo cada segundo depende
de la carga (la diferencia de presiones por unidad de longitud) y de la cuarta
potencia de su diámetro (el diámetro multiplicado por sí mismo cuatro veces).
Veinte años más tarde se desarrolló el primer análisis teórico que explicaba las
observaciones de Poiseuille. Franz Neumann (1798-1895) y Eduard Hagenbach
(1833-1910), en forma independiente, obtuvieron las expresiones para la forma
(parabólica) del flujo y para la descarga, que se ajustaban bien a los datos
conocidos; Hagenbach, al citar sólo a Poiseuille sin mencionar a Hagen, inició la
discriminación de su compatriota.
Vale la pena hacer notar que el problema aún está lejos de resolverse. Una gran
cantidad de trabajos experimentales sobre el flujo en tuberías se sigue publicando
en la bibliografía especializada; innumerables tablas empíricas se han publicado
para su uso en el diseño de sistemas de drenaje, plantas industriales de
diferentes características, etc., y complicadas relaciones entre parámetros del
flujo siguen siendo elaboradas. Para las condiciones que se dan en la práctica, el
movimiento de un líquido es sumamente complicado y la teoría ha sido, hasta la
fecha, incapaz de dilucidar el problema. Las predicciones teóricas del
siglo XIX, desde luego aproximadas, han podido mejorarse muy poco.
Por un lado, son notables las teorías de vórtices que desarrollaron Hermann
Ludwig Ferdinand von Helmholtz (1821-1894), Gustav Robert Kirchhoff (1824-
1887) y William Thomson (1824-1907), más conocido por su título nobiliario de
lord Kelvin. Destacan también las obras de Joseph Boussinesq (1842-1929) y de
John William Strutt (1842-1919), el famoso lord Rayleigh. El primero de éstos
desempeñó el papel que Fernando de Rojas diera a Celestina; sus rigurosos
estudios analíticos fueron siempre contrastados con los datos y las observaciones,
subrayando las virtudes de una relación duradera entre la hidráulica y la
hidrodinámica. Rayleigh, versátil como algunos de sus brillantes contemporáneos,
abordó problemas que siguen siendo una muestra del claro pensar de una exitosa
generación de científicos; su teoría de la propagación del sonido es sólo un
ejemplo.
La idea básica es como sigue. Una madre ingeniosa decide jugar en la cocina de
su casa con unos popotes. A pesar de las protestas de su familia, averigua cómo
se mueve el jugo de mandarina en su "dispositivo experimental" y, como es de
suponerse publica un artículo sobre el tema. Meses más tarde y en otro país, en
una oficina con poca luz, un ingeniero del Departamento de Aguas debe rediseñar
el sistema de drenaje de un barrio, dentro del cual se encuentra su casa; es decir,
le interesa que funcione. ¿Le sirve lo que escribió la susodicha mamá? Ella trabajó
con el jugo de un cítrico, tubos de plástico y una sana curiosidad; él debe hacerlo
con... otros materiales. Gracias a la dama y a Reynolds, el ingeniero puede evitar
hacer pruebas costosas y, tal vez, desagradables.
Y así, Prandtl quiso, pudo e hizo. Haciendo ver las bondades de cada parte y las
desventajas del celibato para una pareja tan potencialmente fértil, manipuló la
situación y documentó (con teoría y experimentos) la conveniencia de ese
matrimonio. El amor llegará después —les decía— y a la pareja la dejó bien
casada. La prole sigue agradecida a Prandtl por las delicadas gestiones que hizo
para abrir un horizonte que explorar, donde antes sólo parecía haber una
oscuridad abisal.
Con este panorama de la historia de los fluidos, un tanto cubierto de nubes, pero
con suficientes claros que dejan entrever el hermoso paisaje, es mejor dejar a la
mente descansar y a los ojos distraer. Es un buen momento para detener la
lectura, estirar las piernas y mirar a un fluido de frente. Luego, viendo agua, aire
o fuego, murmurar en silencio, (lo que no haríamos con un adolescente) "te voy
entendiendo...".
I I . ¿ Q U E S O N Y C Ó M O L O S D E S C R I B I M O S ?
COMO en casi todas las novelas, todo resulta más comprensible si se comienza por
aclarar de qué se trata, sin echar a perder el final. Así, sería apropiado que, como
con cualquier personaje principal de una novela decente (cosa que el protagonista
no tiene por qué serlo), tratemos de construir su imagen, esbozar su carácter,
describir sus pintorescas reacciones, sus variados comportamientos y su lenguaje;
en fin, de mencionar todos aquellos aspectos que lo hacen sujeto de escritura y,
se esperaría, de lectura.
Como se verá más adelante, el objetivo se logra sólo parcialmente. Resulta que
nuestro protagonista no es ni rubio ni moreno, ni alto ni bajo, ni lo uno o lo otro;
simple y sencillamente es difícil de acorralar con palabras y escurridizo para
manejar. Es más, después de que hablemos de su interesante estructura
(digamos, sus raros órganos internos, sus prominentes señas particulares, sus
peculiaridades anatómicas y de algunas de sus idiosincrasias y traumas
infantiles), resultará que para algunos fines prácticos carece de importancia. Es
como si, tras describir minuciosamente el origen de una tormentosa secta a la que
pertenece el medio hermano de la heroína, ésta se cambiara de continente y
pasara ahí el resto de sus apasionados o bucólicos días, sin relación alguna con
los inconfesables crímenes de la susodicha secta. Aun así, un biógrafo meticuloso
no dejaría pasar la oportunidad de abordar el mórbido efecto que podría haber
causado en su carácter o en sus ocasionales delirios nocturnos.
La materia, es decir, todo lo que nos rodea y que percibimos a través de los
sentidos, viene en tres presentaciones aparentemente distintas y exclusivas: en
sólido, en líquido o en gas. Una observación más cuidadosa nos llevaría a pensar
que esta clasificación es un tanto simplista y que debiera ampliarse, o cuando
menos subdividirse. Así, empezaríamos por organizar las cosas según su textura,
color, abundancia, rigidez, etc., hasta llegar al punto en el que cada material
quede ubicado y etiquetado correctamente en el nuevo y exhaustivo esquema así
elaborado. Este enfoque tendría sus ventajas, pues dada una sustancia con un
nombre debidamente asignado (como el piridotín-3-glutaciclina-6-fosfomentasa;
le antepongo el artículo "el" porque, de existir, debiera ser masculino), bastaría
con buscar en el compendio, por orden alfabético, para encontrar su descripción
completa, tal vez una ilustración y las referencias cruzadas a las otras sustancias
que comparten una o más características.
"Un fluido es un material que fluye". Así, además de risa, la definición no da más
que pena y sorprendería que pudiera servir para caracterizar a una sustancia.
Ahora, hay que precisar lo que es fluir. Para esto vamos a separar en dos a las
formas en que actúa una fuerza, que tampoco hemos definido, pero que puede
entenderse como el efecto de un agente externo; con buena voluntad y sentido
común las cosas usualmente funcionan. Toda fuerza (representada por la flecha
en la figura II. 1), al actuar sobre una superficie, puede imaginarse formada de
dos partes, una normal o perpendicular a la superficie (N) y otra paralela
o tangencial a ésta (T). Cada una de éstas, llamadas componentes de la fuerza,
tiene un efecto distinto sobre el material. La componente normal es la que
asociamos a la presión y tiende a comprimir o estirar, dependiendo de la dirección
de la fuerza. La componente tangencial produce un efecto de deslizamiento
relativo entre los planos en que imaginamos estructurado al medio y se le llama
también fuerza cortante.
Parecería que con esto se ha logrado clasificar a todas las sustancias en dos
grandes grupos. Sin embargo no es así, lo cual hace el punto más interesante.
Hay sustancias que tienen un comportamiento dual para las que nuestra definición
es inadecuada o insuficiente. Es tal la diversidad de sustancias que la tarea de
completar y precisar una sola definición es inútil.
Cuando Tito Lucrecio Caro escribe su poema De rerum natura (Sobre la naturaleza
de las cosas) en el siglo I, a.C., el atomismo griego es incorporado a la cultura
latina, enriquecido en el proceso por Epicuro, su defensor en el
siglo III, a.C. Durante los siguientes diecisiete siglos, crisol del renacimiento y
etapa de gestación de los principios del conocimiento experimental, las ideas
filosóficas sobre este particular se mantienen casi invariables: la materia no puede
ser dividida sin límite y sus elementos constitutivos primitivos son inmutables,
incontables en número y finitos en su diversidad.
En una gota de agua hay 100 000 000 000 000 000 (1017) moléculas de agua
aproximadamente, ¡tantas como segundos en la edad estimada del Universo!
Sería ridículo intentar escribir las ecuaciones y patético pensar en resolverlas. Nos
tomó siglos pasar de una idea filosófica a una concreta que nos permite explicar
suficientes cosas como para que su validez esté, por lo pronto, más allá de toda
duda razonable. Ahora resulta que el asunto es tan complicado, que la idea es
algo enteramente inútil (al menos para estudiar chorros de agua).
La solución de este problema se encuentra en la complejidad del mismo. Suena
paradójico, pero con un ejemplo podemos intuir el argumento que siguieron
quienes contribuyeron a esclarecer la solución.
Una pequeña variación trae como consecuencia un efecto grande: la caída del
dado. Los detalles de la perturbación son casi imposibles de prever y por
consiguiente la posición precisa del dado no se puede predecir. Las fuentes que
originan estas pequeñas variaciones son diversas, complicadas y difíciles de
estimar. Un efecto es siempre el mismo: el dado se cae. Si hacemos una serie de
pruebas encontraremos que las direcciones en las que cae están distribuidas
sobre un círculo y que las caras que quedan hacia arriba son las tres opuestas al
vértice de abajo, apareciendo éstas con igual frecuencia, si el número de pruebas
es suficientemente grande. Así, del problema inicial, imposible de resolver, hemos
podido encontrar varios aspectos claros y precisos de la solución, quizá obvios o
triviales en este caso, pero que nos dicen cosas concretas sobre la caída. En
primer lugar sabemos que cae; si esperamos lo suficiente, algo o alguien llegará a
importunar la delicada paz del dado. Segundo, el dado no tiene preferencias y cae
en cualquier dirección. En tercer lugar, hay tres caras que se reparten por partes
iguales el derecho de aparecer arriba.
Este ejemplo ilustra los puntos claves que permiten estudiar la dinámica de un
fluido, constituido de un número extraordinario de átomos.
Nuestro sistema, el dado y sus alrededores, todo lo que rodea y afecta al dado,
siguen ciertas leyes, las leyes de la mecánica. La aplicación de estas leyes resulta
tan complicada que no podemos resolver el problema en la forma originalmente
planteada, es decir, predecir en detalle el movimiento del sistema. Si cambiamos
el enfoque buscando ahora una descripción cualitativa, más general, es posible
entonces responder en forma precisaalgunos aspectos de la caída de dados;
aspectos de carácter más amplio que no dependen de los minuciosos y
abrumadores detalles del proceso. Para esto aceptamos a cambio describir el
comportamiento más probable o promedio del sistema, introduciendo un elemento
esencialmente nuevo en nuestra descripción: la probabilidad. Esta herramienta,
una de las más poderosas que las matemáticas han generado, es ahora un
ingrediente fundamental en la física.
Desde un punto de vista más práctico, cualquier fluido como el agua o el aire
forma una estructura continua y suave al estudiarlo macroscópicamente, es decir
en dimensiones mayores a, digamos, décimas de milímetro (0.1 mm = 10-4 m).
En un volumen de un cubo de 0.1 mm de longitud por lado, de una millonésima
de litro (10-12 m³), hay 7.34 x 1015 (734 seguido de 13 ceros) moléculas de aire, a
una temperatura de 27º C ¡y a presión atmosférica! En este volumen, tan
pequeño como parece, hay tal cantidad de moléculas que la presencia de unos
millones de más o de menos de éstas no afectan de manera apreciable ninguna
cantidad medible, aun con los instrumentos más precisos de que se dispone. Estos
instrumentos miden cantidades promedio sobre un desorbitado número de
partículas, de manera independiente de éste.
En una verdadera escala microscópica los átomos ocupan una fracción muy
pequeña del volumen que los contiene, el espacio vacío entre unos y otros ¡es
mayor al 99.999... %!, de modo que las propiedades del fluido son muy
irregulares, cambiando rápidamente de una región a otra debido al continuo
movimiento de las moléculas; no usamos pues esta microescala cuando lo que
interesa es entender cómo se vacía un lavabo o se infla un globo.
En realidad, las matemáticas son una disciplina teórica que va más allá de un
lenguaje o una herramienta, aunque vistas como tales permiten, en manos
educadas y hábiles, forjar una imagen abstracta, extremadamente útil y
especialmente bella del universo concreto que percibimos. Una virtud de las
imágenes así logradas es su capacidad de hablar, a quien las sabe oír, sobre lo
que es posible y lo que es probable. ¡Cómo hubiesen aprovechado algo semejante
las sacerdotisas del oráculo de Delfos! No siendo de origen divino las predicciones
así logradas, como nunca lo fueron las pregonadas por las pitias en Delfos,
siempre son sujetas de verificación, a través de más experimentos. Basta con uno
de éstos que no corresponda a lo esperado o predicho, para que sea necesario
modificar parte de las premisas usadas en la elaboración de la predicción,
repitiéndose entonces el proceso. Ha sucedido, por fortuna muy de vez en
cuando, que las modificaciones necesarias han ido al mismo fondo de los
principios filosóficos.
La física funciona más o menos como lo hemos esbozado. Al construir una teoría
se parte de algunos conceptos primitivos que se dejan sin definir o se apela a la
intuición para introducirlos, como la masa, el espacio y el tiempo. Después, se
definen cuidadosamente cantidades compuestas, como la densidad, la velocidad y
la presión, y acto seguido se postulan ciertas proposiciones (basadas en
experimentos), los axiomas o leyes fundamentales, como verdaderas y
universales. Su inmensa virtud es que, ante la duda, basta con llevar a cabo un
experimento para constatar su validez. A partir de los axiomas se deducen
entonces una serie de proposiciones o teoremas que, posteriormente, llegan a ser
consecuencias no triviales y lejanas de aquellos postulados originales. En muchos
casos los teoremas son formulados como conjeturas basadas en la intuición o
como resultado de un experimento. El reto en estas circunstancias es encontrar el
procedimiento para deducirlo a partir de los axiomas: encontrar
la explicación completa del fenómeno a partir de las leyes fundamentales de la
teoría.
En cuanto a los conceptos básicos las definiciones tal vez dejarán que desear y
seguramente el lector podría encontrar otras más adecuadas, pero por ahora no
hacen falta. La masa es la cantidad de fluido que medimos con una balanza. El
espacio es el escenario que usamos para localizar o ubicar al fluido o a una parte
de éste. Imaginamos que existe un punto especial, que llamamos origen, y desde
él medimos longitudes con una regla. El tiempo será un parámetro que nos
permita ordenar estados diferentes del fluido de acuerdo con su aparición en el
experimento; este ordenamiento lo establecemos en relación con el Sol o con un
reloj. Si no hay cambios, o estados distintos, el parámetro tiempo desaparecerá
de la descripción. Si el fluido presenta comportamiento electromagnético, a los
elementos básicos debe agregarse la carga.
El segundo punto es más complicado y tiene que ver con cuántas y cuáles
cantidades es necesario disponer para contar con una descripción completa y
exhaustiva de un fluido. Esta cuestión, que no está del todo libre de controversia,
especialmente cuando se trata de fluidos un tanto exóticos, ha ido resolviéndose a
lo largo del tiempo con base en la experiencia. Al quedar enunciadas las leyes en
su forma actual se estableció cuántas y cuáles variables, que
llamaremos variables dependientes, son las mínimas para caracterizar el estado
dinámico de un fluido. Al espacio y al tiempo se les llama variables
independientes. Antes de especificar qué variables dependientes se usan para
describir a un fluido consideremos ahora el punto que se refiere al marco en el
que éstas se definen. Para esto vamos a usar una analogía con la astronomía.
Finalmente, para concluir con los preparativos que nos permitan entrar en el
tema, vamos a introducir las variables dependientes, los campos, que nos facilitan
la descripción de diversos procesos y la discusión de los principios subyacentes.
Dividimos en dos clases a estas variables, los campos escalares y los
campos vectoriales.
Los campos escalares son relativamente sencillos y los conocemos por la práctica
que adquirimos al habitar nuestro planeta. Su especificación en cada punto está
dada por un número de acuerdo con una escala universalmente aceptada. Una
gráfica o una tabla de datos correspondientes cada uno a puntos distintos, nos da
toda la información espacial del campo. Si éste cambia con el tiempo se necesita
una tabla para cada tiempo. Los campos escalares usuales son la densidad, la
temperatura y la presión, que representamos por , T y p, respectivamente.
La densidad nos da una medida relativa entre masa y volumen, es decir, entre la
cantidad de materia y el espacio que ocupa, y es una propiedad más o menos
familiar. El oro es más denso que el merengue y éste más denso que el aire,
todos lo intuimos.
Centro de la Tierra ~ 12
Agua 1
~ aproximadamante
El otro campo escalar que usaremos es la presión y, como se dijo en la sección II.
1, está definida como la fuerza normal que actúa sobre un área dada. Si la misma
fuerza normal actúa sobre dos áreas distintas, la presión es menor sobre el área
mayor. Como ilustración imaginemos un objeto cuyo peso es suficiente como para
que al ponerlo encima de un huevo éste se aplaste sin remedio. Siempre podemos
poner suficientes huevos como para que el peso se reparta entre todos, de modo
que la fuerza que recibe cada uno no exceda su "factor de aplastamiento". Al
distribuirse la fuerza sobre un área mayor, la presión es menor. (figura II.4.)
Por eso los cuchillos cortan, los picahielos pican y las palas palean con la eficiencia
que lo hacen; ni se diga si además el usuario sabe emplearlos.
Las dimensiones de presión son de fuerza/área y las unidades de uso más común
son el pascal (Pa), las atmósferas (atm) y los milímetros de mercurio (mm-Hg); la
equivalencia entre éstas es: 1 atm = 760 mmHg = 101,352 Pa. La presión de una
atmósfera es igual al peso que una columna de mercurio de 76 cm de altura
ejerce sobre un cm², al nivel del mar. Es la misma que ejerce toda la columna de
aire arriba de nuestra cabeza. Esto lo demostró Evangelista Torricelli, discípulo
predilecto y último de Galileo, usando el sencillo y convincente dispositivo que
aparece en la figura II. 5.
Figura II. 5. Tubo de Torricelli para determinar la presión atmosférica.
Un efecto semejante se observa con el agua, excepto que la columna es ¡de más
de 10 m de altura!; por eso es más sensato usar mercurio, pues siendo metal se
mantiene líquido a temperatura ambiente. Curiosamente, fue René Descartes,
filósofo y matemático del siglo XVII, quien sugirió a Blaise Pascal el experimento
para determinar la forma en que cambia la presión atmosférica con la altura. El
joven genio construyó entonces un barómetro, como el de la figura II. 5, pero usó
vino tinto en lugar del mercurio, ¡en una columna de 14 metros! Debió ser una
experiencia memorable...
En el caso de los campos vectoriales las cosas son un poco más complicadas e
interesantes, como las personas. Los vectores requieren para su especificación de
algo más que un número: reclaman dirección. La velocidad es un ejemplo
característico, ya que no es suficiente dar un número, su magnitud, como 20
km/h; hace falta agregar la información que establece en forma unívoca
la dirección en la que se mueve el objeto en cuestión. En cada punto y a cada
tiempo es preciso dar tres datos, como por ejemplo la magnitud (el tamaño de a
flecha que representa al vector) y dos ángulos.
Cada vector es entonces representado por una tema de números que nos da, en
el punto e instante correspondientes, la magnitud y orientación locales del campo.
Una representación frecuente de un campo vectorial es a través de sus línea de
campo, que para el caso de la velocidad en un fluido se llaman líneas de
corriente o de flujo. En cada punto de éstas el vector velocidad (cada flecha) es
tangente. En donde las líneas de corriente tienden a juntarse la velocidad es
mayor que en aquellas donde parecen separarse. Si consideramos flujos en dos
dimensiones, como el flujo de una película delgada encima de una superficie, sólo
necesitamos dos cantidades, la magnitud y el ángulo con respecto a una
dirección; esta última la escogemos con base en algún capricho o conveniencia.
En la figura II. 7 se ilustran estas curvas.
Figura II. 7. Flujo uniforme y lento alrededor de un cilindro circular. Nótese que es (casi)
imposible distinguir la dirección del flujo.
Aun sabiendo que todos los colores son combinaciones de sólo tres ingredientes
primarios, el rojo, el azul y el amarillo, no deja de sorprender la gama cromática
que percibimos. ¡Qué espectáculo disfrutaríamos si contásemos con noventa
colores primarios! Así, la pasmosa riqueza en la diversidad de objetos y
comportamientos contrasta con la sobria sencillez de sus pequeñísimos
componentes.
Hay dos isótopos del helio en la naturaleza llamados 4He y 3He (helio cuatro y
helio tres). Ambos tienen dos electrones y la diferencia está en el número de
componentes del núcleo; además de los dos protones, el helio cuatro tiene dos
neutrones y el tres tiene sólo uno, por lo que el 3He es más ligero. Por ser el más
abundante en la naturaleza y por ser el protagonista principal de lo que sigue nos
referiremos al 4He como helio.
¿Qué son en realidad los átomos, los electrones, los neutrinos y demás objetos
microscópicos? La teoría correspondiente, que llamamos genéricamente mecánica
cuántica, y cuyo idioma natural es el de las matemáticas, nos dice claramente qué
son y qué hacen. Permite hacer predicciones notables sobre los eventos más
probables, los valores esperados para velocidades, masas, energías, fuerzas,
vidas y milagros de estas peculiares criaturas.
Decir que somos polvo de estrellas, además de una frase poética saturada de
meloso romanticismo, es una afirmación científica literal.
Descubrir cada elemento, para después caracterizarlo y conocer sus propiedades
más distintivas, fue un proceso arduo y tedioso que tomó muchos siglos. Tras de
lograr purificar una cantidad razonable de cada uno se procedía, entre otras
cosas, a determinar las condiciones bajo las cuales el elemento se encontraba en
las fases sólida, líquida o gaseosa. Se aprendió que bajando la temperatura de un
gas se convertía en líquido y que enfriándolo más el líquido se solidificaba. Así
empezó el desarrollo de la tecnología de bajas temperaturas.
Contar con un sibil (sitio fresco o frío para guardar comida o pieles), ciertamente
era común desde tiempo inmemorial, por lo que sorprende que no fuera sino
hasta el siglo XVIII cuando se desarrollaran los primeros procesos para enfriar
artificialmente. De hecho, la primera máquina para producir hielo se construyó
hasta 1755 por William Cullen. Sin embargo, fue el interés por licuar a todos los
gases el que motivó el desarrollo de métodos para producir temperaturas cada
vez más bajas.
Es bueno mencionar que, de acuerdo con una de las leyes de la física (la llamada
tercera ley de la termodinámica), NO es posible alcanzar la temperatura de 0ºK
en un proceso que comprenda un número finito de pasos. En otras palabras (más
tontas desde luego), habría que vivir un tiempo infinito para manipular una
sustancia y enfriarla hasta el cero absoluto. (Véase García- Colín, L. S.)
Con técnicas cada vez más refinadas, el último cuarto del siglo XIX vio por fin la
licuefacción de los reacios gases comunes que constituyen nuestra atmósfera.
Entre 1883 y 1885, en Cracovia, Polonia, S. V. Wroblewski y K. S. Olzewski
lograron finalmente licuar oxígeno, nitrógeno y monóxido de carbono. El 10 de
mayo de 1898, en Londres, Inglaterra, J. Dewar licuó el hidrógeno. El
siglo XIX terminaba y ya se habían alcanzado temperaturas de 15ºK (casi 260ºC
bajo cero) y la licuefacción de todos los gases, excepto el helio.
Durante las siguientes décadas, hasta principios de 1940, se logró ir bajando aún
más la temperatura hasta llegar a unas décimas por abajo de 1ºK, en el intento
por solidificar el helio líquido. En este proceso se descubrieron una serie de
hechos y de fenómenos sin paralelo en la naturaleza, que se creían exclusivos,
hasta mediados de 1986, de los sistemas fríos (los verdaderamente fríos).
Todo parece indicar que la teoría BCS y sus más directas extensiones no son
aplicables a estos complicados compuestos. Parte del problema es que la
desproporcionada cantidad de papel dedicada a presentar resultados sobre estos
materiales incluye un gran número de trabajos, teóricos y experimentales,
contradictorios. Es posible, si bien es poco probable, que los elementos básicos de
la nueva teoría se encuentren sepultados en algún vehículo de información
científica, como el "Acta de erudición de Macondo". Habría que revisar parte de las
publicaciones existentes y leer u oír críticamente las supuestamente ingeniosas
teorías que se pregonan casi todos los meses explicando el fenómeno. Ya dirá el
siglo XXI.
Por lo pronto, el siglo que acaba vio al ser humano producir las más bajas
temperaturas del Universo. En los primeros instantes de la Gran Explosión que dio
origen al Universo, hace más de quince mil millones de años, las temperaturas
fueron tan altas que son difícilmente imaginables y tal vez nunca puedan ser
alcanzadas ni con los más grandes aceleradores de partículas. Sin embargo, el
extraordinario proceso de enfriamiento que se inició con ese violento amanecer,
no ha logrado producir temperaturas más bajas que los 3º K que constituyen la
llamada radiación de fondo, vestigio arqueológico del nacimiento cósmico.
Una vez licuado el helio, la siguiente meta fue solidificarlo, cosa que nunca se
pudo lograr a presión atmosférica. En la década de los veinte se construyó la
curva de coexistencia líquido-sólido. Esto quiere decir que se encontraron los
valores de la presión y la temperatura a los que el helio líquido se solidifica. A
presiones altas se logró licuar y solidificar al gusto del investigador. Por ejemplo,
en 1930, se determinó que el helio gaseoso se solidifica a una temperatura de 42º
K si la presión es de 5 800 atmósferas, y que si ésta es menor de 25 atmósferas
el helio jamás pasa a la fase sólida, aun a cero absoluto (sí se pudiese alcanzar);
esto es lo que se llama un resultado asintótico o límite.
El helio, además de ser el único fluido que permanece como tal en el cero
absoluto, hace trucos igualmente únicos cuando se encuentra con el disfraz de
helio II.
Se había observado que el helio II burbujeaba como cualquier otro líquido cuando
se encuentra en ebullición. Al llegar al punto el efecto desaparecía y quedaba
una superficie en total reposo; había que agitar el sistema para convencerse de
que aún se encontraba ahí. Al descubrir que era capaz de conducir el calor 200
veces más rápido que el cobre se pudo explicar el hecho anterior: la eficiencia de
la conducción es tal que lleva el calor de las paredes a la superficie del líquido sin
necesidad de aspavientos, como el burbujeo que los otros líquidos requieren,
incluido el helio I. La dificultad era que no había forma de entender cómo podía
conducir tan rápido; daba al traste con las ideas comunes y corrientes. Estas se
salvaron a costa de ideas aún más exóticas.
La conclusión del experimento fue que el helio II tenía una viscosidad menor que
¡una diezmilésima de la que tiene el hidrógeno gaseoso! Kapitza sugirió que no
tenía viscosidad alguna, y que reflejaba un comportamiento igual al de un fluido
ideal, "aunque usted no lo crea". Como veremos en la siguiente sección, la teoría
de Landau permitió elaborar una explicación a éste y otros hechos raros.
El efecto fuente es uno de los espectáculos circenses más sorprendentes que nos
proporciona el helio II, si bien téoricamente no es tan interesante y el mismo
Kapitza lo diseñó sólo para apoyar la imagen de superfluido que iba desarrollando.
Si se ponen dos recipientes con helio II conectados por un capilar muy delgado,
los niveles se igualan (esto, desde luego, lo hacen hasta los ponches navideños).
Sin embargo, si se varía la temperatura (o la presión) de uno de los lados, se
produce un flujo por el capilar que da lugar a un cambio en la presión (o la
temperatura) del otro lado, por lo que también se le llama
efecto termomecánico. Para demostrar que un flujo de calor llevaba aparejado un
movimiento rápido del fluido, Kapitza hizo algo semejante a lo que se presenta en
la figura VI. 3. iluminando la parte inferior del tubo que contiene helio II,
comunicándole calor de esta manera, ¡se produce un chorro permanente!
Figura VI. 3. Efecto fuente en el helio II.
La perplejidad de Kapitza debe haber ido en aumento con cada portentoso truco
que observaba. También buscando demostrar que el eficiente transporte de calor
era el resultado de la superfluidez del helio II, llevó a cabo el siguiente
experimento. En la salida de un recipiente con helio II, que conectaba con otro
igual, puso una pequeña propela o rehilete con el propósito de detectar la salida
de fluido. Al iluminar una de las caras del recipiente (pintada de negro para que
absorbiera calor) para subir su temperatura, las aspas empezaron a dar vueltas y
el helio II salió hacia el recipiente más frío. Con esto confirmaba, fuera de toda
duda, que el flujo de calor incluía cierto tipo de movimiento del helio II. Lo que sí
no esperaba es que, aun cuando salía helio II del recipiente, el nivel permaneciera
igual, ¡manteniéndose lleno!
Los experimentos de Kapitza, así como la reinterpretación que dio a los que
hicieron sus antecesores, demostraron la existencia del fenómeno de la
superfluidez. Pero, ¿cómo ocurría?, ¿qué la producía?, ¿cuál era el mecanismo?
¿Cómo podría explicarse la de un fluido sin viscosidad que en ocasiones parece
tenerla y que al salir de un frasco lo mantiene lleno?
De acuerdo con la teoría de Landau, el helio II está formado por una mezcla de
dos fluidos, conocidos como la componente normal y la componente superfluida.
En el punto todo el helio II es normal y conforme va disminuyendo la
temperatura empieza a crearse la componente superfluida hasta que, a cero
grados Kelvin, todo el helio II es superfluido. En cierto sentido, la parte normal es
la que tiene temperatura y la superfluida siempre esta en el cero absoluto. De
esta manera, si compramos unos litros de helio y los enfriamos a 1º K, tendremos
un líquido en el que una pequeña parte es helio tres y la parte restante es helio
cuatro, el que a su vez, hallándose en su forma de helio II, tiene una parte normal
a 1º K y una superfluida a 0º K (ésta es la parte fácil).
No hay que perder de vista que en realidad se trata de un solo fluido hecho de los
mismos átomos y que la imagen de una mezcla es una analogía para interpretar
"hechos consumados". Lo que sucede es que, al igual que la gente, los átomos
van cambiando su comportamiento conforme baja la temperatura. A nadie le
llama la atención que al poner agua en un congelador se convierta en hielo, aun
sabiendo que está constituido por las mismas moléculas de agua (H2O); de algún
modo, lo que sucede es que sólo se han organizado de otra manera.
Según la teoría, el helio II presenta dos tipos de movimientos simultáneos e
independientes, el del superfluido y el del normal. Mientras que para caracterizar
un flujo común y corriente basta con determinar la velocidad en cada punto, para
este pintoresco líquido hay que hallar dos velocidades en cada punto, la de cada
componente de la mezcla. Se advirtió que sería un tanto raro y ahora es claro que
no es nada intuitivo (excepto por el hecho de que las personas raras son frías).
Las diferencias más notables entre las componentes de la mezcla son las
siguientes. La componente superfluida no tiene viscosidad, se mueve sin problema
alguno por cualquier rendija (capilar o capa delgada), y no transporta calor. Es el
fluido ideal con el que soñaron los físicos y desearían utilizar los ingenieros. Por su
lado, la componente normal es la que tiene todos los defectos, empezando por ser
real. Se mueve sobre —¿dentro?— un fondo ideal absolutamente helado que no lo
afecta y transporta calor en forma muy eficiente.
Con estas ideas en mente, es posible poner en claro algunos de los experimentos
descritos anteriormente. Empecemos con el último, donde un rehilete indicaba la
salida de fluido sin que bajara el nivel del recipiente. La razón por la que la
pequeña propela gira, indicando un flujo de salida del recipiente, es que la
componente normal es la que transporta calor al recipiente más frío. Al salir
ejerce una fuerza sobre las aspas como resultado de su viscosidad. A cambio, la
componente superfluida se mueve en la dirección contraria, sin oposición alguna y
sin ejercer fuerza sobre la propela, manteniendo el nivel del recipieite a la misma
altura. No habiendo un flujo neto de helio II, al compensarse exactamente los
movimientos opuestos de las componentes normal y superfluida, el nivel
permanece fijo.
En las delgadas capas que forma el helio II, como cualquier fluido que moja el
recipiente que lo contiene, es la componente superfluida la que puede moverse
libremente y a gran velocidad; la componente normal, mucho más lenta, también
se escabulle, lubricada por su envidiable compañera. De esta manera sale hasta
vaciar el lugar que ocupaba o igualar el nivel exterior.
Así, para sorpresa de casi todos los investigadores, al menos por un rato, en 1972
se descubrió otro superfluido, el helio tres. Aun cuando nos podría parecer que se
trataba casi de la misma cosa, resulta que las teorías existentes (Landau y
continuadores) no podían aplicarse directamente. Con un nuevo fluido cuántico y
las posibilidades de mezclarlo con el otro, el estudio de estas peculiares y únicas
formas de materia se convirtió en uno de los temas centrales de investigación en
la física de bajas temperaturas, salvo por la referida fiebre de los
superconductores calientes.
El helio tres es más raro en la naturaleza y juntar una cantidad razonable cuesta
mucho más trabajo y, desde luego, dinero. Como era de esperarse, licuarlo iba a
ser posible sólo a bajas temperaturas y su comportamiento estaría descrito por
las leyes cuánticas; después de todo es hermano mellizo del helio cuatro, pero no
gemelo. Sus características individuales lo hacen interesante para quien estudia
asuntos tan disímbolos como las estrellas de neutrones o la superconductividad.
Véamos brevemente la razón.
Las partículas elementales (como los cuarks), las un tanto menos primarias (como
el neutrón), los átomos, las moléculas y demás entes que constituyen lo que es,
están divididos por la mecánica cuántica en dos grandes grupos
fundamentalmente distintos, los fermiones y los bosones. Los nombres honran a
dos notables físicos del siglo XX, Enrico Fermi (1901-1954) y Satyendra Nath Bose
(1894-1974), quienes de manera independiente resolvieron problemas en los que
esta diferencia era esencial.
Los fermiones, entre los que se encuentran los constituyentes del átomo
(electrones, protones y neutrones), tienen espín semientero y los bosones, como,
los fotones y los piones, lo tienen entero. Por ejemplo, el electrón es fermion por
tener espín 1/2 (y momento angular /2), mientras que el fotón es un bosón al
tener espín 1 (con momento angular ). Cuando se combinan varias partículas
para formar un objeto más complicado, basta con sumar los espines de cada
componente para saber si tiene carácter bosónico o fermiónico. En el caso que
nos ocupa, el 3He está formado por dos protones, dos electrones y un neutrón, lo
que trae como consecuencia que sea un fermión; el 4He es un bosón debido al
neutrón adicional que tiene.
Como siempre sucede, hay más por decir y hacer que lo dicho y hecho. Este vago
y extraño mundo que hemos esbozado de los superfluidos es más para sugerir un
panorama que para describir un paisaje. Ciertamente hay otros comportamientos
igualmente interesantes que se han descubierto (con sus correspondientes
explicaciones teóricas) además de los que aquí hemos tratado. También, lo que es
igualmente importante, sigue completamente abierta la puerta para hacer,
descubrir y explicar.
La pasión por buscar caminos nuevos en las artes y las ciencias es insaciable, sus
fuentes son inagotables.
TRANSFERENCIA DE CALOR
RESISTENCIA DE CONTACTO
Cuando superficies conductoras distintas se sitúan en contacto,
aparece generalmente una resistencia térmica en la interfase de los
sólidos. Esta resistencia, llamada resistencia de contacto, se
desarrolla cuando los dos materiales no se ajustan exactamente y por
ello entre ambos queda atrapada una delgada capa de fluido. A través
de los puntos de contacto del sólido, el calor se transmite por
conducción mientras que a través del fluido de la interfase el calor se
transmite por convección y radiación.
CONDUCTIVIDAD TÉRMICA
ECUACIÓN DE LA CONDUCCIÓN
1) Cantidad neta de calor que entra en el volumen de control por
conducción en la unidad de tiempo y por unidad de volumen.
Consideraciones:
resolviendo se consigue
Una vez conocida la distribución de temperaturas, con la ley de
Fourier en coordenadas cilíndricas, se determina la transferencia de
calor
Consideraciones:
CONVECCIÓN NATURAL
donde
: coeficiente de expansión
: densidad
: viscosidad
g: aceleración de la gravedad
D: diámetro
L: longitud
Cp : Calor específico a presión constante
CONVECCIÓN FORZADA
Las tablas ( 4 , 5 ):
Dan la viscosidad del agua y el aire y se usan para verificar el número
de Reynolds y asegurar que el flujo es turbulento.
Las tablas ( 6 , 7 ):
Conducen al coeficiente de transferencia de calor básico h1 como
función del flujo en peso W/1000, donde W está en libras por hora.
La tabla ( 8 ):
Es un factor de corrección para la variación del diámetro interior desde
1 pulgada. El coeficiente de transferencia de calor buscado h es
entonces simplemente igual a F.h1
En las tablas: ( 9 , 10 , 11 , 12 , 13 )
se dan los valores requeridos de Fe y FA para lo cual es necesario
conocer la emisividad de las superficies que intervienen.
INTERCAMBIADORES DE CALOR