You are on page 1of 171

Estudio Numérico de Flujos Turbulentos Isotérmicos en Canales y

Flujos Laminares con Convección Mixta en Cavidades

Numerical Study of Isothermal Turbulent Channel Flows and Mixed


Convection Laminar Cavity Flows

Elizaldo D. dos Santos, Carla M. Xavier, Adriane P. Petry

Universidad Federal del Rio Grande del Sul, Programa de Posgrado en Ingeniería Mecánica,Calle
Sarmentó Leite, 425, CEP: 90.050-170 Porto Alegre, RS-Brasil. (e-
mail: edsantos@mecanica.ufrgs.br; xavier_carla@yahoo.com.br; adrianep@mecanica.ufrgs.br)

Resumen

Se ha realizado un estudio numérico sobre flujos estacionarios turbulentos, en canales


tridimensionales y flujos transitorios laminares en cavidades con transferencia de calor por
convección mixta. Las ecuaciones de conservación se resuelven a través del Método de Elementos
Finitos utilizando esquema temporal explícito de Taylor-Galerkin. La simulación de Grandes Escalas
se emplea para el tratamiento de la turbulencia. Para el caso isotérmico, flujos con Re = 3300 son
simulados usando los modelos submalla de Smagorinsky y Dinámico. Este último modelo permitió
mejorar los perfiles de velocidad media y las estadísticas de la turbulencia. Los campos transitorios
de velocidad y temperatura se compararon con los resultados de la literatura, obteniéndose un
desvío inferior a 6%.

Palabras clave: flujo turbulento, flujo laminar, convección mixta, cavidades, métodos numéricos

Abstract

A numerical study about three-dimensional steady state turbulent channel flows and laminar
transient cavity flows with mixed convection heat transfer has been done. The solution of the
conservation equations is obtained by means of Finite Element Method and Taylor-Galerkin explicit
scheme. Large Eddy Simulation is employed for the treatment of turbulence. For the isothermal
case, flows with Re = 3300 were simulated using the Smagorinsky and Dynamical subgrid models.
The latter model allowed improving the average velocity profiles as well as turbulence statistics.
The transient velocity and temperature fields were compared with results of the literature, leading
to a deviation lower than 6%.

Keywords: turbulent flow, laminar flow, mixed convection, cavities, numerical methods
INTRODUCCIÓN

Flujos turbulentos con transferencia de calor se presentan en varios fenómenos en el campo de la


ingeniería (intercambiadores de calor, generadores de vapor, enfriamiento de paquetes electrónicos
entre otros) y en los fenómenos naturales (dispersión de contaminantes en la atmósfera). La
conexión entre los fenómenos de turbulencia y transferencia de calor ha sido una fuerte motivación
para el entendimiento del proceso dinámico en la región de la superficie y ha llevado a muchas
investigaciones numéricas y experimentales (Kobayashi, 2006; Eiamsa-ard and Promvonge, 2009).
En el presente trabajo se enfoca el mecanismo de transferencia de calor por convección mixta.

Una herramienta poderosa es el análisis numérico de las ecuaciones gobernantes (conservación de


masa, cantidad de movimiento y energía) que modelan matemáticamente flujos incompresibles,
turbulentos y no isotérmicos. De entre los diferentes métodos numéricos existentes, se optó por
utilizar el método de elementos finitos (FEM) que, según Reddy y Gartling (1994), posee la ventaja
de hábilmente representar dominios complejos para la solución de problemas de contorno e
iniciales crecientes en el campo de la ingeniería, tornándolo una herramienta práctica.

La gran variación existente entre las grandes y las pequeñas escalas presentes en la estructura de
la turbulencia, asociada con sus características como: irregularidad, elevados números de Reynolds
y la tridimensionalidad de las estructuras vorticiales tornan el análisis numérico de este fenómeno,
a través del abordaje numérico de Simulación Directa, extremamente onerosa, visto que los
dominios bajo análisis precisan de enormes discretizaciones espaciales y temporales, conduciendo
a un número de grados de libertad y de ecuaciones muy grande para ser resueltas en cualquier
equipamiento computacional disponible actualmente. Según Wang et al. (2005) el número de
nodos de una malla para simulación de un flujo no-isotérmico es del orden de Pr3Re9/4. Algunos
ejemplos del costo computacional correlacionado con la simulación directa pueden ser vistos en
(Lesieur et al., 2005).

Como consecuencia de la imposibilidad de aplicar Simulación Directa para la gran mayoría de los
problemas es necesario utilizar metodologías alternativas como los modelos clásicos basados en la
hipótesis de la media temporal de Reynolds (RANS) (Wilcox, 2002) y en la Simulación de Grandes
Escalas (LES) utilizada en el presente trabajo (Lesieur et al., 2005; Saugat, 2006). En la
Simulación de Grandes Escalas se realiza solamente el modelado de las pequeñas escalas (siendo
las grandes escalas resueltas directamente). La gran ventaja de utilizar este tipo de abordaje es
que las escalas submalla poseen una naturaleza más universal, con una estructura más isotrópica,
del que las restantes estructuras turbulentas (Lesieur et al., 2005; Saugat, 2006) lo que permite
un modelado más adecuado del flujo, además de requerir un menor costo computacional que la
simulación directa.

El modelado numérico de flujos incompresibles a través del método de elementos finitos presenta
dificultades oriundas de las fuertes características del problema discretizado, causadas por la
presencia de elementos nulos en la diagonal principal de la matriz de masa correspondiente a la
ausencia de los términos de presión (de forma explícita) en la ecuación de la continuidad. Puede
ser citado como ejemplo la imposibilidad del uso de métodos de integración temporales puramente
explícitos debido a la ausencia de la derivada temporal de la presión en la ecuación de la
continuidad (Reddy y Gartling, 1994). Con el objetivo de superar esa dificultad es usado el método
de seudo-compresibilidad (Kawahara y Hirano, 1983) donde la derivada de la presión en el tiempo
permanece en la ecuación de la continuidad (Petry y Awruch, 2006).

En el presente trabajo fueron implementados los términos de la ecuación de la energía y de


flotabilidad en la ecuación de la conservación de la cantidad de movimiento en un código
desarrollado en FORTRAN para simulación de flujos tridimensionales, casi-incompresibles e
isotérmicos desarrollados por (Petry, 2002). El método numérico utilizado fue el de elementos
finitos con elementos hexaédricos trilineares de ocho nodos, la discretización espacial fue hecha
utilizando el método estándar de Galerkin (Reddy y Gartling, 1994). En lo que respecta al
análisis de los términos transitorios fue utilizado el esquema temporal explícito de Taylor-Galerkin
(Doñea, 1984; Yoon et al., 1998; Zienkiewicz y Taylor, 2000).

Fueron obtenidos resultados de los campos de velocidad y temperatura, analizándose la variación


temporal y espacial, para un flujo con número de Re =400 y Gr = 16000, tales resultados fueron
comparados a los resultados numéricos presentados por (Ji et al., 2007). También fue realizado un
comparativo entre los modelos submalla clásicos de Smagorinsky (Smagorinsky, 1963) y dinámico
(Germano et al., 1991; Lilly, 1992) para determinación del perfil de velocidad de flujos turbulentos,
tridimensionales e isotérmicos en canales, en el modelo dinámico es utilizada la metodología
desarrollada por (Petry, 2002) llamada segundo filtrado por elementos finitos independientes.

ASPECTOS MATEMÁTICOS Y NUMÉRICOS

Para la simulación de flujos turbulentos, tridimensionales, transitorios y no isotérmicos utilizando


LES es necesaria la realización de un proceso de filtrado para la separación de las escalas (Lesieur
et al., 2005; Saugat, 2006) en las ecuaciones de conservación de masa, cantidad de movimiento y
energía conforme muestra la Ec. 1:

Donde la barra sobre la variable indica el campo de grandes escalas, el apostrofe indica un campo
submalla. Todas las propiedades termo físicas serán evaluadas en el campo medio (grandes
escalas), entonces p'=CP'=k'=0. Después el proceso de filtrado las ecuaciones gobernantes
(conservación de masa, cantidad de movimiento y energía, respectivamente) quedan de la
siguiente forma, Ec. 2, 3 y 4:

Con las siguientes condiciones de contorno e iniciales:


Las propiedades termo físicas, aunque escritas como función de la temperatura, serán consideradas
constantes en el presente trabajo para facilitar el modelado del problema (evitando no linealidades
insertadas en las ecuaciones). En lo que se refiere a los términos submalla, los

En general los términos Lijy Cij pueden ser despreciados (Lesieur et al., 2005). Inclusive, en el
trabajo de (Silveira Neto et al., 1993) fue realizada una comparación entre las tensiones de
Reynolds submalla y la suma de los términos cruzados y de Leonard (L ijy Cij), donde aquellas
fueron más de cuarenta veces mayores que estas. En lo que se refiere a los términos de flujo
turbulento de Leonard y cruzado, Silveira Neto et al. (1993) despreciaron estos términos en su
trabajo. Teniendo en cuenta lo que fue dicho antes, también despreciaremos los términos y flujos
turbulentos cruzados y de Leonard.

Modelos submalla

Los dos modelos implementados son basados en el concepto de viscosidad turbulenta. Usando la
hipótesis de Boussinesq, las tensiones de Reynolds submalla son dadas por la Ec. 8:

El modelo para el flujo turbulento es obtenido por analogía entre el transporte de cantidad de
movimiento y energía. Consecuentemente, la misma hipótesis de Boussinesq es aplicada al flujo
turbulento submalla el cual está dado por Ec.9:

Recordando que la Ec. 10 no requiere de ninguna modificación (inserción de términos relacionados


a la energía cinética submalla) pues la ecuación de la continuidad fue modificada para flujos casi
incompresibles.

Modelo de Smagorinsky

El modelo de Smagorinsky (Smagorinsky, 1963) es el primer modelo submalla introducido para la


determinación de las tensiones de Reynolds submalla y del flujo turbulento submalla y aún es
bastante utilizado. En este modelo la viscosidad turbulenta es dada por:
Donde Cs es la constante de Smagorinsky (que varía de 0,1 a 0,23 aproximadamente), A es la
longitud característica, dada por la Ec. 11, \s\ es dado por la Ec. 12 y el tensor de deformación

Sy es dado por la Ec. 13.

Y la difusividad turbulenta es indirectamente determinada por la razón de la viscosidad turbulenta y


del número de Prandtl turbulento, dado por la siguiente expresión:

El modelo dinámico submalla propuesto por (Germano et al., 1991) y modificado por (Lilly, 1992)
fue implementado para la solución del campo hidrodinámico (todavía no lo fue para el campo
térmico). El tensor de Reynolds submalla también es aproximado por la Ec. 8, considerando todo
esto la viscosidad turbulenta está definida como:

El coeficiente dinámico es calculado en función a las características locales del flujo, utilizando un
proceso de doble filtrado. El cálculo de C(x,t) está basado en las informaciones de las menores
escalas resueltas, siendo definido por la Ec. 16 y los tensores L¡j y M¡j relacionados con esta
ecuación son presentados en la Ec. 17:
Donde (∆) define la longitud característica del segundo filtro, siendo (∆)>∆. En las
ecuaciones anteriores, la barra indica el primer proceso de filtrado (filtro a nivel de malla) y el
símbolo ( ) se refiere al segundo proceso de filtrado (filtro de prueba).

Análisis numérico

Para la solución del sistema de ecuaciones, el método de elementos finitos es empleado. Para
obtener el sistema de ecuaciones algébricas, las derivadas temporales son expandidas en series de
Taylor, incluyendo los términos de segunda orden (Zienkiewicz y Taylor, 2000) y para la
discretización espacial el método estándar de Galerkin es aplicado (Reddy y Gartling, 1994). Para
ahorrar tiempo de procesamiento son utilizadas expresiones analíticas para las matrices y
elementos hexaédricos isoparamétricos (Azevedo, 1999). El esquema temporal es explícito y
condicionalmente estable; y el paso de integración posee la siguiente restricción:

Donde ∆X¡(min) es la dimensión mínima de los elementos de la malla, C es la velocidad del sonido
en el medio y V es la velocidad de referencia.

Para la realización del segundo filtrado, utilizada en la determinación del coeficiente C(x,t) del
modelo dinámico, fue utilizada la metodología propuesta por (Petry, 2002). El Segundo Filtrado por
Elementos Finitos utiliza técnicas comunes al método de elementos finitos, como: la definición de
los elementos por conectividades, el uso de dos sistemas de coordenadas (global (X 1,X2,X3) y
natural (ξ ,η,ζ) la transformación de coordenadas y funciones de interpolación de elementos. El
esquema consiste en la generación de un súper elemento en torno de cada nodo de la malla,
entonces, con funciones de forma usuales, una interpolación linear de las variables en los nodos de
los súper elementos es realizada para adquirir valores filtrados en el correspondiente nodo interno.
Mayores detalles sobre esa metodología pueden ser vistos en (Petry, 2002).

RESULTADOS

Canal isotérmico (Re=3300)

Simulaciones de flujo en canal tridimensional con número de Reynolds 3300 son realizadas para
validar el código. Los resultados son obtenidos usando los modelos de Smagorinsky y Dinámico y
comparados con datos experimentales (Nishino y Kasagi, 1989) y con otras simulaciones
numéricas (Kim et al., 1987; Germano et al., 1991). La geometría del canal y la malla uniforme de
60 x 60 x 20 elementos en las direcciones (x,y,z) son mostradas, respectivamente, en las Fig.
1 y 2.
Fig. 1: geometría del canal

Fig. 2: malla uniforme

Como condiciones de contorno, en la entrada se usa un perfil turbulento de velocidad,


completamente desarrollados (v1=V(y), v2=0) y condición de no-deslizamiento (v1=v2=v3=0)
preescrita en las paredes superior y inferior. En la salida del canal existen condiciones de contorno
naturales (t1=t2=t3= 0) (vea la Ec.5). Las condiciones iniciales utilizadas son v 1=50,49 m/s,
v2=v3=p=0. Es importante observar que, diferentemente del procedimiento normal adoptado en
simulaciones numéricas de flujos turbulentos en canales con DNS o LES, las condiciones de
contorno en las direcciones x y z en el serán periódicas. Además, en la simulación usando el
modelo submalla de Smagorinsky es usado el valor C s = 0,44, que es sugerido por Abrunhosa
(2003) para la simulación de canales.

En la Fig. 3 son mostrados los resultados de la simulación, en los modelos de Smagorinsky y


Dinámico, del perfil de velocidad V, comparados con resultados experimentales y otras
simulaciones. La tensión de Reynolds (u'v') estimada por los modelos es mostrada en la Fig. 4,
estas tensiones fueran comparadas con los resultados de (Kim et al., 1987).
Fig. 3: Perfil de velocidad U

Fig. 4: Tensión de Reynolds u'v'

El coeficiente de fricción, basado en la velocidad volumétrica media del canal, obtenido por (Kim et
al., 1987) fue de Cf0 = 6,04 * 10-4. En el presente trabajo, tanto el coeficiente obtenido con el
modelo dinámico cuanto el obtenido con el modelo de Smagorinsky fueran más bajos, con una
diferencia de 4,5% y 16%, respectivamente. Con referencia a las estadísticas de la turbulencia, las
tensiones no se previeron de manera satisfactoria con el modelo de Smagorinsky, lo que sugiere
que la constante del modelo debería haber sido menor. Las tensiones obtenidas a través del
modelo dinámico con la misma malla empleada en el modelo de Smagorinsky llevaron a resultados
más satisfactorios, reduciendo los problemas relacionados a selección del parámetro submalla. Así
las tensiones para este modelo también fueron ligeramente sobrestimadas. Entonces, es posible
decir que la selección adecuada del parámetro submalla, que es realizada por el modelo dinámico,
llevó a la mejora de los parámetros medios (velocidad media y coeficiente de fricción) así como de
las estadísticas de la turbulencia.

Cavidad no isotérmica (Re=400)

En este tópico, se presentan los resultados de flujos bidimensionales, incompresibles y no


isotérmicos en régimen laminar para número de Reynolds ReH = 400 y de Grashoff Gr = 16000 en
cavidad forzada con una de las superficies calentadas, conforme fue visto en el dominio en la Fig.
5 Los resultados aquí obtenidos son comparados con los resultados numéricos presentados en (Ji et
al., 2007) según este autor, el código que generó los resultados numéricos presentados en este
trabajo fue validado con resultados experimentales realizados por el mismo. La malla utilizada para
la discretización del dominio fue de 100 x 100 x 1 con mayor refinamiento junto a las paredes.
Simulación de Grandes Escalas también es empleada en esta simulación, lo mismo para el estudio
de un flujo laminar. En este caso los parámetros submalla utilizados fueron Cs = 0,1 y Pr T = 0,9,
que son sugeridos por (Ampofos y Karayiannis, 2003).

Fig.5: Dominio de la cavidad forzada con sus condiciones de contorno adimensionales

Las condiciones de contorno e iniciales utilizadas en el presente trabajo fueron las mismas
utilizadas en (Ji et al., 2007), las de contorno pueden ser vistas en la Fig. 5 en cuanto las iniciales
son reescritas abajo:

V1(x,yIz,t=0) V2(x,y,z,t=0) T*(x,y,z,t=0)


(20)
=0 =0 = Z*

En la Fig. 6 son presentadas isotermas, permitiendo una comparación entre los campos de
temperatura obtenidos por (Ji et al., 2007) (Fig. 6 - a, b y c) y los obtenidos en el presente trabajo
(Fig. 6 d, e y f) para los tiempos adimensionales de t adm= 1.4, 3.7 y 5 respectivamente. Las
isotermas demuestran que los dos métodos numéricos utilizados presentan un comportamiento
bastante semejante en el régimen transitorio.
Fig. 6: Campos de temperatura transitorios - resultados numéricos de (Ji et al., 2007) a)
tadm=1.4,
b) tadm=3.7, c) tadm=1.4 - resultados numéricos del presente trabajo d) tadm=1.4, e) tadm=3.7 e f)
tadm=5.0

En la Fig. 7 es posible evaluar la evolución de la temperatura (Fig. 7a) y velocidad en X (Fig. 7b)
con el tiempo (adimensionales) en el plano vertical medio (X = 0,5) para un valor fijo de Z= 0,27
para el presente código sin la utilización de los términos de flotabilidad en la formulación
(denominado en el gráfico: convección _ forzada) y con los términos de flotabilidad insertados
(convección_mixta), ya en las Fig. 8 y 9 (a - campo de temperaturas y b - campo de velocidades
en x) son presentados los resultados para dos posiciones de la cavidad en la coordenada Z
(Z=0,48, próximo al centro de la cavidad y Z=0,93 próximo a placa móvil). En Z = 0,27 fue donde
los resultados obtenidos por el código desarrollado en el presente trabajo presentan mayor
discordancia con los resultados de (Ji et al., 2007) (que utiliza el método de volúmenes finitos
basado en el algoritmo SIMPLER), obteniéndose un error medio estadístico porcentual des = 5,56%
en esta región de la cavidad para el programa con flotabilidad (consecuentemente, menor que el
error de medición I ~ 7,1% presentado por el autor para el experimento). De un modo general los
resultados obtenidos en el presente trabajo se presentaran muy semejantes a los obtenidos por (Ji
et al., 2007) permitiendo una validación del presente código desarrollado para casos no isotérmicos
en régimen laminar. En todas las regiones donde los campos de velocidad y temperatura fueron
comparados se nota la existencia de una tendencia de convergencia de los resultados conforme el
flujo tiende al régimen permanente. También se observa la mejora en el campo de temperaturas y
en el perfil de velocidades al insertar los términos de flotabilidad en las ecuaciones de conservación
de cantidad de movimiento.
Para obtener los resultados fue utilizado el supercomputador SunFire X2200, AMD Opteron 1.8GHz
Dual Core del Centro Nacional de Supercomputacion (CESUP-RS). Para el mejoramiento del
desempeño computacional fue utilizada la técnica de paralelización OpenMP.

Fig. 7: Evolución temporal en X= 0,5 y Z=0,27 - a) Temperatura - b) Velocidad en X


(adimensionales)

Fig. 8: Evolución temporal en X= 0,5 y Z=0,48 - a) Temperatura - b) Velocidad en X


(adimensionales)
Fig. 9: Evolución temporal en X= 0,5 y Z=0,93 - a) Temperatura - b) Velocidad en X
(adimensionales)

CONCLUSIONES

En este trabajo fue presentado un estudio numérico sobre flujos turbulentos, estacionarios, en
canales tridimensionales con Re = 3300 y flujos transitorios bidimensionales en cavidades con
transferencia de calor por convección mixta (Re = 400, Pr = 6 y Gr = 16000). La solución numérica
fue basada en un código desarrollado en FEM, utilizando esquema temporal explícito de Taylor-
Galerkin. La turbulencia fue abordada a través de LES.

En la simulación de los flujos turbulentos en canales fueron comparados los dos modelos de
submalla empleados. Se observó que los parámetros medios, así como las estadísticas de la
turbulencia fueron mejor predichas en las simulaciones hechas con el modelo dinámico. El
coeficiente de fricción predicho con los modelos dinámico y de Smagorisnky fueran 4,5% y 16%,
respectivamente, más bajos que el predicho a través de DNS por (Kim et al., 1987). Con referencia
a las estadísticas de la turbulencia, las tensiones no se previeron de manera satisfactoria con el
modelo de Smagorinsky, lo que sugiere que la constante de submalla debería ser adaptable a lo
largo del dominio. Esto tornase evidente cuando las tensiones son obtenidas a través del modelo
dinámico con metodología del segundo filtrado propuesta por (Petry, 2002), visto que este modelo
ha conducido a resultados más satisfactorios, reduciendo los problemas relacionados a selección
del parámetro submalla.

Para abordar problemas con transferencia de calor fue inserida la ecuación de la energía y de los
términos de flotabilidad en el código pre-existente en FORTRAN, que simulaba flujos isotérmicos,
tridimensionales, incompresibles, en régimen laminar y turbulento. Para evaluación del código,
fueron simulados flujos transitorios con transferencia de calor en una cavidad con estratificación
estable. El término de flotabilidade fue evaluado mediante dos simulaciones, una con los términos
desactivados (convección forzada) y otra con los términos activados (convección mixta). Las
topologías del campo de temperaturas indican que el comportamiento fluido dinámico y térmico fue
bastante coherente con el presentado en la literatura (Ji et al., 2007). Además, los campos
transitorios de velocidad y temperatura en función del tiempo se compararon con los resultados de
(Ji et al., 2007), obteniéndose un desvío inferior a 6%. El próximo paso es realizar la validación del
código desarrollado para flujos turbulentos y no isotérmicos utilizando LES.
NOMENCLATURA

C velocidad de propagación del sonido del medio (m/s)


Cs constante de Smagorinsky
C(x,t) coeficiente dinámico
CP calor específico a presión constante (J/kg K)
gi aceleración de la gravedad en la dirección i (1,2 o 3) (m/s2)
H altura de la cavidad (m)
k conductividad térmica del fluido (W/m K)
L longitud de la cavidad (m)
Nu número de Nusselt
P presión (N/m2)
Pr número de Prandtl (u/a)
Prt número de Prandtl turbulento
qcr flujo de calor por convección y radiación (W/m2)
q"' razón de generación de energía (W/m3)
q flujo de calor preescrito (W/m2)
ReH número de Reynolds (U0H/u)
Sij taza de deformación del campo de velocidades (s"1)
T temperatura (K)
T* temperatura adimensional (T - Tm¡n)/(Tmax - Tmin)
T temperatura preescrita en el contorno (K)
T0 temperatura evaluada en el estado de referencia (K)
t tiempo (s)
tadm tiempo adimensional (tUo/H)
ti valores prescritos de las fuerzas de superficie en el contorno (N/m 2)
vi velocidades en las direcciones i (i =1,2 o 3)
vi * velocidades adimensional en las direcciones i (i =1,2 o 3)
vi velocidad prescrita en la dirección i (i=1,2 ou 3)
xi coordenada en la dirección i (i =1(x), 2(y) y 3(z))
α difusividad térmica (m 2 /s)
αt difusividad térmica turbulenta (m 2 /s)
β coeficiente de expansión volumétrica del fluido (K -1)
Z* coordenada adimensional (Z/H)
Γ contorno del dominio o de un elemento del dominio
δij delta de Kronecker
ξ1η1ζ1 coordenada normalizada o computacional en el nodo i
ηj coseno director del vector normal al contorno en la dirección j
λ viscosidad volumétrica del fluido (kg/m.s)
μ viscosidad dinámica del fluido (kg/m.s)
ν viscosidad cinemática del fluido (m 2 /s)
νt viscosidad turbulenta (m 2 /s)
ρ masa específica del fluido (kg/m 3 )
ρ0 masa específica en el estado de referencia (kg/m 3 )
σ Fuerzas de superficies en el contorno (N/m 2 )

REFERENCIAS

Ampofo, F., Karayiannis, T.G., Experimental benchmark data for turbulent natural convection in an
air filled square cavity, Int. J. Heat Mass Transí.: 46, 3551 - 3572, 2003. [ Links ]

Abrunhosa, J.D.M., Simulação de Escoamentos Turbulentos Complexos com Modelagem Classica e


Simulação de Grandes Escalas, Tesis de Doctorado, Departamento de Ingeniería Mecánica,
Pontificia Universidade Católica do Rio de Janeiro, Rio de Janeiro, Brasil (2003). [ Links ]

Azevedo, L. R., Analise de Problemas de Interação Fluido-Estrutura Usando o Método dos


Elementos Finitos com um Acoplamento Monolítico, Tesis de Doctorado, Universidade Federal do
Rio Grande do Sul, Porto Alegre, Brasil (1999). [ Links ]

Doñea, J., A Taylor-Galerkin Method for Convective Transport Problems, Int. J. Numer. Methods
Eng.:20, 101-119(1984). [ Links ]

Eiamsa-ard, S., Promvonge, P., Thermal Characteristics of Turbulent Rib-grooved Channel Flows,
Int. Commun. Heat Mass Transí.: 36 (7), 705-711 (2009). [ Links ]

Germano, M., U. Piomelli, P. Moin y W.H. Cabot, A Dynamic Subgrid-Scale Eddy Viscosity Model,
Phys. Fluids A: 3 (7), 1760-1765 (1991). [ Links ]

Gravilakis, S., Numerical Simulation of Low-Reynolds-Number Turbulent Flow Through a Straight


Square Duch, J. Fluid Mech.: 244, 101-129 (1992). [ Links ]

Ji, T.H., S. Y. Kim, J. M. Hyun, Transient Mixed Convection in an Enclosure Driven by Sliding Lid,
Heat and Mass Transfí.: 43, 629-638 (2007). [ Links ]

Kawahara, M. y H. Hirano, A Finite Element Method for High Reynolds Number Viscous Fluid Flow
Using Two Step Explicit Scheme, Int. J. Numer. Meth. Fluids: 3, 137-163 (1983). [ Links ]

Kim, J., P. Moin y R. Moser, Turbulence statistics in fully Developer channel flow at low Reynolds
Number, J. Fluid Mech.: 177, 133-166 (1987). [ Links ]

Kobayashi, T., Large Eddy Simulation for Engineering Applications, Fluid Dyn. Res.: 38 (2-3), 84-
107(2006) [ Links ]

Lesieur, M., Metáis, O., Comte, P., Large-Eddy Simulations of Turbulence, Cambridge, New York,
USA (2005). [ Links ]

Lilly, D.K., A Proposed Modification of the Germano Subgrid-Scale Closure Method, Phys. Fluids A:
4 (3), 633-635 (1992). [ Links ]

Nishino, K., Kasagi, N., Turbulence Statistics Measurement in a Two-dimensional Channel Flow
Using a Three-dimensional Particle Tracking Velocimetry, Proc. 7 th Symp. Turbulence Shear Flows,
Stanford, 22.1.1-22.1.6, USA (1989). [ Links ]
Petry, A. P. y A. M. Awruch, Large Eddy Simulation of Three-Dimensional Turbulent Flows by the
Finite Element Method, J. of the Braz. Soc. of Mech. Sci. & Eng.: 28, 224-232
(2006). [ Links ]

Petry, A. P., Análise Numérica de Escoamentos Turbulentos Tridimensionais Empregando o Método


de Elementos Finitos e Simulação de Grandes Escalas, Tesis de Doctorado, Universidade Federal do
Rio Grande do Sul, Porto Alegre, Brasil (2002). [ Links ]

Reddy, J.N. y D.K. Gartling, The Finite Element Method in Heat Transfer and Fluid Dynamics, 1-
251, CRC, Boca Ratón, USA (1994). [ Links ]

Saugat, P., Large Eddy Simulation for Incompressible Flows, An Introduction, Springer Berlin
Heidelberg, Berlin, Germany (2006). [ Links ]

Silveira Neto, A., D. Grand, O. Metáis, M. Lesieur, A Numerical Investigation of the Coherent
Vórtices in Turbulence Behind a Backward-Facing Step, J. Fluid Mech.: 256, 1-25
(1993). [ Links ]

Smagorinsky, J., General Circulation Experiment with Primitive Equations, I. The Basic Experiment,
Mon. Weath.: 91, 99-164 (1963). [ Links ]

Wang, L, Y. Dong y X. Lou, An investigation of turbulent open channel flow with heat transfer by
Large Eddy Simulation, Computers & Fluids: 34, 23-47 (2005). [ Links ]

Yoon, K. T., S.Y. Moon, S.A. Garcia, G.W. Heard y T.J.Chung, Flowfield-dependent mixed explicit-
implicit (FDMEI) methods for high and low speed and compressible and incompressible flows,
Comput. Methods Appl. Mech. Engrg.: 151, 75-104 (1998). [ Links ]

Zienkiewicz, O.C. y R.L. Taylor, The Finite Element Method, 5 th Edition, Butterworth-Heinemann,
Woburn, Massachussets, USA (2000). [ Links ]

Recibido Mar. 31, 2010;

Aceptado May. 24, 2010;

Versión Final recibida Jul. 23, 2010


Solución numérica de las ecuaciones del flujo turbulento basada en trayectorias
características, mediante el método del elemento finito. Parte 1: Dominios multi bloques
en conexión estructurada

Eugenio Sandone

Universidad Central de Venezuela. Escuela de Ingeniería Mecánica, Caracas, Venezuela.


email: eugenio.sansone@ucv.ve

RESUMEN

En este artículo son presentados los resultados obtenidos de la aplicación de un código computacional
que permite resolver las ecuaciones de Navier-Stokes, continuidad y energía que rigen el flujo
turbulento de un fluido newtoniano monofásico. El código fue desarrollado completamente por el autor
en la Escuela de Ingeniería Mecánica de la Universidad Central de Venezuela y utiliza el método del
Elemento Finito. De forma particular fue adoptada una estrategia de solución basada en trayectorias
características que fue aplicada a mallas cuyos nodos permanecen fijos en el tiempo. En cada instante,
se aplica una técnica de paso de tiempo fraccionado en la cual las ecuaciones diferenciales son resueltas
de forma secuencial siendo garantizada la condición de Courant durante cada paso. Con el propósito de
evaluar el desempeño de la metodología computacional desarrollada en una primera etapa, ésta fue
aplicada para resolver el campo de flujo turbulento bidimensional incompresible e isotérmico, transversal
a un cilindro circular donde el dominio de cálculo fue subdividido en un número determinado de bloques
estructurados. El número de elementos de frontera entre dos bloques en conexión es el mismo, de
forma que la malla resultante es estructurada en su totalidad. La solución obtenida es comparada con
datos experimentales y numéricos apropiados para la geometría estudiada.

Palabras clave: Flujo turbulento, Simulación de grandes vórtices, Método del elemento finito, Mallas
multi bloques, Trayectorias características.

Numerical solution of turbulent flow equations based on characteristic lines by means of


the finite element method. Part one: Full structured multi-block domains

ABSTRACT

This paper presents the results obtained by the application of a homemade computational code based on
the finite element method for solving the Navier-Stokes, continuity and energy equations derived from
the turbulent flow of a single phase Newtonian fluid. This code was completely developed by the author
at the Mechanical Engineering School of “University Central de Venezuela”. A specific strategy based on
characteristic lines was selected and applied to time-fixed grids. A fractional time step was used to solve
the partial differential equations in a sequential scheme, showing good damping performances, based on
the Courant condition applied during the whole calculation. In order to evaluate the performance of the
computational code at its first stage, the bi-dimensional, turbulent, incompressible and isothermal cross
flow around a circular cylinder was solved. The computational domain was divided in a predetermined
number of blocks. Since the common frontiers between a pair of blocks match each other with the same
number of boundary elements, a full structured grid of the whole domain was obtained. The solution was
compared with experimental and numerical results suitable for the geometry analyzed.

Keywords: Turbulent flow, Large eddy simulation, Finite element method, Multi-block grids,
Characteristic lines.

Recibido: febrero 2010 Recibido en forma final revisado: mayo 2013

INTRODUCCIÓN
Hoy en día la solución por la vía computacional de las ecuaciones diferenciales que rigen el movimiento
de los fluidos son importantes ya que a través de éstas se pueden obtener los campos de distintas
cantidades vectoriales y escalares como el campo de velocidades, el campo de presión y otras
cantidades relevantes que permiten analizar de manera minuciosa la interacción que puede existir, por
ejemplo, entre el flujo de un fluido y distintos elementos de máquinas como los impulsores o rodetes de
turbomaquinarias, o también en situaciones en las cuales se quieren evaluar los porcentajes de las
componentes de una mezcla reactiva (como en los procesos de combustión) o no reactiva, o aquellos
que se relacionan con el transporte y la difusión de contaminantes en un líquido o en la atmósfera, entre
otras aplicaciones. Todos éstos son aspectos de interés relacionados con procesos de conversión de
energía y fenómenos del transporte de masa, concernientes al dominio de la ingeniería.

Diferentes metodologías numéricas han sido aplicadas hasta el presente para resolver las ecuaciones
diferenciales que rigen el movimiento de los fluidos newtonianos. La complejidad que presentan estas
ecuaciones, reside en la no linealidad existente en los términos convectivos de las ecuaciones de
momentum. La otra dificultad que se presenta reside en la presión ya que ésta, al igual que las
componentes escalares de la velocidad, se encuentra presente en las ecuaciones de momentum y se
requiere por lo tanto de otra ecuación adicional como la ecuación de continuidad para tener un número
compatible de ecuaciones e incógnitas (en el flujo incompresible). Sin embargo, la ecuación de
continuidad presenta una estructura distinta a las ecuaciones de momentum y no incluye a la presión
como variable. Por esta razón, se han desarrollado diferentes estrategias numéricas teniendo en cuenta
factores diversos como la rapidez de cálculo, la capacidad de almacenamiento computacional y la
confiabilidad de los resultados obtenidos expresados mediante algún tipo de error respecto a valores
analíticos exactos o datos experimentales apropiados. Dentro de las técnicas numéricas que se han
aplicado en problemas de flujos viscosos, las más utilizadas siguen siendo hoy por hoy aquellas basadas
en métodos de diferencias finitas, el método del Volumen Finito y el método del Elemento Finito. Aunque
el método del Volumen Finito ha ganado popularidad para resolver las ecuaciones del flujo de fluidos
viscosos, se ha demostrado (Zienkiewicz et al. 2005) que el método del Elemento Finito inicialmente
aplicado en problemas vinculados con la Mecánica de Sólidos o la Resistencia de Materiales, es tan
eficiente como la técnica precedente, siendo un método muy favorable para tratar geometrías complejas
en donde pudieran ser utilizados distintos tipos de elementos en una misma malla, así como mallas
estructuradas y no estructuradas y donde las condiciones de contorno son fáciles de imponer, inclusive
en aquellos casos en lo que se requieren establecer gradientes de cantidades físicas (Zienkiewicz et al.
2005; Chung, 2006). El método del Volumen Finito fue inicialmente concebido partiendo del concepto
del Volumen de Control, concepto que se utiliza mucho en Termodinámica Clásica y Mecánica de Fluidos,
que permite simplificar el estudio de sistemas materiales sujetos a fenómenos de transferencia de
energía. Inicialmente los tipos de celdas o volúmenes de control empleados en el método del Volumen
Finito, eran geometrías regulares, básicamente de tipo rectangular. La transformación a espacios
curvilíneos no ortogonales, impone severas restricciones a los elementos de control y se requieren de un
conjunto de transformaciones que son confiables en la medida de que los elementos sean reducidos
considerablemente de tamaño en relación con las escalas del flujo.

En los últimos años se han desarrollado algoritmos de cálculo eficientes los cuales han potenciado
notablemente la aplicación del método del Elemento Finito en el campo de la Mecánica de Fluidos. En el
caso del flujo incompresible destacan entre otras estrategias numéricas las siguientes: métodos
generalizados tipo Petrov-Galerkin (Generalized Petrov-Galerkin Methods), métodos basados en
operadores que separan las ecuaciones de momentum y continuidad (Operator Splitting Methods),
métodos de vórtices (Vortex Methods), además de los ya conocidos métodos de penalización de la
presión (Penalty methods) y los métodos basados en la solución de variables primitivas (velocidad y
presión en el caso del flujo incompresible), utilizando funciones con igual o diferentes órdenes de
interpolación (Equal-Order Velocity and Pressure Formulation, Mixed Velocity and Pressure Formutation).
Todas estas metodologías numéricas son bien reportadas, entre otros autores, por Chung, 2006 y
Huebner et al. 2001. Los métodos que aplican operadores para tratar las ecuaciones de continuidad y
momentum por separado, son eficientes en el sentido que permiten la aplicación de distintos tipos de
elementos finitos. Estos métodos se aplican también de forma eficiente en el cálculo del flujo
compresible. En años recientes Zienkiewicz et al. 2005, publican sus resultados con una metodología
basada en este tipo de técnica, la cual consiste en una formulación explícita en tiempo de las ecuaciones
de Navier-Stokes y una formulación semi implícita para la presión, en el caso del flujo incompresible. En
esta formulación, una transformación adecuada de coordenadas permite escribir las ecuaciones de
momentum en términos de líneas características o trayectorias definidas por medio del campo de
velocidades del flujo. Esta técnica ha resultado efectiva para tratar una amplia variedad de flujos
compresibles e incompresibles, donde pueden haber o no fenómenos de interface y por esta razón fue
escogida para la elaboración del programa de cálculo. En el programa que ha sido desarrollado se aplica
entonces lo que se conoce como un método segregado basado en líneas características (Characteristic-
Based Split, CBS). Nithiarasu 2003 y Nithiarasu et al. 2004, desarrollaron un código para aplicaciones de
flujo compresible e incompresible, el cual ha sido concebido para elementos triangulares simples en el
caso bidimensional y tetrahédricos de cuatro nodos en el caso tridimensional. Las versiones de estos
códigos para cada tipo de flujo, están separadas y no han sido integradas en un código único. En el
presente código desarrollado, se extiende la aplicación de la técnica CBS a diferentes tipos de elementos
en geometrías 2D y 3D, también se incorpora una técnica de solución basada en el empleo de mallas
multi bloques que permite reducir el tiempo de cálculo del proceso de factorización matricial para el
sistema de ecuaciones resultante asociado con la presión, donde se aplica una técnica eficiente de
factorización de matrices que sirve para mallas de múltiples bloques conectados de forma estructurada y
no estructurada. Esta técnica de factorización se basa en una adaptación y completa modificación del
método frontal para tratar mallas estructuradas (Taylor & Hughes, 1981). El programa de cálculo fue
escrito completamente en lenguaje C estandar. Adicionalmente fueron desarrollados también los
siguientes programas: uno para la generación de malla, uno de pre procesamiento de los archivos de
entrada, utilizados por el programa de cálculo principal y un programa de visualización gráfica de
resultados, para el cual fue empleada la librería OPEN GL. El programa de cálculo principal fue ejecutado
inicialmente en el computador del Instituto de Mecánica de Fluidos de la Universidad Central de
Venezuela, el cual es básicamente una plataforma multi procesador, constituida por 16 procesadores
que permiten el cálculo en ambiente paralelo y recientemente, en dos servidores HP Prolant con
unidades centrales de procesamiento (CPU) de 12 núcleos cada uno, adquiridos en un proyecto de
investigación, No. PG08-8290-2011-1 llevado a cabo por el autor del trabajo a través del Consejo de
Desarrollo Científico y Humanistico, CDCH de la Universidad Central de Venezuela. Sin embargo para los
cálculos realizados, se utilizó sólo un procesador ya que no han sido todavía incorporadas las librerías de
paralelización en el código y esto hace que el cálculo aún no sea tan rápido como se requiere en
aplicaciones de esta índole. La principal motivación para realizar un código de esta naturaleza, se debe a
que en los países desarrollados, tales códigos son concebidos y elaborados en universidades y centros
de investigación y cuentan con el auspicio del sector tecnológico e industrial con el propósito de resolver
problemas complejos o realizar modificaciones importantes desde el punto de vista del diseño de
equipos y sistemas de gran envergadura y donde los aspectos experimentales pudieran elevar
considerablemente aquellos de tipo económico del estudio que se desea emprender. Así que la
universidad resulta el lugar idóneo para la realización de este tipo de actividades y en Venezuela la
brecha de separación entre el sector industrial tecnológico y el académico será cada vez menor en la
medida de que este tipo de desarrollos computacionales sea aplicado para tratar problemas de interés
en los cuales se requiere un alto nivel de especialización y conocimiento.

ECUACIONES GENERALES DEL FLUJO TURBULENTO

El programa de cálculo se basa en la solución de las ecuaciones de transporte del flujo turbulento. De
forma general estas ecuaciones pueden ser escritas en la siguiente forma:

Los vectores U, C, D y Q, identifican, respectivamente, a las incógnitas principales expresadas en forma


conservativa, los términos convectivos, los términos difusivos y los términos fuentes, los cuales tienen
las componentes siguientes:
los símbolos supra barra (-) y supra tilde (~), se refieren, respectivamente, a operaciones de filtrado
espacial y promediación másica según Favre (Lesieur et al. 2005). Los términos: y se refieren
cada uno: al tensor residual de segundo orden de esfuerzos turbulentos y el tensor residual de primer
orden relacionado al flujo turbulento de calor, que expresan el intercambio de momentum y calor entre
las escalas filtradas y las escalas de subrejilla, las cuales son las escalas más pequeñas de turbulencia
en el rango inercial que se pueden considerar por encima de la micro escala de Kolmogorov (Lesieur et
al. 2005). Estos tensores tienen las siguientes estructuras:

El tensor de esfuerzos filtrado para el caso de un fluido newtoniano es de la


forma: donde: siendo ij, la delta de Kroeneker
y la presión termodinámica filtrada. También, μ y κ, son respectivamente: la viscosidad dinámica
y la conductividad térmica del fluido que dependen fundamentalmente de la temperatura absoluta
θ, por otro lado es la rata de calor transferida por unidad de volumen en el seno del fluido. El
tensor residual de esfuerzos turbulentos: , puede ser simulado mediante un modelo de grandes
vórtices apropiado, donde para aplicaciones prácticas, se ha utilizado con buenos resultados el
modelo de Smagorinsky 1963, que permite expresar el tensor residual de turbulencia en términos
de la viscosidad turbulenta: t y los gradientes de las velocidades filtradas, de forma análoga a
como se hace de acuerdo a la hipótesis de Boussinesq aplicada a las ecuaciones de Navier Stokes
promediadas en el tiempo:

El tensor residual de flujo turbulento de calor: se expresa de forma similar, utilizando el


gradiente de la energía total filtrada: y la conductividad térmica turbulenta: , relacionada a la
viscosidad turbulenta a través del número de Prandtl turbulento: Prt. La viscosidad turbulenta: t,
que aparece en la ecuación (4) es de la forma: , siendo: la norma euclidiana del
tensor rata de deformación filtrado. Cs, es una constante que resulta de suponer que la turbulencia
es isótropa y que el valor de corte del número de onda en el espacio de Fourier del espectro de
energía cinética turbulenta se produce a: siendo: Δx, una longitud característica de la
escala de sub rejilla, generalmente asociada al tamaño del sub dominio computacional. Luego de la
aplicación de un proceso de filtrado espacial utilizando un filtro de tipo Gaussiano y después de

algunas operaciones, el valor de la constante de Smagorinsky es de la forma: , que


produce un valor de, Cs  0,18 cuando la constante de Kolmogorov: kk, es tomada con valor: kk =
1,4. En muchas aplicaciones prácticas, se encuentra que el valor del coeficiente puede ser tomado
dentro del siguiente rango: 0,1 ≤ Cs ≤ 0,2 (Lesieur et al. 2005). El modelo de Smagorinsky presenta
la desventaja de aumentar el efecto de la turbulencia cerca de la pared y no reproduce bien en esa
zona, los efectos del flujo laminar. Sin embargo modelos de turbulencia más complejos como
aquellos basados en una o dos ecuaciones de transporte presentan también esta desventaja, por
esa razón y debido al hecho de su simplicidad, éste se ha adoptado para cálculos de flujo a
elevados valores del número de Reynolds. Con el propósito de simplificar el manejo de las
ecuaciones en lo sucesivo, se evitará el empleo de los símbolos supra barra y supra tilde colocado
sobre las diversas variables.

METODOLOGÍA NUMÉRICA

La naturaleza matemática de las ecuaciones del flujo de fluidos, corresponde a aquella de una onda
que se propaga y se difunde en un medio continuo. En problemas simples de convección dominante
y suponiendo un campo de velocidades uniforme, la solución de las ecuaciones de momentum en
una dimensión, pudiera estar dada en términos de la ecuación de la onda en el plano
complejo: ux(x,t) = Uoe(xx-wt)i, siendo Uo el módulo de la velocidad en el instante inicial, κ el número
de onda y ω la velocidad angular asociada a su frecuencia. Esta naturaleza de onda que presentan
las ecuaciones de transporte, motiva la formulación de métodos numéricos que contemplen de
mejor forma la física del problema.

La figura 1 muestra la relación entre dos vectores de posición uno fijo: y otro móvil: Ambos
vectores están relacionados por medio de la velocidad local característica del flujo: en un punto
arbitrario “P” del dominio de cálculo. En un instante de tiempo Δt suficientemente pequeño donde
se puede suponer que la velocidad característica del flujo es constante, se puede escribir de
acuerdo al diagrama:

siendo el incremento de tiempo, la diferencia entre un instante de tiempo t y un instante inicial de


referencia to, tal que Δt = t - to. Los operadores diferenciales para el tiempo y el espacio, pueden
ser escritos en función de la coordenada móvil siguiendo la trayectoria de un elemento de fluido
situado instantáneamente en un punto “ P” :
Aplicando estos operadores a la ecuación de primer orden de diferenciación (1), tomando en cuenta
que: ∂Δt=∂t, y luego de manipular adecuadamente, el término de convección C, desaparece y la
ecuación resultante es auto adjunta cuando se integra en el dominio de cálculo y cuando el término
fuente es nulo (Zienkiewicz et al. 2005), por lo que se puede aplicar sin problemas el método de
Galerkin estandar (formulación Bubnov-Galerkin), el cual es bastante eficiente para ecuaciones que
poseen esta forma. Reescribiendo la ecuación general en el sistema de referencia móvil se tiene:

Pasando el término difusivo del lado derecho y aproximando el término de variación local por medio
de diferencias en el tiempo, se puede escribir:

En esta ecuación los términos del lado derecho han sido promediados en un paso de tiempo, con el
valor del instante de tiempo actual, (t+1) y el instante anterior, (t), a través de un cierto
parámetro α constante. Para todos los términos evaluados en el instante de tiempo (t), se realiza
una expansión en series atrasadas respecto de la variable espacial δ=uk Δt, a fin de incorporar los
términos que están en la dirección característica del flujo corriente arriba al instante (t+1) (upwind
terms), como se indica en la Figura 2.

En el caso del término difusivo D y el término fuente Q, se realiza una expansión atrasada hasta el
término de primer orden en δ, ya que estos términos contienen entre otras, las derivadas de las
variables primitvas: velocidad, presión y temperatura. En el caso del vector de variables
conservativas, U, la expansión se realiza hasta el término de segundo orden en δ. La expansión
atrasada en el instante de tiempo (t), se hace conforme a un desarrollo en series y para cualquier
variable escalar en un dominio unidimensional, esta tiene la forma siguiente:
Estableciendo el valor del parámetro α= ½, sustituyendo las variables expandidas para el instante
de tiempo (t) y agrupando convenientemente, se tiene para un espacio multidimensional:

En la ecuación (10) el símbolo supra tilde (~), utilizado en el primer corchete, denota en este caso
una operación de promediado temporal. Para una variable escalar arbitraria esta promediación se
define en la forma: . La formulación resultante es semi explícita debido a la
presencia de los términos evaluados en el instante de tiempo (t+1) que aparecen en el primer
corchete. Ya que estos términos contienen las derivadas de las variables primitivas expresadas de
forma distinta al vector de incógnitas de variables conservativas U, se suele establecer una
formulación totalmente explícita en tiempo (Zienckiewicz et al.; 2005, Chung, 2006), que es una
forma particular de la ecuación (10). Por otro lado y para el segundo corchete, los términos que
resultan de la derivación del vector de términos difusivos D, son de tercer orden, O(dx’3), de
diferenciación y pueden ser despreciados en relación a los restantes términos de la ecuación.

Haciendo entonces todas estas consideraciones y aplicando (6), la ecuación simplificada de (9)
tiene la forma final siguiente:

El penúltimo término en la ecuación (11) es un término de compensación y es similar a uno que se


obtiene en formulaciones tipo up-wind cuando se aplica la técnica de Petrov-Galerkin.

A continuación se aplica una estrategia de paso de tiempo fraccionado que permite resolver las
ecuaciones de momentum y continuidad de forma secuencial. Se emplea entonces en la ecuación
de momentum un operador lineal, que separa los términos de velocidad y presión como sigue:

Partiendo desde un instante de tiempo: (t) y hasta el siguiente instante: (t+Δt), se sigue la
siguiente secuencia de cálculo:
Paso 1: Se resuelven de forma secuencial en cada una de las direcciones espaciales, las
ecuaciones de momentum, suprimiendo los términos de presión, como sigue:

Paso 2: Se resuelve la presión por medio de la ecuación de continuidad como sigue:

El gradiente de la presión en la expresión: Δ (ui )** es promediado con el valor del paso anterior
y el paso de tiempo actual, utilizando un cierto factor constante θ2:

o también:

resultando:

Este resultado es reemplazado en la ecuación de la continuidad expresada en función del


incremento de la densidad o de la presión:

En el caso de flujo incompresible, es conveniente utilizar el cambio de presión en vez del cambio de
densidad. A continuación se tratan las variables: de forma similar a como se hizo con el gradiente
de presión y donde se utiliza un factor de ponderación θ1:

luego:
Reemplazando las ecuaciones (15) y (16) en la ecuación (19) y despreciando los términos de orden
de diferenciación superior a 2, se obtiene la siguiente ecuación para la diferencia de presión:

En el caso de flujo incompresible la ecuación produce una ecuación de tipo Poisson para la
variable Δp:

Paso 3: Finalmente se resuelve la ecuación que resulta para el término el cual se obtiene de la
combinación de las ecuaciones (15) y (16):

al final de este paso, el campo de velocidades es actualizado de acuerdo a la ecuación (12) y se


continua al próximo paso de tiempo. En el caso de flujos estacionarios, la convergencia monótona
se logra luego de un determinado número de pasos de tiempo. En el caso de flujos no
estacionarios, la convergencia no es monótona, sino que dependiendo de la situación física que se
considere, se pueden obtener convergencias de tipo oscilante en torno a un cierto valor medio o
respecto de alguna tendencia de comportamiento de la solución, cuya periodicidad dependerá de la
dinámica del flujo relacionada con el fenómeno transitorio que tiene lugar, por ejemplo, aquel
vinculado al tránsito de vórtices, o la propagación de ondas de presión, los fenómenos de superficie
libre, entre otros casos.

APLICACIÓN DEL MÉTODO DEL ELEMENTO FINITO

El método del Elemento Finito es aplicado para la solución espacial del vector de incógnitas U, en
un instante de tiempo en particular. Las ecuaciones tratadas de forma numérica en el caso del flujo
incompresible son: la ecuación (13), la ecuación (21) y la ecuación (22). La técnica de
discretización conlleva a la aplicación de un método de ponderación a fin de reducir el error de
discretización a cero en cada subdominio Ωe, o elemento finito de cálculo. En este caso puede ser
usado sin problemas, el método de Bubnov-Galerkin en el cual las funciones de ponderación N r son
las mismas que aquellas, Ns, utilizadas para interporlar la variable de campo en un elemento. La
solución presenta comportamiento convergente monótono u oscilante con un adecuado margen de
error si el paso de tiempo seleccionado satisface los requerimientos mínimos establecidos por la
velocidad y el tamaño de los elementos de la malla utilizada. Las ecuaciones de transporte
discretizadas tienen entonces las formas que se muestran a continuación:

- Ecuación de momentum:

- Ecuación para la presión:

Término de corrección de la ecuación de momentum:

En estas ecuaciones los subíndices r y s denotan a los nodos que corresponden a un elemento
finito. El supra símbolo sombrero utilizado en los términos que se encuentran a mano derecha,
denota una operación de ponderación espacial efectuada en el elemento. La notación sub
indicial, ef, usada en la ecuación (23), denota al tensor de esfuerzos efectivos que resulta de la
suma de los esfuerzos viscosos y turbulentos. En cada una de las ecuaciones, los términos de
segundo orden de diferenciación fueron integrados por partes y en las ecuaciones correspondientes
a la presión y el término de corrección de momentum, las contribuciones de estos términos fueron
despreciadas en los contornos del dominio de cálculo.

El paso de tiempo fue calculado de forma local por elemento de acuerdo a la siguiente expresión
(Zienkiewicz et al. 2005):

Siendo el paso de tiempo característico de la convección y el paso de tiempo característico


de la difusión, imponiéndose para toda la malla en un paso de tiempo en particular, el valor
mínimo, escogido entre el valor mínimo local y un cierto valor de referencia suficientemente
pequeño, escogido de forma arbitraria:

A excepción de la ecuación de la presión, el término a la izquierda de las ecuaciones de momentum


y de corrección de momentum, corresponde a una matriz de masa, la cual es también
característica en problemas de vibraciones mecánicas. En tales problemas los modos de vibración
son conseguidos por medio de la solución de una matriz de autovalores y se suelen utilizar técnicas
de aglutinamiento (lumped) que consisten en transformar la matriz de masa en una matriz
diagonal, lo cual conlleva a soluciones inmediatas. La aplicación de la técnica de aglutinamiento en
problemas dependientes del tiempo en mecánica de fluidos, conduce a soluciones correctas cuando
se aplica algún tipo de estrategia iterativa correctiva. Esta técnica es aplicable en problemas de
flujo compresible donde en vez de la presión, se resuelve la densidad, apareciendo para este caso
una vez más, la matriz de masa.

Aunque la técnica de aglutinamiento ha sido incorporada en el código. En este trabajo se optó por
resolver las matrices de masa de forma consistente (no aglutinada), lo cual es más robusto del
punto de vista numérico, al evitar la propagación de errores en cada paso de tiempo que pudieran
resultar de la aplicación de alguna técnica iterativa. A tal fin se desarrolló y fue puesta a punto una
técnica de solución de ecuaciones simultáneas basada en un procedimiento de factorización
eficiente, el cual es una adaptación del método frontal (Taylor & Hughes, 1981). De acuerdo con
esta técnica, las ecuaciones concernientes a un nodo son eliminadas de la matriz una vez que todos
los elementos relacionados con dicho nodo han dado su contribución, reduciéndose
considerablemente de esta forma el almacenamiento en memoria. Esta técnica fue adaptada para
el tratamiento de mallas multi bloques como se indica en la Figura 3 y una explicación más
detallada del proceso de factorización será dado en la parte 2 de este trabajo.
Para el cálculo del error fue utilizada para todas las incógnitas, la norma L2 del error relativo
(Zienkiewicz et al. 2005), la cual es definida como sigue:

siendo N el número total de nodos de la malla.

CASO DE APLICACIÓN

El método desarrollado se aplicó para resolver el flujo turbulento, incompresible e isotérmico 2D,
transversal un cilindro circular. En este tipo de geometría, los efectos convectivos y transitorios del
flujo son importantes detrás del cilindro, donde se producen inestabilidades queconducen a la
formación de vórtices contra rotativos los cuales pudieran desprenderse de forma alternante. En el
caso de desprendimiento alterno de vórtices se denomina a esta inestabilidad de tipo von Kármán
(Schlichting & Gersten, 2000). Para el caso del cilindro, existen suficientes datos experimentales
donde se indican los valores del coeficiente de arrastre a diferentes números de Reynolds, basado
en el diámetro del cilindro, ReD. Todas éstas fueron las razones que se tomaron en cuenta a la hora
de seleccionar un caso de prueba.

La geometría utilizada para el cálculo del flujo es indicada en la Figura 4. El dominio fue dividido
inicialmente en 20 bloques en conexión estructurada donde el número de elementos en las
fronteras comunes entre bloques es el mismo. El tipo de elementos finitos seleccionados para todos
los bloques fue el de ocho nodos (bi-cuadrático), el cual ha sido utilizado tradicionalmente en el
tratamiento de problemas de convección-difusión cuando la técnica del elemento finito ha sido
aplicada.

Las condiciones de contorno fueron impuestas como sigue: en el contorno (I) que corresponde a la
entrada del dominio se impuso una condición de flujo uniforme, en los contornos laterales (II) y
(III) se impuso una condición de simetría del flujo que consistió en la imposición de un flujo normal
nulo a través de tales fronteras (un = 0). En el contorno (IV) que está alejado del cilindro y donde
se espera que los cambios de presión no sean significativos en relación con lo que ocurre en las
inmediaciones del cilindro, se impuso una distribución uniforme de presión. Esta condición de
contorno, sin embargo, pudiera tener efectos sobre la estela que se produce detrás del cilindro, por
lo que habría que estudiar cuál es la distancia conveniente a la que se pudiera establecer una
condición de presión que se aproxima a la condición de uniformidad. Tal estudio no fue realizado en
este trabajo. Finalmente, en el contorno (V) se impuso la condición de no deslizamiento del flujo
sobre el cilindro. Estas condiciones conocidas también como condiciones de Dirichlet, fueron
mantenidas fijas en el tiempo. En el caso de las condiciones de contorno naturales que derivan del
proceso de integración por parte, cuando se aplica la técnica del elemento finito, éstas son
variables y son calculadas en cada instante de tiempo en las fronteras del dominio de cálculo.

RESULTADOS

Para la obtención de la solución, se utilizó una condición semilla tanto en el campo de velocidades
como para el campo de presión, que corresponde a la del flujo uniforme, salvo en los contornos del
dominio, donde se impusieron en todo tiempo, las condiciones de Dirichlet previamente discutidas.
La condición semilla no necesariamente satisface en principio a las ecuaciones diferenciales que
rigen el flujo con la geometría dada, pero sirve para establecer sobre todo, la direccionalidad del
flujo en el dominio. La convergencia de la solución se obtiene al cabo de un número de pasos de
tiempo determinados y es monitorizada por el comportamiento del error relativo que permite
determinar a partir de qué instante de cálculo la solución satisface las ecuaciones de campo y si se
obtiene una solución de tipo monótona o periódica. El primer caso estudiado, correspondió a uno
donde ReD = 1,4x105. Para este caso existe particularmente un estudio numérico previo (Breuer,
2000), llevado a cabo mediante el método del Volumen Finito, donde se estudian dos versiones del
modelo de grandes vórtices: el tradicional modelo de Smagorinsky con función de tratamiento
parietal de Van Driest y el modelo de grandes vórtices dinámico basado en las ideas de Germano
(1991) y Lilly (1992). También en ese trabajo se muestran las comparaciones entre los resultados
numéricos y los datos experimentales que se registraron en el trabajo de Cantwell & Coles, 1983.
Según el valor ReD establecido, se impuso un campo de velocidades uniforme de 7m/s. Durante los
cálculos efectuados, el incremento de tiempo fue mantenido constante e igual al valor Δt=1x10-
5
s con el cual se obtuvo un comportamiento estable en el cálculo que conllevó a la convergencia
numérica. El número de pasos de tiempo empleados a tal fin fue de 50000 con lo cual se alcanzó a
simular un tiempo real de 0,5s y se obtuvo una solución cuyo comportamiento fue definitivamente
periódico. La gráfica de la Figura 5 muestra la distribución de la norma de error L2 para la presión.
Se aprecia que al cabo de 100 pasos de tiempo la norma del error se reduce prácticamente a cero.

Las Figuras 6, 6.a y 7, muestran el comportamiento de la norma de error L2 para las dos
componentes cartesianas de la velocidad, ux y uy. En estas gráficas se aprecia de manera mucho
más marcada que para el caso de la presión, la existencia de dos patrones de flujo. El primero
correspondiente a una situación de flujo cuasi estacionario.
Este patrón ha sido denotado como zona A en la Figura 6.a. Dicho patrón de flujo está
caracterizado por la formación de estructuras de vórtices completamente simétricas respecto del
eje x, donde destacan dos vórtices simétricos contra rotativos cuyos tamaños son cercanos al del
cilindro y son prácticamente tangentes al eje x. Estos vórtices comienzan a crecer simultáneamente
y al cabo de un determinado número de pasos de tiempo de aproximadamente 5000 pasos,
alcanzan una condición de inestabilidad caracterizada por movimientos alternados de avance y
retracción, hasta que finalmente uno de los vórtices se desprende completamente. Este
comportamiento es lo que ha sido señalado en la Figura 6.a como zona B y representa una zona de
transición de corta duración hacia un nuevo tipo de régimen (zona C). Luego de la transición
comienza un proceso de desprendimiento periódico de vórtices, inferior y superior, conllevando a la
formación de una estela cuya estructura es sinuosa, la cual perdura hasta la salida del dominio.
Esta situación se refleja también en las gráficas del coeficiente de arrastre.

La Figura 8 muestra el comportamiento del coeficiente de arrastre total CD debido a la distribución


de la presión y el esfuerzo cortante sobre el cilindro. Este coeficiente fue obtenido cada 100 pasos
de tiempo, mediante el programa de cálculo principal el cual posee un módulo adecuado para la
integración del esfuerzo total sobre contornos sólidos. Se aprecia que durante la etapa de
desprendimiento de vórtices, los valores obtenidos oscilan de forma periódica y se pudiera estimar
un valor medio correspondiente a CD = 1,305. La Figura 8.a muestra el comportamiento del
coeficiente de arrastre desde el inicio del cálculo y hasta el paso de tiempo 10000, que permite
ilustrar las tres zonas antes referidas que están en concordancia con la norma de error L2 para las
componentes de la velocidad. La Figura 8.b detalla el comportamiento del coeficiente de arrastre
entre los pasos de tiempo 30000 y hasta el 32000, tomados en la zona de desprendimiento
periódico de vórtices y luego que se ha alcanzado la condición estabilizada de desprendimiento.
Mediante esta gráfica se pudo estimar el valor del número de Strouhal, St=fD/U, St= 0,218,
siendo f, la frecuencia de desprendimiento y donde los períodos señalados como T1 y T2 en
la Figura 8.b, corresponden al tránsito secuencial y alterno de un par de vórtices contra rotativos.
En este caso y de acuerdo a la Figura 8.b, los dos períodos señalados tienen un valor de 0,013s,
por lo que la frecuencia de oscilación correspondiente al tránsito de dos vórtices contrarrotatorios
es de aproximadamente 77Hz. Esta es la frecuencia de vibración transmitida por el flujo al cilindro.
El número de Strouhal es un parámetro significativo que carateriza la dinámica de los flujos
periódicos y para el caso del cilindro, el valor encontrado corresponde con el reportado en la
literatura para este número de Reynolds y también con el que fue calculado en el trabajo de Breuer
(2000).
En la Figuras 9 y 9.a, se muestran las distribuciones de las componentes adimensionales de la
velocidad ux y uy a una distancia x/D=1. Para éstas gráficas y las que siguen, se utilizaron dos
mallas: una de 6960 nodos y 1996 elementos, denominada malla 1 y otra de 17696 nodos y 5372
elementos, denominada malla 2. Sólo se emplearon estas mallas debido a las limitaciones de
tiempo que implicó el cálculo llevado a cabo usando sólo un procesador por máquina y no las
bondades del procesamiento en paralelo.
Los valores graficados fueron calculados mediante un módulo de post procesamiento acoplado al
código principal y corresponden a una promediación simple, tomando los últimos 100 pasos de
tiempo computacional luego de haberse alcanzado la estabilización del comportamiento periódico,
según fue ilustrado en las Figuras 6 y 7.
Los resultados obtenidos son comparados con el trabajo de Breuer (2000), para el número de
ReynoldsRe=1,4x105. En el trabajo de Breuer, se realizó un cálculo numérico exhaustivo utilizando
diversos tipos de mallas estructuradas multi bloques, con distintos números de elementos, así
como diversos esquemas de tratamiento parietal de la turbulencia, que no fueron utilizados en este
trabajo, ya que se lograron convergencias aceptables y el objetivo fundamental fue el de validar el
comportamiento global del código computacional desarrollado.

En la Figura 9, se aprecia en comparación con los resultados experimentales y el código


computacional utilizado por Breuer, que el código computacional desarrollado para este trabajo
reporta una tendencia de comportamiento bastante similar a la obtenida por Breuer, habiendo
buena concordancia cuando fue aplicada la malla 1, siendo los valores obtenidos cercanos a los
casos: A1, A2 y A3 estudiados en ese trabajo. Para la malla 2 no se aprecia una buena
concordancia ni con los datos experimentales ni con los cálculos realizados por Breuer, aunque la
tendencia de la curva obtenida fue similar. En el caso de componente uy, (Figura 9.a), se aprecia
que existe concordancia en cuanto a los signos obtenidos para esta componente a lo largo de todo
el eje y, lo cual implica que el sentido de rotación de los vórtices contra rotativos obtenido es el
que corresponde a la realidad, según lo reportado en el trabajo experimental de Cantwell & Coles
(1983). También se aprecia una buena concordancia en cuanto a la tendencia de las curvas
conseguidas. Sin embargo, se nota una asimetría en cuanto a los picos de velocidad conseguidos
para las dos mallas consideradas, habiendo mayor discrepancia para los picos de velocidad que se
alojan en la zona negativa del eje y, mientras que para los valores positivos, existe un mejor
acuerdo con los diversos datos presentados. Esto indicaría que el vórtice que se genera desde el
cilindro en la rama negativa del eje y, se mueve transversalmente más rápido que aquel que
proviene de la rama positiva. A diferencia de lo ocurrido con la componente ux, la sobre estimación
de los valores de uy, mejoró en este caso cuando se utilizó la malla 2.

En la Figura 10 se muestra la distribución de la componente ux adimensional para la


sección x/D=3. Se aprecia que la mejor aproximación tanto en el comportamiento como a los
volares reportados en el trabajo de Breuer, se obtuvo cuando se utilizó la malla 2. Es de notar que
el defecto del perfil de velocidad corriente abajo de un cilindro tiende a difundirse en la estela y es
cada vez menor en la medida que se toman secciones transversales cada vez más alejadas
corriente abajo del obstáculo. Esta situación es bien captada por el código computacional
desarrollado y en comparación al trabajo de Breuer.
En la Figura 11 se ilustra el comportamiento de la componente ux adimensional a lo largo del eje x,
corriente abajo del cilindro y en la zona donde ocurre el tránsito de vórtices. Como en los dos casos
previos, se aprecia, en comparación con el trabajo de Breuer, buena concordancia en cuanto a la
tendencia espacial seguida por la solución obtenida a través del código desarrollado. Se nota, sin
embargo, una sobre estimación de los valores de ux, a partir del valor x/D=1, para la malla 1 y una
oscilación espacial del perfil de ux, en el caso de utilización de la malla 2, aunque en el caso de
utilización de esta malla, los valores tienden a acercarse a los registrados por Breuer (2000).
En la Figura 12 se muestran los resultados obtenidos para los coeficientes de arrastre globales,
utilizando tres valores distintos del número de Reynolds. Los valores calculados son comparados
con los datos experimentales tomados del trabajo de Achenbach (1971) y son indicados también en
la Tabla 1. Los resultados mostrados corresponden a la malla 1. Un valor similar fue conseguido
con la malla 2 para el valor ReD=1,4x105. En el caso en el que ReD=2x103, no se empleó ningún
modelo de turbulencia en los cálculos y se obtuvo la convergencia hacia un valor periódico
estacionario utilizando un paso de tiempo constante Δt=1x10-4s.
Según lo reportado en la literatura, a bajo número de Reynolds la porción de flujo circundante al
cilindro presenta características de laminaridad importante, por lo que efectivamente no sería
necesaria la incorporación de modelos de turbulencia en tales situaciones. En los casos que fue
necesario realizar un cálculo con turbulencia, se utilizó el modelo de Smagorinsky en su versión
simple, apreciándose una convergencia numérica aceptable en relación a los valores
experimentales. El valor del coeficiente del modelo fue mantenido constante e igual a 0,1 en todos
los casos en que éste fue utilizado.

Para los cálculos realizados, los parámetros del esquema numérico θ1 y θ2 que aparecen como
consecuencia de la metodología utilizada, fueron tomados iguales a 1. sin variación.
Con el propósito de visualización de la estructura del flujo, se muestran a continuación algunos
patrones de líneas de corriente instantáneas. En la Figura 13 se muestra para el caso ReD=1,4x105,
el patrón de líneas de corriente en el instante t = 0,00438s correspondiente al paso de tiempo 438
situado en la zona de flujo no oscilante (zona A) conforme a las gráficas previamente mostradas.
En este caso los vórtices principales corriente abajo del cilindro, son simétricos y contra rotativos y
sus diámetros son cercanos al del cilindro. Se aprecia también la aparición de un conjunto de
cuatro vórtices adicionales más pequeños apareados en dos vórtices que rotan en el mismo
sentido, dispuestos en la mitad superior e inferior del cilindro respectivamente. Estas estructuras
resultan completamente simétricas respecto del eje principal del flujo (eje x).

En las Figuras 14 y 14.a, es mostrada para el valor ReD=1,4x105, la estructura del flujo al cabo de t
= 0,5scorrespondiente al paso de tiempo 50000 que se sitúa de acuerdo a la gráfica del coeficiente
de arrastre, más allá de la zona de transición de régimen de flujo (zona C). Las líneas de corriente
muestran un comportamiento sinuoso de la estela del flujo, el cual es debido al tránsito de vórtices
que se desprenden continuamente y de forma alternada tanto de la mitad superior (y>0) como de
la mitad inferior (y<0) del cilindro. En la zona cercana al cilindro, se ha detallado de mejor forma la
estructura del flujo donde se aprecia la complejidad del patrón instantáneo de líneas de corriente,
caracterizado por vórtices de distintos tamaños interactuando con el vórtice principal de tamaño
próximo al del cilindro. Estas estructuras que se forman en cada una de las mitades del cilindro son
completamente asimétricas. También se ilustra el campo de velocidades que permite visualizar el
sentido de rotación de los vórtices y el campo de presión absoluta. Se aprecia que en las zonas de
fuerte recirculación la presión cae por debajo del valor nominal debido a un proceso de
transformación de energía de presión en energía cinética.
CONCLUSIÓN

Fue desarrollado un código computacional Navier-Stokes para la simulación de vórtices grandes


(tipo LES: large eddy simulation) que permite obtener la solución y post procesamiento del campo
de variables filtradas del flujo turbulento de un fluido monofásico mediante el método del Elemento
Finito, siguiendo un procedimiento basado en trayectorias características adaptado a mallas multi
bloques.

El procedimiento adoptado fue aplicado para conseguir la solución numérica para tres valores del
número de Reynolds en un caso de flujo complejo como lo es el del flujo bidimensional,
incompresible e isotérmico transversal a un cilindro circular, siendo apreciado que los tres valores
del coeficiente de arrastre conseguidos fueron posicionados bastante cerca respecto de los datos
experimentales, siguiendo la tendencia reportada en el trabajo experimental de Achenbach (1971).
En los casos donde fue utilizado el modelo de turbulencia, la solución obtenida fue satisfactoria y
debe ser estudiada en profundidad la influencia de la malla y el empleo de funciones de
tratamiento de la turbulencia parietal, como la reportada en el trabajo de Breuer (2000). En el caso
particular de las dos mallas empleadas, todo parece indicar que las características del flujo tienden
a mejorar en la medida de que la malla utilizada es más densa, sin embargo, esto no es cierto en
todos los casos, como fue apreciado en la distribución de la componente de velocidad ux, para la
sección x/D = 1, donde se obtuvieron mejores resultados con la malla más gruesa y esto
concordaría también con lo reportado en trabajo de Breuer (2000), donde el autor expresa en su
conclusión, el haber obtenido resultados incluso adversos cuando se utilizaron mallas más finas.

El desarrollo de un código académico de esta naturaleza es de todo punto de vista ventajoso al


permitir adquirir un importante conocimiento computacional, no requerir de paquetes comerciales
cuyas licencias deben ser actualizadas con periodiciad y disponer de una herramienta 100% abierta
que permite la interacción y modificación continua por parte del investigador con adecuado
conocimiento en el campo computacional y académico.

REFERENCIAS

1. Achenbach, E. (1971). Influence of surface roughness on the cross-flow around a circular


cylinder. Journal of Fluid Mechanics., (46);pp. 321-335. [ Links ]

2. Breuer, M. (2000). A Challenging test case for large eddy simulation: high Reynolds number
circular cylinder flow. International Journal of Heat and Fluid Flow, (21); pp. 648-654.

3. Cantwell, B. & Coles, D. (1983). An experimental study on entrainment and transport in the
turbulent near wake of a circular cylinder. Journal of Fluid Mechanics, (136); pp. 321-374.

4. Chung, T. J. (2006). Computational Fluid Dynamics. Cambridge University Press.

5. Germano, M., Piomelli, U., Moin, P., Cabot, W. H. (1991). A dynamic subgrid scale eddy viscosity
model. Phys. Fluids A 3(7); pp. 1760-1765.

6. Huebner, K. H., Dewhirst, D. I., Smith, E., Byrom, T. G. (2001). The Finite Element Method for
Engineers, John Wyley & Sons, INC, 4th edition, New York.

7. Lesieur, M., Metais, O., Compte, P. (2005). Large Eddy Simulations of Turbulence, Cambridge
University Press, 1th edition.

8. Lilly, D. K. (1992). A proposed modification of the Germano subgrid-scale closure method. Phys.
Fluids A 4(3); pp. 633-635.

9. Nithiarasu, P. (2003). An efficient artificial compressibility (ac) scheme based on the


characteristic based split (cbs) method for incompressible flows. International Journal for Numerical
Methods in Engineering, (56): 1815-1845.

10. Nithiarasu, P., Mathur, J. S., Weatherill, N. P., Morgan, K. (2004). Three-dimensional
incompressible flow calculations using the characteristic based split (cbs) scheme. International
Journal for Numerical Methods in Engineering, (44); pp. 1207-1229.

11. Schlichting, H. & Gersten, K. (2000). Boundary Layer Theory. Springer Verlag Berlin
Heidelberg, 8th edition, Germany.
12. Smagorinsky, J. (1963). General circulation experiments with the primitive equations. Mon.
Weath Rev, (3): 99-164.

13. Taylor, C. & Hughes, T.G. (1981). Finite element programming of the Navier-Stokes equations.
Pineridge Press Ltd, 1th edition, Swansea, U.K.

14. Zienkiewicz, R.L., Taylor, R.L., Nithiarasu, P. (2005). The Finite Element Method for Fluid
Dynamic. Elsevier, Butterworth Heinemann, 6th edition. Amsterdam.
I V . G A L A X I A S , H U R A C A N E S Y D E S A G Ü E S

Los movimientos con vorticidad son los más comunes en nuestro Universo. Desde
el microscópico ámbito de los átomos hasta el inconmensurable espacio del
Cosmos, los vórtices hacen acto de presencia simultánea en casi todos lados, es
decir, ejecutan el portentoso acto de la ubicuidad. Y claro uno se pregunta ¿qué
es la vorticidad?, ¿qué son los vórtices?, ¿cómo están relacionados estos
conceptos?

Antes de intentar precisar ideas veamos algunos aspectos relacionados con ellas,
siguiendo el adagio de "por sus obras los conoceréis".

Empecemos usando como imagen prototipo de vórtice a nuestro remolino


favorito. Como en el caso de los fluidos, siempre es bueno tener un ejemplo
sencillo en la mente; se sugería utilizar como prototipo al aire o el agua. Los casos
extravagantes también sirven, como las sales radiactivas fundidas o el caldo de
cilantro con ajonjolí, aunque pueden ser más apetitosos o dañinos que
ilustrativos.

¿Quién no ha disfrutado al mirar las fotografías de una galaxia espiral o de la gran


Mancha Roja de Júpiter? ¿Quién no ha sido atraído (o repelido) por las imágenes
de un huracán o de un tornado? ¿Quién no ha visto un remolino de polvo o el que
forma el agua en un desagüe? La primera pregunta la contestaremos a
continuación, la segunda más adelante y la última queda de tarea.

Figura IV. 1. Galaxia espiral. Messier 81, en la Osa Mayor. Observatorio Hale.

Con respecto a los vórtices, de misterioso sólo tienen el mestizante efecto que da
un buen espectáculo, lo que no significa que sean triviales de entender, manejar o
predecir. De hecho, son protagonistas de algunos de los problemas más profundos
de la física.
Figura IV. 2. La gran mancha Roja de Júpiter.

El interés por entender este truco giratorio que los alrededores practican sobre
nosotros todo el tiempo no es, desde luego, ni reciente ni morboso. Se manifiesta
ya en las estelas asirias, los jeroglíficos egipcios, los mitos más antiguos de las
culturas nórdicas y las preocupaciones de los griegos. Lo encontramos también en
los glifos mayas, en las grandes obras de la literatura universal, en los dibujos
exquisitos de Leonardo da Vinci y en lo que nos contó una tía de su niñez casi
olvidada. Este interés nos nace al ver volar un papalote o un paraguas, al lavarnos
las manos, o cuando alguna vez jugamos con el agua de la orilla de un estanque
prohibido. En los permitidos también se ven, dicen.

No sorprende entonces que los vórtices hayan desempeñado un papel importante


en la elaboración de los modelos destinados a explicar el mundo y sus
peculiaridades.

La primera teoría moderna del Universo se debe a Descartes, en el siglo XVIII. En


ésta imaginaba un mar infinito en el que los planetas, el Sol y las estrellas se
movían influidos mutuamente por el efecto de los vórtices que ellos mismos
producían. El Sol, al girar, arrastraba a los planetas en un atractivo carrusel
celeste. Newton, en cambio, se concentró en estudiar a los fluidos para probar
que, al rotar, no generaban el modelo de movimiento observado, descartándose
así, cien años después, el universo cartesiano de vórtices.

Uno de los últimos intentos por construir un universo dominado por los vórtices
fue hecho por lord Kelvin, hacia finales del siglo XIX. Al formular la
atractiva teoría de nudos, que es motivo de un renovado interés para describir,
entre otras cosas, una parte de la dinámica de los plasmas, Kelvin intentó explicar
la naturaleza atómica y molecular con anillos de vorticidad; los anillos de humo
son un buen ejemplo. De esta manera, los átomos y sus compuestos eran
interpretados como las diversas formas en que estos anillos podían combinarse,
anudándose de acuerdo con ciertas reglas; las ideas originales de Kelvin sufrieron
el mismo fatal decaimiento que sufren todos los vórtices.
Ya sea porque fueron mencionados en las epopeyas de Homero, en los andares
por el Infierno de Dante o en las Reflexiones de Goethe, o porque fueron
ilustrados en las pinturas de Van Gogh y Tamayo, y porque son sugeridos por los
rollos de mar que se mueren en las playas o por el humo que sale a borbotones
de una chimenea, los vórtices siguen siendo un tema recurrente para quienes
estudian la naturaleza, desde cualquiera de sus enigmáticos ángulos.

IV .1. VÓRTICES Y VORTICIDAD

Donde hay un fluido en movimiento hay vorticidad y casi siempre vórtices; ahora
que cuando hay vórtices, siempre hay vorticidad. Sí, hay que aceptarlo, es un
tanto oscuro pero se irá aclarando, como la ropa con las lavadas.

Definir un vórtice no ha sido, hasta ahora, algo sencillo. Es más o menos claro
que tiene que ver con el dar vueltas en torno a un punto y que el giro debe estar
referido a un movimiento colectivo, que comprende a más de un objeto o
partícula. Con estas ideas en mente podemos hacer la siguiente proposición: Un
vórtice es el patrón que se genera por el movimiento de rotación de muchas
partículas alrededor de un punto común (no necesariamente fijo en el espacio);
recordando nuestro muy particular remolino o los ejemplos previos, la definición
parece ser suficiente. Sin embargo, si uno busca en la bibliografía especializada
resulta que no hay consenso sobre el asunto; no hay una definición clara y
unívoca, ya no se diga matemática. Ingenieros, matemáticos o físicos, ni qué
decir de otros especialistas, difícilmente aceptarían nuestra propuesta y cada
quien sacaría su ejemplo preferido para mostrar la necesidad de ampliarla,
recortarla o todo lo contrario. Más adelante veremos la importancia que tendría el
poder contar con ella. La definición que hemos dado es la suma de lo que todos
intuimos más algunos detalles adicionales. Eso sí, si el "remolino" que usted
escogió no está correctamente descrito por la definición, por favor, piense en otro.

¿Qué es la vorticidad? La respuesta aquí es más sencilla, pues todos están de


acuerdo. En cambio, es algo más abstracto y no tan evidente, ¡lo opuesto a los
vórtices! El concepto fue introducido por Cauchy y por Stokes. La vorticidad, para
empezar, es un campo vectorial; es decir, su magnitud y dirección están definidas
en cada punto del espacio ocupado por el fluido. En cierto sentido, es una medida
de la velocidad con la que rota cada partícula de fluido.

Si imaginamos a una partícula de fluido con cierta forma, es fácil convencerse, y


demostrar rigurosamente, que lo más que le puede pasar es una de tres
posibilidades: cambia de posición, trasladándose con la misma orientación y
forma; cambia su orientación, sin trasladarse o deformarse; se deforma, sin rotar
o trasladarse. Cualquier otra cosa puede explicarse como una combinación de
estas tres acciones simples. La vorticidad es justamente lo que caracteriza a la
segunda transformación.

Para un fluido girando uniformemente alrededor de un punto, como lo haría una


tornamesa, la vorticidad (que es constante) es igual al doble del número de
revoluciones por segundo y su dirección es perpendicular al plano de giro, paralela
al eje de rotación.
Aunque todos los vórtices tienen vorticidad, no siempre que hay vorticidad existe
un vórtice. El flujo más sencillo que ilustra este punto es el paralelo
cortante (Figura IV .3). Se le llama así porque las partículas de fluido se mueven
paralelas unas a otras y porque las fuerzas, por unidad de área, son cortantes
(capítulo II, figuras II. 1 y II. 2).

Figura IV. 3. Flujo cortante simple (paralelo cortante o de Couette plano).

En este flujo, también llamado de Couette plano, las partículas de fluido se


mueven paralelas unas a otras; la velocidad que llevan depende de la distancia
que hay al fondo. Las líneas muestran las trayectorias y las flechas el tamaño de
la velocidad. Una partícula con extensión, por pequeña que sea, sentirá que la
arrastran más por arriba que por abajo (debido a la viscosidad) y tenderá a rotar.
Si se calcula la vorticidad de este flujo se encuentra que no es cero; su tamaño es
igual a la velocidad de arriba dividida por la profundidad y su dirección es la de
nuestro dedo al señalar la figura. Nadie (esperamos) diría que hay remolinos
(vórtices) ahí dentro.

Basta con observar con atención para descubrir vórtices en casi cualquier lado.
Las "presentaciones" en que éstos vienen son de lo más diversas; aparecen en
gases, en líquidos y hasta con cuerpos sólidos y sus tamaños varían entre las
dimensiones cósmicas y las atómicas.

Para darnos una idea de las escalas de tamaño y velocidad que tienen estas
ubicuas estructuras, veamos unos ejemplos; algunos serán comentados con cierto
detalle más adelante.

Vórtices Diámetro (en metros)

Rotaciones internas en el núcleo atómico 10-17

Vórtices cuantizados en helio líquido 10-8

Remolinos más chicos en un flujo turbulento 10-3


Vórtices en la estela de una ballena 1-10

Tornados y huracanes 10-105

Estructuras atmosféricas en planetas 107

Convección interior en las estrellas 109

Galaxias espirales 1020

En este cuadro, vemos que las estructuras vorticosas más grandes tienen
dimensiones de miles de años-luz (distancia que recorre la luz en un año; viaja a
casi 300 000 km/seg) y las más pequeñas, en el interior de los núcleos atómicos,
son de un metro dividido por un 1 seguido de diecisiete ceros; las longitudes son
en ambos casos inimaginables...

Las velocidades de rotación varian dentro de un intervalo más chico. El límite


superior siendo la velocidad de la luz, la máxima alcanzable en el Universo, mayor
a los 1 000 000 000 km/h.

IV. 2. TORBELLINOS CÓSMICOS

Dentro del inmenso foro que constituye el Universo, muy lejos de nosotros, hasta
donde podemos percibir con nuestros más potentes telescopios, hay objetos que
parecen remolinos multicolores congelados en el espacio y el tiempo. Formados
por miles de millones de estrellas que se revuelven en torno a un centro
demasiado luminoso para desentrañarlo y entenderlo, descubrimos fantásticos
vórtices de dimensiones inimaginables. De hecho, el grupo de estrellas del que
forma parte nuestra estrella más cercana, el Sol, es una de estas exquisitas y
arremolinadas estructuras.

Nuestra Galaxia, la Vía Láctea, es muy parecida a la que se ilustra en la figura IV.
1. Con un diámetro cercano a los 70 000 años-luz, nuestro Sistema Solar se
encuentra en una zona cercana a la orilla, como a 30 000 años- luz del centro.
Como un punto común y corriente, sin ninguna característica especial o
privilegiada, el Sol gira alrededor del centro de la galaxia, de modo que da una
vuelta cada 250 millones de años. Por la distancia a la que nos encontramos del
centro, la velocidad efectiva de giro es de casi 1 000 000 km/h. Por algo Galileo
dijo en voz baja para sí, ante mentes inmóviles, "y sin embargo, se mueve". ¡Lo
hubiese gritado de haber sabido la velocidad de la Tierra en la Galaxia!

La estructura espiral de nuestra Galaxia es algo común en el Universo; se conocen


cientos de ellas. Muchos modelos para explicar la forma en que está distribuida la
masa (las estrellas), la forma en que giran (más rápidamente cerca del centro),
etc., están sustentados en formulaciones hidrodinámicas. Es decir, se ignora que
están formados por partículas (estrellas) y se estudian como a los fluidos
(continuos), con ecuaciones muy semejantes.

Inmensas regiones de gases, millones de veces mayores que una galaxia como la
nuestra, son estudiadas como fluidos autogravitantes en los que la densidad
fluctúa; de estas contracciones locales de materia se generan nuevas estrellas y
con ellas galaxias. De la manera en que la vorticidad puede estar distribuida y de
cómo evoluciona es posible inferir mecanismos que expliquen las formas de los
cúmulos de estrellas, los gigantescos chorros de materia que se observan con los
radiotelescopios o la aparición de nuevas inhomogeneidades espaciales
(irregularidades en la densidad de materia).

Si confinamos nuestras observaciones sólo a nuestro Sistema Solar y vemos con


atención a los planetas mayores, desde luego que nos quedamos igual, pues no
distinguimos más allá de puntitos luminosos. Ahora que si usamos un telescopio o
pedimos una fotografía de las enviadas por las recientes naves
interplanetarias (Voyagers y Vikings), nos sorprendemos por la
maravillosa vida que presentan sus atmósferas. Secuencias de fotografías o
videos de Saturno, de Neptuno y especialmente de Júpiter ponen de manifiesto
una bellísima estructura y una intensa actividad. Aunque la complicada dinámica
dista mucho de entenderse, los vórtices multicolores revelan parte de los
mecanismos en juego.

La gran Mancha Roja de Júpiter es sin lugar a dudas el vórtice más famoso y
conspicuo del espacio exterior a nuestro planeta. A 22° abajo del ecuador del
planeta más grande del Sistema Solar se encuentra un gigantesco remolino rojo.
Si este monstruoso torbellino se encontrase en la Tierra estaría ubicado en la
latitud de Río de Janeiro (no es de sorprender que el remolino terrestre
correspondiente lo formen los cariocas). Las dimensiones de la Mancha Roja son
de 22 000 km de largo por 11 000 km de ancho y va disminuyendo poco a poco
con el tiempo. Hace más de cien años, mientras Benito Juárez discutía las Leyes
de Reforma, la Mancha Roja era del doble del tamaño y, como aún sucede, podría
contener a todos los planetas internos, desde Marte hasta Mercurio, pasando por
la Tierra. Su intenso color anaranjado, que varía entre el tenue crema sonrosado
y el rojo carmín, se debe a las complejas reacciones químicas que ocurren entre
los gases que conforman su atmósfera.

Sin contar con la misma belleza o las grandiosas dimensiones que posee la
Mancha Roja, remolinos espectaculares se han observado en las superficies de
Saturno, Neptuno y Urano. Como apocalípticas tormentas sobre inexistentes
habitantes, estos gigantescos vórtices aparecen, se extienden y se disipan para
regocijo de los astrofísicos planetarios. Sin embargo, los mecanismos que los
engendran parecen ser muy distintos a los que generan los grandes huracanes
venusinos, terrestres y marcianos.

Júpiter es un planeta en el que las estaciones no existen. Su eje de rotación es


casi perpendicular al plano de su órbita y su temperatura varía muy poco entre los
polos y el ecuador; la diferencia es de sólo tres grados centígrados, que contrasta
con la correspondiente diferencia de temperaturas en la Tierra (encuestas entre
peruanos y norfinlandeses así lo indican). Las estaciones se deben a que el eje de
la Tierra está inclinado, no al carácter elíptico de la órbita. De hecho, la órbita
terrestre es casi circular; se requieren medidas muy precisas para apreciar la
excentricidad. Es decir, si dibujamos la órbita (elíptica) de la Tierra en una hoja
como ésta, con nuestra pluma favorita, la diferencia con un círculo seria menor
que el grosor del trazo.

La circulación atmosférica norte-sur no la conocen ni los jovianos ni los


saturninos. De aquí la existencia de bandas o fajas paralelas al ecuador en los
grandes planetas y la ausencia de éstas en los planetas más pequeños, aunque
más divertidos. Estas bandas son regiones de alta y baja presión,
llamadas zonas y cinturones, que corresponden a gigantescos chorros que se
mueven en direcciones opuestas y en donde los vientos alcanzan velocidades de
500 km/h. En las regiones entre unas y otras, que se encuentran alternadas,
aparece toda suerte de fenómenos exóticos; patrones regulares de vórtices que
adornan miles de kilómetros, megavórtices como la Mancha Roja y su hija blanca
un poco más al sur, conjuntos bailables de vorticillos (de sólo unos cientos de
kilómetros) con ritmos y colores que no envidian ni a una pegajosa salsa ni al
alegre vestuario de un carnaval. Júpiter se inspira sin duda alguna en la
imaginativa obra plástica de Niermann.

Otros factores relativamente comunes entre la Tierra, Venus y Marte son las
velocidades de rotación, la proporción entre superficie sólida y grosor de la
atmósfera, las densidades atmosféricas y la diferencia entre la energía que
reciben y la que reflejan o emiten; todo esto muy distinto a lo que sucede en los
grandes planetas externos.

Por ejemplo, mientras que la Tierra emite la misma energía que recibe del Sol,
Júpiter emite casi el doble de la que recibe; aún guarda energía de su proceso de
formación al contraerse gravitacionalmente al principio de los tiempos. Desde la
cuna fue más generoso que la Tierra. Siendo mucho mayor que nuestro planeta
gira casi dos y media veces más rápido. Además, de grandes consecuencias
climáticas, en la atmósfera de Júpiter la densidad depende sólo de la presión, o lo
que es equivalente, las regiones con igual presión tienen la misma temperatura;
se dice entonces que es barotrópica. Esto no sucede en nuestra blanquiazul
envoltura que llamamos baroclínica. Por lo tanto, la dinámica atmosférica joviana
es muy distinta a la terrestre (afortunadamente).

Los otros planetas mayores comparten con Júpiter algunas de sus vistosas
características. Saturno presenta además su extraordinario sistema de anillos.
Fuera de su atmósfera exhibe uno de los vórtices más fantásticos que se conocen,
para no ser menos conspicuo que su hermano mayor. Como queriendo desafiar
las leyes mecánicas que conocemos, muestra millares de anillos concéntricos,
regulares y notablemente planos. Salvo por algunas irregularidades que transitan
como fantasmas a lo ancho y largo de los anillos, la perfección del movimiento
vorticoso de millones de trozos de hielo nos sigue asombrando. Como
seguramente le sucedió a Galileo cuando descubrió sin entender la inverosímil
estructura, las preguntas que se ocurren superan a las respuestas que tenemos.
Los anillos, como casi todas las características que se han ido encontrando en
nuestros planetas vecinos, no son exclusivos de alguno en especial. Varios de
ellos tienen bandas y anillos, algunos tienen superficies sólidas complejas y
atmósferas activas, otros tienen satélites naturales, etc. Así los planetas, como
sucede con los humanos y los animales en la granja de H. G. Wells, siendo todos
iguales hay unos más iguales que otros y, sin embargo, no existen dos
completamente iguales.

Del vasto espacio cósmico a la vecindad del Sol, los movimientos giratorios, como
gigantescos tiovivos, son más la regla que la excepción. Nada parece moverse en
línea recta. Nuestra galaxia gira, con muchas otras. En su movimiento hacia la
constelación de Lira, nuestra estrella local se revuelve en torno al misterioso
centro de la Vía Láctea; los planetas, que tanto estimulan la imaginación por los
deseos de una inexistente compañía, rotan alrededor del Sol y sobre sí mismos.
Desde su tenue superficie hasta el inaccesible interior, cada planeta manifiesta
una agitada vida dominada por vórtices.

IV. 3. HURACANES Y LAVABOS

La Tierra, el único sitio habitado que conocemos, vista desde fuera parece una
esfera azul con caprichosas pinceladas blancas que cambian suavemente con el
paso del tiempo. Con cada revolución parecen generarse de la nada, se organizan
y se desvanecen otra vez para recomenzar otra composición plástica. Un aspecto
curioso del espectáculo pictórico permanente es la tendencia a girar de estas
móviles decoraciones. Bajo circunstancias especiales, las hermosas espirales se
estabilizan por un rato, se organizan hasta cubrir cientos de kilómetros y en un
recorrido aparentemente loco se convierten en fuentes de destrucción y,
paradójicamente, de vida.

Huracán, que viene de la palabra furacán, y que escuchara Cristóbal Colón de los
nativos durante su segundo viaje, es el nombre más común que se da a los
vórtices atmosféricos terrestres más grandes. Son tormentas caracterizadas por
vientos huracanados (mayores de 120 km/h) que, en trayectorias espirales, se
mueven hacia un centro común conocido como el ojo del huracán. En el
hemisferio norte el giro es invariablemente ciclónico, es decir, en contra de las
manecillas del reloj, y en el hemisferio sur al contrario. Llamados también tifones
y ciclones, entre otros muchos nombres, se empezaron a registrar en forma
regular a partir del descubrimiento de América.

La historia de muchos de estos fenómenos usualmente va acompañada de


tragedias. Vastas inundaciones, numerosas embarcaciones desaparecidas,
incalculables daños materiales e incontables pérdidas de vidas humanas sellan los
recuentos del paso de los huracanes.

Kamikazi, el viento divino, es el nombre que recibió el tifón que en 1281 acabó
con las aspiraciones de Kublai Khan para invadir el Japón. La flota completa, con
más de 100 000 soldados chinos, mongoles y coreanos, desapareció en la Bahía
de Hakata, Japón.

En términos de vidas humanas, las mayores catástrofes registradas fueron en


1737, cerca de Calcuta, India; en 1881 en Haifong, Vietnam, y en 1970 en la
Bahía de Bengala, Bangladesh; se estima que más de 300 000 personas perdieron
la vida en cada caso. La presencia de intensas lluvias, de hasta decenas de
centímetros en unas horas, y de una marejada que supera los 10 m de altura, da
lugar a las inundaciones que cobran la mayoría de las víctimas.

Con una extensión que puede llegar a los 2 000 km de diámetro, los huracanes
viajan con velocidades relativamente bajas e irregulares que oscilan entre los 10 y
los 50 km/h. La duración de un ciclón también es muy variable, pues puede ser de
unas horas hasta semanas, y recorrer distancias de hasta 2 000 km. Los vientos
en la espiral alcanzan velocidades cercanas a los 350 km/h en la vecindad del ojo,
dentro del cual una calma desconcertante aparece abruptamente; en unos
minutos el viento pasa de una violencia feroz a una leve brisa. En el ojo, cuyas
dimensiones varían entre los 20 y los 100 km, la presión alcanza los valores más
bajos que se hayan registrado en la superficie de la Tierra.

El hecho de que transportan grandes cantidades de agua a través de varios


grados de latitud y que se estima que un huracán maduro transporta entre 2 000
y 4 000 millones de toneladas de aire por hora, los convierte en elementos
importantes para la circulación y transporte atmosféricos globales en la Tierra. El
calor que llevan de zonas tropicales a latitudes más frías y las lluvias que dejan a
su paso son parte de los beneficios que traen consigo.

Si bien se conocen los mecanismos básicos para su generación, propagación y


decaimiento final, aún hay aspectos poco claros que impiden una confiable
predicción de estos fenomenales eventos atmosféricos.

En una acción internacional promovida por la ONU, con pocos precedentes, la


década de los noventa ha concentrado un gran esfuerzo científico para estudiar
los huracanes. Una comisión multidisciplinaria presidida por James Lighthill, uno
de los notables hidrodinámicos del siglo, ha iniciado estudios de la más diversa
índole para esclarecer este tema cuanto sea posible. El propósito fundamental es
hacer más eficientes las gigantescas simulaciones numéricas que actualmente se
llevan a cabo para poder predecir la aparición, intensidad, dirección y duración de
un ciclón. En 1991, la predicción de la evolución de un ciclón por una semana
requería de un tiempo de 75 horas de cómputo (usando la computadora más
grande y rápida del mundo).
Figura IV. 4. Huracán sobre el Océano Pacífico (NASA, Apolo 9).

Uno de los problemas más grandes es la falta de datos meteorológicos suficientes


y confiables para alimentar las simulaciones numéricas que se hacen hoy en día
en varios centros de investigación dedicados exclusivamente al estudio de los
huracanes.

Para tener una idea sobre los elementos que contribuyen a la formación,
estructura y sostén de un huracán, es necesario tomar en cuenta que todo lo
vemos desde un carrusel, es decir, desde la giratoria superficie de la Tierra, lo que
complica un poco las cosas.

El primero en estudiar el movimiento de cuerpos desde un sistema de referencia


que rota fue Gustave-Gaspard Coriolis (1792-1843). En 1835, Coriolis publicó un
trabajo en el que mostraba que si un objeto se mueve sobre una superficie que
gira, aparece una fuerza perpendicular a la dirección de su movimiento. Esta
fuerza, conocida ahora como la Fuerza de Coriolis , da lugar a una trayectoria
curva, vista desde la superficie.

Para apreciar mejor el efecto vamos a imaginar la siguiente situación Un simpático


joven tiene una pelota en la mano y está parado en la parte interior de un tiovivo
que gira; es el que recoge los boletos. Un niño da vueltas sobre uno de los
caballitos de la orilla (nada cambia si los caballos se sustituyen por otros
mamíferos). La hermana mayor del niño los observa girar desde la orilla, pues
teme subirse. El joven se percata de la hermana al verla pasar periódicamente y
decide que la próxima vez que se encuentre cerca le va a lanzar la pelota al niño
para congraciarse con ella. Cuando los tres están alineados, lanza la pelota al niño
y ésta va a caer en las manos de otra sorprendida muchacha.

Analicemos lo ocurrido a los ruborizados jóvenes y al extrañado niño. Desde el


punto de vista de este último y el embobado joven, lo que ocurrió es que la pelota
siguió una trayectoria extraña; en lugar de viajar en línea recta entre los dos, una
fuerza extraña pareció desviarla y fue a dar a las manos de una joven que iba
pasando. Por su parte, la hermana ve a la pelota seguir una trayectoria recta y
directa a la otra joven, sintiéndose incómoda por haber creído, como el niño, que
era la futura poseedora de una pelota. Al niño sin pelota y al joven sin la
hermana, sólo les queda invocar la existencia de fuerzas extrañas o de agentes
invisibles para explicarse el suceso.

Para los observadores en reposo, el movimiento de objetos es rectilíneo, a menos


que alguna influencia bien determinada los desvíe; así lo comprueban las dos
muchachas, la que esperaba atrapar y la que, sin esperarlo, lo hizo. Para los
observadores en rotación, llamados acelerados, es necesario recurrir a fuerzas
ocultas ("desocultadas" por Coriolis) para explicarse el movimiento de las cosas.
En nuestra terrestre circunstancia, rotando con el piso (la Tierra), recurrimos a la
existencia de esta fuerza (inercial) para describir movimientos con precisión.

En la Tierra, que rota hacia el este, un objeto que es lanzado de sur a norte
seguirá una trayectoria curva; en lugar de viajar directo al norte se deflectará
hacia la derecha, en el hemisferio norte, y hacia la izquierda en el hemisferio sur,
abajo del ecuador. Por otra parte, la velocidad de giro depende de la latitud,
siendo cada vez más pequeña al acercarse a los polos y máxima en el ecuador;
quien se encuentra más lejos del eje de rotación recorre mayor distancia en
menos tiempo (va más rápido), como saben los que han practicado las "coleadas".
Así, la magnitud de la fuerza de Coriolis depende del movimiento del objeto (su
velocidad y la dirección de ésta), de la rotación terrestre y de la latitud.

Con la guía de Coriolis podemos ahora resumir las condiciones que se requieren
para la formación de los huracanes.

Una es que la fuerza de Coriolis sea mayor que cierto valor mínimo. Como ésta es
cero en el ecuador y empieza a crecer con la latitud; los vórtices que nos ocupan
se generan fuera de un cinturón de aproximadamente 7º de latitud, al norte y al
sur del ecuador (como de 1 300 km de ancho). La dirección del giro de los
huracanes se debe únicamente a esta fuerza. Dentro de esta banda los posibles
huracanes son presa de la esquizofrenia, al no saber en qué dirección girar, y
prefieren no existir.

Otra condición necesaria es la presencia de una superficie extensa de agua, con


una temperatura mínima de 27ºC, que dé al aire circundante grandes cantidades
de vapor para generar y mantener una tormenta tropical. Los meses calientes del
año son pues los más propicios.

Adicionalmente, se cree que una o más de las siguientes condiciones necesita


estar presente para disparar el mecanismo de formación. La columna de aire
sobre la zona inicial inestable (capaz de amplificar pequeños cambios), la presión
del aire cerca de la superficie del agua baja y las corrientes de aire, verticales y
encontradas (flujos de corte), muy pequeñas.

Bajo las circunstancias arriba descritas, la zona se encuentra en un estado tal que
pequeñas perturbaciones pueden amplificarse y dar lugar a movimientos de
grandes masas de aire húmedo, especialmente si se presentan corrientes
horizontales (chorros) de aire. La convección resultante (movimiento de masas de
aire) se hace tumultuosa en un tiempo relativamente corto, reforzándose los
vientos y permitiendo que el efecto de Coriolis entre en juego para introducir una
curvatura en la corriente, organizándose la estructura ciclónica.
Una vez iniciado el fenómeno se sostiene por periodos que van de unas horas
hasta varias semanas, gracias al mecanismo que describiremos
esquemáticamente a continuación. En una zona de unos centenares de metros
sobre la superficie del agua, llamada capa de Ekman, el aire húmedo se mueve
horizontalmente y en espiral hacia el centro de giro. Al llegar cerca del ojo del
huracán cambia abruptamente su dirección y asciende varios kilómetros en una
especie de chimenea hueca, que limita la zona del ojo. En este movimiento de
subida, que no es otra cosa que una consecuencia del principio de Arquímedes, el
aire caliente se expande y se va enfriando. En consecuencia, la humedad se
condensa, liberándose energía (calor latente) en grandes cantidades. Las gotas de
agua condensada forman las torrenciales lluvias y la energía disponible es
empleada en reforzar los vientos y trasladar el ciclón.

Esta es la razón por la que se habla de una máquina térmica cuando se refiere
uno al mecanismo físico que mantiene a un huracán. Al llegar a tierra firme pierde
su fuente más importante de energía y se debilita, disipándose en cuantiosas
lluvias.

La clave está pues en el hecho de que cuando el vapor de agua se condensa,


juntándose en gotas, se libera energía. Sabemos que para evaporar agua hay que
darle energía, quemando gas o leña o haciéndola caer desde cierta altura (como
en las cataratas). Tláloc, el dios azteca de las lluvias, se las ingenia para usar la
energía que se "suelta" en el proceso inverso de la evaporación: la condensación.

De acuerdo con la Organización Mundial Meteorológica, las perturbaciones


meteorológicas de baja presión se clasifican con distintos nombres, dependiendo
de su intensidad. En su estado inmaduro, con vientos ligeros en rotación y con
isobaras abiertas, se les llama perturbaciones tropicales. A la curva que resulta de
unir los puntos en donde la presión es la misma se le llama isobara; se dice que
es abierta si no forma una curva parecida a un círculo. Una depresión tropical es
cuando los vientos en rotación han aumentado, sin exceder los 63 km/h, y
aparecen algunas isobaras cerradas en el mapa meteorológico. Se convierten
en tormentas tropicales cuando los vientos, claramente en rotación, son mayores
a 63 km/h pero menores a 120 km/h y las isobaras son cerradas en su mayoría.
Se reserva el nombre de huracán para los casos en los que los vientos son
superiores a este número mágico de los 120 km/h. El verdadero bautizo ocurre
cuando una depresión se convierte en una tormenta. En ese momento se les pone
un nombre (de mujer y de hombre, en forma alternada) por orden alfabético. Por
ejemplo, el primero puede ser Aspergencia, el segundo Bugambilio, y así
sucesivamente hasta Zuperman; el siguiente será Agapita y se vuelve a dar vuelta
al alfabeto, dado que en promedio se producen cerca de 60 huracanes por año en
todo el mundo.

Otros grandes vórtices que se observan en la atmósfera son los tornados y


las trombas,cuyos nombres son bastante descriptivos, pues uno viene de tornar,
regresar, y el otro es una variación de la palabra trompa. Basta con ver la figura
IV. 5, que muestra uno de cada tipo, para apreciar la originalidad de los
apelativos
Figura IV. 5. (a) Tornado.

Figura IV. 5. (b) Tromba

Los tornados, raros en México, son extremadamente "populares" al norte del río
Bravo y representan la amenaza atmosférica más temida en el grupo local de
galaxias. Los vientos más fuertes que se han registrado en la Tierra están
asociados a estos espeluznantes remolinos que, afortunadamente, sólo viven unas
horas.
La descripcion siguiente, tomada de la obra inédita de un autor poco conocido,
representa lo que ocurre cada año en las planicies centrales de los EUA o de
Australia y confirma las narraciones de múltiples testigos.

Las vacaciones de Pascua no podían ser mejores ni más apacibles. Sentado en la recién
pintada veranda, disfrutaba del sol primaveral del mediodía y gozaba del paisaje rural que
sólo ofrece una casa de campo, cómoda y rústica. Tres días de arreglos domésticos,
destapando drenajes, reparando techos y limpiando la apreciada herencia, eran
recompensados con un merecido descanso. Valió la pena el viaje —me dije— y empezaré
con mis lecturas atrasadas más tarde.
Debí quedarme dormido varias horas porque las nubes parecían haber salido de la nada.
Sin el cambio en la luminosidad del día y la sensación incipiente de hambre y frío, hubiese
jurado que sólo me había distraído pensando en quienes no estaban conmigo. Habiéndome
alejado de la civilización con toda intención pense que todavía me encontraba bajo el sopor
del sueño al escuchar el lejano murmullo que sólo hacen los trenes de carga. Sin más
motivación que la curiosidad por la persistencia y el paulatino aumento del murmullo,
presté más atención. Empecé a darme cuenta de que era más parecido al distante, aunque
grave, zumbido de un enjambre de abejas. Estando en el campo, desde luego, era una
explicación más probable para el ruido.
El fresco que empezaba a sentir me obligó a levantarme de la agradable mecedora y, con
un horizonte más amplio para la vista, busqué la fuente de la creciente vibración. El cielo,
ya nublado, se oscurecía hacia la parte posterior de la casa, desde donde podría verse el
rancho vecino, a unos tres kilómetros.
No tuve que dar la vuelta a la casa para ver que, más allá de la troje que sobresalía del resto
de la granja de mis fortuitos vecinos y partiendo de la orilla más oscura de las nubes, se
extendía una columna que unía al nubarrón con la superficie de la tierra. Con forma de
embudo en su parte más alta y tan caprichosa y viva como una culebra, parecía envolver en
una bruma a la ancha zona de contacto.
Cuando yo era más joven, antes de que los adultos aceptaran que mis opiniones eran
valiosas o de que yo aceptara que en realidad no lo eran, una tía, notable por sus
exageraciones y su ignorancia, describió sus experiencias cuando un tornado, al que
llamaba twister, pasó por el pueblo en el que había crecido. Petrificado, como parecía
estarlo en ese momento la zumbante columna, recordé la historia.
Después de unos minutos de incredulidad, percibí cómo se movía el extremo inferior del
tornado y parecía engullir todo a su paso. El horizonte, más claro, contrastaba con la
serpenteante columna y con los rayos que vestían de luz y sonido al diabólico espectáculo.
Cuando pasó por las minúsculas estructuras de la granja, a la que no pude dejar de mirar,
como queriendo conservar los detalles que la guardarían en mi memoria como algo que no
imaginé, todo desapareció. La troje, la vieja carreta, el camino arbolado que recibía las
cosechas y todo lo que hacía familiar la escena fue borrado por el siniestro remolino. La
diluida nube de despojos y objetos irreconocibles que volaban cerca de la parte central de
la columna eran la prueba de que la ranchería de los vecinos había existido.
No me moví. Me quedé clavado al pasto, mojándome, sin poder quitar la vista del
gigantesco remolino. Nunca podré describir la inextricable mezcla de aprensión y
admiración que me mantuvo paralizado durante tantos y valiosos minutos. De ello no me
arrrpiento. Vi a la naturaleza desentrañar sus fuerzas y volcarlas con violencia sobre sí
misma. Luego, como consciente de mi presencia irreverente, el tornado cambió su
dirección y se dirigió hacia mí con una velocidad vertiginosa.
Sin premeditación alguna corrí a mi automóvil y cerré las puertas en forma instintiva,
como queriendo impedir la entrada del viento, esperando la inexorable llegada del fin.
Minutos después, durante los segundos que tardó en suceder todo, fui testigo inerme de lo
que Dante describió en su Infierno. Voces graves y chillantes mezcladas con golpes secos
y sordos, cegadoras luces que hacían más fantasmagórico el espectáculo brevemente
nocturno. Cientos de pequeños remolinos en tumulto quitaron la transparencia al aire y,
como desconectando la gravedad, hicieron volar todo alrededor y cambiaron mi oasis
personal en pandemónium. Aferrado al volante, miraba la casa que parecía resistir la lluvia
de objetos que caían sobre ella. Por un instante y en forma absurda, pensé en las
reparaciones que había hecho y en su nueva pintura. Como si fuera un castigo a mi
pensamiento pusilánime, la casa explotó como si se hubiese inflado hasta el límite sin
querer distenderse. Deapareció entre los escombros dispersos en el aire y me cerré al
mundo externo apretando los ojos, los dientes y las manos.
Más tarde, acalambrado por la tensión inútil en los brazos y las piernas, abrí los ojos y
frente de mí aparecía la puesta de Sol más hermosa que había visto. El amplio e
irreconocible paisaje sólo mostraba los signos del abandono, como si despertara de un
sueño de años. El automóvil, reorientado sin que recordara cómo, apuntaba sobre un
camino cubierto de ramas y tierra que me invitaba a partir. La tormenta y su furia se habían
desvanecido con la casa y su contenido. Esa tarde, durante el ocaso de un día desigual a los
demás, me senté a pensar sobre el miedo, la muerte y lo temporal de nuestros actos.

Cada detalle de la narración anterior tiene al menos una confirmación


independiente. Los datos que siguen hacen ver que no hay exageraciones en la tal
vez imaginada descripción.

El 18 de rnarzo de 1925, un tornado quitó la vida a 689 personas, hirió a más de


2 000 y causó daños incalculables en los estados de Missouri, Illinois e Indiana,
en EUA. Durante las tres horas que hizo contacto con la superficie, recorrió más
de 300 km y se estima que los vientos llegaron a los 600 km/h. Entrada la tarde
de un domingo de ramos, el 11 de abril de 1965, se registraron 47 tornados que
causaron uno de los más grandes desastres de su tipo en los estados de Iowa,
Wisconsin, Illinois, Indiana, Michigan y Ohio. Murieron 271 personas, se
lesionaron más de 3 000 y los daños materiales fueron superiores a los
trescientos millones de dólares.

Es sorprendente la destrucción que deja a su paso un tornado. Se han reportado y


confirmado casos insólitos: varitas de paja incrustadas en postes de madera; una
casa-escuela con 85 alumnos dentro fue demolida por completo y, sin que
ninguno de los alumnos perdiera la vida, fueron transportados 150 m; un tren con
cinco vagones, de más de 70 toneladas cada uno, fue levantado de la vía y uno de
los vagones fue lanzado a cerca de 24 m de distancia.

La velocidad de traslación de un tornado típico es de 50 km/h, habiendo registros


de hasta 112 km/h o de tornados estacionarios. La dirección usual es de suroeste
a noreste y, aunque el efecto de Coriolis es muy pequeño, el giro más común es
ciclónico. El ancho característico es de unos 100 m y su recorrido de unos 25 km,
con grandes desviaciones; el de 1925 tuvo un ancho ocasional de más de 1.5 km
y su recorrido fue de 325 km. La velocidad de rotación es típicamente de unos
400 km/h, con registros de hasta 800 km/h. La altura del embudo superior, que
se desvanece en la nube madre, alcanza entre 800 y 1 500 m.
El inevitable honor de máxima aparición de tornados le corresponde a EUA, con
más de 650 por año; en 1965 se registraron 898 tornados. Australia, con más de
100 eventos anuales ocupa el segundo lugar. En forma eventual aparecen en casi
todo el mundo. Sin que la estación del año o la hora del día (o la noche) tengan
algo que ver con sus apariciones, su frecuencia es ligeramente mayor durante los
meses de mayo, junio y julio y entre las 3 y las 7 de la tarde. Sin embargo, nada
garantiza que no se aparezcan repentinamente en la madrugada del 25 de
diciembre.

La mayor parte de las características de un tornado, como las distribuciones de


velocidad y presión, son inferidas de estudios teóricos y evaluaciones de
ingeniería de daños. La rapidez y violencia del fenómeno han limitado
severamente la medición directa pues casi todos los instrumentos son destruidos.
De la filmación de un tornado en la ciudad de Dallas, EUA, en abril de 1957, se
hicieron las primeras observaciones cuantitativas al seguir el movimiento de
escombros y de algunas zonas de su estructura. Hay registros esporádicos de
caídas de presión de hasta 200 milibares (20% abajo de la presión atmosférica
normal) en tiempos de 30 segundos. Como consecuencia hay un efecto de succión
o explosión. Los techos son levantados y las paredes revientan hacia afuera.

La circulación del aire en un tornado está esquematizada en la figura IV. 6.


Superpuesto al movimiento horizontal giratorio, presente en todo el tornado, el
aire se mueve en dirección vertical; hacia abajo dentro del embudo y hacia arriba
en la parte exterior y en la región cercana al piso. En esta última, la capa de
Ekman, el aire fluye en forma espiral hacia el centro de la zona de contacto y ahí
sube violentamente por fuera del tubo y el embudo.
Figura IV. 6. (a y b) Circulación en un tornado.

Para la formación de un tornado es necesario que exista una zona de flujos


encontrados con suficiente vorticidad, durante varias horas y en la escala de
kilómetros. Estas condiciones se dan en los frentes fríos, donde chocan masas de
aire frío y caliente, en zonas de ráfagas, en la vecindad de huracanes y, con
frecuencia, en las erupciones volcánicas. A unos 5 km de altura, chorros
encontrados se tuercen por la fuerza de Coriolis y el aire frío se arremolina y
hunde sobre la nube madre del tornado. Aquí el proceso semeja al vórtice que se
genera en un desagüe de lavabo. Hundimiento y circulación se organizan y
acoplan, fortaleciendo al vórtice. En el fondo, en la capa de Ekman, el fluido sólo
puede ir hacia arriba al converger en una región reducida; conectado con el
extremo incipiente del tubo que sale del embudo, sirve para "amarrar" al tornado
a la superficie de la Tierra.

Cuando un tornado pasa o se forma sobre una superficie de agua recibe el


nombre de tromba o tromba marina. Como los tornados, puede tener formas
distintas y ocurre frecuentemente en grupos; se han visto hasta 15 trombas
simultáneamente. La intensidad de la tromba parece ser menor que la de sus
hermanos terrestres, aunque los datos son más escasos (no hay muchos
habitantes humanos en las aguas). Siendo más débiles que los modelos
terrestres, pueden confundirse con remolinos común y corrientes.

Contrario a lo que se cree, las trombas no elevan el agua a grandes alturas, si


acaso unos cuantos metros. La estructura (Figura IV. 5 (b)), como la nube madre,
está formada de vapor de agua dulce y gotas que resultan de la condensación. En
la parte inferior es usual ver una envoltura ancha de rocío que gira con el vórtice.

Una de las trombas más famosas fue vista por cientos de turistas bañistas y
varios científicos en la costa de Massachusetts, el 19 de agosto de 1896. Se
estimó que su altura era de 1 km, el ancho de 250 m en la parte superior, 150 m
en la zona intermedia y 80 m en la base. La envoltura de rocío que rodeaba al
vórtice en la base era de 200 m de ancho y 120 m de altura. Desapareció y volvió
a formarse tres veces, durando una media hora en cada ocasión; el tamaño y la
vida de ésta fueron mucho mayores que la generalidad. Aunque son un peligro
para embarcaciones pequeñas, hay pocas indicaciones confirmadas de que barcos
de calado mediano o grande hayan sido destruidos por uno de estos vórtices
acuícolas. Lo que sí ha sucedido es que emigren a tierra con afanes anfibios y
causen destrucción y muerte.

Si bien aparecen en cualquier época del año y a cualquier hora, son más
frecuentes entre mayo y octubre y, como los violentos y pedestres parientes, les
gusta el sonido del idioma inglés modificado; se ven seguido en las costas
estadounidenses y australianas. En Nueva Gales del Sur, Australia, se registró uno
de más de 1 800 m de altura. El Golfo de México es un buen lugar para espiarlos.

Otros vórtices comunes son los vórtices de marea, los vórtices de desagüe y
los remolinos de tierra.

Los vórtices de marea resultan de las corrientes causadas por las mareas. Cuando
la marea entrante alcanza las aguas de la marea saliente, en estrechos que
separan grandes masas de agua, se manifiestan estos temidos enemigos de los
navegantes. Esto explica por qué son protagonistas en leyendas y mitos de la
antigüedad.

El más famoso de los vórtices de marea es sin duda Caribdis, que dio nombre
temporal a estos vórtices. Descrito por Homero en la Odisea, Caribdis fue el terror
de los héroes que navegaban en el Mar Mediterráneo; otros, no glorificados por
las epopeyas homéricas, también le temieron y sucumbieron en él. No en vano
Virgilio los muestra a Dante en su paso por el Infierno.

El Estrecho de Messina, entre Sicilia y Calabria, al sur de Italia, separa los mares
Jónico y Tirreno; el estrecho es casi un canal que acaba abruptamente en el
Tirreno. Varios elementos combinados lo convierten en el lugar ideal para la
malévola existencia de Caribdis. Los dos mares tienen mareas opuestas, y la alta
de uno coincide con la baja del otro; así, cuando uno va, el otro viene. Además, el
mar Jónico tiene una temperatura menor y una salinidad mayor que el Tirreno, lo
cual hace que las aguas del Jónico sean más pesadas. Estas circunstancias
provocan una situación inestable y propicia, durante los cambios de marea, para
la formación de intensos vórtices verticales y horizontales. Para perfeccionar los
maquiavélicos detalles, en la parte más angosta del Estrecho de Messina,
precisamente en la salida al Tirreno, el fondo marino tiene la menor profundidad
(100 m). Del lado norte, en el Tirreno, la profundidad es de 350 m, a 1 km de
distancia de la salida del estrecho. Del lado sur, dentro del canal y a la misma
distancia de la salida, la profundidad es de 500 m. Ahí, justamente, acechó oculta
la clásica monstruosidad a los valientes argonautas.

Muchos ejemplos aparecen en la mitología de diversas civilizaciones. En el folklor


noruego destaca el Maelstrom, que inspirara miedo a los notables navegantes de
los mares del norte y motivara el poema de Schiller y la novela de Edgar Allan Poe
El Maelstrom, situado en los estrechos de las islas Lofoten, en el Mar de Noruega,
aparece citado desde el siglo XVI en las primeras cartas de navegación de los
fiordos. Otros casos conocidos son los vórtices en St. Malo, en la costa francesa
del Canal de la Mancha, el de Pentland Firth, entre la costa escocesa y la Isla de
Orkney y, los más grandes que hay, en los estrechos de Naruto, en el Mar de
Japón. Estos últimos presentan vórtices tales que la boca, la región con forma de
campana invertida que ruge como una amenazante catarata, es de más de 15 m
de diámetro.

Los remolinos de tierra, que seguramente todos hemos visto, son como versiones
miniatura de los tornados. Tienen la forma de columnas o de conos invertidos y el
movimiento del aire es giratorio, en cualquier dirección, y ascendente. Cerca del
piso la corriente es de forma espiral y es capaz de arrastrar toda clase de
pequeños objetos, incluyendo animales no muy grandes, como liebres.

La altura que alcanzan es entre 2 y 1 500 m, siendo característica la de 100 m. El


diámetro oscila entre 1 y 50 m, siendo el más común de 10 m. Es muy probable
que alcancen valores mayores, lo cual permite a los pilotos de los planeadores
subir hasta 5 000 m usando las corrientes espirales ascendentes de estos
remolinos, cuya vida es mayor de lo que la evidencia visual indicaría; sólo cuando
arrastran material como arena, polvo, humo, inclusive nieve o fuego, es que son
visibles. Hay registros de múltiples remolinos que duraron varias horas. Uno de
los más célebres fue seguido en las planicies saladas del estado de Utah,
en EUA, de 800 m de altura, y viajó 65 km durante 7 horas. Otro, en la orilla del
desierto de Sonora, en México, se mantuvo estacionario y activo por un lapso de
cuatro horas.

Los de tamaño apreciable son visitantes frecuentes de los desiertos del mundo;
cientos de informes sobre ellos provienen de los desiertos de EUA, México, Sudán,
Egipto, Arabia Saudita, Iraq y Etiopía; entre otros. Se cree que las nubes de polvo
que se observan en la atmósfera de Marte, nuestro enigmático y colorado vecino
cósmico, son debidas a grandes remolinos de tierra.

Usualmente, los remolinos de tierra resultan de la estratificación térmica del aire y


aparecen en condiciones de mucho calor y cielos despejados. No hay nubes madre
que los acompañen y guíen por la vida, como es el caso de los tornados y las
trombas. Mientras que estos últimos son generados por el hundimiento del aire
más pesado de una nube con rotación, los remolinos en cuestión se forman muy
cerca del piso, a partir de capas delgadas de aire muy caliente.

En un día caluroso de verano, especialmente en las zonas desérticas, los primeros


dos metros de aire sobre la superficie elevan su temperatura por arriba de los 60º
y, como el humo, la capa tiende a subir. Mientras la capa se mantiene horizontal
no puede ascender; cualquier alteración local dispara la inversión en ese sitio. Una
perturbación relativamente chica, como una leve brisa o el paso de un animal,
rompe la inestable situación y se inicia un movimiento de aire hacia arriba; el
hueco que deja el aire que sube es llenado por el aire inferior circundante en un
flujo espiral. Una vez iniciado se va fortaleciendo el remolino, siendo la fuente de
energía el calor almacenado en la superficie del piso.

Seguramente más de un lector espera leer sobre su remolino preferido. Desde


luego que hay otros tipos de vórtices, pero aquí no es posible hablar de todos
ellos; hay obras completas dedicadas al tema que no han logrado agotarlo (Lugt,
1983). Veamos por encima al más trillado y estudiado, que no por eso deja de ser
interesante ni del todo entendido.

Los remolinos que vemos todos los días en el lavabo son los llamados vórtices de
desagüe. Si uno le da rotación con la mano al agua dentro de un lavabo o de un
recipiente y permite que empiece a salir por un agujero situado en la parte central
del fondo, observará que se genera un remolino. La superficie libre del vórtice (la
que está en contacto con el aire) toma una forma que depende, entre otras cosas,
de la cantidad de rotación que se le imprimió al agua, de la profundidad del
recipiente (el tirante) y del diámetro del agujero. Dos aspectos sobre este tipo de
vórtices han llamado la atención de investigadores durante siglos. Uno tiene que
ver con la forma de la superficie libre y otro, independiente, con el sentido de la
rotación del vórtice.

Si la rotación no es muy grande o el tirante lo es, la superficie muestra sólo una


pequeña concavidad (Figura IV.7(a)). A mayor giro o menor tirante aparece un
núcleo o centro de aire (Figura IV.7(b)). Cuando la columna de aire alcanza el
fondo (Figura IV.7(c)) se dice que el tirante toma su valor crítico y a partir de ese
momento el centro del vórtice se mantiene lleno de aire. La cantidad de líquido
que sale por el desagüe se ve reducida por la competencia del aire, razón por la
cual el hecho se convierte en un problema de suma importancia desde el punto de
vista práctico. Las fallas en sistemas de enfriamiento en reactores nucleares, la
pérdida de la eficiencia de bombas, los desbordamientos de presas, los daños en
turbinas y vibraciones son sólo algunos de los problemas que se presentan. El reto
teórico de predecir esta situación en una instalación dada o en el caso más
sencillo sigue abierto. Por ahora se maneja en forma empírica, sin que eso quiera
decir que se sigue en la total oscuridad, hay cierta penumbra.

Figura IV. 7. Superficie libre del vórtice de desagüe. De izquierda a derecha, (a) vórtice
débil, (b) mediano con núcleo de aire y (c) núcleo del vórtice llegando al desagüe.

Predecir la dirección del giro es más complicado de lo que podría creerse. En el


hemisferio norte los huracanes, sin excepción, giran contra las manecillas del
reloj. Los tornados y las trombas, casi siempre, imitan a sus mayores. Los
remolinos de tierra no presentan patrón alguno, les da igual girar en un sentido
que en el otro. Los de desagüe son simple y sencillamente raros.
Es desafortunadamente común ver escrito en libros serios (¿?) que los vórtices en
un lavabo hacen lo mismo que los huracanes debido a la fuerza de Coriolis. Una
cosa es clara, los autores no se tomaron la molestia de confirmarlo al ir al baño.
En la casa de un amigo hay dos lavabos que siempre hacen lo mismo, en uno el
remolino gira con el reloj y en el otro en sentido contrario. ¿Habrá algo místico en
sus baños? La respuesta es que tienen formas ligeramente distintas, aun siendo
de la misma marca, y la llave que los llena está colocada un poco diferente; el
agua de cada llave también sale un poco diferente. Otra cosa que los autores no
hicieron fue estimar el tamaño de la fuerza de Coriolis sobre el agua en un
lavabo; es tan ridículamente pequeña que igual (casi) hubieran podido invocar la
ubicación de Urano como la responsable de los giros.

Para ver el efecto de la rotación de la Tierra sobre la dirección del giro de un


vórtice pequeño, como los de desagüe, es preciso hacer un experimento bajo
condiciones cuidadosamente controladas. El primero de esta naturaleza fue
realizado a principios del siglo XX por Otto Turmlitz, en 1908, en Austria; su
trabajo fue titulado Una nueva prueba física de la rotación de la Tierra. La
confirmación la llevó a cabo Ascher Shapiro, en 1961, haciendo el experimento en
Boston, EUA y en Sydney, Australia. Entre otros cuidados, el agua debía pasar
varios días en absoluto reposo.

En uno de los experimentos de Shapiro se observó un giro contrario al esperado.


Principió como un giro igual a los demás, después de un lapso de tiempo se fue
reforzando, alcanzó un giro máximo y, a diferencia de los otros casos, se fue
debilitando hasta que, tras desaparecer, se invirtió en la última etapa. Estudiando
el mismo fenómeno, Merwin Sibulkin hizo dos observaciones, un año después.
Una fue que si llenaba el recipiente con un tubo inclinado de modo que girara en
una dirección o en la otra, el efecto (como de memoria) persistía durante mucho
tiempo; el vórtice de desagüe seguía esa dirección al destapar el fondo. La otra
observación fue que el proceso de inversión del giro en la etapa final era común,
independientemente del giro inicial, lo cual contradecía a la aparentemente
convincente explicación de Shapiro.

Experimentos posteriores de otros investigadores contribuyeron a oscurecer el


mecanismo que determina el giro y su dependencia de la profundidad. La
situación es como sigue. Imaginemos un recipiente cilíndrico, lleno de agua, con
un agujero circular en el centro del fondo. El agua está inicialmente en reposo. Al
destapar el agujero, el agua empieza a moverse hacia el centro y hacia abajo.
¿Qué rompe la simetría del flujo e introduce una dirección privilegiada de giro?
¿Qué da lugar al debilitamiento del vórtice, flujo estabilizador por excelencia, e
invierte la dirección cuando el tirante es muy pequeño (como del tamaño del
agujero)? Muy probablemente la explicación empieza por dos hechos que se
suponen implícitamente en los estudios teóricos. Uno es que causas pequeñas
producen efectos igualmente pequeños y el otro es que sólo puede haber una
solución a un problema con la misma formulación. Como veremos en el siguiente
capítulo, las últimas dos décadas nos han enseñado mucho sobre estos dos
aspectos. Lo cierto es que aun problemas tan aparentemente sencillos como
algunos de los mencionados en este libro, son motivo de la investigación intensa
de científicos de diversas disciplinas, en distintos países y por las razones más
disímbolas. Es difícil no sentir curiosidad por describir y entender al vórtice de
desagüe que se muestra en la figura IV. 8.

Figura IV. 8. Fotografía del vórtice de desagüe.


V . L A T U R B U L E N C I A

Aquí vamos a considerar algunas de las ideas mencionadas con anterioridad para
esbozar lo que constituye uno de los desafíos más grandes de la física, el
problema de la turbulencia. El problema aparece en casi todas las ciencias
experimentales y, por su formulación, en las matemáticas. La "solución" a este
problema ha eludido a matemáticos, ingenieros y físicos por más años de los que
el decoro permite aceptar. Los intentos de abordar el problema han generado o
estimulado ramas de las matemáticas, han introducido múltiples ideas en física y
han generado una gran variedad de métodos matemáticos y experimentales;
todos de una utilidad notable en otras disciplinas. Muchos científicos
sobresalientes estudiaron el problema y luego prefirieron cambiar de tema para
lograr las contribuciones que los hicieron figurar en la historia. Por intentos no ha
quedado, si bien las cosas no están como al principio.

Al iniciarse la década de los años setenta se abrieron varias perspectivas teóricas


y experimentales de muy diversa índole. Cada una por separado parecía ser la
adecuada para atacar en forma definitiva el problema. Cada una de ellas inició
una etapa de intenso, extenso y excitante trabajo en todo el mundo. Combinando
ideas y métodos recién desarrollados en las matemáticas, desde las muy
abstractas como la topología diferencial, hasta las más prácticas como el análisis
numérico (aunado a la construcción de computadoras cada vez más grandes y
veloces), se revisaron experimentos clásicos desde una nueva perspectiva y se
encontraron elementos que estaban a la vista, pero que no se habían buscado o
que simplemente se ignoraban invocando diversos argumentos. También, nuevas
técnicas experimentales y cuidadosas observaciones hicieron cambiar algunas
ideas preconcebidas y el enfoque teórico que sistemáticamente se había estado
siguiendo. Así, se revisaron las teorías y repitieron experimentos. Si bien cada
una de las nuevas ideas y métodos, teóricos y experimentales, siguen en una
efervescente actividad, el optimismo inicial sobre la comprensión del fenómeno de
la turbulencia ha ido decayendo con el tiempo en vista de los exiguos resultados
específicos. Muchas cosas han quedado más claras y los horizontes por explorar
se han abierto en forma sorprendente.

Algo claro e irreversible que sucedió a lo largo de este proceso, fue el inicio de un
cambio en la actitud de la mayoría de los físicos; en los que no se ha dado es
porque no lo requerían o porque todavía no lo pueden aceptar.

El enfoque reduccionista de la ciencia, llevado a su culminación en la física, busca


explicar todos los fenómenos con base en un conjunto reducido de leyes
fundamentales. Así, la materia se redujo, pasando por las moléculas y los átomos,
a las partículas elementales, los cuarks. De todas las fuerzas en la naturaleza,
pasando por las eléctricas, las magnéticas, las nucleares y las gravitacionales se
llegó (casi) a una sola, la gravitacional - cuántica (supersimétrica). Logrado esto,
dirían (y aun dicen) pomposamente algunos, el resto es un problema de
aplicaciones; esta imagen va diluyéndose poco a poco ante los hechos y la
humildad regresa al lugar de donde no debió salir.
Todavía hace poco se decía que las leyes básicas habían sido encontradas en la
primera mitad del siglo XX y que con esto se cerraba una etapa gloriosa del
pensamiento humano (algo parecido se pensaba hace cien años con la mecánica
newtoniana y el electromagnetismo de Maxwell). Aun suponiendo que conocemos
estas leyes fundamentales, en forma clara y precisa, lo que sería
decepcionantemente pretencioso, algo ha cambiado. Se ha puesto de manifiesto
que esto no es suficiente y que para explicar el mundo se requiere mucho más.

El argumento es más o menos el siguiente. La dirección opuesta al reduccionismo,


creciendo en grado de complejidad, ha traído sorpresas que muy pocos preveían.
A partir de casi cualquier punto en esta dirección aparecen nuevos fenómenos,
ricos y variados, con elementos ausentes en el nivel anterior, más sencillo; se
generan nuevas simetrías y emergen formas nuevas de organización. Si a un nivel
de descripción parece sólo haber desorden, al siguiente aparece orden en el caos,
como en un acto de magia medieval donde los encantamientos son las fuerzas
ocultas que nos desafían a descubrirlas. El comportamiento de grupos de átomos
o moléculas parece tener poco que ver con sus elementos constituyentes,
cúmulos de estos grupos tienen aún menos memoria de sus elementos básicos.
Estos cúmulos se autorganizan, duplican y evolucionan solos; confabulados en
grupos de cúmulos cada vez más grandes llegan a producir patrones de flujo cuya
belleza adorna la superficie de algunos planetas, a ladrar en las esquinas oscuras
de colonias olvidadas o se atreven a construir máquinas que empiezan a pensar
sobre ellas mismas...

Comienza a verse claro que el buscar las leyes básicas de los constituyentes
últimos de la materia es tan fundamental como investigar las leyes que rigen los
procesos que se dan con el aumento en la complejidad de los sistemas. Casos
característicos son los estudios sobre los mecanismos que dan lugar a la
autorganización, a la formación de patrones, a la aparición de simetrías o a la
desaparición de éstas y al orden que nace cada día en lo que sólo parece ser el
caos...

Como siempre, cuando parece que se alcanza el horizonte, la naturaleza nos


muestra que hay otro igualmente lejano, nuevo, más rico que el imaginado, más
estimulante para ser estudiado. La investigación fundamental sigue tan abierta y
hay tanto por hacer como lo había antes del descubrimiento de las leyes básicas.
Los grandes pasos que se han dado en el avance del conocimiento son sobre un
camino que no tiene final. En el mejor de los casos, el camino se volverá
infinitamente autorreferente, como la espiral de Arquímedes o los conjuntos de
Julia. Con esta frase críptica podemos ahora regresar al asunto que nos reúne.

¿Cuál es el problema y qué sabemos de él?

Todos los flujos que se observan pueden clasificarse en dos grandes grupos, los
laminares y los turbulentos. Los casos más sencillos que ejemplifican a los
primeros son el flujo uniforme, donde la velocidad del fluido es la misma en todos
lados, y el flujo de Couette plano, ilustrado en la figura IV. 3. Los hay más
complicados, como los que aparecen en las figuras II. 7, II. 8, IV. 2, IV. 4 y IV. 7.
En todos estos el fluido se mueve en láminas y parece obedecer reglas más o
menos claras. Estudiando los flujos laminares es como se han entendido los
principios básicos que describen a los fluidos. Por otra parte, son los flujos
turbulentos los que dominan el foro.

Cuando el movimiento de un fluido es irregular y complicado se dice que el flujo


es turbulento. En la figura V.1 se muestra un chorro turbulento de agua; aunque
muy familiar, la complicada estructura ilustra las características de la turbulencia.
Esta definición, como tantas otras en nuestro negocio, no parece muy precisa:
podíamos haber dejado el pudor a un lado y caracterizar simplemente a la
turbulencia como el estado no- laminar. Ésta es parte de la dificultad.

Figura V. I. Chorro turbulento de agua.

¿Cuándo es un flujo lo suficientemente complicado como para ser bautizado como


turbulento? Como con el estado mental de las personas, es relativamente fácil
distinguir los casos extremos. A quienes están totalmente desquiciados los
confinamos a una habitación acolchonada, dejando fuera a los normales (¿?), pero
siempre nos preocupa distinguir la ubicación de la línea que separa los casos
marginales. A los "fluidicistas" les pasa un poco lo que a los psiquiatras (con la
única ventaja de no ser sujetos de su propio estudio).

Una característica del estado turbulento es la completa irreproducibilidad de los


detalles de un flujo; hay un elemento aparentemente caótico que es inherente a
este estado de movimiento. Al abrir completamente la llave de un lavabo
observamos un chorro de agua que cae, choca con el fondo del vertedero, se
reúne con la que cayó previamente y, moviéndose de manera irregular, se va por
el desagüe. Si midiéramos algún parámetro del flujo con mucha precisión, como la
velocidad en el chorro encontraríamos que conforme transcurre el tiempo, tal
parámetro va cambiando de valor y da lugar a un patrón como el que se muestra
en la figura V.2. Si después medimos muchas veces, abriendo la llave de la misma
forma, esperando el mismo tiempo y a la misma distancia de la boca de la llave,
el resultado será muy parecido al anterior, pero nunca igual.
Figura V. 2. Gráfica de la velocidad (vertical) contra el tiempo (horizontal). El valor medio
de la velocidad es vo.

No sólo la velocidad cambia en esta forma irregular. Casi todas las variables
hacen lo mismo. Por ejemplo, supongamos que se determina el gasto, que es la
cantidad de agua que sale cada segundo, manteniendo todo fijo. El resultado sería
de -digamos- un litro cada diez segundos (100 ml/s), aproximadamente; a veces
unos mililitros más, a veces otros menos. Es decir, fluctúa alrededor de un valor
promedio, el de 100ml/s. El asunto no tiene remedio, siempre es así cuando el
valor promedio de alguna cantidad excede de cierto valor, llamado crítico. Para
ciertos casos muy simples se ha logrado predecir razonablemente el valor crítico
que debe alcanzar cierto parámetro (usualmente el número de Reynolds) para
que el flujo pase de un movimiento laminar a uno turbulento. Es decir, que se
pierda completamente la estabilidad del flujo (se vuelva un tanto loco). Por otra
parte, el describir estas fluctuaciones, que podemos observar y cuantificar, es uno
de los aspectos más difíciles de abordar que tiene el problema, ya que se trata de
poderlos predecir, no sólo de medirlos; la medición es hoy en día un trabajo de
rutina en muchos laboratorios, si bien es necesaria una tecnología relativamente
complicada.

Los cientos de trabajos que se publican sobre estudios teóricos y experimentales


de la turbulencia, cada año y desde hace muchas décadas, hacen que una reseña
de los avances logrados se convierta en una obra de volúmenes. El uso de las más
variadas técnicas experimentales y matemáticas las hace, además, de difícil
lectura aun para los especialistas. Sin embargo, algunas de las ideas más viejas y
más recientes, que comparten elementos, nos permiten asomarnos a este mundo
agitado y convulso que llamamos turbulencia.

V.1. LA LEY DE KOLMOGOROV

Lewis Fry Richardson (1881-1953), uno de los pioneros de la meteorogía moderna


y miembro representativo de la tradición científica inglesa, estudió la dinámica
atmosférica y, desde luego, se enfrentó con la turbulencia, siempre presente en el
monumental laboratorio de la atmósfera. En un poema sencillo, que todavía se
cita en los textos, resumió lo que Da Vinci plasmó en sus lienzos al observar el
fluir de las aguas y lo que los científicos creen que sucede en un fluido excitado.
Big whorls have little whorls,

which feed on their velocity;

and little whorls have lesser whorls,

and so on to viscosity

(in the molecular sense).

Vórtices grandes tienen vórtices más chicos,

nutridos por su velocidad.

Vórtices chicos tienen vórtices más chicos,

así hasta la viscosidad

(en el sentido molecular).

Dejando a un lado el adagio latino de "traductor, ¡traidor!", el contenido del verso


expresa el proceso que parece sufrir la energía que se le comunica a un fluido
para mantenerlo en estado turbulento, el llamado modelo de la cascada de
energía.

Imaginemos un tanque con agua, a la que agitamos con una paleta de cierto
tamaño (escala). Al mover la paleta se producen vórtices de la misma escala.
Observamos que estos vórtices migran y se desintegran, generándose en el
proceso otros vórtices de una escala menor. Este mecanismo se continúa de una
escala a otra, hasta que la escala es lo suficientemente pequeña como para que el
movimiento de los vorticillos resultantes sea dominado por los efectos de la
fricción interna del fluido, la viscosidad. Ahí, los pequeños remolinos comienzan
una etapa de decaimiento, disipándose hasta desaparecer; la longitud típica de
esta última escala es de fracciones de milímetro.

De acuerdo con estas ideas, la energía pasa de una escala a otra, como en una
cascada en la que el agua cae de un nivel a otro, perdiendo altura (energía
potencial) pero ganando movimiento (energía cinética). En el fondo de las escalas
el movimiento se convierte en calor, disipándose la energía, y queda el fluido en
reposo. En la medida en que se siga agitando la paleta (inyectando energía al
fluido) se podrán apreciar las estructuras en las distintas escalas, siendo la más
pequeña la más difícil de ver.

Por consiguiente el estudio de la dinámica de vórtices es uno de los más


importantes en los trabajos de turbulencia. El objetivo es entonces entender cómo
se generan, cómo interaccionan entre sí, cómo se rompen y, finalmente, cómo
decaen. Algunas de las teorías más comunes abordan estos problemas desde
diversos puntos de vista, tratando de encontrar cantidades que se conserven en
este proceso y estudiando la forma en que van cambiando otras, al pasar a través
de las distintas escalas.

Uno de los resultados más célebres en la teoría de la turbulencia se debe a Andrei


Nikolayevich Kolmogorov (1903-) y a A. M. Obukhov, quienes obtuvieron el
mismo resultado, en forma independiente, en 1941. La importancia de la
expresión se debe a que es uno de los pocos resultados generales y cuantitativos
y a que es válida para todoflujo turbulento isotrópico y homogéneo. Que la
turbulencia sea homogénea significa que se ve igual si nos trasladamos a distintos
puntos del fluido; que sea isotrópica quiere decir que parece igual si vemos en
cualquier dirección. Para que lo anterior sea (aproximadamente) cierto se requiere
que la región en estudio se encuentre lejos de objetos o de las paredes que
contienen al fluido; se dice entonces que la turbulencia es localmente isotrópica.
Esta simplificación fue introducida por Geoffrey Ingram Taylor (1886-1975) en
1936. Muchas ideas fundamentales en la dinámica de fluidos moderna fueron
propuestas por Taylor en los profundos trabajos que hizo a lo largo de su prolífica
carrera científica.

Kolmogorov, quien era un distinguido matemático soviético, fundador de la teoría


moderna de la probabilidad, logró atraer la atención de numerosos colegas hacia
la teoría de la turbulencia. Al ver la naturaleza física, más que matemática, de la
contribución de Kolmogorov, la mayoría optó por volver a sus intereses originales.

Curiosamente, el mismo resultado fue obtenido en 1948 por tres físicos del más
alto nivel, en forma independiente y por caminos diferentes. Werner Karl
Heisenberg (1901-1976) y Karl Friedrich von Weizsacker (1912), durante su
detención en Inglaterra con otros científicos alemanes, y Lars Onsager (1903-
1976), en los EUA. Como ha sucedido en otros casos, la ley descubierta por estos
investigadores debía llevar como nombre un anagrama con sus iniciales, algo
como wookh; afortunadamente no fue así.

La famosa expresión establece en forma cuantitativa varios aspectos relacionados


con la cascada de energía propuesta por Richardson. Para percibir la esencia del
resultado seguiremos a Kolmogorov en su razonamiento. Empezaremos por
formular el resultado, que parece más un criptograma de la Guerra Fría que una
descripción de lo que puede pasarle a un fluido. Después, intentaremos
descifrarlo.
La ley de los dos tercios de Kolmogorov, como se le conoce, afirma lo siguiente.
En un flujo turbulento, la autocorrelación de velocidades entre dos puntos
separados por una distancia l, dentro del subintervalo inercial, es igual a C(
l) 2/3; C es una constante numérica universal y es el flujo promedio de la energía
(por unidad de masa). Todo indica que para entender el enunciado harían falta
estudios serios de paleología. Realmente no es así, es suficiente con algo de física
y de matemáticas; para apreciar el sabor basta un poco de paciencia.

La cascada de energía "a la Richardson", sugiere la existencia de una serie de


escalas a través de las cuales la energía transita, hasta disiparse en calor. En la
escala más grande, las estructuras (vórtices) llevan "impresa" la forma en que
fueron generadas. Chorros y estelas ejemplifican este hecho; cada uno parece
estar estructurado de manera muy distinta. A este nivel, son aspectos como la
geometría del sistema los que definen el tamaño y la forma de los vórtices
portadores de la mayor parte de la energía. En el otro extremo, los vorticillos más
pequeños consumen toda la energía al disiparse por efecto directo de la
viscosidad. En este proceso de cascada, en el que las estructuras se van
descomponiendo en otras más pequeñas, el flujo va perdiendo la memoria del
mecanismo generador de la turbulencia.

Con estas ideas en mente, Kolmogorov introduce su primera hipótesis. Propone la


existencia de un intervalo de escalas en el que el comportamiento turbulento es
universal (olvidó sus orígenes...). Es decir, el flujo turbulento es homogéneo,
isotrópico y estacionario. Este último atributo indica que, en promedio, el estado
no cambia con el tiempo; la amnesia es permanente, digamos. Además, nos
asegura el abstracto pensador, en este intervalo las cosas no pueden depender
más que de dos parámetros: el flujo de energía ( ) que se le inyecta al flujo para
mantenerlo agitado (algo así como el sufrimiento que experimenta el que mueve
la paleta o sopla el chorro) y la viscosidad (v),que caracteriza la disipación de la
energía (el calentamiento del fluido).

Hecha esta suposición, recurre a algo muy ingenioso. Estima el tamaño de la


escala máxima para la cual los efectos de la fricción todavía desempeñan un
papel. Al efecto demuestra que sólo hay una manera de combinar los
parámetros y v para que formen una longitud, ¡así de simple! (sólo con
propósitos morbosos cito el resultado: ( )-1/4v3/4). La escala así determinada, que
con suma originalidad fue bautizada de Kolmogorov,se denota por .

Entonces - se atreve a postular de nuevo- a escalas mayores que  no hay


disipación, por lo que la viscosidad debe ser una cantidad irrelevante. De esta
manera, hay una zona de escalas (subintervalo) en la que v debe desaparecer,
quedando como el único parámetro importante. La energía inyectada para
mantener la turbulencia se va transfiriendo a escalas cada vez más chicas, hasta
aparecer una envidiable amnesia. Sigue pasando a escalas todavía más pequeñas,
hasta que la viscosidad aparece en la escena, iniciando su destructivo papel, y
luego el final fatal, que a todo le llega. Como la energía sólo transita por estas
escalas intermedias, al subintervalo se le llama inercial,¡como de paso!

Así, en la traducción de la ley de los dos tercios se aclara un poco lo de


subintervalo inercial y el significado de . Sigamos adelante con la interpretación.
En un flujo turbulento la velocidad cambia (fluctúa) en el tiempo y en el espacio.
Es decir, al medir la velocidad en un punto fijo del espacio, conforme transcurre el
tiempo, se obtienen datos como los que se muestran en la figura V.2. Un patrón
semejante se obtiene si se mide la velocidad, simultáneamente, en varios puntos.
Desde luego, el promedio de la fluctuación es cero; igual aumenta que disminuye,
o se mueve a uno u otro lado.

¿Qué tan independiente es el valor que tiene la velocidad en un punto del que
tiene en otro punto o del valor que tomó tiempo antes? La respuesta a esta
pregunta se encuentra en la autocorrelación de las velocidades, espacial o
temporal, respectivamente. Nos dice cómo están (cor)relacionados los valores de
la velocidad (el prefijo auto indica que es la correlación de una cantidad dada
consigo misma). Si los puntos están muy cercanos, es de esperarse que exista
alguna conexión entre los valores de la velocidad, mientras que si están muy
separados probablemente no tendrán relación alguna. En lenguaje técnico se dice
que la autocorrelación de las velocidades decae con la distancia. Por ejemplo, mi
autocorrelación temporal de memoria es de corto alcance; hay quienes aseguran
que no pasa mucho tiempo para que mis recuerdos sean cada vez más vagos...

Regresando a la ley de los dos tercios, podemos resumirla de la siguiente manera.


Primero, existe una escala a partir de la cual el movimiento turbulento es
independiente de la forma en que se generó. Segundo, para dos puntos en el
fluido separados por una distancia l, las velocidades están relacionadas. Tercero,
si la escala de l es suficientemente grande, los efectos disipativos (la viscosidad)
no desempeñan un papel determinante. Cuarto, la relación entre las velocidades
(su producto) depende, a lo más, de y de la distancia l. Al recapitular hemos
introducido dos puntos adicionales. Uno, que la autocorrelación está definida
como el promedio del producto; aunque es importante este punto, no es
necesario entrar en más detalles. El otro consiste en proponer la dependencia
exclusiva en y l. Si l está en el subintervalo inercial, cualquier cantidad
dependerá sólo de , como parámetro característico del flujo.

El último ingrediente para obtener el resultado de Kolmogorov es el argumento


dimensional. Nuevarnente, la única forma de combinar y l para que formen el
producto de dos velocidades (una autocorrelación) es... ¡la escala de Kolmogorov!
El factor restante sólo puede ser un número (sin dimensiones, igual para los que
miden en pies, que para los civilizados que miden en metros) y, no sabiendo
cuánto valía, le llamó C. Los experimentos indican que su valor es cercano a 0.5.

Los intentos por extender las ideas de Kolmogorov, Obukhov, Heisenberg, Von
Weizsäcker y Onsager han sido hasta ahora infructuosos. Las extensiones han
requerido de aparatos matemáticos formidables y en ellas el esfuerzo realizado
contrasta con los escasos resultados o lo poco significativo que son. Una de ellas
fue desarrollada por Robert H. Kraichnan, durante los años cincuenta y sesenta,
con técnicas importadas de la teoría cuántica del campo, desarrolladas para el
tratamiento de fenómenos relacionados con las partículas elementales.

En un contexto distinto aparecieron los enfoques de la siguiente década, la de los


setenta. Las ideas de estructuras coherentes, de atractores extraños y de
fractales generaron un frenesí que todavía no acaba, aunque el optimismo inicial
ha disminuido. Aún es prematuro hacer una evaluación justa de la repercusión de
las ideas actuales sobre el problema de la turbulencia; todavía hay muchas
esperanzas y es posible que alguien sepa combinarlas en las proporciones
adecuadas para dar el siguiente gran paso. Con la sobriedad y la madurez que
sólo vienen con el tiempo se podrá apreciar la perspectiva con más objetividad.
Veamos en qué consisten algunas de estas ideas.

V.2. ESTRUCTURAS COHERENTES

La tecnología usada en la investigación experimental se ha mantenido en


constante desarrollo a través del tiempo. Una parte considerable de la llamada
tecnología de punta ha sido el fruto de las necesidades específicas de la
investigación en diversos campos de la física; tristemente, han sido las
aplicaciones a la industria de la violencia las que han sido argumentadas para
justificarla y el motor para su desarrollo.

El uso de computadoras cada vez más grandes y veloces, de electrónica cada vez
más rápida y versátil, de sondas mecánicas, ópticas y acústicas más complejas y
delicadas han dado lugar a una revolución en la forma de hacer experimentos en
las ciencias naturales. Los laboratorios dedicados al estudio de la turbulencia no
son la excepción, es más, son un excelente ejemplo. No sería exagerado afirmar
que, por ejemplo, el desarrollo de computadoras cada vez más grandes ha tenido
como principal promotora a la dinámica de fluidos. Sin embargo, aún no existe un
problema de turbulencia que se pueda solucionar con la computadora más grande
disponible, aunque ya se empiezan a acercar...

Al iniciarse la era de la electrónica moderna, acoplada a sistemas de adquisición


de datos y técnicas de medición y visualización, basadas en la óptica de láseres,
se llevaron a cabo algunas observaciones que influyeron decisivamente en la
investigación de la turbulencia. Curiosamente, éstas se realizaron con métodos
ópticos sencillos que se venían usando por décadas. El descubrimiento central fue
que la mayoría de los flujos turbulentos no son tan irregulares como se creía;
dentro del evidente caos hay cierto orden en el movimiento del fluido. Al azar,
aparecen estructuras con características bien definidas estadísticamente: la
distribución de sus escalas, sus tiempos de vida (periodos), etcétera.

Estos sorprendentes resultados dieron lugar a una reconsideración profunda de los


experimentos que se venían realizando. Una calificación más cuidadosa de la
estructura espacial de cada flujo turbulento se hizo necesaria para llegar a
entender las observaciones (Figura V. 1).

Nuevamente se repitieron experimentos y se formularon otros para delinear las


propiedades de estas formas semiordenadas que parecían pulular entre el caos.
La explosión en la capacidad de cómputo, que todavía no acaba, vino a dar
mayores posibilidades a este nuevo giro experimental. Las medidas más extensas
que se hacían con anterioridad eran autocorrelaciones de la velocidad, lo que daba
lugar a que, al observar en dos puntos distintos y promediar el resultado, se
borraran estas estructuras; las medidas tendían a registrar estados distintos de
estas estructuras que poco tenían de relación unas con otras. Al promediar entre
pulpos y niños se obtienen seres que en promedio tienen seis apéndices; este
dato promedio no parecería ser muy útil a un observador externo. Así, la forma de
medir y sobre todo, de analizar los datos, sufrió un cambio de fondo.

Un huracán que se mueve en el Océano Atlántico, visto desde un satélite orbital a


300 km de distancia, parece una estructura (vórtice) perfectamente organizada,
regular, que se mueve lentamente. Para el capitán de una nave camaronera y
para sus asustados tripulantes, que lo ven en una escala de metros, o decenas de
éstos, parece un infierno húmedo e irregular que varía violentamente de un lugar
a otro y de un instante al siguiente. Ni lo ven muy organizado (excepto para
ahogarlos) ni lo ven variar lentamente. Esta estructura coherente, vista por el
astronauta, está conformada por miles de vórtices más pequeños en plena
algarabía, que sufre el argonauta.

En la figura V.3 se ilustra una de las primeras fotografías que exhibían estas
estructuras coherentes. En ésta se pone de manifiesto una estructura
bidimensional de vórtices sobre la que hay superpuesta una complicada trama de
vorticillos (la turbulencia). El flujo corresponde a lo que se llama la capa de
mezclado. Dos fluidos, uno arriba y otro abajo, se mueven de derecha a izquierda
con velocidades distintas. En este caso se trata de nitrógeno (arriba) y de una
mezcla de helio y argón (abajo). Las velocidades son de 1 000 cm/s y de 380
cm/s, respectivamente, y la presión es de 8 atmósferas. La fotografía fue tomada
por el grupo de Anatol Roshko, en la década de los setenta, usando un método
que podríamos llamar sombragrafía.

Figura V. 3. Estructuras coherentes en un flujo turbulento; capa de mezclado.

El procedimiento para obtener estas fotografías es relativamente sencillo y el


fenómeno que lo genera es muy común. Quien ha visto una fogata o un montón
de brasas encendidas, recordará que las imágenes que se ven del otro lado
parecen bailar; sobre un fondo claro y uniforme pueden verse ciertas sombras
irregulares, como ondas de calor. El efecto es producido por las variaciones que
sufre la dirección de la luz al pasar por regiones con temperaturas distintas. Al
aumentar la temperatura del aire, éste se expande, cambia su densidad y tiende a
moverse hacia arriba. La luz que va pasando, tan rápido que ni se entera que se
mueve el aire, modifica su dirección al pasar de un medio más denso a otro
menos denso; decimos que cambia el índice de refracción. Las zonas de diferente
densidad, irregulares en forma, generan un patrón tembloroso de imágenes. En el
flujo en cuestión, cada uno de los fluidos tiene un índice de refracción distinto y
deja pasar a la luz de diferente manera. Así, en la región de mezclado turbulento
hay una complicada combinación de ambos índices de refracción y la luz sigue
estas variaciones. Al poner una pantalla del otro lado del flujo se pueden ver los
patrones resultantes (una criatura con una cámara fotográfica de plástico puede
hacer el resto).

Es interesante notar que destacados investigadores habían estudiado este flujo y


habían determinado todo lo que entonces se consideraba necesario para
caracterizar sus propiedades estadísticas. Descubrir la existencia, persistencia y
evolución de estas estructuras, en lo que parecía un flujo sin orden alguno, fue
una verdadera revelación.

La caracterización de estructuras coherentes sigue siendo el gran tema de


actualidad en la investigación experimental. La parte teórica se encuentra todavía
en sus inicios, cosa no del todo rara en este churrigueresco problema. Los
intentos por elaborar una explicación cuantitativa de estos fenómenos siguen
desafiando a la imaginación y al colmillo de la comunidad científica que se
interesa en el problema. Las dificultades se inician desde la forma de definir
matemáticamente a estas criaturas que viven en el caos. Si recordamos que la
definición de un vórtice sencillo nos elude todavía, no es de sorprender que este
asunto le quite el sueño a más de uno.

Hay la sospecha fuerte de que una de las mejores formas de acorralar a las
elusivas estructuras coherentes es estudiar el problema en términos de la
vorticidad, y los enfoques teóricos se mueven en esta dirección. De esta manera,
los experimentales tratan de medir la vorticidad y los teóricos de ver cómo se
distribuye en el espacio y el tiempo. Aquí, de nuevo, los investigadores depositan
sus esperanzas en las computadoras. Los experimentales, para la adquisición,
manejo y análisis de grandes cantidades de datos; sin ellas, este trabajo tomaría
cientos de miles de años, de todos aquellos que trabajan en el tema, ¡para un solo
caso! A los teóricos les pasa algo semejante. Para todos se ha convertido en la
herramienta indispensable y la fuente de inspiración para muchos estudios, desde
las simulaciones directas de flujos sobresimplificados hasta el terreno de juego
para los experimentos pensados.

El estado actual de esta situación es todavía nebuloso (¡turbulento!), si bien hay


múltiples ideas cualitativas sobre el papel que desempeñan las estructuras
coherentes. Estas ideas platicadas son el motor del trabajo experimental y teórico
que se puede consultar en la bibliografía especializada. La forma de plantear
matemáticamente lo que sugiere la intuición y la información acumulada es parte
de la tarea para llevar a casa.

El problema continúa abierto y ofrece la posibilidad de ganarse el pan cotidiano a


muchos curiosos y necesitados de la ciencia y el conocimiento, ya sea motivados
por razones prácticas o estéticas.

V.3. ATRACTORES EXTRAÑOS Y CAOS

Una serie de revolucionarias ideas y de descubrimientos paralelos a los


anteriormente descritos, independientes, diferentes y aparentemente
desconectados, pero sobre el mismo problema general de la turbulencia,
ocurrieron en la misma prolífica década en que se descubrieron las estructuras
coherentes. Describiremos sólo una parte, pero no tocaremos las sugerentes ideas
e importantes teorías como las de Mitchel Feigenbaum, Benoit Mandelbrot, Pierre
Manneville e Yves Pomeau.

Uno de los antecedentes fue el descubrimiento hecho por otro meteorólogo,


Edward N. Lorenz, en 1963. Estaba interesado en comprender ciertos aspectos de
la atmósfera terrestre con el propósito de avanzar en los métodos para la
predicción del tiempo. Con esto en mente elaboró un modelo muy sencillo para
estudiar lo que le pasa a un fluido sometido a una diferencia de temperaturas en
presencia del campo gravitacional, conocido como el problema de Rayleigh-
Bénard. A partir de las ecuaciones básicas de la mecánica de fluidos, las de
Navier- Stokes, introdujo varias hipótesis para reducir las ecuaciones a lo que en
su opinión aún tenía elementos suficientes para generar una dinámica interesante.
Luego, procedió a resolverlo en forma numérica. Cuál no sería su sorpresa al
encontrar que, para ciertos valores de los parámetros que caracterizaban al
problema, la solución mostraba un comportamiento errático. Curiosamente, no
tiró a la basura los resultados.

¿Cómo era posible que el resultado de una ecuación, compuesta por términos bien
definidos y perfectamente regulares, diera lugar a un comportamiento no
determinista? Otros, seguramente, hubieran descartado los resultados y pensado
que había algo equivocado con el método de solución o con la computadora
misma. Para Lorenz había algo nuevo y profundo en lo que acababa de encontrar;
había descubierto a los atractores extraños. Pasaron varios años para que la
comunidad cientifica se percatara de la enorme importancia de su hallazgo. Baste
decir que gracias a su trabajo, ahora sabemos que nunca podremos predecir el
tiempo más allá de siete días. Si oímos que se espera buen clima para la semana
próxima, podemos asegurar que es precisamente eso, una esperanza.

A la impredictibilidad del clima a largo plazo se le ha dado por llamar el efecto


mariposa.La razón para este nombre proviene del hecho de que una pequeña
diferencia en las condiciones iniciales digamos, hoy dará lugar a una profunda
diferencia a lo que puede estar ocurriendo tiempo después. El efecto de la
imperceptible variación irá creciendo con el tiempo, acumulándose poco a poco,
como una avalancha; para exagerar el punto, se dice que el aleteo de una
mariposa modificará el clima en unos meses. Desde luego, aquí nos referimos a la
predicción detallada de las condiciones meteorológicas después de unos días.
Características burdas o promediadas sobre muchos eventos y muchos años no se
verán modificadas en forma sustancial por estos pequeños mariposeos; la
erupción de un volcán o la desmesurada producción de contaminantes en alguna
región hipotética del planeta, no estarían incluidos entre estos últimos. La
temporada de lluvias será igual, si por ello entendemos que es parecida a la
temporada del béisbol; no tienen fechas fijas y los caprichos de los protagonistas
respectivos siempre están presentes.

¿Qué es un atractor extraño? Veamos primero qué son los no extraños, por
extraños (o triviales) que parezcan.

Si estiramos un resorte con una canica de cada lado y lo soltamos dentro del
agua, observaremos que empieza a oscilar y que poco a poco se va parando. Si
hacemos la misma prueba fuera del agua, en el aire sucio que algunos respiran,
sucede lo mismo, aunque el amortiguamiento será mucho menor y se tardará más
en detenerse. Decimos que la disipación es menor en este caso. Si lo pudiéramos
hacer en el vacío, tardaría más en detenerse; habríamos reducido aún más la
fricción. Al cambiar el material del que está hecho el resorte por uno más elástico
(más caro), la disipación podría reducirse aún más. A pesar de que nunca
podríamos quitar la fricción (disipación) por completo, podríamos ver que cada
vez tarda más en detenerse. En condiciones ideales se quedaría oscilando ad
infinitum. Estas observaciones ilustran el punto siguiente.

El estado final de un resorte (oscilador) es el reposo total o la oscilación perenne.


¡Pues que trivialidad!, decimos todos. La ventaja del ejemplo, que no es el único,
es que todo puede hacerse con un lenguaje matemático preciso y entonces puede
demostrarse que los movimientos posibles tienden (son atraídos) a un punto, el
del reposo. Este estado final es un atractor y su dimensión es cero.

En el espacio en el que viven estos movimientos, que llamamos variedades, hay


diferentes tipos de atractores: puntos (como en el caso de osciladores con
fricción), curvas (como en el caso de los osciladores no amortiguados, de
dimensión uno), superficies (de dimensión dos), etc.; objetos más o menos
simples. Antes de Lorenz se creía que todos eran de este tipo y fue entonces que
aparecieron los extraños, que resultaron ser cosas (variedades) conocidas,
aunque eran consideradas como curiosidades matemáticas sin conexión alguna
con el mundo real. Baste decir que su dimensión no es ningun número entero (si
no serán raros).

Para poder imaginar a los atractores extraños es conveniente mencionar una de


sus principales características, la de ser autosemejantes, lo cual en este caso
significa que mientras más le vemos menos enseña, o que enseña lo mismo (por
algo son extraños). Un objeto autosemejante que puede ilustrar (¿confundir?) la
autosemejanza y que tiene una dimensión fraccionaria (fractal), es lo que se
conoce como el conjunto de Cantor y se construye de la siguiente manera.

Consideremos el segmento de recta del cero al uno (Figura V.4). Lo dividimos en


tres partes iguales y quitamos la del centro (segundo renglón de la Figura V.4).
Ahora, a cada segmento restante lo dividimos en tres y volvemos a quitar los
tramos centrales (tercer renglón). Luego repetimos este proceso hasta el
cansancio y... le seguimos ad nauseam.El resultado es algo que tiene la propiedad
de que si lo vemos parece una serie de puntitos con cierta distribución espacial
que no alcanzamos a distinguir claramente. Si tomamos una parte y la
amplificamos cien veces —digamos se ve una serie de puntitos con cierta
distancia... ¡exactamente igual! No importa cuánto o cuantas veces
amplifiquemos, ¡siempre se verá igual!
Figura V. 4. Conjunto de Cantor.

Un atractor extraño, llamado de Henón-Heiles en honor a sus descubridores en un


modelo astrofísico, se muestra en la figura V.5. Se han hecho varias
amplificaciones que exhiben parte de su estructura. En el problema
correspondiente, todos los movimientos son atraídos por el atractor.

Figura V. 5. (a) Atractor de Henón-Heiles. Forma general.


Figura V. 5. (b) Atractor de Henón-Heiles. Amplificación del recuadro de la parte (a).

Figura V. 5. (c) Atractor de Henón-Heiles. Amplificación del recuadro de la parte (b).

En 1971, David Rouelle y Floris Takens propusieron una nueva teoría de la


turbulencia basados en el descubrimiento de Lorenz. En 1978 Rouelle y Takens,
en colaboración con Steven Newhouse, publicaron una importante extensión a la
teoría y es la versión que ahora se maneja. La propuesta ha permitido cambiar el
marco conceptual desde el que contemplamos el problema de la turbulencia,
aunque su utilidad práctica para describir la turbulencia totalmente desarrollada
se ve tan cercana como la colonización de la galaxia más cercana; es cosa de
tiempo, un tanto largo, desde luego. El resultado fue una verdadera explosión de
trabajos teóricos y experimentales sobre el tema, abriéndose por completo un
área de investigación que se había circunscrito a los iniciados en matemáticas
relativamente complejas.

¿Cuál era el dogma aceptado?

Lev Davidov Landau (1908-1968), tal vez el más brillante físico soviético, famoso
por sus profundos trabajos en la más variada gama de temas de la física, publicó
en 1944 un célebre artículo. En éste propuso un modelo sobre la forma en que se
genera la turbulencia en todos los flujos. En forma esquemática, la idea era que si
en cierto flujo se iba aumentando el parámetro básico, como el número de
Reynolds, el estado de movimiento cambiaría con el tiempo a otro de naturaleza
un poco mas complicada. Al seguir aumentando el parámetro de nuevo ocurriría
un cambio en la estructura del flujo, y así sucesivamente. A la larga decía, el flujo
es lo suficientemente complicado como para que se vea turbulento.

Por ejemplo, en el flujo alrededor de un cilindro, inicialmente laminar (Figura II. 7


y II. 8), se observa que al aumentar la velocidad con la que llega el fluido se
transforma en otro flujo, también laminar, con más estructura. A mayor velocidad
los vórtices posteriores se desprenden y aparece una estela hermosa y compleja,
difícil de describir matemáticamente (Figura V.6). Al continuar el proceso la estela
se va complicando hasta verse completamente turbulenta.

Figura V. 6. Estela detrás de un cilindro circular en flujo uniforme. La velocidad del flujo es
mayor que en los casos de las figuras II. 7. Y II. 8.

La teoría de Landau, de carácter esencialmente cualitativo, prevaleció hasta la


década de los setenta. Hoy en día tiene sólo valor histórico; sin embargo, motivó
numerosos trabajos para estudiar estas transiciones y sirvió para desarrollar
diversos métodos matemáticos para atacar el problema. Lo anterior, que parecía
perfectamente plausible, fue modificado por Rouelle y Takens; su teoría,
construida sobre bases conceptuales y matemáticas más sólidas también es, por
lo pronto, de carácter cualitativo. Vencer las dificultades para utilizarla en forma
explícita para hacer predicciones concretas es un proyecto a futuro. Si bien la
teoría parece sumamente abstracta (matemática), las ideas físicas pueden verse
con relativa sencillez. Estas pueden resumirse en dos principales.

El primer resultado sobre el que está construida la teoría es la demostración de


que las ecuaciones de Navier-Stokes tienen dependencia sensible en las
condiciones iniciales.Esto quiere decir, en términos normales, que todo lo que le
pasa a un fluido depende de los detalles de su estado inicial. Más directo, que los
fluidos tienen muy buena memoria cuando se les excita demasiado. Lo que hacen
depende de cómo empezaron.

Esto explica por qué cada vez que se empieza un flujo dentro de un túnel de
viento, por ejemplo, se observan patrones muy diferentes. Sucede que nunca
podemos repetir un experimento exactamente en la misma forma; siempre
partimos de un estado muy parecido, pero no del mismo. Todo tiene que ver con
la forma en que un movimiento va a evolucionar; la contaminación del aire en el
túnel, la deformación nocturna del dispositivo mecánico y, podría argumentarse,
el humor del investigador. Ernst Mach (1838-1916), uno de los profundos
pensadores sobre el quehacer científico, hubiera estado fascinado por tal
resultado; el llamado principio de Mach, en pocas palabras, postula la influencia
de cada parte del Universo sobre el resto. Esto, "aunque usted no lo crea", le
ocurre a los queridos fluidos; algo así tenía que andar pasando.

De hecho, desde el siglo XIX, James Clerk Maxwell fue explícito al respecto
cuando decía: "Es una doctrina metafísica que de las mismas causas se siguen los
mismos efectos... Pero es poco útil en un mundo como éste, en el que las mismas
causas nunca se repiten y nada ocurre dos veces..." Luego agregaba: "[....] el
axioma físico análogo es que de causas semejantes se siguen efectos semejantes.
Ahora hemos pasado de la igualdad a la semejanza, de la certeza absoluta a la
burda aproximación [...]; cuando sucede, el curso de los acontecimientos es
estable. Hay fenómenos más complicados en los que ocurren inestabilidades [...]
que aumentan rápidamente con el número de variables relacionadas". Con la
intuición que lo llevó al Olimpo de la ciencia, concluía: "[...] el estudio de las
singularidades y las inestabilidades, más que el de las cosas continuas y estables,
tal vez elimine el prejuicio en favor del determinismo [...]."

La segunda parte de la receta para cocinar la teoría de Rouell-Takens-Newhouse


está ligada muy de cerca con el punto anterior. El meollo del asunto radica en que
las ecuaciones de Navier-Stokes tienen atractores, como casi todas las
ecuaciones, pero que resultan ser de los extraños; esto sucede en el espacio
(variedad) en el que se encuentran sus posibles soluciones. Así, el movimiento de
un fluido se va transformando en otros al ir cambiando el número de Reynolds, a
la Landau. Pero, y aquí es donde cambian las cosas, al ocurrir el tercer cambio
es muy probable que el flujo sea turbulento. Matemáticamente se dice que la
solución que describe el tercer estado de movimiento está cerca de un atractor
extraño. En estas condiciones las cosas se van a ver por demás extrañas (o sea
turbulentas). Veamos un poco más de cerca la razón.

Digamos que la forma del atractor es la que se ilustra en la figura V.5. El estado
inicial del fluido corresponde a un punto cualquiera en el papel de la gráfica; el
punto escogido podría describir un movimiento regular y sencillo que no cambia
en el tiempo.

Ahora cambiamos el número de Reynolds (abrimos más la llave, digamos) lo


suficiente como para que el estado de movimiento cambie a otro estado
(cambiamos de punto en la gráfica). Si está lejos del atractor, desde luego que
será atraído a él. Repetimos el proceso y... se acerca al atractor (como en las
novelas de terror). La siguiente ocasión en que repetimos la operación el
movimiento cambia, muy probablemente, a uno turbulento. Visto en la gráfica, el
punto se acercó tanto que empieza a moverse sobre la curva ilustrada; va
cambiando en el tiempo. Como sólo lo podemos ver cada cierto tiempo (con la
vista, menos de treinta veces cada segundo), parecerá brincar de un lugar a otro,
sin ton ni son, siendo que en realidad se mueve sobre el atractor que se muestra.

Cuando parece que el estado es uno que se registró anteriormente, en realidad es


uno parecido que se encuentra en otra parte de la curva; en una amplificación
parecería estar en una de las líneas adyacentes. En realidad no es ni curva ni
superficie..., es un atractor extraño.

Al publicarse la teoría, los investigadores pensaron que las cosas eran demasiado
abstractas como para tener conexión alguna con los experimentos. Después de
todo, a pesar de que los autores tenían un reconocido prestigio, se trataba de
matemáticas muy complicadas. Al irse traduciendo la teoría al lenguaje de los
interesados en el tema, se vio que había formas de poner a prueba algunas de las
afirmaciones de la teoría.

Varios investigadores se dieron a la tarea de reexaminar, con las nuevas ideas,


algunos flujos conocidos; unos años después, Jerry Golub y Harry Swinney,
experimentales reconocidos en el campo de los superfluidos, habían logrado
demostrar que había un flujo que seguía el camino que insinuaba la teoría.
Reinterpretando observaciones anteriores, encontraron que tras de un par de
cambios, el flujo perdía la brújula y su estabilidad; en su locura exhibía la
turbulencia en forma descarada y de la manera esperada.

Los experimentos consistieron en estudiar los patrones de flujo que ocurren


cuando se pone agua entre dos cilindros concéntricos y uno de éstos se pone a
girar (Figura V.7(a)). Este arreglo se conoce como el flujo de Couette-Taylor,
recordando a quien lo estudió por primera vez y a quien mejor lo hizo,
respectivamente. Lo que ocurre en este sencillo arreglo es sorprendente.

Figura V. 7. (a) Flujo de Couette-Taylor. Diagrama del arreglo experimental.


Al ir aumentando la velocidad con la que gira el cilindro interior, con el cilindro
exterior fijo, se llega a un valor para el cual el fluido deja de dar vueltas en
órbitas circulares alrededor del cilindro. Ahora se mueve siguiendo una trayectoria
que -puede decirse- está enrollada en la superficie de una dona contenida entre
los cilindros. Observando el sistema se aprecian estas donas, bautizadas celdas de
Taylor, a todo lo largo del cilindro exterior (Figura V.7(b)); ésta es la primera
transición. El patrón se hace visible cuando se agregan al agua partículas
pequeñas.

Figura V. 7. (b) Flujo de Couette-Taylor. Celdas de Taylor.

Al seguir aumentando la velocidad de giro aparece un patrón de celdas de Taylor


moduladas. Como si distintas partes de las donas quisieran ir hacia arriba y parte
hacia abajo; una especie de onda congelada se superpone a las celdas de Taylor.
Esta segunda transición se puede apreciar en la figura V.7(c). Luego, se viene
abajo el espectáculo y hace su aparición la turbulencia.

Figura V. 7. (c) Flujo de Couette-Taylor. Celdas de Taylor moduladas.


Un movimiento caótico alrededor del cilindro es lo único que sobrevive del flujo
(Figura V.7(d)).

Figura V. 7. (d) Flujo de Couette-Taylor. Régimen turbulento.

Como lo indica la nueva teoría, después de un par de transiciones aparece la


turbulencia. Desechada la teoría de Landau, heredó el foro la nueva prima
donna (excepto que ahora no está sola...); pero al igual que con los aplaudidos
artistas, deportistas, etc., su tiempo dura en tanto llegan los nuevos.

Como dijera hace unos años Uriel Frisch, destacado físico contemporáneo: "Yo
creo que tenemos un conocimiento peor sobre lo que sucede en un milímetro
cúbico de agua, que sobre lo que ocurre en el interior del núcleo atómico."
Sabiendo que se refería al problema de la turbulencia, como prototipo de esta
ignorancia crasa que cargamos sobre los hombros, no puede uno menos que
compartir su visión.

Una anécdota sobre este punto la debemos a Sir Horace Lamb (1849-1934),
destacado investigador inglés en el campo de la mecánica de fluidos. En un
homenaje internacional que se le brindó al cumplir los ochenta años, en 1929,
declaró lo siguiente: "Cuando muera, espero ir al cielo. Ahí, espero ser iluminado
sobre la solución de dos problemas, la electrodinámica cuántica y la turbulencia.
Sobre el primero, soy muy optimista..." En cuanto al segundo esperamos que
Lamb haya ido al cielo. Seguramente así sabrá la respuesta del primero. Cabe
agregar que el primero fue resuelto por uno de los grandes físicos de este siglo,
Richard P. Feynman (1918-1988), por lo que le fue otorgado el premio Nobel en
1965. En palabras de Feynman: "la turbulencia es el último problema importante
por resolver de la física clásica."
I I I . U N A " H I S T O R I A " D E L A S I D E A S

LA FORMA en que fueron descubriéndose efectos, principios y leyes en muchos


casos sólo puede imaginarse, pues existe una laguna en cuanto a los
protagonistas y sus condiciones sociales, económicas y culturales. La humanidad
ha vivido siempre con fluidos. Cómo y cuándo aprendió a usarlos sólo puede
adivinarse. En el presente libro no están todos los que fueron, aunque sí fueron
todos los que están. Muchos nombres, fechas y circunstancias aparecen más
como guía cronológica que como reconocimiento del papel que desempeñaron en
la edificación de la actual teoría de los fluidos.

Una historia no es sólo una secuencia de nombres, fechas, hechos y las anécdotas
que los conectan. Es más bien una explicación e interpretación de éstos a partir
de hipótesis fundamentadas y basadas en patrones globales del comportamiento;
en nuestro caso es la tarea de los profesionales del campo, los historiadores de la
ciencia. Más que evocar una historia, lo que haremos será una visita parcial a
través del tiempo para recordar pasajes exquisitos del desarrollo del pensamiento
humano. Así, pasaremos por algunos aspectos que costaron mucho entender o
manejar, por ciertos puntos sencillos y prácticos que nos dejan sospechar las
peculiaridades de un fluido y otros más bien curiosos o simplemente divertidos,
que aparecen distribuidos en el tiempo y en diferentes sitios, lo cual les da una
perspectiva que, al recordar las circunstancias culturales, políticas, sociales o
económicas, permite intuir la historia.

No es casual que los cambios y avances importantes que modificaron


cualitativamente el conocimiento de la dinámica de los fluidos se llevaran a cabo
en forma paralela a los cambios sociales. Es importante subrayar aquí, aun
cuando quizá no pueda apreciarse en lo que sigue, que las etapas diversas de
organización social, el florecimiento de una cultura o el decaimiento de una
civilización, se ven reflejadas en el desarrollo particular de los fluidos. No puede
entenderse éste si no es como una huella más de la actividad humana en su
conjunto.

III. 1. SOBREVIVENCIA, MAGIA, NECESIDADES Y LUJOS

Hasta hace aproximadamente 100 000 años el hombre seguía tratando de


acostumbrarse a vivir bajo los árboles. El paso de recolector de frutos, que
afortunadamente no hemos abandonado del todo, al del cazador, fue muy largo y
es difícil intuir siquiera cómo se llevó a cabo. En este paso inventó y descubrió
múltiples utensilios que le hicieron más fácil su existencia en un medio ajeno y
hostil que luego dominó y, diríamos ahora, casi se acabó. Inventó la rueda mucho
después del vestido y descubrió el fuego antes que aquélla. Desarrolló armas para
subsistir, descubrió después el bronce y, hace unos 10 000 años, la agricultura.
Probablemente aprendió a manejar los fluidos en forma circunstancial en este
proceso.

Los primeros que se estaban ahogando por humo dentro de una cueva sacaron al
fuego a la intemperie o se buscaron una cueva con el techo más alto, y
aprendieron que el aire caliente sube, pero sin intuir en ello el principio de la
flotación. Los primeros navegantes tal vez surgieron de una poco afortunada
pérdida de equilibrio en la orilla de un río y del fortuito paso de un tronco en la
vecindad inmediata. También podemos imaginar que, al observar que ciertos
objetos flotaban en un río, a más de uno se le ocurrió aprovechar el hecho para
viajar río abajo y, con suerte, al otro lado.

La evolución de un tronco a una canoa, de ésta a una balsa y de ésta a un medio


de carga y transporte colectivo, así como del mecanismo de propulsión de varas a
remos y de éstos a velas, sólo podemos reconstruirlo usando el sentido común y
una fértil imaginación. Algo semejante puede decirse de las armas. El proceso que
va desde arrojar piedras y palos, que a más de una presa sólo debe haber irritado
lo suficiente como para comerse al cándido ancestro, hasta la invención del mazo
y, mucho más tarde, hace unos 30 000 años, el arco y la flecha, comprende
múltiples pruebas e insólitas experiencias. Bajo la presión de la supervivencia el
hombre aguzó el ingenio para adaptarse y manejar su ambiente que, gústele o
no, lo dominan los fluidos.

En esta etapa de la protohistoria, que abusivamente catalogamos de


supervivencia, se hicieron obras notables destinadas al riego. Las necesidades
agrícolas de las culturas que florecieron en Mesopotamia y Egipto, al menos 4000
años a.C., llevaron a diseñar y construir presas y diques, cuyos restos aún pueden
apreciarse en las márgenes de los correspondientes ríos. Vestigios semejantes, de
tiempos casi tan remotos, fueron descubiertos en las riberas de ríos en la India y
la China. La construcción de canales para riego, transporte y surtido de agua a las
grandes metrópolis de entonces confirma la relación directa entre el nivel de una
civilización y la posesión de una tecnología para mantenerla; en particular, la
relación con el agua.

En forma paralela a las obras hidráulicas a gran escala se desarrollaron artefactos,


instrumentos y curiosidades asociadas al comportamiento de los fluidos. Es
posible suponer que el ser humano intuía algunos principios básicos, si
consideramos su notable conocimiento empírico. El uso del fuelle, la jeringa y el
sifón era frecuente, como lo reflejan los legados pictóricos y estelas fragmentadas
que se conservan, mismas que muestran la existencia de la pipeta, la clepsidra,
reloj de agua usado en Babilonia y posteriormente en Egipto, y el uso de los vasos
comunicantes. Hubiera sido difícil, muy difícil, llevar a cabo algunas obras de
ingeniería sin algunos de estos aparejos. El nivel de pisos y bóvedas seguramente
se establecía, como aún hoy lo hacen los buenos albañiles, usando el principio de
los vasos comunicantes.

La clepsidra, perfeccionada y usada a través de la Edad Media, consistía en un


recipiente con un orificio por el que el agua goteaba a una velocidad constante. El
nivel en el recipiente, al ir bajando, marcaba el tiempo en una escala fija en las
paredes. Esta idea sencilla, como tantas otras, fue desarrollada hasta alcanzar un
alto grado de complejidad técnica y artística. (figura III.1.)
Figura III. 1. Vasos comunicantes (a) y clepsidra (b).

El paso de la información en forma oral, de una generación a otra, hizo que gran
parte de ella se perdiera en el tiempo. Por otro lado, algunos instrumentos y tal
vez sus principios se manejaban con el más meticuloso sigilo por quienes
detentaban el poder político o religioso, o ambos, como usualmente sucedía. Los
portentos exhibidos en los templos egipcios para mantener la fe, mostrar el
beneplácito de los dioses o dejar ver la ira divina, se lograban usando
mecanismos hidráulicos ocultos, empleando aire o agua como vehículo; elevar
objetos, desplazarlos y, con ingenio, desaparecerlos, fue una práctica desarrollada
en ciertas esferas no exclusivas a los cultos a Ra. Que el saber trae consigo el
poder no sólo fue explotado por quienes disfrutaban los médanos del Nilo... Pero
el secreto que rodeó a esa "tecnología" se quedó en el pasado y no podemos más
que especular qué tanto la entendían.

Desde el remoto y oscuro pasado hasta el florecimiento de la cultura helénica, el


hombre acumuló un vasto conocimiento práctico sobre el comportamiento de los
fluidos. De los complejos sistemas de riego a las elaboradas embarcaciones
propulsadas por viento y de las aerodinámicas flechas y lanzas, al sifón y la
clepsidra..

Las extensas guerras de conquista de Alejandro Magno permitieron a la


civilización occidental enriquecerse con el legado asiático. Alejandría sustituyó a
Atenas y amalgamó la cultura de la época, resumiendo el conocimiento previo en
su legendaria biblioteca. No es de sorprender que ahí brillaran las artes y ciencias
con Euclides, Arquímedes y Ptolomeo, entre otros.

De las diez obras que se conocen de Arquímedes (287-212, a.C.) destacan sus
dos volúmenes sobre la hidrostática y la flotación. En la mejor tradición de la
escuela de Euclides, con cuyos discípulos se educa, basa todo su análisis en dos
postulados sencillos y ciertamente correctos. A partir de éstos demuestra varios
resultados que todavía forman parte del cuerpo de los teoremas básicos de la
hidrostática y la estabilidad de cuerpos que flotan. Uno de ellos es el principio que
lleva su nombre y establece que "si un sólido es parcial o totalmente inmerso en
un fluido, sufre una fuerza ascendente igual al peso del fluido desplazado". Este
sencillo enunciado nos permite entender un sinnúmero de fenómenos
aparentemente disímbolos Veamos ahora tres de ellos: la flotación de un barco, la
flotación de globos meteorológicos de altura fija y la proporción de oro en un
anillo de bodas.

El principio dice que las cosas flotan en un fluido, lo que implica que pesan menos.
La reducción en peso es igual al peso de una cantidad de líquido de volumen igual
al del objeto sumergido. Consideremos un ejemplo. Imaginemos un cubo de
cuarzo de 1 cm³, se mide un centímetro por lado. Al vacío, encontramos que pesa
2.65 g. Al sumergirlo en agua desplaza 1 cm³ de ésta. Al pesar esta cantidad de
agua se halla que pesa 1 g. Por lo tanto, en el agua, el peso de nuestro cubito de
cuarzo es de 1.65 g.

¿Por qué flota un barco de acero?

Puesto que un metro cúbico de agua pesa una tonelada, para hacer flotar (reducir
su peso a cero) a un barco de 1 000 toneladas es preciso que desplace 1 000 m³
de agua. Es decir que el volumen del barco, abajo de su línea de flotación (Figura
III.2), debe ser de, digamos, ¡un cubo de 10 m por lado! Si es más largo que
ancho no tiene por qué estar tan sumergido y será de menor calado. Criterios de
estabilidad, también desarrollados por Arquímedes, son algunos de los aspectos
que determinan la forma más adecuada para el casco del barco, la parte
sumergida.
Figura III. 2. Línea de flotación.

¿Cómo subir un globo a una altura predeterminada?

Un globo lleno de algún fluido menos pesado que el aire sufre una fuerza que lo
hace ascender, por flotación. Puesto que con la altura el aire es cada vez menos
denso, más enrarecido, el globo subirá hasta la altura en que ambos fluidos (el
contenido en el globo y el aire externo desplazado) pesen lo mismo. Conociendo
la forma en que varía la densidad del aire con la altura es posible predeterminar la
altura a la que un globo meteorológico llegará y permanecerá, con sólo variar su
volumen y contenido. Estos globos se emplean principalmente para medir
propiedades de la atmósfera como la presión, la temperatura, la humedad y los
contaminantes (¡en la ciudad de México éstos pueden medirse con un globo sobre
la banqueta!).

Siendo el aire un fluido, todas las cosas sufren flotación y, me apena decirlo, ¡las
personas son más pesadas de lo que creen!

Otro ejemplo está conectado a la leyenda según la cual Arquímedes descubrió la


flotación. Hierón I, rey de Siracusa (Sicilia), cuna y residencia de Arquímedes,
deseaba saber si su corona contenía oro en la proporción adecuada. La solución la
encontró Arquímedes, se dice, al entrar en el agua de un baño público, del que
salió eufórico gritando "¡eureka!", rumbo a su casa, sin siquiera vestirse. Apenas
llegó sumergió en agua pesos de oro y plata iguales, determinando los
desplazamientos de agua respectivos. Al comparar éstos con el desplazamiento
que generaba la corona determinó el porcentaje de cada metal por medio de una
sencilla regla de tres. Con un anillo de bodas el proceso es el mismo, aunque las
consecuencias son más difíciles de prever...

El trabajo de Arquímedes en hidrostática es uno de los grandes logros de las


matemáticas y mecánica griegas (aunque él era tan griego como un
latinoamericano español). "Es uno de los monumentos más espléndidos a su genio
[...] al que poco han podido agregar quienes le sucedieron", dijo Lagrange, casi 2
000 años después. Su genio en las matemáticas lo pone en la categoría que solo
comparte con Isaac Newton y Friederick Gauss.

La herencia que recibió Grecia para su notable desarrollo en todas las áreas le fue
legada principalmente por Mesopotamia y Egipto. Sobre ella construyó el partenón
intelectual que conocemos. Por otro lado, las bases sobre las que creció la cultura
latina fueron tomadas e incorporadas intactas de los griegos. El imperio romano
se consolidó sin que Alejandría hubiese dejado de ser el emporio cultural del
mundo occidental. Si Grecia es recordada sobre todo por sus contribuciones en
filosofía, artes y matemáticas, Roma buscó brillo en otras direcciones y muy poco
contribuyó al avance de las matemáticas y al conocimiento de los fluidos.

Los mil quinientos años subsecuentes fueron ricos en obras de gran importancia
en torno al manejo de aguas. Todavía pueden apreciarse los notables acueductos
que los romanos sembraron en el orbe que dominaron. El diseño y construcción
de sistemas de aprovisionamiento de agua, de su distribución a través de grandes
ciudades y de los drenajes correspondientes, hablan del grado de desarrollo de la
ingeniería hidráulica en el imperio. La necesidad de resolver problemas prácticos
impulsó ese desarrollo. El regado de inmensos jardines palaciegos y el proveer de
comodidades a sus ocupantes fue un ingrediente adicional. Poco o nada se logró
sobre el entendimiento y uso del agua y el viento. El intercambio con el mundo
árabe, a través de las diversas guerras de conquista y reconquista mutua,
incluyendo las Cruzadas, permitió un flujo de ideas, invenciones y costumbres que
en el crisol del tiempo dieron luz a la deslumbrante explosión renacentista.

III. 2. DE LA METAFÍSICA A LA FÍSICA

Los diez siglos que siguen a la caída del Imperio romano y que gestan la aparición
de una brillante era en la historia de nuestra civilización, sirven para consolidar el
sistema económico feudal y el poder de la iglesia cristiana, asimilándose el legado
filosófico griego. Este último aspecto llegó a su climax con la aristotelización del
cristianismo por Tomás de Aquino en el siglo XI. La incorporación de las
matemáticas, la lógica, la metafísica y la astronomía griegas a la enseñanza en las
"universidades" medievales, que fundara Carlomagno en el siglo VIII, llevó a la
formulación de la educación escolástica basada en las siete artes liberales
agrupadas de la siguiente manera: el trivium(gramática, lógica y retórica) y
el quadrivium o artes matemáticas (aritmética, astronomía, geometría y música).

En el periodo que concluye con el siglo XIV destacan los procesos de crítica a la
metafísica y mecánica aristotélicas, representados por Juan Buridan en Francia
(1300-1358) y Guillermo de Occam (1285-1349) en Inglaterra. Esta etapa de
revisión crítica fue el fruto de un proceso lento, laborioso y acumulativo de
múltiples, protagonistas, tiempos y lugares. Una consecuencia directa de esto es
el nacimiento de las ciencias experimentales.

En un siglo de notable esplendor sobresale un hombre que se destacó en todas y


cada una de las diversas actividades en las que estuvo interesado. Su
universalidad sólo es igualada por su profundidad y calidad. Leonardo da Vinci
(1452-1519), en cuanto a la ciencia y a los fluidos se refiere, marca el siguiente
paso después de Arquímedes.

Como pocos de sus antecesores y contemporáneos, Leonardo subrayó en


numerosas ocasiones la necesidad ineludible de la observación y el experimento.
Así lo mostró en sus bellos, meticulosos y copiosos dibujos; una exquisita
selección puede encontrarse en la publicaci ón del Códice Hammer (Hammer,
1972). Sus razones se pueden leer en algunas de sus notas, por ejemplo: "Huid
de la opinión de los especuladores, pues sus argumentos no están sustentados en
la experiencia [...] a diferencia de ellos, no puedo citar autoridades, pero, más
importante y digno, es argumentar con base en el experimento, maestro de sus
maestros." Más tarde, discutiendo su método de trabajo escribió: pero antes
llevaré a cabo algunos experimentos, ya que es mi premisa empezar así y
entonces demostrar por qué los cuerpos se comportan de cierta manera. Este es
el método que debe seguirse en la investigación de los fenómenos naturales [...]".

De la gran cantidad de observaciones y experimentos que llevó a cabo sobre el


comportamiento de los fluidos, Leonardo obtuvo resultados cuantitativos y
generalizaciones sorprendentes que no fueron apreciadas sino mucho después,
¡algunas hasta el siglo XIX!

Encontró que el aire y el agua tienen un apellido común. Al comparar en forma


sistemática los movimientos de masas de aire (vientos) y agua (estanques, ríos y
mares) intuyó, citándolo en forma recurrente, los elementos comunes de su
comportamiento.

Al observar el movimiento de aguas en ductos, canales y ríos, descubrió y formuló


en forma cuantitativa uno de los principios fundamentales en la mecánica de los
fluidos: el principio de continuidad o de conservación de la masa. Si bien es cierto
que al menos desde la época de Arquímedes se sabía que el agua que entra por el
extremo de un tubo sale por el otro, la relación entre este hecho y la descarga era
si acaso sospechada, aun por los constructores romanos. La descarga es la
cantidad de fluido que atraviesa una sección de un tubo o de un canal por unidad
de tiempo. Por ejemplo, el número de litros por segundo que pasa por cualquier
parte de un tubo, cuya sección sea variable, es siempre el mismo.

En las palabras de Leonardo: "En cada parte de un río, y en tiempos iguales, pasa
la misma cantidad de agua, independientemente de su ancho, profundidad,
tortuosidad y pendiente. Cada masa de agua con igual área superficial correrá
tanto más rápido como poca profunda sea [...]" (ver Figura III. 3);"[...] en A el
agua se mueve más rápido que en B, tanto más como la profundidad de A cabe
en B...".

Figura III. 3. Secciones de Leonardo da Vinci.

Este análisis básico y casi evidente, que eludió a sus predecesores, puede
considerarse como la primera formulación clara y cuantitativa de la ecuación de
continuidad para el flujo estacionario (que no cambia con el tiempo) de un fluido
incompresible (de densidad constante). Este resultado, en términos más
apropiados, que no más comunes, establece que la velocidad es inversamente
proporcional a la sección transversal. Equivalentemente, el producto de la
velocidad y el área, en cada sección, es constante. La generalización de este
resultado a la forma en que hoy se conoce tomó todavía 300 años mas.

Otros estudios de Leonardo versaron sobre el vuelo, la generación y propagación


de ondas, el movimiento de remolinos (vórtices) y el papel de éstos en los flujos
complicados e irregulares que llamamos turbulentos. Estos estudios de carácter
cualitativo o puramente descriptivo influyeron en forma directa e indirecta en el
desarrollo de la hidráulica y la hidrodinámica, entendidas éstas como la parte
práctica y teórica de la mecánica de fluidos, respectivamente. La percepción visual
de Leonardo fue la herramienta clave de su obra artística y científica, la cual se
aprecia en cada detalle de sus penetrantes y hermosas ilustraciones, y gracias a
ella estableció una pauta en la búsqueda del conocimiento.

Si la observación y la experimentación, entendidas como el registro meticuloso y


pasivo, la primera, y la ocurrencia intencional, repetitiva y controlada del
fenómeno, la segunda, son elementos indispensables del conocimiento científico,
el uso de un lenguaje adecuado y la generalización deductiva o inductiva las
complementan y dan sentido.

A Galileo Galilei (1564-1642) es a quien, un siglo después, le toca completar el


esqueleto del método científico, pues transforma a la mecánica en una ciencia
partiendo de una crítica constructiva de la metafísica escolástica. Usando a la
experimentación como guía, como lo hiciera Leonardo, introduce el lenguaje de
las matemáticas para formalizar y extender sus resultados, generalizar sus
concepciones y sentar las bases de una nueva manera de estudiar la naturaleza.
Con metodología semejante a la de Arquímedes, Galileo habló a una época más
madura; a diferencia de Leonardo, no escribió "al revés" y fue leído y, desde
luego, criticado por sus contemporáneos.

La contribución de Galileo a la dinámica de los fluidos fue profunda, aunque


indirecta, al participar en la fundamentación de la mecánica, de la física y de la
ciencia misma. La astronomía fue la motivación de su trabajo y la pasión de su
vida. Afirmaba entender más de los cuerpos celestes que de los fluidos que
observamos todos los días...

Un aspecto decisivo en el paso de la especulación aristotélica a la ciencia


posgalileana fue la introducción de la observación como pilar y sustento de la
razón. Para entender el mundo, la razón pura demostró su fracaso. Del muy joven
Leonardo al anciano Galileo se ve un cambio único en la historia. En estos
doscientos años se lleva a cabo el florecimiento resultante de los previos dos mil
años de siembras y cuidados

III. 3. DEL HORROR AL VACÍO, AL AGUA SECA

Es claro que no puede culparse a Aristóteles del estancamiento intelectual que


siguió a su muerte. Fue la dogmatización de sus ideas y la exclusión de su actitud
crítica y dinámica, que predicó y practicó, lo que casi paralizó la evolución del
conocimiento.
La concepción aristotélica en torno al vacío y la aceptación sin reservas de ésta
dominaron hasta mediados del siglo XVII. Según Aristóteles la naturaleza tiende a
llenar todos los espacios con cualquier medio a su alcance, siendo el vacío una
imposibilidad física. La frase horror vacui vino a resumir esta creencia a través del
tiempo, y se llegaron a inventar sustancias como el éter, con propiedades
inconmensurables, no factibles de ser medidas, para "explicar" la presencia de
espacios aparentemente vacíos.

La crítica, no es de sorprender, fue iniciada por Galileo. La generación que le


sucedió la continuó y la resolvió.

El compañero inseparable de Galileo en los últimos tres meses de su vida fue


Evangelista Torricelli (1608-1647). Tras de extender algunos trabajos de aquél en
dinámica de proyectiles y de generalizar en forma brillante parte de la obra de
Arquímedes, fue invitado a Florencia por el anciano Galileo para discutir y escribir
sus últimas ideas. Así, Torricelli se vio expuesto a muy variadas especulaciones y
proposiciones que, en su desafortunadamente breve carrera científica, desarrolló
al suceder al maestro en su cátedra de matemáticas.

Torricelli se ocupó de diversos problemas en forma teórica y experimental. En el


área de fluidos destacan sus estudios sobre el flujo de chorros que salen por el
orificio de un recipiente, su descubrimiento del principio del barómetro de
mercurio y su uso en el estudio de la presión atmosférica. Con estos trabajos
logró, entre otras cosas, acabar con el mito de la imposibilidad del vacío. Uno de
sus experimentos consistió en demostrar la existencia de la presión atmosférica y
la forma de crear un vacío, usando un dispositivo como el que se muestra en la
figura II. 5. Una variación de éste se describe a continuación.

Es fácil convencerse de que la atmósfera ejerce una presión igual en todas


direcciones. Se requiere un vaso, una hoja de papel o de plástico, agua y una
cubeta (para no salpicar todo, como sucede; cuando se intenta por primera vez).
Encima del vaso bien lleno de agua se pone el trozo de plástico, cuidando de que
no quede en el aire entre éste y el agua. El vaso puede invertirse lentamente sin
que el agua se caiga, debido a que el aire empuja constantemente contra el
plástico (Figura III. 4(a)). Para que la demostración sea más contundente puede
sumergirse parcialmente el vaso invertido en una cubeta llena de agua y retirar el
plástico; ¡el agua no se sale! (Figura III. 4(b)). En este caso el aire empuja hacia
abajo sobre la superficie horizontal del agua con la misma presión que en el caso
anterior lo hizo hacia arriba.
Figura III. 4. La presión atmosférica en la cocina.

Si el vaso mide más de 14 m de longitud (ji, ji), al realizar el experimento de la


figura III. 4 (b), se saldría un poco de agua, quedando lo que parece una burbuja
en el vaso. Ahí, en realidad, hay un razonable vacío; de hecho hay un gas (aire y
vapor de agua) tan enrarecido como el que se encuentra a 200 km de altura
sobre esta página (suponiendo que no es usted astronauta en funciones). Usando
mercurio, basta con una columna de más de 76 cm de longitud para obtener un
vacío equivalente; se ilustra en la figura II. 5, en el espacio de la parte superior
del tubo.

Blaise Pascal (1623-1662) fue quien, repitiendo y extendiendo los experimentos


de Torricelli, dio una clara explicación de las observaciones. Al darse cuenta de
que los experimentos básicos podían ser explicados por igual en términos de la
presión atmosférica en vez de en términos de un parcial horror al vacío, llevó a
cabo un experimento de vacío dentro de otro vacío. De esta manera, al quitar la
presión externa la altura de la columna de mercurio debía reducirse a cero, y así
lo demostró, desechando la segunda explicación. No satisfecho, repitió los
experimentos a diferentes alturas sobre el nivel del mar. Con ello probó que, si es
la columna de aire que está arriba del dispositivo la que hace que el mercurio
suba en el tubo, entonces la altura de éste debía cambiar según la cantidad de
aire encima de él. Si a la naturaleza le daba horror el vacío, debía horrorizarle por
igual ya fuera arriba o abajo de una montaña. Con esto quedó abandonada en
forma definitiva la concepción del horror vacui.

En el proceso de estudio de la presión atmosférica Pascal inventó la prensa


hidráulica, descubriendo el principio físico subyacente. Según éste la presión en
un fluido actúa por igual en todas las direcciones; conocido como el principio de
Pascal, es uno de los dos axiomas fundamentales de la hidrostática. El otro es el
principio de Arquímedes. A los 31 años de edad y siendo una celebridad por sus
variadas contribuciones en física y matemáticas, Pascal se convirtió en asceta;
dedicó sus últimos ocho años de vida a la teología con la misma intensidad que
dedicara antes a la ciencia.

Unos días antes del primer aniversario de la muerte de Galileo, en el pueblito


inglés de Woolsthorpe, nació Isaac Newton (1642-1728). Como Da Vinci en su
época, la luz de Newton brilla por encima del estrellado cielo de sus
contemporáneos.
En agosto de 1665 la peste obliga a las autoridades a cerrar el Trinity College de
Cambridge y Newton, cuatro meses después de su graduación, se ve obligado a
regresar a su aldea natal. Ahí, aislado por dos años, lleva a cabo una hazaña sin
paralelo en la historia del pensamiento humano. Lo que necesita y no sabe, lo
inventa; lo que sabe y no le sirve, lo generaliza o lo cambia sin pudor alguno;
sobre lo que no entiende, medita, observa, hace experimentos y propone
hipótesis. Al final de este periodo ha cimentado sus tres contribuciones
fundamentales: el cálculo infinitesimal, la mecánica y la gravitación, y la teoría de
la luz y los colores. Así, aquel joven común y corriente que se fue, regresa
convertido en el profundo pensador que sentaría las bases de la física y las
matemáticas de los siguientes siglos.

Característico de la revolución científica del siglo XVII, y en la mejor tradición


cartesiana de la época, partió de la base de un universo real cuyo comportamiento
podía y debía ser explicado solamente en términos de sus elementos y sus
relaciones. Sobre esta base filosófica desarrolló la herramienta matemática
requerida y formuló las leyes de la mecánica. Su trabajo Philosophiae Naturalis
Principia Mathematica, publicado hasta 1687, es, además de su obra maestra, uno
de los trabajos más importantes de toda la ciencia moderna.

La contribución de Newton a los fluidos fue múltiple y a niveles muy diferentes.


Abarcó desde sus fundamentos, en forma indirecta, hasta los meticulosos
experimentos que llevó a cabo sobre vórtices (remolinos) y viscosidad (fricción
interna).

Desde el punto de vista general, el marco teórico, el aparato matemático y las


leyes físicas que Newton estableció, fueron, y siguen siendo, los ingredientes
esenciales de la teoría de los fluidos. Estos elementos fueron una aportación
fundamental, aunque indirecta, para el establecimiento final de la teoría que
realizó la notable generación que le siguió, formada por Euler, dos de los
Bernoulli, D'Alambert y Lagrange.

Su trabajo directamente conectado con fluidos comprende casi un tercio de


los Principia.Esto resulta sorprendente si no se toma en cuenta que Newton busca
establecer una teoría alternativa, en contenido, forma y consecuencias, a la
cartesiana. Ésta, que domina el pensamiento de la época, era una imaginería
mecánica verbal sobre esferas y vórtices en movimiento en un medio etéreo que
todo lo embebía.

La demoledora crítica de la cosmología cartesiana, que Newton presenta como


preámbulo a su "sistema del mundo", es a la vez un cuidadoso estudio del
comportamiento de los fluidos. En éste destacan sus análisis teóricos y
experimentales sobre el movimiento de un vórtice y la naturaleza de la fricción
interna de los fluidos, apareciendo así la primera definición, estudio y
cuantificación de lo que posteriormente se llamó la viscosidad de un fluido. La
incorporación de este resultado, de suma importancia en la dinámica de fluidos,
no sucedió sino hasta un siglo y medio después.

¡Cuántos hay todavía que, dedicados a los fluidos, no la entienden!


Salvo la revisión de las siguientes ediciones de sus obras, Newton dedicó el resto
de su vida, que duraría aún más de cuarenta años, a toda suerte de actividades
relacionadas con la organización y administración pública y académica. También,
debido a su difícil personalidad, trabajó arduamente para hacerle la vida de
cuadritos a más de uno.

Gran parte del trabajo de Newton ha sido extendido, completado y reformulado en


varias direcciones a través del tiempo. En cuanto a los fluidos, algunos de los
problemas que abordó siguen siendo objeto de numerosas investigaciones; un
problema tan aparentemente simple como el determinar el patrón de flujo que
resulta del movimiento de una esfera en un medio viscoso, continúa siendo un
desafío en el campo de las matemáticas aplicadas.

A la muerte de Newton, en plena ilustración, tres brillantes hombres empiezan a


dominar, extender y perfeccionar las herramientas analíticas nuevas y, al mismo
tiempo, a explotar su utilidad en el campo fértil y abierto de los fluidos. Daniel
Bernoulli (1700-1782) y Leonhard Euler (1707-1783), formados en matemáticas
por Johann Bernoulli, padre del primero, elaboran una serie de trabajos que, junto
con los desarrollados por Jean le Rond d'Alambert (1717-1783), culminan con la
formulación explícita de los principios generales y las ecuaciones básicas de la
mecánica de los fluidos.

Las contribuciones más importantes de Bernoulli aparecieron en el año de 1738


en su libro Hydrodynamica, cuando se acuña el término. Entre ellas destaca el
teorema que ahora lleva su nombre y que fue la primera formulación del principio
de la conservación de la energía para el caso de los fluidos. En su versión
moderna, cuya formulación general y correcta se debe a Euler, establece que la
suma de tres cantidades es igual a una constante:

A + B + C = constante;

los sumandos corresponden a tres formas particulares de energía. El primero


tiene que ver con el estado de movimiento, el segundo con la altura a la que se
encuentra y el tercero con la presión. Si la suma de estas cantidades ha de
permanecer constante es preciso que al aumentar una de ellas, al menos una de
las restantes se vea disminuida en la proporción adecuada. Una restricción del
teorema es que los efectos de fricción interna (viscosidad) y de compresibilidad en
el fluido sean despreciables, es decir, muy pequeños. Bernoulli, con el sólido juicio
de un científico de su estatura, además de subrayar la "maravillosa utilidad" de su
teorema, advertía del error que podría traer su abuso o el olvido de sus
limitaciones, las cuales eran si acaso intuidas.

Más técnicamente, los términos que aparecen en el teorema de Bernoulli son la


energía cinética (A), la energía potencial (B) y la entalpía (C). A depende de la
velocidad, A = v²/2 ( es la densidad y v la velocidad); B depende del peso y su
altura relativa, B = gz(g es la aceleración de la gravedad y z la altura relativa a
un nivel de referencia) y Cdepende de la presión, C = p, siendo p la presión.

Así, cuando una masa de agua desciende, disminuyendo la altura y por


consiguiente el sumando B, la velocidad aumenta de manera tal que el
sumando A crece lo suficiente para balancear la suma. De igual modo, en un tubo
horizontal (Figura III. 5) en que el término B permanece fijo (z no cambia), la
suma de A y C es la relevante. Puesto que en cada sección del tubo (s1 y s2) la
cantidad de fluido que pasa es la misma, en la región más estrecha (s 2) la
velocidad debe ser mayor que en la más ancha (s1). De acuerdo con el teorema
de Bernoulli, la presión es menor en donde la velocidad es mayor, es decir, en la
zona angosta.

Figura III. 5. Tubo que se estrecha.

La situación parece irse haciendo un tanto tediosa. Como difícilmente podría


ponerse peor, le solicito seguir leyendo un poco más para ver algunos casos en
los que la aplicación del teorema es más interesante y que son fáciles de
comprobar en un centro de investigación bien equipado, por ejemplo una cocina.

Imagine un tubo vertical por el que sale un chorro de aire (Figura III. 6(a)), por
ejemplo, el tubo de una aspiradora casera conectado por la parte de atrás. Al
poner una esfera ligera, digamos una pelota de ping-pong, dentro del chorro
ascendente, ésta permanece ahí sin caer. La razón es que la presión del aire en el
chorro (cuya velocidad es grande) es menor que la del aire fuera de éste (con
velocidad baja). Cuando la pelota empieza a salir de la corriente, la presión
exterior, mayor a la interior, la regresa al chorro. El otro efecto, superpuesto al
anterior, es la competencia entre el empuje del chorro, hacia arriba, y el peso de
la esfera.

Un caso análogo es el de un pulverizador (Figura III. 6(b)). Cuando se sopla por


un tubo(t) que termina en punta, el aire aumenta su velocidad al llegar a la punta
y en consecuencia pierde presión. En la boca del tubo (e) se encuentra entonces
aire cuya presión es menor a la que hay en su interior, que es la atmosférica y
tiende a salir. La superficie del líquido en el recipiente (s) tiene una presión igual a
la atmosférica, excepto la parte contenida en (e). Esto da lugar a que el líquido
dentro del recipiente suba por el tubo. Al llegar a la salida, donde hay un chorro
de aire, es arrastrado por éste y se pulveriza formando gotas minúsculas.

Usando el mismo razonamiento anterior puede explicarse el hecho de que al


suspender dos esferas ligeras cercanas una de la otra y soplar en medio de ellas,
se aproximen y choquen entre sí, como si apareciera una fuerza de atracción
(Figura III. 6 (c)).
Figura III. 6. Explicaciones "a los Bernoulli". (a) Pelota en un chorro, (b) pulverizador, (c)
"atracción" entre esferas.

Esta atracción aparente, debida a la distinta distribución espacial de presiones,


que es sencilla de explicar invocando el teorema de Bernoulli, es el origen de
múltiples fenómenos que de otra manera parecen incomprensibles. Entre ellos
destaca la atracción entre automóviles y barcos que viajan paralelos. Cuando un
automóvil rebasa a un camión de grandes dimensiones, es necesario sostener el
volante con cierta fuerza; si se deja el volante libre, el automóvil se moverá hacia
el camión (no es muy recomendable realizar este experimento).
Los capitanes de grandes barcos conocen este efecto; los que no, tienen ahora
otra actividad de naturaleza terrestre. Un caso conocido es el de los
barcos Olympic y Hauk. El primero, un transatlántico de grandes dimensiones,
navegaba tranquilamente en mar abierto durante el mes de octubre de 1912. El
segundo era un acorazado, pequeño en relación al Olimpic, que navegaba con una
velocidad mucho mayor y en forma paralela (Figura III. 7(a)). Al encontrarse a
una distancia de unos cien metros sucedió algo imprevisto, que no tuvo nada que
ver con saludos mutuos. El Hauk cambió de rumbo en forma intempestiva y se
dirigió directo al Olympic, sin que el timón sirviera para evitar la colisión (Figura
III. 7(b)). La proa del acorazado se hundió en el casco del gran buque, abriendo
una aparatosa vía de agua. Al margen de la incapacidad del tribunal marítimo que
juzgó el caso y culpó al capitán del Olympic por no dar paso al acorazado, lo que
ocurrió fue precisamente un caso de atracción hidrodinámica. Entre los barcos se
formó un "canal" por donde el agua pasó más rápido que en la región exterior,
esto en ambos barcos, que se consideran fijos (Figura III. 7(a)). La diferencia de
presiones entre la zona interna y la zona externa produjo una fuerza que se puso
de manifiesto en el barco más pequeño.

Figura III. 7. (a) El Olympic alcanza al Hauk. (b) Resultado de la atracción hidrodinámica.

El teorema fue sólo una de las aportaciones de Bernoulli. El original enfoque que
dio el planteamiento y solución de diversos problemas fue de gran valor para el
desarrollo de la naciente disciplina y constituyó un vigoroso estímulo para las
brillantes dotes de algunos de sus contemporáneos y amigos.

En 1755 aparecen, una tras otra, las obras clásicas de Euler sobre los
fundamentos de la mecánica de los fluidos. El genio matemático más notable del
siglo había asimilado por completo la obra newtoniana y lo había plasmado en un
lenguaje mucho más elegante y preciso. Formuló las ecuaciones diferenciales de
movimiento en su forma general, deduciendo a partir de ellas los resultados
previos ya conocidos, como el teorema de Bernoulli, dándoles su verdadera
dimensión y generalidad. Posteriormente, exploró un gran número de
consecuencias y atacó múltiples problemas de carácter práctico asociados a la
maquinaria hidráulica, particularmente la turbina, la resistencia sobre barcos y la
propulsión.

La copiosa correspondencia entre Euler, D'Alambert y Lagrange, entre otros,


permite entender el interés que tenían las mejores mentes analíticas de la época
por los problemas asociados a los fluidos. D'Alambert, que gozó la cima de las
matemáticas francesas, dedicó la segunda parte de su vida a estudios de carácter
experimental. Después de introducir diversos conceptos y métodos analíticos en
sus dos obras básicas sobre fluidos, demostró lo que se conoce como la paradoja
de D'Alambert. Como consecuencia de las ecuaciones de Euler, que ignoraban la
existencia de la viscosidad, resultaba que la fuerza que sufre un obstáculo
inmerso en una corriente era nula; es decir, el objeto no era arrastrado por el
flujo. Para D'Alambert era claro que este resultado matemático estaba en franca
contradicción con sus observaciones y que el problema debía estar en alguna de
las premisas de la teoría. En forma consistente subrayó la primacía que el
experimento debía tener sobre la teoría. Argumentos diversos de Euler y de
Lagrange, para aclarar la paradoja, no pudieron convencerlo. La formulación
matemática de la teoría hacía imposible que a un fluido en movimiento se le
pidiera adherirse a la superficie de un sólido en reposo.

Como consecuencia de haber ignorado la fricción interna de los fluidos se tenía el


peculiar resultado de que los fluidos no mojaban las paredes... ¡La hidrodinámica
era el estudio del agua seca!

III. 4. EL SIGLO SINCRÉTICO

En los cien años comprendidos entre 1750 y 1850 se sentaron las bases teóricas y
experimentales de la mecánica de los fluidos. Ese siglo sirvió para resumir,
ordenar y extender el conocimiento que sobre los fluidos se había acumulado
durante miles de años. Desde entonces hasta la fecha la tarea ha sido la de
extraer de estos principios, formulados en forma matemática, la información
necesaria para poder entender y predecir el comportamiento de los fluidos.

En la primera mitad de este notable periodo aparecieron, junto a las históricas


obras de carácter teórico, una serie de memorias clásicas de cuidadosos trabajos
experimentales. Destacan el veneciano Giovanni Poleni (1683-1781), el inglés
John Smeaton (1724-1792) y la escuela francesa, en particular Henri de Pitot
(1695-1771), Antoine Chézy (1718-1798), Jean Charles de Borda (1733-1799), el
mismo D'Alambert, Charles Bossut (1730-1814) y Pierre Louis George DuBuat
(1734-1809).

Es embarazoso limitar la lista de nombres y, más aún, no mencionar algunos de


los detalles que hicieron de sus contribuciones un párrafo hermoso en las páginas
de la investigación. Así, con la frente baja y ofreciéndoles nuestra admiración,
diremos que sus esfuerzos y logros no fueron en vano. Los estudios que dejaron
sobre la fuerza de flujos sobre obstáculos, sobre la salida de fluidos a través de
orificios, sobre el cauce de canales y ríos, ondas y olas, máquinas hidráulicas de la
más diversa índole y más, fueron el cimiento de las obras futuras. Sus
experimentos fueron nuevos y determinantes, como lo fue el análisis de los datos
y su interpretación al usar conceptos originales y más sencillos, abriendo así el
panorama para las correctas e importantes generalizaciones que establecieron.

El periodo de gestación asociado a los últimos cincuenta años del siglo XVIII no se
limitó, desde luego y antes bien al contrario, a los fluidos, a la parte académica o
a la intelectual. La sociedad estaba fraguando una lucha contra el hambre, contra
la injusticia y por la libertad e igualdad. Así, se entiende la intensa actividad que
se aprecia en los fluidos; nada sorprende pues que Lagrange visitara a Voltaire a
instancias de D'Alambert y que este último dirigiera y participara en una extensa
obra de coordinación y planeación de vías fluviales, navegación y canalización en
toda Francia.

La explosión revolucionaria francesa, la primera República, Robespierre y Danton,


la aventura napoleónica, la reinstauración de la República y tantos hechos,
aparecen reflejados en todo. También en la revolución asociada a los fluidos.

Con la segunda etapa, correspondiente a la primera mitad del siglo XIX, concluye
el nacimiento de la mecánica de los fluidos. Mucho se ha hecho desde entonces y
mucho, seguramente mejor, habrá de hacerse en el futuro. La criatura nació y
creció, llegando a su infancia al empezar el último siglo del milenio. Veamos cómo
acabó de formarse y qué dones (y defectos) trajo al mundo. Para hablar de su
madurez habrá que esperar, al menos, un ratito.

Desde el punto de vista experimental, el siglo XIX se inició con una sólida
tradición. Se contaba con una gran variedad de técnicas y métodos muy
confiables y, en consecuencia, de resultados razonablemente precisos, en especial
sobre la resistencia de obstáculos a un flujo. La hidráulica había avanzado en
forma casi independiente de la hidrodinámica teórica. En cierto sentido,
caminaban por veredas distintas, aunque paralelas, compartiendo problemas y
perspectivas pero difiriendo en métodos, prioridades y lenguaje.

El consenso en torno a lo equivocado que era ignorar los efectos de la viscosidad


se había alcanzado en la primera década del naciente siglo. Sin duda, Newton y
algunos de los que le siguieron se dieron cuenta de la necesidad de incorporar el
efecto y así lo comentaron en sus obras. Sin embargo, sus intentos para lograrlo
fueron infructuosos.

En 1821 se presentó ante la Academia de Ciencias, en París, un trabajo de Claude


Louis Marie Henri Navier (1785-1836), ingeniero de formación y vocación. En éste
se deducían las ecuaciones fundamentales de la elasticidad, que hoy en día llevan
su nombre, para describir el equilibrio y las vibraciones en un sólido. Estas
resultaban de un análisis puramente matemático en el que los átomos, entonces
entes hipotéticos, se imaginaban como partículas que interactuaban por medio de
resortes. No sorprende que fuese Navier el primero en construir un puente
colgante a partir de un proyecto y de un cálculo;previamente las construcciones
se hacían sobre bases empíricas.

Un año después, Navier presentó una memoria en la que, guiado por una analogía
formal con la teoría de la elasticidad, deducía por primera vez las ecuaciones que
incorporaban la viscosidad en la dinámica de un fluido. Como caso especial, el
fluido ideal o invícido (que no presenta fricción interna), recuperaba las
ecuaciones de Euler; en el caso general, las ecuaciones eran de una naturaleza
esencialmente distinta. Desafortunadamente, la deficiente interpretación que dio a
sus resultados, al resolver ciertos casos, le impidió explorar su notable
contribución. Aun así, el agua, y todos los fluidos, ¡habían empezado a mojar!

Las ideas de Navier sobre la atracción y repulsión entre las moléculas, como
origen de la viscosidad, fueron seguidas y ampliadas por dos excelentes
matemáticos de la época: Simeon Denis Poisson (1781-1840) y Agoustin Lonis de
Cauchy (1789-1857). El carácter especulativo de las hipótesis "microscópicas" que
usaron le da a sus trabajos en este particular un interés sólo histórico.

Siguiendo una argumentación totalmente distinta y en términos de conceptos


puramente macroscópicos, evitando todo lo relativo a la constitución última de un
fluido, Jean Claude Barré de Saint Venant (1797-1886) dedujo las mismas
ecuaciones de Navier. Su trabajo publicado en 1843, contiene una deducción
semejante a la que hoy en día se sigue para obtener las ecuaciones; ese crédito
nunca lo recibió. La fama de Saint Venant provino de sus múltiples trabajos en
elasticidad, ya que en hidrodinámica su nombre no fue asociado ni a las
ecuaciones que obtuvo, ni a diversos resultados que posteriormente fueron
encontrados por otros investigadores, particularmente de Inglaterra.

El Imperio británico, en plena expansión y en la víspera de su apogeo, fue el


ámbito donde la teoría y los experimentos alcanzaron la cumbre. Pasadas las
guerras napoleónicas y con la República francesa en proceso de consolidación, la
hegemonía política pasa a la sede del imperio; el dominio académico también.
Mientras se consolidan, controlan y explotan las colonias africanas, americanas y
asiáticas, que incluyen a cerca de la cuarta parte de la población y superficie del
planeta, las ciencias florecen otra vez, sobre la fértil tierra de una tradición sólida
y rica. Técnica y ciencia retroalimentan a la Revolución Industrial que, en estos
cien años que hemos considerado sincréticos, nace, madura y se extiende.

En ese emporio económico y cultural brilla, con otros distinguidos científicos,


George Gabriel Stokes (1819-1903). Este matemático y físico irlandés, quien se
educó y vivió en Cambridge casi toda su vida, fue el primero en ocupar, después
de Newton, la cátedra lucasiana de física y los puestos de secretario y presidenter
de la Sociedad Real de Física.

Entre sus numerosos trabajos, en muy diversos campos de las matemáticas; y la


física teórica y experimental, destacan los que versan sobre: la dinámica de los
fluidos viscosos. En la parte que concierne a los fundamentos de esta última, el
joven Stokes llevó a cabo una elegante deducción de las ecuaciones que primero
obtuviera Navier, en una memoria presentada ante la Sociedad Real en 1845. Su
razonamiento, análogo al de Saint Venant, fue totalmente fenomenológico,
eludiendo especulaciones en torno a la constitución microscópica de los fluidos.

Postulando como principios generales la conservación de la masa y el momento


lineal (la segunda ley de Newton), como lo hicieran antes Bernoulli y Euler, lleva a
cabo un cuidadoso análisis de las fuerzas que puede experimentar una pequeña
parte de fluido. Fue importante la separación que hizo entre las fuerzas que
dependen de la masa de fluido en consideración, como el peso (atracción
gravitacional), y las que dependen de la superficie de la muestra, que son las
responsables de la fricción (recordemos que los raspones los lucimos en la piel).
Así, Stokes construyó una expresión para estas últimas que era la generalización
de los estudios que había hecho Newton al respecto, ya casi olvidados con el
tiempo.

El resultado clave fue encontrar que la fuerza de fricción de una parte de fluido
sobre otra depende de la velocidad con la que se mueve una respecto de la otra;
en términos más técnicos, se diría que la fuerza de fricción, por unidad de área,
depende linealmente del gradiente de la velocidad (es decir, de la forma en que
varía la velocidad de un punto a otro); qué tan estrecha es esta relación lo
determina un factor constante llamado el coeficiente de viscosidad. A diferencia
de Navier y de Saint Venant, Stokes analizó y resolvió las ecuaciones para
algunos casos, obteniendo los primeros resultados que podían ser
contrapunteados exitosamente con los experimentos. Las ecuaciones llevan ahora
el nombre de Navier Stokes.

Sería difícil hallar a un científico cuyo nombre esté asociado a más resultados que
el de Stokes. En matemáticas hay un importante teorema que lleva su nombre, en
fluidos las ecuaciones básicas llevan su apellido, al igual que una ley de
movimiento para esferas y una paradoja; en óptica, unas líneas espectrales y el
corrimiento de la luminiscencia son sus hijas registradas y bautizadas.

Con el establecimiento de las ecuaciones básicas, el éxito de las primeras e


importantes aplicaciones de ellas, el gran cúmulo de precisas observaciones y el
desarrollo de muy diversos métodos de investigación experimental y analítica, la
ciencia de los fluidos tomaba la forma que tiene tal y como hoy la conocemos. Los
cimientos del trabajo de las generaciones futuras estaban completos.

III .5. MATRIMONIO POR CONVENIENCIA

Una visión antropomórfica de la ciencia de los fluidos nos puede ayudar a


entender la situación.

Se podría pensar que con las bases de la teoría bien establecidas, una sistemática
educación daría a la criatura una madurez de brillante productividad. Como suele
suceder, lo que podía salir mal, salió mal. Apareció un problema que hasta la
fecha no ha sido resuelto satisfactoriamente: las matemáticas necesarias para
resolver las recién descubiertas ecuaciones (no lineales) no se habían desarrollado
(¿inventado?, ¿descubierto?...). Así, al comenzar la segunda parte del siglo XIX ,
los interesados en la hidrodinámica se encontraron con un problema claramente
planteado pero con insuficientes herramientas para resolverlo.

No es de sorprender que el mismo Stokes iniciara uno de los enfoques para


abordar el problema. "Si no puedes agarrar al toro por los cuernos, ¡corre!", dice
un adagio azteca, y así lo hizo. Argumentado cuidadosamente, simplificó las
ecuaciones de manera que pudiera domesticarlas y sacarles provecho. Los
resultados que obtuvo por la aproximación tuvieron tal éxito que hoy en día se
siguen explotando estas mismas ecuaciones que, desde luego, también llevan su
nombre. Su análisis del movimiento de una esfera en un líquido sigue siendo uno
de los resultados clásicos de la mecánica de fluidos; la expresión que relaciona a
la fuerza que arrastra a la esfera con el producto de la velocidad de la corriente, el
radio de la esfera y la viscosidad del fluido, se conoce como la ley de Stokes. La
utilidad de un resultado tan "simple" como éste ha sido amplia y de la más
diversa índole

Un problema representativo de los fluidos fue (y sigue siendo) el de establecer el


flujo en tuberías. Por evidentes razones prácticas había sido objeto de
innumerables estudios teóricos y experimentales. Hasta que no se incorporó el
efecto de la viscosidad, la teoría correspondiente se había reducido a ejercicios
pintorescos en matemáticas "no aplicadas". Experimentalmente, fue el
siglo XIX el que vio los primeros resultados correctos sobre el flujo en un tubo, lo
que no deja de llamar la atención por el uso que de acueductos, drenajes, fuentes
y tuberías en general había anteriormente.

Entre otros, destacan los trabajos de Gotthilf Heinrich Ludwig Hagen (1797-1884)
y de Jean Louis Poiseuille (1799-1869). El primero fue un distinguido ingeniero
alemán cuyas contribuciones recibieron la injusticia de la historia; nunca recibió el
crédito por su trabajo. Poiseuille fue un médico interesado en la fisiología de
aparato cardiovascular que, para caracterizar el flujo sanguíneo, llevó a cabo
cuidadosos experimentos en tuberías muy delgadas (tubos capilares) para
determinar la forma del flujo, la resistencia de éste y la descarga. De esta manera
estableció que la cantidad de líquido que pasa por un tubo cada segundo depende
de la carga (la diferencia de presiones por unidad de longitud) y de la cuarta
potencia de su diámetro (el diámetro multiplicado por sí mismo cuatro veces).
Veinte años más tarde se desarrolló el primer análisis teórico que explicaba las
observaciones de Poiseuille. Franz Neumann (1798-1895) y Eduard Hagenbach
(1833-1910), en forma independiente, obtuvieron las expresiones para la forma
(parabólica) del flujo y para la descarga, que se ajustaban bien a los datos
conocidos; Hagenbach, al citar sólo a Poiseuille sin mencionar a Hagen, inició la
discriminación de su compatriota.

Vale la pena hacer notar que el problema aún está lejos de resolverse. Una gran
cantidad de trabajos experimentales sobre el flujo en tuberías se sigue publicando
en la bibliografía especializada; innumerables tablas empíricas se han publicado
para su uso en el diseño de sistemas de drenaje, plantas industriales de
diferentes características, etc., y complicadas relaciones entre parámetros del
flujo siguen siendo elaboradas. Para las condiciones que se dan en la práctica, el
movimiento de un líquido es sumamente complicado y la teoría ha sido, hasta la
fecha, incapaz de dilucidar el problema. Las predicciones teóricas del
siglo XIX, desde luego aproximadas, han podido mejorarse muy poco.

Muchas contribuciones previas y subsecuentes a las de Navier y de Stokes


merecerían un libro cada una. Sin embargo, aquí el propósito ha sido el de
delinear la forma en que se establecieron los principios básicos. Es conveniente
recalcar que la hidráulica, que escuetamente sería el manejo de los fluidos, gozó
del mismo vertiginoso avance que la hidrodinámica, su contraparte teórica. Aquí
sólo hemos esbozado el crecimiento de esta última. Sin embargo, el desarrollo
paralelo de ambas, independiente hasta cierto punto, llevó a la pareja a la edad
del cortejo... Si bien se conocían desde la infancia, como suele suceder, hubo
etapas en que se hablaban poco, cuando no es que se odiaban, especialmente al
obligarlos a estar juntos. Antes de entrar en la parte que concierne al romance,
vale la pena describir algunos rasgos de una de las partes comprometidas.

Por un lado, son notables las teorías de vórtices que desarrollaron Hermann
Ludwig Ferdinand von Helmholtz (1821-1894), Gustav Robert Kirchhoff (1824-
1887) y William Thomson (1824-1907), más conocido por su título nobiliario de
lord Kelvin. Destacan también las obras de Joseph Boussinesq (1842-1929) y de
John William Strutt (1842-1919), el famoso lord Rayleigh. El primero de éstos
desempeñó el papel que Fernando de Rojas diera a Celestina; sus rigurosos
estudios analíticos fueron siempre contrastados con los datos y las observaciones,
subrayando las virtudes de una relación duradera entre la hidráulica y la
hidrodinámica. Rayleigh, versátil como algunos de sus brillantes contemporáneos,
abordó problemas que siguen siendo una muestra del claro pensar de una exitosa
generación de científicos; su teoría de la propagación del sonido es sólo un
ejemplo.

Un protagonista singular de esta época es Osborne Reynolds (1842-1912).


Estudiando casi los mismos problemas que Boussinesq, cultivó el otro lado de la
relación que nos ocupa, la hidráulica. Aun así, cada uno destacó en la contraparte;
Reynolds se sublimó en la hidrodinámica. Sus meticulosos trabajos experimentes
eran delicadamente contrapunteados con resultados analíticos; algo parecido a lo
que Mozart hubiese logrado si en lugar de componer su exquisita e insuperable
música se hubiera concentrado en jugar con charcos y la teoría correspondiente.
¡De lo que se perdieron los fluidos y lo que ganamos todos!

Reynolds, prototipo del profesor distraído, introdujo conceptos y métodos que


siguen siendo aprovechados por quienes nos ganamos el pan con los fluidos.
Como "para muestra basta un botón", caracterizó la forma en que un fluido pasa
de un estado de movimiento laminar (regular) a uno turbulento (caótico),
introduciendo, entre otras cosas, un parámetro adimensional conocido ahora
como el número de Reynolds.

La idea básica es como sigue. Una madre ingeniosa decide jugar en la cocina de
su casa con unos popotes. A pesar de las protestas de su familia, averigua cómo
se mueve el jugo de mandarina en su "dispositivo experimental" y, como es de
suponerse publica un artículo sobre el tema. Meses más tarde y en otro país, en
una oficina con poca luz, un ingeniero del Departamento de Aguas debe rediseñar
el sistema de drenaje de un barrio, dentro del cual se encuentra su casa; es decir,
le interesa que funcione. ¿Le sirve lo que escribió la susodicha mamá? Ella trabajó
con el jugo de un cítrico, tubos de plástico y una sana curiosidad; él debe hacerlo
con... otros materiales. Gracias a la dama y a Reynolds, el ingeniero puede evitar
hacer pruebas costosas y, tal vez, desagradables.

Supóngase que U es la velocidad media del fluido en un tubo, D el diámetro de


éste y v la viscosidad del fluido. Lo que Reynolds encontró fue que si el valor
numérico del producto de U y D, dividido por v, es el mismo para dos sistemas,
aunque parezcan muy distintos, ¡el flujo será el mismo!. Cosas como el gasto, el
carácter laminar o turbulento, etc., serán iguales. Lo que tiene que hacer el
ingeniero es ver si su sistema escala adecuadamente.

Si el diámetro de los tubos del drenaje es de 2 m y el de los popotes es de 0.5


cm, parecería no haber mucha relación. Digamos que la viscosidad del jugo de
mandarina es de aproximadamente .01 cp y la de lo que se mueve en el drenaje
es de cerca de 1 cp (unas cien veces más viscoso); cp es la abreviatura
del centipoise (pronúnciese "sentipuazz"), la unidad de medición de la viscosidad.
Entonces, para que los números de Reynolds de cada caso sean iguales, basta con
que la velocidad del jugo en los popotes sea cuatro veces la del "fluido" en el
drenaje. Además de ser más barato el experimento casero, la vitamina C es
mucho más saludable.

Es justamente en este hecho, el principio de semejanza, que está basado el


modelado hidro y aerodinámico. Cuando se hacen maquetas de muelles, de
rompeolas, de aviones o de submarinos, además de divertirse, los investigadores
(ingenieros, físicos o matemáticos) se están ahorrando tiempo, esfuerzo y (a sus
patrones) muchos kilogramos de oro. Si el juguetito flota, el buque tanque de 100
000 toneladas también lo hará..., si es semejante.

Al iniciarse el siglo XX, el cortejo entre la hidrodinámica y la hidráulica parecía no


tener futuro alguno; los intereses comunes o bien se expresaban en lenguajes
diferentes o parecían inútiles o muy complicados. Las obras de Horace Lamb y de
A. A. Flamant ilustran bien la situación; la primera cubre los aspectos teóricos y la
otra los experimentales, con poco material común. La hidrodinámica se interesaba
principalmente en los flujos invícidos o ideales, lateralmente en los flujos viscosos
laminares y no hacía caso de los flujos turbulentos, siendo esta última la
característica más importante para la hidráulica. Así, las excelentes virtudes de
una disciplina eran ignoradas por la otra.

En estas condiciones, en 1904, se presentó un trabajo experimental, en un


congreso de matemáticas, en la ciudad de Heidelberg, Alemania. El autor, un
brillante ingeniero llamado Ludwig Prandtl (1875-1953), iniciaba una conspiración
para unir a la caprichosa pareja. A raíz de esa participación, Prandtl fue invitado a
trabajar y colaborar en uno de los ambientes más estimulantes y fértiles para la
investigación de que se tiene memoria. Con ese trabajo, titulado Sobre el
movimiento de fluidos con viscosidad pequeña,empezaba una profunda revolución
mecánica de fluidos.

El punto esencial de la contribución de Prandtl, elaborado en una secuencia de


publicaciones a lo largo de una década, y que sólo es parte de su variada obra
acerca de los fluidos, fue el siguiente.

La dificultad era que la hidrodinámica, ese elegante aparato matemático que


estudiaba sobre todo a los fluidos ideales, describía muy bien una parte
importante del movimiento real de los fluidos, como la forma de la estela que deja
tras de sí un objeto inmerso en una corriente. Por otra parte, predecía algunos
casos claramente absurdos, como la inexistencia del arrastre de la corriente sobre
el objeto inmerso en ella, en franca contradicción con las observaciones (y la
experiencia de los ahogados en torrentes por todo el mundo).
La solución ahora parece mas o menos obvia, como siempre sucede con los
problemas una vez resueltos. Si la teoría de los fluidos ideales no podía describir
correctamente el movimiento de los fluidos reales cerca de cuerpos sólidos, debía
haber una forma de tomar en cuenta los efectos de la viscosidad en la inmediata
vecindad de las paredes de éstos. Es decir, muy cerca de una superficie sólida
debía existir una región, que Prandtl bautizó como la capa límite, en la que
dominaran los efectos viscosos; fuera de ella, la descripción del modelo de fluidos
ideales debía ser suficiente. De esta manera, el problema se reduce a simplificar
las ecuaciones de Navier-Stokes lo necesario como para poder resolverlas dentro
de la capa límite; fuera de ésta, los resultados deben ser iguales a los del caso
ideal.

Y así, Prandtl quiso, pudo e hizo. Haciendo ver las bondades de cada parte y las
desventajas del celibato para una pareja tan potencialmente fértil, manipuló la
situación y documentó (con teoría y experimentos) la conveniencia de ese
matrimonio. El amor llegará después —les decía— y a la pareja la dejó bien
casada. La prole sigue agradecida a Prandtl por las delicadas gestiones que hizo
para abrir un horizonte que explorar, donde antes sólo parecía haber una
oscuridad abisal.

Las contribuciones sobresalientes de Prandtl no quedaron ahí, ni fue éste el último


de los brillantes investigadores en el tema; algunos de los que faltan, varias ideas
y métodos, como las que abordan la turbulencia o el uso de las computadoras,
aparecerán más adelante.

Con este panorama de la historia de los fluidos, un tanto cubierto de nubes, pero
con suficientes claros que dejan entrever el hermoso paisaje, es mejor dejar a la
mente descansar y a los ojos distraer. Es un buen momento para detener la
lectura, estirar las piernas y mirar a un fluido de frente. Luego, viendo agua, aire
o fuego, murmurar en silencio, (lo que no haríamos con un adolescente) "te voy
entendiendo...".
I I . ¿ Q U E S O N Y C Ó M O L O S D E S C R I B I M O S ?

COMO en casi todas las novelas, todo resulta más comprensible si se comienza por
aclarar de qué se trata, sin echar a perder el final. Así, sería apropiado que, como
con cualquier personaje principal de una novela decente (cosa que el protagonista
no tiene por qué serlo), tratemos de construir su imagen, esbozar su carácter,
describir sus pintorescas reacciones, sus variados comportamientos y su lenguaje;
en fin, de mencionar todos aquellos aspectos que lo hacen sujeto de escritura y,
se esperaría, de lectura.

Como se verá más adelante, el objetivo se logra sólo parcialmente. Resulta que
nuestro protagonista no es ni rubio ni moreno, ni alto ni bajo, ni lo uno o lo otro;
simple y sencillamente es difícil de acorralar con palabras y escurridizo para
manejar. Es más, después de que hablemos de su interesante estructura
(digamos, sus raros órganos internos, sus prominentes señas particulares, sus
peculiaridades anatómicas y de algunas de sus idiosincrasias y traumas
infantiles), resultará que para algunos fines prácticos carece de importancia. Es
como si, tras describir minuciosamente el origen de una tormentosa secta a la que
pertenece el medio hermano de la heroína, ésta se cambiara de continente y
pasara ahí el resto de sus apasionados o bucólicos días, sin relación alguna con
los inconfesables crímenes de la susodicha secta. Aun así, un biógrafo meticuloso
no dejaría pasar la oportunidad de abordar el mórbido efecto que podría haber
causado en su carácter o en sus ocasionales delirios nocturnos.

Advertidos de lo que sigue, mejor es empezar por el principio y entrar en materia,


es decir, en fluidos.

II. 1. UNA INDEFINICIÓN PRECISA

La materia, es decir, todo lo que nos rodea y que percibimos a través de los
sentidos, viene en tres presentaciones aparentemente distintas y exclusivas: en
sólido, en líquido o en gas. Una observación más cuidadosa nos llevaría a pensar
que esta clasificación es un tanto simplista y que debiera ampliarse, o cuando
menos subdividirse. Así, empezaríamos por organizar las cosas según su textura,
color, abundancia, rigidez, etc., hasta llegar al punto en el que cada material
quede ubicado y etiquetado correctamente en el nuevo y exhaustivo esquema así
elaborado. Este enfoque tendría sus ventajas, pues dada una sustancia con un
nombre debidamente asignado (como el piridotín-3-glutaciclina-6-fosfomentasa;
le antepongo el artículo "el" porque, de existir, debiera ser masculino), bastaría
con buscar en el compendio, por orden alfabético, para encontrar su descripción
completa, tal vez una ilustración y las referencias cruzadas a las otras sustancias
que comparten una o más características.

En los términos arriba expuestos la tarea parece imposible, si no es que ridícula.


Sin embargo, es ésta una de las formas en que se ha procedido y los resultados
son sorprendentes. Partiendo de la hipótesis, posteriormente confirmada, de que
todo está hecho de un conjunto reducido de elementos básicos que al combinarse,
bajo ciertas reglas y en diversas proporciones, da lugar a la impresionante
variedad que vemos, los investigadores se dieron a la tarea de aislarlos y
caracterizarlos. Ahora contamos ya con obras que resumen el final de esta tarea
monumental, considerada una quimera a mediados del siglo XIX, que en su forma
más sucinta es la tabla periódica de los elementos de Mendeleev. A pesar de la
importancia fundamental de este conocimiento, en cuanto a nuestra comprensión
del Universo se refiere, la clasificación no es suficiente para deducir las
propiedades de los compuestos que estos elementos forman, ni incluye todo lo
que observamos (literalmente, la luz), ni explica cómo un material dado responde
y se comporta cuando permitimos a un agente externo influir sobre él. Esto
último, el comportamiento dinámico de la naturaleza, exige un tratamiento, un
enfoque diferente, más general, universal si es posible, que permita evitar el
estudio detallado de cada material, lo que haría del programa científico una tarea
inaccesible.

Buscando características genéricas, comunes, y las razones para que éstas se


manifiesten, llegamos al estudio de la materia en sus diferentes estados de
agregación (formas de presentación), que en última instancia hemos reducido a
sólidos y fluidos. Parecería ofensivo el tener que explicar lo que es y lo que no es
un sólido. Sin embargo, la separación no siempre es evidente, cuando no
inadecuada, al presentar un mismo material con facetas que lo identifican como
uno y otro, simultáneamente. Por un lado, a casi todos los compuestos los
podemos observar en estado gaseoso, líquido o sólido, como al agua;
dependiendo de la presión y temperatura a la que se encuentre, será vapor, agua
o hielo. Es posible, y el proceso no es nescesariamente complicado, que un gas
pueda licuarse sin cambio abrupto en su comportamiento, observándose una
formación paulatina en el gas al ir haciéndose cada vez más denso, hasta ser
indistinguible de lo que consideramos líquido. Este hecho es el que nos permite
tratar a un mismo nivel, con los mismos criterios, es decir, en forma conjunta, a
un gas y a un líquido. Esto no sucede en el proceso de la solidificación de un
fluido, o el proceso inverso en el que un sólido se licua o evapora. Hay siempre un
punto en el que ciertas propiedades cambian radicalmente al aparecer las dos
fases: una sólida y otra fluida, cada una con propiedades ópticas, elásticas, etc.,
muy distintas.

Supóngase que tenemos un medio homogéneo, es decir, un material cuya


composición y propiedades son las mismas en cada parte que lo forma. En cuanto
al estado físico en el que se encuentra el sentido común (a veces muy poco
común) nos dice que si su carácter es etéreo, terso o escurridizo, el medio no es
sólido. Si queremos mantenerlo entre las manos y escapa, se trata de un fluido.
Si el medio es sólido podemos retenerlo y es posible deformarlo hasta cierto
límite. Un fluido parece no presentar límite a las deformaciones que podemos
imprimirle. Estas ideas sueltas que forman parte de nuestra experiencia cotidiana
son precisamente las bases para definir a un fluido, si delimitamos un poco más
los términos y conceptos incluidos. Aún así, veremos que la naturaleza se las
ingenia para exhibir ejemplos que escurren por nuestras definiciones sin dejarse
atrapar.

"Un fluido es un material que fluye". Así, además de risa, la definición no da más
que pena y sorprendería que pudiera servir para caracterizar a una sustancia.
Ahora, hay que precisar lo que es fluir. Para esto vamos a separar en dos a las
formas en que actúa una fuerza, que tampoco hemos definido, pero que puede
entenderse como el efecto de un agente externo; con buena voluntad y sentido
común las cosas usualmente funcionan. Toda fuerza (representada por la flecha
en la figura II. 1), al actuar sobre una superficie, puede imaginarse formada de
dos partes, una normal o perpendicular a la superficie (N) y otra paralela
o tangencial a ésta (T). Cada una de éstas, llamadas componentes de la fuerza,
tiene un efecto distinto sobre el material. La componente normal es la que
asociamos a la presión y tiende a comprimir o estirar, dependiendo de la dirección
de la fuerza. La componente tangencial produce un efecto de deslizamiento
relativo entre los planos en que imaginamos estructurado al medio y se le llama
también fuerza cortante.

Figura II. 1. Fuerza y su descomposición en componentes normal (N) y tangencial (T).

Para ilustrar esta descomposición de las direcciones y efectos de una fuerza


consideremos el siguiente ejemplo. Imaginemos una esponja, de forma regular y
pegada a dos vidrios planos en sus caras superior e inferior (Figura II. 2(a)). Si
aplicamos una fuerza puramente normal a cada uno de los vidrios (Figura II.
2(b)), la esponja se comprime, reduciendo su volumen pero manteniendo su
forma. Si ahora jalamos cada vidrio en dirección opuesta, de modo que la
separación entre ellos se mantenga constante, dando lugar a una fuerza de corte
sobre la esponja, ésta se deformará manteniendo su volumen (Figura II. 2(c)).
Por lo general, una fuerza con una dirección arbitraria produce una mezcla de
ambos efectos, dependiendo de la proporción entre su componente normal y su
componente tangencial.

Figura II. 2. Esponja (a), fuerzas normales (b) y de corte (c).

Volviendo a nuestro problema original, consideremos un medio sujeto a fuerzas


cortantes, como la esponja en el caso (c). Un material que es sólido se deforma
hasta cierto límite, rearreglando sus elementos estructurales (átomos) hasta
generar una fuerza igual en magnitud, opuesta en dirección a la aplicada, y así
quedar en equilibrio; en última instancia, los átomos ligados entre sí por fuerzas
de origen electromagnético se ven obligados a cambiar sus posiciones relativas
hasta balancear exactamente la fuerza aplicada. La deformación se detiene en el
preciso momento en que esto se logra. Decimos que un material es elástico si al
retirar las fuerzas aplicadas recupera su forma inicial. Le llamamos plástico si no
recupera su estado original y guarda cierta memoria de las fuerzas que sufrió.
Una sustancia que bajo la acción de una fuerza cortante, por pequeña que ésta
sea, se deforma sin límite se dice que fluye. ¡Un fluido es un material que fluye!
Ahora ya no parece tan tautológica la definición. Así, el mar bajo la acción del
viento, que produce una fuerza cortante sobre su superficie, se deforma sin límite,
se mueve continuamente sin lograr frenar al viento por tenue que éste sea: la
deformación resultante es la que percibimos como oleaje, hipnotizando a unos y
mareando a otros.

Parecería que con esto se ha logrado clasificar a todas las sustancias en dos
grandes grupos. Sin embargo no es así, lo cual hace el punto más interesante.
Hay sustancias que tienen un comportamiento dual para las que nuestra definición
es inadecuada o insuficiente. Es tal la diversidad de sustancias que la tarea de
completar y precisar una sola definición es inútil.

A las rarezas las tratamos en forma especial, en subgrupos, según las


circunstancias. Materiales tan familiares como el vidrio, la pintura y el pavimento
pertenecen a esta clase exótica de materiales. El vidrio, que se comporta como
sólido cuando lo estudiamos en un laboratorio (o cuando una pelota de béisbol es
bateada en la dirección equivocada y va a dar precisamente a...), resulta ser un
fluido cuando los tiempos de observación son suficientemente largos. Se puede
ver en los emplomados de las viejas catedrales góticas que la parte inferior es
mucho más gruesa que la superior. La razón es que el vidrio ha fluido, por cientos
de años bajo la acción de la gravedad.

También hay sustancias que presentan comportamiento simultáneo de fluido y


sólido. Su tratamiento requiere de consideraciones particulares que caen en el
área conocida como la reología. Materiales de este tipo, con propiedades que
genéricamente son llamadas viscoelásticas, son por lo general soluciones con gran
cantidad de partículas (polímeros) disueltas en ellas. Casos típicos son las resinas,
los plásticos, múltiples derivados del petróleo y diversos tipos de champú (el aire
de la ciudad de México parecería un buen candidato).

II. 2. LOS ÁTOMOS Y LA VENTAJA DE IGNORARLOS

La concepción atomística de la naturaleza, según la cual todas las cosas estan


constituidas por elementos indivisibles e inmutables, se remonta al origen de
nuestra civilización. Si bien no es sino hasta el siglo XVII que esta imagen
adquiere carácter científico, al empezar a ser fundamentada en la
experimentación, es notable la semejanza que hay entre las ideas básicas en sus
primeras formas y las que hoy en día tenemos.
En la antigua Grecia es donde aparece no sólo la idea general del atomismo, sino
las diversas formas que éste adquiere. La existencia de los átomos y del vacío que
los rodea, como una necesidad en la explicación de la constitución del mundo, es
planteada por razones filosóficas, manteniendo este carácter hasta el
renacimiento europeo.

Demócrito, en el siglo V, a.C., es sin duda el representante más importante del


atomismo griego. Para él, la naturaleza estaba formada de un número infinito de
corpúsculos invisibles por su tamaño, que diferían entre sí sólo en forma,
dimensión y estado de movimiento. Comparte con Parménides la idea de un
Universo cualitativamente inmutable, pero difiere de éste en cuanto al aspecto
cuantitativo, pues atribuye los cambios a la multiplicidad de maneras en que estos
átomos se combinan, manteniendo su naturaleza. Así, un cambio aparente en
calidad podía ser entendido, al menos en principio, como una variación en la
cantidad de átomos que participaban en el proceso.

En la misma época, Empédocles propone la idea de un Universo formado de


cuatro elementos básicos, aire, agua, tierra y fuego, que al mezclarse en distintas
proporciones generan la inmensa variedad observada. Este modelo, que domina el
panorama a todo lo largo de la Edad Media, sin ser atomista en el sentido estricto,
refleja la necesidad de reducir a componentes primitivos a la naturaleza. Estas
ideas, compartidas y desarrolladas por Platón un siglo más tarde, y la concepción
de su discípulo, Aristóteles, en torno a la desaparición de las partes al formar un
todo, impidieron el florecimiento y desarrollo del atomismo en la civilización
helénica.

Cuando Tito Lucrecio Caro escribe su poema De rerum natura (Sobre la naturaleza
de las cosas) en el siglo I, a.C., el atomismo griego es incorporado a la cultura
latina, enriquecido en el proceso por Epicuro, su defensor en el
siglo III, a.C. Durante los siguientes diecisiete siglos, crisol del renacimiento y
etapa de gestación de los principios del conocimiento experimental, las ideas
filosóficas sobre este particular se mantienen casi invariables: la materia no puede
ser dividida sin límite y sus elementos constitutivos primitivos son inmutables,
incontables en número y finitos en su diversidad.

En las décadas alrededor de 1600, mientras Galileo Galilei y Francis Bacon


establecen las bases del método científico o experimental, Pierre Gassendi revive
el atomismo clásico para una época mas madura. Daniel Sennert y Robert Doyle,
aceptando la idea atomista, le dan su verdadera dimensión al buscar su contenido
en la experimentación. Así, Boyle logra descartar en forma definitiva el
sobresimplificado esquema de los cuatro elementos. Un siglo más tarde, Antoine
Laurent de Lavoisier desarrolla la metodología del análisis químico y define en la
práctica a los elementos químicos. La generación que le sigue establece los
fundamentos de la teoría atómica moderna, con la obra de John Dalton, al
identificar elementos químicos con átomos y proponer las formas en que éstos se
combinan para formar compuestos.

El atomismo griego, la teoría atómica de Dalton y la idea contemporánea sobre la


constitución de la materia, comparten suficientes rasgos como para considerarlos
un mismo proceso animal observado en su evolución a través del tiempo; cada
etapa muestra los cambios indispensables para alcanzar la madurez. Si bien los
átomos, concebidos como constituyentes últimos de la materia, han sido
sustituidos por las partículas elementales, como el electrón y el neutrino, se ha
mantenido el atomismo que imaginara Demócrito. Por otro lado, se ha perdido el
carácter inmutable de aquellos átomos de Lucrecio y de Dalton; los nuevos
átomos, en el verdadero sentido etimológico del término, pueden combinarse para
disolverse en luz (al reaccionar un electrón con un positrón) o perder su identidad
formando un todo (al combinarse un protón, un electrón y un neutrino para
formar un neutrón).

Esta búsqueda de la explicación última de la materia en términos de sus


componentes más simples ha sido, y es, un esfuerzo por alcanzar uno de los
objetivos fundamentales de la física. Creemos tener una idea bastante cercana y
correcta sobre estos pequeños bloques universales con los que se construye todo
lo que observamos. Otro es el problema de cómo éstos se combinan para formar
átomos, éstos a su vez formar moléculas y éstas agruparse para conformar un
elote, o un insecto rayado que almacena miel en hexágonos o, lo que resulta más
sorprendente, dos mamíferos que se comunican entre sí, uno pinto que ladra, y
otro bípedo que lo cuida, circunnavega el planeta y se asombra de todo, hasta de
su mismo asombro.

No deja de llamar la atención que lo que damos ya como un hecho, la existencia


de los átomos, sea en realidad algo que no se puede intuir fácilmente. Nuestros
sentidos son incapaces de percibirlos y lo que nos rodea parece consistir de
objetos, sólidos y fluidos, de aspecto terso y continuo. Es difícil imaginar que el
humo de un cigarro esté formado de moléculas relativamente complejas o que al
aire que respiramos lo componen moléculas simples separadas unas de otras
millares de veces la distancia que caracteriza su tamaño. Para tener una idea de
las dimensiones atómicas tendríamos que imaginar todo amplificado, de manera
que por ejemplo una manzana fuese del tamaño de la Tierra. ¡Un átomo de la
manzana sería entonces del tamaño de una canica! Si toda esta concepción es
cierta, y todo parece indicar que así es, la tarea de explicar, por ejemplo, el
movimiento del agua al salir de un tubo, en términos de átomos, parece
equivalente a tratar de construir la Torre de Babel.

El problema de estudiar el movimiento individual de miríadas de partículas para


luego predecir su comportamiento conjunto es algo que no tiene que ver con la
física; en la práctica el problema no puede ni plantearse, mucho menos
resolverse. Sería necesario aplicar las leyes básicas de los átomos, la mecánica
cuántica, a cada partícula, y conocer detalladamente todas las fuerzas que actúan
sobre cada una, establecer sus posiciones en algún momento y, con las
matemáticas usuales, resolver simultáneamente el problema para todas.

En una gota de agua hay 100 000 000 000 000 000 (1017) moléculas de agua
aproximadamente, ¡tantas como segundos en la edad estimada del Universo!
Sería ridículo intentar escribir las ecuaciones y patético pensar en resolverlas. Nos
tomó siglos pasar de una idea filosófica a una concreta que nos permite explicar
suficientes cosas como para que su validez esté, por lo pronto, más allá de toda
duda razonable. Ahora resulta que el asunto es tan complicado, que la idea es
algo enteramente inútil (al menos para estudiar chorros de agua).
La solución de este problema se encuentra en la complejidad del mismo. Suena
paradójico, pero con un ejemplo podemos intuir el argumento que siguieron
quienes contribuyeron a esclarecer la solución.

Imaginemos un dado perfecto, cada arista de la misma longitud y cada ángulo de


90º. Supongamos ahora que el dado se encuentra parado sobre un vértice, con el
vértice diametralmente opuesto sobre una línea vertical, y que nos preguntamos
por la dirección en la que va a caer al soltarlo (Figura II.3). Si el lado es
perfectamente simétrico, ¡no cae! Se quedará así mientras no sea perturbado.
Una corriente de aire o una vibración, por imperceptibles que sean, harán que
caiga el dado.

Figura II. 3. Equilibrio de un dado.

Una pequeña variación trae como consecuencia un efecto grande: la caída del
dado. Los detalles de la perturbación son casi imposibles de prever y por
consiguiente la posición precisa del dado no se puede predecir. Las fuentes que
originan estas pequeñas variaciones son diversas, complicadas y difíciles de
estimar. Un efecto es siempre el mismo: el dado se cae. Si hacemos una serie de
pruebas encontraremos que las direcciones en las que cae están distribuidas
sobre un círculo y que las caras que quedan hacia arriba son las tres opuestas al
vértice de abajo, apareciendo éstas con igual frecuencia, si el número de pruebas
es suficientemente grande. Así, del problema inicial, imposible de resolver, hemos
podido encontrar varios aspectos claros y precisos de la solución, quizá obvios o
triviales en este caso, pero que nos dicen cosas concretas sobre la caída. En
primer lugar sabemos que cae; si esperamos lo suficiente, algo o alguien llegará a
importunar la delicada paz del dado. Segundo, el dado no tiene preferencias y cae
en cualquier dirección. En tercer lugar, hay tres caras que se reparten por partes
iguales el derecho de aparecer arriba.

Este ejemplo ilustra los puntos claves que permiten estudiar la dinámica de un
fluido, constituido de un número extraordinario de átomos.
Nuestro sistema, el dado y sus alrededores, todo lo que rodea y afecta al dado,
siguen ciertas leyes, las leyes de la mecánica. La aplicación de estas leyes resulta
tan complicada que no podemos resolver el problema en la forma originalmente
planteada, es decir, predecir en detalle el movimiento del sistema. Si cambiamos
el enfoque buscando ahora una descripción cualitativa, más general, es posible
entonces responder en forma precisaalgunos aspectos de la caída de dados;
aspectos de carácter más amplio que no dependen de los minuciosos y
abrumadores detalles del proceso. Para esto aceptamos a cambio describir el
comportamiento más probable o promedio del sistema, introduciendo un elemento
esencialmente nuevo en nuestra descripción: la probabilidad. Esta herramienta,
una de las más poderosas que las matemáticas han generado, es ahora un
ingrediente fundamental en la física.

Podría pensarse que el precio de nuestra ignorancia o incapacidad es el de


conformarse con una descripción más burda, menos exacta, pero no es así. En
realidad el problema inicial es irrelevante y en el fondo ni siquiera interesa. Si en
el ejemplo del dado pudiésemos resolver un caso en particular, haciendo uso de
todo lo que sabemos y una dosis de ingenio, tendríamos precisamente eso, un
caso especial. Una pequeña variación y el resultado sería muy distinto (otra
dirección y otra cara). Este efecto, en el que un pequeño cambio en el estado
inicial produce un resultado final radicalmente distinto, ha introducido más de una
sorpresa en nuestro estudio de la naturaleza. Esto es particularmente cierto con
los fluidos. Mucho más fructífera ha sido en cambio la búsqueda del
comportamiento global, promedio y genérico de un sistema.

No es raro escuchar que cuando se recurre al análisis estadístico o al uso de


conceptos probabilísticos es debido a nuestra incapacidad o ignorancia. Sin
afirmar que esta posición es ridícula, sí es sólo una parte de la historia; a veces
irrelevante. Al promediar muchos detalles se obtiene una descripción completa. En
el caso de los gases no es necesario conocer muchos de los detalles atómicos para
conocer su temperatura, presión y volumen. Esto es característico del sistema,
¡no de quien lo observa! En todo caso, la tarea del científico es la de explicar
cómo y por qué sucede esta maravillosa contracción de la información. Encontrar
qué cantidades o propiedades microscópicas son irrelevantes para predecir el
comportamiento que observamos es parte de la investigación en curso, si bien
contamos con respuestas exquisitas e indicaciones claras de cómo proceder en
muchos casos.

La descripción macroscópica de un fluido, es decir, la definición de las cantidades


que se usan para caracterizar su estado y las leyes que determinan la variación
temporal y espacial de éstas, tiene su fundamento en el comportamiento
(dinámica) de las partículas que lo forman. Esto ocurre de tal manera que, al
actuar en concierto, cada átomo o molécula pierde su identidad, heredando
algunas de sus características a cantidades genéricas o colectivas
llamadas coeficientes de transporte, como la viscosidad y la conductividad
térmica. Estas etiquetan al fluido, distinguiéndolo de otro de composición
diferente.

La teoría que establece la conexión entre este mundo microscópico de átomos y


moléculas y el mundo de los fluidos, de chorros y remolinos, es un activo proyecto
de investigación en múltiples instituciones académicas en casi todos los países, en
particular en México. En el caso de fluidos poco densos, de los gases, la teoría fue
construida por James Clerk Maxwell y Ludwig Boltzmann a finales del siglo pasado
y desarrollada a todo lo largo del presente siglo; se conoce como la teoría cinética
de los gases. El notable éxito logrado en el caso de los gases confirma la
viabilidad del programa que busca establecer esta conección en el caso de un
fluido arbitrario y fuera de equilibrio.

Desde un punto de vista más práctico, cualquier fluido como el agua o el aire
forma una estructura continua y suave al estudiarlo macroscópicamente, es decir
en dimensiones mayores a, digamos, décimas de milímetro (0.1 mm = 10-4 m).
En un volumen de un cubo de 0.1 mm de longitud por lado, de una millonésima
de litro (10-12 m³), hay 7.34 x 1015 (734 seguido de 13 ceros) moléculas de aire, a
una temperatura de 27º C ¡y a presión atmosférica! En este volumen, tan
pequeño como parece, hay tal cantidad de moléculas que la presencia de unos
millones de más o de menos de éstas no afectan de manera apreciable ninguna
cantidad medible, aun con los instrumentos más precisos de que se dispone. Estos
instrumentos miden cantidades promedio sobre un desorbitado número de
partículas, de manera independiente de éste.

En una verdadera escala microscópica los átomos ocupan una fracción muy
pequeña del volumen que los contiene, el espacio vacío entre unos y otros ¡es
mayor al 99.999... %!, de modo que las propiedades del fluido son muy
irregulares, cambiando rápidamente de una región a otra debido al continuo
movimiento de las moléculas; no usamos pues esta microescala cuando lo que
interesa es entender cómo se vacía un lavabo o se infla un globo.

La hipótesis básica, que es válida para la teoría en todos los niveles, es la


llamada hipótesis del continuo. Ésta consiste en suponer que todas las cantidades
necesarias para caracterizar a un fluido, como pueden ser su temperatura, su
velocidad, su densidad, etc., están bien definidas en cada punto del espacio y
varían suavemente de uno a otro, ignorándose así la naturaleza discreta, atómica,
del fluido. Por un punto se sobreentiende entonces un volumen muy pequeño,
digamos una milésima del considerado en el párrafo anterior, en el que hay un
número tan grande de moléculas como para que el promedio de la velocidad no
dependa de este número, pero lo suficientemente pequeño como para que pueda
verse como un punto por los instrumentos más sensibles y finos.

A partir de ahora dejaremos de lado a los átomos, pues a pesar de su importancia


hemos encontrado la ventaja de ignorarlos. Nuestras partículas de fluido tendrán
el sentido que dimos a un punto en el fluido. A pesar de la advertencia,
volveremos a los átomos en el último capítulo, cuando nos dejemos sorprender
por los superfluidos.

II. 3. APEROS: FRASCOS Y TUBOS, IDEAS, MATEMÁTICAS Y... FLUIDOS

El estudio de un fenómeno, o un grupo de ellos, se inicia con una serie de


observaciones que permiten apreciar cuáles son los aspectos más importantes, los
que gobiernan el proceso. En el fondo, lo que se busca es la forma de simplificar
el análisis, aislando las causas que determinan el efecto principal e ignorando
aquellas que desempeñan un papel secundario. Establecer cuáles cantidades y la
forma en que éstas contribuyen es una parte medular del proceso de
entendimiento. Encontrar las razones por las que se combinan de esa manera,
usando los principios o leyes correspondientes, es otra etapa igualmente difícil e
importante. La última parte, la esencia misma del conocimiento científico, es
la predicción. Con base en el estudio previo debe ser posible anticipar el resultado
de nuevas observaciones al cambiar de diversas formas el arreglo inicial del
fenómeno.

En el esquema anterior está implícito lo que se conoce como método


científico. Lejos de ser un procedimiento sistemático y consciente, que lo
convertiría en una receta, hermosa, complicada y útil, pero al fin y al cabo una
secuencia de pasos bien definidos a seguir, los investigadores intuyen este
procedimiento con base en una tradición racional, participando en una o más de
estas etapas, omitiendo algunas, ocasionalmente agregando otras y ligados
indisolublemente, conscientemente o no, a su entorno social. Lo que sí podemos
extraer son algunos de los elementos que parecen siempre estar presentes en una
u otra forma en el quehacer científico y en especial en la física; este problema,
ciertamente abierto, es materia de la teoría del conocimiento, la epistemología,y
ha sido objeto de estudio y reflexión de filósofos e investigadores.

Un primer aspecto es la concepción filosófica que el observador tiene de la


naturaleza y del conocimiento que sobre ésta puede adquirir; aquella puede ser
explícita o tácita. En este mismo nivel hay una serie de principios filosóficos y de
reglas lógicas que el investigador establece, usa y que, normalmente, van
implícitas en su trabajo. Así, su contribución diaria puede sobreentender un
materialismo que da por hecho la existencia de un mundo objetivo independiente
de él, una convicción total en el principio de causalidad que justifica buscar el
origen de un efecto, o el uso irrestricto de la lógica clásica, que sin temor al abuso
se omiten al discutir de política.

En la parte que toca a las observaciones mismas, empezamos por elaborar un


modelo a priori (antes de empezar) sobre el fenómeno al separarlo en partes, el
sistema y sus alrededores, y asociarle una regularidad que nos asegure que al
repetirse el fenómeno podremos observar y medir lo mismo. Si un resultado no se
puede reproducir, por lo general pierde el interés científico, convirtiéndose en un
hecho fortuito, objeto de un análisis de otra especie. El llevar a cabo un
experimento que "remede en todo" al anterior, tantas veces como sea necesario,
es algo que sólo puede lograrse en un laboratorio.

Así, con base en el ingenio, la minuciosidad sistemática, la intuición y la


experiencia, como en cada etapa en la dilucidación del fenómeno, se escogen las
cantidades relevantes. Acto seguido se determina la forma de medirlas, las
posibles fuentes de error y se procede a su cuantificación, estableciendo la
consistencia interna y la estadística de los datos obtenidos.

El análisis siguiente consiste en asociar un símbolo a cada cantidad y precisar las


posibles relaciones entre éstos, es decir, la forma en que unos dependen de otros.
Este proceso lleva a la elaboración de expresiones (fórmulas) que vinculan a los
símbolos entre sí, sintetizando grandes cantidades de datos. Las reglas para
asociar números a símbolos y para manipular y combinar estos últimos constituye
el lenguaje que llamamos matemáticas.

En realidad, las matemáticas son una disciplina teórica que va más allá de un
lenguaje o una herramienta, aunque vistas como tales permiten, en manos
educadas y hábiles, forjar una imagen abstracta, extremadamente útil y
especialmente bella del universo concreto que percibimos. Una virtud de las
imágenes así logradas es su capacidad de hablar, a quien las sabe oír, sobre lo
que es posible y lo que es probable. ¡Cómo hubiesen aprovechado algo semejante
las sacerdotisas del oráculo de Delfos! No siendo de origen divino las predicciones
así logradas, como nunca lo fueron las pregonadas por las pitias en Delfos,
siempre son sujetas de verificación, a través de más experimentos. Basta con uno
de éstos que no corresponda a lo esperado o predicho, para que sea necesario
modificar parte de las premisas usadas en la elaboración de la predicción,
repitiéndose entonces el proceso. Ha sucedido, por fortuna muy de vez en
cuando, que las modificaciones necesarias han ido al mismo fondo de los
principios filosóficos.

La física funciona más o menos como lo hemos esbozado. Al construir una teoría
se parte de algunos conceptos primitivos que se dejan sin definir o se apela a la
intuición para introducirlos, como la masa, el espacio y el tiempo. Después, se
definen cuidadosamente cantidades compuestas, como la densidad, la velocidad y
la presión, y acto seguido se postulan ciertas proposiciones (basadas en
experimentos), los axiomas o leyes fundamentales, como verdaderas y
universales. Su inmensa virtud es que, ante la duda, basta con llevar a cabo un
experimento para constatar su validez. A partir de los axiomas se deducen
entonces una serie de proposiciones o teoremas que, posteriormente, llegan a ser
consecuencias no triviales y lejanas de aquellos postulados originales. En muchos
casos los teoremas son formulados como conjeturas basadas en la intuición o
como resultado de un experimento. El reto en estas circunstancias es encontrar el
procedimiento para deducirlo a partir de los axiomas: encontrar
la explicación completa del fenómeno a partir de las leyes fundamentales de la
teoría.

El estudio de los fluidos, como parte de la física, ha seguido un camino semejante


lleno de obstáculos salvados, de anécdotas pintorescas, de errores patéticos, de
experimentos notables y de teorías ingenuas. Cada faceta del proceso desempeñó
una parte importante para alcanzar el nivel que ahora tiene. En la dinámica de
fluidos la dificultad más grande ha radicado en la demostración de
los teoremas; una enorme cantidad de resultados experimentales y de fórmulas
empíricas esperan ser deducidos de los principios básicos de la teoría. Esto
permitiría generalizarlos, arrojando luz sobre otros resultados experimentales
aparentemente ajenos e igualmente incomprendidos. No hay ninguna rama de la
física que pueda considerarse cerrada y todas son objeto de investigación activa;
los fluidos no son una excepción. El problema de la turbulencia, que se menciona
más adelante, es uno de los grandes retos de la física teórica.

Para construir un aparato teórico que nos permita entender y explicar el


movimiento de los fluidos y de los objetos inmersos en ellos, lo cual observamos
todos los días, es necesario introducir tres elementos como punto de partida. El
primero es el de los conceptos primitivos de masa, espacio y tiempo, el segundo
es el constituido por las cantidades (variables) que usamos para caracterizar y
describir a un fluido cualquiera y el tercer elemento es el marco de referencia
adecuado para determinar estas variables.

En cuanto a los conceptos básicos las definiciones tal vez dejarán que desear y
seguramente el lector podría encontrar otras más adecuadas, pero por ahora no
hacen falta. La masa es la cantidad de fluido que medimos con una balanza. El
espacio es el escenario que usamos para localizar o ubicar al fluido o a una parte
de éste. Imaginamos que existe un punto especial, que llamamos origen, y desde
él medimos longitudes con una regla. El tiempo será un parámetro que nos
permita ordenar estados diferentes del fluido de acuerdo con su aparición en el
experimento; este ordenamiento lo establecemos en relación con el Sol o con un
reloj. Si no hay cambios, o estados distintos, el parámetro tiempo desaparecerá
de la descripción. Si el fluido presenta comportamiento electromagnético, a los
elementos básicos debe agregarse la carga.

El segundo punto es más complicado y tiene que ver con cuántas y cuáles
cantidades es necesario disponer para contar con una descripción completa y
exhaustiva de un fluido. Esta cuestión, que no está del todo libre de controversia,
especialmente cuando se trata de fluidos un tanto exóticos, ha ido resolviéndose a
lo largo del tiempo con base en la experiencia. Al quedar enunciadas las leyes en
su forma actual se estableció cuántas y cuáles variables, que
llamaremos variables dependientes, son las mínimas para caracterizar el estado
dinámico de un fluido. Al espacio y al tiempo se les llama variables
independientes. Antes de especificar qué variables dependientes se usan para
describir a un fluido consideremos ahora el punto que se refiere al marco en el
que éstas se definen. Para esto vamos a usar una analogía con la astronomía.

Al observar el cielo en una noche clara, con la ayuda de un telescopio, además de


la reverencia que infunde su extensión, profundidad y belleza, aparece la duda por
saber en qué dirección fijar el instrumento. Si lo que queremos es llevar a cabo
una observación sistemática podríamos escoger entre dos posibilidades: una,
enfocar un objeto celeste y seguirlo en su trayectoria. Una vez determinada ésta,
repetir el proceso con un segundo objeto y así sucesivamente hasta tener una
muestra representativa del movimiento de los objetos más brillantes o más azules
o lo que sea; la segunda posibilidad consiste en dejar fijo el telescopio, como una
ventana al firmamento, y observar los objetos que cruzan el campo visual,
determinando su brillo, color, velocidad o belleza. Posteriormente, cambiar la
dirección del telescopio e iniciar de nuevo el proceso y, como en el caso anterior,
obtener un muestreo de los objetos celestes y de su comportamiento.

Al primer procedimiento se le conoce como descripción lagrangiana, en memoria


de Louis Lagrange, uno de los grandes genios de su tiempo, quien dio a la
mecánica de Newton una estructura matemática que lo menos que puede decirse
es que su elegante belleza iguala su generalidad. La segunda opción es
la descripción euleriana, llamada así en honor a Leonhard Euler, el más prolífico
matemático en su época, quien formuló la primera teoría de los fluidos; parte de
ella se mantiene en su forma original hasta la fecha.
Estas dos descripciones son usadas en física indistintamente, dependiendo de las
circunstancias. Como herramienta conceptual, sin embargo, la formulación
euleriana conduce a lo que se llama una teoría de campo, esquema que se emplea
en la mayoría de las teorías modernas de la física.

Partir de una descripción lagrangiana supone identificar a una partícula de fluido,


considerada como un pequeñísimo volumen, y aplicarle las leyes de la mecánica.
Si bien es difícil establecer esta identificación en la práctica, conceptualmente es
mucho más atractiva la idea de aplicar los principios de la física a un pedazo de
materia que se mueve, manteniendo su identidad como sistema, que aplicarlos a
un punto por el que van pasando distintas partes del fluido. En los textos
modernos que tratan de este tema se hace precisamente esto; se empieza con
una descripción lagrangiana y, una vez introducidos los principios e hipótesis
físicas necesarias, se traduce al lenguaje euleriano, usando el diccionario
(matemático) apropiado que toda lengua merece.

La formulación euleriana, en la que vamos observando diferentes puntos del


espacio y estudiamos lo que ahí sucede al transcurrir el tiempo, da lugar a una
teoría de campos. La siguiente idea ilustra el contenido de la frase anterior. En
cada punto se hallan definidos ciertos atributos físicos del fluido, digamos
densidad y velocidad. De un sitio a otro las propiedades cambian de valor, como
en la imagen de un paisaje varían las tonalidades de azul o de verde. Además,
con el paso del tiempo las propiedades van cambiando, al igual que sucede en los
cambios de las estaciones, cuando una planta nace, crece, florece y muere. Las
causas para que cada uno de los cambios se dé pueden ser diversas y lejanas; las
apreciamos al estudiar no un sólo punto sino muchos, todos, si es posible.

Finalmente, para concluir con los preparativos que nos permitan entrar en el
tema, vamos a introducir las variables dependientes, los campos, que nos facilitan
la descripción de diversos procesos y la discusión de los principios subyacentes.
Dividimos en dos clases a estas variables, los campos escalares y los
campos vectoriales.

Los campos escalares son relativamente sencillos y los conocemos por la práctica
que adquirimos al habitar nuestro planeta. Su especificación en cada punto está
dada por un número de acuerdo con una escala universalmente aceptada. Una
gráfica o una tabla de datos correspondientes cada uno a puntos distintos, nos da
toda la información espacial del campo. Si éste cambia con el tiempo se necesita
una tabla para cada tiempo. Los campos escalares usuales son la densidad, la
temperatura y la presión, que representamos por , T y p, respectivamente.

La densidad nos da una medida relativa entre masa y volumen, es decir, entre la
cantidad de materia y el espacio que ocupa, y es una propiedad más o menos
familiar. El oro es más denso que el merengue y éste más denso que el aire,
todos lo intuimos.

Es importante hacer notar que la densidad es una propiedad intensiva; es decir,


no depende de la cantidad. Por ejemplo, las densidades de un anillo y de un
lingote, los dos de plata, son iguales, como lo es su color. Definida como el
cociente de la masa, que medimos con una balanza, y el volumen, que medimos
con... ingenio, la densidad es una propiedad que no depende de la forma del
material, pero sí de la temperatura y la presión (no definidas aún, pero cuyo
significado sospechamos). Sus dimensiones son, obviamente, las del cociente
masa/volumen. Las unidades correspondientes son, por ejemplo, toneladas/litro,
kilogramo/galón, miligramo/kilómetro cúbico, etc. La convención usual es el
gramo/centímetro cúbico, gr/cm³ (recordemos que 1 litro = 1 000 cm³ ). La tabla
siguiente ilustra los valores de la densidad para algunos objetos.

Material Densidad (gr/cm3)

Hoyo negro ~ 1018

Núcleo atómico ~ 1014

Centro del Sol ~ 160 000

Otro sólido 19.3

Centro de la Tierra ~ 12

Agua 1

Hidrógeno líquido 0.07

Aire ambiente 0.0012

Aire a 300 km de altura ~ 10-14

~ aproximadamante

La temperatura, otra noción familiar, es un concepto primitivo que no podemos


construir en términos de masa, espacio y tiempo en una teoría macroscópica,
pero que está asociado a la idea intuitiva del grado de calentamiento de un
cuerpo. Aquí nos contentaremos (indignando quizá a más de uno) con definirla
como la propiedad que medimos por medio de un termómetro, instrumento que
todos conocemos en alguna versión y que hemos usado alguna vez, posiblemente
para evitar ir a la escuela. La escala tiene por unidades a los grados Kelvin (º K) y
se conoce como la escala absoluta de temperatura; cada º K es equivalente a un
º C. De manera que la escala Celsius, que se usa para asignar temperaturas al
consomé de pollo o a un niño resfriado, marca las mismas diferencias de
temperatura que la escala absoluta, con la peculiaridad de que la mínima
temperatura que es posible alcanzar en la naturaleza es de 0º K (= -273.15º C).
En el capítulo VI regresaremos a esta singular ley de la naturaleza.

El otro campo escalar que usaremos es la presión y, como se dijo en la sección II.
1, está definida como la fuerza normal que actúa sobre un área dada. Si la misma
fuerza normal actúa sobre dos áreas distintas, la presión es menor sobre el área
mayor. Como ilustración imaginemos un objeto cuyo peso es suficiente como para
que al ponerlo encima de un huevo éste se aplaste sin remedio. Siempre podemos
poner suficientes huevos como para que el peso se reparta entre todos, de modo
que la fuerza que recibe cada uno no exceda su "factor de aplastamiento". Al
distribuirse la fuerza sobre un área mayor, la presión es menor. (figura II.4.)

Figura II. 4. Presión: fuerza repartida en un área.

Por eso los cuchillos cortan, los picahielos pican y las palas palean con la eficiencia
que lo hacen; ni se diga si además el usuario sabe emplearlos.

Las dimensiones de presión son de fuerza/área y las unidades de uso más común
son el pascal (Pa), las atmósferas (atm) y los milímetros de mercurio (mm-Hg); la
equivalencia entre éstas es: 1 atm = 760 mmHg = 101,352 Pa. La presión de una
atmósfera es igual al peso que una columna de mercurio de 76 cm de altura
ejerce sobre un cm², al nivel del mar. Es la misma que ejerce toda la columna de
aire arriba de nuestra cabeza. Esto lo demostró Evangelista Torricelli, discípulo
predilecto y último de Galileo, usando el sencillo y convincente dispositivo que
aparece en la figura II. 5.
Figura II. 5. Tubo de Torricelli para determinar la presión atmosférica.

Un efecto semejante se observa con el agua, excepto que la columna es ¡de más
de 10 m de altura!; por eso es más sensato usar mercurio, pues siendo metal se
mantiene líquido a temperatura ambiente. Curiosamente, fue René Descartes,
filósofo y matemático del siglo XVII, quien sugirió a Blaise Pascal el experimento
para determinar la forma en que cambia la presión atmosférica con la altura. El
joven genio construyó entonces un barómetro, como el de la figura II. 5, pero usó
vino tinto en lugar del mercurio, ¡en una columna de 14 metros! Debió ser una
experiencia memorable...

En el caso de los campos vectoriales las cosas son un poco más complicadas e
interesantes, como las personas. Los vectores requieren para su especificación de
algo más que un número: reclaman dirección. La velocidad es un ejemplo
característico, ya que no es suficiente dar un número, su magnitud, como 20
km/h; hace falta agregar la información que establece en forma unívoca
la dirección en la que se mueve el objeto en cuestión. En cada punto y a cada
tiempo es preciso dar tres datos, como por ejemplo la magnitud (el tamaño de a
flecha que representa al vector) y dos ángulos.

Convencionalmente se usan los ángulos  y , definidos geométricamente como se


ilustra en la figura II. 6. En ésta, las líneas (ejes) x, y, z son mutuamente
perpendiculares y al sistema de coordenadas así definido se le
llama cartesiano, en honor a Descartes, a pesar de no haber sido quien lo definió
por primera vez.
Figura II. 6. Sistema de ejes cartesianos.

Cada vector es entonces representado por una tema de números que nos da, en
el punto e instante correspondientes, la magnitud y orientación locales del campo.
Una representación frecuente de un campo vectorial es a través de sus línea de
campo, que para el caso de la velocidad en un fluido se llaman líneas de
corriente o de flujo. En cada punto de éstas el vector velocidad (cada flecha) es
tangente. En donde las líneas de corriente tienden a juntarse la velocidad es
mayor que en aquellas donde parecen separarse. Si consideramos flujos en dos
dimensiones, como el flujo de una película delgada encima de una superficie, sólo
necesitamos dos cantidades, la magnitud y el ángulo con respecto a una
dirección; esta última la escogemos con base en algún capricho o conveniencia.
En la figura II. 7 se ilustran estas curvas.

Figura II. 7. Flujo uniforme y lento alrededor de un cilindro circular. Nótese que es (casi)
imposible distinguir la dirección del flujo.

La velocidad, instantánea y local, la definimos como el cociente de la distancia


recorrida y el intervalo de tiempo que le toma recorrerla. La velocidad así definida
puede cambiar de un punto a otro, o en un mismo punto con el paso del tiempo.
Los intervalos de tiempo que corresponderían a esta definición los supondremos
tan pequeños como sea posible medirlos en un experimento. En la práctica, lo que
se acostumbra hacer es suspender en el fluido partículas reflectoras de luz
(hojuelas de aluminio) que al ser iluminadas son captadas por una cámara; la
exposición debe ser tan breve como para que las trazas dejadas en la película
sean segmentos rectos. El tiempo de exposición es el intervalo de tiempo y la
longitud de la traza es la distancia recorrida. La hipótesis implícita es que las
partículas suspendidas en el fluido se mueven con éste sin alterar el flujo, de
modo que las fotografías nos revelan las líneas de corriente y las velocidades
(Figura II. 8).

Figura II. 8. Visualización, por medio de trazadores, de flujo alrededor de un cilindro


circular. La velocidad del flujo es mayor que en la figura II. 7.

La fotografía muestra el flujo alrededor de un cilindro, como en la figura anterior;


la diferencia estriba en que en este caso la velocidad con la que llega el fluido (de
derecha a izquierda) es mucho mayor.

Esta técnica de visualización, introducida a principios de siglo, es hoy en día un


elaborado arreglo experimental en el que intervienen todos los adelantos
tecnológicos en óptica, electrónica, computación y diseño mecánico. El procesado
numérico de imágenes y datos, logrados a partir del análisis de luz láser,
dispersada por esferas de poliestireno de una micra de diámetro suspendidas en
el fluido, nos permite estudiar minuciosamente flujos que hace unas décadas no
se imaginaban, en particular los flujos turbulentos, caóticos y complejos, que
discutiremos en el capítulo V.
V I . S U P E R F L U I D O S

EN LA naturaleza hay 92 átomos diferentes y más de una docena de átomos que


han sido creados artificialmente por el hombre (y la mujer). Estos elementos son
los ladrillos básicos que componen a la extraordinaria variedad de objetos que
forman el Universo. Sin excepción, todo está construido con este relativamente
pequeño conjunto de "dados para armar". Las ratas de drenaje, las estrellas, los
diamantes y las verrugas, la Luna, las flores silvestres, los elefantes y la ruinas
incas, todos están compuestos por grupos de átomos que se combinan en
complejas proporciones. Después de todo, Demócrito, hace casi 7000 años, tenía
una idea bastante cercana a la que ahora tenemos. sólo le faltaba la evidencia
empírica para sustentar sus extraordinarias especulaciones.

Aun sabiendo que todos los colores son combinaciones de sólo tres ingredientes
primarios, el rojo, el azul y el amarillo, no deja de sorprender la gama cromática
que percibimos. ¡Qué espectáculo disfrutaríamos si contásemos con noventa
colores primarios! Así, la pasmosa riqueza en la diversidad de objetos y
comportamientos contrasta con la sobria sencillez de sus pequeñísimos
componentes.

El más ligero de los elementos naturales es el hidrógeno y el más pesado el


uranio, criterio usado para ordenarlos por número en la Tabla Periódica. Después
del hidrógeno sigue el helio, que es un poco más complicado en estructura y es el
más estable e inerte de todos los elementos, lo que sugeriría un comportamiento
poco interesante. Pero, como veremos más adelante, es notablemente
extravagante.

Todos los elementos están formados por tres tipos de partículas


distintas: electrones (con carga eléctrica negativa), protones (con carga eléctrica
positiva) y neutrones (sin carga); los protones y los neutrones son más de mil
veces más pesados que los electrones. La diferencia entre un elemento y otro es
sólo la cantidad de electrones que tienen, que siempre es igual a la de los
protones, lo cual asegura la neutralidad eléctrica de los átomos. Los
llamados isótopos son variedades de un mismo elemento que difieren en el
número de neutrones que, junto a los protones, se encuentran en el núcleo.

El hidrógeno es la sencilla unión de un electrón con un protón, mientras el uranio


U238tiene 92 electrones en movimiento alrededor de un núcleo con 238 partículas,
entre protones y neutrones. Hinchado así, no es sorprendente que
frecuentemente arroje cosas (partículas-, que son núcleos de helio, por ejemplo)
y se transforme con el paso del tiempo en otro elemento, como el plomo (Pb206);
ésta es la radiactividad.

Hay dos isótopos del helio en la naturaleza llamados 4He y 3He (helio cuatro y
helio tres). Ambos tienen dos electrones y la diferencia está en el número de
componentes del núcleo; además de los dos protones, el helio cuatro tiene dos
neutrones y el tres tiene sólo uno, por lo que el 3He es más ligero. Por ser el más
abundante en la naturaleza y por ser el protagonista principal de lo que sigue nos
referiremos al 4He como helio.

Como paréntesis aclaratorio (que puede contribuir a la confusión), es conveniente


mencionar que en realidad hay algunas "cosas" adicionales aparte de los átomos.
La luz, por ejemplo, nada tiene que ver con los átomos; está hecha
de fotones. Además, hay otros entes exóticos que pululan el Cosmos, como
los neutrinos, los muones, los cuarks,los positrones y antipartículas varias.

¿Qué son en realidad los átomos, los electrones, los neutrinos y demás objetos
microscópicos? La teoría correspondiente, que llamamos genéricamente mecánica
cuántica, y cuyo idioma natural es el de las matemáticas, nos dice claramente qué
son y qué hacen. Permite hacer predicciones notables sobre los eventos más
probables, los valores esperados para velocidades, masas, energías, fuerzas,
vidas y milagros de estas peculiares criaturas.

La falta de un diccionario adecuado para traducir los conceptos cuánticos al


lenguaje que recibimos con la leche después de nacer, complica las cosas cuando
discuten los físicos entre sí y las hace casi incomprensibles cuando éstos hacen
aclaraciones a los demás. La respuesta no es sencilla y es preciso hacer juegos
malabares intelectuales para explicarlos con un lenguaje poco apropiado para ello.
¿Son partículas pequeñas, como canicas de dimensiones invisibles, o son ondas,
como las que vemos siempre en la superficie del mar? Partícula, onda, canica y
mar, son palabras que inventamos para referirnos a objetos que todos conocemos
y percibimos a través de los sentidos. Nuestro lenguaje cotidiano tiene esta
virtud. Si algo es difícil de describir, lo presentamos para ser visto, olido, oído,
sentido y saboreado, cuando es sensato o necesario hacerlo. El problema se inicia
cuando tratamos de describir o explicar algo que no se ha visto directamente o se
comporta esencialmente diferente a todo lo que estamos acostumbrados a
percibir.

Bajo ciertas condiciones, la evidencia experimental, siempre indirecta, sugiere que


el objeto se porta como un balín indestructible y entonces decimos que es
una partícula. En otras circunstancias se comporta como la onda superficial en un
estanque y decimos que es una onda. Recordando lo que dijimos primero y
pretendiendo acabar con la aparente confusión, empleamos el término onda-
partícula, sin ser ni lo uno ni lo otro y siendo ambos a la vez. Así son estas
minúsculas entidades.

Su comportamiento muestra que los conceptos de onda y de partícula, cada uno,


son insuficientes para describirlos y que son sólo analogías para poder expresar
algo en un lenguaje apto para describir lo que sucede en muchos, muchísimos
átomos. Las matemáticas no tienen esta limitación.

Lo curioso es que a fuerza de hablar, experimentar y pensar en ellas, la


familiaridad hace creer que se entienden fácilmente y que cualquiera puede
apreciar sus peculiaridades cuando se intenta describirlas. Se habla de
propiedades que poseen como el espín, el color, el encanto y la extrañeza, por
citar algunos. Los nombres, salvo el primero, son poco afortunados pues se
refieren a atributos que conocemos pero que nada tienen que ver con lo que
representan en el caso de estos entes cuánticos; el primero, para quienes no
usamos el inglés todo el tiempo, tiene la ventaja de ser una nueva palabra para
representar algo igualmente novedoso. De haber llamado a estas propiedades la
grisca, el cotro o la ruspela, sin el prejuicio de un contenido dado, se estaría más
preparado a asimilar un concepto ajeno a la experiencia cotidiana.

Otro elemento totalmente novedoso que forma parte esencial de la mecánica


cuántica es la relación que hay entre el objeto bajo estudio y el observador. A
diferencia de lo que sucede al estudiar otro tipo de sistemas, no tan pequeños, en
los que el objeto de estudio tiene un comportamiento independiente del
observador, los sistemas cuánticos sufren las acciones del investigador y
modifican su comportamiento detallado en forma impredecible.

Al estudiar un electrón, por ejemplo, es inevitable afectarlo en forma incontrolada.


Para estudiar su movimiento hay que "iluminarlo" para "tomarle una película" y
determinar gracias a ella su velocidad. Sin embargo, cuando intentamos iluminar
al electrón, este se desvía al chocar con el primer fotón (la onda-partícula que
constituye la luz), impidiéndonos saber qué velocidad llevaba; al llegar la luz,
mostrándonos en qué sitio se encontraba, desaparece la posibilidad se saber a
dónde iba. Es decir, posiciones y velocidades son cantidades incompatibles. La
precisión en la determinación de una es a costa de la otra. Este tipo de efectos
trae como consecuencia la existencia de límites naturales ineludibles en la
precisión con la que es posible determinar ciertas cantidades, simultáneamente.
Estas limitaciones tienen el carácter de leyes fundamentales y forman parte de los
postulados básicos de la mecánica cuántica. Se conocen como las relaciones de
incertidumbre de Heisenberg.

VI. 1. EL HELIO Y EL FRÍO

El helio fue descubierto como uno de los componentes de la atmósfera solar, de


donde viene su nombre (del griego helios, Sol), en la segunda mitad del
siglo XIX por P. Janssen y J. N. Lockyer, independientemente. Casi veinte años
más tarde se encontró en la Tierra disuelto en minerales y un poco después en
mezclas de gases naturales; al separarlo siempre se obtenía helio en su fase
gaseosa.

El primer derivado de las reacciones nucleares que ocurren en el interior de las


estrellas es el helio. Las enormes presiones que existen en el interior de las
estrellas dan como resultado que se fusionen los átomos de hidrógeno, formando
helio, liberándose así enormes cantidades de energía. El hidrógeno es el
"combustible" más usado por las estrellas para iluminar el cielo (de noche
solamente, claro). Agotado el hidrógeno se siguen con el helio, formando átomos
cada vez más pesados, que a la larga se combinan para formar moléculas y éstas,
agrupadas en cúmulos, forman partículas que a la larga se autorganizan y mugen
en medio de verdes pastizales.

Decir que somos polvo de estrellas, además de una frase poética saturada de
meloso romanticismo, es una afirmación científica literal.
Descubrir cada elemento, para después caracterizarlo y conocer sus propiedades
más distintivas, fue un proceso arduo y tedioso que tomó muchos siglos. Tras de
lograr purificar una cantidad razonable de cada uno se procedía, entre otras
cosas, a determinar las condiciones bajo las cuales el elemento se encontraba en
las fases sólida, líquida o gaseosa. Se aprendió que bajando la temperatura de un
gas se convertía en líquido y que enfriándolo más el líquido se solidificaba. Así
empezó el desarrollo de la tecnología de bajas temperaturas.

Contar con un sibil (sitio fresco o frío para guardar comida o pieles), ciertamente
era común desde tiempo inmemorial, por lo que sorprende que no fuera sino
hasta el siglo XVIII cuando se desarrollaran los primeros procesos para enfriar
artificialmente. De hecho, la primera máquina para producir hielo se construyó
hasta 1755 por William Cullen. Sin embargo, fue el interés por licuar a todos los
gases el que motivó el desarrollo de métodos para producir temperaturas cada
vez más bajas.

Para reducir la temperatura de un gas se utilizan dos hechos sencillos. Uno es el


conocido efecto de que al poner en contacto dos cuerpos a diferente temperatura,
alcanzan una temperatura intermedia, enfriándose el más caliente y calentándose
el más frío. El otro hecho consiste en que si un gas se expande rápidamente,
disminuye su presión y baja su temperatura. La combinación alternada en forma
ingeniosa de estos hechos y la adecuada selección de gases produce la receta
para enfriar lo que sea y tanto como se desee (casi).

Recordemos que la temperatura más baja que es posible alcanzar en el Universo


es la de cero grados Kelvin (0ºK) o el cero absoluto. En la escala práctica de
temperatura, de grados centígrados o Celsius (ºC), que es la que se usa para
calentar el horno, decidir si es necesario un suéter o si el catarro se convirtió en
gripe, el límite natural inferior corresponde a -273.15ºC. Para pasar una
temperatura en grados Celsius a la escala absoluta de grados Kelvin basta con
restarle 273.15.

Es bueno mencionar que, de acuerdo con una de las leyes de la física (la llamada
tercera ley de la termodinámica), NO es posible alcanzar la temperatura de 0ºK
en un proceso que comprenda un número finito de pasos. En otras palabras (más
tontas desde luego), habría que vivir un tiempo infinito para manipular una
sustancia y enfriarla hasta el cero absoluto. (Véase García- Colín, L. S.)

La licuefacción de gases se inicia propiamente en el siglo XIX. Uno de los genios


experimentales de todos los tiempos, el científico inglés Michael Faraday (1791-
1867), entre muchas de sus investigaciones logró licuar por primera vez varios
gases hacia finales de 1822. A pesar de haber logrado temperaturas tan bajas
como 110º C bajo cero y del éxito que obtuvo en la condensación del amoniaco, el
cloro y el bióxido de carbono, no pudo hacer lo mismo con el hidrógeno, el
oxígeno y el nitrógeno. Junto con el monóxido de carbono, éstos fueron llamados
los gases permanentes, ante los múltiples intentos infructuosos por licuarlos.

Con técnicas cada vez más refinadas, el último cuarto del siglo XIX vio por fin la
licuefacción de los reacios gases comunes que constituyen nuestra atmósfera.
Entre 1883 y 1885, en Cracovia, Polonia, S. V. Wroblewski y K. S. Olzewski
lograron finalmente licuar oxígeno, nitrógeno y monóxido de carbono. El 10 de
mayo de 1898, en Londres, Inglaterra, J. Dewar licuó el hidrógeno. El
siglo XIX terminaba y ya se habían alcanzado temperaturas de 15ºK (casi 260ºC
bajo cero) y la licuefacción de todos los gases, excepto el helio.

Al iniciarse el siglo XX, el helio se empezaba a obtener en cantidades apenas


suficientes para ser estudiado en laboratorios muy especializados. A las
temperaturas más bajas que entonces se podían producir (8ºK), el helio sólo
podía mantenerse en forma de gas, lo que había generado una verdadera carrera
internacional para poder lograr su licuefacción. Varios grupos de científicos de
mucho prestigio trabajaron intensamente para lograr este objetivo. Finalmente, el
10 de julio de 1908, Heike Kamerlingh-Onnes (1853-1926) logró enfriar helio
hasta licuarlo, en Leyden, Holanda. La temperatura que requirió alcanzar fue
menor que 4ºK (-269ºC), y se encontró que la temperatura de ebullición del helio
es de 4.2ºK. Con esa fecha podría darse la fe de bautismo a la criogenia (del
griego kryos, frío y gennao, engendrar, generar frío), el estudio de las bajas
temperaturas. Kamerlingh-Onnes fue honrado con el premio Nobel, en 1913, por
haber producido temperaturas tan bajas y por los consecuentes descubrimientos
sobre el comportamiento de la materia en estas condiciones.

Durante las siguientes décadas, hasta principios de 1940, se logró ir bajando aún
más la temperatura hasta llegar a unas décimas por abajo de 1ºK, en el intento
por solidificar el helio líquido. En este proceso se descubrieron una serie de
hechos y de fenómenos sin paralelo en la naturaleza, que se creían exclusivos,
hasta mediados de 1986, de los sistemas fríos (los verdaderamente fríos).

Tres años después de haber licuado el hio, Kamerlingh-Onnes descubrió el


fenómeno de la superconductividad. Estudiando cómo disminuía la resistencia
eléctrica de algunos materiales al disminuir la temperatura, lo cual era bien
sabido, se sorprendió al encontrar que el mercurio puro perdía su resistencia por
completo y en forma abrupta al pasar a una temperatura inferior a los 4.12ºK
(véase Magaña, F.). Se había encontrado la primera manifestación macroscópica
del comportamiento cuántico de la materia.

Sin entrar en los detalles de este descubrimiento y de sus valiosas consecuencias,


baste decir que para 1940 se conocían 17 elementos puros y casi una centena de
compuestos que presentaban este comportamiento; todos con temperaturas
inferiores a los 10ºK y en estado sólido. La explicación del fenómeno, que por
muchos años resistió los esfuerzos de los físicos teóricos más notables del siglo,
fue dada hasta 1957 por John Bardeen (1908-1991), J. Robert Schrieffer (1931-)
y Leon Cooper (1930-). Por esta teoría, conocida como BCS, recibieron el premio
Nobel de Física en 1972. Para Bardeen fue el segundo premio Nobel; el primero lo
compartió con William Shockley (1910-) y Walter Houser Brattain (1902-) en
1956, por sus trabajos sobre semiconductores y el descubrimiento del transistor.

A partir de 1986, cuando J. Georg Bednorz y K. Alex Müller descubrieron


superconductores con temperaturas mucho más altas que las usuales, en los
laboratorios de IBM en Suiza, se inició una etapa de investigación que produjo
más de 20 000 publicaciones en cinco años. Tomando en cuenta que, de
superconductores con temperaturas inferiores a los 20º K, se habían descubierto
unos con temperaturas cercanas a los 90º K, las posibilidades tecnológicas y
económicas presagiaban un inusitado interés. Lo que no se esperaba era la
explosión bibliográfica de dudosa calidad, que parece (y es) absurda, en vista de
los escasos resultados realmente novedosos o valiosos que se han obtenido desde
entonces. La fiebre inicial afortunadamente bajó, sin que hubiese subido la
temperatura de los superconductores calientes y sin que se tenga un buen indicio
de la teoría correcta, aunque cada vez hay más investigadores dedicados al tema
de lo que la sensatez sugiere. Claro que, después de todo, hay un premio Nobel
en juego.

En resumen, no se sabe cómo producir superconductores con temperaturas


mayores a los 125º K, el máximo registrado y confirmado a finales de 1991, y no
parece haber indicios de una teoría que los explique.

Todo parece indicar que la teoría BCS y sus más directas extensiones no son
aplicables a estos complicados compuestos. Parte del problema es que la
desproporcionada cantidad de papel dedicada a presentar resultados sobre estos
materiales incluye un gran número de trabajos, teóricos y experimentales,
contradictorios. Es posible, si bien es poco probable, que los elementos básicos de
la nueva teoría se encuentren sepultados en algún vehículo de información
científica, como el "Acta de erudición de Macondo". Habría que revisar parte de las
publicaciones existentes y leer u oír críticamente las supuestamente ingeniosas
teorías que se pregonan casi todos los meses explicando el fenómeno. Ya dirá el
siglo XXI.

Por lo pronto, el siglo que acaba vio al ser humano producir las más bajas
temperaturas del Universo. En los primeros instantes de la Gran Explosión que dio
origen al Universo, hace más de quince mil millones de años, las temperaturas
fueron tan altas que son difícilmente imaginables y tal vez nunca puedan ser
alcanzadas ni con los más grandes aceleradores de partículas. Sin embargo, el
extraordinario proceso de enfriamiento que se inició con ese violento amanecer,
no ha logrado producir temperaturas más bajas que los 3º K que constituyen la
llamada radiación de fondo, vestigio arqueológico del nacimiento cósmico.

VI. 2. UN FLUIDO IDEAL QUE SÍ EXISTE

Como sucede con los materiales superconductores, el helio presenta un


comportamiento insólito cuando su temperatura es suficientemente baja, es decir,
cuando se encuentra en la fase líquida. Otra vez, la naturaleza nos muestra su
extraña cara cuántica. La superfluidez, como ahora se le llama al fenómeno que
en forma exclusiva presenta el helio líquido, en cualquiera de sus variedades, fue
descubierta 30 años después de la superconductividad y explicada 20 años antes.

Una vez licuado el helio, la siguiente meta fue solidificarlo, cosa que nunca se
pudo lograr a presión atmosférica. En la década de los veinte se construyó la
curva de coexistencia líquido-sólido. Esto quiere decir que se encontraron los
valores de la presión y la temperatura a los que el helio líquido se solidifica. A
presiones altas se logró licuar y solidificar al gusto del investigador. Por ejemplo,
en 1930, se determinó que el helio gaseoso se solidifica a una temperatura de 42º
K si la presión es de 5 800 atmósferas, y que si ésta es menor de 25 atmósferas
el helio jamás pasa a la fase sólida, aun a cero absoluto (sí se pudiese alcanzar);
esto es lo que se llama un resultado asintótico o límite.

Con diversos colaboradores, W. H. Keesom continuó la tradición holandesa de


Kammerlingh-Onnes, en Leyden, trabajando a presión atmosférica con helio
líquido y encontró que al seguir bajando la temperatura y llegar a 2.3º K, aparecía
una nueva fase líquida del helio. Así, el gélido líquido que se producía del gas a
4.2º K fue rebautizado como helio I y a la nueva fase se le llamó helio II; a la
temperatura en que ocurría la transformación (temperatura de transición) se le
conoce ahora como el punto  (lambda).

Posteriormente, en el punto  se fueron descubriendo cambios bruscos en una


serie de propiedades como la viscosidad, la tensión superficial, la velocidad del
sonido y la conductividad térmica. Esta última es la habilidad o eficiencia que
tiene un material de conducir el calor; las maderas y los plásticos tienen baja
conductividad térmica, mientras que en los metales esta conductividad es alta.
Todo parecía indicar que el helio II era el sistema más eficiente en la naturaleza
para conducir el calor y que un fenómeno análogo a la superconductividad hacía
su debut.

El helio, además de ser el único fluido que permanece como tal en el cero
absoluto, hace trucos igualmente únicos cuando se encuentra con el disfraz de
helio II.

Se había observado que el helio II burbujeaba como cualquier otro líquido cuando
se encuentra en ebullición. Al llegar al punto  el efecto desaparecía y quedaba
una superficie en total reposo; había que agitar el sistema para convencerse de
que aún se encontraba ahí. Al descubrir que era capaz de conducir el calor 200
veces más rápido que el cobre se pudo explicar el hecho anterior: la eficiencia de
la conducción es tal que lleva el calor de las paredes a la superficie del líquido sin
necesidad de aspavientos, como el burbujeo que los otros líquidos requieren,
incluido el helio I. La dificultad era que no había forma de entender cómo podía
conducir tan rápido; daba al traste con las ideas comunes y corrientes. Estas se
salvaron a costa de ideas aún más exóticas.

El 7 de diciembre de 1940, la Revista de Física de la URSS recibió un artículo de


Pyotr L. Kapitza (1894-1984), investigador y director del Instituto de Problemas
Físicos de Moscú, en el que se presentaban los resultados de una meticulosa serie
de experimentos en los que se exhibían fenómenos nuevos y se reinterpretaban
otros conocidos, desde una perspectiva no considerada hasta ese momento. Tres
años antes, Kapitza había presentado la sugerencia de que más que un notable
cambio en la conductividad térmica, se trataba de una radical e inesperada caída
en la viscosidad del fluido. Su famoso trabajo, publicado en 1941, introducía las
ideas de superfluidez.

Para demostrar que no era una extraordinaria conductividad térmica la que


adquiría el helio II, y que era la aparición de corrientes lo que hacía eficiente el
proceso, tuvo que demostrar que se trataba de un superfluido y así lo llamó.
Para medir la viscosidad, que es la oposición que presentan los fluidos a moverse
(por fricción interna), es común utilizar tubos capilares angostos y medir el flujo
resultante. Al no ser aplicables los métodos tradicionales, Kapitza tuvo que
diseñar un sistema como el que se muestra en la figura VI.1. El helio, para pasar
al recipiente externo, debe fluir hacia abajo y pasar entre dos placas de vidrio
muy pulidas y separadas entre sí una distancia menor a una micra (¡una
millonésima de metro!). Mientras que el flujo era casi imperceptible a
temperaturas por arriba del punto , por abajo de éste el helio II pasaba a gran
velocidad, igualándose rápidamente los niveles.

Figura VI. 1. Helio II y flujo en capilares.

La conclusión del experimento fue que el helio II tenía una viscosidad menor que
¡una diezmilésima de la que tiene el hidrógeno gaseoso! Kapitza sugirió que no
tenía viscosidad alguna, y que reflejaba un comportamiento igual al de un fluido
ideal, "aunque usted no lo crea". Como veremos en la siguiente sección, la teoría
de Landau permitió elaborar una explicación a éste y otros hechos raros.

Otra de las pintorescas manifestaciones de la superfluidez es la habilidad de


escabullirse a través de una película que se arrastra por las paredes. La figura
VI.2 ilustra el curioso fenómeno. Se había observado que si se ponía helio II en un
recipiente con un pared divisora, con el paso del tiempo y en forma espontánea se
igualaban los niveles de cada lado. En la Universidad de Oxford, Londres, John G.
Daunt y Kurt Mendelssohn demostraron experimentalmente que se formaba una
película ultradelgada (de 200 milmillonésimas de metro) por la que el helio II fluía
libremente con velocidades cercanas a los 50 cm/s. En la figura VI.2(c) el helio II
llega a vaciar el recipiente de arriba. Aunque otros fluidos que mojan el material
del recipiente que los contiene también crean estas películas, como el agua en un
recipiente de vidrio muy limpio, el movimiento que ocurre es mucho más lento y
pronto se detiene por la viscosidad.
Figura VI. 2. Flujo de Helio en las películas delgadas (a y b) El helio II se las ingenia para
igualar los niveles; (c) vaciado espontáneo de un recipiente.

Paradójicamente, en experimentos independientes realizados para determinar la


viscosidad del helio II, se encontró que al introducir un pequeño cilindro dentro
del líquido y haciéndolo rotar, se registraba una (débil) fuerza de fricción que se
oponía a la rotación. Cada uno de los experimentos, con capilares y cilindros
rotantes, fue repetido con los mismos resultados. A veces sí y a veces no, según
la forma de medirla, el helio II tenía viscosidad. Esta aparente contradicción
también fue explicada por la teoría correspondiente.

El efecto fuente es uno de los espectáculos circenses más sorprendentes que nos
proporciona el helio II, si bien téoricamente no es tan interesante y el mismo
Kapitza lo diseñó sólo para apoyar la imagen de superfluido que iba desarrollando.
Si se ponen dos recipientes con helio II conectados por un capilar muy delgado,
los niveles se igualan (esto, desde luego, lo hacen hasta los ponches navideños).
Sin embargo, si se varía la temperatura (o la presión) de uno de los lados, se
produce un flujo por el capilar que da lugar a un cambio en la presión (o la
temperatura) del otro lado, por lo que también se le llama
efecto termomecánico. Para demostrar que un flujo de calor llevaba aparejado un
movimiento rápido del fluido, Kapitza hizo algo semejante a lo que se presenta en
la figura VI. 3. iluminando la parte inferior del tubo que contiene helio II,
comunicándole calor de esta manera, ¡se produce un chorro permanente!
Figura VI. 3. Efecto fuente en el helio II.

La perplejidad de Kapitza debe haber ido en aumento con cada portentoso truco
que observaba. También buscando demostrar que el eficiente transporte de calor
era el resultado de la superfluidez del helio II, llevó a cabo el siguiente
experimento. En la salida de un recipiente con helio II, que conectaba con otro
igual, puso una pequeña propela o rehilete con el propósito de detectar la salida
de fluido. Al iluminar una de las caras del recipiente (pintada de negro para que
absorbiera calor) para subir su temperatura, las aspas empezaron a dar vueltas y
el helio II salió hacia el recipiente más frío. Con esto confirmaba, fuera de toda
duda, que el flujo de calor incluía cierto tipo de movimiento del helio II. Lo que sí
no esperaba es que, aun cuando salía helio II del recipiente, el nivel permaneciera
igual, ¡manteniéndose lleno!

Los experimentos de Kapitza, así como la reinterpretación que dio a los que
hicieron sus antecesores, demostraron la existencia del fenómeno de la
superfluidez. Pero, ¿cómo ocurría?, ¿qué la producía?, ¿cuál era el mecanismo?
¿Cómo podría explicarse la de un fluido sin viscosidad que en ocasiones parece
tenerla y que al salir de un frasco lo mantiene lleno?

La respuesta la dio Lev D. Landau en 1941, de quien hablamos en el capítulo


anterior, recibiendo el premio Nobel por ello en 1962. Antes de que pasara un año
de la publicación de los resultados experimentales sobre la superfluidez, el
brillante colega de Kapitza elaboró una teoría cuántica, comprensible sólo por los
especialistas, que además predecía varios efectos posteriormente, confirmados.
Sin embargo, como varias preguntas quedaron sin respuesta, la teoría de Landau
fue modificándose y extendiéndose para abordar y explicar los problemas
pendientes, hasta alcanzar la forma casi completa que ahora posee y que a su vez
ha sido confirmada por muchos experimentos.
Antes de traducir la teoría básica de Landau al lenguaje común, que será más
bien una especie de alegoría, por lo raro que es el mundo microscópico, haremos
una breve digresión.

Es difícil resistir la tentación de comentar sobre la adjudicación de los premios


Nobel. A Landau se le dio más de veinte años después de su contribución
principal, aunque lo merecía de todas formas por sus brillantes y diversas
contribuciones en casi todas las ramas de la física. A Kapitza hasta 1978 se le
otorgó este premio, mientras que lo recibieron otros que hicieron menos. Sus
trabajos, involuntariamente realizados en la URSS, hubiesen sido mucho más
reconocidos si hubiera permanecido en Inglaterra. Muchos científicos destacados,
tanto como los que sí recibieron el Nobel, nunca fueron premiados.

Siendo el honor más reconocido internacionalmente, la componente geopolítica


siempre ha estado presente, por lo cual se han hecho graves omisiones o
asignaciones desproporcionadas. Aun cuando los premios Nobel de la Paz son los
más controvertidos (pues incluso se han otorgado a promotores de la guerra), los
premios Nobel de Física y otras actividades científicas se han dado a
investigadores que, si bien han hecho trabajos notables, lo recibieron por razones
ajenas a los criterios básicos que uno supone determinarían la asignación. La
nacionalidad del candidato, la situación política del momento y el hecho de si está
o no a la moda el tema de trabajo parecen desempeñar un papel poco afortunado
aunque importante. En física, todos los honrados por el codiciado galardón lo han
merecido (en ocasiones hasta han sido los mejores).

VI. 3. MEZCLAS CUÁNTICAS

El elemento que llamamos helio, como ya vimos, viene en dos presentaciones


isotópicas, el helio tres y el helio cuatro. A su vez, cuando este último se
encuentra en la fase líquida recibe el nombre de helio I, si su temperatura está
por encima del punto , y helio II cuando está por debajo. Ahí no acaba la cosa.

De acuerdo con la teoría de Landau, el helio II está formado por una mezcla de
dos fluidos, conocidos como la componente normal y la componente superfluida.
En el punto todo el helio II es normal y conforme va disminuyendo la
temperatura empieza a crearse la componente superfluida hasta que, a cero
grados Kelvin, todo el helio II es superfluido. En cierto sentido, la parte normal es
la que tiene temperatura y la superfluida siempre esta en el cero absoluto. De
esta manera, si compramos unos litros de helio y los enfriamos a 1º K, tendremos
un líquido en el que una pequeña parte es helio tres y la parte restante es helio
cuatro, el que a su vez, hallándose en su forma de helio II, tiene una parte normal
a 1º K y una superfluida a 0º K (ésta es la parte fácil).

No hay que perder de vista que en realidad se trata de un solo fluido hecho de los
mismos átomos y que la imagen de una mezcla es una analogía para interpretar
"hechos consumados". Lo que sucede es que, al igual que la gente, los átomos
van cambiando su comportamiento conforme baja la temperatura. A nadie le
llama la atención que al poner agua en un congelador se convierta en hielo, aun
sabiendo que está constituido por las mismas moléculas de agua (H2O); de algún
modo, lo que sucede es que sólo se han organizado de otra manera.
Según la teoría, el helio II presenta dos tipos de movimientos simultáneos e
independientes, el del superfluido y el del normal. Mientras que para caracterizar
un flujo común y corriente basta con determinar la velocidad en cada punto, para
este pintoresco líquido hay que hallar dos velocidades en cada punto, la de cada
componente de la mezcla. Se advirtió que sería un tanto raro y ahora es claro que
no es nada intuitivo (excepto por el hecho de que las personas raras son frías).

Las diferencias más notables entre las componentes de la mezcla son las
siguientes. La componente superfluida no tiene viscosidad, se mueve sin problema
alguno por cualquier rendija (capilar o capa delgada), y no transporta calor. Es el
fluido ideal con el que soñaron los físicos y desearían utilizar los ingenieros. Por su
lado, la componente normal es la que tiene todos los defectos, empezando por ser
real. Se mueve sobre —¿dentro?— un fondo ideal absolutamente helado que no lo
afecta y transporta calor en forma muy eficiente.

Con estas ideas en mente, es posible poner en claro algunos de los experimentos
descritos anteriormente. Empecemos con el último, donde un rehilete indicaba la
salida de fluido sin que bajara el nivel del recipiente. La razón por la que la
pequeña propela gira, indicando un flujo de salida del recipiente, es que la
componente normal es la que transporta calor al recipiente más frío. Al salir
ejerce una fuerza sobre las aspas como resultado de su viscosidad. A cambio, la
componente superfluida se mueve en la dirección contraria, sin oposición alguna y
sin ejercer fuerza sobre la propela, manteniendo el nivel del recipieite a la misma
altura. No habiendo un flujo neto de helio II, al compensarse exactamente los
movimientos opuestos de las componentes normal y superfluida, el nivel
permanece fijo.

En el caso presentado en la figura VI. 1, es la componente superfluida la que se


escapa tranquilamente por el minúsculo capilar, mientras la componente normal
sale muy lentamente y a duras penas. La viscosidad medida por este
procedimiento es la del superfluido, que es cero. En el caso del cilindro rotante, es
la componente normal la que entra en acción y la que manifiesta su viscosidad,
que desde luego no es cero. Con esto la teoría de Landau lograba explicar
cualitativa y cuantitativamente las observaciones que de otra manera parecían
paradójicas o contradictonas.

La explicación de las peculiares películas delgadas por las que escapa de


recipientes el helio II y la del efecto termomecánico (fuente), ilustradas en las
figuras VI. 2 y VI. 3, son ahora más fácil de entender.

En las delgadas capas que forma el helio II, como cualquier fluido que moja el
recipiente que lo contiene, es la componente superfluida la que puede moverse
libremente y a gran velocidad; la componente normal, mucho más lenta, también
se escabulle, lubricada por su envidiable compañera. De esta manera sale hasta
vaciar el lugar que ocupaba o igualar el nivel exterior.

En el caso del efecto termomecánico la comprensión del fenómeno está basada en


el hecho de que la componente superfluida no transporta calor y se mantiene a
una temperatura cero. Se tienen dos recipientes con helio II a la misma
temperatura y conectados por un capilar. Al aplicar una presión a uno de los
lados, es la componente superfluida la que se mueve rápidamente hacia el otro
lado. Al salir el fluido más frío genera una baja en la temperatura del recipiente en
el que entra. En mediciones directas se comprobó que el fluido saliente estaba
más frío que el que se quedaba. Sin el modelo de los dos fluidos sería inexplicable
que un fluido salga más frío que el del recipiente de donde se saca. El proceso
complementario, en el que una diferencia de temperaturas genera una diferencia
de presiones, manifestado teatralmente por el efecto fuente, tiene la misma
explicación.

Es inevitable confesar que hay muchos fenómenos relacionados con la


superfluidez que no hemos mencionado. Sólo para entreabrir un poco más la
puerta de este fascinante mundo de los fluidos cuánticos, traeremos a cuento
algunos hechos adicionales.

Bajo condiciones especiales hacen su aparición pequeños vórtices que se


acomodan en hexágonos o se entrelazan como madejas irrecuperables de
estambre. Estos remolinos, que siguen sus propias leyes cuánticas, tienen
dimensiones atómicas y formas de girar que vagamente recuerdan a un tornado.
Su demostrada existencia, predicha por Lars Onsager a finales de los cuarenta y
desarrollada posteriormente por Richard P. Feynman, permitió explicar múltiples
observaciones hechas en superfluidos. Entre otras, la respuesta que tienen
cuando son forzados a rotar, el comportamiento de partículas cargadas (iones)
que se organizan alrededor de vórtices arreglados en hexágonos, etcétera.

En calidad de misterio final de un tema vasto, que sigue siendo objeto de


profundas investigaciones, mencionaremos a las cuasipartículas que viven en los
superfluidos, los fonones y los rotones, y la propagación de cuatro diferentes
sonidos. En el agua y en el aire (afortunadamente) se propaga el sonido con una
velocidad característica. En el helio II también se propaga el sonido y el segundo
sonido y el tercer sonido y el cuarto sonido (es reconfortante no tener que platicar
en un medio superfluido).

Así, para sorpresa de casi todos los investigadores, al menos por un rato, en 1972
se descubrió otro superfluido, el helio tres. Aun cuando nos podría parecer que se
trataba casi de la misma cosa, resulta que las teorías existentes (Landau y
continuadores) no podían aplicarse directamente. Con un nuevo fluido cuántico y
las posibilidades de mezclarlo con el otro, el estudio de estas peculiares y únicas
formas de materia se convirtió en uno de los temas centrales de investigación en
la física de bajas temperaturas, salvo por la referida fiebre de los
superconductores calientes.

El helio tres es más raro en la naturaleza y juntar una cantidad razonable cuesta
mucho más trabajo y, desde luego, dinero. Como era de esperarse, licuarlo iba a
ser posible sólo a bajas temperaturas y su comportamiento estaría descrito por
las leyes cuánticas; después de todo es hermano mellizo del helio cuatro, pero no
gemelo. Sus características individuales lo hacen interesante para quien estudia
asuntos tan disímbolos como las estrellas de neutrones o la superconductividad.
Véamos brevemente la razón.
Las partículas elementales (como los cuarks), las un tanto menos primarias (como
el neutrón), los átomos, las moléculas y demás entes que constituyen lo que es,
están divididos por la mecánica cuántica en dos grandes grupos
fundamentalmente distintos, los fermiones y los bosones. Los nombres honran a
dos notables físicos del siglo XX, Enrico Fermi (1901-1954) y Satyendra Nath Bose
(1894-1974), quienes de manera independiente resolvieron problemas en los que
esta diferencia era esencial.

Se mencionó que una de las características cuánticas que etiquetan a las


partículas es el espín. En nuestro pintoresco lenguaje de palanganas y tornillos, el
espín puede imaginarse como un particular modo de giro que se mide en
múltiplos de la unidad fundamental de momento angular o giro: (hache barra).
Esta cantidad es una de las constantes físicas universales, la constante de Planck
(h) dividida por 2, y su presencia es la firma de los sucesos cuánticos. La
existencia de fue predicha por Max Planck (1858-1947) en sus revolucionarios
estudios sobre la radiación del calor, que a la postre dieran génesis a toda la
teoría cuántica.

Los fermiones, entre los que se encuentran los constituyentes del átomo
(electrones, protones y neutrones), tienen espín semientero y los bosones, como,
los fotones y los piones, lo tienen entero. Por ejemplo, el electrón es fermion por
tener espín 1/2 (y momento angular /2), mientras que el fotón es un bosón al
tener espín 1 (con momento angular ). Cuando se combinan varias partículas
para formar un objeto más complicado, basta con sumar los espines de cada
componente para saber si tiene carácter bosónico o fermiónico. En el caso que
nos ocupa, el 3He está formado por dos protones, dos electrones y un neutrón, lo
que trae como consecuencia que sea un fermión; el 4He es un bosón debido al
neutrón adicional que tiene.

De acuerdo con una de las leyes cuánticas, llamada el principio de exclusión de


Pauli, los fermiones se acomodan (donde sea que lo hagan) de manera que no
hay dos en el mismo estado, mientras que los bosones pueden amontonarse en el
mismo lugar sin restricción alguna. La consecuencia es que los comportamientos
son muy distintos, especialmente a muy bajas temperaturas. La temperatura de
transición superfluida para el 3He es 1 000 veces menor que la del 4He. A esta
temperatura, con los átomos casi quietos, se pone de manifiesto una ligera
atracción que produce el apareamiento de parejas de átomos, como si orbitaran
uno alrededor del otro. Estas parejas, llamadas pares de Cooper, son bosones que
resultan de la combinación de dos fermiones. Ya como bosones, la situación
cambia y como en el caso del 4He las cosas pueden superfluir.

Curiosamente, al pasar por la temperatura de transición superfluida, aparecen dos


tipos de superfluido, el 3He-A y el 3He-B. Estos nuevos fluidos tienen la inesperada
característica de tener textura, lo cual no adorna al otro superfluido conocido, el
helio II. La razón para que aparezca esta singular característica es que los pares
de Cooper pueden ser alineados por la presencia de agentes externos, como
campos magnéticos o superficies, en forma parecida a los cristales líquidos.
Sin entrar en detalles de lo que es un cristal líquido, casi todos hemos visto las
gracias que hacen estos materiales; en los relojes y demás aparatos electrónicos
modernos, que tienen lo que se llama carátula digital, hemos visto cómo aparecen
y desaparecen zonas oscuras. Ahí hay un cristal líquido y lo que ocurre es que al
hacer pasar una pequeña corriente a través de ellos se calientan, pasan por una
transición y se orientan cambiando de color y textura. Algo análogo pasa con las
variedades A y B de 3He superfluido. Los vórtices que aparecen en estos medios
son verdaderamente extravagantes, más que los del 4He, y son los responsables
(casi siempre) de la textura que tienen.

Las teorías existentes sugieren la posibilidad de mezclas de estos helios


superfluidos de hasta tres componentes y los comportamientos serían igualmente
ajenos a toda intuición. Las temperaturas para lograr estas combinaciones de
fluidos raros, cercanas a la milmillonésima parte de un grado Kelvin, son por
ahora inalcanzables, aunque los "criogenicistas" van acercándose.

Como siempre sucede, hay más por decir y hacer que lo dicho y hecho. Este vago
y extraño mundo que hemos esbozado de los superfluidos es más para sugerir un
panorama que para describir un paisaje. Ciertamente hay otros comportamientos
igualmente interesantes que se han descubierto (con sus correspondientes
explicaciones teóricas) además de los que aquí hemos tratado. También, lo que es
igualmente importante, sigue completamente abierta la puerta para hacer,
descubrir y explicar.

La pasión por buscar caminos nuevos en las artes y las ciencias es insaciable, sus
fuentes son inagotables.
TRANSFERENCIA DE CALOR

Las leyes de la Termodinámica tratan de la transferencia de energía


pero solo se refieren a sistemas que están en equilibrio. Por ello,
permiten determinar la cantidad de energía requerida para cambiar un
sistema de un estado de equilibrio a otro pero no sirven para predecir
la rapidez con que puedan producirse estos cambios. La transferencia
de calor complementa la primera y la segunda ley, proporcionando los
métodos de análisis que pueden utilizarse para predecir esta velocidad
de transmisión. Ejemplo:

Calentamiento de una barra de acero colocada en agua caliente:

Con la Termodinámica se predicen las temperaturas finales una vez


los dos sistemas hayan alcanzado el equilibrio y la cantidad de
energía transferida entre los dos estados de equilibrio inicial y final.
Con la Transferencia de Calor se puede predecir la velocidad de
transferencia térmica del agua a la barra así como la temperatura del
agua en función del tiempo.
La Transferencia de Calor puede ser por conducción, convección y
radiación.

TRANSFERENCIA DE CALOR POR CONDUCCIÓN

Cuando en un medio sólido existe un gradiente de temperatura,


el calor se transmite de la región de mayor temperatura a la de menor
temperatura. El calor transmitido por conducción por unidad de tiempo
qk es proporcional al gradiente de temperatura dT/dx multiplicado por
el área A a través del cual se transfiere es decir
T: temperatura ; x: dirección del flujo de calor

El flujo de calor depende de la conductividad térmica k que es la


propiedad física del medio [W/m K], luego se tiene

Convenios del signo

Fig. 4.13 Representación del convenio del signo

CONDUCCIÓN A TRAVÉS DE UNA PARED PLANA


El calor fluye en dirección perpendicular a la superficie. Si la
conductividad térmica es uniforme, la integración de la ecuación queda
como

Fig. 4.14 Sección transversal de una pared plana

CONDUCCIÓN A TRAVÉS DE PAREDES PLANAS EN SERIE

En estado estacionario el flujo de calor a través de todas las


secciones debe ser el mismo. Sin embargo, los gradientes son
distintos
Fig. 4.15 Conducción unidimensional a través de paredes planas en
serie

A partir de la ecuación 4.4 se tienen las siguientes relaciones

sustituyendo 4.5 y 4.6 en 4.4


luego el flujo de calor será

Para un conjunto de n paredes en perfecto contacto térmico, el flujo


de calor es

ANALOGÍA ELÉCTRICA DE LA CONDUCCIÓN

Utiliza los conceptos desarrollados en la teoría de los circuitos


eléctricos y con frecuencia se llama analogía entre el flujo de calor y la
electricidad. La combinación L/kA equivale a una resistencia y la
diferencia de temperatura es análoga a una diferencia de potencial. La
ecuación puede escribirse en una forma semejante a la ley de Ohm de
la teoría de los circuitos eléctricos
en donde

El recíproco de la resistencia térmica se denomina conductancia


térmica

Para tres secciones en serie


MATERIALES DISPUESTOS EN PARALELO

El análisis del circuito supone que el flujo es unidimensional

Fig. 4.16 Analogía eléctrica para paredes en paralelo


Fig. 4.17 Resistencia equivalente

RESISTENCIA DE CONTACTO
Cuando superficies conductoras distintas se sitúan en contacto,
aparece generalmente una resistencia térmica en la interfase de los
sólidos. Esta resistencia, llamada resistencia de contacto, se
desarrolla cuando los dos materiales no se ajustan exactamente y por
ello entre ambos queda atrapada una delgada capa de fluido. A través
de los puntos de contacto del sólido, el calor se transmite por
conducción mientras que a través del fluido de la interfase el calor se
transmite por convección y radiación.

CONDUCTIVIDAD TÉRMICA

La conductividad térmica de un material varía con la temperatura.


Los gases tienen conductividad térmica mas baja que los líquidos. Los
metales como el cobre y el aluminio tienen conductividad térmica alta.

TRANSFERENCIA DE CALOR POR CONVECCIÓN

Cuando un fluido se pone en contacto con una superficie sólida a


una temperatura distinta, el proceso resultante de intercambio de
energía térmica se denomina transferencia de calor por convección.
Hay dos tipos de procesos de convección: convección libre o natural y
convección forzada.
En el primer caso la fuerza motriz procede de la diferencia de
densidad en el fluido que resulta del contacto con una superficie a
diferente temperatura y da lugar a fuerzas ascensionales. En el
segundo caso una fuerza motriz exterior mueve un fluido sobre una
superficie a una temperatura mayor o inferior que la del fluido. Para
una u otra forma de transferencia de calor por convección, la cantidad
de calor es
Donde

transferencia de calor por convección en la interfase líquido-sólido.


A área superficial en contacto con el fluido en m2
Ts Temperatura de la superficie , K
Tf, Temperatura del fluido no perturbado lejos de la superficie
transmisora del calor

El coeficiente de transferencia de calor por convección depende de la


densidad, viscosidad y velocidad del fluido, así como de sus
propiedades térmicas (conductividad térmica y calor específico). La
resistencia térmica en la transferencia de calor por convección viene
dada por
Fig. 4.18 Analogía eléctrica para la convección

TRANSFERENCIA DE CALOR POR RADIACION

Por radiación la energía se transporta en forma de ondas


electromagnéticas que se propagan a la velocidad de la luz. La
radiación electromagnética que se considera aquí es la radiación
térmica.
La cantidad de energía que abandona una superficie en forma de
calor radiante depende de la temperatura absoluta y de la naturaleza
de la superficie. Un radiador perfecto o cuerpo negro emite una
cantidad de energía radiante de su superficie por unidad de tiempo
qr dada por la ecuación

Para evaluar la transferencia neta de energía radiante requiere


una diferencia en la temperatura superficial de dos o mas cuerpos
entre los cuales tiene lugar el intercambio. Si un cuerpo negro
irradia a un recinto que lo rodea completamente y cuya superficie es
también negra (es decir absorbe toda la energía radiante que incide
sobre él, la transferencia neta de energía radiante por unidad de
tiempo viene dada por

T1: Temperatura del cuerpo negro en Kelvin


T2: Temperatura superficial del recinto en Kelvin

Si a una temperatura igual a la de un cuerpo negro emiten una


fracción constante de la emisión del cuerpo negro para cada longitud
de onda, se llaman cuerpos grises. Un cuerpo gris emite radiación
según la expresión
El calor radiante neto transferido por unidad de tiempo por un cuerpo
gris a la temperatura T1 a un cuerpo negro que le rodea a la
temperatura T2 es

donde  1 es la emitancia de la superficie gris, igual a la relación entre


la emisión de la superficie gris y la emisión de un radiador perfecto a la
misma temperatura.
Si ninguno de los dos cuerpos es un radiador perfecto, pero poseen
entre sí una determinada relación geométrica, el calor radiante neto
transferido entre ellos viene dado por

donde F1-2 es un módulo que modifica la ecuación de los radiadores


perfectos para tener en cuenta las emitancias y las geometrías
relativas de los cuerpos reales.

ECUACIÓN DE LA CONDUCCIÓN
1) Cantidad neta de calor que entra en el volumen de control por
conducción en la unidad de tiempo y por unidad de volumen.

2) Cantidad de energía generada en la unidad de tiempo y por unidad


de volumen en el interior del volumen de control.

3) Aumento de la energía interna en la unidad de tiempo en el interior


del volumen de control.

La ecuación se puede expresar como

donde  es la difusividad térmica y se expresa como

En coordenadas cilíndricas: T=T(r, ,z,t)

En coordenadas esféricas: T=T(r, , ,t)


FLUJO DE CALOR A TRAVÉS DE UN CILINDRO HUECO

Fig. 4.19 Calor por conducción en un cilindro hueco.

Consideraciones:

La distribución de temperaturas es función únicamente de r T=T( r )


k es constante
q,,,G es igual a cero
luego para las condiciones de frontera se tiene:

De la ecuación de conducción (4.27)

si se sustituyen las condiciones de frontera se obtienen dos


ecuaciones

resolviendo se consigue
Una vez conocida la distribución de temperaturas, con la ley de
Fourier en coordenadas cilíndricas, se determina la transferencia de
calor

El denominador de esta ecuación corresponde a la resistencia térmica

FLUJO DE CALOR A TRAVÉS DE UNA ESFERA HUECA

Se considera flujo estable en la dirección r y la ecuación 4.28


quedaría expresada como
Esta expresión se puede escribir como

Fig. 4.20. Calor por conducción en una esfera hueca

Consideraciones:

La distribución de temperaturas es función únicamente de r T=T( r )


k es constante
q,,,G es igual a cero
luego para las condiciones de frontera se tiene:
de la ecuación 4.34 se tiene que 1/r no puede ser cero, luego

integrando nuevamente la ecuación 4.36

resolviendo para las condiciones de frontera, se tiene la siguiente


expresión para la distribución de temperaturas

Una vez conocida la distribución de temperaturas con la ley de Fourier


se determina la transferencia de calor
COEFICENTE GLOBAL DE TRANSFERENCIA DE CALOR

Cuando en un problema de transferencia intervienen varias


resistencias térmicas en serie, en paralelo, o en combinación de
ambas formas, es conveniente definir un coeficiente de transferencia
de calor global o conductancia global.

TRANSFERENCIA DE CALOR POR CONVECCIÓN

La transferencia de calor por convección de un cuerpo


comprende el movimiento de un fluido (líquido o gas) en relación con
el cuerpo.

CONVECCIÓN NATURAL

Ocurre debido a diferencias de densidad en el fluido provocadas


por un cuerpo a una temperatura diferente que la del fluido que
intercambia calor con él. Estas diferencias de densidad provocan una
acción de bombeo del fluido con relación al cuerpo.

DETERMINACION DEL COEFICIENTE DE TRANSFERENCIA DE


CALOR POR COVECCIÓN NATURAL

La evaluación del coeficiente de transferencia de calor h es


bastante difícil puesto que por lo regular comprende fenómenos físicos
muy complejos. Usando las técnicas del análisis dimensional puede
demostrarse que los parámetros comprendidos en la transferencia de
calor por convección natural pueden expresarse según

donde

En esta ecuaciones las variables son

A,a,b : constantes dependientes del sistema en consideración

 : coeficiente de expansión

 : densidad

 : viscosidad

g: aceleración de la gravedad

D: diámetro

L: longitud
Cp : Calor específico a presión constante

La capa límite del fluido será laminar o turbulenta y esto a su vez


afectará las constantes de la ecuación 4.41. Para calcular el
coeficiente de transferencia de calor por convección natural, se usa:
(Tablas 1 , 2 , 3 ).

La tabla 1 se usa para determinar primero si el carácter del flujo es


laminar o turbulento. Los datos necesarios para tener acceso a esta
gráfica son  t y L (o D). Una vez determinado el carácter del flujo, se
utilizan las tablas 2 y 3 para calcular el coeficiente de transferencia de
calor por convección.

CONVECCIÓN FORZADA

El flujo de convección forzada puede ser laminar o turbulento,


interior o exterior a la tubería e involucrar cambios de fase tales como
cuando un fluido está calentándose. Solo se estudiará la situación en
la que se tenga un líquido o un gas que fluye en el interior de un tubo
en un flujo turbulento.

DETERMINACIÓN DEL COEFICIENTE DE TRANSFERENCIA DE


CALOR POR CONVECCIÓN FORZADA

Las tablas ( 4 , 5 ):
Dan la viscosidad del agua y el aire y se usan para verificar el número
de Reynolds y asegurar que el flujo es turbulento.
Las tablas ( 6 , 7 ):
Conducen al coeficiente de transferencia de calor básico h1 como
función del flujo en peso W/1000, donde W está en libras por hora.
La tabla ( 8 ):
Es un factor de corrección para la variación del diámetro interior desde
1 pulgada. El coeficiente de transferencia de calor buscado h es
entonces simplemente igual a F.h1

TRANSFERENCIA DE CALOR POR RADIACIÓN

La transmisión de calor por radiación se caracteriza porque la


energía se transporta en forma de ondas electromagnéticas, que se
propagan a la velocidad de la luz. El transporte de energía por
radiación puede verificarse entre superficies separadas por el vacío. El
sol por ejemplo, transmite energía a la Tierra enteramente por
radiación a través de millones de kilómetros de espacio vacío.
Un cuerpo negro se define como aquel que emite y absorbe la
máxima cantidad de energía a una temperatura determinada.
Los cuerpos reales reflejan radiación térmica en la misma forma
en que la absorben y la transmiten. Los metales muy pulidos son
buenos reflectores de la radiación térmica.

Reflectividad:  Es la fracción de calor incidente sobre el cuerpo que


se refleja.

Absortividad:  Es la fracción que se absorbe.

Transmisividad:  Es la fracción de energía incidente transmitida a


través del cuerpo.

Emisividad:  Es la efectividad del cuerpo como un radiador térmico a


una temperatura. Es la relación de la emisión de calor a una
temperatura dada a la emisión de calor desde un cuerpo negro a la
misma temperatura.

INTERCAMBIO NETO DE CALOR POR RADIACIÓN ENTRE DOS


CUERPOS A DIFERENTES TEMPERATURAS

Para calcular esta transferencia de calor se puede escribir

En las tablas: ( 9 , 10 , 11 , 12 , 13 )
se dan los valores requeridos de Fe y FA para lo cual es necesario
conocer la emisividad de las superficies que intervienen.

INTERCAMBIADORES DE CALOR

Los intercambiadores están diseñados para realizar una función


específica. Las plantas de generación a vapor usan condensadores,
economizadores, calentadores de agua de alimentación,
recalentadores, etc. En los intercambiadores la temperatura de uno o
ambos fluidos varía en forma continua a medida que los fluidos se
transportan a través del intercambiador de calor.
Para los intercambiadores de calor, la ley de Newton del
enfriamiento es

U : Coeficiente de transferencia de calor total


A : Superficie de transferencia de calor
 Tm : Diferencia de temperatura media
Fig. 4.21 Intercambiadores de calor
Como el coeficiente U no es constante para todas las partes del
intercambiador, conviene evaluarlo con base en la media aritmética de
las temperaturas de los fluidos. Por analogía con la convección, se
tiene 1/UA igual a la resistencia. La diferencia de temperatura media
logarítmica se expresa como
Fig. 4.22 Otros intercambiadores de calor

El problema de calcular la transferencia de calor en los


intercambiadores de calor, es que la temperatura de uno o ambos
fluidos varía en forma continua a medida que los fluidos se transportan
a través del intercambiador de calor. Esto puede observarse en la
Figura 4.23, en la que se han trazado en forma gráfica las
temperaturas del fluido como una función de la superficie de
transferencia de calor para los casos mas comunes de flujo paralelo,
contraflujo y para un fluido a temperatura constante. El subíndice h
denota fluido caliente y el subíndice c, fluido frío. El subíndice 1 denota
la temperatura a la entrada de un fluido al intercambiador de calor y 2
representa la temperatura del fluido a la salida del mismo. La dirección
de flujo de cada fluido a través del intercambiador se muestra
mediante flechas sobre las curvas de temperatura. La diferencia de
temperatura mas grande entre los fluidos en la unidad (tanto a la
entrada como a la salida) se designa como  A, y la diferencia de
temperatura menor entre los fluidos (tanto a la entrada como a la
salida) se designa como  B .

Fig. 4.23 Temperatura de los fluidos en diferentes intercambiadores de


calor

UNIDAD IV: INTERCAMBIADORES DE CALOR


Problemas.

1) Un condensador opera con vapor condensante en el lado de la


coraza a 27°C. El agua de enfriamiento entra a 5°C y sale a 10°C. Si
el coeficiente total de transferencia de calor es de 5000 W/m2°C con
base en la superficie del tubo exterior. Determine la transferencia de
calor por metro cuadrado de superficie de tubo exterior.
2) En un intercambiador tubular de calor tipo vapor-agua el vapor de
agua seco y saturado cuya presión es P = 3.5 x 105 Pa, se condensan
en la superficie exterior de los tubos. El agua, que circula por los tubos
se calienta desde 20°C hasta 90°C. Determinar:

a) La temperatura media logarítmica en este intercambiador de calor.


b) El gasto de vapor en el intercambiador vapor-agua si el gasto del
agua es 8 t/h. Suponer que no existe subenfriamiento del condensado.

You might also like