You are on page 1of 10

Relatividad Especial I

Eduardo Jose Ordonez Hurtado

1. Teora de Grupos

La tera de grupos es aquella encargada de estudiar las estructuras algebraicas llamadas


grupo. Un grupo, llamemoslo G, es un conjunto de elementos que satisface las siguientes cuatro
condiciones:

Prim. Operacion Interna. Existe una operacion, multiplicacion, la cual asocia un par de
elementos, T y T 0 , pertenecientes a G a otro elemento T 00 perteneciente a G, de tal manera que:
T T 0 = T 00 .

Seg. Ley de la Asociatividad. Para cualquier terna de elementos T ,T 0 y T 00 pertenecentes a


G, se cumple que: (T T 0 )T 00 = T (T 0 T 00 ) El producto de los dos primeros elementos por el tercero
es igual al producto del primer elemento por el producto de los dos ultimos.

Terc. Elemento Neutro. Existe un elemento E contenido en G, tal que: T E = ET = T

Cuar. Elemento Inverso. Para cada elemeto T existe un elemento T 1 el cual esta contenido
en G y cumple con: T T 1 = T 1 T = E

1.1. Grupo de Galileo

Para hacer una descripcion de este grupo debemos dirigirnos al ejemplo de dos observadores,
que se mueven con velocidad constante v el uno respecto del otro, estudiando un fenomeno que
tiene lugar en (x, y, z) y (x0 , y 0 , z 0 ) para S y S 0 respectivamente, en un tiempo dado. Teniendo
en cuenta el principio de relatividad galileano sabemos que las coordenadas de S y S 0 se pueden

1
relacionar mediante las ecuaciones:

x0 = x vt
y0 = y
z0 = z
t0 = t

asumiendo que la velocidad de despalzamiento esta orientada en el eje x. Este grupo de ecuaciones
se puede reescribir en una noacion matricial, de modo que:

0
t 1 0 0 0 t
x0 v 1 0 0 x
= (1.1)
y 0 0

0 1 0 y
z0 0 0 0 1 z

Este conjunto de transformaciones forman el llamado grupo de Lorentez, y vamos a comprobar


que las matrices con esta estructura cumplen las condiciones necesarias para denominarse grupo.

Primera condicion. Imaginemos otro marco de referencia S 00 con velocidad u respecto a S, de


tal manera que de una combinacion entre las matrices de transformacion S 0 y S 00 debera resultar
una mtriz que mantega la misma estructura.


1 0 0 0
v 1 0 0
Tv =
0

0 1 0
0 0 0 1


1 0 0 0
u 1 0 0
Tu =
0

0 1 0
0 0 0 1


1 0 0 0 1 0 0 0 1 0 0 0
v 1 0 0 u
1 0 0 (v + u)
1 0 0
Tv Lu =
0 =
0 1 0 0 0 1 0 0 0 1 0
0 0 0 1 0 0 0 1 0 0 0 1

La suma de velocidades, (u + v) dara como resultado otra velocidad, por lo tanto la matriz
resultante del producto de las matrices de transformacion es una matriz de forma galileana, e
modo que se cumple la primera condicion.

2
Ahora probemos la segunda condicion, suponiendo tres matrices, Tu , Tv y Tw , de transfor-
macion galeleana, tenemos que:


1 0 0 0 1 0 0 0 1 0 0 0
u 1 0 0 v 1 0 0 w 1 0 0
(Tu Tv )Tw =
0

0 1 0 0 0 1 0 0 0 1 0
0 0 0 1 0 0 0 1 0 0 0 1


1 0 0 0 1 0 0 0
(v + u) 1 0 0 w 1 0 0
(Tu Tv )Tw =
0 0 1 0 0 0 1 0
0 0 0 1 0 0 0 1


1 0 0 0
(v + u + w) 1 0 0
(Tu Tv )Tw =
0 0 1 0
0 0 0 1

Ahora, agrupamos de la forma,



1 0 0 0 1 0 0 0 1 0 0 0
w 1 0 0 v 1 0 0 w 1 0 0
Tu (Tv Tw ) =
0

0 1 0 0 0 1 0 0 0 1 0

0 0 0 1 0 0 0 1 0 0 0 1


1 0 0 0 1 0 0 0
w 1 0 0 (v + w) 1 0 0
Tu (Tv Tw ) =
0

0 1 0 0 0 1 0
0 0 0 1 0 0 0 1


1 0 0 0
(u + v + w) 1 0 0
Tu (Tv Tw ) =
0 0 1 0
0 0 0 1

1.2. Rotaciones en Tres Dimensiones

Para describir un vector en el espacio, eucldeo en este caso, es necesario tener un sistema
coordenado de referencia, donde, para representar dicho vector, es necesario asignarle una com-
ponente a cada una de las coordenadas del sistema. Ahora, este mismo vector puede ser descrito
por un nuevo grupo de componentes si se presenta un cambio en la base del sistema, de modo

3
que las componentes de un vector son base dependientes. Sin embargo, como ya se ha venido
estudiando, la aplicacion del producto punto a un par de vectores da como resultado un valor el
cual es invariante independientemente la base que los describa. Supongamos un par de sistemas
cuya base tenga la misma metrica , g = g0 , y recordando que la definicion del producto punto
por medio de esta metrica esta dada por:

V U = V i gij U j

la invarianza del resultado de esta operacioon nos permite realizar la afimacion,

V U = V i gij U j = V 0i gij U 0j (1.2)

y con ellos vemos que VU se relaciona de igual forma con las diferentes componentes del vector.

Esto nos da pie para establecre una relacion entre las coordenadas de diferentes base, para
ellos servira de apoyo implementar una matriz R la cual permita realizar las transformaciones:
U 0i = Rji U j , V 0i = Rji V j ; y de esta manera reescribir la ecuacion (2.1) como:

V i gij U j = V k Rki gij U l Rlj . (1.3)

Para que esta ecuacion sea valida debera cumplirse que:

gij = Rki gij Rlj (1.4)

o escrito en forma matricial,

g = RT g R. (1.5)

Ahora, por conveniencia, vamos a considerar que las bases utilizadas son ortonormales, es decir
gij = ij , con lo que la expresion (2.4) queda:

kl = Rki ij Rlj (1.6)

o en forma matricial,

RT 1 R = 1
RT R = 1 (1.7)

4
A las transformaciones que cumplan esta condicion se les llama ortogonales.

Si recordamos que el cuadrado de la distancia entre dos puntos es equivalente a tomar el


cuadrado de la norma del vector que los une, podemos resumir lo visto hasta este punto que esa
esa distancia va a permanecer invariante al aplicar una transformacion ortogonal. En el caso de
aplicar una transformacion de la forma: xi x0i = Rji xj xi0 , esta deja invariante la distancia
entre cualquier par de puntos sin importar las componentes que los describe, entonces, su parte
homogenea, descrita por la matriz R y definiendo la transformacion del vector posicion relativa,
es una invariante de la metrica. Por lo que, partiendo de la condicion g = , entonces R es una
matriz ortogonal. De modo que, si la distancia entre dos puntos d(A, B) permanece invariante
tras un cambio de base equivale a que la norma de cualquier vector va a ser inaviante como
funcion de sus componentes.

Un ejemplo sencillo de transformaciones ortogonales es una rotacion de un angulo alrededor


del eje x, donde las componentes, del sistema sin rotar y el sistema rotado un angulo , estan
relacionadas por medio de las expresiones:

V 01 = V 1 (1.8)
V 02 = cos V 2 + sin V 3 (1.9)
03 2 3
V = sin V + cos V (1.10)

siendo la relacion matricial de las componentes V0 = Rx V, llegamos a la conclusion de que:


1 0 0
Rx = 0 cos sin . (1.11)
0 sin cos

Por otro lado, hallamos el valor que puede tomar el determinante de una matriz ortogonal
partiendo de la condicion:

RT R = 1

de modo que se debe cumplir la igualdad:

det(RT R) = det(1) (1.12)


T
det(R )det(R) = 1 (1.13)

5
las propiedades del determinante de matrices nos dice que det(RT ) = det(R) por tanto tenemos:

det(R)2 = 1 (1.14)
det(R) = 1 (1.15)

De este modo, se pueden separar las transformaciones ortogonales de acuerdo a su determinante


en dos tipos, las que cumplen det(R) = 1 conocidas como rotaciones propias, y aquellas tales
que det(R) = 1 llamadas rotaciones impropias. La rotacion alrededor del eje x que acabamos
de ver es un ejemplo de rotacion propia, mientras una rotacion impropia tpica es una reflexion
pura, donde la transformacion cambia el signo de todos los ejes coordenados tal que:


1 0 0
Rimp = 0 1 0
0 0 1

R R
Ahora bien, si realizamos dos rotaciones consecutivas a un sistema S 1 S 0 2 S 00 podremos
relacionar los sistemas S y S 00 a traves de una nueva matriz R3 . Veamos esto de una forma mas
detallada, al aplicar la rotacion R1 a un vector cualquiera en S las nuevas componentes de este
estan dadas por:

V 0i = R1 V j (1.16)

enseguida se aplica la rotacion R2

V 00k = R2 V 0j (1.17)

y reemplazando (2.15) en (2.16) queda la epresion:

V 00k = R2 R1 V i (1.18)

en donde R3 = R2 R1 que no es mas que una rotacion lo cual se demuestra probando que cumple
(2.6)del siguiente modo:

R3T R3 = (R2 R1 )T (R2 R1 ) = R1T R2T R2 R1


R3T R3 = R1T (R2T R2 )R1 = R3T R3 = R1T R1

6
por lo tanto:

R3T R3 = 1

as queda demostrado que al aplicar dos rotaciones se tiene como resultado una nueva rotacion.

Debido a que el determinante de las matrices ortogonales nunca es cero podemos afirmar
la existencia de una matriz inversa de cualquier matriz de estas, la cual, debido a la definicion
(2.6), va a ser igual a su matriz transpuesta. Tomando la condicion (2.6), RT R = 1, y sacando
su inversa a ambos lados de la ecuacion tenemos:

(RT R)1 = R1 (RT )1


(RT R)1 = RT R = 1

demostrando as que la inversa de una rotacion es otra rotacion.

Con esto hemos demostrado que las transformaciones ortogonales cumplen una serie de
propiedades necesarias para ser consideradas un grupo,

(i) El producto de dos matrices ortogonales da como resultado una matriz ortogonal.

(ii) El elemento neutro esta reresentado por la matriz identidad.

(iii) Cualquier matriz ortogonal cuenta con su matriz inversa la cual es ortogonal.

(iv) La ley de asociatividad la cual la cumplen las matrices en general.

Este grupo de transformaciones ortogonales es llamado O(3), y a su vez tiene un subgrupo


conocido como SO(3) que posse a los elementos con determinante igual a uno, o en otras palabras,
es el grupo de rotaciones en el espacio euclideano tridimensional.

Debemos considerar ahora la transformacion mas general de los sitemas de coordenadas


cartesianas, la transfromacion afn, que actua sobre la base vectorial de modo que ui = Dji u0i ,
y sobre su origen por medio de una traslacion. Si tomamos a O y O0 como el origen de S y

S 0 , respectivamente, un punto P es descrito de forma vectorial como OP = xi ui en S, y como
0
O P = x0i u0i en S 0 . Ademas, el vector OO0 es el vector posicion relativa de O0 con respecto a O

7
visto desde S 0 , por lo tanto tenemos la relacion:

0 0
OP = O P OO

si miramos cada vector en funcion de sus componenes se tiene que:

x0i u0i = xi ui xi0 u0i

y al aplicar la tranformacion de bases ui = Dji u0i :

x0i u0i = xi Dji u0i xi0 u0i

que nos da como resultado:

x0i = Dji xi xi0

Este es el conjunto de transformaciones mas completo en sistemas euclideano ademas de ser


considerado un grupo. Un subgrupo de este contiene las transformaciones las cuales dejan inva-
riante el origen, de modo que x0i = Dji xi , donde Dji son las componentes de una matriz n n, es
llamado el grupo lineal general y se denota GL(n); y a su vez, el grupo de rotaciones SO(3) es
un subgrupo de este ultimo donde, como trabajamos en un espacio tridimensional, se especifica
que es una matriz 3 3. Sin embargo, es posible generalizar el rl grupo de rotaciones trabajando
en n dimensiones y se denota SO(n)

1.3. Algebra de Lie del grupo SO(3)

Teniendo en cuenta el grupo general de rotaciones en el espacio eucldeo de tres dimensiones,


SO(3), podemos considerar que una rotacion en este espacio puede ser parametrizada en tres
angulos los cuales definen la posicion relativa de dos sistemas cartesianos con respecto a sus tres
ejes. Estos angulos son denotados como:

R = R(1 )R(2 )R(3 ) = R(i )

donde cada angulo representa una rotacion alrededor de x, y y z, respectivamente. Una pro-
piedad principal que debe cumplir una matriz de la forma R es la de tener entradas que sean

8
funciones continuas de estos angulos. Ademas, la dependencia de los elementos del grupo sobre
los parametros i tambien es continua y estos deberan cumplir que:

R(i = 0) = 1.

Por otro lado, la rotacion resultante del producto de dos rotaciones es una funcion analtica de
estas, por tanto:
R(3 ) = R(1 ) R(2 )

donde 3 = 3 (1 , 2 ) es una funcion analtica. En general, un grupo de transformaciones conti-


nuas que satisface estas propiedades es llamado Grupo de Lie.

Ahora, consideremos una rotacion infinitesimal, en donde aplicamos un angulo i muy pe-
queno, de modo que podamos hacer una expansion en series de Taylor de la matriz rotacion
R(1 , 2 , 3 ) respecto a sus parametros, de modo que una aproximacion en primer orden es:

R i
R=1+ + O(2 ) (1.19)
i

R
donde la expresion i es denominada generadordif erencial de rotaciones y se representa como

Li , y la expansion queda de la forma:

R
R=1+ + O(2 ) w 1 + Li i + O(2 ) (1.20)
i

Tomemos como ejemplo una rotacion alrededor del eje X, descrita por Rx y apliquemos la
expansion de Taylor en primer orden,


1 0 0 1 0 0 0 0 0
Rx = 0 cos sin = 0 1 0 + 0 0 1 + O(2 ) (1.21)
0 sin cos 0 0 1 0 1 0

de aqu deducimos que el generador infinitesimal de rotacion L1 en el caso de una rotacion


alrededor del eje X es,


0 0 0
L1 = 0 0 1 (1.22)
0 1 0

9
Similarmente podemos hallar los generadores para las rotacion alrededor de los ejes Y y Z,


0 0 1
L2 = 0 0 0 (1.23)
1 0 0


0 1 0
L3 = 1 0 0 (1.24)
0 0 0

La matriz general de rotacion R(i ) puede ser escrita como una rotacion consecutiva alrededor
de los tres ejes,

R(i ) = R(1 )R(2 )R(3 )

si expresamos cada rotacion en terminos de su generador infinitesimal tenemos que,

R(i ) = 1 + L1 1 + L2 2 L3 3 (1.25)

lo que demuestra que el generador infinitesimal de una rotacion general esta dado por la combina-
cion lineal de las matrices Li . De este modo, la combinacion lineal de generadores infinitesimales
da como resultado un nuevo generador infinitesimal, con lo que estos generadores extienden un
espacio vectorial cuya base son definidas por las matrices Li .

Una manera mas compacta de escribir las tres matrices Li es,

(Li )jk = ijk

Podemos desarrollar un algebra partiendo del conmutador de las matrices Li , el cual viene dado
por,

[Li , Lj ] = Li Lj Lj Li = ijk Lk (1.26)

donde comunmente a ijk = Cij k .Een virtud de la linealidad de sus dos argumentos, el conmu-
tador de cualquier par de matrices en el espacio vectorial pertenece al mismo espacio vectorial.
As pues, podemos desarrolar una ley de composicion sobre el espacio vectorial de generadores
infinitesimales la cual permite el desarrollo de un algebra de Lie.

10

You might also like