Professional Documents
Culture Documents
Primavera 2014
Resumen
1 Teorı́a de la decisión
• x y ⇐⇒ x y ∧ y 6 x
• x ∼ y ⇐⇒ x y ∧ y x
De forma general, podemos definir una regla de decisión sobre un conjunto como sigue:
Definition 1.2 (Regla de decisión). Sea B el conjunto de las partes de X. Definimos una regla de
decisión sobre B como un aplicación
C:B→B
tal que ∀B ∈ B se tiene que C(B) ⊆ B.
Una regla de decisión puede ser definida también sujeto a unas preferencias.
Definition 1.3 (Regla de decisión, con preferencias). para todo subconjunto B ⊆ X se define la
regla de decisión sujeto a como
C(B, ) = {x ∈ B | x y ∀y ∈ B}
1
Luego la siguiente proposición nos da la respuesta a la pregunta anterior. Una regla de de-
cisión satisface el axioma de Houthaker (APRH) si y solo si existe una preferencias racionales que
racionalizan la regla de decisión.
Esto significa que lo único que impone la teorı́a de la decisión racional sobre las observaciones
empı́ricas es que satisfagan APRH.
Lemma 1.7. Si es representada mediante una función de utilidad entonces se tiene que:
1. es racional
Proposition 1.8. Sea racional en X finito, entonces puede ser representado por una función
de utilidad.
Un detalle importante de esta definición es que como esta definida solo sobre X, si x y
necesariamente x, y ∈ X lo que implica que si es continua, X es cerrado.
Theorem 1.10 (Debreu). Sea X ⊆ RL + cerrado y sea unas preferencias racionales sobre este
conjunto. Entonces:
continua =⇒ tiene representación mediante una función de utilidad continua.
Utilidad esperada
Una propiedad importante de P es que es convexo y compacto, luego cualquier combinación convexa
de loterı́as es en sı́ una loterı́a. En general supondremos unas preferencias racionales definidas
sobre P.
Lemma 2.1. Sea continua y p p0 p00 . Entonces ∃α ∈ [0, 1] tal que αp + (1 − α)p00 ∼ p0
2
Definition 2.2 (Axioma de independencia). sobre P satisface el axioma de independencia si
∀p, p0 , p00 ∈ P, ∀α ∈ [0, 1]
p p0 ⇐⇒ αp + (1 − α)p00 αp0 + (1 − α)p00
Una implicancia directa del axioma de independencia es que las curvas de indiferencias son
lineas rectas.
Definition 2.3 (Utilidad esperada). una relación de preferencias sobre P = ∆(X) tiene una
representación en utilidad esperada si existe una función U : P → R tal que
u(x)P(x)
X
U (p) =
x∈X
con u : X → R denominada la función de utilidad de Bernoulli.
Lemma 2.4. Si U (p) es representación de utilidad esperada de . Entonces ∀a ∈ R, ∀b > 0,
a + bU (p) también lo es.
Theorem 2.5 (Von-Neumann Morgensten). Sea una relación de preferencia racional sobre P.
admite representación mediante utilidad esperada si y solo si es continua y satisface el axioma
de independencia.
Aversión al riesgo
Ahora supondremos X ⊆ R convexo. Luego una loterı́a sobre X es una distribución de probabilidad
F sobre X. Si U (F R
) es una representación en utilidad esperada de una preferencias sobre P,
entonces U (F ) = u(x)dF (x). Donde supondremos en general que la función de utilidad de
Bernoulli u(x) es creciente y continuamente diferenciable. Se acostumbra también a denotar δx la
loterı́a que asigna peso 1 a x ∈ X.
Definition 2.6 (Aversión al riesgo). Un agente con
R
función de utilidad U se dice adverso al riesgo
si dada una loterı́a F con valor esperado EF = xdF (x), se tiene que U (F ) ≤ U (δEF ) = u(EF ),
es decir, si u(·) es cóncava en X.
Definition 2.7 (Equivalente cierto). El equivalente cierto de una loterı́a F es una loterı́a degen-
erada C(F, u) ∈ R tal que u(C(F, u)) = U (δF ).
Definition 2.8 (Coeficiente de aversión absoluta al riesgo). El coeficiente de aversión absoluta al
riesgo de Arrow-Pratt se define como
−u00 (x)
A(x | u) =
u0 (x)
Proposition 2.9. Sean dos funciones de utilidad de Bernoulli u, v definidas sobre el mismo con-
junto X. La siguientes proposiciones son equivalentes:
• u es mas adverso al riesgo que v
• C(F, u) ≤ C(F, v) ∀F
• A(x | u) ≥ A(x | v) ∀x ∈ X
• si u prefiere F sobre δx entonces v prefiere F sobre δx .
• Existe g : V → R con V = dom(v) concava y creciente tal que u(x) = g(v(x)) ∀x
Definition 2.10 (DARA). u tiene aversión absoluta al riesgo decreciente si A(x | u) es decreciente
en x.
3
Comparación de loterı́as
Proposition 2.12.
G F OSD F ⇐⇒ G(x) ≤ F (x)∀x ∈ X
Es decir, G se acumula más lentamente que F , asignándole una mayor probabilidad a las loterı́as
más valoradas.
Definition 2.13 (SOSD). G domina estocásticamente de segundo orden a F , G SOSD F si y
solo si ∀u : X → R cóncava (no necesariamente creciente)
Z Z
udG ≥ udF
R R
Proposition 2.14. Si xdF = xdG entonces,
Z x Z x
G SOSD F ⇐⇒ G(y)d(y) ≤ F (y)dy ∀x ∈ [a, b]
a a
∃s0i ∈ Si tal que ui (s0i , s−i ) > ui (si , s−i ) ∀s−i ∈ S−i
4
Definition 3.6. Dado un JFN < I, (Si )i∈I , (ui )i∈I > con Si finito para todo i, la extensión mixta
del juego es < I, (∆(Si ))i∈I , (ui )i∈I > con
|S | X
∆(Si ) = {σi ∈ R+ i | σi (si ) = 1} ∀i ∈ I
si ∈Si
X N
Y
ui (σ) = ui (s) σj (sj )
s∈S j=1
• Si0 = Si
• ∀k ∈ {0, 1, 2, . . .}
Sik+1 = {si ∈ Sik | @σi ∈ ∆(Sik ) tal que ui (σi , s−i ) > ui (si , s−i ) k
∀s−i ∈ S−i
T∞
• Si∞ = k
k=1 Si
Proposition 3.8. Si cada jugador es racional y esto es de conocimiento común, entonces ningún
jugador usara una estrategia eliminada por EIEE.
Equilibrio de Nash
5
Definition 3.13. Un perfil de estrategias mixtas σ = (σi , . . . , σI ) es un Equilibrio de Nash en
Estrategias Mixtas (ENEM) en G si ∀σi0 ∈ ∆(Si ),
Definition 3.14. σ̄ = (σ̄i )i∈I es un ENEM para < I, (Si )i∈I , (ui )i∈I > si constituye un EN en su
extensión mixta.
Definition 3.15. En un juego finito, el soporte de una estrategia mixta σi queda definido por:
Proposition 3.18. (Nash) En cualquier juego finito existe al menos un equilibrio de Nash (en
estrategias mixtas).
Proposition 3.21. Sea Gk una secuencia de juegos sobre el espacio de estrategias finitas S, con
k→∞
pagos uk tal que ∀i ∈ I, uki −−−→ ui . Si σ k ∈ N E(Gk ) ∀k y σ k → σ entonces σ ∈ N E(G). Es
decir, el conjunto de equilibrios de Nash cambia de manera hemi-continua superior a medida que
cambian las funciones de utilidad.
Definition 3.22. La distancia entre dos juego G, G0 que comparten el espacio de estrategias S
queda definida por:
!1
2
0
(u0i (s)
XX
2
k G − G k= − ui (s))
s∈S i∈I
Definition 3.23. Una propiedad se mantiene genericamente para juegos finitos de forma normal
si se mantiene para un conjunto X tal que:
Proposition 3.24. (Wilson) Juegos finitos de forma normal genéricamente tienen un numero
finito e impar de equilibrios Nash.
6
4 Juegos de Información Incompleta
• I = {1, . . . , N } jugadores.
• ui : Θ × S → R para cada i.
Donde los tipos T heta se realizan de acuerdo a P , tras lo cual cada jugador i conoce θi pero
desconoce el de los demás. Cada jugador luego decide una estrategia de Si y recibe pagos de acuerdo
a ui (s, θ).
σi : Θi → Si
Definiendo Σi el conjunto de las estrategias de i, obtenemos un juego en forma normal < I, (Σi )i∈I , (ui )i∈I >
Definition 4.3. σ ∗ es Equilibrio Bayesiano si es un EN de < I, (Σi )i∈I , (ui )i∈I >, es decir, si
∀i ∈ I, θi ∈ Θi
E(ui(σi∗(θi), σ−i
∗
(θ−i ), θi , θ−i ) | Θi = θi ) ≥ E(ui (σi0 (θi ), σ−i
∗
(θ−i ), θi , θ−i ) | Θi = θi ) ∀σi0 ∈ Σi
E(ui(σi∗(θi), σ−i
∗
(θ−i ), θi , θ−i ) | Θi = θi ) ≥ E(ui (si , σ−i
∗
(θ−i ), θi , θ−i ) | Θi = θi ) ∀si ∈ Si
7
5. h(x) El conjunto de información de i(x), es decir, el conjunto de nodos que i(x) no puede
distinguir. luego:
0
i(x) = i(x )
x0 ∈ h(x0 ) ⇐⇒ A(x) = A(x0 )
h(x) = h(x0 )
Es decir, una estrategia prescribe un comportamiento para cada posible contingencia, incluso para
aquellas historias que no se realizan.
Definition 5.2. La representación en forma Normal del JFE queda descrita por
Theorem 5.5. Kuhn: En juegos con perfect recall las estrategias mixtas y las de comportamiento
son equivalentes.
• Y ⊆ X formado por un único nodo no terminal y todos sus sucesores. con la propiedad de
que si y ∈ Y e y 0 ∈ h(y) =⇒ y 0 ∈ Y .
Proposition 5.9 (Principio de Desviación Única). S ∗ es EPS ssi ∀i ∀h, tal que i(h) = i, se tiene
que:
ui |h (R |h (s∗−i |h , s∗i |h )) > ui |h (R |h (s∗−i |h , si |h )) (5.1)
Para si que difiere de s∗i sólo en la historia h
8
Definition 5.10. Un juego es continuo al infinito si para cada jugador i la función de utilidad
satisface:
Theorem 5.12. Zermelo: Un juego en forma extensiva finito de información perfecta tiene al
menos un EN. Más aun tal EN es también un EPS.
Equilibrios
6 Modelos de Señalización
Tipos: θk ∈ Θi ∀i ∈ I
Acciones: ai ∈ Ai ∀i ∈ I
Supondremos por simplicidad que solo el jugador 1 posee información privada acerca de su tipo
y que para el jugador 2, |Θi | = 1. Dado esto, el juego es el siguiente:
9
En los modelos de señalización existen dos tipos de equilibrios: equilibrios separadores o equi-
librios de pooling, ambos equilibrios son EBP, por lo que deben cumplir lo siguiente:
σ2∗ (·|θ)
X
∈ arg max µ(θ|a1 )u2 (a1 , α2 , θ) ∀a1 (6.2)
α2
θ
Equilibro Separador
Equilibro de Pooling
En este equilibrio, la información que entrega el jugador 1 no le sirve al jugador 2 ya que la estrategia
del jugador 1 será
a1 (θL ) = a1 (θH )
Por lo que el jugador 2 tendrá que seguir con sus creencias iniciales µ(θ) y maximizar su utilidad
esperada dada estas creencias.
10
• µ se deriva de σ usando la regla de bayes.
• µ se deriva de σ usando la regla de bayes en todos los nodos x donde sea posible.
Definition 7.7. Un perfil (σ, µ) es consistente si existe una secuencia de estrategias estrictamente
mixtas σ n → σ y µn → µ, donde µn = µ(· | σ n ), es decir, si µ(· | ·) se deriva de la regla de Bayes,
entonces µ(· | σ n ) también debe derivarse de la regla de Bayes ∀n ∈ N.
• (σ, µ) es consistente.
8 Juegos repetidos
Definition 8.1 (Juegos repetidos al infinito con monitoreo perfecto). Definimos un Juego repetido
al infinito con montioreo perfecto y tasa de descuento δ, denotado G∞ (δ), como una repetición
infinita de un juego simultaneo o juego en forma normal tal que queda definido por los siguientes
elementos,
• [Jugadores:] I.
• [Pagos de etapa:] gi : A → R con A = Πi∈I Ai, la función de pagos en cada etapa del juego.
• [Estrategias:] Una estrategia pura para el jugador i es una secuencia (sti )t∈N tal que sti :
H t → Ai . Una estrategia mixta o de comportamiento para el jugador i se define equivalen-
temente como (σit )t∈N con σit : H t → Ai , con Ai el espacio de distribuciones de probabilidad
sobre Ai .
• [Función objetivo:] ui = Eσ (1 − δ) ∞ t t t
t=0 δ gi (σ (h )) Donde se agrega (1 − δ) para que los
P
pagos del juego en forma normal y los valores presentes del juego repetido queden expresados
en las misma unidades y sean comparables.
11
Remark 8.2. Es importante notar que cualquier equilibrio de Nash del juego en forma normal
puede convertirse de forma natural a un EPS del juego en forma repetida de este mismo. Más
formalmente, si a∗ es EN del JFN entonces el perfil sti = ai ∀t es trivialmente un EPS del juego
repetido.
Esta observación es muy importante ya que implica que el juego en forma repetida no reduce los
posibles equilibrios del modelo y si δ es suficientemente pequeño, estos serı́an los únicos resultados
del juego repetido.
Definition 8.3 (Utilidad de reserva o minmax). La utilidad de reserva del jugador i se define como
Lo que corresponde al mı́nimo pago al cual los demás jugadores pueden forzar a i si este prevee las
acciones del resto correctamente y juega su mejor respuesta. Naturalmente esto define mi−i como
el perfil que genera estos pagos para el jugado i, es decir,
Definition 8.5 (Pagos factibles). El conjunto de pagos factibles para cualquier tasa de descuento
del juego repetido es
V = conv{v | ∃a ∈ A tal que g(a) = v}
Theorem 8.6 (Teorema del Pueblo). Para todo vector de pagos factibles v con vi > vi para cada
¯
jugador i, existe δ < 1 tal que para todo δ ∈ (δ, 1) existe un EPS de G∞ (δ) con pagos v.
¯ ¯
12