You are on page 1of 34

IDA (INCREMENTAL ANALYSIS DINAMIC)

Motivación

La ingeniería de terremoto ha recorrido un largo camino desde su nacimiento, y todavía parece


crecer rápidamente a medida que ganamos experiencia. Cada vez que ocurre un terremoto,
aprendemos algo nuevo y la profesión crece acomodándose a la experiencia adquirida. Tal es
el caso a raíz de los terremotos de Loma Prieta 1989 y 1994 Northridge, donde aprendimos
que a veces un edificio seguro para la vida no es suficiente.

Tanto la investigación como la práctica solían ocuparse principalmente del diseño de


estructuras que serían seguras, en el sentido de sobrevivir a un evento sísmico con un número
mínimo de víctimas. Sin embargo, muchos propietarios de edificios han comprendido los
costos asombrosos incurridos por un edificio seguro pero muy dañado y no operativo.
Sustituirlo o rehabilitarlo significa detener su funcionamiento, reubicar las personas y las
funciones que alberga y, finalmente, ocuparse de un costoso mercado de la construcción
abrumado con proyectos en competencia después de un terremoto de gran magnitud.

Compare esto con el costo ligeramente mayor de tener una estructura diseñada para
estándares más altos, elegida para satisfacer las necesidades específicas del dueño (exigente),
y así poder seguir funcionando después de un evento pequeño pero relativamente frecuentey
a raros golpes de terremoto destructivos. Así nació la Ingeniería de Terremotos Basada en el
Desempeño (PBEE), una idea relativamente nueva pero de rápido crecimiento que parece
estar presente en todas las directrices que se publicaron recientemente: Vision 2000 (SEAOC,
1995), ATC-40 (ATC, 1996), FEMA -273 (FEMA, 1997) y SAC / FEMA-350 (FEMA, 2000a).

En términos sueltos, requiere que un edificio se diseñe para cumplir con objetivos de
rendimiento específicos bajo la acción de los eventos sísmicos frecuentes o más raros que
puede experimentar en su vida. Por lo tanto, un edificio con una vida útil de 50 años puede ser
requerido para no sufrir daños bajo un evento frecuente, "50% en 50 años", por ejemplo, uno
que tiene una probabilidad de 50% de ser superado en los próximos 50 años. Al mismo tiempo,
podría mantenerse reparable, a pesar de sufrir algún daño, durante un evento "10% en 50
años" y permanecerá estable y seguro para eventos raros de "2% en 50 años", aunque,
posteriormente, puede que tenga que ser demolido.

Obviamente, tales objetivos de rendimiento pueden adaptarse mejor a la función de un


edificio, por ejemplo, ser más estrictos para un hospital que necesita permanecer operativo
incluso después de eventos graves, mientras que está más relajado para instalaciones menos
críticas, flexible y capaz de satisfacer las necesidades de cada propietario con un mínimo de
seguridad por supuesto).

PBEE es un tema bastante complicado y ha creado muchos nuevos desafíos que hay que
superar. Necesitamos métodos para cuantificar daños estructurales (p. Ej., Vigas, columnas,
cimientos) y daños no estructurales (por ejemplo, tabiques, paneles de vidrio), formas de
estimar el número de víctimas, pérdida del contenido del edificio, incluso las estimaciones de
la inflación de precios después de un terremoto de gran magnitud. Pero antes de que
lleguemos allí, tenemos que empezar por la base; “Necesitamos un poderoso método de
análisis que analice con precisión los modelos estructurales y estimemos las demandas que
cualquier nivel de agitación puede imponer y, específicamente, determinar el nivel de
agitación que hará que una estructura exceda una especificada Limit-state, fallando así un
objetivo de rendimiento dado. En términos más precisos, necesitamos un método que nos
permita predecir la frecuencia anual media de violar los estados límites prescritos.

Varias metodologías se han propuesto para cumplir este papel, pero son discutibles, el más
prometedor es el análisis dinámico incremental (IDA). Toma el viejo concepto de escalar
registros del movimiento del suelo y lo convierte en una manera de describir con precisión
toda la gama de comportamiento estructural, desde la elasticidad hasta el colapso.
Específicamente, IDA implica someter un modelo estructural a uno (o más) registro (s) de
movimiento en tierra, cada uno escalado a múltiples niveles de intensidad, produciendo así
una (o más) curva (s) de respuesta parametrizada frente a nivel de intensidad. Al resumir
adecuadamente tales curvas IDA, definir estados límite y combinar los resultados con el
Análisis Probabilístico de Riesgo Sísmico Probabilístico (PSHA), podemos alcanzar fácilmente
las metas que hemos establecido. ¿Pero por qué parar allí? IDA tiene un gran potencial y
puede extenderse mucho más allá de ser sólo una solución para PBEE, para proporcionar
intuición valiosa y ayudar a los investigadores y los ingenieros profesionales a comprender
mejor el comportamiento sísmico de las estructuras.

Objetivos y alcance

El objetivo de este estudio es unificar el concepto de Análisis Dinámico Incremental y colocarlo


en un contexto concreto de definiciones inequívocas. Teniendo en cuenta que, este trabajo
tiene como objetivo descubrir las fortalezas de la metodología y mostrar cómo se puede
aplicar de manera práctica para hacer frente a los problemas de PBEE. Además, el IDA se
amplía y amplía para cubrir un terreno más extenso. Mostraremos su conexión con métodos
de análisis sísmico antiguos y establecidos, como el factor R de modificación de respuesta, o el
Análisis Estático de Pushover (también conocido como Procedimiento Estático No Lineal, FEMA
1997). Adicionalmente, la utilizaremos como herramienta para investigar la influencia de la
forma espectral elástica en el comportamiento sísmico de las estructuras. El objetivo final es
establecer el uso de análisis dinámicos no lineales bajo múltiples registros de movimientos en
tierra como el estado de la técnica y tratar de alentar la práctica hacia esa dirección, lejos del
uso actual de uno a tres acelerogramas o simplemente el Static Pushover

Organización y esquema

Todos los capítulos están diseñados para ser autónomos, cada uno de los cuales es un solo
artículo, que ha aparecido en una revista profesional o está siendo planeado como una
publicación futura. Sin embargo, se sugiere que se familiarice con los conceptos introducidos
en el siguiente capítulo antes de saltar a otros materiales que pueden ser de interés:

El Capítulo 2 establece y define los principios básicos del Análisis Dinámico Incremental (IDA).
A pesar de ser un método completamente nuevo, fragmentos de él han aparecido en la
literatura en varias formas diferentes. El objetivo es establecer un marco de referencia común
y una terminología unificada. En primer lugar, se introduce el concepto de la Medida de
Intensidad (IM) para describir mejor la escala de un registro de movimiento en el suelo,
mientras que la Medida de Daño (DM) se usa para medir la respuesta estructural. Combinados
juntos, definen la curva IDA que describe la respuesta de una estructura a varios niveles de
intensidad para un registro de movimiento del terreno dado: de elasticidad a no linealidad y
finalmente a la inestabilidad dinámica global. Se presentan algoritmos adecuados para
seleccionar los análisis dinámicos y formar las curvas IDA, mientras que las propiedades de la
curva IDA se examinan tanto para estructuras de grado único de libertad (SDOF) como para
estructuras de grado de libertad de varios grados (MDOF). Además, se discuten los métodos
para definir estados límite en las curvas IDA y estimar sus capacidades. También se discuten las
técnicas de resumen adecuadas para los estudios IDA multirecord y la asociación del estudio
IDA con el Análisis Estático Pushover (SPO) convencional y el factor R de reducción del
rendimiento. Finalmente, en el marco de la Ingeniería de Terremotos Basada en el Desempeño
(PBEE), la evaluación de la demanda y capacidad se ve a través de la lente de un estudio IDA.

Si se tratara de un folleto de concesión de automóviles, estaría mirando el nuevo y brillante


Ferrari. Esta bestia mítica ha existido por un tiempo, puede haber oído hablar de ella o visto en
imágenes, pero puede haber sentido intimidado. Ahora estamos haciendo todo lo que podemos
para describirlo en detalle, darle una comprensión completa de los funcionamientos internos y
ofrecerlo a un costo muy reducido (de análisis).

El capítulo 3 describe el uso práctico del IDA. Tomando un edificio realista de 9 pisos como
ejemplo y usando la teoría y observaciones del capítulo anterior, vamos a generar una
aplicación completa para la evaluación PBEE. Vamos a llevarle a través de un tutorial paso a
paso de la realización del IDA en este estudio de caso representativo: la elección de medidas
de intensidad de movimiento en tierra apropiadas (IM s) y medidas de daños representativas
(DM), empleando interpolación para generar continuas curvas IDA, Definiendo estados límite
apropiados, estimando las capacidades correspondientes y resumiendo las demandas y
capacidades del IDA. Finalmente, al combinar estos resultados resumidos con PSHA en un
marco probabilístico apropiado, se calculan las frecuencias anuales medias de superar cada
estado límite. Al principio, el lector es caminado por la ruta directa y eficiente hacia el
producto final. Entonces el conocimiento adquirido del proceso se utiliza para contemplar las
elecciones que hemos hecho a lo largo del camino, destacando los atajos que tomamos y las
trampas que hemos evitado hábilmente.

Esto es prácticamente donde te llevamos fuera, sentado al volante del Ferrari, para un test-
drive. Ver la bestia, jugar con ella y experimentar la emoción que ofrece. ¿Hay algo que no
pueda hacer?

El capítulo 4 investiga la conexión del IDA con el Pushover estático (SPO) para sistemas SDOF.
Un método establecido para analizar las estructuras, el SPO es claramente reemplazado por el
IDA, pero todavía tiene mucho que ofrecer en la comprensión del análisis más complejo.
Comenzando con el más simple de todos los sistemas, el SDOF, pero permitiendo que tenga
una estructura de fuerza-deformación compleja, trazamos la influencia de la SPO, o la columna
vertebral, a la IDA. Existe una gran tradición en la profesión para proporcionar ecuaciones para
la respuesta media de desplazamiento de pico de osciladores no lineales simples, usualmente
llevando las espinas dorsales más simples (elástico-perfectamente-plásticas). Aquí
aprovechamos el poder del IDA para llevar este concepto un paso más allá, con la esperanza
de mejorar la SPO para convertirse en una alternativa ligera y barata al IDA. El producto final
es SPO2IDA, una herramienta precisa y de nivel de hoja de cálculo para la ingeniería de
terremotos basada en el rendimiento que está disponible en Internet. Ofrece una estimación
efectiva instantánea de demandas de desplazamiento dinámico no lineal y capacidades de
estado límite, además de los factores R de reducción de fuerza convencionales y relaciones de
desplazamiento inelástico, para cualquier sistema SDOF cuya curva Pushover estática puede
ser aproximada por una columna vertebral cuadrilínea. Incluso con un descuento, no todo el
mundo puede permitirse un Ferrari.

Por lo tanto, ¿qué hay de usar un buen viejo y confiable Toyota, pero con un nuevo Ferrari-
como motor? Sólo vamos a desarrollar el motor ahora, creando una réplica libre, eficiente y
producible en masa llamada SPO2IDA, a continuación, le permiten ver cómo se compara con lo
real.

El Capítulo 5 extiende la conexión entre SPO y IDA a estructuras MDOF. Aprovechando las
herramientas generadas en el capítulo anterior, nos aventuramos a aplicarlas adecuadamente
a los sistemas MDOF, de manera similar a las metodologías existentes (por ejemplo, FEMA,
1997). SPO2IDA permite el uso de un sistema SDOF cuya columna vertebral coincide
estrechamente con la SPO de la estructura MDOF incluso más allá de su pico. El resultado es
un método rápido y preciso para estimar la demanda sísmica y la capacidad de los sistemas
MDOF dominados por el primer modo. Las curvas IDA resumidas de estructuras complejas se
generan sin esfuerzo, lo que permite a un ingeniero-usuario obtener estimaciones precisas de
demandas y capacidades sísmicas para estados límite estructurales como ocupación inmediata
o inestabilidad dinámica global. La prueba del método contra la IDA completa para tres
sistemas MDOF muestra la precisión que puede alcanzar, pero también resalta sus
limitaciones.

Ahí es donde tomamos nuestro rejuvenecido Toyota (SPO2IDA para sistemas MDOF) a tres
pistas de carreras diferentes (edificios) y tenemos una prueba contra el Ferrari (IDA).
Conclusión: El Toyota no puede ganar realmente, pero puede sostener sus los propios, y
funciona mucho mejor que el coche original que comenzamos con. Incluso llegamos a
sugerencias a los "fabricantes de Toyota" (ingenieros que realizan SPOs) sobre cómo construir
sus coches para aprovechar mejor nuestro nuevo motor.

El capítulo 6 discute la influencia de la forma espectral elástica en la dispersión observada en


las capacidades de estado límite extraídas de IDA. Su variabilidad de registro a registro puede
ser significativa, pero puede reducirse con la introducción de IM eficientes que incorporan
información espectral. Aunque el uso de valores espectrales inelásticos puede ser ventajoso,
necesitan leyes de atenuación hechas a medida para ser usadas en un marco PBEE. Por lo
tanto, nos centramos en espectros elásticos, optando por investigar un valor espectral elástico
único óptimo, un vector de dos, o una combinación escalar de varios valores óptimos. Las
dispersiones resultantes se calculan individualmente para cada estado límite, permitiéndonos
así observar la evolución de tales valores espectrales óptimos a medida que aumenta el daño
estructural. Más importante aún, se mide la sensibilidad de tales IM s a la selección subóptima
de los valores espectrales, arrojando alguna luz en la posibilidad de una selección a priori de un
IM eficaz.

Ahí es donde hacemos algunas adiciones a nuestro Ferrari sólo para darnos cuenta de que
podemos hacerlo más eficiente (casi el doble de millas por galón) y convertirlo en un Batmobil.
Todavía experimental, fresco de las obras, pero cuando abrimos el acelerador y desencadenar
su poder, que puede llevarnos a la sísmica exterior del espacio!

El capítulo 7 resume las virtudes, pero también las limitaciones de nuestros métodos,
describiendo las direcciones para el trabajo futuro y las mejoras necesarias. Finalmente, se
presentan las conclusiones generales y el resumen de la tesis.

Aquí, elogiamos las habilidades y también poner algunas abolladuras a nuestro Ferrari, Toyota
y Batmobil. Reconocemos sus debilidades y sugerimos cómo resolverlas en el futuro
CAPITULO 2: ANÁLISIS INCREMENTAL DINÁMICO

Abstracto.

El Análisis Dinámico Incremental (IDA) es un método de análisis paramétrico que


recientemente ha surgido en varias formas diferentes para estimar más exhaustivamente el
rendimiento estructural bajo cargas sísmicas. Implica someter un modelo estructural a uno (o
más) registro (s) de movimiento en tierra, cada uno escalado a múltiples niveles de intensidad,
produciendo así una (o más) curva (s) de respuesta parametrizada frente a nivel de intensidad.
Para establecer un marco de referencia común, se analizan los conceptos fundamentales, se
propone una terminología unificada, se presentan algoritmos adecuados y se estudian las
propiedades de la curva IDA tanto para un grado de libertad (SDOF) como para un grado
múltiple De la libertad (MDOF). Además, se discuten las técnicas de resumen para los estudios
IDA multi-registro y la asociación del estudio IDA con el Análisis Estático Pushover
convencional y el factor R de reducción del rendimiento. Finalmente, en el marco de la
Ingeniería de Terremotos Basada en el Desempeño (PBEE), la evaluación de la demanda y
capacidad se ve a través de la lente de un estudio IDA.

Introducción.

El crecimiento de la potencia de procesamiento informático ha hecho posible un impulso


continuo hacia métodos de análisis cada vez más precisos pero al mismo tiempo más
complejos. Por lo tanto, el estado de la técnica ha ido progresivamente pasando del análisis
estático elástico al análisis dinámico elástico, no lineal estático y finalmente no dinámico. En el
último caso, la convención ha sido ejecutar uno a varios registros diferentes, cada uno una vez,
produciendo uno o varios análisis de "punto único", utilizados principalmente para comprobar
la estructura diseñada. Por otro lado, métodos como el método de dispersión estática no lineal
(SPO) (ATC, 1996) o el método del espectro de capacidad (ATC, 1996) ofrecen, mediante un
escalamiento apropiado del patrón de fuerza estática, una imagen "continua" como gama
completa de estructuras Se investiga el comportamiento, desde la elasticidad hasta la
rendición y finalmente el colapso, facilitando así enormemente nuestra comprensión. Por
analogía con el paso de un único análisis estático a la expansión estática, uno llega a la
extensión de un único análisis de historia-tiempo en un incremental, donde la "carga" sísmica
es escalada. El concepto ha sido mencionado ya en 1977 por Bertero (1977), y ha sido
moldeado en varias formas en el trabajo de muchos investigadores, incluyendo Luco y Cornell
(1998, 2000), Bazzurro y Cornell (1994a, b), Yun et Alabama. (2002), Mehanny y Deierlein
(2000), Dubina et al. (2000), De Matteis et al. (2000), Nassar y Krawinkler (1991, pág. 62-155) y
Psycharis et al. (2000). Recientemente, también ha sido adoptada por las directrices de la
Agencia Federal para el Manejo de Emergencias (FEMA, por sus siglas en inglés) (FEMA, 2000a,
b) como Análisis Dinámico Incremental (IDA) y establecida como el método más avanzado para
determinar la capacidad global de colapso .

El estudio IDA es ahora un método polivalente y ampliamente aplicable y sus objetivos, sólo
algunos de los cuales son evidentes en la Figura 2.1 (a, b) (página 21 del libro original) ,
incluyen:
1. comprensión cabal del rango de respuesta o "demandas" versus el rango de niveles
potenciales de un registro de movimiento en tierra,

2. una mejor comprensión de las implicaciones estructurales de niveles de movimiento del


suelo más raros / más severos,

3. una mejor comprensión de los cambios en la naturaleza de la respuesta estructural a


medida que aumenta la intensidad del movimiento del suelo (por ejemplo, cambios en los
patrones de deformación de los picos con altura, inicio de la rigidez y degradación de la
resistencia y sus patrones y magnitudes)

4. producir estimaciones de la capacidad dinámica del sistema estructural global y

5. finalmente, dado un estudio IDA multi-registro, cuan estable (o variable) todos estos ítems
son de un registro de movimiento del suelo a otro.

Nuestro objetivo es proporcionar una base y terminología para unificar los formatos existentes
del estudio de la IDA y establecer los antecedentes esenciales para lograr los objetivos antes
mencionados.

Fundamentos de un solo registro IDA

Primer paso, definamos claramente todos los términos que necesitamos, y comenzamos a
construir nuestra metodología usando como bloque fundamental el concepto de escalar una
historia de tiempo de aceleración.

Supongamos que se nos da un único historial de tiempo de aceleración, seleccionado de una


base de datos de movimientos en el suelo, que se denominará la base, "como se registró"
(aunque puede haber sido pre-procesado por sismólogos, por ejemplo, la línea base corregida,
filtrada y girada ), El acelerograma no escalado a1, un vector con los elementos a1 (ti), ti = 0;
T1; :::; Tn-1) Para dar cuenta de movimientos de tierra más severos o más suaves, se introduce
una transformación simple escalando uniformemente hacia arriba o hacia abajo las amplitudes
mediante un escalar l 2 [0; + ¥): al = l ¢ a1. Una operación de este tipo también se puede
pensar convenientemente como escalado del espectro de aceleración elástica por lo
equivalentemente, en el dominio de Fourier, como escala por l las amplitudes a través de
todas las frecuencias manteniendo intacta la información de fase.

DEFINICIÓN 1: El FACTOR DE ESCALA (SF) de un acelerograma escalado, a L, es el escalar no


negativo L 2 [0; +∞) que produce aL cuando se aplica multiplicativamente a la escala de tiempo
de aceleración sin escala (natural) a1.

Observe cómo el SF constituye una correspondencia uno-a-uno desde el acelerograma original


a todas sus imágenes escaladas. Un valor de L = 1 significa el acelerograma natural, L <1 es un
acelerograma reducido, mientras que L> 1 corresponde a un escalado hacia arriba.

Aunque el SF es la forma más simple de caracterizar las imágenes escaladas de un


acelerograma, no es conveniente para propósitos de ingeniería, ya que no ofrece información
sobre el verdadero "poder" del registro escalado y su efecto sobre una estructura dada. De
utilidad más práctica sería una medida que se correlacionaría con el SF uno a uno, pero sería
más informativo, en el sentido de mejor relacionarse con su potencial dañino.
DEFINICIÓN 2: UNA MEDIDA MONÓTONICA ESCALABLE DE LA INTENDISDAD DE MOVIENTE DE
TIERRA (o simplemente una medida de intensidad, IM) de un acelerograma escalado, aL, es un
IM escalar no negativo [0; + infinito)) que constituye una función, IM = fa1 (L), que depende
del acelerograma no escalado a1, y está aumentando monotónicamente con el factor de
escala, L

Aunque se han propuesto muchas cantidades para caracterizar la "intensidad" de un registro


de movimiento en tierra, puede no siempre ser aparente cómo escalarlos, Por ejemplo,
magnitud de momento, duración o intensidad de Mercalli modificada; Deben ser designados
como no escalables. Ejemplos comunes de IM escalable son la Aceleración de Pico de Tierra
(PGA), la Velocidad de Tierra de Pico, la Aceleración Espectral amortiguada de x = 5% en el
primer período de la estructura (Sa (T1; 5%)), y el factor normalizado R = L / lyield (donde lyield
significa, para un registro dado y un modelo estructural, la escala más baja necesaria para
producir rendimiento) que es numéricamente equivalente al factor R de reducción del
rendimiento (por ejemplo, Chopra, 1995) para, por ejemplo, sistemas bilinéales de SDOF
Sección posterior). Estos IMs también tienen la propiedad de ser proporcionales a la SF ya que
satisfacen la relación IMprop = l ¢ fa1.

Por otro lado, la cantidad de Sam (T1; x; b; c; d) = [Sa (T1; x)] b [Sa (cT1; x)] d propuesta por
Shome y Cornell (1999) y Mehanny y Deierlein (2000) es escalable y monótona pero no
proporcional, a menos que b + d = 1. Algunos IMs no monótonos han sido propuestos, como el
desplazamiento inelástico de un oscilador no lineal por Luco y Cornell (2004), pero no serán
Centrado en, por lo que IM significa implícitamente monótona y escalable a continuación, a
menos que se indique lo contrario.

Ahora que tenemos la entrada deseada para someter una estructura a, también necesitamos
alguna forma de monitorear su estado, su respuesta a la carga sísmica

Definición 3. MEDIDA DE DAÑOS (DM) o VARIABLE DE ESTADO ESTRUCTURAL es un DM


escalar no negativo [0; + ¥] que caracteriza la respuesta adicional del modelo estructural
debido a una carga sísmica prescrita

Definición 3. MEDIDA DE DAÑOS (DM) o VARIABLE DE ESTADO ESTRUCTURAL es un DM escalar


no negativo [0; + ¥] que caracteriza la respuesta adicional del modelo estructural debido a una
carga sísmica prescrita.

En otras palabras, un DM es una cantidad observable que es parte o puede deducirse de la


salida del correspondiente análisis dinámico no lineal

Las opciones posibles podrían ser el cizallamiento de la base máxima, las rotaciones de los
nudos, las ductilidades de los picos de la historia, diversos índices de daños propuestos (por
ejemplo, una energía histerética acumulativa global, un índice global de Park-Ang (Ang y De
Leon, 1997) o el índice de estabilidad

Propuesta por Mehanny y Deierlein, 2000), pico de la deriva del techo qroof, el pico del piso
interstory drift ángulos q1; Qn de una estructura de n pisos, o su máximo, el máximo pico
interstory drift ángulo qmax = max (q1;:::; qn).

La selección de una DM adecuada depende de la aplicación y de la estructura misma; Puede


ser deseable utilizar dos o más DMs (todos resultantes de los mismos análisis no lineales) para
evaluar diferentes características de respuesta, estados límite o modos de fallo de interés en
una evaluación PBEE. Si el daño a los contenidos no estructurales en un marco de varios pisos
necesita ser evaluado, las aceleraciones de pico de piso son la elección obvia.

Por otro lado, para el daño estructural de los edificios aporticados, qmax se relaciona bien con
rotaciones conjuntas y colapso global y local de la historia, convirtiéndose así en un candidato
DM fuerte. Este último, expresado en términos de la deriva total, en lugar de la deriva efectiva
que tendría en cuenta la inclinación del edificio (ver Prakhash et al., 1992, pg.88) será nuestra
elección de DM para los casos más ilustrativos aquí, Donde la rotación de la base (cimentación)
y el acortamiento de las columna no son graves.

La respuesta estructural es a menudo un escalar firmado; Normalmente, se utiliza el valor


absoluto o las magnitudes del negativo y las partes positivas se consideran por separado.
Ahora somos capaces de definir la IDA.

Definición 4. UN ESTUDIO IDA DE UN SOLO REGISTRO DE MOVIMIENTO es un estudio de


análisis dinámico de un modelo estructural dado parametrizado por el factor de escala de la
historia del tiempo de movimiento del terreno dado.

También conocido simplemente como Análisis Dinámico Incremental (IDA) o Dynamic


Pushover (DPO), involucra una serie de dinámicas no lineales ejecutadas bajo imágenes
escaladas de un acelerograma, cuyos IM s son, idealmente, seleccionados para abarcar todo el
rango de elástico a no lineal Y finalmente al colapso de la estructura. El propósito es registrar
DMs del modelo estructural en cada nivel IM del movimiento en tierra escalado, los valores de
respuesta resultantes a menudo se representan frente al nivel de intensidad como curvas
continuas.

Definición 5. Una CURVA IDA es un gráfico de una variable de estado (DM) registrada en un
estudio IDA versus uno o más IMs que caracterizan el acelerograma escalado aplicado.

Una curva IDA se puede realizar en dos o más dimensiones dependiendo del número de IMs.
Obviamente, por lo menos uno debe ser escalable y es tal un IM que se utiliza en las tramas
bidimensionales convencionales (2D) de las que nos centraremos más adelante. Según la
práctica de ingeniería estándar, tales gràficas suelen aparecer "al revés", ya que la variable
independiente es el IM que se considera análogo a "fuerza" y se representa en el eje vertical
(Figura 2.1 (a) Deformación o SPO. Como es evidente, los resultados de un estudio IDA pueden
presentarse en una multitud de diferentes curvas IDA, dependiendo de las opciones de IM y
DM.

Para ilustrar el concepto IDA, utilizaremos varios modelos MDOF y SDOF como ejemplos en las
siguientes secciones.

En particular, los MDOF utilizados son un marco de resistencia de momento de acero de 20


pisos de T1 = 4 seg con elementos y conexiones dúctiles, incluyendo un tratamiento de primer
orden de las no linealidades geométricas globales (efectos PD), un T1 = 2: 2 (Luco y Cornell,
2000) con miembros dúctiles, conexiones de fracturación y efectos de PD, y un T1 = 1: 8 s de
acero de 5 pisos de galpón Con elementos dúctiles y conexiones y frenos de pandeo realistas
incluyendo efectos de DP (Bazzurro y Cornell, 1994b).
Mirando una curva IDA: Algunas propiedades generales

El estudio IDA es el acelerograma y el modelo estructural específico; Cuando se somete a


diferentes movimientos de tierra, un modelo a menudo produce respuestas bastante disímiles
que son difíciles de predecir a priori. Obsérvese, por ejemplo, la Figura 2.2 (a-d) en la que un
marco de 5 pisos presenta respuestas que van desde una degradación gradual hacia el colapso
hasta un comportamiento de torsión rápido, no monótono, hacia atrás y hacia adelante. Cada
gráfico ilustra las demandas impuestas a la estructura por cada registro de movimiento en
tierra en diferentes intensidades, y son bastante intrigantes en sus similitudes y disimilitudes.

Todas las curvas exhiben una región lineal elástica distinta que termina en Syield a (T1; 5%) ¼
0: 2g y q produce un máximo ¼ 0: 2% cuando ocurre el primer pandeo. En realidad, cualquier
modelo estructural con elementos lineales inicialmente elásticos mostrará tal
comportamiento, que termina cuando la primera no linealidad entra en juego, es decir,
cuando cualquier elemento alcanza el final de su elasticidad. La pendiente IM / DM de este
segmento en cada curva IDA se denominará su "rigidez" elástica para el DM dado, IM.

Típicamente varía en cierto grado de un registro a otro, pero será el mismo en todos los
registros para sistemas SDOF e incluso para sistemas MDOF si el IM toma en cuenta los efectos
de modo más alto (es decir, Luco y Cornell, 2004).

Centrándose en el otro extremo de las curvas de la Figura 2.2, observe cómo terminan en
diferentes niveles de IM. La curva (a) se ablanda bruscamente después del pandeo inicial y se
acelera hacia grandes derivas y eventual colapso. Por otro lado, las curvas (c) y (d) parecen
tejerse alrededor de la pendiente elástica; Siguen de cerca la conocida regla de
desplazamiento igual, es decir, la observación empírica de que para las estructuras de período
moderado, los desplazamientos globales inelásticos son generalmente aproximadamente
iguales a los desplazamientos del modelo elástico correspondiente (por ejemplo, Veletsos y
Newmark, 1960). Los patrones de torsión que las curvas (c) y (d) muestran al hacerlo son
segmentos sucesivos de "ablandamiento" y "endurecimiento", regiones donde la pendiente
local o "rigidez" disminuye con IM más alta y otras donde aumenta. En términos de ingeniería
esto significa que a veces la estructura experimenta aceleración de la tasa de acumulación de
DM y en otras veces ocurre una desaceleración que puede ser suficientemente potente para
detener momentáneamente la acumulación de DM o incluso invertirla, lo que tira localmente
de la curva IDA a relativamente más baja DMs y haciéndolo una función no monotónica de la
IM (Figura 2.2 (d)).

Eventualmente, suponiendo que el modelo permite algún mecanismo de colapso y el DM


utilizado puede rastrearlo, un segmento final de suavizado se produce cuando la estructura
acumula DM a velocidades cada vez más altas, señalando el inicio de la inestabilidad dinámica.
Esto se define de manera análoga a la inestabilidad estática, como el punto en el que las
deformaciones aumentan de manera ilimitada para pequeños incrementos en el IM. La curva
se aplana entonces en una meseta del valor máximo en IM cuando alcanza la línea plana y DM
se mueve hacia "infinito" (Figura 2.2 (a, b)). Aunque los ejemplos mostrados están basados en
Sa (T1; 5%) y qmax, estos modos de comportamiento son observables para una amplia
selección de MD e IM s.

El endurecimiento en las curvas IDA no es una observación novedosa, habiéndose reportado


antes incluso para sistemas elásticos-perfectamente plásticos bilineales simples, por ejemplo,
por Chopra (1995, pág. 257-259). Sin embargo, sigue siendo contra-intuitivo que un sistema
que mostró una alta respuesta a un nivel de intensidad dado, puede presentar la misma
respuesta o aún menor cuando se somete a intensidades sísmicas mayores debido a un
endurecimiento excesivo.

Pero es el patrón y el momento en lugar de sólo la intensidad que marca la diferencia. A


medida que se aumenta el acelerograma, los ciclos de respuesta débiles en la primera parte
del tiempo de respuesta se convierten en suficientemente fuertes para infligir daño
(rendimiento) alterando así las propiedades de la estructura para los ciclos subsiguientes más
fuertes. Para edificios de varios pisos, un movimiento de tierra más fuerte puede conducir a un
rendimiento anterior de un piso que a su vez actúa como un fusible para aliviar otro
(normalmente más alto), como en la Figura 2.3.

Incluso los osciladores simples cuando se producen en un ciclo anterior, pueden demostrarse
menos sensibles en los ciclos posteriores que anteriormente habían causado valores más altos
de DM (Figura 2.4), tal vez debido a la "elongación del período". Los mismos fenómenos
explican la resurrección estructural, un caso extremo de endurecimiento, donde un sistema es
empujado hasta el colapso global (es decir, el código de análisis no puede converger,
produciendo DM "numéricamente infinitos") en algún IM, sólo para reaparecer como No se
desploma a un nivel de intensidad más alto, mostrando alta respuesta pero permaneciendo de
pie (por ejemplo, Figura 2.5).

A medida que se hace evidente la complejidad de la curva IDA 2D, es natural examinar las
propiedades de la curva como una entidad matemática. Suponiendo una IM monótona la
curva IDA se convierte en una función ([0; + ¥)! Es decir, cualquier valor de IM produce un solo
valor DM, mientras que para cualquier valor DM dado existe al menos una o más (en curvas
IDA no monótonas) IM s que lo generan, ya que la correlación No es necesariamente uno-a-
uno. Además, la curva IDA no es necesariamente suave, ya que la DM se define a menudo
como un máximo o contiene valores absolutos de las respuestas, por lo que es indiferenciable
por definición. Aún más, puede contener un número (esperanzadamente finito) de
discontinuidades, debido a múltiples excursiones al colapso y subsecuentes resurrecciones.

Capacidad y estados límite en curvas IDA individuales

Los niveles de rendimiento o estados límite son ingredientes importantes de la Ingeniería de


Terremotos Basada en el Rendimiento (PBEE), y la curva IDA contiene la información necesaria
para evaluarlos. Pero necesitamos definirlas de una manera menos abstracta que tenga
sentido en una curva IDA, es decir, por una sentencia o una regla que cuando se satisface, las
señales alcancen un estado límite. Por ejemplo, la ocupación inmediata (FEMA, 2000a, b) es un
nivel de desempeño estructural que se ha asociado con la consecución de un valor de DM
dado, usualmente en términos de angulo max, mientras que en FEMA 350, FEMA, 2000a, al
menos al valor IM o DM donde se observa inestabilidad dinámica.

Una cuestión relevante que aparece entonces es qué hacer cuando varios puntos (figura 2.6 (a,
b)) satisfacen tal regla? ¿Cuál debe ser seleccionado?

La causa de múltiples puntos que pueden satisfacer una regla de estado límite es
principalmente la cuestión de endurecimiento y, en su forma extrema, la resurrección
estructural. En general, uno querría ser conservador y considerar el punto más bajo, en
términos de IM, que señalará el estado límite. Generalizar este concepto a toda la curva IDA
significa que descartaremos su porción "por encima" de la primera línea plana (en términos de
IM) y consideraremos sólo puntos hasta este primer signo de inestabilidad dinámica (para
evitar la resonancia).

Nótese también que para la mayor parte de la discusión estaremos equiparando la


inestabilidad dinámica a la inestabilidad numérica en la predicción del colapso. Claramente la
no convergencia del esquema de integración en el tiempo es quizás el más seguro y quizás el
único equivalente numérico del fenómeno real del colapso dinámico. Pero, como en todos los
modelos, éste puede sufrir de la calidad del código numérico, el escalonamiento de la
integración e incluso el error de redondeo. Por lo tanto, asumiremos que tales asuntos se
cuidan tan bien como sea posible para permitir predicciones suficientemente exactas. Dicho
esto, vamos a establecer las reglas más básicas utilizadas para definir un estado límite.

Primero viene la regla basada en DM, que se genera a partir de una sentencia del formato: "Si
DM> CDM se supera el estado límite" (Figura 2.6 (a)). El concepto subyacente es generalmente
que DM es un indicador de daño, por lo tanto, cuando aumenta más allá de un cierto valor, el
modelo estructural se supone que está en el estado límite. Tales valores de C DM se pueden
obtener a través de experimentos, teoría o experiencia de ingeniería, y pueden no ser
deterministas pero tener una distribución de probabilidad. Un ejemplo es el límite de qmax =
2% que significa el nivel de rendimiento estructural de Ocupación Inmediata para marcos
resistentes al momento de acero (SMRFs) con conexiones de tipo 1 en las directrices de
FEMA(FEMA, 2000b).

También el enfoque utilizado por Mehanny y Deierlein (2000) es otro caso en el que se utiliza
un índice de daño específico de la estructura como DM y cuando su recíproco es mayor que la
unidad, se supone que se produjo el colapso. Tales límites pueden tener aleatoriedad
incorporada, por ejemplo, FEMA 350 (FEMA, 2000a) define un estado límite de colapso local
por el valor de qmax que induce una rotación de conexión suficiente para destruir la capacidad
de carga de gravedad de la conexión. Esto se define como una variable aleatoria basada en
pruebas, análisis y juicio para cada tipo de conexión - Incluso un valor CDM único puede
implicar múltiples puntos límite en una curva IDA (por ejemplo, la Figura 2.6 (a)) Esta
ambigüedad puede ser manejada Por un procedimiento ad hoc especificado (por ejemplo,
definiendo conservadoramente el punto de estado límite como el IM más bajo), o
reconociendo explícitamente las múltiples regiones que se ajustan y no se ajustan al nivel de
rendimiento. Las reglas basadas en DM tienen la ventaja de simplicidad y facilidad de
implementación, especialmente para niveles de rendimiento distintos del colapso. En el caso
de la capacidad de colapso, sin embargo, en realidad puede ser un signo de deficiencia del
modelo. Si el modelo es lo suficientemente realista, debería contener explícitamente dicha
información, es decir, mostrar un colapso por no convergencia en lugar de por una salida de
DM finita. Sin embargo, hay que reconocer que estos modelos pueden ser bastante
complicados y requieren muchos recursos, mientras que los números pueden ser a menudo
inestables. Por lo tanto, las reglas de estado límite de colapso basadas en DM pueden ser muy
útiles. También tienen la ventaja de ser consistentes con otros estados límite menos severos
que se identifican más naturalmente en términos de DM, por ejemplo, qmax.

La regla alternativa basada en IM, se genera principalmente a partir de la necesidad de evaluar


mejor la capacidad de colapso, al tener un solo punto en la curva IDA que claramente la divide
en dos regiones, una de no colapsar (IM inferior) y una de colapso ). Para las IM monótonas,
dicha regla se genera mediante una declaración de la forma: "Si IM >¸CIM entonces se excede
el estado límite" (Figura 2.6 (b)). Una diferencia importante con la categoría anterior es la
dificultad de prescribir un valor de aCIM que signifique un colapso para todas las curvas IDA,
por lo que tiene que hacerse individualmente, curva por curva. Sin embargo, la ventaja es que
genera claramente una única región de colapso, y la desventaja es la dificultad de definir tal
punto para cada curva de una manera consistente. En general, una regla de este tipo da como
resultado descripciones tanto de IM como de DM. Un caso especial (extremo) está tomando el
punto "final" de la curva como la capacidad, es decir, usando la línea plana (más baja) para
definir la capacidad (en términos de IM), donde toda la curva IDA hasta la primera aparición de
La inestabilidad dinámica se considera como no colapso.

El enfoque FEMA (2000a) 20% de pendiente tangente es, en efecto, una regla basada en IM; El
último punto de la curva con una pendiente tangente igual al 20% de la pendiente elástica se
define como el punto de capacidad. La idea es que el aplanamiento de la curva es un indicador
de inestabilidad dinámica (es decir, el DM aumenta a tasas cada vez más altas y se acelera
hacia el "infinito"). Dado que "infinito" no es un resultado numérico posible, nos contentamos
con retroceder a una tasa de aumento de qmax igual a cinco veces la tasa inicial o elástica,
como el lugar donde marcamos el punto de capacidad. Necesidad de atención

Ya que el posible comportamiento de "tejer" de una curva IDA puede proporcionar varios
puntos en los que la estructura parece dirigirse hacia el colapso, sólo para recuperarse a un
nivel de IM algo más alto, como en la Figura 2.6 (b); En principio, estos puntos inferiores
deberían ser descartados como candidatos de capacidad. También la falta de suavidad de la
curva real puede resultar ser un problema. Como se mencionó anteriormente, la curva IDA es,
en el mejor de los casos, plana y lisa, pero aún así, se pueden asignar pendientes tangentes
aproximadas a cada punto a lo largo de la misma empleando una interpolación suave. Para los
escépticos esto también puede ser pensado como una derivada discreta en una rejilla de
puntos que es una buena aproximación de "ingeniería" a la "tasa de cambio".

Las reglas simples mencionadas anteriormente son los bloques de construcción para construir
reglas compuestas, es decir, cláusulas lógicas compuestas de los tipos anteriores, más a
menudo unidas por operadores lógicos de OR. Por ejemplo, cuando una estructura tiene varios
modos de colapso, no detectables por un solo MD, es ventajoso detectar colapso global con
una cláusula OR para cada modo individual. Un ejemplo son las plataformas costa afuera
donde los modos de falla de pila o suelo son evidentes en la deriva de la cubierta mientras que
los fallos de los frenillos son más evidentes en la deriva entre niveles máximos. El primer
término inIM-evento que ocurre es el que rige la capacidad de colapso. Otro caso es la
capacidad Collapse Global, que como se define por FEMA en FEMA (2000a, b) es de hecho un
OR conjunción de la pendiente IM regla basada en 20% y a = 10% de reglas basado en DM
CDM, donde Sa (T1; 5%) y qmax son el IM yDM de elección. Si cualquiera de las dos reglas
obtiene, define la capacidad. Esto significa que el 20% de rigidez detecta el colapso inminente,
mientras que el límite del 10% protege contra los valores excesivos de qmax, indicativos de
regiones en las que el modelo puede no ser digno de confianza. Como se propone una
descripción de la capacidad de potencia, esta definición puede sufrir imprecisiones, ya que
cerca de la línea plana una amplia gama de valores de DM puede corresponder sólo a un
pequeño rango de IMs, haciendo así que el valor real de DM sea sensible a la calidad Del
trazado de la curva IDA y al valor (ad hoc) del 20%. Si, por el contrario, se utiliza una
descripción de MI, la regla se vuelve más robusta. Esta es una observación general de la
capacidad de colapso; Parece que se puede expresar mejor en términos de IM.
IDAs de múltiples registros y su resumen

Como debería ser evidente ahora, un estudio IDA de registro único no puede captar
completamente el comportamiento que un edificio puede mostrar en un evento futuro. El IDA
puede depender en gran medida del registro elegido, por lo que se necesitará un número
suficiente de registros para cubrir toda la gama de respuestas. Por lo tanto, debemos recurrir a
someter el modelo estructural a una serie de registros de movimiento en tierra.
Definición 6. UN ESTUDIO MULTI RECORD IDA es una colección de estudios IDA de registro de
un mismo modelo estructural, bajo diferentes acelerogramas.
Este estudio, en consecuencia, produce conjuntos de curvas IDA, que compartiendo una
selección común de IM y el mismo DM, se pueden trazar en el mismo gráfico, como en la
Figura 2.7 (a) para un marco de acero de 5 pisos con refuerzo.

Definición 7. Un CURVE SET IDA es una colección de curvas IDA del mismo modelo estructural
bajo diferentes acelerogramas, que están todos parametrizados en los mismos IMs y DM

Si bien cada curva, dado el modelo estructural y el registro de movimiento del suelo, es una
entidad determinista completamente definida, si queremos tener en cuenta la aleatoriedad
inherente con respecto a qué registro podría experimentar el edificio, tenemos que traer una
caracterización probabilística en juego (si se desea estimar cual es el sismo representado por
un registro que afectara a nuestra estructura durante la vida útil, necesitamos tener datos
probabilísticos de los sismos en la zona). La IDA dado el modelo estructural y una población
estadística de registros ya no es determinista; es una línea aleatoria, o una función aleatoria
DM = f (IM) (para un solo IM monotónico).

Entonces, de la misma manera que podemos resumir un conjunto de registros teniendo, por
ejemplo, la media, la mediana, y el 16%, el 84% de los espectros de respuesta, por lo que
podemos definir media, mediana y 16%, 84% Figura 2.7 (b)) para resumir (marginalmente) un
conjunto de curvas IDA. Por lo tanto, necesitamos métodos para estimar las estadísticas de
una muestra de líneas aleatorias 2D (asumiendo una única IM), un tema de Análisis de Datos
Funcionales (Ramsay y Silverman, 1996). Convenientemente caen en dos categorías
principales. (explicación Ortiz: como se puede trabajar con estadísticas en la toma de los
registro, también podemos tomar media, mediana, etc de las curvas ida multiregistro)

Primero son los métodos paramétricos. En este caso se asume un modelo paramétrico de la
DM dada la IM, cada línea se ajusta por separado, proporcionando una muestra de valores de
parámetro, y luego se obtienen las estadísticas de los parámetros. Alternativamente, un
modelo paramétrico de la DM mediana dado el IM puede ajustarse a todas las líneas
simultáneamente. Por ejemplo, considere el modelo de 2 parámetros, power-law θ max = α ·
[Sa (T1,5%)] β introducido por Shome y Cornell (1999), que bajo la suposición bien
documentada de lognormalidad de la distribución condicional de θmax dado Sa (T1,5%), a
menudo proporciona una descripción simple pero poderosa de las curvas, lo que permite
obtener algunos resultados analíticos importantes (Jalayer y Cornell, 2002; Cornell et al.,
2002). Esta es una propiedad general de los métodos paramétricos; mientras que carecen de la
flexibilidad para capturar con precisión cada curva, se conforman permitiendo que las
descripciones simples sean extraídas.
En el otro extremo del espectro están los métodos no paramétricos, que implican
principalmente el uso de "smoothers" de dispersión de diagrama como la media de marcha, la
mediana de ejecución, LOESS o la spline de suavizado (Hastie y Tibshirani, 1990). Tal vez el más
simple de todos ellos, la media de ejecución con una ventana de longitud cero (o media
transversal), implica simplemente calcular los valores de la DM en cada nivel de IM y luego
encontrar el promedio y la desviación estándar de DM dado el nivel de IM . Esto funciona bien
hasta el punto en que la primera curva IDA alcanza la capacidad, cuando DM se convierte en
infinito, al igual que la media de la curva IDA. Desafortunadamente, la mayoría de los
suavizadores padecen el mismo problema, pero la mediana de la sección transversal o fractil
de la sección transversal es, en general, más robusta. En lugar de calcular medios en cada nivel
de IM, ahora calculamos las medianas de muestra, 16% y 84% fractiles, que se vuelven infinitas
sólo cuando el colapso se produce en el 50%, 84% y 16% de los registros, respectivamente.
Otra ventaja es que bajo las suposiciones adecuadas (por ejemplo, continuidad y
monotonicidad de las curvas), la línea que conecta los x% de fractiles de DM dada IM es la
misma que la que conecta los (100-x)% fractiles de IM dado DM. Además, este esquema se
ajusta bien a la suposición bien soportada de la distribución lognormal de θmax dada Sa
(T1,5%), donde la
mediana es el "valor central" natural y el 16%, 84% fractiles corresponden a los tiempos
medianos de dispersión e, donde "dispersión" es la desviación estándar de los logaritmos de
los valores (Jalayer y Cornell, 2002).

Por último, una variante para el tratamiento de los colapsos es propuesta por Shome y Cornell
(2000), donde los momentos convencionales se utilizan para caracterizar los no colapsos,
eliminando así el problema de finitudes, mientras que la probabilidad de colapso dada la IM se
resume por separado una regresión logística.
Un problema más simple, pero importante, es el resumen de las capacidades de una muestra
de N curvas, expresada en DM.

Dado que no hay líneas aleatorias ni infinitos involucrados, el problema se reduce a las
estadísticas de muestra convencionales, por lo que podemos obtener medios, desviaciones
estándar o fractiles como de costumbre. Sin embargo, la lognormalidad observada en los datos
de capacidad, a menudo sugiere el uso de la mediana (por ejemplo, C bS a (T1,5%) o C bθmax),
estimada como el 50% fractile o como antilog de la media de la logaritmos y la desviación
estándar de los logaritmos como dispersión. Por último, al considerar los cálculos de
probabilidad de estado límite (véase la sección siguiente), es necesario abordar la dependencia
potencial (por ejemplo, la correlación) entre la capacidad y la demanda. Una investigación
limitada hasta la fecha ha revelado poca o ninguna correlación sistemática entre la capacidad
de DM y la demanda de DM (dado IM).

El IDA versus el Pushover estático no lineal

La naturaleza de carga incremental común del estudio IDA y la SPO sugiere una investigación
de la conexión entre sus resultados. Como ambos están destinados a describir la misma
estructura, debemos esperar alguna correlación entre la curva SPO y cualquier curva IDA del
edificio (Figura 2.1), e incluso más entre la SPO y la curva IDA resumida (mediana), como esta
última es menos variable y menos dependiente del registro. Sin embargo, para trazar ambos
en el mismo gráfico, deberíamos expresar preferiblemente el SPO en las coordenadas IM, DM
elegidas para el IDA resumido.

Aunque algunos DM (por ejemplo, θmax) pueden obtenerse fácilmente tanto del análisis
estático como dinámico, puede no ser tan natural convertir los IM, por ejemplo, el
cizallamiento de la base en Sa (T1,5%). El enfoque propuesto es ajustar la "rigidez elástica" de
la SPO para que sea la misma que la de la IDA, es decir, haciendo coincidir sus segmentos
elásticos. Esto se puede conseguir en el ejemplo antes mencionado dividiendo el cizallamiento
de base por la masa de construcción, que es todo lo que se necesita para sistemas SDOF, veces
un factor apropiado para sistemas MDOF.

Los resultados de este procedimiento se muestran en las Figuras 2.10 (a, b) donde trazamos la
curva de SPO, obtenida usando un patrón de fuerza de primer modo, en comparación con la
IDA mediana para un marco de acero de 20 pisos resistente al momento con conexiones
dúctiles y para un Marco de acero de 5 pisos con coordenadas Sa (T1,5%) y θmax. Claramente,
tanto la curva IDA como la SPO muestran intervalos similares de valores de DM.

Sin embargo, la IDA siempre sube mucho más que la SPO en términos de IM. Mientras que una
relación cuantitativa entre las dos curvas puede ser difícil, merecedor de estudios adicionales
(por ejemplo, Seneviratna y Krawinkler, 1997), cualitativamente podemos hacer algunas
observaciones, aparentemente bastante generales, que permiten inferir la forma aproximada
de la mediana IDA simplemente mirando en la SPO.

1. Por construcción, la región elástica de la SPO coincide bien con la IDA, incluyendo el primer
signo de no linealidad que aparece con los mismos valores de IM y DM para ambos.

2. Una región de rigidez reducida, pero aún no negativa, de la SPO se correlaciona en la IDA
con la regla aproximada de "desplazamiento igual" (para estructuras de período moderado)
(Veletsos y Newmark, 1960), es decir, una continuación cercana de la pendiente del régimen
elástico; de hecho, esta parte casi elástica de la IDA suele estar precedida por una porción de
endurecimiento (Figura 2.10 (a)). En cambio, las estructuras de período más corto mostrarán
un cierto ablandamiento.

3. Una pendiente negativa en la SPO se traduce en una región (de ablandamiento) de la IDA,
que puede conducir al colapso, es decir, un tramo aplanado de la ida IDA (Figura 2.10 (a)), a
menos que sea detenido por un segmento no negativo de la SPO antes de que alcance cero en
términos de IM (Figura 2.10 (b)).

4. Una región no negativa de la SPO que sigue a una pendiente negativa que ha causado una
caída IM significativa, aparentemente se presenta en la IDA como una nueva regla modificada
de "desplazamiento igual" (es decir, un segmento casi lineal que se encuentra en una secante)
que tiene menor "rigidez" que el elástico (Figura 2.10 (b)).
EL IDA en un marco PBEE (PERFOMANCE BASED EARTHQUAKE ENGINEERING)

El poder del IDAcomo método de análisis se utiliza bien en un marco probabilístico, donde nos
interesa la estimación de la probabilidad anual del evento de que la demanda excede el estado
límite o capacidad C. Esta es la probabilidad de excediendo un cierto estado límite, o de fallar
un nivel de desempeño (por ejemplo, ocupación inmediata o prevención de colapso en FEMA,
2000a), dentro de un período de tiempo dado. El cálculo se puede resumir en la ecuación de
enmarcamiento adoptada por el Pacific Earthquake Engineering Center (Cornell y Krawinkler,
2000).

Algoritmos IDA

A pesar de la simplicidad teórica de un estudio del IDA, en realidad un estudio de ellos puede
necesitar un recurso intensivo. Aunque nos gustaría tener una representación casi continua
del IDA para la mayoría de los modelos estructurales, el coste total de cada ejecución dinámica
no lineal nos obliga a pensar en algoritmos diseñados para seleccionar una rejilla óptima de
valores de IM discretos que proporcionarán la cobertura deseada.

La densidad de una rejilla en la curva se cuantifica mejor en términos de los valores de IM


utilizados, siendo los objetivos: una alta resolución de demanda, lograda por la distribución
uniforme de los puntos y por lo tanto no tener brecha en nuestros valores de IM mayores que
alguna tolerancia; una resolución de alta capacidad, que requiere una concentración de
puntos alrededor de la línea plana para fijarla apropiadamente, por ejemplo, teniendo una
distancia entre el más alto (en términos de IM) "no colapsar" correr y el más bajo "colapso"
que alguna tolerancia.

En un estudio IDA multi-registro hay algunas ventajas que se obtienen al utilizar información
de los resultados de un registro para adaptar la cuadrícula de puntos que se utilizarán en el
siguiente. Incluso sin explotar estas oportunidades, todavía podemos diseñar métodos
eficientes para abordar cada registro por separado que son más sencillos y más susceptibles a
la paralelización en múltiples procesadores. Por lo tanto, nos centraremos en el rastreo de
curvas IDA individuales.
Probablemente la solución más simple es un algoritmo de escalonamiento, donde el IM se
incrementa por un paso constante de cero a colapso, una versión de la cual también se
describe en Yun et al. (2002). El resultado final es una cuadrícula uniformemente espaciada (en
IM) de puntos en la curva. El algoritmo sólo necesita un valor de paso predefinido y una regla
para determinar cuándo parar, es decir, cuando una ejecución se está contrayendo.

repetir
aumentar IM por el paso
escala de registro, ejecutar análisis y extracto DM (s)
hasta que llegue el colapso

Cuando las tres piezas se ejecutan secuencialmente, hacen un procedimiento más eficiente, un
algoritmo de rastreo de caza y llenado, descrito en detalle por Vamvatsikos y Cornell (2002b),
que realiza saltos cada vez mayores, intentando limitar el espacio del parámetro IM y luego
llena las lagunas, tanto de capacidad como de demanda. Necesita un paso inicial y una regla de
parada, al igual que el algoritmo de escalonamiento, además de una función de aumento de
paso, una capacidad y una resolución de demanda. Los dos últimos pueden ser seleccionados
de modo que se realice un número prescrito de ejecuciones en cada registro, trazando así cada
curva con la misma carga de recursos.

Un problema sutil aquí es el resumen de las curvas IDA producidas por el algoritmo.
Obviamente, si se utiliza el mismo paso para todos los registros y si no hay necesidad de usar
otro IM, el algoritmo de escalonamiento nos proporciona inmediatamente franjas de DM a
valores dados de IM (por ejemplo, Figura 2.8).

Así, un esquema de "mediana transversal" podría implementarse inmediatamente en la salida,


sin ningún post-procesamiento. Por otro lado, un algoritmo de caza y relleno produciría
valores de DM en niveles no coincidentes de IM a través del conjunto de registros, lo que
requiere la interpolación de la curva IDA resultante para calcular valores intermedios.
Naturalmente, la misma idea se puede aplicar a la salida de cualquier algoritmo de rastreo IDA,
incluso un escalonamiento, para aumentar la densidad de puntos discretos sin necesidad de
análisis dinámicos adicionales. Idealmente, debe utilizarse un esquema flexible, altamente no
paramétrico. Las splines naturales transformadas en coordenadas, tal como se presentan en
Vamvatsikos y Cornell (2002b), son un buen candidato. En realidad todas las curvas IDA en las
figuras del papel son resultados de tal interpolación de puntos discretos. Sin embargo, antes
de implementar cualquier esquema de interpolación, se debe proporcionar una rejilla
suficientemente densa de valores de IM para obtener una alta confianza en detectar cualquier
resurrección estructural que pueda ocurrir antes.

Seguimiento y post-procesamiento de curvas IDA: Teoría e implementación de software,


Informe No. RMS-44, Programa RMS
APLICACIÒN DEL IDA A UNA ESTRUCTURA DE 9 PISOS DE ACERO

Abstracto
Presentar un ejemplo práctico y detallado de cómo realizar el Análisis Dinámico Incremental
(IDA), interpretar los resultados y aplicarlos a la Ingeniería de Terremotos Basada en el
Desempeño. IDA es un método de análisis emergente que ofrece una capacidad de evaluar la
demanda sísmica y capacidad de predicción de capacidad mediante el uso de una serie de
análisis dinámicos no lineales bajo una serie de registros de movimientos en tierra
ampliamente escalados. La realización de sus oportunidades requiere de varios pasos y el uso
de técnicas innovadoras en cada una de ellas. Usando un marco de acero de 9 pisos resistente
al momento con conexiones de fracturación; como un banco de pruebas, el lector es guiado a
través de cada paso de IDA: (1) Selección de Medidas de Intensidad y Medidas de Daño
representativas, (2) usando algoritmos apropiados para seleccionar el escalamiento récord, (3)
empleando la interpolación apropiada y (4) técnicas de resumen para múltiples registros para
estimar la distribución de probabilidad de la demanda estructural dada la intensidad sísmica y
(5) definiendo estados límite, tales como la inestabilidad dinámica del sistema global, para
calcular las capacidades correspondientes . Finalmente, (6) los resultados pueden utilizarse
para obtener intuición para el comportamiento estructural, destacando la conexión entre el
Pushover Estático (SPO) y la respuesta dinámica, o (7) pueden ser integrados con el Análisis de
Riesgo Sísmico Probabilístico (PSHA, por sus siglas en inglés) para estimar las frecuencias
anuales medias de excedencia del estado límite. Sobre la base de este ejemplo detallado
basado en los 9 pisos, se proporciona un comentario completo, discutiendo las opciones
disponibles para el usuario y mostrando sus implicaciones para cada paso de la IDA.

INTRODUCCION

Una cuestión importante en la Ingeniería de Terremotos Basada en el Desempeño (PBEE) es la


estimación del rendimiento estructural bajo cargas sísmicas, en particular la estimación de la
frecuencia anual media (MAF) de superar un nivel especificado de demanda estructural (por
ejemplo, el máximo, sobre todo historias, relación de desviación interstorial máxima θmax) o
una cierta capacidad límite-estado (por ejemplo, inestabilidad dinámica global). Un método
prometedor que ha surgido recientemente para satisfacer estas necesidades es el Análisis
Dinámico Incremental (IDA), que consiste en realizar análisis dinámicos no lineales del modelo
estructural bajo una serie de registros de movimiento en el suelo, cada uno escalado a varios
niveles de intensidad diseñados para forzar la estructura desde la elasticidad hasta la
inestabilidad dinámica global final (Vamvatsikos y Cornell, 2002a). Aplicar IDA para determinar
el desempeño de una estructura requiere varios pasos. Primero, se debe formar un modelo
estructural no lineal apropiado, y se debe recopilar una serie de registros. Luego, para cada
registro, se deben seleccionar los niveles de escala, los análisis dinámicos y los resultados
posprocesados. Por lo tanto, podemos generar curvas IDA de la respuesta estructural, como se
mide mediante una Medida de Daño (DM, por ejemplo, relación de desviación del techo de
pico θrobo o θmax), en comparación con el movimiento del suelo medido por una Medida de
Intensidad (IM, p. ej., aceleración máxima del suelo, PGA, o la aceleración espectral del primer
modo amortiguada al 5% Sa (T1,5%)). A su vez, éstos se interpolan para cada registro y se
resumen sobre todos los registros para estimar la distribución de la demanda DM dada
intensidad IM. Posteriormente, se pueden definir estados límite (por ejemplo, ocupación
inmediata o prevención de colapso en FEMA, 2000a, b) en cada curva IDA y resumirse para
producir la probabilidad de exceder un estado límite especificado dado el nivel de IM. Los
resultados finales están en un formato ser convenientemente integrado con una curva de
riesgo PSHA convencional con el fin de calcular MAFs de superar una cierta capacidad de
estado límite, o una cierta demanda.
Sobre la base de esta base, vamos a discutir varios temas de interés práctico, mostrando en
detalle las razones detrás de las opciones hechas en nuestro ejemplo y las ventajas o
desventajas de cada uno. En particular, se van a presentar temas como el número de
ejecuciones, los algoritmos utilizados para la selección del nivel de escala y las posibles
aproximaciones utilizadas para los cálculos probabilísticos, mostrando su impacto sobre la
precisión de los cálculos PBEE.

Registros de movimiento del suelo y el modelo estructural

Para ilustrar nuestra metodología, usaremos un modelo un marco de acero tipo frame de 9
pisos resistente al momento diseñado para Los Ángeles de acuerdo con las disposiciones de
NEHRP de 1997 (Lee y Foutch, 2002). El modelo tiene un periodo de primer modo de T1 = 2,37
seg e incorpora miembros dúctiles, paneles de corte y fracturamiento realista de conexiones
de sección de haz reducido, mientras que incluye la influencia de columnas de gravedad
interior y un tratamiento de primer orden de no linealidades geométricas globales (P -Δ
efectos).

Además necesitamos una serie de registros de movimientos en tierra. Estudios anteriores


(Shome y Cornell, 1999) han demostrado que para edificios de mediana altura, entre diez y
veinte registros suelen ser suficientes para proporcionar una precisión suficiente en la
estimación de demandas sísmicas, asumiendo una IM relativamente eficiente, como Sa
(T1,5%). , se utiliza. Por consiguiente, hemos seleccionado un conjunto de veinte registros de
movimientos de tierra, enumerados en la Tabla 3.1, que pertenecen a un contenedor de
magnitudes relativamente grandes de 6,5 - 6,9 y distancias moderadas, todas registradas en
suelo firme y sin marcas de directividad; efectivamente representan un terremoto de
escenario.

Realización del análisis

Una vez que se ha formado el modelo y se han seleccionado los registros de movimientos del
suelo, necesitamos una manera rápida y automatizada de realizar los análisis dinámicos reales
requeridos para IDA. Esto implica escalar apropiadamente cada registro para abarcar toda la
gama de respuestas estructurales, desde la elasticidad hasta el rendimiento, y finalmente la
inestabilidad dinámica global. Nuestra tarea se hace mucho más fácil mediante el uso de un
algoritmo avanzado, como cazar y llenar (Vamvatsikos y Cornell, 2002a). Esto asegura que los
niveles de escala de registro se seleccionan apropiadamente para minimizar el número de
ejecuciones requeridas:
Los análisis se llevan a cabo a niveles rápidamente crecientes de IM hasta que no se encuentre
convergencia numérica (señalización de la inestabilidad dinámica global), mientras que los
análisis adicionales se ejecutan en niveles IM intermedios para colindar suficientemente al
colapso global y aumentar la precisión en IMs inferiores. El usuario sólo necesita especificar la
precisión deseada para la demanda y la capacidad, seleccionar el número máximo tolerable de
análisis dinámicos y esperar unas horas para obtener los resultados. Dado que el algoritmo ha
sido implementado en software (Vamvatsikos y Cornell, 2002b) capaz de envolver la mayoría
de los programas de análisis existentes (por ejemplo, DRAIN-2DX, Prakhash et al., 1992), hace
que IDA sea casi sin esfuerzo.

Como ejemplo, mostraremos en detalle los cálculos resultantes de los niveles de IM


seleccionados por hunt & fill al trazar el registro # 14 de la Tabla 3.1. Para expresar el nivel de
escala necesitamos una elección inicial y temporal de IM, y hemos escogido Sa (T1, 5%), una
decisión que no necesita restringirnos de ninguna manera: la escala puede ser reexpresada en
cualquier otra IM escalable Vamvatsikos y Cornell, 2002a) que deseamos después de que se
realicen las pruebas. Por lo tanto, en términos de Sa (T1, 5%), el algoritmo se configuró para
utilizar un paso inicial de 0,1 g, un incremento escalonado de 0,05g y un primer
desplazamiento elástico designado a 0,005 g, mientras que se permitió un máximo de 12
recorridos cada registro.

Adicionalmente, especificamos una resolución del 10% sobre la capacidad de colapso global, es
decir, esperamos que el modelo desarrolle una convergencia numérica y muestre
prácticamente infinito θmax en algún nivel de alta intensidad, y deseamos que este nivel sea
conocido dentro del 10% de su valor de IM. Finalmente, permitimos que la resolución de la
demanda, es decir, la diferencia máxima entre valores sucesivos de IM, se ejecute a su mejor
valor alcanzable gastando todas las 12 ejecuciones. Alternativamente, podríamos haber
designado una brecha de IM mínima satisfactoria por debajo de la cual no queremos proceder,
ahorrando así algunas carreras.

Usando los ajustes anteriores obtenemos la secuencia de ejecuciones mostrada en la Tabla


3.2. La primera ejecución está destinada a estar en la región elástica.

En las siguientes cinco series, 2-6, estamos cazando hacia arriba hasta que la primera
convergencia numérica aparece en forma de "infinito" θmax.

Entonces, el algoritmo de análisis dinámico no converge o bien no completar la ejecución


dinámica (como sucedió para este registro) o producir valores extremos de θmax, digamos
200%.

Las siguientes dos series, 7-8, se usan para mejorar el soporte de la primera aparición de no
convergencia, cerrando dentro del 10% de su valor de IM ((0,872-0,805) / 0,805 = 8,32% <10%)
para que la brecha entre la convergencia más alta y la menor convergencia no convergente es
menor que el 10% de la primera.

Observe, que en lugar de colocar cada nueva ejecución en el medio de la brecha, el algoritmo
lo coloca más cerca de la convergencia de ejecución, sólo un tercio del camino a la no
convergente. Esto asegura que la búsqueda será algo sesgada hacia las ejecuciones
convergentes, que son más informativas que las no convergentes (que son esencialmente
descartadas).

El resto de las carreras, hasta el máximo de 12, se utilizan para llenar el IDA a
niveles, situándose secuencialmente en el centro de las mayores brechas de IM. De este modo,
se rellenan las grandes lagunas dejadas por las etapas iniciales de incremento de la línea plana
(pistas 2-6); este paso aumenta la resolución de la demanda y, dado suficientes ejecuciones,
asegura que el algoritmo no ha perdido un colapso anterior.
Aunque es un fenómeno raro en los modelos estructurales de varios grados de libertad, ciertos
registros pueden hacer que se derrumben para una gama de valores de IM, pero no para
algunos IM superior, un evento que llamamos resurrección estructural (Vamvatsikos y Cornell,
2002a). Al reducir las brechas de IM con las series 9-12, nos aseguramos de que no hemos
perdido un colapso global anterior (en términos de IM) y que la línea plana que hemos
encontrado es la primera en ocurrir.

Observe que la brecha de IM máxima, es decir, la resolución de demanda, es de


aproximadamente 0,13 g (pero menos de la mitad en promedio), mientras que la diferencia de
IM entre la convergencia más alta y la convergencia más baja (la resolución de capacidad) es
mucho menor del 10% de la IM más alta convergente, aproximadamente 0,06 g.
Naturalmente, si conociéramos a priori la altura IM aproximada de la línea plana, podríamos
usar un algoritmo escalonado con 12 pasadas y paso constante de 0,1g para lograr resultados
similares con una distribución homogénea de la precisión, pero este esquema fallaría con el
próximos registros, produciendo o bien muy pocas o demasiadas ejecuciones, debido a la gran
variabilidad de registro a registro.

Suponiendo que el costo computacional para cada ejecución es el mismo, entonces, cuanto
más los análisis por registro, más largo para IDA para completar, pero mejor será la precisión.
Sin embargo, con el uso de un algoritmo tan avanzado, no se pierden carreras, por lo que 12
carreras por registro bastarán para lograr un buen compromiso entre velocidad y precisión. Sin
embargo, cabe señalar que realizar 240 carreras dinámicas para un modelo con miles de
grados de libertad es una tarea desalentadora. Sin embargo, incluso para un modelo tan
complicado, tomó menos de 12 horas en dos procesadores de clase Pentium de 1999 que
funcionaban de forma independiente.

El proceso es totalmente automatizado y se realiza tan fácilmente durante la noche que


realmente la creación del modelo estructural ahora se puede esperar tomar mucho más
tiempo (humano) que hacer el análisis, mientras que el tiempo de la computadora se está
convirtiendo en un producto cada vez más barato.

Postprocesamiento

Igualmente importante para el análisis es el post-procesamiento de los datos resultantes y tal


vez el aspecto más importante es seleccionar un IM y DM adecuados. Hay varios problemas de
eficiencia y suficiencia asociados con la selección de IM (Luco y Cornell, 2004).

Dado que no hay registros de directividad influenciados en nuestra suite y el edificio es de


altura media (por lo tanto, de primer modo-dominado), el 5% de amortiguación de la
aceleración espectral de primer modo Sa (T1,5%) será nuestra elección; se ha demostrado que
es eficiente, al minimizar la dispersión en los resultados, requiriendo sólo unos pocos registros
de movimiento en tierra para proporcionar estimaciones de buena demanda y capacidad, y
suficiente, ya que proporciona una caracterización completa de la respuesta sin necesidad de
magnitud o información de distancia fuente-a-sitio (Shome y Cornell, 1999).

De manera similar, la selección de un DM puede ser específica de la aplicación; por ejemplo,


las aceleraciones del piso máximo se correlacionan con el daño de los contenidos y muchos
tipos de daños de los elementos no estructurales, mientras que la relación máxima de la
desviación interstorial de pico θmax (el máximo con el tiempo y sobre todas las historias de las
relaciones de deriva interstoria registradas durante el análisis de la historia del tiempo) se sabe
que se relacionan bien (FEMA, 2000a) con la inestabilidad dinámica global y con varios estados
límite de rendimiento estructural sobre los cuales pretendemos enfocar.

Por lo tanto, θmax será nuestra elección de DM. Sin embargo, debe enfatizarse que estas
elecciones IM y DM no son en absoluto limitantes. Suponiendo que se han registrado DM
adicionales a partir de los análisis, pueden sustituirse en lugar de θmax y, empleando las
técnicas de postprocesamiento presentadas, los datos IDA pueden expresarse en una IM
escalable diferente, sin necesidad de volver a realizar los análisis dinámicos.

Habiendo seleccionado nuestra IM y DM, todavía nos enfrentamos a una abundancia de datos
generados por la IDA que necesitan ser resueltos y presentados de manera significativa. Es una
tarea larga y desafiante que vamos a paso nuestro camino a través, pero se puede hacer
totalmente sin esfuerzo con el software adecuado. En realidad, la mayor parte de lo que sigue
es una descripción directa del funcionamiento interno de un programa automatizado de
postprocesamiento (Vamvatsikos y Cornell, 2002b), cuya salida gráfica aparece en las figuras
adjuntas.

Generar las curvas IDA mediante interpolación

Una vez que se extraen los valores deseados de IM y DM (en nuestro caso Sa (T1,5%) y θmax)
de cada uno de los análisis dinámicos, se nos deja un conjunto de puntos discretos para cada
registro que reside en el plano IM-DM y se encuentran en su curva IDA, como en la figura 3.1.
Al interpolarlos, la curva IDA completa puede aproximarse sin realizar análisis adicionales. Para
hacerlo, podemos usar una aproximación lineal a tramos básica, o la interpolación spline
superior.

Basado en el concepto de splines paramétricos naturales, coordenados y transformados con


un esquema centrípeto para la selección de nudos (Lee, 1989; Farin, 1990), se puede generar
una interpolación realista que represente con precisión la curva IDA real, como se muestra en
la Figura 3.1 para nuestro ejemplo del registro # 14 en la Tabla 3.2. Con la curva completa
disponible, ahora es posible calcular valores de DM a niveles arbitrarios de IM, lo que permite
la extracción de más puntos (IM, DM) con un mínimo de cálculo.

La spline viene en n piezas polinómicas cúbicas y se parametriza en un solo parámetro no


negativo, t ∈ [0,t1]U…US[tn−1,tn], donde n es el número de ejecuciones / puntos convergentes,
incluido el punto predeterminado (0,0), es decir, n = 10+ 1 = 11 para el registro # 14 Tabla 3.2.
Para cada valor del parámetro t, y dependiendo del intervalo [ti-1, ti] donde se encuentra,
obtenemos dos polinomios, uno para el IM (la variable x) y otro para el DM (la variable y):

Con la ayuda de la ecuación (3.1) podemos aproximar el valor DM a niveles arbitrarios de


mensajería instantánea y viceversa. Todo lo que necesitamos es resolver la pieza de polinomio
xi (t) adecuada dado el valor de x para obtener el parámetro t y luego reemplazar en la pieza yi
(t) correspondiente para obtener el valor y (DM) apropiado, es decir,
donde el superíndice -1 denota el inverso de una función. Todas estas operaciones solo
implican polinomios, por lo tanto, son triviales de realizar, especialmente si se codifican
correctamente en un programa.

La suave curva IDA proporcionada por el esquema de interpolación ofrece mucho que
observar. Incluso para el registro único representado en la Figura 3.1, la curva IDA no es en
absoluto simple. Comienza como una línea recta en el rango elástico, pero luego muestra el
efecto de ceder y se "suaviza" ligeramente a 0.3 g al mostrar una pendiente tangente menor
que el elástico. Posteriormente, "endurece", teniendo una pendiente local más alta que el
elástico, y el edificio responde aparentemente con casi el mismo θmax ≈ 3% para Sa (T1,5%) en
el rango de 0.35g - 0.55g. Finalmente, la curva IDA comienza a ablandarse nuevamente,
mostrando pendientes cada vez más bajas, es decir, mayores tasas de acumulación de DM a
medida que aumenta el IM, llegando a la "línea plana" en Sa (T1,5%) ≈ 0,81 g, donde la
estructura responde con prácticamente "infinito" "Se han encontrado valores θmax y no
convergencia numérica durante el análisis. Es entonces cuando el edificio ha alcanzado la
inestabilidad dinámica global, cuando un pequeño incremento en el nivel IM resulta en un
aumento ilimitado de la respuesta DM.

Observando la Figura 3.1, se hace evidente que la relación de IM (o x) yt en la Ecuación 3.1


siempre debería estar aumentando monótonamente. La formulación presentada no hace
cumplir estrictamente esta propiedad, pero una spline correctamente ajustada siempre
observará esta restricción. En consecuencia, la ecuación (3.2) siempre devolverá solo un DM
para un IM dado. Por otro lado, la relación de DM y t a menudo no es monotónica, debido al
endurecimiento ocasional de las curvas IDA, por lo que la ecuación (3.3) puede generar más de
una solución IM que produzca un DM dado.

Definición de estados límite en una curva IDA

Para poder hacer los cálculos de rendimiento necesarios para PBEE, necesitamos definir
estados límite en las curvas IDA. Para nuestro estudio de caso, elegimos demostrar tres:
Ocupación Inmediata (IO), Colapso Prevención (CP), ambos definidos en FEMA (2000a, b) e
inestabilidad dinámica global (GI). Para un marco resistente al momento de acero con
conexiones de sección de viga reducida, IO se viola en θ max = 2% de acuerdo con FEMA
(2000a). Por otro lado, no se excede la CP en la curva IDA hasta el punto final donde la
tangente local alcanza el 20% de la pendiente elástica (Figura 3.2) o θmax = 10%, lo que ocurra
primero en términos IM (FEMA, 2000a).

La idea principal es colocar el estado límite CP en un punto donde la curva IDA se suaviza hacia
la línea plana, pero a valores suficientemente bajos de θmax, de modo que aún confiamos en
el modelo estructural. Finalmente, el GI ocurre cuando se alcanza la línea plana y cualquier
aumento en el IM resulta en una respuesta de DM prácticamente infinita.
Calcular el valor de IM de la capacidad de línea plana es trivial, ya que nuestro mejor estimado
es en realidad un lugar entre la ejecución convergente numérica más alta y la ejecución no
convergente más baja, como lo produce el algoritmo de caza y relleno. Elegimos utilizar el
valor IM de la ejecución numérica más alta como la estimación, por ejemplo, Sa (T1,5%) = 0,81
g para el registro # 14. Podríamos haber utilizado, por ejemplo, el promedio de la ejecución no
convergente más alta convergente y más baja, (0.81 + 0.87) / 2 = 0.84g, pero la diferencia es
insignificante y cada vez es más pequeña a medida que aumentamos nuestra resolución de
capacidad en Cazar y rellenar algoritmo de seguimiento.

Es igualmente fácil calcular los valores de IM para el estado límite de IO; todo lo que tenemos
que hacer es usar la ecuación (3.3) para DM ≡ θmax = 2%, calcular todos los valores de IM que
producen θmax = 2% y, si es más de uno, seleccionar el valor más bajo. Este es el que señala la
primera superación del estado límite para el registro dado. Para nuestro ejemplo del registro #
14 en la Figura 3.2, IO se viola por Sa (T1,5%) ≥ 0,26g o θmax ≥ 2%.

Por otro lado, los puntos CP son más difíciles de generar, ya que necesitamos la pendiente
tangente (es decir, la derivada de primer orden) de la curva IDA para encontrar puntos donde
la rigidez local sea del 20% del elástico. También necesitamos la curvatura de la curva IDA, para
descartar los puntos candidatos que se encuentran en una parte de endurecimiento de la
curva, en lugar del ablandamiento deseado. La interpolación spline cúbica es, por definición,
dos veces diferenciable en todas partes, por lo que si usamos el prime para denotar la
diferenciación mediante el parámetro de interpolación ty aplicamos la regla de cadena,
podemos generar las dos primeras derivadas de IM (o x) dada DM (o y ):

De acuerdo con el concepto de estado límite de CP, debemos encontrar el punto más alto (en
el valor IM) donde la pendiente IDA es igual al 20% del elástico, mientras que el punto también
pertenece a una rama suavizante. Además, otro punto candidato está en θmax = 10%; por lo
tanto, lo que ocurra primero (en IM), la pendiente o el límite θmax, decide la capacidad. Por lo
tanto, especificamos:

Todo lo que tenemos que hacer es resolver para todo t la ecuación (3.6) y seleccionar el
máximo tal t (correspondiente a la IM máxima) que todavía satisface la ecuación (3.7). Luego,
comparamos con el mínimo t que satisface (3.8). Cualquiera que sea el más pequeño es el t
que define el punto CP. Siguiendo este procedimiento con el registro # 14 obtenemos: Sa
(T1,5%) = 0,72g, θmax = 6,4% de las ecuaciones (3,6) - (3,7), y Sa (T1,5%) = 0,76g, θmax = 10 %
desde (3.8). Al elegir el t más pequeño, o equivalentemente el IM más pequeño, terminamos
con el primero de los dos puntos, es decir, en este caso, el límite de pendiente define CP
(Figura 3.2).
RESUMIENDO LOS IDA

Al generar la curva IDA para cada registro y posteriormente definir las capacidades de estado
límite, se puede recopilar una gran cantidad de datos, solo una parte de los cuales se ve en la
Figura 3.3. Allí, las curvas IDA muestran una amplia gama de comportamientos, mostrando una
gran variabilidad de registro a registro, por lo que es esencial resumir dichos datos y cuantificar
la aleatoriedad introducida por los registros. Debemos emplear técnicas de resumen
apropiadas que reduzcan estos datos a la distribución de IM administrada por DM y a la
probabilidad de exceder cualquier estado límite específico dado el nivel de IM.

Las capacidades de estado límite se pueden resumir fácilmente en algún valor central (por
ejemplo, la media o la mediana) y una medida de dispersión (por ejemplo, la desviación
estándar o la diferencia entre dos fractiles). En consecuencia, hemos elegido calcular los
valores fractiles de 16%, 50% y 84% de DM (DMC 16%, DMc 50% y DMC 84% respectivamente)
e IM (IMc 16%, IMc 50% y IMC 84% respectivamente) para cada estado límite, como se
muestra en la Tabla 3.3, y también gráficamente representado en la Figura 3.4. Por ejemplo, si
se lee en la Tabla 3.3, en Sa (T1,5%) = 0,83g o equivalentemente en θmax = 0,10, el 50% de los
registros de movimiento del terreno han forzado a la estructura de 9 pisos a violar el CP.

Existen varios métodos para resumir las curvas IDA, pero los fractiles transversales son
posiblemente los más flexibles y robustos con respecto a los DM infinitos introducidos por las
líneas planas (Vamvatsikos y Cornell, 2002a). Usando la interpolación spline podemos generar
rayas de valores DM en niveles arbitrarios del IM; cada banda contiene veinte valores DM, uno
para cada registro, que puede ser finito o incluso infinito cuando un registro ya ha alcanzado
su línea plana a un nivel IM inferior.

Al resumir los valores de DM para cada raya en sus percentiles de 16%, 50% y 84%, obtenemos
valores de fractiles de DM administrados por IM que a su vez son interpolados para cada fractil
para generar IDA fractil del 16%, 50% y 84% curvas, que se muestran en la figura 3.4.

Por ejemplo, dado Sa (T1,5%) = 0,4 g, el 16% de los registros produce θmax ≤ 2,3%, 50% de los
registros θmax ≤ 2,5% y 84% θmax ≤ 6,5%. Bajo los supuestos adecuados de continuidad y
monotonicidad de las curvas IDA (como se muestra en una sección posterior), los fractiles
también pueden usarse de manera inversa, por ejemplo, para generar la demanda θmax = 4%,
el 84% de los registros necesitan escalar a niveles Sa (T1,5%) ≥ 0,31 g, 50% de los registros en
Sa (T1,5%) ≥ 0,52 gy 16% en Sa (T1,5%) ≥ 0,76 g. En consecuencia, los puntos de IO de 16%,
50% y 84% y líneas planas de IG residen realmente en las curvas IDA de 84%, 50% y 16%,
respectivamente, como resultado directo de la definición de estos estados límite. Por otro
lado, no existe tal propiedad general para los puntos de CP, pero la experiencia ha demostrado
que por lo general se encuentran bastante cerca y, a menudo, sobre sus correspondientes IDA
fractiles, al igual que los demás puntos de estado límite.

Aprovechando los datos: SPO versus IDA


Más allá de los cálculos esenciales necesarios para el PBEE, hay mucha más información que
podríamos obtener fácilmente de la IDA al examinar más de cerca los resultados y trazarlos de
formas nuevas. Por ejemplo, la Figura 3.6 muestra un perfil de la historia de piso de las
relaciones de deriva interstoria de pico medio en varios niveles Sa (T1,5%). A medida que la
intensidad aumenta, entonces, en un sentido mediano en todos los registros, el quinto piso
parece acumular la mayor parte de la deformación. Por otro lado, en la Figura 3.7, las curvas
IDA de la deriva de la historia individual se trazan para el registro # 1, mostrando una imagen
específica de registro de los pisos impares. Lo más interesante para este registro es el cambio
repentino de comportamiento que ocurre alrededor de Sa (T1,5%) = 0,82 g, cuando los pisos
superiores de repente comienzan a acumular más y más deformación a medida que aumenta
el IM, mientras que los pisos inferiores que llevan anteriormente se retienen, mostrando
desplazamientos intersticiales de pico casi constantes.

También es muy informativo comparar visualmente en la misma figura la curva de empuje


estático (SPO) (también conocida como curva de procedimiento estático no lineal, p. Ej., FEMA,
1997) frente a la IDA mediana (50% -fráctil). Como la curva SPO generalmente se expresa en el
cortante dela base frente a las coordenadas θroof (relación de desviación del tejado máximo),
debe transformarse en ejes IM y DM.

En nuestro caso, la respuesta θmax puede extraerse fácilmente de los resultados del análisis
de SPO, mientras que la cizalladura base se puede convertir a unidades de aceleración
dividiendo con el tiempo de masa de la construcción algún factor (ad hoc) elegido para hacer
que las curvas coincidan en su rango elástico . Esto se puede lograr para nuestra estructura al
dividir la cizalladura base con el 85% de la masa total de la construcción (que está muy cerca
de la relación del primer modal sobre la masa total). Al trazar así las dos curvas juntas, como se
muestra en la Figura 3.8, vemos que se corresponden entre sí. La región elástica del IDA
coincide con el SPO por construcción, y el segmento SPO no negativo posterior al rendimiento
corresponde a una continuación de la región elástica en el IDA, donde el IDA sigue la conocida
regla de "desplazamiento igual" para estructuras de período moderado (Veletsos y Newmark,
1960). Cuando la SPO se convierte en una pendiente negativa, la IDA se suaviza y adquiere una
pendiente local menor que el elástico inicial, que disminuye gradualmente hasta que la IDA se
vuelve plana. Esencialmente, la terminación de la SPO a cero fuerza señala el final de la IDA por
la línea plana.

Entonces surge la pregunta de por qué existe esta relación. Se puede arrojar algo de luz sobre
este problema si simplificamos el problema y pensamos en términos de un sistema de un solo
grado de libertad con una columna vertebral de deformación de la fuerza que tenga la forma
de la curva SPO del edificio. Entonces debemos darnos cuenta de que en términos de
dinámica, en lo que concierne a la IDA, una parte ascendente de la "columna vertebral"
generalmente significa una parte "dinámicamente estable", mientras que una rama
descendente corresponde a una parte "dinámicamente inestable" (por ejemplo, Macrae y
Kawashima, 1997).

Para cada ejecución dinámica, el valor θmax sirve como indicador de si el edificio se ha
mantenido completamente en las partes ascendentes (aproximadamente θmax <5% en la
Figura 3.8) o también se ha aventurado en la rama descendente. Por lo tanto, para IM
inferiores, aproximadamente Sa (T1,5%) <0,6 g en la Figura 3.8, el edificio (en un sentido
mediano, es decir, para al menos el 50% de los registros) oscila a lo largo de la parte
ascendente de su "columna vertebral SPO "Por lo tanto, el aumento de θmax está controlado y
estable en la mediana. Pero para los IM más elevados, la construcción (en sentido medio
nuevamente) también mantiene cada vez más ciclos en la parte descendente de la "columna
vertebral SPO", por lo tanto, la mediana θmax aumenta incontrolablemente hacia el infinito.

Esto puede ayudarnos a comprender por qué el comportamiento de la IDA mediana cambia
tan drásticamente cuando la mediana θmax es superior al 5%, ya que cambia de una rama
ascendente a una descendente. Por el contrario, la IDA mediana permanece prácticamente
indiferente cuando esta estructura de período moderado pasa de la parte elástica al segmento
post-rendimiento no negativo de la SPO, ya que ambas son ramas ascendentes.

Al observar estos hechos, se podría estipular que se pueden idear algunas reglas más directas,
quizás cuantitativas, para conectar las dos curvas. En realidad, uno de esos intentos se probó
tanto para sistemas individuales (Vamvatsikos y Cornell, 2004c) como para sistemas de
múltiples grados de libertad (Vamvatsikos y Cornell, 2004b) con resultados alentadores.

Discusión de las elecciones y su influencia en IDA

Llevamos al lector a través de un ejemplo directo y directo de cómo realizar IDA y aplicarlo a
los fines del PBEE. En cada paso tuvimos que tomar algunas decisiones, por ejemplo, cómo
configurar el algoritmo de análisis dinámico, qué algoritmo de trazado y esquema de
interpolación usar, cómo resumir los IDA (usando rayas dadas el IM en lugar de rayas dadas el
DM) o cómo muchos registros y cuántas carreras por registro para permitir. Sin embargo,
decidimos no centrarnos en tales detalles; En su lugar, procedimos haciendo elecciones
aparentemente ad hoc. Ahora, armados con el conocimiento del proceso completo de IDA,
podemos discutir tales opciones, explicar las razones detrás de ellas y comprender su
influencia en los resultados finales.

Convergencia numérica

Los detalles del análisis y el modelo estructural juegan un papel importante en la generación
de curvas IDA precisas. Especialmente en la región de inestabilidad dinámica global, la
existencia misma de la línea plana y la no convergencia numérica asociada a menudo pueden
generar varios problemas de precisión. Idealmente, el modelo estructural estaría compuesto
por elementos (numéricamente) robustos y bien probados, mientras que el algoritmo de
análisis dinámico debería poder rastrear con precisión la respuesta estructural a través de, por
ejemplo, eventos de rendimiento, caídas de fuerza nítidas, redistribución de carga y geometría
no linealidades; no podría converger solo cuando la estructura ha agotado sus reservas para
volverse dinámicamente inestable, por lo tanto, hacer coincidir correctamente la inestabilidad
dinámica global con la no convergencia numérica. Desafortunadamente, la mayoría de los
algoritmos y los modelos de elementos realmente no se han diseñado ni probado para
funcionar en rangos de comportamiento tan extremos. Como resultado, algunos registros
pueden causar una no convergencia prematura, creando una detención característica de la
curva IDA que no se asemeja a una línea plana.

Todas las líneas planas en nuestro modelo normalmente ocurren más allá de θmax = 12%
(Figura 3.3), lo que significa que el modelo puede permanecer estable al menos hasta tales
valores θmax. Sin embargo, en nuestro intento inicial de rastrear las curvas IDA, dos de los
veinte registros fallaron prematuramente, a θmax ≈ 2%, apenas pasado el valor de fin de
elasticidad de θmax ≈ 1%. La razón principal es el uso de un modelo grande y complejo con
muchos grados de libertad, más la adopción del modelo de conexión de fracturamiento (Shi y
Foutch, 1997) con fuertes caídas de fuerza que probablemente tienden a desestabilizar el
algoritmo de solución de DRAIN-2DX ( Prakhash et al., 1992).

La conexión SPO-to-IDA proporciona una confirmación adicional, ya que los valores θmax del
orden del 2% todavía están en la rama ascendente de la SPO en la Figura 3.8, por lo que se
considera que no puede causar el colapso. En realidad, cada curva IDA debería poder
comportarse de manera estable al menos hasta el inicio de la pendiente negativa de la SPO, a
aproximadamente θmax = 7%. Sin embargo, esta comparación no debería llevarse demasiado
lejos; mientras que el SPO termina en θmax = 37%, la parte post-pico del SPO suele ser muy
dependiente del patrón de carga, y un patrón de carga arbitrario puede dar como resultado
valores θmax muy optimistas que no reflejan el comportamiento dinámico (Vamvatsikos y
Cornell, 2004b).

Por lo tanto, estos colapsos ilegítimos y prematuros se identifican con relativa facilidad, ya sea
mirando el SPO o las IDA de otros registros, pero ¿cómo se van a arreglar? Por supuesto, si el
modelo o los elementos o el algoritmo son deficientes en primer lugar, la situación es
desesperada. La experiencia ha demostrado que este no es el caso con el bien probado
DRAIN-2DX; es más un problema de configurar correctamente los parámetros de análisis, en
lugar de cualquier otra cosa.

La mejor estrategia es modificar el análisis ajustàndolo, por ejemplo, reducir el paso de tiempo
de integración, adoptar una solución de paso variable o experimentar con los parámetros del
solucionador de evento a evento. En nuestro estudio de caso, los análisis dinámicos de los dos
registros problemáticos tuvieron que repetirse en un paso de tiempo reducido, un cuarto en
lugar de la mitad del paso de tiempo de la historia del tiempo de aceleración, resolviendo así
fácilmente los problemas de convergencia. Tenga en cuenta que después de que se produzcan
falsos colapsos prematuros, entonces los cambios adicionales (razonables) en los parámetros
del algoritmo de solución harán solo pequeños cambios arbitrarios a los resultados IDA. Por
ejemplo, se ha encontrado empíricamente que cambiar el paso de tiempo de integración
puede incurrir en cambios arbitrarios de hasta 10% a las alturas de la línea plana, donde,
sorprendentemente, los pasos más pequeños no significan necesariamente más estabilidad (es
decir, alturas de línea plana más altas). Esto es simplemente el efecto de pequeños errores
acumulando en cada paso del tiempo, la integración que puede afectar a la convergencia
cuando la estructura está cerca de la línea plana, a veces causando que se colapse un poco
antes y otras no. Esta es la razón por la cual al rastrear cada registro especificamos una
resolución de capacidad de solo 10%; una mayor precisión no tiene mucho significado en
presencia de estas incertidumbres de análisis.

Tales imprecisiones siguen siendo relativamente insignificantes cuando se utiliza un buen


software de análisis.

En realidad, no podemos enfatizar suficiente, la necesidad de información


confiable, algoritmos libres de errores y modelos de elementos robustos y bien probados.
Estas herramientas son exactamente lo que hace la diferencia en tales análisis, especialmente
para los estados límites cercanos a la inestabilidad dinámica global, y cuando están
disponibles, con solo un poco de atención a los detalles del análisis, nos permiten obtener
fácilmente curvas de IDA precisas.

Elección del algoritmo de rastreo

Al rastrear la curva IDA para cada registro, la elección del nivel de IM para cada ejecución es
una decisión que queda para el algoritmo de seguimiento automatizado que usamos.
Teóricamente hemos argumentado sobre la superioridad del algoritmo de caza y relleno
versus el uso de un paso IM constante (es decir, el algoritmo de paso a paso) en Vamvatsikos y
Cornell (2002a), por lo que es hora de ver en detalle cuáles son realmente las diferencias
reales son cuando ambos se aplican a la estructura de 9 pisos.

Antes de proceder, tenga en cuenta que dado el mismo modelo estructural, programa de
análisis y plataforma informática, aún no todas las ejecuciones son iguales en costo
computacional. En general, cuanto más cerca esté la carrera de la línea plana (ya sea en un IM
más bajo o más alto), más tiempo llevará completar el análisis. Por otro lado, tanto las
ejecuciones convergentes como las no convergentes que están alejadas de la línea plana serán
significativamente más rápidas, ya que la convergencia o no convergencia se logrará dentro de
un mínimo de iteraciones. Sin embargo, al comparar los algoritmos de seguimiento,
asumiremos que la intención es rastrear la curva IDA completa y una cantidad similar de
ejecuciones se gastarán tanto en alta como en baja en la curva (en términos IM). Por lo tanto,
observando cada registro como un todo, la cantidad total de ejecuciones (convergentes y no
convergentes) que se gastan proporciona una idea muy precisa del tiempo computacional
necesario, mientras que el número de ejecuciones convergentes describe con precisión la
precisión alcanzada.

La tarea más importante que enfrenta un usuario al aplicar cualquiera de los dos algoritmos es
configurar sus parámetros correctamente. Para el algoritmo de paso, el único parámetro es el
tamaño del paso, mientras que para la búsqueda y el relleno, los más importantes son el paso
inicial, el incremento del paso y el número permitido de carreras por registro. Ambos
algoritmos se utilizaron para rastrear las IDA de la estructura de 9 pisos para el conjunto de 20
registros, utilizando varias configuraciones para sus parámetros, los resultados se muestran en
la Tabla 3.5.

Obviamente, cambiar el tamaño del paso del algoritmo de paso genera grandes diferencias en
el número total de tiradas. Sin embargo, si permitimos que el número mínimo de carreras
convergentes generadas para cualquiera de los 20 registros sea nuestro estándar de precisión,
necesitamos al menos un tamaño de paso de 0.05g, o 475 carreras para obtener al menos 11
carreras por registro y alcanzar los estándares de caza y relleno. Además, si no configuramos
correctamente el tamaño de paso, obtendremos pocas o demasiadas tiradas, la resolución
caerá fácilmente en 1 o 2 tiradas en el peor de los casos, si establecemos un tamaño de paso
de 0.2g o 0.3g . Por otro lado, podemos cambiar el paso inicial o el incremento de paso para la
caza y el relleno dentro de un amplio rango, incrementándolos o reduciéndolos en 2 o 4 veces,
y el algoritmo de caza permanece prácticamente inalterado, proporcionando constantemente
al menos 11 convergentes corre por registro En esencia, tiene los botones correctos para
sintonizar los límites de tolerancia que deseamos y nos permite hacer las carreras de la
manera que queramos, no la forma en que la naturaleza decide a través de los registros.

Aún así, uno puede notar que si el exceso de aumentar el paso inicial o el incremento de paso,
entonces la exactitud comienza a bajar lentamente, como el algoritmo llega más allá de la línea
plana por mucho y pasa muchas carreras no converge para encontrar su camino hacia abajo.
Pero aún así el efecto es menor, no abrumador. Tenga en cuenta también que mantener
ambos parámetros relativamente pequeños parece mejorar la precisión tanto en promedio
como en el mínimo. Sin embargo, no debemos disminuirlos demasiado porque a medida que
los pasos se hacen más pequeños, estamos arriesgándonos a gastar todas las ejecuciones
asignadas antes de llegar a la línea plana.

Volviendo a nuestro ejemplo, en la Tabla 3.2, usamos Sa (T1,5%) para medir el valor de IM para
nuestras ejecuciones. ¿Por qué no otro IM? Podríamos haber usado casi cualquier IM
monotónico y escalable (Vamvatsikos y Cornell, 2002a) que podríamos desear, pero cuanto
menos eficiente sea, más dispersos serían los límites de IDA, y comenzaríamos a tener algunas
discrepancias de resolución dentro del rastreo, es decir, una mayor diferencia entre el número
observado de carreras convergentes mínimas y máximas por registro en nuestra suite. Al usar
al menos Sa (T1,5%), estamos seguros de que nuestro algoritmo, ya sea cazar y llenar o pisar,
será eficiente para una amplia gama de condiciones. Si hay otro, más
el IM eficiente parece que puede reducir drásticamente la variabilidad de la línea plana de
registro a registro, entonces la búsqueda y el relleno solo se beneficiarían marginalmente, pero
el algoritmo de paso mejoraría significativamente. En conclusión, el procedimiento de
búsqueda y llenado desensibiliza IDA de la selección IM y la configuración de los parámetros
del algoritmo, logrando fácilmente la resolución deseada, en contraste con el algoritmo de
pasos muy sensible. Además, corrige el número de ejecuciones totales realizadas, por lo que
podemos planificar con antelación y asignar suficientes computadoras para que se ejecuten en
paralelo, de modo que la IDA se calcula a tiempo.

Problemas de interpolación

Al interpolar los puntos discretos para generar la curva IDA de cada registro, estamos
obteniendo una enorme ventaja: no necesitamos tener nuestras ejecuciones en franjas del
mismo nivel IM. Las consecuencias son muy importantes. En primer lugar, esto nos permite
utilizar el algoritmo de búsqueda y llenado en lugar del paso a paso, ganando así en todos los
aspectos descritos anteriormente. Segundo, nos permite expresar los resultados IDA en
cualquier IM.
Necesitamos calcular el nuevo IM para cada ejecución, volver a trazar las curvas IDA y volver a
interpolar contra el nuevo IM. De esta forma, IDA se vuelve verdaderamente independiente
del IM utilizado para el rastreo, lo que nos permite reutilizar los mismos datos una y otra vez,
sin necesidad de ejecutar más análisis.

Pero, ¿por qué utilizar esquemas de spline complejos en lugar de la interpolación lineal más
simple? En las Figuras 3.9 y 3.10, presentamos una comparación del esquema de interpolación
lineal y spline, enfrentados uno contra el otro para un número dado de carreras convergentes.
Hemos modificado la búsqueda y el rastreo de relleno para que, en todos los casos, la línea
plana se alcance con precisión con el mismo número de carreras, y luego el algoritmo puede
completar los huecos usando hasta un total de 4, 6, 8 o 18 carreras . A menos que solo nos
interese la línea plana, 4 series convergentes son muy pocas para capturar IDA
adecuadamente, independientemente del esquema de interpolación utilizado. El
postprocesamiento inteligente no puede compensar las brechas de datos brutos. Por otro
lado, si permitimos solo 2 tiradas más, para un total de 6, los resultados son notablemente
mejores, pero solo si estamos usando un esquema spline. Si hubiéramos utilizado 6 series
interpoladas linealmente, estaríamos subestimando la capacidad de estado límite de CP,
encontrando un punto de capacidad a solo Sa (T1,5%) = 0,63g θmax = 4% en lugar de la
correcta 0,72g y 6,4%. En las ejecuciones de 8 y 18, las interpolaciones spline son
prácticamente indistinguibles, mientras que las lineales están lo suficientemente cerca pero
aún se pueden separar. En conclusión, si permitimos suficientes ejecuciones, el esquema de
interpolación realmente no importa, ambos esquemas proporcionarán buenos resultados. Por
otro lado, si usamos muy pocas ejecuciones, en realidad no importa de nuevo porque ambos
esquemas nos darán malos resultados. Pero hay un área gris intermedia, donde el uso de una
interpolación mejor y más inteligente puede hacer la diferencia para aumentar la precisión en
nuestra curva IDA final. En retrospectiva, esto es precisamente lo que nos da confianza para
reducir el número asignado de ejecuciones y ahorrar en recursos computacionales.

Sensibilidad de las capacidades del estado límite para su definición

Varios estados límite se definieron en las curvas IDA, a menudo mediante el uso de reglas ad
hoc. Por ejemplo, el estado límite IO se definió en θmax = 2%, mientras que el estado límite CP
se basó en la fracción arbitraria del 20% de la pendiente elástica (o rigidez) y el límite adicional
θmax = 10% (FEMA, 2000a ) Por otro lado, el estado límite GI se definió inequívocamente para
estar en la línea plana de la IDA, y no está sujeto a tales reglas arbitrarias. Por lo tanto, es
interesante investigar la sensibilidad de las capacidades IM y DM resumidas a estas opciones,
tanto para el límite IO como para el estado de CP.

Para el estado límite de IO, la simplicidad de la definición facilita la comprensión de lo que está
sucediendo. Si observamos la Figura 3.4, es obvio que se está produciendo IO en la región de
"desplazamiento igual" de los IDA fractiles, es decir, los fractiles son líneas casi rectas que se
asemejan a una continuación del segmento elástico. A su vez, esto significa que los cambios
moderados en el valor de definición para IO, es decir, desde θmax = 2% a 1% o 3% aumentarán
o disminuirán proporcionalmente los valores IM y DM de la capacidad.

Por otro lado, la definición del estado límite de CP es bastante más complicada. La fracción de
rigidez elástica controla cuánto tiene que suavizar la IDA, es decir, qué tan cerca de la línea
plana puede llegar antes de llegar a CP. Por lo tanto, el aumento de esta fracción obligará a los
puntos de CP (por ejemplo, la Figura 3.3) a pasar a los IM y DM inferiores. La influencia del
límite θmax = 10% es más directa. Aplica un límite rígido en los puntos de capacidad,
restringiendo el valor θmax que pueden alcanzar, es decir, es otra manera de restringir los
puntos CP de acercarse a la línea plana. En realidad, en nuestro caso del edificio de 9 pisos, en
la Figura 3.3, es obvio que al cambiar el límite de θmax = 10% a, digamos, 8% o 12%, el valor
IM de la capacidad cambiará ligeramente, pero el El valor DM se verá muy influenciado, las
capacidades 50% y 84% θmax en realidad se convertirán en 8% o
12% respectivamente.
CAPITULO 4
Estimación directa de la demanda sísmica y la capacidad de los
osciladores con empuje estático multilínea mediante análisis dinámico
incremental

Se presenta SPO2IDA, una nueva herramienta de software que es capaz de recrear de manera
instantánea el comportamiento sísmico de los osciladores con complejas troncales multi-
lineales en casi cualquier período. Esencialmente, proporciona una conexión directa entre la
curva de empuje estático (SPO) y los resultados del Análisis Dinámico Incremental (IDA), un
procedimiento intensivo de computadora que ofrece una capacidad de predicción exhaustiva
(demanda y capacidad) mediante el uso de una serie de análisis dinámicos no lineales bajo un
conjunto de registros de movimiento de suelo adecuadamente escalados. Para lograr esto, el
comportamiento sísmico de numerosos sistemas de un solo grado de libertad (SDOF) se
investiga a través de IDA. Los osciladores son de un período moderado con histéresis
pellizcante y tienen esqueletos que varían desde simple bilineal hasta complejo cuadrilineal
con un segmento elástico, de endurecimiento y de rigidez negativa más una meseta residual
final que termina con una fuerza de caída a cero. Los resultados del análisis se resumen en sus
curvas IDA fractil del 16%, 50% y 84%. Al reducir apropiadamente los IDA fractiles hasta unos
pocos parámetros y encontrar los esqueletos más simples que pueden imitar el desempeño
sísmico de los más complejos, presentamos una forma única y eficiente de tratar la forma de la
columna vertebral. Las vastas economías que se realizan en la cantidad de espina dorsal a
investigar permiten nosotros una extensión fácil para el modelo de pellizcos de todos los
períodos, abriendo el camino a extensiones similares diseñadas para cubrir otros aspectos de
los sistemas SDOF. El producto final es SPO2IDA, una herramienta de nivel de hoja de cálculo
precisa para Ingeniería de Terremotos Basado en el Rendimiento que está disponible
gratuitamente en Internet. Ofrece una estimación efectiva instantánea de las demandas y las
capacidades de estado límite, además de los factores R de reducción de la resistencia
convencional y las relaciones de desplazamiento inelásticas, para cualquier sistema SDOF cuya
curva SPO pueda aproximarse mediante una columna vertebral cuadrilineal.

Introducción

De gran interés en la ingeniería de terremotos basada en el rendimiento (PBEE) es la


estimación precisa de la demanda sísmica y la capacidad de las estructuras. Para cumplir con la
tarea, han surgido varios métodos importantes, uno prometedora es el Análisis Dinámico
Incremental (IDA), un método de análisis paramétrico que estima la demanda y la capacidad
sísmica al someter el modelo estructural a varios registros de movimiento terrestre, cada uno
escalado a múltiples niveles de Intensidad (Vamvatsikos y Cornell, 2002a).

Aun así, la necesidad de métodos simplificados para la práctica profesional sigue existiendo, y
la elección racional ha sido con frecuencia el uso de resultados derivados del análisis dinámico
de las aproximaciones de grado único de libertad (SDOF, por sus siglas en inglés) a los grados
múltiples de libertad (MDOF, por sus siglas en inglés) modelo estructural. Tales métodos a
menudo usan un oscilador con una curva de columna vertebral que imita la curva de empuje
estático (SPO, también conocido como procedimiento estático no lineal) de la estructura
MDOF (por ejemplo, FEMA, 1997). Sin embargo, la mayoría de los esfuerzos de investigación
de la demanda sistemática no han progresado más allá de usar un oscilador con una columna
vertebral bilineal, lo que permite solo positivos (Nassar y Krawinkler, 1991; Lee et al., 1999) o
negativos (Al-Sulaimani y Roessett, 1985) la rigidez post-rendimiento o, lo que es más simple,
el comportamiento perfectamente plástico-elástico (Riddell y Newmark, 1979; Newmark y
Hall, 1982; Vidic et al., 1994; Miranda, 2000), aunque se han hecho pocos intentos para
cuantificar su dinámica, capacidad de colapso de inestabilidad global (p. ej., FEMA, 2000a).
Como una extensión de los procedimientos existentes,
es natural aplicar el método IDA a los sistemas SDOF que presentan una variedad de ejes
principales e intentar cuantificar las demandas y capacidades resultantes en un puñado de
ecuaciones empíricas comparativamente simples.

You might also like