You are on page 1of 52

Condicionamiento Operante

Enviado por elix_sr


Anuncios Google
Luxury Condominiums
NYC New Condominium Residences Opportunities Still Available www.SolariaRiverdale.com
2 Bedroom Condo
Search Singapore's Largest Database Photos/Maps/Prices/Schools & More! iProperty.Com.Sg
Excursions St Maarten
snorkeling, exotic beaches, mudbath fun, family trips, private charters www.captainalan.com

• Definición:
• Tipos de aprendizaje según el condicionamiento operante.
• Programas de reforzamiento:
• ¿Cómo ha utilizado Skinner a los animales para estudiar el reforzamiento operante?
• ¿Cómo funciona el condicionamiento operante de Skinner?
• ¿Qué teoría psicológica sirve de base a los procedimientos de enseñanza de Skinner?
• ¿Cuál es el significado de la ciencia de la conducta?
• Definición "realista" de la ciencia
• Propiedades intrínsecas de los programas:
• Clasificación según Skinner:
• Aportaciones del condicionamiento operante.
• Procedimientos en el condicionamiento operante
• Reforzadores y reforzamiento:
• Programas de reforzamiento:
• Triple relación de contingencia
• Paralelo entre el condicionamiento clásico y el operante:
• Reforzamiento y fuerza de respuesta:
• Control aversivo
• La operación conjunta del reforzamiento diferencial y la fuerza de respuesta:
• Control de eventos autónomos:

• Resumiendo

BARRHUS F. SKINNER (1 904 – 1 989)


Nacido en Pensylvania, EEUU., obtuvo el título de Psicólogo en Harvard en 1931. Es considerado como el
precursor del condicionamiento operante. Sostuvo que el refuerzo es elemento fundamental para el control de
la conducta. Diseñó un aparato muy importante para la investigación psicológica.
DEFINICIÓN:
Fue B.F. Skinner, psicólogo norteamericano contemporáneo, quien descubrió un segundo tipo de
condicionamiento denominado:Condicionamiento Operante.
El experimento llevado a cabo por Skinner fue el siguiente: colocó a una rata blanca hambrienta (privada de
alimento por 24 horas) en una caja bien aislada en la que se encuentra una palanca que puede ser accionada por
el animal. Si la rata acciona la palanca, un dispositivo mecánico deja caer una bolilla de alimento al comedero
instalado dentro de la misma caja dentro de la misma caja, cerca de la palanca.
En un comienzo, el comportamiento del animal en la caja de experimentación es más o menos caótico: explora
la caja y corre de aquí para allá, sin tocar la palanca. Al cabo de un tiempo, y por casualidad acciona la palanca
y el alimento cae en el comedero p. La rata ingiere la bolilla y vuelve a accionar la palanca, repitiéndose lo
sucedido anteriormente. El proceso se repite con insistencia y la rata corre sin cesar del comedero a la palanca.
La característica esencial del condicionamiento operante reside en el refuerzo (alimento) que percibe la
conducta operante (accionar la palanca).
La expresión Condicionamiento Operante refleja el hecho de que el animal opera, o actúa, de acuerdo con
el ambiente natural o el del laboratorio, para producir un efecto. El efecto producido determinará si el animal
ejecuta de nuevo una respuesta, o si continuará comportándose como antes.
Es la teoría del aprendizaje que intenta explicar la conducta que es nueva para el organismo proponiendo que
dicha conducta se adquiere debido a que las consecuencias que percibe el organismo aprendiz aumentan o
disminuyen la frecuencia de aparición d esas conductas.
Conducta operante: es un comportamiento que es nuevo para el organismo por que no se encuentra programado
en su código genético.
Evento reforzante: se trata de la entrega de algún estímulo del ambiente que satisface alguna necesidad del
organismo que aprende (la entrega de un premio).
Estímulo reforzante: es un estímulo del ambiente que aplicado al organismo que aprende tiene la capacidad de
hacer que aumente la frecuencia de aparición de alguna conducta.
TIPOS DE APRENDIZAJE SEGÚN EL CONDICIONAMIENTO OPERANTE.
Aprendizaje por reforzamiento: es el aprendizaje en el cuál la conducta es nueva para el organismo aumenta su
frecuencia de aparición luego de recibir algún estímulo reforzante.
Aprendizaje por evitación: es el aprendizaje donde el organismo aprende una conducta nueva que termina o
impide la aplicación de algún estímulo aversivo (desagradable), y aumenta la frecuencia de aparición de esa
conducta para que no regrese.
Aprendizaje supersticioso: es el aprendizaje donde alguna consecuencia casualmente reforzante o aversiva
aumenta la frecuencia de aparición de alguna conducta.
Aprendizaje por castigo: es el aprendizaje donde un organismo aumenta la frecuencia de aparición de las
conductas que no fueron seguidas o que no recibieron ningún estímulo aversivo o desagradable.
Olvido: todas las conductas que no reciben o que dejan de recibir reforzamiento tienden a disminuir su
frecuencia de aparición y a desaparecer.
El esquema del condicionamiento operante es el siguiente:
¯
Estímulo Condicionado : Palanca dentro de la caja.
¯
Respuesta Condicionada : Accionar la palanca.
¯
Estímulo Incondicional : Bolilla de alimento
¯
Respuesta Incondicional : Comer
PROGRAMAS DE REFORZAMIENTO:
En el estudio de los programas son esenciales un sistema de notación y una terminología. La especificación sin
ambigüedades de los programas es sólo un requisito necesario en un sistema de notación, los sistemas ideales
podrían emplearse para generar procedimientos experimentales de interésconductual y explicarían el análisis de
la conducta bajo un programa determinado. Hay ventajas y desventajas en todos los sistemas de notación que se
han utilizado para describir los programas (Ferster y Skinner, 1957, Findley, 1962, Mechner, 1959, Schoenfeld,
Cumming y Hearst, 1956). Las designaciones de los programas hechos por Ferster y Skinner proporcionan un
conjunto de términos que tienen connotaciones para todos aquellos que están familiarizados con
la literatura sobre programas.
En un programa de razón, una respuesta es reforzada después de la emisión de cierto número de respuestas
designado a partir de la última respuesta reforzada o algún otro evento especificado. El número requerido puede
ser fijo o variable, dando lugar al reforzamiento de razón fija (RF) y al de razón variable (RV). En un programa
de intervalo, una respuesta es reforzada después de un período designado a partir de algún evento (comúnmente,
el último reforzamiento). En el reforzamiento de intervalo fijo (IF)el tiempo entre el inicio del intervalo y la
disponibilidad del reforzamiento es fijo, y la siguiente respuesta después de la terminación del período es
reforzada. El reforzamiento de intervalo variable (IV) es semejante, excepto que los períodos designados son de
duración variable. *El evento que inicia el período puede ser el reforzamiento, el fin de un período previo
(disponibilidad limitada), cambios en los estímulos discriminativos o una respuesta (programas en tándem). Una
característica esencial de los programas de intervalo es que no se hacen específicas explícitas acerca de las
respuestas entre la indicación del intervalo y la disponibilidad del reforzamiento está disponible después de un
tiempo fijo a partir de la respuesta precedente inmediata (RDB) no constituye, estrictamente hablando, un
programa de intervalo.
La disponibilidad del reforzamiento en los programas de razón e intervalo puede restringirse aún más si se
imponen especificaciones adicionales que establezcan límites a aquellos períodos en los que una respuesta
puede ser reforzada, por ejemplo, en un programa de intervalo, en vez de reforzar la primera respuesta que
ocurre después del final del intervalo, el período de disponibilidad puede limitarse a una duración específica.
Ferster y Skinner designan a los programas de intervalo así calificados, como de disponibilidad limitada.
Igualmente, otra restricción sobre la disponibilidad de reforzamiento descrita por Ferster y Skinner consiste en
que el tiempo entre una respuesta designada y la respuesta subsecuente (o series de respuestas) debe ser menor
que una duración específica (rda) o debe exceder una duración especificada (rdb).
Otros procedimientos útiles de análisis de los efectos de los programas de razón e intervalo son las
combinaciones de estos programas. En un programa tándem, la disponibilidad del reforzamiento está
determinada por una secuencia particular ordenada de programas componentes en que, exceptuando el último
componente, la única consecuencia de la respuesta que termina un componente es que inicia el siguiente
componente. En los programas concurrentes, cualquiera de dos programas independientes, programados al
mismo tiempo determinan la disponibilidad del reforzamiento es determinada conjuntamente por las
interacciones en los requisitos de número y tiempo; por ejemplo, en un programa conjuntivo de razón fija,
intervalo fijo, la disponibilidad del reforzamiento es depende de la emisión de un número de respuestas dado y
del paso de un período mínimo desde el último reforzamiento. En un programa entrelazado (interlocking) de
razón fija, intervalo fijo, la disponibilidad del reforzamiento depende de la emisión de un número de respuestas
que cambia como función del tiempo a partir del último reforzamiento.
Ferster y Skinner definen otros programas, que son secuencias de programas simples. Los programas múltiples
combinan dos o más programas, estando cada uno de ellos acompañado por un estímulo diferente. Los
programas encadenados son similares a los tándem en que la disponibilidad del reforzamiento depende de una
secuencia ordenada de programas componentes; pero en los programas encadenados los programas
componentes (o elcambio en los componentes) están correlacionados a los estímulos.
¿CÓMO HA UTILIZADO SKINNER A LOS ANIMALES PARA ESTUDIAR ELREFORZAMIENTO
OPERANTE?
Por lo general, los psicólogos experimentales no han relacionado sus leyes y teorías con casos de aprendizaje en
la vida real. Sin embargo, el profesorSkinner y sus colegas han tenido bastante éxito con el entrenamiento de
animales. Es probable que aún entrenadores profesionales de animales, por medio del estudio de los
procedimientos utilizados en el condicionamiento operante, pudieran mejorar sus técnicas. En un periodo
escolar, dándole alimento a un pichón hambriento en el momento oportuno, Skinner logro implantar en el ave
tres o cuatro respuestas bien definidas, como girar en redondo, caminar por el piso recorriendo una trayectoria
en forma de ocho, estirar el pescuezo y golpear con una patita.
La tesis básica de Skinner es que, ya en el organismo tiende a futuro a hacer lo que esta haciendo en el
momento del reforzamientos, se puede, poniendo un sebo en cada etapa, obligarlo hacer lo que se desea.
Utilizando esta tesis como base de su procedimiento, ha enseñado a unas ratas a que usen una canica para
obtener alimento de una maquina automática, también a unos pichones a que jueguen una especie de tenis, y a
unos perros a que hagan funcionar el pedal de un bote de basura, para conseguir un hueso.
Skinner ha concentrado sus estudios en animales inferiores por que su comportamiento es más simple, por que
las condiciones circundantes pueden ser mejor controladas, por que los procesos básicos pueden ser más
palpables y se pueden registrar durante mayores periodos de tiempo, así como las observaciones no se
complican por relaciones sociales entre los sujetos y los psicólogos.
La caja de Skinner es una caja común y corriente, hecha para contener una rata, una palanca y un artificio que
deja caer una bolita de alimento cada vez que la rata oprime una palanca. Los artificios de registro están
colocados fuera de la caja, para que el experimentador pueda ir a su casa en la noche y ver a la mañana
siguiente lo que estuvo haciendo la rata. También hay cajas de Skinner para el estudio de palomas y otros
animales. Una rata o una paloma aprenden rápidamente en una caja de Skinner por que en la caja hay muy
pocas cosas que pueden hacer. Skinner dice: "la indicación más escueta del proceso es: hacemos que cierta
consecuencia sea contingente – dependiente – de ciertas propiedades físicas de la conducta el movimientohacia
arriba de la cabeza- y entonces observamos la conducta del animal para aumentar su frecuencia."
La conducta de una conducta puede ser reforzada de manera que estirar el pescuezo se vuelva habitual.
Colocamos la paloma en la jaula de modo que el experimentador pueda ver la cabeza del animal en
una escala fijada al otro lado de la jaula. Así, establecemos la altura en la que normalmente se encuentra la
cabeza; posteriormente escogemos una altura que solo se ha alcanzado pocas veces. El experimentador
mantiene la vista en la escala rápidamente abre la caja del alimento, cada vez que la cabeza del pájaro pasa
arriba del nivel establecido. Como resultado de este procedimiento el aprendizaje se realiza... "Observemos un
cambio inmediato con respecto a la frecuencia con que la cabeza sobrepasa la línea. También observamos y esto
es de gran importancia teórica, que la cabeza empieza a rebasar alturas mayores. Podemos aumentar la altura
casi inmediatamente, si damos el alimento en el momento adecuado. En uno o dos minutos, la posición del
pájaro a cambiado a tal grado que ahora el punto mas alto de su cabeza rara vez se encuentra a menos altura que
la primera que habíamos escogido."
Entrenando a dos palomas separadamente, Skinner realizo una escena social en la cual hay una especie
de competencia entre dos palomas que juegan a algo parecido al tenis de mesa. Realizo este entrenamiento
mediante reforzamientos operantes. Primero las palomas fueron reforzadas cuando solo empujaban la pelota.
Cuando esta iba a dar al otro pichón, era reforzado el primero. También entreno palomas para que coordinen su
conducta en danzas de conjunto, que rivalizan con la destreza de los más hábiles bailarines humanos.
Los procedimientos del reforzamiento pueden variar de acuerdo con los intervalos de tiempo y él numero de
respuestas entre los esfuerzos. Un programa de refuerzo es una pauta de conductas que merecen "recompensa"
basado en un intervalo de tiempo fijo y un numero también fijo de respuestas entre las recompensas. En un
laboratorio Skinner y Ferster, han logrado realizaciones apropiadas a cada uno de los nueve diferentes
programas de intervalos radiofónicos. Cuando se presenta un estimulo, la paloma ejecuta el acto apropiado ese
programa especifico. Skinner cree que lo que ha logrado hace muy plausible la idea de ampliar los resultados
del laboratorio de la vida cotidiana de la gente es mas complicado, pero de la misma naturaleza básica que el
aprendizaje de un animal mediante el condicionamiento operante.
En los experimentos de condicionamiento operante, las distintas especies de organismos estudiados no han
dados resultados muy diversos. " Se han obtenido resultados que puedan ser equiparados, tanto con palomas,
ratas, perros, monos, niños y más recientemente... con sujetos humanos con algún padecimiento sicótico. A
pesar de las enormes diferencias filogeneticas, todos estos organismos han demostrado tener extraordinaria
similitud de propiedades en el proceso del aprendizaje".
EJEMPLIFICACIÓN :
Veamos un ejemplo de Condicionamiento Operante que se da en la vida diaria: supongamos que el señor
Sánchez va con su hijito de 3 años a comprar a la bodega. Al niño le encantan los dulces y al verlos, le pide a su
papá que le compre uno. El señor Sánchez se niega, y el niño empieza a llorar. Como el padre no quiere que su
hijo llore le compra un dulce. Otro día al volver a la tienda ocurre lo mismo: el padre se niega inicialmente pero,
al llorar el niño, cede y le compra el dulce. En las semanas siguientes seguirá sucediendo lo mismo.
¿Qué ha ocurrido?
Simplemente que el niño "aprendió" a llorar para obtener lo que quiere, en ese caso los dulces. ¿Cómo?; por
condicionamiento operante. Siguiendo el esquema mencionado, el proceso fue el siguiente:
Estímulo Condicionado : Ver los dulces y tener a su padre con él.
¯
Respuesta Condicionada : Llorar.
¯
Estímulo Incondicional : Compra de dulce.
¯
Respuesta Incondicional : Satisfacción al comer el dulce.
¿CÓMO FUNCIONA EL CONDICIONAMIENTO OPERANTE DE SKINNER?
Skinner considera que la sicología es predecir y controlar la conducta de los organismos individuales, e insiste
en que la sicología se limita al estudio de la conducta observable; sus únicos datos son los que se adquieren por
la observación.
La sicología de Skinner es un tipo de ciencia meramente de ingieren define el aprendizaje como un cambio en
la probabilidad de una respuesta. En la mayoría de los casos este caso es originado por el acondicionamiento
operante.
En este sentido el acondicionamiento operante es el proceso didáctico en él por el cual una respuesta se hace
más probable o más frecuente. En el proceso del acondicionamiento operante el rebosamiento aumenta la
probabilidad de repetición de ciertas respuestas.
Skinner cree que casi toda la conducta humana es producto de un reforzamiento operante.
Pongámonos en el lugar de un estudiante de cuarto grado, llamada Dale Cooper, en una posible aula en el año
1975. A la primera campanada los estudiantes entran a clases, a la segunda campanada se mantienen en silencio.
Una vez realizados los primeros ejercicios el profesor dice: "aritmética". Dale a sido condicionado a que con
esta indicación coloque su cilindro de aritmética en su maquina de enseñanza localice el lugar donde se quedo la
ultima clase y prosiga condicionándose para seguir contestando los problemas. Transcurridos 20 minutos el
profesor dice: "lectura" y 20minutos mas tarde dice: "ortografía". Cada palabra es él estimulo apropiado para
que Dale cambie el cilindro de su maquina. Después viene el descanso. Al sonar una campana con distintos
sonidos salen al lugar destinado a juegos. Aquí el equipo a sido mecanizado de manera que necesita muy
poca supervisión por parte del maestro o de otros miembros del personal el maestro utiliza el periodo de
descanso para revisar, preparar y lubricar las maquinas.
La sicología que serviría de base para utilizar las maquinas de enseñanza para la educación de Dale a sido
ideada por B. F. Skinner (1904). Skinner a encontrado que el acondicionamiento operante a resultado
sumamente efectivo en el cambio del entrenamiento de animales y tiene confianza de que tendrá igual éxito
cuando se aplique a niños y jóvenes. En acondicionamiento operante los maestros son considerados arquitectos
y edificadores de la conducta de los estudiantes.
Los objetivos didácticos se dividen en un gran numero de pasos muy pequeños y se refuerzan uno por uno. Los
operantes serie de actos son reforzados esto es se refuerzan para que incrementen la probabilidad de su
recurrencia en el futuro. Este proceso es de primerísima importancia que los profesores empleen programas de
rebosamiento debidamente cronometrados y espaciados.
El profesor Skinner se opone a que los psicólogos y los profesores usen términos tales como "fuerza de
voluntad, sensación, imagen, impulso o instinto" que se supone que se refieren a eventos no fiscos. La conducta
es el movimiento de un organismo o de sus partes, en un marco de referencia suministrado por el propio
organismo o por varios objetos externos o campos de fuerza.
Un condicionamiento operante es una serie de actos que consigue que un organismo haga algo; levante la
cabeza, mueva una placa, diga caballo. En el proceso del condicionamiento operante hace que las respuestas
cambien.
Señala que en la vida humana en varias actividades incluyendo la educación la gente cambia constante mente
las probabilidades de respuesta de otras personas mediante la formación de conciencias de reforzamiento. El
reforzamiento operante mejora la eficacia de la conducta. Mediante el reforzamientos aprendemos a mantener
el equilibrio, caminar, practicar juegos fiscos y manejar herramientas e instrumentos, realizamos una serie de
movimientos, y la probabilidad de que repitamos esos movimientos mejora y aumenta. Así el rebosamiento
operante mejora la eficacia de la conducta.
Siempre que algo refuerza una forma particular de conducta las probabilidades de que se repita tal conducta son
mayores. La misión de los psicólogos es adquirir una mejor comprensión de las condiciones bajo las cuales los
reforzamientos operan mejor y así abrir el camino al control cultural por medio de la ingeniería social. A los
muchos reforzamientos naturales de la conducta, pueden observares un ejercicio de reforzamientos artificiales.
Cualquier lista de valores es una lista de valore condicionados. Estamos constituidos de maneras que bajo
ciertas circunstancias el alimento, el agua, el contacto sexual, ara que cualquier conducta que los produzca es
muy problema que los repita. Otras cosas pueden adquirir estos valores. Un organismo puede ser reforzado por
casi cualquier situación.
¿QUÉ TEORIA PSICOLOGICA SIRVE DE BASE A LOS PROCEDIMIENTOS DE ENSEÑANZA DE
SKINNER?
En todos sus estudios y exposiciones, el profesor Skinner se ha adherido rigurosamente a la convicción básica
de que los psicólogos deben restringir sus estudios a las correlaciones entre los estímulos y las respuestas sin
inmiscuirse con psicologías que "hagan creer", basadas en eslabones constituidos por fuerzas fisiológicas y
mentales entre estímulos y respuestas. Los partidarios de la oposición de Skinner, consideran que el estudio de
estas variableses... "una filosofía fingida que quiere demostrar la verdad, sin tener pruebas suficientes"
En un sentido la sicología de Skinner, de la conducta operante, es una ampliación de las psicologías
mecanicistas anteriores de estimulo – respuesta, el conexionismo según Thorndike y
la escuela de conductismo desarrollada por Watson, que trata de reducir todos los fenómenos psicológicos a
elementos físicos. Thorndike utilizó tanto los elementos físicos como los mentales, pero sus estudios sobre el
hombre fueron siempre mecanicistas. Watson también, aunque mecanicista, limito sus estudios a la conducta de
los organismos biológicos. Skinner, igual que Thorndike y Watson, supone que el hombre es neutro y pasivo y
que toda conducta puede describirse en términos mecanicistas. En sus estudios sobre el hombre y los animales,
es constantemente mecanicista y elementista; para él, la sicología es la "ciencia de la conducta"
¿ CUÁL ES EL SIGNIFICADO DE LA CIENCIA DE LA CONDUCTA?
Skinner considera que hay un grande y determinante porvenir para la ciencia de la conducta. De acuerdo con
sus puntos de vista, como la ciencia de la conducta tiene como objeto demostrar las consecuencias de las
practicas culturales, hay razón para creer que la presencia de tal ciencia será una señal esencial de la cultura o
culturas que sobrevivirán en el futuro y que la cultura que es probable que perdure, es aquella en la que
los métodos de la ciencia sean mas fielmente aplicados a los problemas de la conducta humana. Por tanto, en
todos sus trabajos ha luchado constantemente por ser científico hasta el enésimo grado. Skinner considera a la
ciencia como " más que una serie de actitudes, es algo que intenta encontrar un orden, uniformidad,
realizaciones legales en los sucesos de la naturaleza. Empieza como todos comenzamos, observando pequeños
episodios, pero pronto pasa a la regla general, a la ley científica". Así pues se ha colocado a la altura de los
representantes contemporáneos de la ciencia atomista e inductiva, siguiendo las orientaciones anteriores de
Francis Bacon y John Stuart Mill. Solo se puede adquirir el sabor de los trabajos de Skinner leyendo sus librosy
sus informes se hace evidente el frecuente uso que hace de los artículos definidos Él y La, que contrasta con el
poco uso de los artículos indefinidos Un, Uno, Una. Como otros científicos "realistas" suponen que
esta actitud hace sus trabajos más objetivos y que sus informes sobre estudios resultan mas "científicos"
DEFINICIÓN "REALISTA" DE LA CIENCIA
Skinner trabaja con la suposición básica de que hay un orden en la naturaleza, inclusive en la conducta humana
y que la función de la ciencia es descubrir el orden. Este es el cometido de un científico realista, en contraste
con el relativista. Dentro del punto de vista realista de Skinner, la ciencia tiene por misión el descubrimiento de
las leyes preexistentes que gobiernan el mundo en el que nos movemos. El conocimiento de estas leyes mejora
nuestra capacidad de predicción y por tanto gobierna mejor las variables que hacen que las cosas sucedan.
Supone que esto es tan cierto en sicología como en física o en química. Así el hombre, por medio del
descubrimiento de las leyes y organizándolas en sistemas queda capacitado para hacer frente en forma efectiva a
los aspectos del mundo natural.
Skinner reconoce que " ya es tiempo de insistir de que la ciencia no progresa mediante pasos cuidadosamente
estudiados que se llaman <experimentos< cada uno de los cuales tiene un bien definido principio y fin. La
ciencia es un proceso continuo y a menudo desordenado y accidental". Sin embargo, Skinner no reconoce el
principio relativista de que la realidad consiste en lo que logramos hacer con lo que nos llega y es"... definible
como algo que puede, debe o causan diferencias a algo o a alguien"...
PROPIEDADES INTRÍNSECAS DE LOS PROGRAMAS:
Antes de intentar mostrar cómo la conducta es mantenida por un programa determinado, necesitamos considerar
un poco más las implicaciones de la especificación de un programa de reforzamiento de respuestas en el paso
del tiempo. De hecho, ¿qué estamos especificando cuando designamos un programa, y cómo estas
especificaciones empiezan a controlar la conducta? La complejidad de las variables interactuantes que controlan
la ejecución de los tipos más sencillos de programas no puede ser sobreenfatizada. Algunas de estas relaciones
entre los reforzamientos y las respuestas en el tiempo estarán determinadas aproximada e indirectamente. Por
ejemplo, cuando decimos que la trigésima respuesta a partir del reforzamiento previo va a ser reforzada (RF
30), o que la respuesta que ocurre 5 minutos después del reforzamiento previo va a ser reforzada (IF 5), se
obtendrán necesariamente ciertas condiciones en cada ciclo del programa y serán diferentes en ambos
programas. Para considerar lo más obvio, en el caso del RF, el número de respuestas emitidas cuando el
reforzador se presente siempre será el mismo, mientras que en un IF el número puede variar y, de hecho,
variará. El tiempo entre los reforzamientos sucesivos depende directamente de la tasa de respuesta del sujeto en
el caso del RF 30, y está limitado en el límite inferior solamente por el tiempo mínimo para emitir 30
respuestas, mientras que en el IF 5, el tiempo entre los reforzamientos sucesivos tiene un límite inferior fijo y es
esencialmente independiente de la tasa moderadamente alta de respuesta del sujeto bajo circunstancias
comunes.
El grado en que las características consistentes y recurrentes de un programa, como la constancia en el número
de respuestas emitidas en un RF o la constancia aproximada en el tiempo interreforzamientos en el IF, son
factores que determinan las ejecuciones en un asunto que debe determinarse experimentalmente. Es probable
que en algunos valores paramétricos la mayoría de, (si no es que todas), estas propiedades de un programa
producirán alguna consecuencia conductual ; pero algunas de las características son más importantes que otras.
En algunos casos la falta de especificación exacta, como el tiempo entre reforzamientos en el RF o el número de
respuestas por reforzamiento en el IF, pueden ser por importancia conductual.
La relación temporal entre la respuesta que se refuerza y la respuesta precedente inmediata es una característica
sutil pero muy importante, determinada en forma inherente por la especificación del RF 30 o del IF 5. LA
relación es diferente para los programas de razón y de intervalo, y esta diferencia constituye una de las
principales distinciones entre dichos programas. En el RF, la probabilidad de que la siguiente respuesta RN, sea
reforzada es independiente del tiempo entre ella y la respuesta precedente (el tiempo entre respuestas), mientras
que en el programa de intervalo, la probabilidad de que la siguiente respuesta sea reforzada aumenta con el
tiempo transcurrido desde la última respuesta.
CLASIFICACION SEGÚN SKINNER:
En el condicionamiento operante y el análisis experimental de la conducta, Skinner intenta clasificar la relación
entre el Paradigma de...
Pavlov: la conexión se producía entre un estímulo nuevo y una respuesta refleja.
Thorndike: la conexión entre un estímulo dado y una respuesta nueva.
Skinner distingue 2 tipos de respuestas (respondiente y operante) y 2 tipos de condicionamiento (de tipo E y de
tipo R).
Skinner acentuó la importancia de la conducta operante y su condicionamiento:
La conducta operante, con su relación singular con el mabiente, presenta un campo de investigación importante
e independiente. Los aspectos de la conducta respondiente que se ha considerado como datos fundamentales en
la ciencia de la conducta no pueden, como hemos visto, extrapolarse a la conducta como un todo, y
la información que aportan tampoco es demasiado valiosa en el estudio de la conducta operante.
APORTACIONES DEL CONDICIONAMIENTO OPERANTE.
• Propuso ocuparse solamente del comportamiento que se puede observar y cuantificar claramente.
• Propuso ocuparse menos de lo que ocurre dentro del organismo que aprende.
• Estudia el origen de las conductas.
• Concedió la mayor importancia al ambiente en el cuál se encuentra el organismo que aprende.
• Consideró que el proceso de aprendizaje es igual en los humanos que en los animales.
• Propuso las definiciones científicas de lo que son la conducta y la psicología.

PROCEDIMIENTOS EN EL CONDICIONAMIENTO OPERANTE


Los procedimientos presentados a continuación se basan en la distinción derivada de la ley de efecto de L.
Thorndike, la cual establece "que las respuestas que generan satisfacción tienen más posibilidades de repetirse,
lo cual no sucede con las que no la producen, que tienen mayor probabilidad de repetirse".
Entrenamiento de Recompensa. El único aspecto esencial de este entrenamiento, es que la recompensa sigue a
la respuesta de modo sistemático. Dentro de este método de entrenamiento, el progreso del aprendizaje se mide
por una tasa de respuesta; es decir, el número de respuestas por unidad de tiempo.
Entrenamiento de Evitación. En la forma usual de experimento de evitación, el sujeto, al responder a una señal
–estímulo discriminativo–, evita la aparición de un estímulo nocivo.
El entrenamiento de escape es un procedimiento en el que no se emplea ninguna señal de aviso definida. Se
relaciona estrechamente con el entrenamiento de evitación y se asume como una de sus subvariedades. En este
método, la respuesta operante termina con un estímulo nocivo.
Entrenamiento de Omisión. En el entrenamiento de omisión, el refuerzo positivo –más adelante se ampliará el
significado de estos conceptos– se efectúa cuando el organismo no puede dar una respuesta particular; es decir,
si la respuesta especificada se realiza, se omite el reforzamiento. En este aspecto, difiere del procedimiento de
extinción, en el que nunca se efectúa el reforzamiento.
Entrenamiento con Castigo. Este procedimiento consiste en hacer que se efectúe algún estímulo nocivo, como
un choque eléctrico o la introduccióndentro de la boca de una solución ácida moderada, al momento de
efectuarse una respuesta especificada. En el entrenamiento de castigo, el estímulo nocivo ocurre después de la
respuesta.
REFORZADORES Y REFORZAMIENTO:
El término reforzamiento tiene dos significados diferentes. En un sentido empírico, el reforzamiento se refiere a
cualquiera de una amplia variedad de condiciones que pueda introducirse en una situación de aprendizaje para
aumentar la probabilidad de que una determinada respuesta reaparezca en la misma situación. En el ámbito
teórico, el término varía de un autor a otro: Hull (1934) lo iguala con la reducción del impulso; Skinner (1938) y
Tolman (1932) lo manejan como estímulo; para Thorndike (1911) es una satisfactor o un perturbador; Guthrie
(1935) lo considera como algo que altera una situación; Sheffield (1948) y Denny y Adelman (1955) lo ven
como una causante de conducta.
En varios sentidos, los reforzadores se pueden concebir en términos de recompensa; tanto la recompensa como
el reforzador, incrementan la posibilidad de que se repita una respuesta previa. Pero cabe hacer una distinción
entre la categoría de los tipos de refuerzos:
Reforzador positivo: es aquel estímulo que se añade al entorno y que trae consigo un incremento de la respuesta
precedente o que determina que en el futuro dicha respuesta se repita –"aparece algo agradable"–.
Reforzador negativo: es aquel estímulo que elimina algo desagradable –o cuya remoción es reforzante– del
entorno, lo que deriva en un aumento de la probabilidad de que la respuesta precedente ocurra nuevamente en el
futuro. El reforzador negativo le enseña a un individuo que la ejecución de ciertaacción elimina un elemento
negativo que existe en el entorno. Este tipo de refuerzo actúa en dos tipos de aprendizaje –ya mencionados–: el
condicionamiento de evitación y el condicionamiento de escape.
PROGRAMAS DE REFORZAMIENTO:
En la práctica experimental, el reforzamiento puede efectuarse en cada ensayo o después de cada respuesta
correcta o puede ocurrir con menos frecuencia. El primer procedimiento es el de reforzamiento parcial o
intermitente, el cual se administra de acuerdo a un programa en el cual el reforzamiento ocurre en la primera
repuesta, después de un periodo dado –programas de intervalo– o tras un número específico de respuestas –
programas de razón–. El intervalo puede permanecer constante entre refuerzo y refuerzo –fijos– o cambiar al
azar –variados–. El segundo procedimiento es el de reforzamiento continuo, desarrollado por Skinner, en el cual
el reforzamiento sigue a la primera respuesta, que se efectúa después de un periodo específico medido desde el
último reforzamiento.
CASTIGO:
Se entiende por castigo un estímulo desagradable o doloroso que disminuye o elimina la posibilidad de que en
el futuro se repita una conducta. Cuando se habla de la aparición de un estímulo desagradable –v.g., una nalgada
o una descarga eléctrica–, se hace referencia al castigo positivo; contrariamente, cuando se hace referencia a la
eliminación –desaparición– de un estímulo agradable, se habla de castigo negativo –v.g., prohibirle a un niño
que salga a jugar porque obtuvo malas calificaciones–.
Frecuentemente se utiliza con el propósito de reducir la tasa de respuesta. En el castigo, las respuestas van
seguidas de un estímulo aversivo.
La presentación de un estímulo aversivo dependiente y contingente a la ocurrencia de una operante, recibe el
nombre técnico de "castigo"; que puede ser administrado de las siguientes maneras:
Una operante que nunca ha sido reforzada.
Una operante que está siendo mantenida por el reforzamiento.
Una operante que está siendo extinguida.
El castigo de la conducta durante el período de mantenimiento. En el experimento se castiga cada una de las
respuestas de disco emitidas por un pichón, mismas que han sido mantenidas bajo un programa de
reforzamiento positivo de IV. El estimulo aversivo consiste en un choque eléctrico que se le da a un animal a
través de electrodos implantados en el pecho. Asimismo, una gran intensidad de castigo podrá eliminar
completamente la conducta, mientras que una intensidad leve podrá no tener ningún efecto. Cuando se suspende
la presentación del castigo, la tasa de respuesta se incrementa avanzando a un nivel mayor que el mantenido
originalmente por el programa de reforzamiento.
Los efectos iniciales del castigo. Cuando por primera vez se administra el castigo, el procedimiento podrá
provocar respuestas respondientes tales como correr y saltar por todos lados; o trata de salir de la jaula o
cámara. Estas conductas se irán reduciendo mediante la habilitación, también que la cámara sea segura y el
estímulo aversivo se presente eficazmente. Si no se eliminan las respondientes, nuestros registros serán
afectados o contaminadas con los intentos de escape y evitación del organismo.
Los efectos del castigo sobre otras conductas que están siendo reforzadas. El castigo indirectamente actúa para
facilitar la ocurrencia de determinadas conductas. No podemos esperar que una conducta se extinga por la
aplicación de un castigo o se reduzca en otras situaciones. Lo que realmente ocurre opuestamente; pues se
facilita la aparición de la conducta cuando se deja de castigar.
El castigo de la conducta mantenida por varios programas de reforzamiento y durante la extinción. Los efectos
del castigo dependen también en gran medida, del programa de reforzamiento positivo que está manteniendo la
respuesta castigada.
El castigo como estímulo discriminativo. El castigo no siempre necesita producir una reducción en la tasa de
respuestas. Supongamos que solo se castiga la respuesta en aquellas ocasiones en que también se le refuerza, y
que no se le castiga cuando no se le refuerza. Dentro de esta situación, el castigo se convertirá en un estímulo
discriminativo. Como consecuencia, la tasa de respuesta será alta en presencia del castigo.
CUADRO RESUMEN

Principio Característica Efectos sobre la Conducta


Presentación o retirada de un
Aumenta la frecuencia de la
Reforzamiento acontecimiento después de una
respuesta.
respuesta.

Presentación o retirada de un
Disminuye la frecuencia de la
Castigo acontecimiento después de una
respuesta.
respuesta.

Cese de la presentación de un
Disminuye la frecuencia de la
Extinción acontecimiento reforzante después de
respuesta anteriormente reforzada.
una respuesta.

Reforzamiento de la respuesta en Aumenta la frecuencia de la respuesta


Control, estimular y
presencia de un estímulo (E0) pero no en presencia de (E0) y disminuye en
entrenamiento endiscriminación.
en presencia de otro (E1). presencia de (E1).

TRIPLE RELACIÓN DE CONTINGENCIA


Esta relación de contingencia hace referencia a la secuencia de acontecimientos que ocurren frente a un
comportamiento aprendido:
Por una parte hay un evento antecedente, que se asume como aquellas características precedentes a una
respuesta.
Triple esquema de respuesta: son las respuestas cognitivas –¿Qué se piensa del evento?–, respuestas
emocionales–afectivas –¿Qué se siente con respecto al evento?– y las respuestas motoras –
¿Cuáles acciones desencadena el evento?–.
Finalmente aparece un conjunto de circunstancias consecuentes en las que se dan los reforzamientos, los
castigos y donde se arraiga o elimina la respuesta.
PARALELO ENTRE EL CONDICIONAMIENTO CLÁSICO Y EL OPERANTE:
La distinción principal entre el condicionamiento clásico y el operante se hace sobre bases operacionales. Los
dos hacen referencias a procedimientos de entrenamiento, para los cuales la aparición del estímulo
incondicionado queda determinada por la respuesta del sujeto.
Similitudes Centrales
• El fenómeno de la extinción, entendido como la disminución de la fuerza de repuesta causada por el no–
reforzamiento o como el decaimiento de una respuesta condicionada, es común a los dos tipos de
condicionamiento.
• Como se ha observado en lo estudiado hasta ahora, una respuesta que se ha extinguido, recupera su
fuerza con el descanso.
• En ambos tipos de condicionamiento se presenta una característica de discriminación de los estímulos,
tanto si el sujeto es reforzado para que responda a un estímulo, como si se le condiciona para que produzca
una respuesta condicionada.

Diferencias Relevantes
• El condicionamiento clásico es una forma de aprendizaje estímulo–estímulo –preparación de
respuestas–, mientras que el operante es un aprendizaje estímulo–respuesta –se fija la respuesta–.
• Retomando las leyes del condicionamiento clásico, se evidencia un principio de continuidad, mientras
que en el condicionamiento operante se implica además una ley de efecto –o de concreción de una
respuesta–.
• Una diferencia altamente relevante es el tipo de respuesta. En el condicionamiento clásico la respuesta
incondicionada o condicionada es siempre la misma, mientras que en el condicionamiento operante, aunque
existe un cierto margen de predictibilidad, las repuestas suelen ser distintas.

REFORZAMIENTO Y FUERZA DE RESPUESTA:


La persistencia de la conducta en el tiempo, alterada e intensificada por el reforzamiento, implica que una alta
frecuencia de reforzamiento tendrá efectos acumulados y fortalecerá la conducta en mayor grado que una baja
frecuencia de reforzamiento. La función "moldeadora" del reforzamiento, su efecto al cambiar ciertas
propiedades de la conducta correlacionadas con el reforzamiento, en mayor grado que los efectos
"cuantitativos" de un reforzador sobre la conducta. Aquí se consideran las pruebas empíricas que relacionan la
fuerza generalizada de la respuesta con las propiedades cuantitativas del reforzador. Se toma en cuenta, sobre
todo, la relación entre la frecuencia de reforzamiento y la tasa de respuesta.
La noción de que el reforzamiento crea una "reserva" de respuestas fue un concepto integrativo importante
del trabajo inicial de Skinner. En los veinte años subsecuentes casi no hubo ninguna investigación acerca de las
relaciones cuantitativas generales entre la tasa de respuesta y el reforzamiento; por ejemplo, en la obra
Schedules of Reinforcement ("Programas de reforzamiento") se hace poco hincapié en las relaciones
funcionales entre la tasa y los parámetros de los programas intermitentes. En años recientes, se ha desarrollado
nuevamente un interés activo por el tópico, pero sólo una pequeña porción del trabajo contemporáneo sobre la
fuerza de respuesta.
Múltiples experimentos han demostrado que la tasa de respuesta se relaciona directamente con la fuerza de
reforzamiento en los programas de intervalo; de hecho, se encuentra una relación profesional. Aún así, en otros
experimentos se observa claramente esta relación. Como Herrnstein observa, esta insensibilidad de la tasa de
respuesta a la frecuencia de reforzamiento disminuye probablemente nuestro interés en el concepto de fuerza de
respuesta. Por lo general, parece que la tasa de respuesta no es muy sensible a la frecuencia de reforzamiento en
situaciones que abarcan un solo programa con una sola llave de respuesta y la frecuencia de reforzamiento más
a menudo en situaciones que comprenden en programas establecidos concurrentemente, ciertos programas en
serie y programas múltiples. Experimentos recientes la mayoría de ellos que incluyen al responder en programas
concurrentes sobre llaves de respuestas presentes simultáneamente, señalan que, bajo ciertas condiciones, es
posible diseñar situaciones en donde la frecuencia de reforzamiento sea factor determinante en la respuesta del
sujeto. Estos resultados pueden considerarse, en parte, como una confirmación y ampliación de la conclusión de
Anger de que la frecuencia relativa de reforzamiento de los diferentes TERs. Las dependencias simples de tasa
respecto a la frecuencia de reforzamiento se obtienen más a menudo en situaciones en que la tasa relativa de
respuesta bajó dos o más condiciones, puede relacionarse con la frecuencia relativa de reforzamiento bajo esas
condiciones.
La relación entre la tasa de respuesta y la frecuencia de reforzamiento constituye un excelente ejemplo del
modo en que diferentes aspectos del reforzamiento intermitente determinan conjuntamente una ejecución. De
acuerdo con Herrnstein, las relaciones ordenadas entre las tasas relativas de respuesta y las frecuencias de
reforzamiento en programas concurrentes IV IV, dependen, en realidad, de las relaciones separadas entre la
respuesta y la frecuencia de reforzamiento en las dos llaves de respuesta. Su análisis implica que la frecuencia
de reforzamiento debe operar para controlar la tasa en situación con una sola llave de respuesta. Sin embargo,
en las situaciones con una sola llave de respuesta, la tasa de respuesta en un IV no se relaciona a menudo con la
frecuencia de reforzamiento en forma directa, quizá debido a que el efecto selectivo del reforzamiento de TERs
particulares se torna abrumadoramente dominante. Los efectos de reforzamiento parecen interactuar con (y
ocultar), los efectos de la privación sobre la tasa de respuesta. Bajo ciertas condiciones, la tasa de respuesta se
relaciona legalmente con el grado de privación, aún cuando no se obtiene una relación ordenada entre la tasa de
respuesta y la privación en muchos experimentos que implican reforzamiento intermitente. La privación es más
importante durante las etapas iniciales del condicionamiento cuando aún no se desarrolla una fuerte conducta
condicionada. Una historia prolongada de reforzamiento intermitente atenúa los efectos de la privación, de tal
modo que se torna menos importante en el mantenimiento de la conducta por el programa.
La relación entre la tasa de respuesta y la magnitud de reforzamiento es aún más oscura que sus relaciones con
la frecuencia de reforzamiento o con el nivel de privación. Los cambios en la magnitud de reforzamiento
pueden o no cambiar la tasa de respuesta. Hay indicaciones de que el tipo de situación en que arrojan relaciones
sensibles entre la tasa y la frecuencia de reforzamiento también muestran relaciones ordenadas entre la tasa y
magnitud de reforzamiento. Además, cambios en la magnitud del reforzador tienen un efecto en situaciones en
que la tasa de respuesta es elevada. Cuando ya se ha condicionado a un animal, reforzador de pequeña
magnitud, presentado con bastante frecuencia, puede sostener una enorme cantidad de conducta; cantidades
mayores del reforzador pueden no tener un efecto proporcionalmente mayor. Esta falta de correlación con la
tasa ha conducido a soslayar la magnitud de reforzamiento como un factor en la respuesta controlada por
programas y ha favorecido la tendencia errónea a considerar al reforzamiento como un efecto constante con
magnitudes por debajo de algún valor de umbral, no teniendo carácter de reforzadores y siendo igualmente
efectivas como reforzadores todas las magnitudes por arriba de ese valor.
Se puede obtener una relación directa entre la magnitud de un reforzador y el producto de respuesta en una
situación en la que la respuesta no se mantiene en forma regular. En un experimento no publicado, llevado a
cabo por el autor en colaboración con B.F. Skinner, se reforzaron respuestas en el mismo valor de parámetro de
RF en presencia de dos estímulos discriminativos diferentes, cada uno de los cuales se correlacionaba con una
distinta duración de acceso al reforzador. Con valores de RF de hasta 300, hubo poca diferencia en la tasa
promedio de respuesta bajo las dos condiciones, pero en el RF de 600 la tasa en la condición correlacionada con
la duración de diez segundos de reforzador, fue mucho mayor que la tasa en presencia del estímulo
correlacionado con la duración de cinco centímetros de reforzador.
PROGRAMAS DE REFORZAMIENTO
Programas Simples de Reforzamiento Positivo.
Son en los cuales, no es necesario reforzar las ocurrencias de una respuesta para poder incrementar o mantener
su tasa.
Programas de Reforzamiento Intermitente.
Cuando el medio solo refuerza alguna de las respuestas emitidas por un organismo.
Los programas son la fuerza principal del control conductual y por tanto su estudio constituye una parte muy
importante dentro del estudio de la conducta.
Programas Simples de Reforzamiento.
• RAZÓN. Establece que deberá emitirse un determinado número de respuestas antes que una emisión
reforzada.
• Razón Variable (RV). El número de respuestas requerido para el reforzamiento varia de un
reforzamiento a otro de una manera irregular, pero siempre manteniendo una característica repetitiva,
seguidas de un número que indica el valor promedio de las razones.
• Razón Fija (RF). Requiere consistentemente del mismo número de respuestas por cada reforzamiento.
• INTERVALO. Establece que deberá pasar un determinado tiempo antes que una respuesta sea
reforzada.
• Intervalo Variable (IV). Donde varia la cantidad de tiempo que deberá pasar antes de que una respuesta
sea reforzada.
• Intervalo Fijo (IF). Es aquel que mantiene constante el tiempo establecido para el reforzamiento.

Ejecuciones Características.
• Adquisición. Ocurre cuando inicialmente se comienza a reforzar las respuestas del animal en base a un
determinado programa.
• Mantenimiento. Mantenimiento de la tasa, reforzador.

Efecto de los Programas.


• Razón Variable (RV). Proporcionan tasas de respuesta muy altas y casi constantes, algunas veces
aproximándose a los límites físicas del organismo.
• Intervalo Variable (IV). También proporcionan tasas de respuesta casi constante, pero las tasas
comúnmente tienen valores inferiores a aquellas producidas por los programas de RV.

Cámaras Experimentales Acopladas.


Al utilizar las cámaras es posible mantener constantes el tiempo y la frecuencia del reforzamiento, y comparar
directamente los efectos de los programas de reforzamiento de RV y de IV.
Factores que influencian la tasa de respuesta en los programas RV e IV.
Reforzamiento diferencial de tiempo entre respuestas (TER). Es la cantidad de tiempo que pasa entre dos
respuestas, cada emisión dentro de una secuencia termina un tiempo entre respuestas, medida a partir de la
ocurrencia de la respuesta anterior.
TER largos. Tasas bajas de respuesta.
TER cortos. Tasas altas de respuesta.
La tasa de respuesta está influenciada por el reforzamiento diferencial de los TERs.
Los RV. Tasas más elevadas porque refuerzan los TER cortos.
Los IV. Tasas más bajas porque refuerzan los TER bajos.
Factores que influencian la estabilidad de la respuesta.
La propiedad de los programas IV y RV para mantener tasas de respuestas estables, dependerá de su naturaleza
variable; una tasa de respuesta se mantendrá estable un tanto que no se le exija al organismo estar demasiado
tiempo sin reforzamiento y en tanto que no exista un elemento discriminable del programa que invariablemente
anteceda la ocurrencia o la no ocurrencia del reforzamiento.
Programa de reforzamiento Múltiple.
Consiste de dos o más programas independientes, los cuales se presentan al organismo en forma sucesiva, cada
uno de ellos en presencia de un estímulo característico. Los programas múltiples son programas combinados, en
los que se agrega un estímulo discriminativo característico.
Ejemplo: Un pichón con disco iluminado con diferentes colores (roja RF) (verde RV) (azul Extinción).
Cuando los programas individuales se usan en forma combinada, muestran las mismas características que
cuando son aplicadas individualmente. Pero también las respuestas de un organismo en un determinado
momento y bajo determinadas condiciones, están determinadas parcialmente por la ejecución y por las
consecuencias que esa ejecución ha tenido en el pasado y bajo otras condiciones.
Ejemplo: La conducta de un hombre durante la noche estará determinada parcialmente por lo que ocurrió en el
día, por lo cual, la ejecución de un determinado programa será ligeramente diferente, cuando se trate de un
programa múltiple, no cuando se trate de un programa individual.
Hay dos procedimientos para el estudio de las interacciones existentes entre dos programas compuestos:
Se pueden estudiar la diferencia entre la ejecución de un determinado programa cuando se presenta solo o como
un componente de un programa múltiple.
Se puede estudiar la diferencia en las ejecuciones de un programa que se emplea como componentes en dos o
más programas múltiples diferentes.
Programa de reforzamiento Compuesto.
Es aquel que refuerza una sola respuesta de acuerdo a los requisitos de dos o más programas operando al mismo
tiempo. La ocurrencia de una respuesta podrá ser reforzada cuando se hayan cubierto los requisitos de
cualquiera de esos programas.
Programas Conjuntivos. Es en el cual se deben cumplir los requisitos de ambos (o todos) programas para que
una respuesta sea reforzada.
Diagramas de programas de reforzamiento.
RDB = reforzamiento diferencial de tasas bajas de respuesta.
RDA = reforzamiento diferencial de tasas altas de respuesta.
Programa de reforzamiento Concurrente.
Comprende el reforzamiento de dos o más respuestas de acuerdo a dos o más programas de reforzamiento
operando al mismo tiempo.
Ejemplo: Uno de los programas reforzará al organismo cuando éste emita una respuesta sobre la llave
izquierda, mientras que el otro programa reforzará al organismo cuando emita una respuesta sobre la llave
derecha.
La programación concurrente está presente en todas partes. Aún cuando solamente una respuesta sea reforzada,
existirá programación concurrente en el sentido de que toda la conducta restante está siendo extinguida. El
término concurrente se reserva para aquellos casos en que se dispone un programa explícito adicional para una
segunda respuesta.
Puede pasar que ocurra un encadenamiento de la conducta (cuando en este caso el pichón, la cual se mantiene
por el reforzamiento que se da después de que ha ocurrido el último picotazo sobre la segunda llave, lo cual
ocasiona que el ave frecuentemente pica sobre la primera llave y posteriormente va a picar sobre la segunda
llave para obtener reforzamiento.
Con lo cual a menudo se agrega un requisito a los programas concurrentes, que es el exigir que en los casos en
que el ave cambie de una respuesta a otra, deberá pasar un determinado tiempo antes de que una respuesta sea
reforzada. Con esto se ayuda a garantizar que la conducta de cambiar de llave nunca será reforzada, para
obtener la independencia de las dos respuestas.
Programación Concurrente de Cadenas de Respuestas.
Consiste en sustituir el reforzamiento primario que se utiliza en los programas concurrentes IV, por el uso de
reforzamiento condicionado.
CONTROL AVERSIVO
Son aquellos estímulos cuya eliminación incrementa la tasa de respuestas (aversivos).
Cuando la eliminación de un estímulo aversivo mantiene o incrementa una tasa de respuesta, el estímulo recibe
el nombre de reforzador negativo.
Escape. La respuesta da término a un estímulo aversivo después de que se ha iniciado la presentación del
estímulo; el organismo no puede evitar la presentación del estímulo aversivo.
La Adquisición de la respuesta de Escape. Es cuando por primera vez se le presenta al organismo un estímulo
aversivo, éste le evocará algunas respondientes, tales como saltar o correr alrededor de la cámara.
Mantenimiento de la respuesta de Escape. La tasa de respuestas mantenida por el procedimiento de escape, es
una función de la intensidad del estímulo aversivo, de la misma manera que la tasa de respuestas mantenida con
alimento, es una función del grado de privación.
Extinción de la respuesta de Escape: Se presenta el estímulo aversivo sin que las ocurrencias de la respuesta
sean reforzadas con la terminación del estímulo aversivo. Este procedimiento da como resultado una lenta
reducción en la frecuencia de la respuesta, lo que por lo general es errática.
El estímulo aversivo no se vuelve a presentar, además de suspender el reforzamiento de la respuesta también
elimina uno de los estímulos discriminativos (el estímulo aversivo) que en un principio estuvo asociado con el
reforzamiento.
Evitación. Una respuesta evita o pospone el comienzo de un estímulo aversivo.
Factores que mantienen la respuesta.
Extinción de la Conducta de Evitación. La evitación normalmente se extinguirá si se presenta el estímulo
incondicionado (el choque) a pesar de que el animal responda durante la presentación del estímulo
condicionado. O también si el estímulo incondicionado no se vuelve a presentar más.
Condicionamiento de Evitación Temporal.
Evitación y Emoción. A menudo se dice que evitamos un estímulo aversivo por miedo, no nos gusta o nos
molesta y aunque estos tipos de comentarios satisfacen las necesidades de uso común realmente no describe las
condiciones que controlan nuestra conducta. Lo que realmente describen estas afirmaciones, no son los
reforzadores negativos que mantienen nuestra conducta de evitación, sino las conductas respondientes,
principalmente de tipo emocional, las cuales son evocadas concurrentemente por los estímulos aversivos
condicionados basados en el estímulo que estamos evitando. Podrá ser que las emociones ocurran en conexión
con la conducta de evitación, pero eso no significa que sean sus causantes básicos.
Castigo.
LA OPERACIÓN CONJUNTA DEL REFORZMIENTO DIFERENCIAL Y LA FUERZA DE
RESPUESTA:
La tesis sostiene que la mayor parte del responder controlado por programas es resultado de la operación
conjunta del reforzamiento diferencial de TERs y de los efectos generalizados del reforzamiento por fortalecer
la respuesta. Los programas de reforzamiento refuerzan selectivamente diferentes TERs. Una magnitud y
frecuencia determinadas de reforzamiento tienen una relación cuantitativa con la tasa de respuesta. Las
diferentes fuerzas de respuesta originadas por el reforzamiento darán como resultado diferentes distribuciones
de TERs, y de este modo interactuarán con el reforzamiento selectivo de TERs del programa. Aun cuando se ha
avanzado considerablemente en la identificación de los efectos de reforzamiento en los TERs y en la tasa
promedio de respuesta por separado todavía no está claro cómo estos factores se interrelacionan incluso en los
programas simples.
Desafortunadamente, ha habido pocos experimentos referidos a las interacciones entre el reforzamiento
selectivo de diferentes TERs y las distribuciones de TERs, determinada por una frecuencia en particular de
reforzamiento. Generalmente los experimentos dedicados al análisis de los TERs no buscan complicaciones
adicionales cambiando deliberadamente le frecuencia de reforzamiento, y cuando ésta cambia, el efecto no es
grande. Por lo contrario los experimentos sobre la fuerza de respuesta se hacen generalmente en aquellas
situaciones en que se hacen poco hincapié en el análisis en términos de los TERs, Simplemente, no se sabe
cómo es que las diferencias de tasa de respuesta promedio, que son resultado de diferentes tasas de
reforzamiento, cambian la forma de las distribuciones de los TERs. Es necesario tener información adicional
para integrar los efectos que tiene el reforzamiento de fortalecer la emisión de respuestas con sus efectos de
moldear la conducta y, actualmente, las conclusiones a que se ha llegado en los experimentos que se ocupan de
uno u otro de estos efectos del reforzamiento, son a menudo conflictivas. Podemos dar como ejemplos algunos
experimentos que hacen hincapié en la dependencia de la tasa de respuestas de uno u otro de estos aspectos
alternativos del reforzamiento. Reynolds ha demostrado que la proporcionalidad entre la frecuencia relativa de
reforzamiento y la tasa relativa de respuesta puede aplicarse a programas múltiples que consten de componentes
IV y RF. Cuando la frecuencia de reforzamiento de cualquier componente se hizo variar mientras se mantenía
constante el parámetro de reforzamiento del otro componente, las tasas relativas de respuesta de ambos
componentes cambiaron de tal manera que fueron proporcionales a la frecuencia relativa de reforzamiento. En
este experimento, el efecto de la frecuencia de reforzamiento disimuló efectivamente cualquier tendencia de
estos programas a generar diferentes tasas promedio de respuestas a través del reforzamiento diferencial de
TERs.
En contraposición con el resultado de Reynolds, Ferster y Skinner (1957) y Clark (1959) encontraron que
programas diferentes producían distintas tasas de respuesta incluso cuando se hacía que la frecuencia promedio
de reforzamiento fuera idéntica, empleando un procedimiento de experimento acoplado. Ferster y Skinner
establecieron ejecuciones igualadas en parejas de aves. Con IV, antes de cambiar a RV el programa de un
miembro de la pareja. En cuanto al otro miembro de la pareja, el IV se cambió de tal manera que
la administración de comida al ave que estaba en RV programada la disponibilidad limitada. Aunque en base a
su informe resulta difícil decir exactamente cómo cambió la frecuencia de reforzamiento, ésta fue la misma para
las dos aves. No obstante, las tasas de respuestas del ave RV fueron más altas que las del ave IV acoplada. Este
experimento demuestra que una contingencia de reforzamiento de razón puede contrarrestar los efectos de la
frecuencia de reforzamiento. El solo cambio de la frecuencia de reforzamiento no puede explicar el mayor
incremento de tasa que tuvo el ave que se hizo cambiar de IV a RV, pues el ave que estaba en el IV acoplado
fue reforzada con la misma técnica.
CONTROL DE EVENTOS AUTÓNOMOS:
Puede lograrse un control voluntario de los procesos fisiológicos que hasta ahora se consideraban involuntarias
y automáticos, si se emplea el reforzamiento de modo similar a como se utiliza para adquirir el control sobre el
acto consumatorio de beber. Existen numerosos informes acerca de la adquisición de un control notable
sobre funciones corporales que normalmente se consideran reflejas o involuntarias. Así se informa que los
faquires hindúes son capaces de acelerar o desacelerar su ritmo cardíaco, de evitar el sangrado de zonas
específicas del cuerpo cuando se pasan un alfiler o un cuchillo a través del tejido, y de controlar su respiración o
incluso su ritmo metabólico, de tal manera que pueden ser enterrados vivos durante largos períodos (Years –
Brown, 1930). Algunos de estos poderes notables, como el control voluntario de las actividades
gastrointestinales, han sido documentadas por Behanan (1937.
Si podemos detectar confiablemente estos eventos autónomos y aparearles una señal externa y un
reforzamiento, tenemos las condiciones necesarias para lograr un control operante. Con la necesidad de enviar
información desde los cohetes, se han creado técnicas de miniaturización y técnicas telemétricas para los
experimentos fisiológicos y psicológicos. Es posible implantar quirúrgicamente aparatos sensibles minúsculos,
o tragarlos o simplemente llevarlos consigo (Mackay, 1961). Por ejemplo, los micrófonos pueden detectar el
ritmo cardíaco; los termistores pueden detectar latemperatura corporal total o la temperatura local que
manifiesta el flujo sanguíneo local; los medidores de tensión pueden detectar contracciones musculares suaves,
etc. Cuando estos aparatos sensibles detectan una respuesta deseada, puede hacerse que activen una señal
fácilmente discriminable que quizá ayude a la persona o al animal a discriminar la presencia de esa acción. Y si
hay un reforzamiento que sigue al acto, se puede motivar al animal a controlarla. Si el condicionamiento
operante no fuera posible con tales respuestas, por lo menos podrían estudiarse muchos casos de
condicionamiento clásico (en el que tal vez no sea necesario controlar la respuesta o incluso su ocurrencia). En
los trabajos de varios investigadores soviéticos se proporcionan múltiples ejemplos de tales tipos de
condicionamiento. Además, Shearn (1962)ha demostrado que el ritmo cardíaco puede ser disminuido o
acelerado por sujetos humanos que son reforzados por llevar a cabo un cambio de tasa adecuado. Pérez – Cruet
(1962) ha inducido extrasístoles por medio de condicionamiento operante. No sólo pueden estudiarse respuestas
autónomas, sino también movimientos operantes estándar pueden condicionarse satisfactoriamente sacudidas
del pulgar tan ligeras que no son detectables sin la ayuda de un electromiógrafo. En realidad, cuando la
actividad eléctrica se oye a través de un altavoz y se muestra en un osciloscopio, los sujetos pronto aprenden a
lograr un control tan sorprendente sobre sus músculos que pueden tocar redobles de tambor y todo tipo de
ritmos con contracciones musculares, de otro modo no serían detectables. Después de este aprendizaje, algunos
sujetos retienen este delicado control muscular, incluso sin el sonido que proporciona la detecciónelectrónica.
DISCRIMINACION
Control de estímulos de la Conducta Operante.
Después de que las respuestas que integran una operante ha sido reforzada en presencia de un determinado
estímulo durante varias veces, este estímulo adquiere control sobre la operante.
Estímulo Discriminativo. Es aquel en cuya presencia una determinada porción de conducta es altamente
probable; debido a que anteriormente esa conducta fue reforzada en presencia de ese estímulo, no por ello la
provocan.
Generalización. Un organismo o su conducta generalizan a todos aquellos estímulos en cuya presencia la tasa
de respuesta se incremente después de que la respuesta ha sido reforzada en presencia de algunos de esos
estímulos.
Direcciones de la Generalización.
La generalización ocurrirá ante los estímulos que estén compuestos de los mismos parámetros físicos y que solo
diferían en el valor de los parámetros.
Se espera que la generalización ocurra ante estímulos que poseen aspectos perceptibles en común con el
estímulo que originalmente estableció la ocasión de reforzamiento.
Generalización de Respuesta.
El reforzamiento de una respuesta no solo da como resultado un incremento en la frecuencia de las respuestas
que integran a esa operante, sino que también producen un incremento en la frecuencia de aquellas otras
respuestas parecidas.
Discriminación y Generalización.
Se dice que un organismo discrimina entre dos estímulos cuando se comporta de manera diferente en presencia
de cada uno de ellos.
El gradiente de generalización revela la discriminación, siempre que un organismo responda con una tasa
diferente en presencia de cada uno de los estímulos.
Formación de una discriminación.
La discriminación entre dos estímulos se hará cada vez más pronunciada si se añade el reforzamiento
diferencial. Cuando se refuerza una ejecución en presencia de un estímulo dejándola sin reforzamiento en
presencia de un segundo estímulo, se incrementa la tasa de respuesta reforzada, en cambio la otra se reduce, y se
estudia a través del tiempo.
Determinantes Heredables de la Atención.
Los organismos nacen con diversas disposiciones a atender a los aspectos particulares del medio. Un organismo
atenderá selectivamente solo algunos de los estímulos que se encuentren a su alrededor, entre los cuales es
capaz de discriminar.
Determinantes Ambientales de la Atención.
La experiencia previa también puede ser la causa de que un organismo atienda a un solo estímulo de entre un
conjunto de ellos o esas propiedades, aún cuando todos ellos tengan la misma asociación consistente con el
reforzamiento de las respuestas.
Si se trata de introducir nuevos estímulos, por lo general será ignorada por el organismo, a menos que se
cambien las condiciones de reforzamiento.
Estímulos Supraordenados.
Son estímulos en cuya presencia una determinada propiedad y no otra, ha establecido en el pasado la ocasión de
reforzamiento de una respuesta.
Transferencia del Control de Estímulos.
La atención puede ser transferida de un conjunto de estímulos a otro conjunto diferente, mediante el
procedimiento de presentación simultánea de ambos estímulos que originalmente controlan la respuesta.
Precondicionamiento Sensorial.
Existen algunos experimentos que indican que la transferencia de control algunas veces ocurre sin el
reforzamiento explícito.

RESUMIENDO
El término de condicionamiento operante se debe a Skinner, y en el principio es equivalente al de aprendizaje
instrumental propugnado por Thorndike. El término se refiere a un proceso en el que la frecuencia de suceso de
la unidad de la conducta (respuesta) se modifica como efecto de las consecuencias que lleva aparejadas esa
conducta. Además, el condicionamiento operante invierte la situación respecto al condicionamiento operante
invierte la situación respecto al condicionamiento clásico, que pasa a ser R – E. Es el refuerzo experimentado
como consecuente al comportamiento lo que ocasiona
El condicionamiento operante de B.F.Skinner
1.
2. Biografía
3. Descripción de la teoría
4. Conceptualización de la teoría
5. Factores que influyen en la efectividad de un reforzamiento
6. Programas de reforzamiento
7. Cuestionamientos a la teoría de Skinner
8. Diferencias y similitudes entre la teoría de los refuerzos y el condicionamiento clásico
9. Aporte de la teoría de los refuerzos a la educación
10. Conclusiones
11. Bibliografía

I. INTRODUCCIÓN
En el presente trabajo nos enfocaremos en El condicionamiento operante o Teoría de los Refuerzos, explicando
los planteamientos de su autor y descubridor, el Sr. B.F Skinner, considerado como uno de los psicólogos más
influyentes dentro de las teorías del aprendizaje.
Skinner, según lo escrito en su libro "Más allá de la libertad y de la dignidad" de 1971, tendiente a erradicar en
nombre de la ciencia determinista y naturalista, la concepción tradicional de occidente, que ve en el hombre a
un ser libre y responsable; afirma que la lucha del hombre por su libertadpersonal, no se debe a su inalienable
voluntad, sino a una serie de procesos conductuales, característicos del organismo humano, cuyo principal
efecto consiste en la tentativa de evitar lo que llama caracteres aversivos del ambiente; recondicionando
adecuadamente estos procesos conductuales. Así, laconducta no es ningún proceso interno, sino que es
la acción del organismo ante las condiciones del mundo exterior, por esto considera Skinner que "no existe el
hombre autónomo".
La conducta, la cual es el objeto de estudio de Skinner, también hace posible relacionar al hombre con una vida
social y armónica que proporciona alindividuo seguridad y felicidad, por lo que él considera a la Libertad, no
una ventaja sino más bien una amenaza.
Su influencia de genero neo-conductista, introdujo el concepto Condicionamiento operante; proceso mediante el
cual se aumenta o disminuye laprobabilidad de dar una respuesta, designando Skinner a esto como
Reforzamientos, el cual consiste en un Estimulo Reforzante, que incrementa la posibilidad de
un comportamiento, pudiendo ser este negativo o positivo, dependiendo de la relación que el individuo tenga
con el medio ambiente. Consiste en que un organismo haga algo influenciado por una serie de actos.
En este trabajo, veremos su estructura, analizando los distintos tipos de refuerzos y factores que influyen en
ellos, también sus programas de reforzamiento que pueden ser parciales o continuos.
Skinner también plantea que toda la conducta humana es producto de reforzamientos, atribuyendo una
importancia fundamental al aprendizaje aplicado a la educación y a la vida diaria.
Por ultimo sabremos cual es el aporte de esta teoría a la Educación tradicional, a través de los programas más
significativos de reforzamiento, clarificando lo que Skinner planteaba al decir que el profesor es un constructor
de conductas. Finalmente se realizaran observaciones a las objeciones y desacuerdos de esta teoría y se darán a
conocer algunas diferencias con otras teorías.
II. BIOGRAFÍA

Burrhus Frederic Skinner nace en un pequeño pueblo de Pennsylvania llamado Susquehanna, el 20 de marzo de
1904. Su padre era un abogado y su madre una fuerte e inteligente ama de casa. Durante su crecimiento fue
matizado con la idea del trabajo duro y las costumbres muy tradicionales (Boeree, 1997).
B. F había sido un niño muy activo, niño extrovertido que adoraba el estar al aire libre y construir cosas, y
disfrutaba, igualmente, la escuela; sin embargo, su vida no estuvo exenta de tragedias. Específicamente, su
hermano a la edad de 16 años muere de un aneurisma en el cerebro (Boeree, 1997).
Asistió a la Universidad de Hamilton en Nueva York, esperando ser narrador y poeta. En ese tiempo, sólo tomó
un curso en psicología, el cual era impartido por William Squires, pero lo único que Burrhus recordaba del
curso era la demostración de Squires del umbral de discriminación de dos puntos (Hothersall, 1997).
Asimismo, por lo general no encajó muy bien allí, no disfrutaba para nada las fiestas de la fraternidad o
los juegos de fútbol. Escribe para el periódicoescolar con el seudónimo de Sir Burrhus de Beerus (Hothersall,
1997), incluyendo artículos criticando a su propia escuela, la facultad, e incluso a la fraternidad Phi Beta Kappa.
Además, era un ateo en una escuela que requería asistencia a las misas (Boeree, 1997).
En 1926 se gradúa con honores Phi Beta Kappa (Hothersall, 1997).
Con la idea de desarrollarse como poeta y narrador, luego de graduarse, construye un estudio en el ático de la
casa de sus padres para concentrarse, pero en realidad nunca fue así (Boeree, 1997).
Posteriormente, escribe artículos periodísticos sobre problemas laborales, y vive en la Villa Greenwich en
Nueva York como bohemio. Luego de viajar algunas veces y haber leído el libro de Pavlov, Reflejos
condicionados, decidió que su futuro estaba en la psicología, especialmente en el condicionamiento (Hothersall,
1997), por lo que decidió regresar a la universidad, esta vez a Harvard. Se gradúa con su maestría en psicología
en 1930 y su doctorado en 1931. Luego, se queda allí para realizar investigaciones por cinco años más (Boeree,
1997), trabajando como asistente en ellaboratorio de biología del profesor Crouzuer (DiCaprio, 1997).
En 1936, se muda a Minneapolis para dictar clases en la Universidad de Minnesota. Es aquí donde conoce a su
futura esposa Yvonne Blue. Tuvieron dos hijas, una de ellas, la menor, se convierte en la primera infante criada
en una de las invenciones de Skinner, la camita de aire. Sin embargo, no era más que la combinación de una
camita de niño con lados de vidrios y aire acondicionado, se parecía mucho a tener un niño en un acuario
(Boeree, 1997). En 1938 publica su primer libro importante, The Behavior of Organisms (DiCaprio, 1997).
En 1945, es designado director del departamento de psicología en la Universidad de Indiana. En 1948, es
invitado a regresar a Harvard, donde trabajaría el resto de su vida. Era un hombre muy activo,
haciendo investigación y guiando cientos de estudiantes para conseguir su doctorado y; por supuesto,
escribiendo muchos libros (Boeree, 1997), entre los que se pueden mencionar Cumulative record, Manual de la
conducta operante, Terapia conductual, y descubrimientos empíricos, A primer of operant conditioning
(DiCaprio, 1997), Disfrutando la edad adulta publicado en 1983 (Hothersall, 1997).
Skinner muere de leucemia el 18 de agosto de 1990 (Boeree, 1997)
III. DESCRIPCIÓN DE LA TEORÍA
Primero que todo, el condicionamiento operante, llamado también instrumental y hoy en
día; análisis experimental de la conducta(AEC) desarrollado por el psicólogo neoconductista B.F Skinner, se
puede definir de la siguiente forma:
Es la teoría psicológica del aprendizaje que explica la conducta voluntaria del cuerpo, en su relación con el
medio ambiente, basados en un métodoexperimental. Es decir, que ante un estimulo, se produce una respuesta
voluntaria, la cual, puede ser reforzada de manera positiva o negativa provocando que la conducta operante se
fortalezca o debilite.
Es la operación que incrementa la probabilidad de la respuesta o conducta en relación a un Estímulo
discriminativo y a otro llamado estimulo reforzador:
Para ver el gráfico seleccione la opción "Descargar" del menú superior
Es siempre una relación de contingencia.
Skinner también considera al aprendizaje por castigo y por extinción de los refuerzos, como influyentes en la
conducta.
Para ejemplificar lo anterior, describiremos uno de los experimentos llevados a cabo por este psicólogo de
pennsylvania, llamado la "Caja de Skinner".
Estos tipos experimentos fueron realizados en su mayoría con ratitas y pichones, los cuales se encontraban en el
interior de una caja de simple fabricación, que tenia por dentro una palanca llamada "manipolandum", la cual
podía ser bajada con una liguera presión, y que al ser accionada provocaría que el alimento contenido en un
tazón al interior de esta cayera.
En un principio el "animalito" , que ha sido privado de alimento durante unas horas, se desplazará de un lado a
otro, apoyando su cuerpo en los costados de la caja, picoteando y rasguñando la pared transparente, etc. En
algún momento, y solamente por "casualidad", la palanca será accionada por la patita o pico del animalito,
provocando que el alimento caiga para en ese momento comer el alimento. Este proceso se repetirá varias veces
voluntariamente, hasta que el animalito descubrirá que el hecho de accionar la palanca es retribuida con una
recompensa, por lo cual esta acción se ira repitiendo con mayor frecuencia, dejando de lado a aquellas en la que
no es recompensado.
Así, el refuerzo (Alimento), es el que lleva a repetir al animalito esa conducta que en un momento era
accidental.
Lo anterior, es una muestra clara de cómo funciona el CONDICIONAMIENTO OPERANTE.
IV. CONCEPTUALIZACIÓN DE LA TEORÍA
A continuación abarcaremos todo lo que se relaciona a esta teoría del aprendizaje, con sus conceptos, procesos,
programas etc.
Como iremos viendo más adelante, la palabra "Refuerzo" es piedra angular en el planteamiento de Skinner, y
este puede ser definido como el estimulo que al aumentar o desaparecer, aumenta la posibilidad de una
respuesta. Entonces una serie de estas acciones refuerzan la conducta en un sentido positivo o negativo.
Los refuerzos se pueden clasificar en Primarios (incondicionados), Secundarios (condicionados) y
Generalizados:
REFORZADORES PRIMARIOS:Son aquellos que no dependen de la historia del sujeto, sino de las
características biológicas; son comunes a todos los sujetos de la especie y tienen un carácter altamente
adaptativo, guardando relación directa con la supervivencia del sujeto y la especie.
REFORZADORES SECUNDARIOS: Al contrario que los Primarios, éstos no tienen relación directa con la
supervivencia y dependen, más bien, de la historia individual del sujeto.
REFORZADORES GENERALIZADOS: Son todos aquellos reforzadores que mientras más son presentados
no reducen su efectividad, sino que, se mantiene. Son independientes de la intensidad o frecuencia que tienen y
tienen una relación estrecha con la historia individual.
Los dos tipos de refuerzos básicos en la teoría de skinner son:

o Refuerzo positivo
o Refuerzo negativo
• REFUERZO POSITIVO: Este tipo de refuerzo provoca que la presencia de ellos aumente la
probabilidad de una conducta, es decir, que añadir un estimulo al entorno trae consigo que esa respuesta
aumente o se repita en el futuro. Unos ejemplos de esto seria:

-Un alumno al finalizar su disertación de psicología, obtiene las felicitaciones del profesor y los
aplausos objetivos de sus compañeros. Aquí las felicitaciones y aplausos son refuerzos positivos, ya al resultar
gratificante para el alumno este refuerzo, su respuesta será estudiar con más dedicación aun, para el próximo
trabajo.
-Si María le dice a pedro que lo quiere mucho más después de haberle regalado chocolates, la consecuencia de
la conducta de pedro, será tan gratificante para él, que su conducta se verá reforzada a que aumente o se repita
en el futuro.
El "Refuerzo positivo" incorpora una conducta nueva, aumenta una existente o elimina una conducta
inapropiada incompatible.
Según investigaciones realizadas, las aplicaciones de reforzamiento positivos, no podrán ser aplicadas en todas
las situaciones, por lo que el reforzador a seleccionar, deberá tener una capacidad de refuerzo que se haya
demostrado para el individuo concreto bajo condiciones específicas.
Es importante aclarar que, la expresión "Positivo", no tiene una connotación ética, valórica o moral.
• REFUERZO NEGATIVO: Se llama refuerzos negativos al aumento de probabilidad de una conducta,
como consecuencia de la omisión de un estimulo.

A diferencia del refuerzo positivo, aquí se omite o retira un estimulo que antecede a la respuesta o conducta, y
como consecuencia aumenta dicha conducta.
Es importante señalar que la omisión de la conducta, no basta para que se refuerce negativamente la conducta,
sino que será fundamental que a través de la respuesta se elimine dicho estimulo de un entorno, es decir, la
desaparición de la contingencia es consecuencia de la conducta.
Ejemplos de reforzamiento negativo seria:
-estudiar de manera responsable para pasar las asignaturas sin problemas y así eximirse de las pruebas de
repetición. De manera clara se entiende que el refuerzo exime de la prueba, y la diferencia con el refuerzo
positivo, es que aquí se esta eliminando (eximir de la prueba) algo del entorno.
-Una persona al presentar fuerte dolores de cabeza, toma algún analgésico que haga desaparecer esa molestia.
Acá, el estimulo (dolor de cabeza) que antecede a la conducta, es eliminado tomando un analgésico.
En resumen, el Refuerzo Negativo a través de la respuesta o conducta, elimina el estímulo aversivo que le
antecede, por consiguiente se da un incremento a la conducta que causo la eliminación o desaparición de este
estímulo.
Hay ocasiones en que los Refuerzos Negativos son una vía interesante para motivar a personas a realizar cosas
que le resultan difíciles como:
-Aceptar un billete de dinero no hará que un joven se zambulla en agua fría, se pare sobre un par de patines,
monte en motocicleta o se interne en una caverna, pero el ridículo ante sus amigos, lo que ellos pueden decirle a
manera de insulto o evocando a la cobardía, puede ser lo suficientemente aversivo para que el sujeto desee
eliminarlo y acepte el reto y termine realizando la conducta negada
El Reforzador Negativo, tiene importancia en dos tipos de aprendizaje:
• Condicionamiento de Escape
• Condicionamiento de Evitación
• CONDICIONAMIENTO DE ESCAPE: Es cuando se aplica un castigo, pero este se termina cuando
se produce una conducta, es decir, es cuando se aprende a dar una respuesta que elimina o hace desaparecer
una situación que resulta desagradable. Ejemplo :

-Los niños aprenden con rapidez que al acercar sus manos hacia algún objeto caliente, como la estufa o cocina,
las deben alejar rápidamente para evitar quemarse.
• CONDICIONAMIENTO DE EVITACIÓN: Es cuando, se eliminan o reducen estímulos que
anteriormente han estado seguidos de estímulos aversivos. La diferencia con el condicionamiento de escape,
es que aquí el organismo no recibe el estimulo aversivo, en cambio en el condicionamiento de escape el
organismo termina o reduce el estímulo aversivo a través de la respuesta, que vera aumentada su frecuencia.
Un ejemplo de condicionamiento de evitación seria:

-Un automovilista ya tiene experiencia de que si conduce a una velocidad de 150 k/h en una carretera permitida
a 100k/h será detenido por carabineros y se le cursara la multa correspondiente, por lo cual, a través de su
conducta evita ese estímulo aversivo.
Otros procedimientos importantes dentro del control de la conducta son: el Castigo y la Extinción de los
refuerzos.
• CASTIGO: Consiste en presentar un estimulo aversivo o retirar un reforzador inmediatamente después
de una conducta, disminuyendo o eliminando la probabilidad de repetición de dicha conducta. Ejemplo :

-Prohibir a un niño a salir a recreo, debido a que no ha terminado sus ejercicios durante la clase por motivos de
indisciplina. Aquí se ejemplifica correctamente lo que dice la definición, ya que se aplica un Castigo (estimulo
aversivo) inmediatamente después de una conducta.
-La policía detiene a una persona que se dedica a robar en tiendas comerciales, por lo cual, es Castigado a 5
años de cárcel.
Aquí se dan las condiciones para catalogar el ejemplo anterior como Castigo, pero existe la posibilidad que el
individuo, según las condiciones del ambiente (sociedad, rehabilitación, necesidades,etc.) vuelva a reincidir en
su conducta.
• EXTINCIÓN: Proceso mediante el cual una conducta deja de emitirse al descontinuar el reforzamiento
que la mantenía. Una conducta o respuesta se acaba por que deja de recibir lo que la hace existir. Ejemplos:

-Un joven de un pequeñísimo poblado al cabo de un mes deja de recibir sus clases de guitarra debido al
fallecimiento del único músico del pueblo. Acá el refuerzo que mantenía la conducta la conducta del joven se ha
"terminado", por lo cual la conducta dejara de producirse.
-En una clase se comprobó que la mala conducta aumentó cuando los maestros prestaron atención a ella y
disminuyó por debajo del nivel usual cuando la pasaron por alto y prestaron su atención a los niños que no se
estaban portando mal
A pesar de que el efecto de disminución o desaparición de la conducta es igual en el procedimiento de Castigo
como en el de Extinción, se diferencian en que en el primero no se rompe el proceso de contingencia, cosa que
si sucede en el otro.
Otros procedimientos importantes desde el punto de vista del control de las conductas son:
• La discriminación
• La generalización

o LA DISCRIMINACIÓN: Proceso en el cual la frecuencia de una respuesta es más alta ante la
presencia de un estimulo, que ante su ausencia. Es decir es el proceso en que la presencia de un Estimulo
discriminatorio hace posible que una respuesta dada, sea reforzada, pero importante es señalar que para
que esto ocurra, debe existir por lo menos un Estimulo delta, que es en cuya presencia no existe refuerzo
y funciona para suprimir o inhibir la conducta. Así, si un Estimulo discriminatorio, logra reforzar la
conducta, los demás estímulos serán Estímulos delta. Un ejemplo de el Procedimiento de discriminación
es :

-En el metro se señalan a través de imágenes los asientos que son de preferencia para minusválidos,
embarazadas o tercera edad. Aquí estas imágenes actúan como Estimulo discriminatorio, ya que discriminan
una respuesta de ocupar un asiento destinado para otras personas.
• LA GENERALIZACIÓN: Proceso en el cual se refuerza una conducta, por medio de la mayor
cantidad de estímulos posibles. Ejemplo :

-se ha enseñado a un niño a decir "buenos días" a su padre, para lograr que esa conducta se reproduzca con otros
adultos, es decir, se generalice ante la mayor cantidad de estímulos denominados "adultos", basta con reforzar
sistemáticamente la respuesta "buenos días", cada vez que se emita ante cualquier adulto.
Ambos procedimientos se complementan entre si, dentro de toda discriminación hay una generalización y
viceversa.
V. FACTORES QUE INFLUYEN EN LA EFECTIVIDAD DEL REFORZAMIENTO
Para el control de una conducta, no basta con haber elegido el reforzador apropiado, sino que además se deberán
tomar en consideración importantes factores como: Inmediatez, Cantidad de refuerzo, condiciones, probación
y exposición, entre otros, que ayudaran a acrecentar la efectividad del refuerzo.
• INMEDIACIÓN DEL REFORZAMIENTO: Según lo dicho por el propio Skinner, un principio
fundamental sobre el control de la conducta es que un refuerzo inmediato es más efectivo que el retrasado.
Por ejemplo:

-Ante el recibo de un obsequio por parte de una amiga, resultaría mucho más efectivo reforzar esa conducta con
un gracias de inmediato, que con retraso, ya que de lo contrario, el organismo tendría el tiempo para producir
otra conducta, entre el lapso de la conducta original y el reforzamiento retardado, por lo que el reforzamiento
seria en la conducta derivada de otra.
• CANTIDAD DE REFORZAMIENTO: La decisión sobre que tanto reforzamiento se debe suministrar
depende de varios factores: el tipo de reforzador usado, las condiciones de privación y el esfuerzo necesario
para dar la respuesta. Se debe tener en cuenta los conceptos de:

o Privación
o Saciedad
o

 Privación: Es cuando se retiene el reforzador por un espacio de tiempo o reduce su


acceso, a favor de de la efectividad del refuerzo. Por ejemplo:

-Cuando un animal es privado de su alimento por un tiempo, cuando este se le vuelve a mostrar, este refuerzo
será más efectivo.
• Saciedad: Aquí es cuando el reforzador pierde su valor como tal, ya que la cantidad inapropiada del
refuerzo termina por saciar al organismo. La supresión de la conducta, es por causa del reforzador que la
mantiene. Ejemplo :

-Si se le recrimina reiteradas veces a un alumno cuando fuma cigarrillos, este terminara por saciarse y acabará
cambiando alguna conducta de obediencia que haya tenido. Así una buena opción es proporcionarle tantos
cigarrillos para que fume, que luego termine mareado y con náuseas y por no querer saber nada a cerca de los
mismos.
• CONDICIONES DE SITUACIÓN: Cuando el reforzamiento se suministra de inmediato, los
individuos pueden identificar con mayor facilidad las conductas que conducen al reforzamiento y las que no.
Otro factor que puede facilitar la discriminación es la especificación clara de las condiciones ambientales, o
estímulos, bajo las cuales se suministrará el reforzamiento.
• PROGRAMACIÓN: Esto es la regla que sigue el medio ambiente, para determinar cual de las
numerosas respuestas, será reforzada.

Existen varios programas reforzadores, los cuales pueden ser ajustados a procedimientos diseñados a moldear,
incrementar, reducir o mantener una conducta.
• PROBACIÓN: Es utilizado generalmente, cuando este refuerzo no esta familiarizado con el sujeto al
cual se le aplica, es decir, si algún cuerpo no se ha enfrentado a una determinada situación, el refuerzo que
podría ser aplicado resultaría desconocido.
• EXPOSICIÓN: Esto significa que cuando un organismo, no puede recibir directamente un refuerzo,
como en el caso de la probación, Entonces, se procede a exponerlo a las condiciones más parecidas que se
pueda a aquellas en las cuales se utiliza el reforzamiento. Incluso si es necesario ocupar a otra persona a la
cual se le ha aplicado el refuerzo.

VI. PROGRAMAS DE REFORZAMIENTO


Los programas de reforzamiento son "reglas", que determinan cuando seguirá la entrega o presentación
contingente de un reforzador a la presentación de una respuesta o conducta. Existen diferentes tipos de
programas de reforzamiento, de los cuales, definiremos los más significativos.
• PROGRAMA DE REFORZAMIENTO CONTINUO: Se llama a este tipo de programa, cuando el
refuerzo es manifestado en cada momento de ser producida una respuesta. Ejemplo:

-Cuando en una clase, un alumno levanta la mano para dar su opinión, el profesor pronuncia su nombre dándole
la palabra.
• PROGRAMA DE REFORZAMIENTO PARCIAL O INTERMITENTE: Este reforzamiento se da
cuando son reforzadas solo algunas de las conductas emitidas por el organismo, no todas. En la vida
cotidiana, en el colegio, universidad, etc., se dan estos tipos de programas. Ejemplo:

-Cuando llamamos a una persona por teléfono, y esa persona no se encuentra, la conducta no ha sido reforzada;
no queriendo decir con ello que no ocurra la próxima vez.
Según los experimentos realizados por Skinner, los programas de reforzamiento parcial, son bastante estables y
mantienen la conducta por periodos más largos que los programas de reforzamiento continuo.
Los programas de reforzamiento parcial o intermitente, pueden programarse teniendo en cuenta el número de
respuestas o también el tiempo que transcurre. Por lo tanto hay que tomar en consideración:
-Programa de razón
-Programa de intervalo
• PROGRAMA DE RAZÓN: Estos programas consideran el número de respuestas antes de presentar un
reforzador, es decir, el reforzador depende de la conducta del organismo en base al número de respuestas de
este.

Este programa se subdivide en dos:


Razón fija: Que es cuando el reforzamiento se da cada vez que el sujeto cumple con un determinado numero de
repuestas que se ha establecido de antemano. Ejemplo :
-Si se le dice a un vendedor, que por cada diez helados que venda, uno será para el, la razón fija será 10.
Razón variable: los reforzamientos ocurren después de una cantidad variable de respuestas, no después de un
número fijos. Esta cantidad difieren de reforzamiento en reforzamiento. Ejemplo :
-Si al mismo vendedor se le dice ahora, en base a un establecimiento previo de la cantidad variable, que se le
dará el reforzamiento (dar el helado) cuando venda el primer helado, el segundo reforzamiento le será dado
cuando venda el tercer helado, el tercero cuando venda el cuarto y el cuarto cuando venda ocho. Así el valor de
la razón variable se designa por el promedio de estas, (1-3-4-8) cuya suma seria 16 en este caso, siendo el
promedio cuatro
• PROGRAMA DE INTERVALO: son aquellos que toman la cantidad de tiempo transcurrido antes de
proporcionar el reforzador.

Los programas de intervalo se definen en función del tiempo, pero se refuerzan en base a la primera respuesta
que se obtiene luego de transcurrido el tiempo previsto; es decir, el reforzamiento, cualquiera que sea el
programa seguido (de razón o de intervalo) siempre debe ser consecuencia de una respuesta. Existen dos tipos
de programas de intervalo:
Intervalo fijo: que son aquellos en donde se establece un intervalo, donde al término de este, se refuerza la
primera respuesta que se emita.
Intervalo variable: es cuando se establece un determinado intervalo variable, por ejemplo 2-4-7; y en donde se
refuerza la primera conducta transcurrido el tiempo. Ejemplo :
-Si el intervalo es 2-4-7 se reforzara la primera conducta transcurridos los dos primeros minutos, luego se
refuerza la primera conducta pasados cuatro minutos y finalmente se reforzará la primera conducta pasados
siete minutos. El promedio de estos será el valor del intervalo variable
Otros programas de reforzamiento:
PROGRAMA DE REFORZAMIENTO MULTIPLE: Consiste de dos o más programas independientes, los
cuales se presentan al organismo en forma sucesiva, cada uno de ellos en presencia de un estímulo
característico. Los programas múltiples son programas combinados, en los que se agrega un estímulo
discriminativo característico.
PROGRAMA CONCURRENTE: Están formados, también, por dos o más programas. A diferencia del
múltiple, los programas no son sucesivos, sino simultáneos; es decir, que el sujeto puede emitir dos respuestas
distintas que se refuerzan simultáneamente por programas independientes, pero paralelos en el tiempo. Los
reforzamientos previstos en cada programa son independientes entre sí. Este tipo de programa se utiliza cuando
se desea reforzar más de una respuesta a la vez, como ocurre en los programas de conducta social.
PROGRAMA DE CONJUGADO O PROPORCIONAL: En estos programas, se establece una proporción
entre cierta medida de la conducta e cierta medida del reforzamiento. Por lo general, estas medidas están dadas
por la frecuencia del reforzamiento, pero también pueden seguir propiedades tales como la magnitud de la
respuesta y la magnitud del reforzamiento. En este programa, cuanto más responde el sujeto, más reforzamiento
recibe, hay una proporción directa entre conducta y reforzamiento. La relación también puede ser inversa;
dependiendo de los propósitos del programa. Es adecuado permitir al sujeto establecer el criterio de
reforzamiento a través de la propia emisión de su conducta. Por ejemplo: si un niño realiza dos ejercicios
dematemáticas, recibe un caramelo; si realiza cuatro, recibe dos caramelos, etc.
VII. CUESTIONAMIENTOS A LA TEORÍA DE SKINNER
Entre las críticas que se hacen a la teoría de skinner, están aquellas que la acusan de hacer una comparación
abusiva, al tratar de explicar los procesos de la vida real en experimentos de laboratorio con animalitos. Uno de
sus principales detractores en relación a esto es Chomsky, ante lo cual Skinner responde que estos ataques no
eran más que una manifestación del "mentalismo" característico de los estructuralistas, los cuales quieren
explicar la conducta humana sin prestar atención a las circunstancias dentro de las cuales tiene lugar dicha
conducta.
Otros psicólogos y personas del mundo de las ciencias, dicen que se pueden aceptar los resultados de sus
experimentos, sin necesidad de generalizar.
Un aspecto fuertemente criticado a los experimentadores de la conducta es el reducido número de sujetos que
utilizan en las experiencias. Para los críticos (generalmente ajenos al que hacer experimental), parece
inconcebible, e incluso inexplicable, la tendencia conductista a la utilización del caso único, un lugar de
emplear grandes muestras representativas con el fin de poder justificar "quizás" convenientemente el generalizar
los resultados, ante lo cual Skinner responde que estas no son generalizaciones indebidas, sino que son
resultados de estudios científicos comprobados.
Incluso algunas críticas tratan de dejar en ridículo a nuestro psicólogo en cuestión, como fue la realizada por el
sociólogo Andreski: "en contraste a tal pretensión (hacer ciencia) la más grande realización de Skinner, en
el dominio de la tecnología de la conducta ha sido la de amaestrar a dos palomas para que lancen una pelota de
ping- pong hacia adelante y hacia atrás. Este logro exige, probablemente, mucha perseverancia e imaginación,
pero justifica apenas su pretensión de ser tomado en serio como experto de la civilización y la política. El
inventor de la célebre caja de Skinner merece sin duda ser reconocido como amaestrador de animales, aunque
no sea evidente a simple vista que valla más allá de logros de los amaestradores del circo".
En definitiva, se le critica que tiende a destruir la noción de la naturaleza humana, reduciéndola a un conjunto
de mecanismos que no hacen sino asemejarla a una maquina o los animales. Consideran, además, que las
actividades propias del ser humano es decir, justamente aquellas que lo diferencian de lo animal
(virtud, creatividad, altruismo, imaginación, amor, etc.) son simples relaciones entre estímulos y respuestas, sin
valor intrínseco alguno.
VIII. DIFERENCIAS Y SIMILITUDES ENTRE LA TEORÍA DE LOS REFUERZOS Y EL
CONDICIONAMIENTO CLÁSICO
La principal diferencia se hace sobre las bases de operación. El condicionamiento clásico es una forma de
aprendizaje estímulo- estímulo-preparación de respuestas, en cambio que el condicionamiento operante (teoría
de los refuerzos) el aprendizaje es un estimulo-respuesta-se fija la respuesta.
Una diferencia relevante es que en el condicionamiento clásico la respuesta condicionada o incondicionada será
siempre la misma, a diferencia del operante, en donde las respuestas suelen ser distintas.
También en el condicionamiento clásico se videncia una ley de continuidad, mientras que en el otro se implica
además una ley de efecto, es decir, la concreción de una respuesta.
Por otro lado, también encontramos similitudes entre estos dos tipos de condicionamientos. Uno de estas
similitudes seria que según los estudios realizados hasta ahora, tanto en el condicionamiento operante como en
el clásico una respuesta que se ha extinguido, recupera su fuerza con el descanso.
También en ambos tipos de condicionamiento se presenta una característica de discriminación de los estímulos,
tanto si el sujeto es reforzado para que responda a un estímulo, como si se le condiciona para que produzca una
respuesta condicionada.
En síntesis el condicionamiento de clásico de Watson da importancia al estimulo y el condicionamiento
operante de skinner da importancia a la respuesta que hay que reforzar.
IX. APORTES DE LA TEORÍA DE LOS REFUERZOS A LA EDUCACIÓN
Skinner al poner de manifiesto a través de su condicionamiento operante que la conducta humana es
manipulable, logro que su teoría fuera introducida en la educación para el proceso enseñanza-aprendizaje.
Los educadores tienen una marcada influencia de la teoría conductista operante, ya que para ellos el
comportamiento de los estudiantes es una respuesta a su ambiente pasado y presente, en la cual todo ese
comportamiento es aprendido. Por lo tanto cualquier problema de conducta es el reflejo de los refuerzos que
dicho comportamiento ha tenido.
Como la teoría de los refuerzos tiene que ver con el control de las conductas, los maestros deben proveer a los
educandos un ambiente adecuado para el refuerzo de las conductas deseadas. Por consiguiente las conductas no
deseadas que el alumno tenga en el aula, pueden ser modificadas utilizando losprincipios básicos del control de
estas explicados anteriormente en el presente trabajo.
Las posiciones más comunes adoptadas por los profesores en los establecimientos, son las siguientes:
• Todo estudiante necesita ser calificado con notas, estrellitas, y otros incentivos como motivación para
aprender y cumplir con los requisitos escolares.
• Cada estudiante debe ser calificado en base a los estándares de aprendizaje, que la profesora traza para
todos los estudiantes por igual.
• El currículo debe estar organizado por materias de una manera cuidadosamente y en secuencia y
detallado.

Algunas técnicas para cambiar las conductas no deseadas del alumno en el establecimiento serian:
• Refuerzo de las conductas deseadas, que de esta manera competirá con la conducta no deseada hasta
reemplazarla por completo.
• Debilitar las conductas no deseadas eliminando los refuerzos de estas.
• La técnica de la "saturación" que implica envolver a un individuo en la misma conducta no deseada, de
manera repetitiva hasta que el individuo se sienta hastiado del comportamiento.
• Cambiando la condición del estímulo que produce la conducta no deseada, influenciando al individuo a
tomar otra respuesta a dicho estimulo.
• Usando castigos para debilitar a conducta no deseada.

Una de los más importantes aportes a la educación es cuando se aplica un aprendizaje programado. En donde
la materia a impartir, se separa en partes simples y se empieza por ejemplo; preguntando cosas en que el alumno
tiene conocimiento, ante cuya respuesta (conducta) se le refuerza con felicitaciones o puntaje para el examen
final. Así de a poco y ante la conducta del alumno por esforzarse y estudiar mejor, se van introduciendo
preguntas con un mayor grado de dificultad, reforzando las correctas.
X. CONCLUSIONES
A continuación se expondrán las conclusiones de cada uno de los integrantes del presente trabajo.
• Catherine Zavalla:
La conducta humana, esta guiada y dirigida por refuerzos, los cuales son de carácter motivador para dirigir una
conducta. Son fundamentales en el aprendizaje sabiendo utilizarlos, para lograr una respuesta esperada hacia los
alumnos.
Así, se comprueba que el comportamiento es de carácter manipulable, ya sea por la familia, iglesia, etc.
Como estudiante de pedagogía y futura profesora, es indispensable manejar este tema, como estrategia para el
mejor logro de la educación, no solamente hablando de materia, sino también reforzar en los educandos
sus valores, metas, intereses; ayudando también a tener una buena relación.
Es un tema cotidiano que influye directamente en nuestra forma de comportarnos, así nos dejan experiencias en
nuestras relaciones, para en otra ocasión aprender de ellos.
• Malka Sepúlveda naranjo:

La teoría de los refuerzos es una conducta aprendida, ya que para que exista el aprendizaje según esta teoría, se
debe reforzar la conducta ya sea por un estímulo positivo o también un estímulo negativo.
Así se logra aumentar la probabilidad que se repita un comportamiento de aprendizaje en su entorno.
• Gustavo Flores:

Después de haber analizado y leído el tema, puedo llegar a la conclusión que el organismo siempre esta
en movimiento o en proceso de operar. Se encuentra con un determinado tipo de estímulo, llamado estimulo
reforzador.
La teoría de Skinner acerca de los refuerzos, explica que cuando una respuesta otorga satisfacción o placer al
ejecutante, esta tiene más posibilidades de ser repetidas, como lo demuestra el ratón encerrado en la caja.
Skinner como buen conductista manifiesta su interés grandísimo por el estudio de los procesos de aprendizaje,
aunque sus ideas han provocado muchas polémicas, sobre todo cuando atacan sus obras que se refieren a los
estímulos y los refuerzos.
• Germán Passi Alfaro:

A pesar de la validez en las críticas que se le realizan al conductismo operante, como el reduccionismo y
simplismo, ha sido innegable el aporte que ha tenido este, a la vida del hombre. Ayudándole en todo tipo áreas.
El saber controlar bien una conducta a través de los refuerzos ayudara a las personas a vivir en un mundo más
placentero, ya que se podrán por ejemplo eliminar o reducir todas esas conductas aceptadas socialmente como
inadecuadas.
Sin embargo, creo que para que lo anterior sea efectivo, tenemos que tener un total conocimiento de esta teoría,
de manera que podamos conocer el real alcance que tienen los estímulos reforzadores en el control de la
conducta, conociendo su potencial. Como decía Skinner, toda la vida esta plagada de refuerzos, sin embargo el
común de la gente, ante el desconocimiento de ellos los pasa por alto, con la imposibilidad de aplicarlos o
aplicarlos de la forma más conveniente. Es por eso, que los profesores quienes son uno de los pilares
fundamentales en el proceso de enseñanza - aprendizaje que hacen suyo los alumnos, deben tener un
conocimiento cabal de la teoría operante, para poder controlar la infinidad de conductas que operan en los
alumnos, en post de una sociedad mejor.
XI. BIBLIOGRAFÍA
• Psicología: un aporte a la Educación. SALAZAR, Dayanira (compilación).Editor universidad Arturo
Prat. 1° Edición. Santiago. Chile. 2003.
• Sitio web http://www.loshorcones.org.mx/glosario.html
• Sitio web http://www.euskalnet.net/txiribi/terapias.htm
• Sitio web http://www.cuc.udg.mx/psicologia/skinner.html
• Sitio web http://www.google.cl/search?q=cache:Iv-
pZKq_pssJ:www.psicopedagogiaonline.com/articulos/documentos/cond_operante.pdf+descripcion+del+con
dicionamiento+operante&hl=es&ie=UTF-8
• El consultor psicopedagógico en la escuela. DINMEYER, Don – CARLSON, Jon. Editorial Guadalupe.
Buenos Aires. Argentina. 1973.
Condicionamiento operante
En psicología, el condicionamiento operante es una forma de aprendizaje en la que la consecuencia (el
estímulo reforzador) es contingente a la respuesta que previamente ha emitido el sujeto. El condicionamiento
operante implica la ejecución de conductas que operan sobre el ambiente.

El condicionamiento operante es un tipo de aprendizaje asociativo que tiene que ver con el desarrollo de
nuevas conductas en función de sus consecuencias, y no con la asociación entre estímulos y conductas reflejas
existentes como ocurre en el condicionamiento clásico. Los principios del condicionamiento operante fueron
desarrollados por B.F. Skinner, quien recibió la influencia de las investigaciones de Pavlov y de Edward L.
Thorndike.

El nombre condicionamiento operante es el que dio Skinner, aunque hoy se prefiere el de condicionamiento
instrumental, por ser más descriptivo. Roger Tarpy los equipara, decantándose por el término instrumental,
especialmente para el aprendizaje humano, aunque para todos en general. Para él ambos son iguales en tanto en
cuanto ambos dan lugar a consecuencias reforzantes. Desde el punto de vista histórico, el término de
condicionamiento operante se ha utilizado para hacer referencia a situaciones experimentales en las que los
sujetos actúan a su propio ritmo, en contraposición a recibir ensayos directos. Algunos defienden en esto la
separación de ambos términos que por lo demás se considera poco operativa.

Contenido
[ocultar]

• 1 Aprendizaje por condicionamiento operante


• 2 Tipos de condicionamiento operante
• 3 Estrategias de modificación de conducta
operante
• 4 Bibliografía

• 5 Véase también

[editar]Aprendizaje por condicionamiento operante

En el condicionamiento operante las conductas se emiten espontáneamente y sus consecuencias determinan el


aprendizaje. Las consecuencias agradables tienden a fortalecer una conducta. En cambio, las consecuencias
desagradables tienden a debilitar una conducta contingente a ésta.

Un ejemplo claro del aprendizaje por condicionamiento operante ocurre en los perros que jalan la correa cuando
salen a pasear. El perro jala la correa y su propietario lo sigue, hasta que llegan a donde el perro quiere ir.
Entonces, la conducta (inapropiada) de jalar la correa se fortalece porque el perro consigue lo que quería.
Por el mismo proceso de aprendizaje, aunque con consecuencias negativas, algunos niños aprenden que no
deben tocar la estufa cuando está caliente. Cuando tocan la estufa se queman la mano. Entonces, la conducta de
tocar la estufa cuando está encendida desaparece porque tiene consecuencias desagradables.

Thorndike comenzó con sus denominadas Caja Problema, jaulas por las que se puede escapar si se tira de una
polea que hay en el interior. Metió en una de estas cajas a un gato hambriento. El gato podía ver que fuera de la
caja había comida, pero no podía alcanzarla. Lo que el gato comienza a hacer son movimientos azarosos hasta
que casualmente tira de la polea que abre la jaula. Cada vez que Thorndike metía al gato en la jaula, tardaba
menos en salir. Esto se debía a que se estaba produciendo un condicionamiento operante: la conducta de tirar de
la polea estaba siendo reforzada por su consecuencia (la aperatura de la caja y la obtención de la comida). Esta
conducta, al ser reforzada, se convierte en la conducta más probable en un futuro cuando las circunstancias sean
iguales.

[editar]Tipos de condicionamiento operante

1. Reforzamiento. cualquier adición (para aumentar la frecuencia del comportamiento) o retiro (para aumentar
tambien la frecuencia del comportamiento) de algún estimulo o artefacto como consecuencia de cualquier
conducta.

Por ejemplo, tu perro se sienta y le das comida cuando lo hace. Tu perro se sienta cada vez con más frecuencia
porque la comida ha funcionado como reforzador. Esto se conoce comoreforzamiento positivo porque la
adición de una consecuencia positiva (comida) aumenta la frecuencia de la conducta (sentarse).

Ahora imagina que tu perro tiene miedo de la gente. Una persona se le acerca y él ladra agresivamente. La
persona se aleja y tu perro deja de sentir miedo. Entonces, aprende que ladrando agresivamente puede hacer que
la gente que teme se aleje. Esto se conoce como reforzamiento negativo porque el retiro de un estimulo
aversivo(la gente) aumenta la frecuencia de la conducta (ladrar agresivamente).

2. Castigo. comportamiento usado para extingir o anular algún comportamiento de algún organismo.

Imagina que tu perro se acerca a un extraño al que no le gustan los perros, y esta persona le da una patada.
Entonces, tu perro aprende a evitar a las personas. Esto se conoce comocastigo positivo porque la adición de
algo (la patada) disminuye la frecuencia de la conducta (acercarse a las personas). Este tipo de castigo no es
recomendable en el adiestramiento porque tiene consecuencias adversas que implican daño físico y/o emocional
del organismo.

Un caso diferente ocurre si tu perro está jugando contigo al tira y afloja. Tú tiras del extremo de un trapo,
mientras tu perro tira del otro extremo. En su entusiasmo por morder el trapo, tu perro te muerde la mano por lo
que terminas el juego y te vas. Entonces tu perro aprende a no morderte cuando juegan. Esto se conoce
como castigo negativo, porque el retiro de algo (el juego) disminuye la frecuencia de la conducta (morder tu
mano).

3. Extinción. Es la disminución de la frecuencia de una conducta aprendida, que ocurre cuando dicha
conducta no tiene consecuencias. Es decir que dejan de existir las consecuencias que antes reforzaban la
conducta.
Imagina que cuando tu perro era un cachorro saludaba a las personas saltando sobre ellas, porque lo acariciaban
y jugaban con él. Entonces aprendió que esta es la manera correcta de saludar a la gente. Un buen día, la gente
deja de acariciarlo y jugar con él cuando salta. En cambio, le dan la espalda y lo ignoran. Con el tiempo tu perro
deja de saltar para saludar a las personas. Esto ocurre porque la conducta aprendida (saltar sobre las personas)
deja de tener consecuencias reforzantes y, entonces, se produce la extinción de la conducta.

4. Discriminación y control por el estímulo. Es el aumento de la frecuencia de una conducta en presencia de


un estímulo, pero no en presencia de otros.

[editar]Estrategias de modificación de conducta operante

Existen una variedad de estrategias desarrolladas para modificar, establecer y desvanecer la conducta dentro
del paradigma operante. Por ejemplo:

 Moldeamiento
 Encadenamiento
 Entrenamiento de omisión
 Castigo
 Control de respuesta
 Tiempo fuera
e condicionamiento operante Proyecto
ORCON

Burrhus Frederic Skinner (20 de marzo de 1904 - 18 de agosto de 1990) fue un


psicólogo, filósofo social y autor norteamericano. Condujo un trabajo pionero
en psicología experimental y defendió el conductismo, que considera
el comportamiento como una función de las historias ambientales de refuerzo. Escribió
trabajos controvertidos en los cuales propuso el uso extendido de técnicas
psicológicas demodificación del comportamiento, principalmente el condicionamiento
operante, para mejorar la sociedad e incrementar la felicidad humana, como una forma
de ingeniería social.
Skinner nació en la rural Susquehanna, Pensilvania. Formó parte del Colegio Hamilton
en Nueva York con la intención de convertirse en escritor. Después de la graduación,
pasó un año en Greenwich Village intentando formarse como escritor de ficción, pero
pronto se desilusionó de sus habilidades literarias. Concluyó que tenía pocas
experiencias y que le faltaba una fuerte perspectiva personal con la cual escribir.
Durante este periodo, al cual Skinner más tarde llamó "el año oscuro", leyó An Outline
of Philosophy, de Sandro Russell, en el cual Russell discutía la filosofía conductista de
los psicólogos, especialmente de John B. Watson.
Skinner se empezó a interesar por los comportamientos y acciones de las personas
cuando vio que no tenía talento como escritor. Decidió abandonar la literatura y pasar
a ser estudiante de psicología en la Universidad de Harvard (que en ese momento no
era una institución a la vanguardia de la psicología).
Skinner se graduó y doctoró en psicología en Harvard en 1931 y llegó a formar parte
de esta institución como investigador en 1936, para luego pasar a desarrollar su
actividad docente en la Universidad de Minnesota y después en la Universidad
de Indiana, antes de volver a Harvard como profesor en 1948, donde ejercería el resto
de su vida.
En 1948, escribe el libro "Walden Dos".
Skinner fue objeto de muchos galardones a lo largo de su vida. En 1968, recibió la
Medalla Nacional de Ciencia por el presidente Lyndon B. Johnson. Tres años después,
fue premiado con la Medalla de Oro de la Fundación Psicológica Americana, y en
1972, fue concedido el premio de Humanista del año de American Humanist
Association. Justo ocho años antes de su muerte, recibió la primera mención por una
vida contribuyendo a la psicología por la American Psychological Association.
Contenido
[ocultar]

• 1 Conductismo
o 1.1 Superstición en
palomas
o 1.2 Rumores
• 2 Publicaciones
• 3 Referencias
• 4 Véase también

• 5 Enlaces externos

[editar]Conductismo

[editar]Superstición en palomas
Uno de los experimentos más famosos de Skinner fue cuando examinó la formación
de la superstición en uno de sus animales de experimentación favoritos, la paloma.
Skinner puso a unas palomas hambrientas en una caja unidas a un mecanismo
automático que suministraba comida a la paloma, a intervalos regulares
independientemente de lo que la paloma hiciera. La actividad que la paloma estuviera
haciendo en el momento antes del suministro de comida, sería la actividad que la
paloma continuaría haciendo.
Un pájaro fue condicionado para dar vueltas a la jaula en el sentido contrario de las
agujas del reloj, unas dos o tres vueltas por reforzamiento, otro erguía su cabeza hacia
una esquina de la jaula. Otras dos desarrollaron un movimiento pendular del cuerpo y
la cabeza.
El experimento parece mostrar una pequeña superstición. El pájaro se comportaba
como si hubiera una relación causal entre el comportamiento suyo y la administración
de comida, aunque esa relación era inexistente. Hay muchas analogías en el
comportamiento humano. El ritual de cambiar la suerte de uno a las cartas es habitual.
Unas pocas conexiones accidentales al azar entre un ritual y consecuencias
favorables son suficientes para establecer un mantenido comportamiento a pesar del
hecho de que no haya reforzamiento causal. Estos comportamientos no tienen efecto
real sobre la suerte de un sujeto, justo como en el caso donde la paloma era
alimentada independientemente de su conducta.
Sin embargo, las conclusiones de estos experimentos han sido criticadas. Se aporta
que las palomas desarrollan todas los mismos comportamientos supersticiosos, y no
comportamientos distintos, como había predicho Skinner. Por ése y otros datos se
supone que lo que hizo en realidad Skinner fue un entrenamiento de condicionamiento
clásico
[editar]Rumores

Estudiantes utilizando una «Caja de Skinner» en el antiguo Laboratorio de Psicología Experimentalde


la Facultad de Psicología de la UNMSM. Lima,Perú, año 1999.

Un rumor repetido muy a menudo postula que Skinner se aventuró en la


experimentación humana poniendo a su hija Deborah en unacaja de Skinner, lo que la
llevó a enfermedad mental permanente y un resentimiento amargo hacia su padre.
Sin embargo, esto último es falso. De hecho, el "Heir Conditioner", término utilizado
para la cuna de Skinner, era calentada, enfriada, tenía aire filtrado, permitía tener
mucho espacio para caminar y era muy similar a una versión en miniatura de una casa
moderna. Fue diseñada para desarrollar la confianza del bebé, su comodidad, hacer
que llorase menos, se enfermase menos, etc. Y, lo que es más importante, el tiempo
que la niña permanecía en ella era similar al que cualquier otro niño podía pasar en
una cuna normal.
En 2005, la autora y psicóloga Lauren Slatern publicó un libro, "Opening Skinner's
Box", "Cuerdos entre locos" en la traducción española de Concha Cardeñoso para la
editorial ALBA, donde mencionaba el rumor arriba mencionado, según el cual Deborah
al cumplir treinta y un años denunció a su padre por malos tratos ante un verdadero
Tribunal de Justicia, perdió el caso y se suicidó de un disparo en una bolera de Billings
(Montana). "Nada de esto es cierto, prosigue Slater, y sin embargo el mito persiste.
¿Por qué? ¿Qué tiene Skinner que nos inspira tanto miedo?".
Cuando escribía "Opening Skinner's Box", Slater entrevistó, primero por teléfono y
luego en persona, a la hermana de Deborah, Julie Skinner Vargas. Ésta habló de su
padre: "Tenía muy buena mano con los niños, los adoraba... nos hacía cometas,
cometas con cajas, e íbamos a volarlas a Monhegan; nos llevaba al circo todos los
años, y Hunter, el perro, era un sabueso y papá le enseñaba a jugar al escondite"...
Preguntada sobre su hermana Deborah, contesta: "Es artista, vive en Inglaterra, está
felizmente casada. Ha enseñado a su gato a tocar el piano".
La propia hija de Skinner ha contestado en más de una ocasión a estas
acusaciones.1 Desde el punto de vista skinneriano, éstas formarían parte de todo un
cúmulo de inexactitudes y malentendidos sobre el autor y pensamiento.2

[editar]Publicaciones

 The Behavior of Organisms: An Experimental Analysis, 1938. ISBN 1-


58390-007-1, ISBN 0-87411-487-X.

El comportamiento de organismos: Un análisis experimental

 Walden Two, 1948. ISBN 0-02-411510-X.

Walden dos

 Science and Human Behavior, 1953. ISBN 0-02-929040-6.

Ciencia y conducta humana

 Schedules of Reinforcement, with C. B. Ferster, 1957. ISBN 0-


13-792309-0.

Horarios de reforzamiento, con C. B. Fersrer

 Verbal Behavior, 1957. ISBN 1-58390-021-7.

Conducta verbal

 The Analysis of Behavior: A Program for Self


Instruction, with James G. Holland, 1961.

El análisis de la conducta: Un programa para la auto instrucción, con James G.


Holland, 1961. Este libro de auto-instrucción ya no se imprime, pero la página
web de la fundación B.F. Skinner tiene un versión de él interactiva.

 The Technology of Teaching, 1968.

La tecnología de la enseñanza

 Contingencies of Reinforcement: A Theoretical


Analysis, 1969. ISBN 0-390-81280-3.
Contigencias del reforzamiento: Un análisis teorético

 Beyond Freedom and Dignity,


1971. ISBN 0-394-42555-3.

Más allá de la libertad y la dignidad

 About Behaviorism, 1974. ISBN 0-394-


49201-3

Acerca del conductismo

 Particulars of My Life: Part One of


an Autobiography, 1976. ISBN 0-394-
40071-2.

Detalles de my vida: La primera parte de una autobiografía

 Reflections on Behaviorism
and Society, 1978. ISBN 0-13-
770057-1.

Reflexiones sobre el conductismo y la sociedad

 The Shaping of a Behaviorist:


Part Two of an Autobiography,
1979. ISBN 0-394-50581-6.

La formación de un conductista: La segunda parte de una autobigrafía

 Notebooks, edited by
Robert Epstein, 1980. ISBN
0-13-624106-9.

Libros de notas, editato por Robert Eptein

 Skinner for the


Classroom, edited by R.
Epstein, 1982. ISBN 0-
87822-261-8.

Skinner para el salón de clases, editado por R. Eptein


Enjoy Old Age: A
Program of Self-
Management, with
M. E. Vaughan,
1983.

Disfruta la edad madura: Un programa de autogestión, con M. E. Vaughan

 A Matter of
Consequences:
Part Three of an
Autobiography,
1983. ISBN 0-
394-53226-0, IS
BN 0-8147-
7845-3.

Una tema de consecuencias: La tercera parte de una autobiografía

 Upon
Further
Reflection,
1987. ISBN
0-13-
938986-5.

Sobre una mayor reflexión"

 Recent
Issues
in the
Analysis
of
Behavio
r,
1989. IS
BN 0-
675-
20674-
X.
Asuntos recientes en el análisis de conducta

 C
umu
lativ
e
Rec
ord:
A
Sele
ction
of
Pap
ers,
195
9,
196
1,
197
2
and
199
9 as
Cum
ulati
ve
Rec
ord:
Defi
nitiv
e
Editi
on. I
SBN
0-
874
11-
969-
3 (p
aper
back
)

Archivo Cumulativo: Una selección de documentos, 1959, 1961, y 1969


compilados como un archivo cumulativo: Edición definitiva. Este libro incluye la
reimpresión del artículo de Skinner publicado, en octubre de 1945, en la revista
académica «Ladies' Home» Casa de Damascon el título, «El bebe en una caja»,
es el original y personal reportaje de Skinner sobre la controversia y negativa
publicidad o representación que recibió este dispositivo, conocido como la caja o
la cuna de skinner.

You might also like