Professional Documents
Culture Documents
Objetivos
Se espera que el alumno:
Identifique las principales características de la EAD.
Reconozca las etapas del desarrollo histórico de la modalidad, su
institucionalización y su proceso de evolución.
Reflexione críticamente acerca de cómo las TIC propician nuevos modos de
comunicación e interacción y qué cambios producen en este tipo de modalidad educativa.
- Pone el acento en la autonomía del estudiante para elegir espacios y tiempos para el
estudio.
No obstante, la institucionalización de la EAD es relativamente reciente. Hacia finales del siglo XIX
instituciones particulares de Estados Unidos y Europa ofrecían cursos por correspondencia
orientados a la enseñanza de problemáticas vinculadas a oficios. Para Litwin (2000), es probable
que este origen haya signado una apreciación desvalorizada de muchas de sus propuestas.
Si bien estos antecedentes son importantes para contextualizar históricamente la modalidad, fue
la Universidad Abierta de Gran Bretaña -Open University – (creada en el año 1969) la que
estableció un punto de inflexión en la historia de la EAD, entre otras cosas, con la incorporación
de una propuesta de diseño complejo a través de la utilización de medios impresos, televisión y la
oferta de cursos intensivos en períodos de receso de otras universidades convencionales. De esta
manera compitió con otras instituciones educativas presenciales y se transformó en un modelo de
enseñanza a distancia.
En otros países europeos también se registran antecedentes de esta modalidad, por ejemplo, en
Alemania, se crea la FernUniversität; en España la Universidad Nacional de Educación a Distancia
(UNED) ofrece carreras de grado y posgrado.
En América Latina se registran experiencias de EAD a partir de los años 1960 cuando se
desarrollan proyectos de alfabetización destinados a poblaciones campesinas rurales, dispersas
geográficamente y alejadas de las metrópolis. Junto con esto, también se ofertaron cursos de
enseñanza de oficios por correspondencia orientados a satisfacer la demanda vinculada con la
formación para el trabajo. Generalmente, tales propuestas se dieron desde organizaciones no
gubernamentales (ONG), asociaciones mixtas y algunas privadas. Sin embargo, carecían de un
reconocimiento oficial de los beneficios y las posibilidades de la modalidad.
Después de esa década, se crean algunas universidades que incorporan la educación a distancia,
como por ejemplo la Universidad Abierta de Venezuela y la Universidad Estatal a Distancia de
Costa Rica que se basaron en el modelo inglés. Estos años marcan un cambio muy importante en
los programas de EAD.
Con posterioridad a dichas creaciones, se fundaron distintas altas casas de estudio por el
continente latinoamericano, tales como: el Sistema Universidad Abierta de la Universidad Nacional
Autónoma de México (creada en 1972), el Sistema de Educación a Distancia (1981) de la
Universidad Nacional Autónoma de Honduras, la Universidad Pedagógica Nacional del mismo
país y en Argentina surgen los programas de educación a distancia de la Universidad de Buenos
Aires, como el “UBA XXI” (diseñado en 1985 e implemenatado en el año 1986).
Los años 1980 son de singular importancia en materia de aperturas y consolidación de proyectos
de la modalidad para América Latina. En Colombia se crea la Unisur (hoy Universidad Nacional
Abierta y A Distancia-UNAD) y en Brasil la Universidad de Brasilia.
En Argentina, la EAD acompaña el proceso de transición democrática. En tal sentido, uno de sus
principales propósitos fue el de permitir el ingreso de estudiantes que habían quedado fuera de la
universidad durante la dictadura militar de los años 1970. De esta manera, se posicionaba como
posibilidad de expandir los alcances de la educación universitaria. La experiencia de la
Universidad de Buenos Aires fue pionera y, muchas otras universidades nacionales,
implementaron proyectos en la modalidad.
A nivel legal, se destaca el reconocimiento de la educación a distancia a partir del año 1983 tanto
en la Ley Nº 24.195 “Federal de Educación” sancionada en el año 1993 como en la Ley Nº 20.206,
sancionada en el año 2006, de “Educación Nacional” 1.
Guión Clase 3
1) Según Burbules, ¿cuáles son los cambios que se producen con la incorporación de las TIC al
proceso de enseñanza y aprendizaje? ¿Qué significa para el autor, que tales cambios sean
“ubicuos”?
2) ¿Qué incidencia tiene el uso de las TIC en la educación? ¿Se puede sostener que las TIC
producen transformaciones en el proceso de enseñanza - aprendizaje?
Burbules habla de cambios en los procesos de enseñanza y aprendizaje, pero no me queda claro
quién cambia a quién, es decir: ¿da a entender que la presencia de las TIC producen nuevos modos
de E/A o que las innovaciones actuales en los procesos de E/A aprovechan mejor las posibilidades
que brindan las TIC? No queda claro, aunque, en todo caso, como bien afirma, la influencia es
mutua y, por tanto, mucho no importa el origen frente a la innegable dimension de los cambios
producidos. En definitiva, la cuestion que mas le interesa es que esta nueva relacion ha generado,
sobretodo, grandes cambios sociales y culturales, validados en practicas concretas y aceptadas. Por
otro lado, relaciona la "ubicuidad" con la "disponibilidad" de los conocimientos gracias a la
influencia de las TIC, que permiten a los usuarios tener en todo momento y lugar la informacion
que necesitan, lo cual Burbules califica como "oportunidades de aprendizaje". Esta ubicuidad es
innegable aunque limitada, y en algun sentido peligrosa, como afirma el autor en otro de sus textos.
Respecto de la educacion, Burbules de nuevo se refiere a las "oportunidades de aprendizaje" y su
ubicuidad gracias a las TIC, lo cual permite que el aprendizaje se realice a voluntad del usuario, en
cualquier momento y lugar y que éste pueda ser fluido en relacion con sus actividades habituales.
En este sentido usa un ejemplo bastante extraño, menciona que esas oportunidades pueden surgir en
cualquier momento (mediante encuentros "casuales" dice) pero que la gran diferencia que ofrecen
las TIC radica en que estos encuentros son mas estructurados y planeados, de alli su riqueza.
Demasiado general para mi gusto. Igualmente, al principio de la conferencia, el autor remarca que
las TIC no son simples herramientas, sino que han producido cambios en los procesos de E/A. No
podria decir hasta qué punto esto es cierto, cambios hay, no caben dudas, pero no podria afirmar que
la sola presencia de las TIC han producido cambios tan profundos en los procesos tradicionales de
E/A.
En función de lo visto y de las lecturas sugeridas en la bibliografía obligatoria:
¿Cuáles son las principales características de la EAD? ¿cuáles han sido las etapas del desarrollo
histórico de la modalidad?
Además de los ejemplos mencionados en la clase 2, ¿Qué otro tipo de experiencias educativas “a
distancia” se han desarrollado en el país con anterioridad a la difusión de las TIC en la modalidad?
¿En qué sentido las TIC incitan nuevos modos de comunicación e interacción? ¿Cuáles
consideran que han sido los principales cambios educativos que se producen en este tipo de
modalidad?
1
El Título VIII trata específicamente de “Educación a Distancia” y la concibe como: “La educación a
Distancia es una opción pedagógica y didáctica aplicable a distintos niveles y modalidades del sistema
educativo nacional, que coadyuva al logro de los objetivos de la política educativa y puede integrarse tanto a
la educación formal como a la educación no formal”. (Ley Nº 26.206/2006 de Educación Nacional, artículo
104)
Siguiendo la aportación de Litwin, “el rasgo distintivo de la modalidad consiste en la mediatización
de las relaciones entre los docentes y los alumnos. Esto quiere decir, fundamentalmente, que se
reemplaza la propuesta de la asistencia regular a clase por una nueva propuesta en la que los
docentes enseñan y los alumnos aprenden mediante situaciones no convencionales, en espacios y
tiempos que no comparten” (Litwin, 2003, p. 15).
Respecto del desarrollo histórico de la EAD, en los textos de la unidad se mencionan varios hitos
importantes para el desarrollo de la modalidad (como los primeros cursos aparecidos en Estados
Unidos en el siglo XIX, la inauguración en 1969 de la Open University en Inglaterra o la expansión
actual de la oferta merced a las TIC), no obstante, resulta difícil hablar de etapas claramente
definidas. Quizás, Litwin sea quien ofrece la mejor descripción de los distintos periodos que ha
recorrido la modalidad, analizando los distintos soportes tecnológicos de los que se ha valido para
desarrollar su propuesta: “Libros, cartillas o guías redactadas especialmente fueron las propuestas
iniciales; la televisión y la radio constituyeron los soportes de la década de 1970; los audios y
videos, los de la década de 1980. En los años noventa, la incorporación de redes satelitales, el
correo electrónico, la utilización de Internet y los programas especialmente diseñados para los
soportes informáticos aparecen como los grandes desafíos de los programas en la modalidad” (Ibíd.,
p. 20).
En cuanto a nuestro país, aparte de la propuesta de EAD desarrollada por la UBA en la década de
1980, los textos de la bibliografía no aportan demasiados ejemplos. Particularmente, luego de
pensar en el tema, recordé los avisos que solían aparecer en las páginas de revistas como
“Patoruzito” donde se promocionaban cursos a distancia relacionados, sobretodo, con oficios
novedosos para la época (como las clases de electrónica o radiodifusión) y otros bastante bizarros
(como los cursos de detectives, por citar uno). De todos modos, como ya había mencionado Litwin,
este tipo de actividades de “escaso valor académico” (Ibíd., p. 17), sin dudas coadyuvaron a la
desvalorización inicial de la modalidad.
Por otra parte, el tema de la comunicación y la interacción son centrales en los textos propuestos;
así, Terry & Nation, citando a Nipper respecto de la relevancia de las TIC en el desarrollo actual de
la modalidad, indican que “la importancia de estas ultimas radican en que ofrecen la posibilidad de
una comunicación veloz y eficaz (en ambas direcciones) entre alumnos y profesores alejados en el
espacio” (Terry y Nation, 1999, pp. 73-74). Asimismo, estos autores se esfuerzan por demostrar que
la presencia de las TIC ha provocado un cambio radical en las relaciones espacio-temporales en la
sociedad y, por ende, también en el devenir de la EAD. Incluso, van un poco mas allá, y cuestionan
el papel de las instituciones de EAD como fuentes de solución de los problemas espacio-temporales
de los alumnos argumentando que “estamos a punto de admitir la posibilidad de que las
instituciones que se dedican a la educación a distancia y la enseñanza abierta no solo no resuelven
el problema de la distancia entre profesores y alumnos sino que crean problemas propios” (Ibíd., p.
79). Por su parte, Kozak también problematiza la cuestión afirmando que en la introducción de las
TIC deben tenerse siempre presentes las “diferencias culturales” (Cfr. Kozak, 2004, p. 176),
entendidas como los distintos códigos socioculturales que cada actor de la relación pedagógica,
alumno y profesor, utiliza habitualmente y que debe tenerse muy en cuenta al momento de la
implementación de la EAD, para lograr los mejores resultados educativos.
Finalmente, los principales cambios ocurridos en la modalidad han venido de la mano de la
incorporación de las TIC que, como se dijo antes, propician un tipo de relación mas directa y veloz
entre profesores y alumnos (o incluso entre los mismos alumnos), además de otras posibilidades
estructurales y administrativas de gran importancia (Cfr. Litwin, op. cit., pp. 20-21). Sin embargo,
lejos de acabarse, el tema debe seguir siendo objeto de reflexión pues, como sostiene Kozak: “Las
nuevas tecnologías resultan un gran aporte […], siempre y cuando el profesorado siga
cuestionándose cómo las utiliza y mientras no deje de preguntarse por dónde pasa verdaderamente
la innovación pedagógica. Si no, caeremos en una especie de “modernización cosmética” de la
enseñanza” (Kozak, op. cit., p. 185). De este modo, podemos concluir que, mas allá de los cambios
experimentados, aun no se ha profundizado lo suficiente en el verdadero impacto de las TIC en las
relaciones pedagógicas que propicia la modalidad, por ello no debemos perder de vista qué es lo
realmente importante para la EAD respecto de la incorporación de las TIC, como bien afirma
Litwin: “lo mas importante es que sigamos pensando que la tecnología mas moderna no nos asegura
la calidad de la propuesta” (Litwin, op. cit., p. 26).
Objetivos
Por un lado, el hardware corresponde a todas las partes “físicas” –infraestructura- y tangibles de
una computadora, es decir, sus componentes eléctricos, electrónicos, electromecánicos y
mecánicos; sus cables, gabinetes u otros “periféricos” de distinto tipo. El software, por otro lado,
representa el conjunto de los componentes que integran la parte material de una computadora.
Alude a los componentes lógicos requeridos para posibilitar la realización de una tarea específica,
es decir, se trata de un conjunto de instrucciones para que sean ejecutadas por un procesador.
Un programa puede referirse tanto a un programa ejecutable como a su código fuente, el cual será
transformado en un ejecutable cuando sea “compilado”. De acuerdo a sus funciones, los
programas pueden dividirse en software de sistema o de aplicación. El primero, consiste en un
software que permite controlar e interactuar con el sistema proporcionando un control sobre el
hardware y actuando como soporte de otros programas, por ejemplo el “sistema operativo”. Ese
sistema2 posibilita el funcionamiento de los distintos software de aplicación y facilita la interacción
con todos los componentes “físicos”. Asimismo, provee una interfase al “usuario”.
Asimismo, otra de las características que asume esta “revolución tecnológica” es la convergencia
en ascenso de tecnologías específicas en un sistema altamente integrado. En ese sentido, la
microelectrónica, las telecomunicaciones, la optoelectrónica y los ordenadores están ahora
integrados en “sistemas de información”.
En segundo lugar, vinculado al desarrollo de las computadoras, desde la Segunda Guerra Mundial
se concibieron los primeros “ordenadores”, pero su difusión se produjo recién en el año 1946 en
Filadelfia y se concentró en los programas de investigación del Instituto Tecnológico de
Massachusetts (MIT) bajo el patrocinio del Ejército de Estados Unidos y la experimentación se
realizó en la Universidad de Pensilvania donde se desarrolló “ENIAC”3 (Negroponte, 1995;
Castells, 2002). El grado de integración de distintas tecnologías ha avanzado a un ritmo muy
acelerado desde las últimas décadas del siglo XX a tal punto que Castells (2002) sostiene que la
microelectrónica ha producido una “revolución dentro de la revolución” (Castells, op.cit: 70). En
efecto, por medio de tal avance se crea en la década de 1970 el primer microordenador comercial
el cual estaba constituido en torno a un microprocesador4.
Las TIC, al igual que las tecnologías en general, pueden ser analizadas desde una perspectiva
“instrumental”. Dicha concepción considera a las tecnologías como meras herramientas
construidas para una diversidad de tareas. Si bien esta mirada es una de las más arraigadas al
momento de analizar las TIC, se considera que “externaliza” las tecnologías al tratarlas como
objetos fijos con uso y finalidades concretas y contribuye a consolidar una percepción “neutral”
sobre ellas.
Desde esta materia consideramos que los usos de las TIC, como de las tecnologías en general,
no son meramente instrumentales y unilaterales sino bilaterales y, por consiguiente, la dimensión
“relacional” es importante para su análisis.
n un conjunto de desarrollos y aplicaciones tecnológicas en expansión, lo central es que las TIC permiten la
aplicación del conocimiento e información a aparatos de generación y procesamiento de la
información/comunicación en un círculo de retroalimentación acumulativa entre los cambios que
se van desplegando y sus usos. Así, las tecnologías de la información no son herramientas que
aplicar “(…) sino procesos que desarrollar” (Castells, 2002: 56). Asimismo este conocimiento se
distribuye por medio de redes.
Entre fines de los años 1960 y los años 1990, Internet viró desde una sola red experimental que
servía para conectar a algunos sitios en los Estados Unidos a un sistema que atraviesa el “globo”
y une millones de computadoras. Esto trajo técnicas de comunicaciones de datos innovadoras
vinculadas a la interconexión (Abbate, 1999).
hacia mediados de la década de 1970 las empresas tecnológicas entienden al software como un bien
comerciable.
En efecto, las TIC se generaron por medio de la investigación tecnológica o ingeniera básica6 la
cual permitió desarrollar la electrónica, los microchips, las computadoras personales y a posteriori
Internet, como resultado de la síntesis entre la informática y las telecomunicaciones (Serra, 1999).
Es decir, dichas tecnologías, están conformadas por aquellas tecnologías capaces de generar,
procesar, transmitir y almacenar información digital en el marco de una estructura reticular abierta:
“Ubicuidad de información, documentos interactivos interconectados, telecomunicación recíproca y
asincrónica de grupos y entre grupos: el carácter virtualizador y desterritorializador del
ciberespacio hace de esto el vector de un universal abierto.” (Lévy, 2007: 36)
Para Castells (2002) Internet es una mezcla sui generis de estrategia militar, colaboración técnica
e “innovación contracultural” (Castells, 2002a: 384). Para Aibar (2008) la “cultura científica
académica” junto a la “cultura hacker” fueron las que configuraron la “evolución” de Internet. Así,
para el autor, si bien en su origen fue un proyecto financiado militarmente, nunca tuvo de hecho
una aplicación militar (Aibar, Op. Cit., 15).
Castells también sugiere que Internet nació “(…) en la insólita encrucijada entre la gran ciencia, la
investigación militar y la cultura libertaria”. (Castells, 2003: 34)
Ahora bien, ARPANET no fue la única fuente para la construcción de Internet. Así, la “cultura
académica de los científicos” en su mayoría pertenecientes a instituciones públicas de
investigación y universidades, continuó siendo la fuente predominante de “innovaciones” para la
red.
6
La tecnología es considerada vulgarmente como sinónimo de ciencia aplicada, así para Williams (1982)
“(…) hacia 1900 la tecnología había alcanzado una etapa de desarrollo en la que la principal vía de progreso
pasaba por la aplicación de la ciencia. En cierta medida eso fue posible utilizando la reserva acumulada de
conocimientos, pero cada vez se hizo más necesario adquirir conocimientos nuevos mediante investigación”
(Williams, 1982: 23 citado en Casas, 2001: 19).
7
Castells (2002) arguye que fue durante la Segunda Guerra Mundial y el período subsiguiente cuando
tuvieron lugar los principales avances tecnológicos en la electrónica: el primer ordenador programable y el
transistor, fuente de la microelectrónica, “(…) el verdadero núcleo de la Revolución de la tecnología de la
información en el siglo XX. No obstante, hasta la década de los setenta no se difundieron ampliamente las
tecnologías de la información, acelerando su desarrollo sinergético y convergiendo en un nuevo paradigma”.
(Castells, Op. Cit: 67)
Aibar (2008) señala que la cultura académica de los científicos, mayormente situados en
instituciones públicas de investigación y universidades, continuó siendo durante mucho tiempo la
fuente predominante de “innovaciones” para la red. En ese sentido, en el año 1990 un
investigador, Tim Berners-Lee, del entonces Consejo Europeo para la Investigación Nuclear
(CERN) desarrolló la conocida World Wide Web.
El término hacker aglutina un amplio movimiento de individuos que son “expertos en técnica” pero
siguen manteniendo el espíritu “inconformista”. Para Feldman (2002) si la “ética” protestante del
trabajo de Max Weber iba asociada a la revolución industrial, la “ética” hacker va unida a la
“revolución de la información”.
La ética hacker se basa en la creencia de que los individuos pueden crear grandes cosas aunando
esfuerzos con imaginación. Defiende la necesidad de mantener unos estándares y unos ideales
éticos y fomentar otros sociales tales como la igualdad. En este contexto, la palabra hacker alude
a programadores informáticos que comparten su trabajo. Para este grupo, la computadora e
Internet suponen un nuevo mecanismo de organizar la vida y el trabajo (Feldman, 2002).
Para Aibar (2008), el análisis histórico de la mutación de Internet muestra cómo sus características
más importantes han sido configuradas por estas dos culturas –la “científico académica” y la
“hacker”- las cuales han “encastrado” en la red algunos de sus propios principios o valores
fundamentales.
Entre esos principios se encuentra, en primer lugar, el carácter abierto y modificable del software
básico de la red, es decir, su código fuente. En segundo lugar, dado que la distribución de los
códigos a través de la red es libre, permite a cualquiera aspirar a mejorarlos, modificarlos o
desarrollar nuevos programas y aplicaciones. Así, sostiene “Internet es, de hecho, un tipo de
innovación tecnológica que se permite y que, a la vez, se sustenta en la cooperación y la libre
circulación de los conocimientos” (Aibar, 2008: 17). En tercer lugar, se resalta la estructura
horizontal y no jerárquica de la red.
8
El “movimiento” de software libre comenzó contra la incipiente comercialización del software en general.
Habitualmente se considera el manifiesto escrito en el año 1983 por Richard Stallman –por entonces uno de
los programadores del laboratorio de inteligencia artificial del MIT- como el punto de partida de todo el
movimiento. (Robert, 2006). La denominada “cultura hacker” también estuvo vinculada al surgimiento de
Internet puesto que la fuente abierta es una característica estructural de su desarrollo. Ver: Stallman, 1983;
Raymond, 2000; Castells, 2003; entre otros.
Es por tales características que la flexibilidad y la factibilidad de adaptación a nuevas situaciones
están inscritas en su diseño: “Lo virtual es un manantial indefinido de actualizaciones” (Lèvy, 2007:
34).
Como bien menciona el texto de la clase, Internet tuvo su génesis en la necesidad militar (en los
Estados Unidos) de mantener una red de comunicación e intercambio de información segura frente
a la creciente amenaza de la Unión Soviética y la posibilidad muy concreta, sobretodo en la década
del sesenta, de que ocurriera una confrontación nuclear. Al igual que la electrónica avanzo
notablemente por el impulso dado en la Segunda Guerra Mundial, Internet también se beneficio de
la paranoia de muchos altos funcionarios militares. Sin embargo, estos oficiales -como puede
suponerse- nunca tuvieron los conocimientos suficientes para desarrollar verdaderamente una “red
de inteligencia informática”, de allí que las primeras conexiones reales se establecieran entre los
departamentos de investigación de algunas universidades e institutos de Estados Unidos. En un
sentido muy estricto, el origen de Internet fue realmente una “encrucijada insólita”, como
argumenta Castells, dado que, por un lado, creció a la sombra del hermetismo de los militares, y por
el otro, se desarrollo a la luz del libre intercambio de conocimientos propuesto por los académicos y
científicos de las universidades (Castells, 2003: 34, citado por Garbarini y Guido, 2014: 6).
Desde un punto de vista muy amplio, indudablemente también Internet es el resultado de un cambio
sociocultural muy profundo ocurrido en la segunda mitad del siglo XX, cuando los robots, las
computadoras, los viajes espaciales, las armas láser, la teletransportación, los viajes en el tiempo,
etc., se convirtieron en moneda corriente en la mentalidad de las sociedades, gracias a los avances
científicos reales y el influjo popular de la ciencia ficción.
Personalmente, me conecto a Internet desde casa (antes iba mucho a los “cyber”) y la uso para
múltiples tareas: bajar música, imágenes, programas, libros, películas, comunicarme por Facebook,
etc. No obstante, desde que comencé la Licenciatura en la UNLa la utilizo principalmente para
buscar información sobre las distintas materias y mantenerme al tanto de las novedades de la carrera
-y de la universidad- a través del Campus Virtual.
Por otra parte, me resulta difícil pensar en las ventajas y desventajas que el uso de Internet puede
ocasionar en el ámbito de la educación, principalmente, porque no observo una conexión tan
estrecha entre ambas, es decir, se utiliza Internet en la educación pero todavía de un modo
accesorio, como una novedad o un mero instrumento, sin llegar a ahondar en sus verdaderas
posibilidades. Así, las ventajas que se puedan mencionar (como la amplia disponibilidad de
información, la rapidez en las comunicaciones o el uso de múltiples plataformas), o las desventajas
(como la perdida del contacto directo entre personas o la gran fragmentación de los conocimientos
adquiridos), son solo nimiedades dado que aun no se ha explorado a fondo todo lo que puede
ofrecer la red. Dicho burdamente, seguimos pensando “analógicamente” en tanto recurrimos a
Internet como fuente de apoyo o consulta, el verdadero cambio ocurrirá cuando podamos obrar
“digitalmente” y dejemos que todo ocurra y se desarrolle en la red, aunque no se si quiero que esto
suceda finalmente.
Existen diversos tipos de software que se emplean en educación a distancia tanto se brinde oferta
“virtual” o “semipresencial” o simplemente se utilice como soporte de asignaturas presenciales. En
cualquiera de los casos, los programas informáticos que actúan como base de campus virtuales
de instituciones educativas pueden ser de tres tipos: “propietarios”; “libres” o “desarrollos propios”
de las instituciones.
De esta manera, un software sigue siendo propietario aún si el código fuente es hecho público,
cuando se mantiene la reserva de derechos sobre el uso, modificación o distribución.
Las instituciones que incorporan este tipo de programa informático contactan a algún proveedor
técnico y contratan una licencia que las habilita a usarlo. No obstante, al no tener propiedad sobre
su “código fuente” no pueden hacerle ninguna modificación o adaptación. Dependen, en todos los
casos, de la empresa proveedora de la tecnología.
El software libre incluye programas cuya licencia otorga a los usuarios la libertad de utilizar, copiar,
distribuir, estudiar, modificar y mejorar el software así como compartir copias del original o del
software modificado, bajo el mismo acuerdo de licencia. “Libre”, en este contexto, se refiere al uso
y no necesariamente a que sea “gratis”.
La historia del software “libre” se remonta hacia los años 1970 y se encuentra emparentada, como
se señaló, con el origen de Internet.
No obstante, hacia la segunda mitad de la década de 1970, ese modelo entra en crisis y empieza
a emerger otro “privatizador” y “mercantilista” (Vidal, 2004). Las computadoras, hasta entonces
escasas, con un alto costo, se hacen asequibles, cada vez más baratas y potentes y se origina
una nueva industria vinculada a la producción de software. Los programas se venden como
productos comerciales independientes de las máquinas y sólo con el código binario, para ocultar
las técnicas de programación a la competencia.
9
Ver Glosario al final de la clase.
10
Los Laboratorios Bell, se fundaron en el año de 1925 en el estado de Nueva Jersey por la empresa
estadounidense de Telecomunicaciones AT&T.
En ese escenario, el “movimiento del software libre” comenzó como una estrategia de resistencia
a la política de la empresa AT&T de vender UNIX y restringir el acceso de la comunidad
académica a su código fuente al impulsar sus derechos de propiedad intelectual sobre ese
sistema operativo. Además, se mostraba contrario a la incipiente comercialización de software
general (Robert, 2006). En los hechos, dichas acciones se cristalizan a través de la elaboración
del Manifiesto GNU en el año 1985, la posterior elaboración de la GNU General Public License
-GNU-GPL- y la creación de la Free Software Fundation (FSF) en el año 1985 por Richard
Stallman11.
El movimiento del software libre sostiene que para que un programa sea considerado como tal, el
usuario debe contar con:
2. La libertad para modificar el programa para ajustarlo a tus necesidades. (Para que se trate de una
libertad efectiva en la práctica, deberás tener acceso al código fuente, dado que sin él la tarea de
incorporar cambios en un programa es extremadamente difícil.)
3. La libertad de redistribuir copias, ya sea de forma gratuita, ya sea a cambio del pago de un precio.
4. La libertad de distribuir versiones modificadas del programa, de tal forma que la comunidad pueda
aprovechar las mejoras introducidas” (Stallman, 2004: 19).
El crecimiento del software libre al interior de la FSF estaba confinado a expertos en el área de
programación y no se popularizó hasta el año 1991 cuando LinusTorvalds, comenzó a escribir un
kernelo núcleo compatible con los kernel UNIX propietarios. Este kernel se llamó Linux -o también
GNU/Linux-.
Si bien el software “libre” no es un fenómeno nuevo dado que existe desde los orígenes de la
informática, su uso se intensifica a medida que la conexión a Internet se extiende llegando a más
usuarios12.
Algunas instituciones educativas desarrollan sus propios programas informáticos soportes de sus
“campus virtuales”. En general, se trata de instituciones que cuentan con un equipo informático
que pueda hacerse cargo de la programación, mantenimiento y actualización del software que se
está empleando o que se busca incorporar. En tal sentido comparte con un desarrollo “libre” la
posibilidad de contar con el código fuente para poder adaptar y readaptar su uso cuantas veces
quiera.
11
Programador estadounidense y figura relevante del movimiento por el software libre en el mundo. Ex
investigador del MIT.
12
En tal sentido: “Linux fue el primer proyecto de un esfuerzo consciente y exitoso de usar el mundo entero
como un nido de talento. No creo que sea coincidencia que el período de gestación de Linux haya coincido
con el nacimiento de la World Wide Web, y que Linux haya dejado su infancia durante el mismo período, en
1993-1994, en que se vio el despegue de la industria ISP y la explosión del interés masivo por la Internet.
Linux fue el primero que aprendió a jugar con las nuevas reglas que esa Internet penetrante hace posibles”.
(Raymond, 2000: 17)
1) Realice un análisis crítico sobre los intereses comerciales / económicos del software
"propietario" y describa las diferencias con respecto a otro "libre".
2) Reflexione sobre ventajas y desventajas de uso de cada tipo de software pensando en una
propuesta educativa.
3) Sistematice información sobre empresas que vendan software para utilizar en educación así como
tambié las principales ofertas que hay en la actualidad basadas en software "libre".
Mas que centrarnos en cuestiones económicas y/o comerciales, siguiendo a Stallman, el epicentro
de la discusión entre el software propietario y el software libre se asienta sobre bases netamente
ideológicas, dado que “el software libre, es un asunto de libertad y no de precio” (Stallman, 2004, p.
69). Efectivamente, vivimos en una sociedad global capitalista, mal que nos pese, y las grandes
corporaciones, así como la mayoría de los programadores, nunca estarán dispuestas a ceder las
ganancias que les da un mercado cautivo en favor de realizar la utopia de la “sociedad libre”
promovida por los adeptos al proyecto GNU. Al fin de cuentas, se trata de miles de millones de
dólares y un poder mas allá de lo cualquiera de nosotros puede imaginar en el futuro, por tanto,
resultara muy difícil que alguien lo quiera dejar así nomás. Si nos remitimos a la “sociedad de la
información” que menciona Serra, el poder será de quien controle la mayor cantidad de información
y mantener el monopolio de los códigos fuente constituye una pieza clave dentro del juego (cfr.
Serra, 1999). Envidio la visión esperanzadora de quienes promueven y desarrollan el software libre,
que creen en esa libertad de cuentos de hadas, pero la realidad, por ahora, parece bastante ajena a
esas intenciones.
Ahora bien, en el presente, y basándome en la aportación de Banega y Carbonetti, dentro del ámbito
educativo, el software propietario presenta ventajas en cuanto a su diseño (ya ampliamente probado)
y adecuado respaldo tecnológico, característica muy valiosa para aquellas instituciones que tienen
poca experiencia o no cuentan con los conocimientos técnicos suficientes (cfr. Banega y Carbonetti,
2009, p. 39). En contrapartida:
“Las desventajas son, en este caso, la fuerte dependencia con respecto a terceros para resolver
cualquier problema o defecto de programación que surja, los elevados costos involucrados y la
imposibilidad de adaptar totalmente la plataforma a los propósitos educativos e institucionales
deseados, incluyendo las características socioculturales del medio al que se destinarán los cursos.”
(Ibídem)
Vale decir que, justamente, las desventajas del software propietario constituyen el grueso de las
ventajas del software libre, que permite una máxima adaptación del material a las autenticas
necesidades de cada institución y contexto, además del ahorro de dinero que implica no verse
obligado a abonar licencias o permisos. De igual manera, esta virtud también puede resultar
contraproducente pues, para aprovechar correctamente estas amplias posibilidades, se requiere de
personal capacitado en el área, lo cual a la larga podría también resultar costoso. Así, en líneas
generales, ambos tipos de soft tienen tanto ventajas como desventajas.
Haciéndome eco del estudio de Banega y Carbonetti, un Entorno Virtual de Enseñanza-Aprendizaje
(EVEA), definido como “un conjunto de facilidades informáticas y telemáticas para la
comunicación y el intercambio de información en el que se desarrollan procesos de
enseñanza/aprendizaje” (Cervera, Mercè y otros, 1997/98. Citado por Ibídem, p. 36),
tecnológicamente no representa una gran complejidad, ya que puede estar formado por aplicaciones
tan simples como una lista de correo electrónico, una pagina Web con material didáctico, un canal
de videos en Youtube o algún foro de discusión, sin embargo, como argumentan los autores:
“Cuando todas las herramientas de comunicación e interacción disponibles se conjugan en un único
producto informático integral al cual estudiantes y docentes pueden acceder vía Internet […], se
dice que estamos en presencia de una “plataforma educativa/ plataforma para EaD”, un “campus
virtual” o, siguiendo la denominación anglosajona, un learning management system (LMS) o
“sistema de gestión del aprendizaje”.” (Ibídem)
De este modo, solo las empresas que puedan ofrecer este tipo de paquetes informáticos integrados
serian las que merecerían el titulo de autenticas proveedoras de software para EAD, sin embargo,
también pueden encontrarse en el mercado múltiples organizaciones que comercializan módulos y/o
aplicaciones separadas.
En cuanto a las ofertas de software propietario para educación, concuerdo con los ejemplos
brindados por Leandro (Blackboard, Almagesto y EDU 2.0), y podría agregar también “E-
ducativa”, un emprendimiento con fuerte presencia en España y Argentina que entre sus clientes
cuenta al portal Educ.ar , la Armada Argentina, la Universidad de Chile y una lista impresionante de
otras empresas privadas y publicas (pueden consultar en http://www.educativa.com/index.php ).
Del lado del software libre, a la cabeza, podemos nombrar a la plataforma Moodle (la única que
conozco de primera mano gracias a la UNLa), Dokeos, Claroline y ATutor (también reconocida por
brindar asistencia tecnológica a personas con impedimentos visuales o motrices), ya nombradas
también por Leandro. Por mi parte, puedo agregar la plataforma LRN, producto de un proyecto
open source promovido por la Sloan School of Management del MIT y la Universidad de
Heidelberg, cuya primera versión apareció en Abril de 2003.
- Incorporar elementos que permitan contar con determinados códigos para analizar la veracidad de
la información que se publica en Internet en función de nuestras necesidades cognitivas.
Ong (2011) sostiene que la escritura, concebida como la consignación de la palabra en el espacio,
extiende la potencialidad del lenguaje de manera ilimitada y da una nueva estructura al
pensamiento. Sin embargo, en todos los mundos que descubre la escritura, todavía les es
inherente y en ellos vive la palabra hablada. Todos los textos escritos tienen que estar
relacionados de alguna manera, directa o indirectamente, con el mundo del sonido, el ambiente
natural del lenguaje, para transmitir los significados. “Leer” un texto quiere decir convertirlo en
sonidos y en ese sentido, la escritura no puede prescindir de la oralidad. La expresión oral es
capaz de existir, y casi siempre ha existido, sin ninguna escritura en absoluto; no obstante, nunca
ha habido escritura sin oralidad.
Todo pensamiento, incluso el de las culturas orales primarias, es hasta cierto punto analítico:
divide sus elementos en varios componentes. Sin embargo, hacer un examen abstractamente
explicativo, ordenado y consecutivo de fenómenos o verdades reconocidas resulta imposible sin la
escritura y la lectura. Es por ello que el autor sostiene que los seres humanos de las culturas
orales primarias, aquellos que no conocen la escritura de ninguna forma, aprenden mucho y
practican gran sabiduría pero no “estudian”.
La “oralidad primaria” se refiere a la oralidad de una cultura que carece de todo conocimiento de la
escritura o de la impresión. Es “primaria” por el contraste con la “oralidad secundaria” de la actual
cultura de alta tecnología en la cual se mantiene una nueva oralidad mediante el teléfono, la radio,
la televisión y otros aparatos electrónicos que para su existencia y funcionamiento dependen de la
escritura y la impresión. La tradición oral no posee el carácter de “permanencia”. Aunque las
palabras están fundadas en el habla oral, la escritura las encierra en un campo visual.
Ong (op.cit.) sostiene que las mismas objeciones que alguna vez fueron formuladas contra la
computadora fueron dirigidas por Platón contra la escritura. Para Platón, la escritura es inhumana
al pretender establecer fuera del pensamiento lo que en realidad solo puede existir dentro de él.
Es un objeto, un producto manufacturado. Lo mismo se ha dicho de la computadora. A su vez
considera que la escritura destruye la memoria, debilita el pensamiento. En la actualidad los
padres y otros formadores temen que las computadoras proporcionen un recurso externo para lo
que debiera ser el recurso interno de memorizar. En tercer lugar, un texto escrito no produce
respuestas. Si uno le pide a una persona que explique sus palabras, es posible obtener una
explicación, si uno se lo pide a un texto, no se recibe nada a cambio, salvo las mismas palabras.
En la crítica de la computadora, para el autor, se hace la misma objeción: “Basura entra, basura
sale” (Ong 2011: 82). En cuarto lugar, Platón imputa a la escritura el hecho de que la palabra
escrita no puede defenderse como es capaz de hacerlo la palabra hablada. La escritura es
“pasiva” aparentemente como las computadoras.
El proceso de poner por escrito una lengua hablada es un resultado de reglas que dan pautas
acerca de cómo escribir. Si bien es una tecnología externa al individuo, tiene que ver con
transformaciones interiores y poder escribir pensamientos de la conciencia. A su vez, no se trata
de mera artificialidad puesto que a medida que su práctica se va incorporando también se
internaliza. Lo impreso produce una sensación de finitud, de que lo que se encuentra en un texto
está concluido. Incluso antes de la impresión, la escritura misma alentaba cierto sentido de una
conclusión intelectual. Así, “La transformación electrónica de la expresión verbal ha profundizado
el sometimiento, iniciado por la escritura e intensificado por lo impreso, de la palabra al espacio
(…)” (Ong 2011: 133).
Cuando nos acostumbramos a las tecnologías, éstas tienden a volverse invisibles, se naturalizan.
Como vimos en la sección anterior, la escritura y la lectura son ejemplos de esto. Ahora bien, el
hecho de que las ideas se impriman según una determinada disposición no significa que
necesariamente se conciban o lean de igual modo. La escritura, en especial en la era de los
procesadores de texto, suele consistir en cortar y pegar, mover fragmentos de un lado a otro,
bosquejar las lecciones finales antes de terminar, etc. Si bien puede haber varias versiones de un
texto, una vez concluido se eliminan los indicios que nos lleven a pensar que fue escrito en
momentos distintos y se alude a una ilusión de continuidad. Con la lectura, tenemos más libertad
para movernos por los textos, en ese sentido, no suele ser algo lineal ni ininterrumpida.
Lo que se denomina “hipertexto” extrapola estas cuestiones y es por ello que para Burbules y
Callister (2008) no es un formato sin precedentes. Se trata de un modo de hacer asociaciones
laterales –además de lineales-, de conectar ideas y texto mediante enlaces y yuxtaposiciones y no
necesariamente obedeciendo a una lógica determinada. El hipertexto describe un entorno de
información en el que el material textual y las ideas se entrelazan de múltiples maneras.
En los hipertextos, como en los textos en general, hay una relación interactiva entre su estructura
y las estrategias de lectura que propone de tal manera que es al mismo tiempo un modo de
composición o diseño y un proceso de escritura.
Los autores citan a los filósofos Deleuze y Guattari que proponen estudiar un texto a partir de
tomar la analogía del rizoma. Una planta de este tipo depende de un sistema descentrado de
raíces independientes que se esparcen en todas las direcciones. Es así que Burbules y Callister
(op.cit.) sostienen que “el hipertexto es en esencia rizomático”. No obstante, a pesar de esta
manera desestructurada de organizar la información, un hipertexto también puede presentar un
orden jerárquico y secuencial aunque ésta es una de las múltiples formas de organización posible
y una más de las posibilidades de lectura que pueden hacerse.
En relación a las técnicas anteriores, el soporte digital permite asociar en el mismo medio y
mezclar los sonidos, las imágenes y los textos. En ese sentido, el hipertexto también se
caracteriza por brindar información multimodal dispuesta en red para una navegación rápida e
“intuitiva”.
Junto con todas las transformaciones en el modo de escribir y de leer que se producen con la
incorporación de TIC y la digitalización de textos, también se modifica el rol del lector quien puede
ser “navegador”, “usuario” o “hiperlector”. A los primeros les interesa el recorrido, la navegación
por distintos sitios web, no pretenden establecer asociaciones o patrones entre ellos de modo
activo ni necesitan saber cómo incorporar cambios o agregados a la información hallada. Los
“usuarios”, por otra parte, ya saben qué quieren encontrar y buscan en el hipertexto información
específica y una vez que han encontrado lo que quieren terminan su tarea de recopilación de
información.
Por el contrario, los “hiperlectores” son aquellos que además de movilizarse dentro del sistema
necesitan dejar sus aportes, modificarlo e intervenir activamente en los textos. Esto es factible de
llevar a cabo siempre y cuando el entorno se encuentre estructurado de manera “dialógica”, es
decir, que permita la respuesta del usuario (a diferencia de aquellos textos que sólo son de lectura
y no admiten modificaciones ni adaptaciones).
3. Lectura en Internet
Tanto las personas que acceden a Internet como también los avances tecnológicos que van
aconteciendo en esa red, crecen de manera acelerada (aunque no necesariamente este
crecimiento es proporcional ya que siguen existiendo áreas geográficas con dificultades de acceso
y conectividad). Nos encontramos inmersos en un universo de información y no todos estamos
capacitados para descifrarlo y comprenderlo. A su vez, dado el volumen y la variedad de
información y fuentes a las que puede accederse on line, un lector “crítico” debe poder evaluar
rápidamente la validez de aquello que lee. Uno de los rasgos principales de los entornos on line es
que, generalmente, sólo nos es posible saber de un sujeto lo que él quiere que sepamos.
Burbules y Callister (2008) sostienen que como norma general se puede tomar el hecho de que
cuanto mayor sea el nivel de apertura que una fuente informativa ofrece sobre sus orígenes (por
ejemplo quiénes elaboraron el material) más creíble será ésta. En tal sentido, algunas de las
medidas para dar cuenta si un sitio es “creíble” o no tiene que ver con las fuentes en las que se
apoya. No obstante, los usuarios “críticos” a los que hacen referencia los autores, deberían contar
con estrategias múltiples para hallar información, no sólo por medio de motores de búsqueda
(buscadores como por ejemplo Google) sino desarrollando formas de detectar los elementos no
tan comunes, por ejemplo: encontrar páginas donde se incluyan enlaces que podrían ser de
utilidad para un tema en especial. Incluso cuando se utilicen motores de búsqueda, es importante
pensar de modo crítico sobre determinados puntos, por ejemplo, los distintos criterios empleados
por los motores para ordenar los sitios según rangos de importancia o pertinencia, o las
descripciones alternativas que se podrían emplear para encontrar material sobre determinado
tema. Tales decisiones ponen de relieve la importancia de pensar en las consecuencias de utilizar
descripciones distintas para referirnos a un mismo tema.
Además de lo expuesto, es preferible contar con ciertos conocimientos previos sobre la temática
que necesitamos ampliar antes de buscarlo en la Web. Esto nos ayudará a incorporar elementos
que permitan verificar la información con fuentes múltiples. Empero, más allá del elemento de
“credibilidad”, un usuario “crítico” es aquel que se interroga sobre, por ejemplo, a qué intereses
responde la información que se está buscando y la manera de presentarla. A su vez, es importante
contextualizar la información que se pretende encontrar puesto que un usuario “crítico” debe ser
capaz de recrear el contexto. Al cuestionar el contexto de la información es posible analizar su
sentido y complejidad. A su vez, una lectura que se considera crítica también va a interrogarse por
las faltas, por lo que no está apareciendo.
¿Por qué afirma Ong que el lenguaje es “abrumadoramente oral”? ¿Cuáles son las raíces orales del
lenguaje escrito?
¿A qué se refiere el autor al sostener que el estudio sólo es posible con la existencia de la escritura?
¿Por qué sostiene que la escritura ha transformado la conciencia humana?
¿Por qué la escritura es una tecnología?
¿Qué diferencias establecen Burbules y Calliester sobre hiperlectura y lectura crítica? ¿Es
importante evaluar la veracidad de la información que encontramos en la web? ¿Por qué? ¿De qué
manera podría inculcarse la práctica de hiperlectura?
Walter Ong comienza su escrito criticando la postura de muchos investigadores y eruditos,
relacionados con el campo de la lingüística, que diferencian entre oralidad y escritura, pero
sobretodo apunta a aquellos que injustificadamente le otorgan un lugar de privilegio a la segunda
sobre la primera, e incluso, llegan a sostener que la oralidad es un accesorio de la escritura. En
contraposición, Ong argumenta que el lenguaje resulta “abrumadoramente oral” dado que: “los
seres humanos se comunican de innumerables maneras, valiéndose de todos los sentidos: el tacto, el
gusto, el olfato y particularmente la vista, además del oído (Ong, 1967b, pp. 1-9). […] Sin embargo,
en un sentido profundo el lenguaje, sonido articulado, es capital. No solo la comunicación, sino el
pensamiento mismo, se relaciona de un modo enteramente propio con el sonido” (1).
En este sentido, refiere que la escritura le debe su existencia a la oralidad y que no podría nunca
prescindir de ésta. Incluso el acto de la lectura, no es más que la conversión de un texto en sonidos,
ya sea en voz alta, ya sea para la imaginación (2). Igualmente, primero, no establece una separación
tajante entre oralidad y escritura, sino todo lo contrario, ya que las toma como modalidades
complementarias de la comunicación, y segundo, comprende muy bien por qué se ha investigado
históricamente mas a la escritura que a las formas orales del lenguaje, y ello se debe,
principalmente, a que el estudio solo puede realizarse por medios escritos.
En efecto, Ong reconoce que únicamente a través de la escritura y la lectura se pueden llevar a cabo
análisis estructurados, ordenados y reflexivos sobre cualquier fenómeno, de allí que afirma que las
culturas orales primarias que desconocen la escritura no “estudian”, aunque ello no supondría, en
principio, una desventaja, dado que de hecho estas culturas “aprenden mucho, poseen y practican
una gran sabiduría” (3).
En relación con el tema del estudio, surge la cuestión del pensamiento, y Ong sostiene el argumento
de que la escritura, ya no solo permite el estudio y análisis de cualquier fenómeno, sino que
directamente ha modificado la conciencia humana puesto que el pensamiento escolarizado, sin el
intermedio de la escritura, no pensaría ni podría pensar de la manera en que lo hace, y aun no podría
tampoco articular los pensamientos en forma de sonidos. Vale aclarar que el autor se refiere al
“pensamiento escolarizado” en el sentido de que la escritura se erige como una habilidad artificial,
que debe aprenderse, a diferencia del “habla natural”, que surge como una capacidad innata de
cualquier ser humano (4). En consecuencia, se constituye una relación intima entre los seres
escolarizados y la escritura, donde éstos son “seres cuyos procesos de pensamiento no se originan
en poderes meramente naturales, sino en estos poderes según sean estructurados, directa o
indirectamente, por la tecnología de la escritura” (5).
De este modo, se reconoce a la escritura también como una tecnología (de allí, en parte, su carácter
artificial), que requiere necesariamente de herramientas y otros equipos: pinceles, lápices, hojas
especialmente preparadas, tinta, etc. Por otro lado, la practica de la escritura se encuentra tan
arraigada en nuestra conciencia que nos resulta difícil considerarla una tecnología, sin embargo, lo
es, e incluso Ong sostiene que la escritura, en comparación con la imprenta y la computadora, es la
tecnología mas radical porque estas dos ultimas son solo la continuación de lo que inicio la primera,
al producir “la reducción del sonido dinámico al espacio inmóvil” (6).
Ahora bien, los trabajos de Walter Ong sobre escritura y oralidad indudablemente han influenciado
a numerosos autores, entre ellos, Burbules y Callister, quienes han orientado parte de su labor al
análisis, justamente, de las nuevas formas de lectura y escritura que tanto promueven como
restringen las nuevas tecnologías de la información y la comunicación, sobretodo, aquellas que
tienen lugar a través de Internet.
En principio, estos autores, abogan por un usuario de Internet que realice una lectura critica de los
contenidos que pululan en la Red puesto que, el éxito mismo de ésta ha dado origen, al mismo
tiempo, a una gran ventaja y un gran inconveniente: “la ventaja de contar con información de
millones de procedencias y con innumerables puntos de vista, y el inconveniente de contar con
información de millones de procedencias y con innumerables puntos de vista” (7). De allí que, para
aprovechar las inmensurables posibilidades que brinda Internet, se haga necesario adoptar una
actitud critica y exigente a la hora de evaluar la credibilidad y certeza de los contenidos, de lo
contrario, la sola cantidad y caudal de información (que por esta misma profusión tiende a dar la
impresión de ser toda semejante en calidad) puede llegar a enloquecernos.
A partir de esta necesidad, Burbules y Callister sugieren la existencia de dos tipos de lecturas, la
lectura critica y la hiperlectura, ambas vinculadas con un patrón de comportamiento y actividad
especifico por parte de los usuarios que las practican (denominados como “usuario critico” e
“hiperlector”, respectivamente).
La lectura crítica, en general, se relaciona con el interés por seleccionar, evaluar, cuestionar y
valorar en relación con los propios fines, la información que se busca en Internet. Esta actividad se
encuentra íntimamente vinculada con los objetivos propios de los usuarios críticos, aquellos que se
conectan a la Red llevados por un motivo puntual, ya sea darle respuesta a una pregunta especifica,
ya sea darle solución a un problema plenamente identificado, etc., por tanto, si bien logran cumplir
con su cometido en cuanto a la consecución de datos confiables y seguros, muchas veces no
avanzan en su critica, justamente, a causa de su propia naturaleza centrada en fines concretos.
En contrapartida, la hiperlectura profundiza su análisis crítico hasta llegar, incluso, a cuestionar los
parámetros de emisión de juicios y los fines propios. De este modo, el hiperlector “está más
dispuesto a desconfiar de los criterios y objetivos existentes, y a estudiar en qué grado dependen del
contexto, es decir, no son absolutos; también está mejor preparado para actuar de manera creativa
en la reestructuración e interpretación de los entornos de información y comunicación, en lugar de
limitarse a aceptarlos o rechazarlos tal como son” (8).
Sin dudas, la practica de la hiperlectura resulta sumamente compleja y difícil de adquirir, empero,
también se eleva en el presente como una meta educativa de considerable importancia para los
jóvenes ante la increíble proliferación de las tecnologías de la información y la comunicación, por
tanto, Burbules y Callister nos brindan algunas guías para acometer la empresa, entre las que
pueden destacarse: esforzarse por aprender la mecánica intrínseca del diseño/autoria online puesto
que, generalmente, quienes comprenden los procesos de la producción de hipertextos están mas
capacitados para brindar una mirada critica sobre ellos; trabajar en el reconocimiento de que la
Internet, si bien posee un aspecto flexible, abierto e hiperenlazado, también tiene organizadores y
conectores fijos y específicos que, puede intuirse, tienden a favorecer la presencia de unas voces en
desmedro de otras; aceptar que, al fin de cuentas, incluso la Internet tiene sus limites y que, a pesar
de su enorme capacidad, no alberga todas las posibilidades y manifestaciones de la cultura, por
ende, bien vale la pena buscar vías alternativas que complementen la búsqueda de información y
construcción del conocimiento.
Para finalizar, Burbules y Callister, a pesar de lo dicho, no ponen en tela de duda el impresionante
potencial de Internet ni de las Tics, sino que abogan por una meta educativa mas amplia y
desafiante, la formación de un usuario critico que sepa distinguir las ventajas y desventajas de la
Web para, así, poder aprovecharla al máximo; incluso con un sentido muy realista:
“A pesar de que no todos los usuarios llegarán a ser hiperlectores en sentido pleno y activo, estamos
convencidos de que desarrollar usuarios más críticos representa un objetivo inmediato realista y
valioso”. (9)
(1) ONG, Walter (2011): Capítulo 1 “La oralidad en el lenguaje” y capítulo 4 “La oralidad reestructura la conciencia” en
Oralidad y escritura. Tecnologías de la palabra, Buenos Aires: Fondo de Cultura Económica. Pagina 16.
(2) Cfr. Ibídem, pagina 17.
(3) Ibídem, pagina 18.
(4) Cfr. Ibídem, pagina 84.
(5) Ibídem, pagina 81.
(6) Ibídem, pagina 84.
(7) BURBULES, Nicholas y CALLISTER, Thomas (2008): Capítulo 3 “Hipertexto: el conocimiento en la encrucijada”
y capítulo 4 “Lectura crítica en la Internet” en Educación: riesgos y promesas de las nuevas tecnologías de la
información, Barcelona: Granica. [En línea] [Consulta: 2014, 26 de Agosto] [Disponible en:
http://www.google.com.ar/url?
sa=t&rct=j&q=&esrc=s&source=web&cd=6&cad=rja&uact=8&ved=0CEIQFjAF&url=http%3A%2F
%2Fmfraga.blog.unq.edu.ar%2Fmodules%2Fdocmanager%2Fget_file.php%3Fcurent_file%3D11%26curent_dir
%3D6&ei=XwAWVP3EDYqpogTfoYH4Bg&usg=AFQjCNE5CFYv7Dozj0tlq93otCKKfXOv9A&bvm=bv.75097201,
d.cGU]. Pagina 4.
(8) Ibídem, paginas 10-11.
(9) Ibídem, paginas 16-17.
Conozcan las diferencias entre la web 1.0 y la 2.0 y reconozcan los últimos desarrollos de la web,
sus alcances y potencialidades.
Los portales eran como los “hipermercados” de Internet. Intentaban ofrecer la mayor cantidad de
servicios (disponibles hasta ese momento en diferentes sitios) para que los usuarios estuvieran
siempre en una misma página (buscador, correo electrónico, noticias). Esto aseguraba un gran
flujo de “clientes” que permitiría obtener ganancias por la publicidad. Este es un ejemplo que
permite comprender cómo la evolución de Internet (y de otras tecnologías) no solo está guiada por
las condiciones tecnológicas, sino por los intereses económicos.
La caída de las “puntocom”13 significó un punto de inflexión en el uso que se comenzó a dar a
Internet. En este cambio están implicados tanto elementos tecnológicos como sociales.
En tal sentido, desde el año 2000 el acceso por banda ancha fue haciéndose más frecuente en
diversas partes del mundo. Esto significaba, por un lado, que ya no había límites en el tiempo de
conexión y que las máquinas podían estar las 24 horas conectadas (además la velocidad de
acceso permitía acceder a contenidos multimediales con mayor facilidad); por otro, la caída del
modelo económico de los portales “puntocom” obligaba a pensar en otras formas de atraer
usuarios a la red. Es en este contexto que aparecen pequeñas aplicaciones que empiezan a darle
importancia a la participación de los usuarios pero no como consumidores de la información sino
también como productores.
Es decir, de ser solamente un lector de un material producido por otro, el usuario empezó a tener
la posibilidad de encontrar herramientas que le permitieran crear, generar, subir y publicar su
producción de manera muy sencilla, primero de manera individual, después de manera
colaborativa o grupal.
El contenido de la red no era ya solo producido por unos pocos para que la gran mayoría lo
consumiera sino que empezaba a generarse un modelo donde el contenido de la red también era
producido por los propios usuarios. Este cambio de perspectiva en relación al rol de los usuarios
desencadenó a su vez una transformación en la manera de utilizar Internet. El concepto de “web
2.0” es la denominación que pretende englobar a las nuevas características colaborativas de la
red.
La web 2.0 tiene sus antecedentes en diversos desarrollos e innovaciones difundidas a fines de
los años 1990. Algunas de ellas tienen que ver con los siguientes desarrollos:
13
“Punto com” es un término que se refiere a un período de crecimiento en los valores económicos de empresas vinculadas a Internet.
Esta corriente económica especulativa muy fuerte se dio entre los años 1997 y 2001. Durante este período, las bolsas de valores de las
naciones occidentales vieron un rápido aumento de su valor debido al avance de las empresas vinculadas al nuevo sector de Internet.
Al pasar el tiempo, muchas de estas empresas quebraron o dejaron de operar. Ver: http://es.wikipedia.org/wiki/Burbuja_punto_com
-Servicio de mensajería instantánea: pequeños programas que, mediante una lista con nuestros
contactos, nos permiten conocer en tiempo real quiénes están conectados al mismo tiempo que
nosotros y poder entablar una conversación o videoconferencia, intercambiar archivos, etcétera. El
pionero fue ICQ. Luego siguieron el MSN Messenger y el TALK de Google.
En la actualidad, el término web 2.0 se ha naturalizado al punto de que resulta difícil separarlo y
no confundirlo con el de Internet. No obstante, la denominada “web 2.0” es un fenómeno muy
amplio y complejo que reformula muchas de las ideas que estuvieron originalmente en la creación
de la web. Una de las características más sobresalientes en esta etapa de la red tiene que ver con
los cambios que se producen en la cantidad de aplicaciones que permiten y facilitan diversos
grados de interacción y trabajo colaborativo de los usuarios. Algunos ejemplos son los blogs, las
wikis y las redes sociales.
Los ya clásicos portales y sitios web, estáticos, jerárquicos y unidireccionales, han dado lugar a
las llamadas “redes sociales”, en las cuales los “usuarios” se convierten progresivamente en
hiperlectores. Los contenidos ya no son solamente producidos por empresas y organizaciones
profesionales dedicadas, sino que cada vez más cualquier persona puede producir contenidos y
publicarlo en la red y compartirlos con sus pares. Todos estos cambios convergen en lo que se ha
dado en llamar web 2.0, una versión cualitativamente transformada de la clásica web de los
inicios.
El desplazamiento de la web 1.0 a la web 2.0 ha sido intenso, gradual y acelerado a la vez,
acompañando el proceso de expansión de Internet y la “apropiación” de ésta por nuevas oleadas
de usuarios, que generan nuevos modelos de organización social, basados en la colaboración y
en la producción de contenidos personalizados, adaptados a las preferencias, necesidades y
demandas de los usuarios y que aprovechan la “inteligencia colectiva” disponible en la red. De
este modo la web pasa de ser un “medio” de comunicación, a un “entorno” en el que habitan, se
comunican, informan, enseñan, aprenden e interactúan miles de usuarios insertos en miles de
redes sociales.
Es una herramienta que posibilita que los usuarios escriban en línea (como por ejemplo un diario
personal) de manera muy sencilla. Permite publicar todo lo que se va escribiendo en una página
que registra las publicaciones en una cronología inversa, donde se exhiben primero los mensajes
más recientes.
Si bien los blogs empezaron como una herramienta de publicación personal, fueron incorporando
cada vez mayores funcionalidades que los convirtieron en verdaderas herramientas sociales más
que individuales.
Este instrumento fue uno de los primeros que facilitó un cambio radical en el uso que los usuarios
podemos hacer de la red. Este cambio no solo tiene que ver con aspectos tecnológicos sino que
en el momento histórico de su aparición se entrelazaron distintos elementos tales como la facilidad
de acceso y manejo de la web así como también la conformación de una masa crítica de usuarios.
El blog también es un claro ejemplo de cómo las herramientas pueden ser readaptadas y
resignificadas a través del uso y cómo esas adaptaciones de aquello para lo cual fueron
concebidas preliminarmente, se van transformando y mutando de acuerdo a la interacción que se
genera entre los usuarios y demás actores involucrados en la red. En ese sentido, en la
actualidad, las funciones del blog se fueron complejizando por medio de los distintos usos. Pero
¿por qué fueron posibles tales modificaciones?
Hay muchas razones que permitieron ir cambiando la herramienta. En el principio, los blogs
permitían publicar contenidos en internet sin poseer ningún conocimiento de lenguajes
informáticos ni de desarrollos de páginas web. En efecto, al momento de la aparición de los blogs
(primeros años de la década de 2000) la forma de producir un contenido para la red era por medio
de programas de diseños complejos y que estaban pensados para páginas estáticas en las que el
contenido permanecía constante sin renovaciones frecuentes. El proceso de actualizar el
contenido era tan complicado como volver a escribir la página. Los blogs aparecieron dando la
posibilidad de crear de manera rápida un sitio que se podía actualizar con facilidad a la par que se
agregaba contenido. El nuevo material, a su vez, se adicionaba al ya publicado, es decir, no se
perdían las entradas anteriores.
Los primeros blogs se regían por la lógica de un diario “íntimo” y permitían la rápida publicación de
texto e imágenes respetando un orden cronológico en la presentación de las entradas. No
obstante, la aplicación blog fue evolucionando a medida que se fue masificando. Estos cambios
no responden a meras cuestiones tecnológicas sino que estuvieron vinculados a las distintas
apropiaciones por parte de los usuarios.
2.2. “Wikis”
Una wiki es básicamente una página o conjunto de páginas web que pueden ser editadas por
varios usuarios de manera asincrónica.
Una wiki es una forma de sitio web muy similar al blog, pero con la diferencia que en la wiki se
acepta que los usuarios creen, editen, borren o modifiquen el contenido de una forma interactiva,
fácil y rápida. Dichas ventajas hacen de una wiki una herramienta efectiva para la escritura
colaborativa. El término wiki también se refiere a la colaboración de código para crear programas,
en el cual un servidor permite que los documentos allí alojados sean escritos de forma
colaborativa a través de un navegador, utilizando una notación sencilla para dar formato, crear
enlaces, etc. Cuando alguien edita una página wiki, sus cambios aparecen inmediatamente en la
web, sin pasar por ningún tipo de revisión previa.
Si bien la idea original era la de poder armar un “perfil” de usuario individual y a partir de éste ir
vinculándolo con otras personas entre quienes existe algún tipo de vínculo, el supuesto valor
comercial de estas redes ha hecho que exista un gran interés en ir agregando cada vez nuevos
servicios dentro de las mismas.
Hay diferentes tipos de redes sociales siendo en la actualidad “Twitter” y “Facebook” las más
populares.
Facebook es una red social que surge en el año 2004 y a partir de ese momento no ha parado de
crecer y de cambiar. López y Ciuffoli (2012) reconocen distintos los momentos claves de la
evolución de Facebook: 1) red de universitarios (2004-2006); 2) red pública (2006-2007); 3) red
masiva y abierta (2008-2010); 4) web social y personalizada (2010-2011).
En el año 2004 un grupo de estudiantes de Harvard lanzaron el sitio web thefacebook.com, con el
objetivo de crear una red que permitiera a los estudiantes de esa universidad conectarse entre sí.
La siguiente etapa en el desarrollo de Facebook se inicia con la apertura de la red para todos los
mayores de 13 años en el año 2006 convirtiéndose en una red pública y gratuita y con nuevos
servicios incorporados a la plataforma. En este período se duplican los usuarios (20 millones en el
mes de abril del año 2007 pasa a 50 millones en octubre de ese año). Entre los años 2008-2009
Facebook se expande, añade nuevas aplicaciones, lanza su chat y crea el botón “me gusta”. Para
los años 2010-2011 el desarrollo de esta red está orientado hacia una experiencia de navegación
más social y personalizada. El eje de esta nueva estrategia es el “Protocolo Open Graph” (lanzado
en abril de 2010) el cual permite el acceso a la base de datos de los usuarios que incluye
información cualitativa sobre sus gustos y preferencias. Esto marca un hito en Facebook dado que
se trata de su apertura hacia toda la web (y viceversa).
Una de las características que Facebook comparte con los blogs es la de la publicación personal.
En Facebook siempre hay un usuario que comunica y publica. Sin embargo Facebook amplifica
esa característica ya que la forma de participar está organizada en torno a perfiles personales que
incluyen información contextual de la persona. A su vez, la particular configuración de esta red
social extiende aún más la publicación personal (tipo diario íntimo) del blog y complejiza la idea de
participación en ese espacio. En tal sentido, López y Ciuffoli (2012) sostienen que aceptar
solicitudes de amistad, calificar con “me gusta”/”no me gusta” una publicación o una página,
comentar, unirse a grupos por afinidad o simple curiosidad, son algunas de las tantas formas
estandarizadas de participar en la red.
En el año 2007 (especialmente en Estados Unidos), los usuarios han adoptado masivamente una
aplicación conocida como “microblogging”. Esta se basa en la idea de poder escribir mensajes con
un límite de caracteres y hacerlos públicos.
Una de las claves para el éxito de esta aplicación tiene que ver con que estos mensajes fueron
accesibles y se pudieron producir prácticamente desde cualquier dispositivo como una
computadora o celular.
Las ideas principales que sustentan esta aplicación son la sencillez, inmediatez y la difusión
rápida. Twitter es la aplicación más famosa de “microblogging”.
3. Recapitulando…
En esta clase hemos avanzado y profundizado en el conocimiento de los servicios de Internet que
comenzamos a indagar en las primeras clases del seminario. Los blogs, las wikis y las redes
sociales se han convertido en una enorme fuente de información que impone la creación de
contenidos por parte de los usuarios. Como hemos visto en la clase anterior (6), esto requiere del
desarrollo de una serie de destrezas no solo técnicas (el dominio de las herramientas), sino de un
conjunto de actitudes (y aptitudes) críticas que nos permitan evaluar y juzgar la utilidad y la
credibilidad de la información recogida. La hiperlectura va más allá de la mera navegación o el
uso: requiere intervenir activamente en las redes, no sólo buscando y consumiendo información,
sino también produciendo y colaborando al desarrollo de la red Internet, de modo de mutar de
espectadores a protagonistas de estos cambios.
Brunner (2004) sostiene que con la incorporación de las TIC en la enseñanza, nos encontramos
en los inicios de un nuevo ciclo de cambios educacionales tecnológicamente motivados, cuyo
final es incierto. Desde la perspectiva del autor, una de las fuerzas que impulsan estos cambios
tiene que ver con la “revolución” de las tecnologías de la información y la comunicación que
actúan como base de un nuevo tipo de relaciones: las “relaciones red”.
Existen distintos tipos de redes las cuales pueden, a su vez, estar compuestas por los más
diversos elementos: redes de personas, empresas, instituciones, gobiernos o, atendiendo a su
composición, redes telefónicas, eléctricas, de televisión por cable o redes de computadoras. Lo
que caracteriza las redes es la propiedad de interconexión entre sus diferentes elementos,
puntos o nodos. En ese sentido, las redes son no sólo técnicas sino relacionales y organizativas y
se caracterizan por su complejidad, por su extensión, dinámica y heterogeneidad.
La centralidad de las “redes” se encuentra presente en algunos estudios que analizan las
especificidades de los “campus virtuales”. Así, para Silvio (2000) los elementos constitutivos de
dicho campus conforman una red siendo el “campus virtual” el resultado de la “virtualización” de
ciertos “espacios funcionales” de la universidad. Considera que dentro de cada función
universitaria existe un “espacio funcional típico” que sirve de escenario a los procesos que ocurren
dentro de ella y en el marco del cual se interrelacionan los componentes del sistema en su
conjunto. Las “aulas virtuales” deben estar relacionadas entre sí, al igual que los “laboratorios”, las
“bibliotecas” y las “oficinas virtuales”.
Otros autores consideran al “campus virtual” como una metáfora que simboliza un ambiente de
enseñanza, aprendizaje e investigación creado por la convergencia de las TIC. A su vez, sostiene
que una de las diferencias más significativas de la enseñanza “tradicional” y la “virtual” reside en la
interacción (Van Dusen 1997, entre otros).
Por su parte, Oblinger y Rusch (1998) definen al “campus virtual” como el campus compatible con
el futuro: es decir, un campus “interconectado” que permite la conexión y el intercambio de
aprendizaje, servicio a la comunidad y la gestión.
Harasim, L et.al. (2000) consideran que toda la educación, ya sea “cara a cara”, “a distancia” o “en
red” requiere entender la naturaleza del medio a fin de conceptualizarla y diseñarla como “entorno
educativo”. Si bien, aunque se parece a los modelos de educación “cara a cara” y “a distancia”, los
autores sostienen que “La educación en red es un territorio nuevo y extraordinario.” (Harasim, L
et.al., op.cit: 161) Los rasgos de los sistemas en red se conjugan para ofrecer oportunidades sin
precedentes y al mismo tiempo restricciones a la enseñanza y el aprendizaje. Para los autores, las
características del medio conforman el modo en que pueden implantarse las tareas educativas.
Señalan, a su vez, cinco rasgos que diferencian la comunicación que proporcionan un marco
conceptual para orientar el diseño y la implantación de “redes de aprendizaje”, término que utilizan
en vez de “campus virtual”. Tales rasgos son: la comunicación tiene lugar en grupo y es
independiente del lugar físico así como asincrónica por lo que también es independiente del
tiempo en que se produce, se basa en el texto y en entornos multimedia y, por último, la
comunicación también se consigue a través del envío de mensajes entre computadoras
conectadas. Por otro lado, consideran que las metáforas de “campus” o “comunidad” pueden
proporcionar un concepto familiar o vínculo que ayude a los usuarios nuevos a familiarizarse con
el espacio en red. La metáfora ayuda a los “usuarios” a entender el entorno educativo y a no
sentirse perdidos espacialmente.
Si bien, en el análisis de estos autores prevalece una mirada determinista cuando arguyen que es
el tipo de recursos el que condiciona el tipo de enseñanza y el modo en que pueden implantarse
las tareas educativas, no obstante, destacan la importancia de lo espacial cuando se refieren al
“campus virtual”.
En síntesis, pese a las limitaciones señaladas, se destaca la idea de “red” y de “espacio” que está
presente en esos estudios. Así, se asimila al “campus virtual” con un tipo de espacio particular: un
“espacio red”.
Contar con alguna plataforma tecnológica es un requisito indispensable para aquellas instituciones
que se propongan construir un “campus virtual”. Estas plataformas refieren a un tipo de software
que ha sido diseñado, en la mayoría de los casos, con fines educativos y se encuentra físicamente
instalado en un servidor conectado a Internet. Por consiguiente, las plataformas tecnológicas
refieren a programas informáticos que posibilitan la enseñanza y el aprendizaje en un “campus
virtual”. Estos software, como vimos en clases anteriores, pueden ser: “propietario”, “libre” o
desarrollos llevados adelante por las universidades, es decir, “propios”.
En las clases presenciales, las tecnologías siempre se utilizaron como soportes de la actividad
docente y se fueron sucediendo en el tiempo en función de los distintos avances tecnológicos. Así,
algunas de las más utilizadas han sido (y aún continúan): tizas, pizarrones, láminas, videos,
filminas, y no hace tanto tiempo, materiales de la web. Litwin (2005) sostiene que si bien tales
instrumentos fueron cambiando en función de los distintos desarrollos tecnológicos, lo
fundamental es que en todos los casos, la tecnología puede llegar a limitar o enmarcar, potenciar
o banalizar las propuestas pedagógicas y didácticas.
Las prácticas con nuevas tecnologías pueden permitir el acceso a nuevas maneras de producir el
conocimiento mediante trabajos en colaboración que antes eran impensados a causa de los
costos de la comunicación. En todos los casos dependen de la calidad pedagógica de la
propuesta, de la calidad científica de los materiales y su información y de la ética profesional que
impone una modalidad en la que las autorías se comparten en desmedro de las individualidades y
potencian la producción en grupos.
Una de las principales contribuciones que las TIC hacen al campo educativo es abrir un abanico
de posibilidades de uso no solo para la educación a distancia sino también para las modalidades
de enseñanza presencial. Esto supone nuevos entornos, y requiere nuevos enfoques para
entenderlos, diseñarlos e implementarlos.
Algunas de las implicancias de dicho uso tiene que ver con el cambio de los roles tradicionales de
los docentes, del personal administrativo, entre otros. A su vez, la educación a distancia “virtual”
también proporciona la oportunidad de crear una red de estudiantes, un ‘espacio’ para el
pensamiento colectivo y acceso a los pares para la socialización y el intercambio.
Para diseñar y desarrollar entornos de formación basados en estas tecnologías habrá que
plantear escenarios que se adapten a una heterogeneidad de situaciones (por parte del alumno,
de la institución, entre otras). Si bien, conocer las posibilidades y características de las distintas
aplicaciones y entornos va a ser crucial para aprovechar todas las ventajas que ofrecen las
tecnologías, lo importante es que sus potencialidades descansan, tanto o más que en el grado de
sofisticación y potencialidad técnica, en el modelo de aprendizaje en que se inspiran, en la manera
de concebir la relación profesor-alumno, en la manera de entender la enseñanza.
Caruso y Dussel (1999) definen al aula como “una estructura material y una es-tructura de
comunicación entre sujetos” (Caruso y Dussel, op cit: 31 citado en Dussel 2011). Su
estructura material se encuentra definida por la arquitectura, el mobiliario, los recursos
disponibles y las personas que concurren. La estructura de comunicación tiene que ver
con las relaciones de autoridad y la circulación de la palabra y del poder entre los sujetos.
En tal sentido, un aula virtual supone un quiebre con la secuencia y linealidad que
imponía el orden de la clase simultánea basada en materiales impresos (li-bros, entre
otros) y posibilita otro tipo de organización que tiende hacia una de tipo personalizada. En
tal sentido, es una experiencia diferente para cada uno de los estudiantes implicados y
esto ocasiona que no se produzcan los mismos rit-mos y secuencias de aprendizajes
similares para todos. Esta situación obliga al docente a desarrollar una metodología de
trabajo flexible así como también le demanda una atención individualizada a cada alumno.
El espacio del aula se está redefiniendo tanto en su estructura material como en sus
formas de interacción y, en ese sentido, ya no habría un solo eje de interac-ción
controlado por el profesor sino una comunicación múltiple que demanda atención y
capacidad de respuesta inmediata a interlocutores diversos.
Pero, ¿existe algún aspecto que nos permita diferenciar la figura del docente y la del
tutor? Si consideramos que la idea de educación a distancia refiere a enten-der que este
proceso de enseñanza aprendizaje no se sostiene desde la asis-tencia regular a clases
presenciales, el aspecto que instala la diferencia antes que pedagógico es institucional
aunque sus consecuencias pedagógicas son importantes.
Las actividades colaborativas requieren una suerte de “día a día” por parte de los alumnos
y docentes que rompe con la idea de educación a distancia tradicional en la que el
estudiante trabajo solo y a su ritmo y bajo sus cronogramas de tiempo y posibilidades
horarias. Litwin (2000) sostiene que “quizás tengamos que llamar de otra forma a la
educación a distancia, dado que hoy la distancia ya no la define. Lo que seguramente no
vamos a cambiar es su definición de educación y la búsqueda de generar buena
enseñanza, al igual que en cualquier otra propuesta educativa” (Litwin, op cit: 13).
Indaguen en algunos de los elementos que un docente debe considerar en el diseño de un aula
virtual así como las particularidades que adquiere el desarrollo de un campus virtual en una
institución universitaria.
Bates (2001) señala que es fácil y no infrecuente que la infraestructura tecnológica se cree sin
tener en cuenta las exigencias ni las prioridades académicas o educativas. Históricamente se ha
tendido a introducir las TIC en la universidad en primer lugar para atender las necesidades
administrativas de procesamiento de datos, por ejemplo la matrícula de estudiantes, la gestión
económica, el procesamiento de textos y las comunicaciones internas. Las exigencias académicas
de un apoyo tecnológico han tendido a convertirse en uno de los elementos fundamentales de la
planificación en un lapso de tiempo relativamente reciente.
Por otro lado, la ubicuidad de las TIC (es decir, la posibilidad que brindan estas tecnologías para
estar en todo momento y lugar al mismo tiempo) ha propiciado el desarrollo de planteamientos al
estilo “llanero solitario” de la enseñanza basada en la tecnología (Bates, 2001). Este “llanero
solitario” es un miembro del claustro de docentes que trabaja de forma independiente y desarrolla
a modo individual algunos segmentos de sus cursos a través de la red o promueven debates y
reflexiones por medio de foros y otros recursos informacionales no presenciales.
Harasim et.al. (2000) sostienen que el primer paso para que el docente implemente un aula virtual
consiste en identificar qué actividad educativa puede beneficiarse del trabajo en red y en base a
eso evaluar qué modelo o método hay que usar.
El segundo paso, según los autores citados, consiste en asegurar un acceso regular al hardware,
software y recursos de telecomunicaciones adecuados. Para ello es esencial el soporte técnico
continuo que asegure la rápida resolución de cualquier inconveniente que pudiera presentarse en
el proceso de implementación del aula. En tal sentido, una infraestructura tecnológica y personal
de apoyo técnico capaz de brindar soporte a los docentes es un requisito fundamental para la
enseñanza basada en tecnología.
Como vimos en la clase anterior, un aula virtual es un espacio organizado con el propósito de
aprender. Para que tenga lugar el aprendizaje, han de estar presentes ciertos componentes
pedagógicos (actividades de aprendizaje, situaciones de enseñanza, materiales, entre otros);
componentes tecnológicos (las tecnologías apropiadas y como esas herramientas seleccionadas
están conectadas con el modelo pedagógico); y componentes administrativos (por ejemplo,
calendario académico).
En este sentido, para que se contribuya a introducir cambios en los procesos educativos, las
potenciales personas afectadas por dichos cambios, entre ellas los docentes, deben percibir la
novedad del proceso y sus implicancias así como la intencionalidad o la planificación que tiendan
a gestar tales transformaciones. De lo contrario, la incorporación de las TIC puede resultar
muchas veces más compatible con enfoques tradiciones de enseñanza y aprendizaje de carácter
lineal y mecánico.
Bates (2001) considera que para que una institución educativa, como puede ser la universidad,
responda al reto del cambio tecnológico es importante que se produzca un cambio cultural, es
decir, un cambio en la cosmovisión de los actores de la universidad: cuerpo directivo, docentes,
administrativos, estudiantes, graduados. Dicho cambio exige modificaciones en las prácticas de
larga tradición. Asimismo, para que el cambio tenga “éxito” se requiere una capacidad directiva
con determinadas características.
Por “capacidad directiva” el autor entiende las creencias y actividades de los actores que tienen el
poder de definir lo que es de “interés” para las organizaciones de las que forman parte. En este
sentido, considera que la decisión para desarrollar un campus virtual debería contar con un
planteamiento colectivo de los órganos de dirección superiores de la universidad, que también
deberían compartir una misma visión general y básica que permita proyectar a futuro.
Un equipo directivo debería definir una visión para la enseñanza y el aprendizaje y determinar
donde encaja la tecnología en esta visión. A su vez, identificar destinatarios y elaborar programas
adecuados y contar con un área de apoyo técnico que brinde asistencia tecnológica.
Es importante que el campus virtual desarrollado por la universidad incluya “logo” o insignia
institucional de la universidad para concientizar a los alumnos -sobre todo en el caso de que se
diseñe una oferta educativa totalmente virtual- de su pertenencia a una comunidad educativa más
amplia.
A su vez, el campus, tiene que tener una capacidad de almacenamiento adecuada para ser usado
por un centenar de usuarios (entre alumnos, docentes y el equipo de gestión). En este sentido,
algunas preguntas que pueden guiar la selección de los tipos de plataformas tecnológicas
disponibles que den soporte al campus virtual, pueden ser: ¿Se trata de un software “escalable”?
(es decir, que si se adicionan más usuarios no impide el correcto funcionamiento del sistema);
¿Pueden integrarse otras aplicaciones tecnológicas además de las pensadas al inicio de su
implementación? ¿Pueden los docentes diseñar sus materiales utilizando cualquier procesador de
textos? La plataforma que se pretende instalar, ¿facilita la forma de trabajo conjunta de los
usuarios?
El ideal es que el mantenimiento técnico del campus virtual lo lleve a cabo un departamento o
área de informática que brinde asistencia a los usuarios. A su vez, la elaboración de manuales de
uso de la plataforma se torna indispensable para dar cuenta de las distintas aplicaciones que tiene
el software incorporado al campus y sus potencialidades. En ese sentido, es fundamental brindar
una serie de guías que describan las tareas específicas que el usuario debe tener en cuenta para
acceder al campus. Estas guías pueden explicar, por ejemplo, cómo cargar y enviar archivos;
cómo crear un foro de debate; cómo diseñar un glosario, entre otros.
Si bien, la adquisición del hardware y del software conlleva un determinado costo, esto no es lo
más importante (sobre todo teniendo en cuenta, como vimos en las primeras clases, las diferentes
opciones que hay en software libres u “open source”). En efecto, una de las partes más complejas
para llevar a cabo la implementación del campus virtual tiene que ver con el factor humano, es
decir: la formación y el ofrecimiento de capacitación tanto a docentes como a estudiantes.
Recapitulando, en función de lo visto hasta aquí, consideramos que como mínimo, un campus
virtual de enseñanza y aprendizaje debería contar con los siguientes espacios:
¿Cuáles son los objetivos de la UNLa Virtual? ¿Qué vinculación tienen tales objetivos con la
propuesta institucional de la Universidad? ¿Qué elementos intervinieron a la hora de optar por un
desarrollo tecnológico particular? ¿Qué tipo de plataforma tecnológica se incorporó en la
propuesta? ¿Cómo se estructura y organiza el campus virtual? ¿Qué tipo de oferta académica se
brinda en formato virtual?
En principio, el campus virtual vio la luz en el 2009 por intermedio de la Resolución 1589/09. Debe
destacarse que desde el primer momento, el campus virtual no se encaro solo como una innovación
descontextualizada, sino que su desarrollo se encuentra inserto dentro del proyecto institucional de
la universidad; de este modo, la dirección seguida ha sido coherente con lo aportado por Duart y
Lupiález, quienes indicaron que “la definición de la estrategia institucional es clave en cualquier
proceso de introducción de una innovación” (Duart y Lupiález, 2005, p. 3).
En efecto, el proyecto institucional de la UNLa apunta a la creación de la “ciudad del
conocimiento” (cfr. Jaramillo, 2008), donde confluirían complementariamente los productores de
saberes científicos, tecnológicos, políticos y socioculturales. Asimismo, esta meta supone “la
articulación interdisciplinaria, la relación con los problemas de la sociedad y la valorización de la
metodología de taller, haciendo hincapié en la práctica como estrategia didáctica” (R.C.S. Nº
011/13, 2013, p. 6).
En este sentido, el campus virtual ayudaría a complementar este propósito al constituirse como “un
espacio de encuentro comunicacional interactivo, [que] amplía los procesos educativos, tanto al
cambiar el encuadre de tiempo y espacio como en la producción de contenidos para la enseñanza”
(Ibídem).
Por otra parte, dentro de los objetivos perseguidos tras la creación del campus, sin dudas, el más
importante responde a la necesidad de adaptarse a las nuevas demandas sociales de formación
universitaria surgidas de las transformaciones propiciadas por las nuevas tecnologías de la
información y la comunicación.
Respecto de la organización institucional, la UNLa ha adoptado, al igual que otras universidades de
perfil más tradicional, la “bi-modalidad”, ya que su oferta presencial convencional sigue siendo
prioritaria y solo se incluyen ciertas opciones de estudios a distancia o virtuales.
Dentro de esta oferta virtual, el uso del campus, sintéticamente, se consolida en torno a dos
opciones distintas:
a) Como “apoyo a la enseñanza presencial”, esto es, se ofrece material complementario o
ampliatorio de las clases presenciales normales (incluso se pueden promover distintas actividades a
través de foros, por ejemplo).
b) Como “desarrollo de ofertas de educación a distancia”, donde, por un lado, se puede ofrecer el
dictado virtual de una o más materias pertenecientes a una carrera presencial, y por otro lado, se
“prevé el desarrollo de la totalidad de una carrera en forma virtual” (Ibídem, p. 14).
Por ultimo, en referencia a esta segunda opción, varias son las carreras que se pueden cursar
totalmente a distancia en la UNLa, por el ejemplo: la Tecnicatura Superior en Administración y
Gestión Universitaria (pregrado), el Ciclo de Licenciatura en Informática Educativa (grado) y la
Especialización en Educación con Orientación en Investigación Educativa (posgrado)1.
Lo que por ahora no pude encontrar fue información técnica, o sea, todos sabemos que el Campus
Virtual de la UNLa esta basado en el Moodle, pero aun no logre dar con más detalles, como los
fundamentos de esta elección, las distintas alternativas que se manejaron, etc. Pero seguiré
investigando y, si encuentro algo más, lo compartiré con ustedes a la brevedad.
Guión Clase 11 - 15 de octubre de 2014
Objetivo
A su vez, otro de los fenómenos relativos con la expansión y diversificación de las propuestas
educativas “a distancia” tiene que ver con el trabajo conjunto y cooperativo que se empieza a dar
entre instituciones universitarias que trabajan con la modalidad virtual a través de distintas redes
de cooperación. Estas redes suponen la existencia de socios que se relacionan de manera
horizontal, complementando las diversas capacidades y recursos existentes.
La flexibilidad y versatilidad de las redes -las cuales generalmente no cuentan con una estructura
rígida y burocrática de funcionamiento-, constituyen una de sus principales características.
Asimismo, las relaciones que se establecen entre sus miembros posibilitan construir en forma
participativa espacios conjuntos de intercambio en pos del crecimiento tanto a nivel personal como
colectivo.
Los nuevos escenarios “virtuales” demandan nuevas configuraciones en las instituciones de nivel
superior. Por ende, ya no resultaría posible pensar solamente en una institución estática y limitada
a un edificio. Así, las nuevas configuraciones que se gestan a la luz de las TIC, han trastocado la
idea de “agrupamientos académicos fijos” y la han reconfigurado hacia la creación de
“agrupamientos académicos diversificados”, los cuales se caracterizan por su alto poder
expansivo los cuales permiten la conformación de espacios de trabajos académicos capaces de
extenderse a través de miles de kilómetros, desarrollarse en variables y múltiples contextos y
viabilizarse a partir de diferentes recursos materiales y pedagógicos.
14
Para ampliar esta información, consultar: http://www.cavila.org/cavila/aula
1. Promover y coordinar la creación y desarrollo de un espacio ampliado de enseñanza superior
en entornos virtuales y la construcción de nuevos escenarios e instrumentos educativos en el
marco de la identidad cultural Latino Americana.
2. Fomentar la cooperación entre universidades públicas, organismos públicos, empresas,
asociaciones profesionales y personas en una "comunidad abierta".
3. Desarrollar un Campus Compartido a nivel de grado y posgrado en sus niveles de
especialización, de máster y doctorado.
4. Desarrollar el "conocimiento libre" a través de su Campus Compartido.
5. Promover la I+D a través de la integración y complementación de grupos de investigación.
6. Apoyar, intensificar y mejorar la transferencia de tecnología.
7. Difundir e intercambiar el conocimiento a través de la edición de publicaciones de diverso tipo,
asegurando la circulación y divulgación de las mismas, fomentando el libre acceso.
8. Facilitar la democratización de la enseñanza superior y del conocimiento, a partir de la
accesibilidad a las Nuevas Tecnologías de la Información y la Comunicación (NTIC).
9. Ofrecer un instrumento adicional para la tarea extensionista y de transferencia social de las
universidades que fortalezcan el vínculo Universidad-Sociedad.
Antecedentes.
Esta red se origina partiendo del interés por compartir un campus virtual entre universidades de
Iberoamérica que se sustenta en la concepción de una educación superior considerada como bien
público y la necesidad de profundizar la democratización del conocimiento a través de una red de
instituciones que comparten el ámbito académico iberoamericano.
El proyecto de campus virtual supone un espacio ampliado, que trasciende fronteras, y que recoge
una fuerte voluntad política de cooperación, ofreciendo a estudiantes de distintos países una
propuesta académica de calidad.
Organización sin fines de lucro compuesta por una amplia red de individuos e instituciones del
norte, centro y sur de América que combinan recursos y experiencias para redefinir el alcance de
las alianzas educativas del siglo XXI.
Desde 1990 y hasta 1993, la OUI fue la administradora y principal promotora del Consorcio, y tuvo
como meta fundamental que éste obtuviese su personería jurídica y alcanzara las condiciones
apropiadas para ser económicamente autosuficiente.
La “visión” del CREAD es ser el consorcio de educación a distancia por excelencia para Norte,
Centro y Suramérica, proporcionando oportunidades para el mejoramiento de la calidad educativa,
16
Para ampliar esta información, consultar: http://www.cread.org/spanish/mision.htm
el intercambio de información y la búsqueda del aumento de las fortalezas institucionales
mediante la cooperación institucional.
Con la estrategia de fortalecer las acciones locales con perspectiva regional e internacional, se
crea la Oficina para Argentina y en el año 2009 obtiene su personería Jurídica.
En la actualidad, el CREAD es una organización sin fines de lucro que ofrece servicios de
información, capacitación de recursos humanos, cooperación técnica, acceso a cursos entre otros
recursos educativos.
Esta iniciativa denominada "Universidad para la sociedad del conocimiento" nace de las
inquietudes compartidas por una red de profesionales de la educación que trabaja en torno de
problemáticas universitarias.
Esta iniciativa interuniversitaria surge para impulsar la educación a distancia entre las
Universidades Nacionales de Córdoba, Río Cuarto, Villa María, San Luis, San Juan, La Rioja y
Cuyo.
Por medio de un convenio firmado el 1º de octubre de 1999 los rectores de las universidades
integrantes de la Red se comprometieron a realizar acciones conjuntas para la implementación de
un programa cooperativo de educación a distancia que contemplara la elaboración del diseño y
puesta en marcha de proyectos cooperativos de capacitación y educación a distancia, desarrollara
criterios y mecanismos de evaluación que permitieran realizar un seguimiento de la calidad así
17
Para ampliar esta información, consultar:
http://unisic.usc.es/index.php?option=com_content&view=article&id=3118&Itemid=17
como también lograra el intercambio y aprovechamiento conjunto de personal y tecnologías
apropiadas para esta modalidad educativa.
A su vez, el convenio mantenía su vigencia por el término de un año pudiendo ser renovado a
solicitud de las partes involucradas así como también a los fines de formalizar programas
específicos debían firmarse protocolos particulares en los cuales se determinaran las condiciones
de ejecución.
En sus orígenes las altas casas de estudio involucradas partieron del interés por lograr una mayor
apertura de la universidad a través del desarrollo de programas de educación a distancia
mediatizados por las TIC.
En este sentido en el convenio firmado quedaba plasmado “Que la educación a distancia posibilita
en la actualidad, con la intermediación de las nuevas tecnologías de la información y de la
comunicación, una apertura de las universidades a su contexto local, regional y nacional, en
apoyo al acceso a variadas ofertas de formación para distintos grupos sociales”, así como también
“(…) permite incorporar a los proyectos una gran cantidad de personas que por diversas razones
no pueden concurrir a las aulas”. (Convenio, 1999: 1)
Uno de los aspectos fundamentales que acentuaba la REDCO en sus inicios está vinculado con
las potencialidades que ofrece el trabajo en red. Este trabajo resulta de la adopción de formas
flexibles y participativas de organización, las cuales favorecen el intercambio con nodos dispersos
físicamente. Así actores de diversas procedencias se relacionan a fin de abordar problemas
concretos y proponer soluciones poniendo en juego sus capacidades y buscando
complementarlas por medio de las redes.
A su vez, en consonancia con lo postulado en el convenio del año 1999, en este segundo
protocolo se remarcaba la importancia de dar respuesta a las demandas sociales y se señalaba la
importancia de potencializar las ventajas dadas por la experiencia acumulada en el trabajo en red.
Otro de los aspectos interesantes de esta Red es que incentivó que cada una de las universidades
involucradas desarrollara una función específica ya sea aquellas vinculadas a una tarea
administrativa, o la implementación y puesta en funcionamiento de la plataforma tecnológica, el
manejo del sistema de alumnos, entre otras. Al respecto uno de los actores responsables del
Departamento de Educación a Distancia e Innovación Pedagógica de la Universidad Nacional de
Cuyo señala:
“La necesidad de: trabajar de manera colaborativa te ayuda cuando no hay un desarrollo íntegro, y
aún cuando lo hay, ayuda muchísimo a enriquecer las ofertas. Entonces qué se hizo: se distribuyó
entre las siete universidades un segmento de responsabilidades diferenciadas y trabajamos de
manera colaborativa, (…) nosotros desarrollamos materiales impresos y tutorías, bueno, cada
universidad tenía un rol y una función específica”.
Esta división de tareas fue consensuada por medio de la coordinación regional de la Comisión
Regional de Educación a Distancia la cual llevaba adelante las funciones de organización de las
áreas pedagógica, administrativa y comunicacional para el diseño, seguimiento, evaluación e
implementación del curso.
La Comisión se integró con representantes de las siete universidades con el fin de llevar a la
práctica las actividades previstas en el Convenio marco. Tenía como principales objetivos los
siguientes: a) diseñar propuestas educativas a distancia y sus correspondientes modelos
pedagógicos; b) planificar las actividades que hacen al desarrollo y funcionamiento de la
educación a distancia y c) gestionar el desarrollo de las actividades atinentes a la educación a
distancia y evaluar de manera permanente los procesos de educación a distancia
A su vez la Comisión tenía en cuenta que dado el nuevo contexto de una enseñanza mediada por
las TIC que se estaba generando, la evaluación y el seguimiento se hacía indispensable para
asegurar el éxito de la propuesta. El Curso fue evaluado de manera constante tanto durante su
preparación como en el transcurso de su implementación y las decisiones fundamentales
estuvieron a cargo de los rectores de las universidades participantes.
De esta forma, sus funciones tenían carácter sistémico puesto que se referían a coordinar la
implementación de los cursos a distancia, realizar el seguimiento de la implementación de los
cursos así como la evaluación final. También diseñar, elaborar y difundir materiales teóricos para
y/o sobre la modalidad y establecer sistemas que organizaran las tareas pedagógicas como
también las administrativas y comunicacionales.
Por otro lado, las tareas que le correspondían a las universidades nacionales cuyanas en el marco
de esta red tuvo la siguiente distribución: la mediación pedagógica de los módulos estuvo a cargo
de la Universidad Nacional de Cuyo. La administración de tutorías le correspondió a la
Universidad Nacional de San Luis. Por otro lado la Universidad Nacional de San Juan tuvo a su
cargo el seguimiento de los foros.
A su vez, es importante señalar que el diseño gráfico de los materiales así como también el diseño
y desarrollo de la plataforma del curso le incumbió a la Universidad Nacional de Río Cuarto. La
Universidad Nacional de Cuyo, por su parte, fue la encargada del diseño de la página web.
Entre los principales objetivos que se acordaron en la reunión fundacional, cabe mencionar los
siguientes: “fomentar y desarrollar el empleo adecuado de los recursos de educación a distancia
para superar problemas educativos específicos; promover la investigación, la experimentación y el
desarrollo de métodos y procedimientos en educación a distancia; fomentar la formación,
perfeccionamiento y capacitación de los miembros de RUEDA; organizar, convocar y participar en
encuentros nacionales, regionales e internacionales del área; establecer estrategias de
acercamiento a fuentes de financiación; fomentar el fluido intercambio de información y de
programas educativos producidos dentro y fuera de RUEDA; asesorar sobre los aspectos
educativos, políticos, económicos, legislativos y técnicos pertinentes a la Red; y proponer políticas
relativas al área de la RUEDA”18.
En mayo del año 2000, durante la reunión realizada en la Universidad de Cuyo, los objetivos
fundacionales y el rol de RUEDA fueron discutidos nuevamente con el fin de analizar críticamente
su vigencia, su relevancia y de formular otras intencionalidades pertinentes a esta nueva etapa de
RUEDA. De esta manera, RUEDA asume viejos y nuevos propósitos de acción como una red de
cooperación comprometida con el desarrollo de la educación a distancia en las universidades
públicas.
Esta red de universidades realiza reuniones nacionales en las diferentes provincias donde están
radicadas las sedes de las universidades públicas, como así también en las oficinas del Consejo
Interuniversitario Nacional (CIN)19.
Desde sus inicios ha establecido que al menos una de las dos reuniones anuales que convoca,
se realice en la sede de alguna de las Universidades Nacionales que conforman la Red. De esta
manera, los encuentros de RUEDA se han efectuado en todo el país. Asimismo, organiza
Seminarios Internos de Formación, en los cuales se invitan a especialistas para abordar temas
que resultan de interés.
RUEDA no cuenta con financiamiento propio. Sus actividades son solventadas en forma
cooperativa y solidaria por las Universidades Nacionales que la conforman, lo cual conlleva a
sostener, por parte de sus miembros, una actitud permanente de colaboración y reciprocidad.
Desde las primeras reuniones, los miembros de RUEDA manifestaron sus propósitos de que la
Red favorezca “el intercambio de materiales, entre las universidades, tratando de propiciar la firma
de convenios o actas de referencia para el mejor aprovechamiento de las mismas. De esta
manera, se auspicia su utilización desde una propuesta ética, política y pedagógica”:
Uno de los ejes de las tareas colaborativas implementadas ha sido el de la evaluación entre pares
de las propuestas de educación a distancia y de tecnología educativas realizadas. Otra línea de
trabajo ha sido la del asesoramiento. Distintos representante de RUEDA, han sido convocados por
colegas para brindar sus conocimientos en eventos de formación en la modalidad.
18
Para más información, consultar: http://rueda.edu.ar/
19
El Consejo Interuniversitario Nacional (CIN) fue creado por Decreto del Presidente de la República Argentina, Dr. Raúl
Alfonsín, el 20 de diciembre de 1985. El Consejo es una persona de derecho público no estatal que se sostiene,
primordialmente, con los aportes que realizan sus miembros. Junto con el Consejo de Rectores de Universidades
Privadas (CRUP) y representantes de los Consejos de Planificación Regional de la Educación Superior (CPRES),
integra el Consejo de Universidades, que preside el Ministro de Educación de la Nación.
Se realizan encuentros nacionales y seminarios internacionales. El primero internacional se lanzó
en el año 1989 y estuvo organizado por la Universidad de Buenos Aires. Este evento se constituyó
en uno de los disparadores de la creación de RUEDA, dado que posibilitó la instauración del
diálogo y del intercambio entre varios especialistas de la modalidad de diferentes Universidades
Nacionales. El último se llevó a cabo este año en la sede de la Universidad Nacional de Cuyo.
A su vez, desde la creación de RUEDA se han publicado diversos boletines, revistas y libros.
Buscando por la Web encontré varias organizaciones internacionales que congregan instituciones
relacionadas con la temática de la educación a distancia:
- EDEN (European Distance and eLearning Network)
- EFQUEL (European Foundation for Quality in E-Learning)
- EADTU (European Association of Distance Teaching Universities)
Dada la enorme cantidad de información, en esta ocasión solo me ocupare brevemente de una de
estas organizaciones: EFQUEL.
Como su nombre lo indica, EFQUEL es la Fundación Europea para la Calidad en el E-Learning; y
su misión consiste en “mejorar la calidad del aprendizaje electrónico en Europa mediante la
prestación de servicios y el apoyo a todas la entidades interesadas” (1). Desde su origen en
Bruselas, Bélgica, en el año 2005, la organización se construyo sobre “los principios del dialogo, la
inclusión y la apertura” (2) encolumnados hacia la promoción de la excelencia y la innovación en
los procesos de aprendizaje virtual en el continente europeo.
En la prosecución de estas metas, la fundación realiza diferentes actividades como la difusión por
medios digitales de diversas publicaciones, presentaciones y recursos Web destinados a mejorar la
calidad de la modalidad. Además, realiza conferencias anualmente en distintas ciudades de Europa
(generalmente en la sede de alguna institución-miembro) donde se abordan diferentes temáticas de
la enseñanza a distancia por medios electrónicos, y entrega los premios eQUALITY AWARD, que
tienen por objeto reconocer el merito de “todas las instituciones o personas que aporten soluciones y
sistemas de calidad que sean aplicados en las organizaciones”. (3)
Sin embargo, sin duda su mayor contribución ha sido la promoción y patrocinio de UNIQUe, que se
destaca como un sistema de evaluación de programas universitarios de e-learning que ofrece un
sello de calidad válido por un periodo de tres años (4). Esta iniciativa busca mejorar la eficiencia y
calidad de las actividades de educación virtual en el marco de la actual reforma de las instituciones
europeas de enseñanza superior.
Por ultimo, entre las instituciones y universidades miembros de EFQUEL pueden citarse: la
Universidad de Sofía (Bulgaria), la Athabasca University (Canadá), la University of Duisburg
Essen (Alemania), la University of Hildesheim (Alemania), la Universidad de Padova (Italia), el
Eurasian Opening Institute (Rusia), la Universidad de Salamanca (España), la Universidad de
Granada (España), la University of Reading (Reino Unido), la University of Northampton (Reino
Unido).
Si quieren tener más información de EFQUEL, pueden ingresar en: http://efquel.org/
(1) EUROPEAN FOUNDATION FOR QUALITY IN E-LEARNING (EFQUEL), en Revista Formación XXI, [s/a], [on line]. Disponible en:
http://formacionxxi.com/porqualMagazine/do/print/magazineArticle/20... [Consulta: 2014, 19 de octubre]
(2) http://efquel.org/aboutus/vision-mission/
(3) EUROPEAN FOUNDATION FOR QUALITY IN E-LEARNING (EFQUEL), op. cit.
(4) SISTEMAS DE EVALUACIÓN DE CALIDAD DE E-LEARNING, [s/a], en Campus Virtual de la Universidad Rey Juan Carlos, España, [on line].
Disponible en: http://storify.com/gertrudix/sistemas-de-calidad-elearning/embed?header=false [Consulta: 2014, 19 de octubre]
Guión Clase 12 - 22 de octubre de 2013
Objetivos
-Indaguen en algunos de los casos más significativos de universidades nacionales que adoptaron
campus virtuales tanto para brindar ofertas académicas “a distancia” como también para utilizarlo
como complemento de las clases “presenciales”.
-Reflexionen a través del estudio de los distintos casos seleccionados, acerca de los principales
elementos que intervienen en las opciones tecnológicas que tienen las instituciones educativas
para implementar “campus virtuales”.
El año 1999 marca el inicio del desarrollo de campus virtuales en las universidades públicas en
Argentina. Durante la década 2000-2010 proliferan las iniciativas hasta poder sostenerse que, en
la actualidad, la mayor parte de las universidades nacionales cuenta con un campus virtual en
funcionamiento o algún proyecto que supone su creación.
En esta clase analizaremos las distintas estrategias desplegadas en los procesos de selección de
diferentes opciones tecnológicas para la construcción de campus virtuales en algunas
universidades nacionales argentinas.
Por su parte, tanto la velocidad de los cambios como la interactividad inherentes a las TIC son
rasgos que deben considerarse para comprender los procesos que conducen a su utilización. En
efecto, la incertidumbre surge en este escenario caracterizado por la complejidad de un entorno
cada vez más abierto.
Se presenta a continuación una breve descripción de los casos, agrupados en función de los
diferentes tipos de software adoptados20.
20
Lo que sigue forma parte de un relevamiento de información realizado al año 2010.
21
Recordemos que un software propietario puede obtenerse mediante su compra o también se puede alquilar.
En el caso de la UNL y la UNNE la interacción con su contexto regional es una de las principales
características que las identifican. Así, la construcción de sus campus virtuales se inicia en el
marco de un “modelo” institucional de “universidad regional” en el cual predominan las carreras
orientadas a las necesidades regionales y a la producción22.
La puesta en marcha en el año 2000 de un “Plan de Desarrollo Institucional” (PDI) en la UNL, fue
una de las estrategias asumidas desde la política institucional de la Universidad que dio lugar a la
creación del “Programa de Educación a Distancia” (1999), que permitió el surgimiento del Centro
Multimedial de Educación a Distancia (CEMED) y con posterioridad la creación de la “UNL Virtual”
(2002).
La UNL concibe al campus virtual como una estrategia para ampliar la propuesta educativa de la
universidad junto con la posibilidad de favorecer las redes de vinculación con su contexto regional
inmediato.
Desde el equipo de gestión a cargo del CEMED la posibilidad de contratar los servicios de la
empresa proveedora de software e-ducativa estuvo vinculada a criterios que ponderaban la
cercanía física de la empresa y, junto a ello, la posibilidad de mantener contactos periódicos con
el equipo técnico para capacitar a los docentes de la universidad en el uso de la plataforma
tecnológica. Si bien la empresa proveedora ofrecía un producto cerrado, el convenio mantenido
con la universidad era relativamente flexible lo que permitió establecer eventuales modificaciones
y adaptaciones de la plataforma en función de requerimientos del equipo de gestión de la
universidad.
Así, el campus virtual de la UNNE se concibió para lograr una mayor presencia institucional de la
Universidad en la región a través de brindar una oferta al “alcance de todos”.
La opción por un tipo de plataforma tecnológica “propietaria” tuvo que ver directamente con el
crecimiento del Programa, con el aumento del número de destinatarios de las distintas ofertas y
con un proceso de toma de decisión de tipo “verticalista” que fue fundamental para consolidarlo.
Por su parte, tanto la UNQ como la UNTREF nacen como resultado de la iniciativa de políticos de
la zona en respuesta a las presiones de las comunidades locales en pos de tener una institución
universitaria en su jurisdicción. Así, la relación entre estas universidades y el entorno local fue el
centro que les dio origen y se corresponde, dada su juventud, con los momentos fundacionales de
sus respectivos campus virtuales.
22
Un rasgo común de las universidades nacionales en la Argentina es su denominación. Si bien hubo excepciones, lo observado se
mantiene como una tendencia general: un primer grupo de universidades con denominaciones regionales y un segundo grupo de
universidades con denominaciones provinciales. (García de Fanelli, 1997) Así, hasta la década de 1950, las “nuevas” universidades
tomaron nombres de regiones geográficas -Litoral, Cuyo, Sur, Nordeste- en las décadas de 1960 y 1970, por el contrario, prevalecieron
nombres de provincias -Catamarca, Entre Ríos, Jujuy, La Pampa, Misiones, Salta, San Juan, San Luis, Santiago del Estero- o de áreas
provinciales -Centro de la Provincia de Buenos Aires-. La mayoría de las universidades nacionales creadas entre los años 1988 y 1995,
en cambio, han adoptado nombres de ciudades dando una aparente primacía al valor de lo local por sobre lo provincial o lo regional
(García de Fanelli, op.cit.).
La UNQ23 en el año 1998 firmó un convenio con la Universidad Oberta de Catalunya (UOC) por el
cual la universidad española se comprometió a transferirle el conocimiento pedagógico acumulado
en entornos “virtuales” y el sistema informático del campus virtual.
Para viabilizar la implementación del campus, la UNQ constituyó una sociedad comercial -
“Campus Virtual S.A.”- junto a la empresa Netizen. Uno de los motivos que llevaron a la
conformación de esta sociedad radicaba en la escasa difusión de Internet en el país. En parte
para solventar esta limitación, la Universidad resolvió formar una “alianza estratégica” con dicha
empresa.
Se concibió al campus como una estrategia vinculada a ampliar no sólo la oferta educativa, sino
también las fuentes de financiamiento de la Universidad y posicionarla como pionera en este tipo
de ofertas “virtuales” en Argentina.
La opción por un desarrollo tecnológico “propietario” fue fundamental para crear la propuesta
virtual sobre todo teniendo en cuenta que tanto la UNQ como la UNTREF no contaban con
experiencia previa en “educación a distancia”, ni con investigadores o profesionales del campo de
la informática para crear plataformas propias.
La Universidad Tecnológica Nacional (UTN - sede rectorado) como la Universidad Nacional del
Sur (UNS) son algunas de las casas de altos estudios que adoptaron desarrollos basados en
software libre (open source) en sus campus virtuales para utilizarlo principalmente como
complemento de la actividad “presencial”.
23
No obstante, a raíz de la crisis desatada en el país en el año 2001, producto del quiebre del modelo de convertibilidad monetaria, el
vínculo entre la UOC y la UNQ se debilitó. El abrupto giro en el tipo de cambio hizo que esa universidad argentina no pudiera sostener
el entorno. Si bien se logró renegociar la deuda con la UOC, la plataforma tecnológica no recibió más actualizaciones. Así, entre los
años 1999 y 2004 solo se cuenta con una actualización menor del “campus virtual” de la UOC. Desde el año 2002, la empresa Netizen
desarrolla un “campus virtual” a pedido de la UNQ denominado “campus nUEVo” que recién se implementa en el año 2004.
A fines del año 2003 se produce el cambio de las máximas autoridades de la UNQ. La nueva gestión de la Universidad encaró un
proceso de liquidación de la empresa “Campus Virtual S.A.” y a partir de entonces todos los procesos académicos, administrativos y
tecnológicos de la Universidad “Virtual” pasaron a depender de la Secretaría Académica de la UNQ y de los órganos colegiados de
gobierno de la Universidad. A principios del año 2006, la investigación de alternativas didácticas y tecnológicas ha sido una tarea
constante. Así en ese año, bajo el impulso del Rector de la UNQ, se creó el “Programa de Investigación, Desarrollo y Aplicación de
Entornos Virtuales para la Educación Superior” (PIDA EVES-Q) donde tuvieron lugar procesos experimentales de diverso tipo pero
básicamente orientados hacia nuevos desarrollos tecnológicos tanto de distribución libre como de distribución comercial. Las pruebas
“piloto” con distintos tipos de desarrollos tecnológicos finalizaron a principios del año 2007 cuando se decidió adoptar la plataforma de
software libre Moodle que es la que actualmente continúa utilizando.
Más información: http://www.revistacts.net/files/Portafolio/tesis%20doctoral%20Luciana%20Guido.pdf
La UTN con 24 Facultades Regionales y 5 Unidades Académicas abarca distintas regiones del
país. La Universidad tiene a las ingenierías como objetivo central de su oferta. Cada Facultad
tiene su propia autonomía para tomar decisiones, tanto en lo académico, en lo administrativo y en
lo tecnológico.
La iniciativa estuvo vinculada, desde los inicios, a la posibilidad de que la virtualidad se utilice
como “extensión de la presencialidad”. Otro de los motivos que se contemplaron para crear el
campus fue el de lograr algún nivel de integración entre las distintas facultades.
En consonancia con el perfil regional y con un alto grado de know how en el campo de la
informática, la opción por el software libre “Moodle” se ligó no sólo a la “superioridad técnica” que
se piensa que tienen este tipo de desarrollos de código fuente abierto, sino a la amplia comunidad
de desarrollo con la que cuenta que permite que se mantenga permanentemente actualizado.
Además, fue una ejecución muy económica en términos del equipamiento y el tiempo requeridos
ya que implementar un campus virtual llevó a la sede del rectorado alrededor de 48 horas.
La toma de decisiones de tipo “verticalista” fue la característica del proyecto, ya que las líneas de
acción relativas al campus virtual pasan por la sede del rectorado de la Universidad.
La UNS presenta una estructura académica basada en la organización departamental. Al igual que
en el caso de la UTN el mayor porcentaje de sus graduados proviene de las carreras de ingeniería
que imparte. Así, la Universidad también tiene un significativo know how acumulado en el área de
informática que se evidencia no sólo en su perfil “tecnológico”, sino también en su fuerte
trayectoria en incorporación de TIC.
En el año 2004 se crea la Secretaría General de Posgrado y Educación Continua dependiente del
rectorado que crea el campus virtual de la UNS. El campus surge relacionado a la idea de
sustentar la formación permanente de sus graduados y como complemento de las actividades
“presenciales” de la universidad.
La opción por un software que fuera open source se realizó teniendo en cuenta que se trataba
para el momento de un desarrollo progresivamente más estable en el campo de la informática. El
no contar con recursos humanos suficientes que pudieran emprender la tarea de llevar a cabo un
desarrollo tecnológico propio fue otro de los elementos que se sopesaron al momento de optar por
un software libre. Así, se privilegió el know-how que tenían algunos de los integrantes del equipo
de gestión del software “libre” ILLIAS para continuar con ese tipo de desarrollo para el campus.
En forma paralela a la discusión sobre qué tipo de aplicaciones informáticas debía tener el
desarrollo tecnológico de la Universidad, se generó un modelo pedagógico didáctico que permitía
atender necesidades emergentes de las unidades académicas de la universidad a través del
consenso con la Comisión de Educación a Distancia formada en los inicios del campus.
Por su parte, el proyecto inicial del campus virtual de la UNLP lo desarrollan docentes e
investigadores pertenecientes al Laboratorio de Investigación y Desarrollo en Informática (LIDI) de
la Facultad de Informática, en el ámbito de una Maestría en Tecnología Informática Aplicada en
Educación dependiente de esa Facultad.
Tiempo después y a partir de un proceso decisorio de tipo “de abajo hacia arriba”, se asienta a
nivel de la presidencia de la universidad y se ofrece optativo a todas las Facultades de la UNLP
adoptando el nombre de WebUNLP. Así, el desarrollo tecnológico gestado en el laboratorio logró
pasar de ese ámbito a depender de la Facultad de Informática y con posterioridad a ser el
adoptado por la presidencia como el campus virtual de la UNLP.
La opción por un desarrollo propio fue viable dado que existía un grupo de docentes-
investigadores interesados en generar un proyecto de investigación asociado a la producción de
software. La opción por open source no se dio dado que en ese entonces dichas plataformas
tecnológicas no contaban con un desarrollo de la magnitud que tienen en la actualidad y
contradecían algunos de los abordajes más difundidos sobre ingeniería de software. Para las
plataformas de software libre las etapas de análisis y desarrollo no son las más relevantes, siendo
una de las cuestiones más importantes la interacción constante y la agilidad para compartir las
mejoras y actualizaciones. En tal sentido, el “marco tecnológico” imperante en el contexto del LIDI
legitimaba una forma de desarrollar ligada a las metodologías estructuradas.
2. Consideraciones finales
Cada una de las universidades analizadas partió de cierta concepción acerca de lo que es un
campus virtual que influyó en el tipo de tecnología seleccionada.
La preocupación por ampliar la oferta educativa fue uno de los principales detonantes que
condujeron a la construcción de un campus virtual en los casos en que se adoptó software
“propietario”. Estos proyectos concibieron a sus campus virtuales como vías para ampliar la
influencia geográfica de la universidad a los ámbitos local, regional o internacional.
Otra de las condiciones que estabilizó esta opción estuvo vinculada a que hubo un proyecto
institucional diseñado desde los niveles centrales de la universidad.
Por último, tales propuestas educativas son aranceladas lo que constituye un insumo para
diversificar sus fuentes de financiamiento.
Contar con un software “propietario” permitió desligarse -en algunos casos más que en otros- de
las responsabilidades “técnicas” del campus, tales como la administración de la plataforma
tecnológica, el hosting, las actualizaciones, el alojamiento de los servidores, entre otras.
Los casos que adoptaron el software “libre” para sus campus virtuales los crearon como una
estrategia para viabilizar sus propuestas de educación continua o para “extender la
presencialidad” y colaborar con la integración entre diversas sedes regionales, como en el caso de
UTN. La diferencia respecto de quienes optaron por un software de tipo “propietario” radicó,
principalmente, en que no concibieron al campus como un recurso para ampliar su oferta de
titulación o como fuente de financiamiento alternativa.
Así, se ponderaron otros elementos a la hora de optar por el uso de un software open source.
Entre ellos: evitar el costo que demandaría el pago de la licencia de un software propietario;
sortear las limitaciones acarreadas por el escaso número de personal de gestión para encarar un
desarrollo tecnológico propio; acceder al código fuente para hacer modificaciones e incorporar los
avances en el desarrollo técnico.
Cabe destacar que en los años en que este grupo de iniciativas comenzaron sus campus
virtuales, el software libre había alcanzado una estabilidad inexistente pocos años antes, lo que se
verifica en una gran “comunidad” de desarrollo que asegura la robustez del software, su
actualización y mejora permanente.
El hecho de no ofrecer titulaciones (dado que se usa el campus como complemento de clases
presenciales) y, por ende, no necesitar mayor infraestructura técnica, de mantenimiento y personal
a cargo para las tareas que demanda una matrícula estudiantil ampliada, fueron elementos clave
para la elección de una plataforma tecnológica basada en open source.
Por último, las universidades que desarrollaron un software propio se caracterizan por contar con
equipos del área de informática o de ciencias de la educación con trayectoria en el estudio de la
relación entre TIC y educación. En estos casos, los proyectos de campus virtual se orientan al
desarrollo de un perfil propio y de una plataforma que involucre los aspectos pedagógicos como
parte de su desarrollo. Se apuntó a la implementación de cambios técnicos y pedagógicos
graduales, de largo alcance y sustentables en el tiempo.
El campus virtual en estos casos es interpretado como un objeto de investigación informático por
parte de equipos interesados en la incorporación del desarrollo de este artefacto en sus proyectos
y actividades académicas.
3. Recapitulando…
En tal sentido, las “lógicas” con que fueron concebidos determinados problemas y sus respectivas
soluciones, hizo lugar a ciertas opciones técnicas y no otras.
A su vez, dichas “lógicas” también se vinculan a los diversos significados que se construyeron en
torno a la creación de los campus.
En efecto, los diferentes sentidos que se dieron en la opción por un software propietario
privilegiaron una mirada instrumental sobre la tecnología. Mientras que las universidades que
adoptaron plataformas tecnológicas basadas en software libre crearon sus campus virtuales
desde una concepción que privilegia la superioridad técnica del open source que se supone
garantiza su eficiencia constante. Por el contrario, en los casos donde las plataformas
tecnológicas se originan a través de procesos de investigación, fue la mirada colaborativa la que
prevaleció al momento de optar por el desarrollo de un campus virtual. A diferencia de los casos
en que la elección es el software propietario, la tecnología es vista como un proceso y no como un
producto concluido. Además, dado que se asocia al perfil identitario de la Universidad, el
desarrollo tecnológico se vuelve significativo en sí mismo.
Objetivo
- Indaguen desde una perspectiva política pedagógica, el marco normativo que regula la educación
a distancia para el nivel superior en Argentina.
En efecto, la mencionada ley establece en ocho artículos agrupados en un título específico sus
características, alcances, así como los requisitos y el circuito operativo para la validez de los
títulos y certificaciones de los estudios con modalidad a distancia. Allí se la define como una
opción pedagógica y didáctica aplicable a distintos niveles y modalidades del sistema educativo
nacional, “. que coadyuva al logro de los objetivos de la política educativa y puede integrarse tanto
a la educación formal como a la educación no formal” y “......donde la relación docente-alumno se
encuentra separada en el tiempo y/o en el espacio, durante todo o gran parte del proceso
educativo, en el marco de una estrategia pedagógica integral que utiliza soportes materiales y
recursos tecnológicos diseñados especialmente para que los/ as alumnos / as alcancen los
objetivos de la propuesta educativa”. A su vez, prevé el diseño de estrategias conjuntas entre las
jurisdicciones para avanzar en criterios de calidad y en la definición de mecanismos de regulación
pertinentes.
Sin embargo es en la apreciación de sus alcances donde se advierten las diferencias más
sustantivas. En tal sentido, la Ley de Educación Nacional considera la educación a distancia como
una opción pedagógica capaz de promover una efectiva igualdad de oportunidades para todos los
estudiantes, resalta su trascendencia como una alternativa genuina para la inclusión educativa de
jóvenes y adultos. Ello implica colocar a los estudios a distancia en situación de igualdad con la
opción presencial y rescatar su valor y proyección en la actual sociedad del conocimiento.
En reglamentación del artículo citado, el Poder Ejecutivo Nacional dicta el Decreto Nº 81/1998,
delegando en el Ministerio de Educación el dictado de las normas necesarias para la
implementación de la modalidad a distancia en las universidades y designándolo como órgano de
aplicación de las disposiciones del artículo 74 y otorgándole facultades para dictar pautas e
instructivos específicos para la modalidad identificada como “educación a distancia”.
Para lectura obligatoria: Recomendamos la lectura de las siguientes normativas que ofrecen un
panorama sobre las reglamentaciones sobre la educación a distancia en el país:
A principios de la década de 1990 se fue gestando una nueva agenda de problemas universitarios
que le asignaba un lugar prioritario a aquellos vinculados con la administración y gestión del
presupuesto, las políticas de admisión de los estudiantes, las formas de remuneración del
personal docente y no docente, el lugar de la investigación y la conformación de la oferta
curricular, entre otros.
A fines del siglo XX dos hitos marcaron el proceso de planificación de cambios en la Argentina: la
creación de la Secretaría de Políticas Universitarias (SPU) en el año 1993 y la sanción de la ya
mencionada Ley Nº 24.521 de Educación Superior (LES) en el año 1995. La LES, es una norma
que por primera vez en la historia del país regula el conjunto de la educación superior y no sólo las
universidades nacionales. Asimismo, sienta las reglas básicas para el ordenamiento y
transformación del sistema de educación superior dejando la definición de los aspectos
particulares a los estatutos y resoluciones de cada institución. Su carácter de norma básica ha
exigido la posterior sanción de una serie de decretos reglamentarios necesarios para su desarrollo
y aplicación.
Además dicha LES plantea la posibilidad de llevar adelante modelos de organización y gestión
diferentes a aquellos característicos de los formatos tradicionales y autoriza la creación y
funcionamiento de otras modalidades de organización universitaria previstas en el artículo 24 de la
ley 24.195 “(…) que respondan a modelos diferenciados de diseño de organización institucional y
de metodología pedagógica, previa evaluación de su factibilidad y de la calidad de su oferta
académica, sujeto todo ello a la reglamentación que oportunamente dicte el Poder Ejecutivo
nacional” (Ley 24.521, art. 74).
En tal sentido, fue en el año 1998 cuando mediante un Decreto del Poder Ejecutivo Nacional (Nº
81/1998) se dispuso que la reglamentación de los estudios genéricamente denominados “a
distancia” “sería atributo del, por entonces Ministerio de Cultura y Educación. No obstante, la
Resolución Ministerial 1717/2004 deja sin efecto la regulación del artículo 74 de la LES,
estableciendo condiciones adicionales e intentando circunscribir el sentido de las modalidades “a
distancia”.
Por otro lado, en relación al sostenimiento y régimen económico financiero, si bien la LES
establece que corresponde al Estado nacional asegurar el aporte financiero para el sostenimiento
de las instituciones universitarias nacionales, permite a éstas dictar normas relativas a la
generación de recursos adicionales a los aportes del tesoro nacional (Artículo 59, c, Ley 24.521).
“En términos generales se puede señalar que el carácter de las propuestas que se introdujeron se
orientan hacia el estímulo a la diferenciación entre individuos e instituciones, al mismo tiempo que
el Estado, que se reserva teóricamente un papel regulador y evaluador, aparece cada vez más
teniendo un carácter interventor” (Krotsch, 2001: 165 citado en de Donini y Donini, 2004: 310).
Para Altbatch (1999) la universidad enfrenta desafíos sin precedentes. Las dificultades varían de
país en país pero hay pocas partes en el mundo en las que la academia desafía al futuro con
confianza. En todas partes, se preguntan sobre el gasto público para la educación superior y se
registra, asimismo, una tendencia a privatizar las universidades públicas – asignar una parte
significativa del costo de instrucción a los estudiantes y requerir a la institución que desarrolle
otras estrategias productoras de ingresos. Como respuesta, las universidades han incrementado
los aranceles, cobrando por el uso de las instalaciones, construyendo nexos con la industria, entre
otros esfuerzos. Las instituciones académicas privadas también han crecido en importancia
internacionalmente.
Las propuestas de estos nuevos portavoces sostienen que la condición para que las economías
periféricas se inserten en las nuevas condiciones del mercado internacional, radica en lograr una
mayor articulación del conocimiento con el desarrollo productivo. Esto contribuye, a su vez, con el
proceso de “mercantilización” de la educación superior. Se produce un serio cuestionamiento
sostenido desde los organismos financieros internacionales hacia la universalidad, la igualdad y la
gratuidad de los “servicios sociales”. El mismo se apoya en argumentos extraídos del ámbito
empresarial, en el que priman los factores de costos/beneficios. Se desprende de ello la
necesidad de favorecer la iniciativa privada para buscar formas de financiamiento alternativas y la
reorientación del presupuesto intersectorial.
En este escenario, es necesario situar a las universidades en relación con sus vínculos con el
mercado. En tal sentido, dichas instituciones han asumido nuevos roles que son distintos a su
tradicional misión de enseñanza e investigación y que para algunos marca el pasaje hacia la
“universidad empresarial” (Etzkowitz y Webster 1998). Así, tienden a incluir otras actividades –
además de la enseñanza y la investigación- de investigación y desarrollo (I+D), distintos tipos de
transferencia de conocimientos –tales como vinculación con el medio, consultorías y servicios-,
entre otros.
Además, en este marco signado por múltiples transformaciones, se modifica la misión institucional
de las universidades ampliando sus alcances territoriales por medio de la generación de
propuestas “virtuales” de enseñanza.
A partir de la expansión de las TIC y las transformaciones que su inclusión generó en los
proyectos de educación, dando lugar a las primeras iniciativas de la educación “virtual”, las
universidades y el Ministerio acordaron revisar la estructura legal y fue en este marco en que se
aprobó, en diciembre del año 2004, la ya mencionada Resolución Nº 1717/2004. Esta resolución
constituye el marco normativo que controla en la actualidad la oferta de la educación a distancia.
Se refiere tanto a nivel de grado como de posgrado y hoy se encuentra en revisión en un proceso
en el que participan también representantes de las universidades nacionales agrupados en la
RUEDA (Red Universitaria de Educación a Distancia de Argentina), órgano que ya referenciamos
en la Clase 11.
Encuadre Institucional
Proceso de expansión y desarrollo de la “EAD” tanto en instituciones educativas de gestión
pública como privada.
Involucra la generalización de la introducción de TIC junto con los avances en propuestas
metodológicas innovadoras y el interés y necesidad en ampliar y diversificar las ofertas
educativas.
Marco operativo
Define a la “EDUCACION A DISTANCIA” como una modalidad educativa no presencial, que
propone formas específicas de mediación de la relación educativa entre los actores del proceso de
enseñanza y de aprendizaje, con referencia a determinado modelo pedagógico.
Dicha mediatización se realiza con la utilización de una gran variedad de recursos, especialmente,
de las TIC y redes de comunicación, junto con la producción de materiales de estudio, poniendo
énfasis en estrategias de interacción.
También comprende propuestas de enseñanza semipresencial, no presencial, abierta,
educación asistida, flexible, aprendizaje electrónico (e-learning), aprendizaje combinado (b-
learning), educación virtual, aprendizaje en red (network learning), aprendizaje o comunicación
mediada por computadora (CMC), cibereducación, teleformación y otras que reúnan las
características mencionadas precedentemente.
La institución que se proponga desarrollar ofertas educativas a distancia deberá asegurar una
organización académica de seguimiento, gestión y evaluación específicas.
En el proceso de diseño y ejecución de una propuesta, deberán tenerse en cuenta las
posibilidades de la institución que ofrece el programa
En ningún caso el reconocimiento oficial y la validez nacional otorgados hasta el presente o
que se otorguen en el futuro a un título que prevea su desarrollo mediante la modalidad
presencial, implicará el reconocimiento y validez del mismo si la carrera se cursara mediante la
modalidad a distancia.
Como condiciones generales para los programas o carreras bajo la modalidad de educación a
distancia, se establece que:
b) Las carreras de grado incorporadas al régimen del Artículo 43 de la Ley Nº 24.521 y las
carreras de posgrado, serán evaluadas con carácter previo en los aspectos técnicos conforme a la
presente norma y, posteriormente, por la COMISIÓN NACIONAL DE EVALUACIÓN Y
ACREDITACIÓN UNIVERSITARIA (CONEAU), a los efectos de su acreditación en el marco de la
normativa vigente en la materia.
Finalmente, el Anexo de la norma define cuáles son los componentes principales, estableciendo
para cada uno requisitos mínimos. Ellos son: