Professional Documents
Culture Documents
VENEZUELA
Autores:
Ing. Ingmar B. Ramírez P. CI Nº V-6.556.963
Ing. Jessi E. Latorre Q. CI Nº V-5.151.696
Tutor:
Ing. Daniel Luzardo CI Nº V-5.971.339
Master Administración de Empresas, IESA
Especialista en Equipos Rotativos, USB
--------------------------------------------------------------------------------
--------------------------------------------------------------------------------
Dedicatorias
Mari Pili, por ser una gran compañera, apoyo y esposa (Jessi).
Daniel Alejandro, Jesús David y María Carolina; mis hijos, mi inspiración (Jessi).
A mis padres, quienes siempre creyeron en mí (Jessi).
A mis suegros que siempre me apoyaron en todo (Jessi).
--------------------------------------------------------------------------------
Agradecimientos
Agradecemos sinceramente:
--------------------------------------------------------------------------------
Titulo del proyecto: Estudio y propuesta para implantar una unidad de inteligencia
financiera en Venezuela.
Nombre de los autores: Ingeniero Ingmar Bayardo Ramírez Pérez e Ingeniero Jessi
Ernando Latorre Quintero.
iramirez@une.edu.ve, http://www.une.edu.ve/iramirez
jesselatorre@hotmail.com, http://www.geocities.com/jesselatorre.
Números telefónicos de los autores: +58 14 320.03.64; +58 2 2618927; +58 2
782.86.96 y +58 16 622.59.39
daniel@etheron.net; http://www.une.edu.ve/~dluzardo.
Número telefónico del tutor: +58 2 204.11.51; +58 16 611.23.35
--------------------------------------------------------------------------------
--------------------------------------------------------------------------------
Tabla de contenido
Introducción
Capítulo I
El problema de investigación
Objetivos
Objetivo General
Objetivos específicos
Justificación
Delimitación
Limitaciones
Capítulo II
Marco teórico
Antecedentes
La opción policial
La opción judicial
La opción administrativa
Redes y protocolos
Protocolos TCP/IP
DNS y direcciones IP
Protocolo UDP
La propuesta
Hipótesis
Variables del sistema
Glosario de términos
Capítulo III
Marco metodológico
Clasificación de la investigación
Población y muestra
Capítulo IV
Recursos a utilizar
Conclusiones
Conclusiones
Bibliografía
Referencias bibliográficas
Notas auxiliares
Apéndices
Gopher
Sistemas operativos
Tecnología ADSL
Anexos
Buscadores
Metabuscadores
The Internet multicast from ITS: How it was done and implications for the future
Carta magna
Linux (artículo I)
Servidores (artículo I)
Redes virtuales
--------------------------------------------------------------------------------
Introducción
El presente trabajo de tesis de grado, tiene como finalidad poder presentar los
resultados y conclusiones obtenidos por los tesistas, de un estudio gerencial que
permite exponer los mecanismos y actividades que consideraron de importancia y
necesarias para poder implantar la denominada “Unidad de Inteligencia Financiera”
(UIF) en Venezuela. Para lo cual fue necesario considerar la actualidad política,
social y económica de la nación con la finalidad de entregar un producto
(propuesta) viable técnica y económicamente, haciendo uso de un programa de
gestión de los recursos disponibles para lograr resultados reales, confiables,
efectivos y eficientes en tiempo y espacio. Los resultados del presente estudio
servirán de base teórica para generar las recomendaciones necesarias que serán
presentadas ante el Congreso de la República Bolivariana de Venezuela para su
posterior evaluación y ejecución, siempre considerando los posibles cambios que se
puedan emanar del marco jurídico de la nueva constitución que se discutió en el
seno de la Asamblea Nacional Constituyente (ANC) y que con la ayuda de Consejo
Nacional Electoral fue aprobado en un referéndum consultivo popular por el pueblo
venezolano el 15 de diciembre de 1999 como la futura carta magna.
En el presente documento se utiliza una terminología propia del tema y aceptada
con alcance internacional por los organismos mundiales relacionados con el medio;
por lo tanto, se hace necesario identificarse con la terminología para poder
comprender con mayor claridad la tesis en todos sus aspectos. En primer lugar, es
importante y necesario acotar que los términos ‘Lavado de Dinero’ o ‘Blanqueo de
Dinero’ presentaban problemas de aceptación y alcance jurídico en los marcos
legales nacionales e internacionales; por tal motivo los organismos
internacionales establecieron y dieron aceptación legal, correcta y de alcance
internacional al término ‘Legitimación De Capitales’[1] .
--------------------------------------------------------------------------------
Capítulo I
El problema de investigación
Es por ello que se hace necesario establecer un esquema de supervisión que permita
detectar esta actividad de legitimación de capitales, así como mecanismos de
control y represión que permitan eliminar y penar estas actividades ilícitas. Pero
para poder detectar estas actividades se necesita de una plataforma tecnológica
que garantice la disponibilidad de información real y confiable en forma oportuna.
¿Cuáles deben de ser las herramientas y recursos mínimos necesarios que deberán
ser considerados, utilizados e instalados para poder crear la UIF (Unidad de
Inteligencia Financiera) en Venezuela y así poder disponer de una plataforma que
permita detectar en forma eficiente los distintos mecanismos de enriquecimiento
ilícito para que puedan ser procesados por el sistema legal venezolano?
Objetivos
Objetivo General
Establecer y generar las recomendaciones con relación a cuales serían los mejores
mecanismos que deberían utilizarse para instalar y poner en operación la Unidad de
Inteligencia Financiera en Venezuela, con la finalidad de hacerla eficiente de
acuerdo a los recursos tecnológicos disponibles en el mercado y en concordancia
con los programas de austeridad económica que maneja en la actualidad el gobierno
nacional, conservando la legitimidad establecida por el sistema legal venezolano
que actualmente se encuentra en período de ajuste mediante el esquema de la nueva
constitución planteada por la ANC (Asamblea Nacional Constituyente) ya extinta.
Objetivos específicos
Justificación
Delimitación
El resultado del presente proyecto sentará las primeras bases que servirán para
comprender y hacer las recomendaciones necesarias para el establecimiento de una
unidad de trabajo cuya meta es la de la lucha contra legitimación de capitales en
Venezuela; estos resultados y recomendaciones se discutirán en el Congreso de la
República para su aprobación e inmediata ejecución.
Limitaciones
--------------------------------------------------------------------------------
Capítulo II
Marco teórico
Antecedentes
Las declaraciones obligatorias formuladas por las personas y entidades regidas por
la ley.
Las diversas bases de datos informatizados a las que pueda tener acceso.
Los intercambios de información con otros servicios de lucha u otras
administraciones.
Las declaraciones obligatorias
Algunas legislaciones han previsto un sistema en virtud del cual las personas y
entidades regidas por la ley (con mayor frecuencia los organismos bancarios o
financieros) deben declarar sistemáticamente al servicio encargado de procesarlas
el conjunto de las operaciones que de ordinario son los vectores de legitimación
de capitales: transacciones en dinero efectivo, importación o exportación de
divisas, transferencias de fondos de estado a estado, etc el servicio central se
encargará entonces, al analizar el conjunto de los datos recopilados, de detectar
directamente las operaciones sospechosas.
Una solución para disminuir la cantidad de información es fijar una cuantía por
debajo de la cual las declaraciones no son obligatorias. Los Estados Unidos han
fijado 10.000 dólares americanos, lo que ha permitido "contener" el volumen de
información a las cifras indicadas supra. Sin embargo la reacción de los
legitimadores de capitales no se hizo esperar y enviaron a los bancos multitudes
de pequeños depositantes, que depositaban sumas inferiores al tope fijado, en
diferentes cuentas de un gran número de bancos. Las sumas se concentran luego
mediante una transferencia a una cuenta central y después se remiten al extranjero
para continuar el ciclo de legitimación de capitales. Es la técnica del
"fraccionamiento", que ahora se combate con otras medidas y medios.
No obstante, esta opción es la adoptada por la mayor parte de los estados. Ella
implica una participación activa de los bancos y de los profesionales que
intervienen, pero esta participación satisface tanto al sector financiero y
bancario, que no desea convertirse a pesar suyo en instrumento de organizaciones
delictivas, como a las autoridades gubernamentales, que quieren fundar una
autentica asociación en la lucha contra el blanqueo y estimular a los
profesionales a "lavar su ropa sucia en casa", más que a imponer autoritariamente
un mayor control sobre sus actividades.
En efecto, la falta de formación del personal designado por la ley puede tener una
repercusión directa sobre la eficacia del conjunto del sistema de declaraciones de
sospecha y dar lugar a:
En cuanto a las cifras de las declaraciones que han dado lugar a enjuiciamientos
penales, éstas no aportan elementos de respuesta complementarios. Las diferencias
de un país a otro pueden encontrar explicación en la eficacia de las medidas
preventivas adoptadas por las autoridades superiores, en la eficacia de las
medidas preventivas adoptadas por las autoridades superiores, en la eficacia de
las medidas o la importancia de los medios de la investigación, en la gama de
operaciones abarcadas por la infracción de legitimación de capitales, etc. No cabe
duda que el porcentaje de éxito es muy reducido, a pesar de los medios empleados y
su magnitud. A juicio de los interlocutores que se entrevistaron para efectuar el
presente estudio, en la actualidad el problema central ya no consiste forzosamente
en identificar los casos de legitimación de capitales, sino en probar
judicialmente la infracción, identificar a los autores y lograr que sean
condenados.
Cada vez más estados se basan en análisis de las informaciones procedentes de las
bases de datos informatizadas para luchar eficazmente contra el bloqueo. El acceso
a esas bases de datos permite sostener y potenciar las sospechas presentadas a los
organismos centrales, como también desbaratar los montajes financieros complejos
que caracterizan a las operaciones de blanqueo, establecer el vínculo entre una
operación y una persona determinada, y confirmar las fuentes de información. Así
pues, Australia y los Estados Unidos se han apoyado en el desarrollo de poderosas
bases de datos, que a su vez están interconectadas con otras bases de datos
externas que alimentan a las primeras y a las que tienen acceso los servicios
antibloqueo, para tramitar mejor los volúmenes de información que reciben y
desempeñar lo más eficazmente posible la función de filtro que sus legislaciones
nacionales no han atribuido a los bancos.
A pesar de todo, para permitir este intercambio de informaciones, los estados han
firmado, en cada caso, acuerdos bilaterales de servicio a servicio. Eso no es
satisfactorio, porque se sabe que las transferencias internacionales de fondos
constituyen uno de los métodos básicos del blanqueo, y que la información sobre
esos movimientos queda confinada dentro de las fronteras de los estados. En la
actualidad, parece ser que la comunidad internacional quiere movilizarse para
poner en debido orden esos asuntos, como da testimonio la iniciativa reciente del
Grupo Egmont.
Las técnicas de análisis de esta información bruta son diversas: el análisis puede
ser sistemático y cruzado con otras fuentes de información: bases de datos de
servicios de policía, repertorio de sociedades, etc. El análisis puede efectuarse
por objetivos, en función de criterios inherentes a la persona (nacionalidad,
antecedentes judiciales, etc.) o a la propia operación, que dan un carácter
"sensible". Por último, la selección puede hacerse en forma aleatoria o por
muestreo. Pero esta información también puede quedar en estado bruto, luego
captarla o no por medios informáticos, y servir de prueba o de medio de
investigación en una etapa ulterior, cuando el servicio haga investigaciones sobre
una red de legitimadores de capitales o sobre mecanismos de legitimación de
capitales muy complejos.
La opción policial
Esta opción es empleada en países como: El Reino Unido, Italia, Alemania, Japón,
Suecia, Austria o Finlandia.
La opción judicial
Sin embargo, esa opción judicial presenta dos inconvenientes importantes, que son
la falta de medios operacionales de la institución para organizar y centralizar la
información y la falta de una verdadera red internacional que rápidamente permita
rastrear las operaciones de legitimación de capitales transfronterizas.
Esta opción es la empleada por países como: Portugal, Dinamarca, Suiza, Islandia y
Luxemburgo.
La opción administrativa
Esta opción es la empleada por países como: Estados Unidos, Francia, Australia,
Mónaco o Eslovenia.
Es posible agrupar de la siguiente manera las atribuciones que pueden tener los
organismos de lucha contra la legitimación de capitales:
La ONU considera que estas organizaciones de delincuencia son “... todas ellas de
complejidad creciente, con gran actitud de aprender y adaptarse, con sentido de
visión estratégica. Organizaciones caracterizadas por su complejidad y
flexibilidad de estructura orgánica, elástica y eficiente, con técnicas de gestión
eficaces, con programas de investigación y desarrollo” [14].
Las unidades administrativas en contacto directo con los clientes son los nodos de
la Red Bancaria y financiera, por lo que tienen las responsabilidades y funciones
más importantes en el nivel operativo, para realizar las actividades de
prevención, control y fiscalización sobre las operaciones o transacciones que
puedan ser utilizadas para la comisión del delito grave de legitimación de
capitales. En tal sentido deberán rápida y diligentemente reportar a la unidad
contra la legitimación de capitales, la información a que haya lugar cuando ocurra
alguna de las siguientes situaciones[18]:
Situación sospechosa del cliente. Los datos suministrados por el cliente son:
Incompletos.
Parcial o totalmente erróneos.
Suministrados en forma renuente o con duda.
Difíciles de verificar o de verificación costosa para el Banco.
Soportados en documentación deteriorada, anormal, sospechosa o de verificación
lenta.
Actúan a nombre de otra(s) persona(s) y ocultan la identidad e información sobre
quien(es) ordenan la operación.
En el caso de empresas, aquellas que se rehúsan a demostrar con documentos legales
su razón social u objeto comercial, domicilio comercial, o la identificación legal
y plena de sus accionistas, directivos o apoderados.
Accionistas, directivos o apoderados que evitan el contacto personal con empleados
del banco.
Tanto en el caso de personas naturales como jurídicas, cuando no suministran
información sobre actividades bancarias o financieras previas.
Tanto en el caso de personas naturales como jurídicas, cuando la información sobre
las actividades bancarias o financieras anteriores o en ejecución se desarrollen
en países no signatarios de la convención de Viena, o en países considerados
“paraísos fiscales”, los estados o territorios cuya legislación es estricta en
cuanto al secreto bancario, de registro y comercial, o que se caracterizan por la
escasa o nula tributación.
Carentes de trayectoria laboral, ocupacional o empresarial, sin actividad
económica actual definida, pero que realizan transacciones con montos
significativos.
Actuación sospechosa del cliente. En la actuación de los clientes se observa que:
Detienen la realización de la operación bancaria o financiera al exigírseles dar
fe del origen y el destino lícito de los fondos.
Tienen conducta anormal: nerviosismo, ansiedad, excesiva prisa, etc.
Dudan continuar con la operación al informarle que ésta será reportada.
Alegan ser funcionarios de organismos gubernamentales o actuar en nombre de éstos.
El cuarto nivel: está conformado por el comité de los Ministerios respectivos como
son: Ministerio de Finanzas (MF), Ministerio de Relaciones Interiores y Justicia
(MRIJ), Ministerio de la Defensa (MD), Ministerio de Minas e Hidrocarburos (MMH),
Ministerio de Industria y Comercio (MIC) y el Ministerio de Estado para la CNA
principalmente. El cual se reunirá cada cierto tiempo designado (por ejemplo cada
3 meses) y junto con el coordinador de la red, quien fingirá de secretario
ejecutivo, a fin de evaluar la red y de sus respectivos organismos, conocer las
tendencias y problemas de la misma para diseñar los lineamientos a seguir, su
función es diseñar estrategias de acuerdo al análisis situacional.
El tercer nivel: está integrado por la unidad de legitimación de capitales creadas
por los respectivos organismos que la integran, es completamente operativo y
rendirá cuenta de su gestión al Ministerio asignado (por ejemplo al Ministro de
Estado de la CNA).
El segundo nivel: está integrado por los sujetos obligados por ley a cumplir con
las normas de cuidado, y autoprotección para evitar y minimizar la legitimación de
capitales.
El primer nivel: está integrado por los clientes o usuarios de las instituciones
privadas o públicas que le prestan sus servicios y donde existen las mayores
probabilidades de legitimación de capitales, lo cual no excluye a los integrantes
del segundo nivel cuando hay complicidad, negligencia o imprudencia.
Protocolos TCP/IP
Introducción
Generalidades
Adoptado por la red ARPANET del departamento de defensa de USA a principios de los
70
Incluido en la versión 4.2 del UNIX de BERKELEY en los primeros años 80
Protocolo militar estándar en USA en 1983
Motivos de su popularidad
Las redes locales son comunes en las empresas y las organizaciones. Las redes
locales permiten compartir recursos como impresoras, módem o disco de
almacenamiento entre las computadoras conectados a al red. La ilustración número 3
muestra una red sencilla de un servidor y dos clientes compartiendo recursos al
estar conectados. Existen distintas tecnologías aplicadas a la red de área local,
encontrándose entre las más extendidas la Ethernet, Token Ring, SNA, DECNET.
Un usuario (red, cliente o servidor) que trabaja en Internet tiene una dirección
IP única. Una dirección IP es una dirección lógica que se identifica con un número
de 32 bits que normalmente se escribe en formato decimal como cuatro enteros entre
0 y 255, cada uno de los grupos enteros se encuentran separados por puntos
(192.112.36.5); es así como la dirección IP permite el encaminamiento de la
información a través de la Internet sin que esta información se pierda o llegue a
otros destinos distintos.
Cada router sólo necesita saber que conexiones están disponibles y cual es el
mejor "próximo salto" para conseguir que un paquete este más cerca de su destino
(El paquete va "saltando" de router a router hasta llegar a su destino).
Las máquinas de la Internet, fuera del entorno de la red local, utilizan un router
para encaminar los paquetes. La dirección IP de esta máquina es la única
información que deben conocer, del resto se encargan los routers.
Como se comento ya, el protocolo IP dispone de mayor jerarquía para así permitir
la interconexión entre redes de datos diferentes en la Internet; este tipo de
filosofía minimiza gastos de infraestructura, posibilita las comunicaciones entre
mayor cantidad de miembros en el mundo y entiende todos los idiomas al poseer un
idioma universal como protocolo. El encaminamiento en el entorno de la red local
utiliza el protocolo ARP que relaciona el nivel de red IP con los niveles
inferiores. El protocolo ARP se usa para traducir las direcciones IP (lógicas) en
direcciones de la red local.
El funcionamiento del protocolo ARP es muy simple. Si una máquina desea enviar un
mensaje a otra conectada con ella a través de una red ethernet por ejemplo; cada
máquina en la red ethernet tiene una dirección única que se utiliza para dirigirle
mensajes. Esta dirección no es conocida en principio por la máquina que origina el
mensaje y que solo conoce la dirección IP de destino. El originador de la llamada
genera un mensaje de petición ARP que contiene la dirección lógica de la máquina
destino. El mensaje se envía a todas las máquinas de la red utilizando una
dirección de 'broadcast', luego todas las máquinas reciben el mensaje y solamente
aquella que reconozca la dirección IP como propia generará una respuesta. La
respuesta ARP contiene la dirección física y lógica del destinatario, la cual se
enviará directamente al originador de la consulta ARP, que con esta información
puede dirigir inmediatamente sus mensajes.
Las implementaciones del protocolo ARP incorporan buffers con las tablas de
correspondencia entre direcciones IP y direcciones físicas de la red, de forma que
se reduce el número de consultas que se deben realizar. Estas direcciones
almacenadas en buffers son las tablas de datos de direcciones IP con que trabajan
los routers o enrutadores de red que generalmente están contenidas en los ISP y
conexiones menores de red.
Estas direcciones son asignadas por un organismo central (NIC, Network Information
Center, HOSTMASTER@NIC.DDN.MIL)
Existen 4 clases de categorías de direcciones posibles; la clase ‘A’, la clase
‘B’, la clase ‘C’ y la clase ‘D’. También existe un tipo especial reservado y
llamado clase ‘E’[19]. El tipo de dirección se identifica observando los primeros
bits y se diferencia de los otros tipos en el número de redes y el número de hosts
por red que pueden acomodar.
Dirección clase ‘A’
Las direcciones de clase C corresponden a redes que pueden direccionar hasta 254
máquinas después de eliminar las combinaciones de puros ‘ceros’ y puros ‘unos’ que
son invalidas (reservadas) por norma. Se caracterizan porque tienen una secuencia
de ‘110’ para los tres primeros bits, luego le siguen 21 bits que identifican la
red y por último 8 bits que identifican la máquina o host, tal como lo ejemplifica
la siguiente ilustración.
Ilustración 10. (Fuente: Prof. Yasmin Lara, apuntes de clases complementaria II)
000.xxx.xxx.xxx (1)
127.xxx.xxx.xxx (reservada como la propia máquina)
128.000.xxx.xxx (1)
191.255.xxx.xxx (2)
192.000.000.xxx (1)
223.255.255.xxx (2)
xxx.000.000.000 (1)
xxx.255.255.255 (2)
xxx.xxx.000.000 (1)
xxx.xxx.255.255 (2)
xxx.xxx.xxx.000 (1)
xxx.xxx.xxx.255 (2)
Cada máquina en la red Internet tiene asignado una "dirección IP" como ya se
comento; sin embargo las direcciones IP son difíciles de recordar, tediosas de
manejar por los usuarios menos experimentados y fáciles de transcribir con
errores, es por ello que existe un mecanismo de direcciones simbólicas que asignan
un nombre a cada máquina. Estos nombres se encuentran asociados a un número o
dirección IP, con lo que se facilita la navegación en Internet pues los nombres
son más fáciles de usar y recordar que los números.
Las direcciones simbólicas están formadas por nombres separados por puntos, donde
los nombres representan el nombre de la máquina así como el nombre de los
distintos dominios en los que esta incluida la máquina. Por ejemplo:
dedalo.goya.eunet.es
uno.infase.es
Ya que se van a usar ambos tipos de direcciones para designar a una máquina se
hace necesario que haya un mecanismo para pasar de uno al otro lado y viceversa;
es aquí donde aparece el sistema DNS (Domain Name System o sistema de dominio de
nombres) que es el encargado de realizar esta transformación.
El protocolo TCP esta en una capa superior al IP, se encuentra ubicada en la capa
de transporte del modelo OSI mientras que IP esta en la capa de redes; se encarga
de administrar el ensamblaje de un mensaje o archivo en pequeños paquetes que
serán enviados a la red digital de comunicaciones Internet. Luego este paquete
será desensamblado en el sitio de recepción que la capa IP haya identificado como
destino para quien va dirigido estos paquetes de información. Se encarga de
subsanar estas posibles deficiencias para conseguir un servicio de transporte de
información fiable.
En la parte receptora, el TCP recoge el paquete, extrae los datos, y los pone en
el orden correcto. Si algunos sobres desaparecen, el receptor le pide al
transmisor que retransmita los paquetes de nuevo. Cuando toda la información
recogida esta en su orden, se pasan los datos a la capa de aplicaciones.
Esta es una visión ideal y que muestra un ejemplo del protocolo TCP. En la
práctica los paquetes no solamente se pueden perder, sino que pueden sufrir
cambios en su transito por la red. TCP resuelve este problema colocando en el
paquete que se envía lo que se denomina el "checksum". Cuando el paquete llega a
su destino, el receptor TCP calcula que checksum que le indica cual debe ser su
valor y lo compara con el que se ha enviado. Si no son los mismos, el TCP receptor
entiende que ha habido un error en la transmisión y le pide al transmisor que
reenvíe.
Protocolo UDP
Establecer una conexión TCP requiere gran cantidad de información en las cabeceras
de los paquetes y en consecuencia retrasos en la transmisión; si se quiere enviar
un paquete y no se requiere una particular precaución en el reparto del mismo
entonces se pude usar otro protocolo que será más simple que el TCP (ver figura
12. Encapsulación del paquete TCP), este es el caso del "protocolo de data gramas
del usuario (UDP) que se utiliza en vez del TCP en algunas aplicaciones.
UDP es más simple que el TCP porque no se preocupa de mensajes que se pierdan,
mantener el orden en los paquetes que se envían, etc... UDP se usa para programas
que sólo envían mensajes cortos, y que puede reenviar el mensaje si una respuesta
no se produce en período corto de tiempo. El UDP también se utiliza en el entorno
de la red local donde la tasa de errores de transmisión es muy pequeña, y no es
necesario el sofisticado control de errores del protocolo TCP.
--------------------------------------------------------------------------------
--------------------------------------------------------------------------------
Para ello se debe contemplar aspectos que ofrezcan ventajas superiores a las
plataformas tradicionales para el momento de combatir el crimen en un mismo campo
de batalla. En la figura que se muestra en la siguiente página, se puede ver un
esquema general de cómo debería plantearse la plataforma para conseguir aspectos
positivos, efectivos, eficientes y económicos en el combate contra la legitimación
de capitales según la siguiente tabla:
Ventajas Desventajas
Baja el nivel de burocracia Se requiere la participación y compromiso real de
todos los entes involucrados para garantizar efectividad, eficiencia y realidad
legitima.
Organización simplificada Al estar centralizado se puede tener el caso de personal
con filiación al sistema de gobierno en curso.
Infraestructura económica
Migraciones y actualizaciones tecnológicas sencillas
Aminora la necesidad de Recursos humanos (RRHH) especializados
Menor posibilidad de intervención extranjera (extraños al proyecto).
Mayor independencia con relación a la plataforma tecnológica y estructura
organizativa de los entes satelitales; lo que la convierte en un proyecto de
arquitectura abierta y transportable.
Al tener una imagen de la información en otro lugar espacial, se aminora el riesgo
de perdida o deterioro por catástrofes naturales o tecnológicas.
Mayor facilidad para la selección de los expertos a involucrar en el ente
centralizador.
Implica mayor seguridad y control centralizado.
--------------------------------------------------------------------------------
El UFI SECUNDARIO no es más que la imagen del UFI primario siempre en tiempo real;
esta modalidad garantiza disponer de una imagen real de la información, sin
malformaciones y ubicada espacialmente distante de la primaria, con lo que se
permite disponer de un archivo y plataforma lista para entrar en servicio si la
UFI PRIMARIA sale de circulación por cualquier motivo intencional o accidental
tales como virus, ataque por un Craker, fallas estructurales, ausencia de
servicios primarios como la electricidad, catástrofes naturales o provocadas, etc.
Al igual que en la UFI PRIMARIA, se propone un hardware y un software idénticos
para no establecer conflictos por diversificación de plataformas, garantizando la
transferencia de las bases de datos unificadas en forma veraz, como debe ser una
imagen real.
LAS BASES DE DATOS deben ser unificadas, o sea, deben estar depositadas en una
unidad física de almacenamiento permanente pero modificable ubicada en una única
máquina. Debe existir también una imagen de estas bases de datos en otra ubicación
geográfica para garantizar la supervivencia en casos de desastres y en cada
edificio debe existir redundancia de estas bases de datos. Estas bases de datos
deben estar soportadas por un software adecuado, estable, seguro, confiable y
versátil.
Una vez entendido el plan propuesto en las características del diseño; nos
corresponde establecer cuales serán las mejoras herramientas actualmente
existentes en el mercado y que recomendamos para hacer una realidad la propuesta
al momento de instalarla como proyecto de ingeniería.
Para esta tarea hemos optado por hacer los estudios de propuesta en dos campos de
acción que deberán integrarse perfectamente para a la final poder proponer una
verdadera herramienta con tecnología de punta y acorde con los objetivos trazados.
Es por ello que planteamos el hardware y el software como dos campos de acción
separados para evaluar alternativas y criterios, pero sin olvidar que deben
integrarse fácil y adecuadamente para que funcionen con eficiencia como un todo,
considerándolos en acción para cada una de las unidades que planteamos como en el
siguiente cuadro:
Servidor de archivos
Esta debe ser una máquina rápida, con capacidad de multitareas y multiprocesos,
con disponibilidad de dos microprocesadores trabajando en paralelo o redundancia,
que funcione bien con programas pesados de bases de datos y sistemas operativos de
red y que además sea capaz de manejar . Las estaciones de trabajo Sun Solaris son
ideales, sin embargo, sus precios son muy elevados, sus repuestos son caros así
como costos elevados para repotenciar, además de que requieren de personal
especializado para mantenerlas. Se debería de considerar una máquina servidor Dell
que tiene buen precio, aunque se incrementa mucho en el proceso de
nacionalización, dispone de un buen tiempo de respuesta en servicio post venta y
de garantía de 3 años, aun cuando no tienen representación en el territorio
nacional por lo que es necesario comprarla localmente por Internet. Otra
alternativa también muy buena de considerar son las máquinas ensambladas por la
empresa Jemaca que utiliza lo mejor de la tecnología de punta, ofrece soporte
técnico post venta como lo hace la compañía Jemaca; esta empresa ofrece servicios
de integración tecnológica y ya tiene estandarizadas 3 tipos de máquinas de las
cuales una cumple con la exigencia de microprocesadores redundantes. Esta última
empresa utiliza tarjetas madre Intel LB440GX que dispone de bus de 133 MHz, con
microprocesadores Intel Pentium III Xenon de 650 MHz, disponen de 256 MB SDRAM PC-
100, disco duro de Maxtor y Quantum 17.3~22 GB y 5200~7200 rpm, con unidad de CD-
RW 4X-2X-24X Sound Blaster, unidad de Floppy de 3½, monitor digital Samsung o
ViewSonic de 17”, ratón y teclados Microsoft, tarjeta de video con soporte de
acelerador a 128 bits en 2D y 3D remderizado con 32 MB SDRAM PC-100 y puerto AGP4X
y tarjeta de sonido Sound Blaster Live de 1024 voces 3D contactos dorados. Las
tres versiones presentadas disponen de software preinstalado con licencias y de
los soportes para recuperar todos los programas de las máquinas; además son
rápidas, potentes, estables, seguras y disponen de garantía mayor de 1 año.
Servidor de datos
Esta debe ser una máquina semejante a la de archivos; se necesita que sea capaz de
manipular gran cantidad de información en forma rápida, nuevamente con capacidad
de multitareas y multiprocesos, que disponga de suficiente memoria principal y
secundaria, capaz de manejar unidades de almacenamiento externo como CD-RW o
discos duros externos de alta capacidad. Con estas características es posible
decir que los servidores de archivos pueden ser los mismos servidores de datos si
la red es del tipo cliente servidor, como efectivamente se propone para lograr un
efectivo acceso a Internet.
Firewall
Para aminorar costos se recomienda que el Firewall se ejecute por software puro ya
que con las especificaciones de los servidores se están recomendando unas máquinas
bien dimensionado que bien pueden ejecutar estos programas sin afectar su
capacidad de recursos y acelerando los procesos al estar los Firewall dentro de la
máquina y no fuera de ella; se minimiza en conexiones, en hardware y en
complicaciones de red que pudieran generar problemas difíciles de ubicar a futuro.
Respaldo energético
Si la plataforma se piensa instalar en una ubicación o edificio donde no existe
sistema de energía preferencial o de otro tipo de respaldo energético que
garantice la invulnerabilidad de los datos por caídas o ruidos en las redes de
alimentación de energía eléctrica pública, recomendamos crear una. Para ello basta
con adquirir una unidad UPS el cual se conectara para garantizar que en caso de
ausencia de energía eléctrica primaria, esta unidad es capaz de soportar con
esquema de autonomía limitada, a los servidores siguiendo un esquema de conexión
que garantice que solo alimentan el monitor y el CPU del servidor, y que por
ningún motivo deberá alimentar impresoras u otras unidades menos vitales para el
sistema de bases de datos y programas que contienen la información. Estas unidades
UPS tendrán las siguientes características: UPS tipo On Line, de un mínimo de 500
VA para un solo servidor, con puerto de conexión serial y software de control y
supervisión que apoye en el proceso de resguardo de la información, además debe de
disponer de garantía, su fabricante debe ser alguien reconocido en el mercado y
capaz de ofrecer soporte post venta eficaz y de calidad.
Sistema operativo
Como sistema operativo se debe pensar en algo robusto, ideado para redes e
Internet, seguro, administrable, capaz de aprovechar las ventajas de las
multitareas y los multiprocesos, económico, con soporte y buenos manuales, fácil
de actualizar, que consuma pocos recursos de máquina, que permita correr programas
de bases de datos y navegadores así como programas de administración y los
asociados al sistema de energía de respaldo si existe. Estas características las
reúnen dos sistemas operativos disponibles en el mercado actualmente, nos
referimos a Windows NT (la última versión conocida como Windows 2000) y Unix o su
compañero para PC conocido como Linux. Windows NT es costoso y su precio se
incrementa en la medida que se incrementan los usuarios o número de licencias, si
bien Windows soporta aplicaciones para Internet, este sistema operativo esta
mayormente ideado para redes LAN, por lo que dispone de muchas herramientas pero
con algunas limitaciones para control de direcciones IP. En cambio Unix o Linux
están diseñados para administrar cuentas IP y recursos de Internet, Unix es caro
pero Linux es gratis debido a su carácter GNU; se puede pensar que Linux no
dispone de soporte como Unix o windows y es verdad, pues Linux no tiene dueño;
pero tambien es cierto que existen muchos sitios en la Internet donde prestan
auxilio, además del soporte que prestan los distribuidores de Linux como SuSe, Red
Hat o Caldera. Por último vale la pena destacar que una vez instalado, Linux es
fácil de administrar y es extremadamente seguro.
Servidor de red
Si se hace caso a las sugerencias del sistema operativo, ya se tiene control de
red y por lo tanto un servidor de red que bien puede funcionar para redes tipo LAN
o para Internet.
Servidor de Internet
Como servidor de Internet se recomienda Apache y sus herramientas asociadas o
Sambar. En ambos casos se trata de paquetes que disponen de soporte escrito y por
Internet, son gratuitos y se pueden descargar desde Internet con lo que se
aminoran los costos.
Firewall
Como programa Firewall, tanto Sambar como Apache disponen de herramientas capaces,
robustas, seguras, fáciles de configurar y confiables para ejecutar acciones
orientadas a servir de pared de protección contra accesos no autorizados y flujo
no autorizado de información hacia y desde el servidor.
Encriptador
El programa encriptador se recomienda como herramienta de transferencia de
archivos que puedan contener información valiosa que no se desea que caigan en
manos equivocadas. Para ello se recomienda un programa personalizado hecho en
lenguaje C o una de las herramientas que se pueden adquirir en el mercado. Si se
adquiere la computadora Jemaca con tarjeta madre Intel, esta ya dispone de
programa original para encriptado de información orientado a aplicaciones en
Internet.
Programas de seguridad
En esta gama de programas de seguridad queremos recomendar programas que aseguren
la supervivencia de la información ante ataques que no pudieron ser parados por
las rutinas del Firewall; nos estamos referiendo a programas anti virus
esencialmente. Recomendamos Mcafee o Norton; si se adquiere la máquina Dell o la
Jemaca, estas ya disponene de programas antivirus instalados.
Aplicaciones adicionales
Para terminar quedan los programas de aplicaciones especiales como los
procesadores de texto, etc. Todas las máquinas vienen equipadas con estas
herramientas. En todo caso, Internet dispone de herramientas complementarias que
se ajustan a las necesidades de cada usuario, es así como se puede conseguir
gratuitamente y con licencia el Suite StarOffice que es el equivalente de MSOffice
2000 o de Lotus SmartSuite Millenium.
Hipótesis
Debido a que se trata de una propuesta que no busca demostrar una teoría o
enunciado, ya que solo pretende establecer un marco de ideas con la finalidad de
solucionar una necesidad puntual, no se establece la necesidad lógica de una
hipótesis. Sabino expone en su libro “... si se propone averiguar las causas o
condicionamientos de determinados fenómenos, nos veremos obligados a elaborar una
hipótesis...”[20], por otro lado es importante señalar que “... la formulación de
una hipótesis es pertinente en una investigación explicativa donde se pretende
establecer relaciones causales entre variables” [21].
Como el trabajo es una propuesta gerencial, hay que dejar en claro que no se trata
de un diseño final de una máquina o herramienta; por lo tanto no existen variables
que permitan recolectar datos para luego tabularlos, manipularlos, cotejarlos,
analizarlos o someterlos a cualquier otro tipo de herramienta matemática para de
ella obtener una verdad científica; Fidias en su libro establece que “Una variable
es una cualidad susceptible de sufrir cambios” [22].
--------------------------------------------------------------------------------
Glosario de términos
y significados
BAUDIO: Unidad para medir la velocidad de transmisión de datos; son los números de
cambios de estado de una señal por segundo. Medida de la velocidad de transmisión
de datos. Originalmente utilizada para medir la velocidad de los equipos de
telegrafía, ahora se refiere a la velocidad de transmisión de datos de un módem o
de otro dispositivo en serie [serial device].
BONO BASURA O JUNK BONDS: Bonos de alto riesgo que tienen baja calificación
crediticia.
BONO CONVERTIBLE: Es un bono cuyas cláusulas permiten que este sea convertido en
acción de la empresa que lo emitió a un radio fijo de intercambio.
DEPRECIACION: Reducción del valor de una moneda como consecuencia de las fuerzas
de mercado.
DEVALUACION: Modificación del cambio por una acción gubernamental que produce una
reducción del valor de la moneda nacional.
DIRTY FLOAT: Situación que ocurre cuando a pesar que un gobierno haya anunciado
que el tipo de cambio es determinado por el mercado, interviene en las
transacciones de divisas para impedir apreciación excesiva de la moneda que pueda
perjudicar las exportaciones, o una depreciación demasiado grande que incremente
la inflación. En cada caso, el banco central entra a demandar u ofertar más
divisas, respectivamente.
EMAIL: Permite enviar y recibir un número ilimitado de mensajes, con textos y todo
tipo de ficheros vinculados (datos, imágenes, gráficos) desde cualquier punto del
planeta donde exista un usuario con conexión a la red. Es el servicio mas conocido
y utilizado en Internet, se trata básicamente de un esquema de intercambio de
mensajes entre usuarios o grupos de personas, que supera el resto de los sistemas
de comunicación conocidos por su rapidez y fácil manejo. Cada usuario posee una
dirección de mail que consiste en un identificador único que asocia un usuario a
un modo de Internet, esta información es la que se usa para encaminar un mensaje
hacia su destino. Servicio de correo electrónico el cual permite que los usuarios
envíen y reciban información de texto y software por medio de una red Lan o
Internet.
EUROBONO: Son bonos emitidos en el mercado europeo, fuera de las fronteras del
mercado de capitales de la nación emisora. Su denominación en términos de divisa,
no debe ser necesariamente la misma a la del país de origen.
FECHA VALOR - MERCADO DE DINERO: Día laboral en el que es posible realizar un pago
para liquidar una transacción.
FECHA VALOR - MERCADO DE CAMBIO: Día laboral en el que es posible realizar una
transacción de cambio en los países involucrados.
FEDERAL RESERVE: Máxima institución monetaria de los EE.UU., equivalente al Banco
Central en Venezuela.
AGREGADOS MONETARIOS:
POSICION LARGA (Irse en Largo): Situación que se produce cuando un corredor posee
mayores cantidades de un título o moneda (compra), de las que debe entregar
(venta). Esto se hace, cuando se piensa que el mercado va hacia la alza.
PRIMA EN CAMBIO: Es el monto que surge cuando el tipo de cambio a plazo de una
moneda contra otra es mayor al tipo de cambio al contado entre las dos monedas.
PRIME RATE: Es el tipo de interés que los bancos cargan en los prestamos a sus
mejores clientes, el mismo se ajusta al alza o a la baja según cambian los tipos
de interés en el mercado de títulos.
REVALUACION: Modificación del cambio por una acción gubernamental que produce un
incremento en el valor de la moneda nacional.
SECURE SERVER: Servidor seguro. Es una opción de seguridad que permite enviar
información en forma encriptada o codificada digitalmente a través de una red,
esta información solo puede ser interpretada si se dispone de la llave o clave
para descifrarla; de esta forma se elimina la posibilidad de que la información
contenida en el mensaje, sea aprovechada sin autorización por personas ajenas al
proyecto. La dirección de los SS comienza normalmente por https://...
SERVER SIDE: Aplicaciones que corren a la par del programa servidor y que permiten
por lo general realizar programas de control, programas para otro tipo de
servicios, comunicaciones, resolución de dominios, accesos CGI o administración de
cuentas.
TASA ACTIVA: Es la tasa de interés que cobran los institutos financieros por la
realización de sus operaciones activas (créditos, colocaciones, etcétera)
TASAS DE INTERES NEGATIVA: Ocurre cuando las tasas de interés activas del mercado
bancario de un país, es inferior a la tasa de inflación presente en un mismo
período.
TASA PASIVA: es la tasa de interés que pagan las instituciones financieras en sus
operaciones pasivas (depósitos de ahorro, depósitos a plazo fijo, etcétera)
TELNET: (Conexión Remota) Son los procedimientos que habilitan a un usuario de una
computadora conectada a Internet, acceder a información de cualquier otra
computadora conectada también a Internet, con tal de que el usuario tenga una
contraseña para acceder a la computadora distante la cual proporcionará archivos
públicamente disponibles. El servicio Telnet permite al usuario acceder a un
sistema remoto y trabajar con él a través de una sesión en modo terminal, como si
estuviera trabajando físicamente junto a dichos sistemas. Existen numerosos
servidores de telnet que ofrecen servicios públicos como puede ser el acceso de
base de datos documentales, catálogos, fondos bibliográficos, e incluso servicios
muy especiales como el Directorio. Por ejemplo, es posible acceder a la red de
bibliotecas del CSIC (de España) simplemente llevando a cabo un telnet a
cti.csic.es. Telnet es parte del conjunto de protocolos TCP/IP (Protocolo de
control de transmisión / protocolo de Internet [Transmission Control Protocol-
Internet Protocol]) utilizado para la conexión remota y emulación de terminal
[remote login y terminal emulation]; asimismo, nombre del programa utilizado para
conectar a los sistemas anfitriones de Internet. Diseñado originalmente como un
servicio de apoyo [utility] de UNIX, telnet está disponible en la actualidad para
todos los sistemas operativos más populares
WWW (World Wide Web): Abreviado WWW, W3, o simplemente la red mundial Web. Inmensa
colección de páginas de hipertexto [hypertext] en Internet. En 1990 Tim Berners -
Lee, un joven estudiante del Laboratorio Europeo De Física De Partículas (CERN)
desarrollo un nuevo sistema de distribución de información en Internet basado en
paginas de hipertextos, al que denomino World Wide Web (la “Telaraña Mundial”). Lo
realmente novedoso del Web es la aplicación del concepto de hipertexto a la
inmensa base de información accesible a través de Internet. El éxito actual del
Web se debe en parte a la facilidad con que se accede la información y, por otra,
a que cualquiera que este conectado a Internet puede ser no solo consumidor de
información, sino que también puede convertirse, de forma mas o menos directa, en
proveedor de la misma. La www no es solamente una herramienta para científicos; es
una de las herramientas más flexibles e intrigantes que existen para ojear y
curiosear [surfing] a Internet. Pueden agregarse otros rasgos a las páginas web
con programas especiales, como Java, un idioma de la programación que es
independiente del sistema operativo de una computadora, desarrollado por Sol.
Microsystems.
--------------------------------------------------------------------------------
Capítulo III
Marco metodológico
Clasificación de la investigación
Para poder realizar una clasificación acertada del presente proyecto como
investigación dentro del contexto científico, es necesario tener claro el
significado de las diversas formas de conocimiento científico, del método
científico, de lo que es una investigación científica y de las características del
método científico. La investigación científica se define como una actividad
encaminada a la solución de problemas. Su objetivo consiste en hallar respuestas a
preguntas mediante el empleo de procesos científicos[24] o también como un
esfuerzo que se emprende para resolver un problema, claro está, un problema de
conocimiento [25]. Considerando que la investigación científica es un proceso
metódico, organizado y sistemático [26], las formas de conocimiento son
determinantes para establecer el nivel y tipo de investigación. Es el conocimiento
científico el que establece las bases de un proceso tecnológico tendiente a la
investigación y desarrollo o innovación, con la finalidad de poder generar
plataformas de trabajo basadas en análisis de información disponible y con miras a
producir mejoras en los procesos que afectan y son afectados por el entorno.
Población y muestra
Desde el punto de vista estadístico, una población o universo puede estar referido
a cualquier conjunto de elementos de los cuales pretendemos indagar o conocer sus
características, o una de ellas, y para el cual serán validas las conclusiones
obtenidas en la investigación. Para poder identificar y definir la población o
universo, se requiere establecer primero las unidades de análisis, sujetos u
objetos de ser estudiados y medidos, por lo que los elementos de la población no
necesariamente tienen que estar referidos única y exclusivamente a individuos
vivos, sino que también puede tratarse de instituciones, objetos físicos,
etcétera, definido de manera precisa y homogénea en función de la delimitación del
problema y de los objetivos de la investigación [30].
De aquí podemos concluir que debido a que tratamos una propuesta de solución a un
problema, nuestro universo de estudio se centra en dos vertientes; la primera
relacionada con los procesos de legitimación de capitales y la segunda centrada al
sistema de tecnología que se recomienda para establecer una plataforma de control
y supervisión de la primera.
Para poder recopilar información que después será analizada para resolver el
problema de investigación en función de los objetivos, se requiere definir en
primer lugar los instrumentos o herramientas que se utilizaran para tal efecto y
la forma o técnicas como se van a utilizar dichos instrumentos. El instrumento
consiste en la herramienta o formulario diseñado para registrar la información que
se obtiene durante el proceso de recolección de la información. La técnica es el
conjunto organizado de procedimientos que se utilizan durante el proceso de
recolección de datos.
Aquí incluimos como vamos a analizar e interpretar los resultados. Una vez
recopilados los datos a través de los instrumentos y técnicas de recolección, es
necesario procesarlos para que luego puedan ser analizados. El procesamiento de
los datos consiste en ordenarlos organizarlos según ciertos criterios de tal forma
que se facilite la disponibilidad de dichos datos al momento de requerirlos para
cotejarlos, contarlos o aplicarlos a un proceso matemático o estadístico.
--------------------------------------------------------------------------------
Capítulo IV
Los aspectos administrativos de la investigación
Análisis técnico económico y relación costo beneficio
Recursos a utilizar
Por recursos materiales nos referimos a todos aquellos recursos tangibles y sus
costos; este lo dividimos en tres subgrupos, los relacionados con gastos de
oficina, los relacionados con equipos, los relacionados con dispositivos o partes
y repuestos. Como gasto de oficina se considera a los gastos ocasionados por los
procesos normales dentro de una oficina como lo son las fotocopias, el empastado,
los facsímiles o telex, los consumos telefónicos pro razones de trabajo
relacionado con el proyecto en cuestión, las fotografías y cualquier otro renglón
afín a esta temática. Como gastos relacionados con el renglón de equipos se pueden
incluir y contar a las distintas máquinas que sé pretender utilizar como lo son
las computadoras, las impresoras, los scanners, los equipos de laboratorio,
etcétera. Mientras que como dispositivos, partes o repuestos se relacionan todas
las piezas generalmente pequeñas que forman parte integral de una unidad más
compleja o máquina como lo son los cristales de un láser o los distintos circuitos
o partes mecánicas de una máquina eléctrica, electrónica o de cualquier otro tipo
que generalmente se esta diseñando y ensamblando para producir un trabajo o con
propósitos específicos relacionados con los objetivos del proyecto de
investigación.
Por último contamos con los recursos financieros donde reflejaremos las entidades
o instituciones que financian el presente proyecto, así como las que pudieran
participar en el proceso de financiamiento en caso de establecerse una
contingencia.
Los recursos materiales son pocos ya que a nivel de equipos solo se hará uso de
los equipos disponibles por los mismos autores y se centran en una computadora
capaz de realizar análisis numérico de alta velocidad, impresora de alta
resolución para los momentos de generación de gráficos estadísticos. Los costos
relacionados con el material de oficina, así como las fotocopias, diapositivas de
presentación y encuadernaciones de los tomos necesarios para la presentación
final, serán cubiertos por el CoNaCUID.
No con esto queremos favorecer las acciones delictivas de estas organizaciones que
trabajan fuera de los marcos legales; pero es una verdad que estos capitales hacen
daño al evadir al fisco, alterar el valor real del dinero, generar procesos
inflacionarios y deteriorar la economía de una nación. Si fuera posible tener un
control sobre estas actividades delictivas y poder eliminarlas, entonces sería
posible trabajar con herramientas financieras que realmente produjeran resultados
positivos al no encontrarse influenciadas por variables no controladas; esto seria
un gran triunfo ya que facilitaria las acciones orientadas a estrategias
financieras en la macroeconomía, incentivando el desarrollo económico y social
sostenido.
--------------------------------------------------------------------------------
Conclusiones
El impacto social y económico de la propuesta
El impacto social de esta investigación y de la implantación de UIF en Venezuela
es difícil de evaluar, al igual que ha ocurrido con otras experiencias en el resto
del mundo, más aún con el cambiante ambiente político en que se encuentra inmerso
actualmente el país.
Sin embargo las UIF en diversas ubicaciones en el mundo, han logrado junto con las
herramientas tecnológicas desplazar muchas de las operaciones para legitimar
capitales a los denominados paraísos fiscales, donde no son controladas. Esta
claro que su efectividad va más relacionada a un valor agregado que a resultados
objetivos directos. El impacto social de este tipo de unidades puede ser
beneficioso por el solo hecho de su creación y divulgación, creando una atmósfera
de control y confianza del sector financiero, como es el caso de la implantación
del SENIAT en Venezuela, donde su sola creación y publicidad sobre el control que
ésta tendría logró incrementar la recaudación fiscal y legalización de empresas
acostumbradas a evadir dichas obligaciones.
El ordenamiento jurídico.
La organización administrativa.
La cultura y las tradiciones jurídicas y administrativas.
La magnitud de la corrupción y el poder de la delincuencia organizada: en el caso
de los países donde existe elevados grados de corrupción, los mecanismos que dan
demasiada libertad de apreciación en cuanto a la oportunidad de las declaraciones
por hacer debe evitarse; los organismos de lucha se benefician cuando su
independencia está garantizada por la legislación.
Las amenazas físicas que pueden pesar sobre el personal bancario.
La confianza de las instituciones financieras en las estructuras estatales.
Los medios que el marco constitucional y jurídico permite dar a esos organismos.
Los medios materiales y humanos que el estado puede (o desea) poner a disposición
de los servicios de lucha.
De todo esto se plantea la cuestión de saber si logra algún efecto sobre la
realidad de la legitimación de capitales y si puede tener una repercusión
considerable sobre la delincuencia organizada. Es demasiado pronto para decirlo,
pero se puede lamentar desde ya que los esfuerzos permitidos por los estados a
nivel nacional no se prolonguen a nivel internacional. La legitimación de
capitales es una actividad internacional por su propia naturaleza, pero los
organismos encargados de luchar contra ella solamente tienen jurisdicción a nivel
nacional, rompiendo los esquemas globalizadores de finales de siglo y las nuevas
tecnologías en el área de las comunicaciones que ya caracterizan al nuevo siglo.
Por último queremos destacar que la sola buena intención en la lucha contra la
legitimación de capitales no es suficiente, es necesario e imperativo disponer de
las herramientas mínimas e indispensables para que esta batalla sea ganada, pues
solo el más fuerte tecnológicamente sobrevivirá. La tecnología de la información
es la llave del triunfo y la gerencia tecnológica es la mano ejecutora al ser la
que gestiona los recursos con que se batalla.
--------------------------------------------------------------------------------
Bibliografía
y accesos a Internet
BRUH, Bryan & NOWAK, David. “US department of treasury, financial crimes
enforcement network”. USA. Editorial FINCEN, marzo-abril 1994.
CORRIGAN, Patrick & GUY Aisling. “Building local area networks”. USA. Editorial
M&T Books. 1ª edición, 4ª reimpresión, 1995.
GILMORE M., W. “Dirty money, the evolution of money laundering counter measures”.
Estrasburgo. Council of Europe Press, 1995.
POWIS, Roebert E. “Bank secrety act compliance”. USA, Washington. The bank
administration institute. 3ª edición, 1995.
RAMIREZ B., M. “La cuestión de las drogas en América Latina”. Venezuela. Monte
Ávila Editores, 1990.
RAMÍREZ B., M. y Zambrano, Killian. “Manual para la prevención y control del
delito grave de legitimación de capitales”. Venezuela. Editorial IECAB, 1999.
SABINO, Carlos. “Como hacer una tesis”, Guía para elaborar y redactar trabajos
científicos. Venezuela. Editorial Panapo.1ª edición, 1987.
TACKETT, Jack & Gunter, David. “Linux”. España. Editorial Prentice may Iberia. 3ª
edición, 1998.
THUROW, Lester. “La guerra del siglo XXI”. Traducida de la original en inglés
"Head to head", 1992. Editorial Vergara. 1ª edición, 1995.
WREN, Tim. “The enforcement and confiscation law in Great Britain”. Londres, 1991.
--------------------------------------------------------------------------------
Apéndices
y notas
--------------------------------------------------------------------------------
Apéndice 1
Telemática, autopista de la información e Internet
Internet ofrece cada día recursos más novedosos y herramientas más fáciles de usar
(archie, gopher, Mosaic, Netscape, etc.) para facilitar los servicios que se
ofrecen. Los protocolos de comunicación para los servicios básicos que se
consiguen en la Internet (y en generales en redes de computadores que trabajan en
ambiente TCP/IP) son:
SMTP (Simple Mail Transfer Protocol): es la base para el correo electrónico. SMTP
fue diseñado para enviar mensajes que contienen sólo texto ASCII de 7 bits, lo
cual crea problemas con el castellano, que usa los caracteres ASCII extendidos de
8 bits para poder incluir las letras acentuadas y la ñ.
El protocolo de red (IP) es del tipo sin conexión y fue diseñado para manejar la
interconexión del vasto número de redes que formaban Arpanet. El protocolo de
transporte (TCP) está orientado a conexión y está basado en el UNIX de Berkeley y
no hay capas de sesión y presentación. Se puede entonces decir que IP es
aproximadamente equivalente a la capa 3 del modelo OSI y TCP es aproximadamente
equivalente a la capa 4. La capa de acceso a la red enruta los datos entre dos
dispositivos en una misma red y en aquellos casos de que los dos dispositivos
estén en redes distintas se requieren procedimientos para permitir que los datos
atraviesen múltiples redes; esta es precisamente la función de la capa de red y se
usa el IP en esta capa para suministrar las funciones de enrutamiento a través de
las redes. El IP se implementa en cada computador, terminal y gateway (siendo este
último un dispositivo genérico de interconexión). El IP acepta los datos del TCP
en data gramas llamados PDU (Protocol Data Unit) y los envía a través de los
gateways necesarios hasta que alcancen su destino. La dirección IP es de 32 bits y
el tamaño máximo de un PDU es de 65535 octetos (64KB). IP suministra un servicio
de tipo sin conexión no confiable, esto es, algunos PDUs puede que nunca lleguen a
su destino o si llegan puede que estén fuera de secuencia. Es función de TCP el
asegurar la entrega confiable de los datos, o sea que TCP suministra una forma
confiable de intercambio de datos entre procesos en diferentes computadores. TCP
asegura que los datos sean entregados sin errores, en secuencia, sin pérdidas o
duplicaciones. TCP fue diseñado para operar sobre una amplia variedad de redes y
para suministrar un servicio de circuito virtual con transmisión ordenada y
confiable, es decir que está orientado a conexión y sirve como base para una
comunicación confiable sobre una red no tan confiable, donde puede ocurrir
pérdida, daño, duplicación, retardo y desordenamiento de los paquetes. Es un
protocolo algo complejo que tiene que resolver el caso de paquetes perdidos y
problemas patológicos (tal como el manejo de paquetes duplicados por retardos).
TCP posee su definición del concepto de paquete, llamado segmento, y permite que
sea de hasta 64 kB. Se emplea un mecanismo de ACK positivo con retransmisión para
corregir la pérdida de datos en las capas inferiores. Con este método el
transmisor retransmite los mismos datos a intervalos preestablecidos hasta que le
llega un ACK positivo. Por encima de TCP hay protocolos para distintos servicios,
tales como telnet, ftp, smtp, etc.
IP se limita a las funciones básicas necesarias para entregar un data grama, esto
es un bloque de datos, a través de una inter-red. Cada data grama IP es una
entidad independiente, sin relación con los otros data gramas. Como se ha dicho,
IP no asegura un servicio confiable; los nodos que reciben datagramas IP los
pueden desechar si no tienen en ese momento suficientes recursos disponibles para
su procesamiento y no están en capacidad de detectar datagramas perdidos o
desechados por la capa inferior. IP aísla los protocolos de capas superior de las
características específicas de la red y también acomoda el tamaño de los paquetes
de acuerdo a las restricciones de las redes intermedias. Los servicios adicionales
de IP incluyen características tales como precedencia, confiabilidad, retardo y
caudal. IP empaqueta los datos como un data grama IP y lo pasa a la capa inferior
para su transmisión a través de la red. Cuando el punto de destino se encuentra en
otra red, el data grama va primero a un gateway local, el cual a su vez lo envía a
través de la siguiente red al punto de destino (o a otro gateway). Así que un data
grama se mueve de un módulo IP a otro hasta alcanzar el destino. Los gateways
(también llamados routers IP) son efectivamente relés de data gramas que
interconectan 2 o más redes. Cada gateway contiene un módulo IP que usa reglas
para interpretar las direcciones y se toman decisiones de enrutamiento sobre la
base de cada data grama individual. El gateway debe decidir cuál red debe ser
usada para el data grama que está en curso. También debe decidir si el punto de
destino es en la siguiente red (en cuyo caso el data grama puede ser enviado
directamente) o si hay que despacharlo a otro gateway para que lo retransmita a
una red distante. Así que cada gateway debe adquirir información sobre otros
gateways y sobre las rutas disponible para alcanzar cualquier otro nodo. Esta
información se adquiere y se mantiene dinámicamente de acuerdo a la conectividad
instantánea que suministran todos los gateways de la red. Con los años se han ido
desarrollando varios protocolos de gateway a gateway que tratan de optimizar este
intercambio de información. Los data gramas IP en tránsito pueden atravesar una
parte de la red para la cual el tamaño máximo permitido para los paquetes es
inferior al tamaño del data grama. Para manejar esta situación, IP posee un
mecanismo de fragmentación y reconstrucción de paquetes, es decir que los divide
en pedazos que sean de un tamaño apropiado a su transmisión. Pero estos fragmentos
pueden llegar fuera de orden, así que hay que re-ensamblarlos luego correctamente.
Es oportuno mencionar que con protocolos completos como TCP/IP, el caudal neto
aprovechable en una red puede disminuir significativamente. Por ejemplo, hoy día
con TCP/IP sobre redes de fibra (FDDI) la transferencia de archivos está limitada
a unos 33 Mbit/s sobre el máximo teórico de 100 Mbit/s; análogamente TCP/IP sobre
Ethernet puede transferir a 1.5-6 Mbit/s sobre un máximo teórico de 10 Mbit/s. Una
de las fuente de degradación con TCP/IP es la sobrecarga presencia de los octetos
en el header usados para direccionamiento y control de errores. Este overhead
puede producir una degradación apreciable del rendimiento, que es más aparente si
se usan paquetes pequeños. Otro ingrediente es el retardo asociado con el cálculo
de la suma de chequeo (checksum), usada para verificar la integridad de los datos.
En efecto, antes de que una estación pueda enviar su paquete, debe primero
calcular este checksum y añadirlo al header del paquete. En el extremo opuesto, el
nodo de destino debe hacer los mismo con el paquete recibido y luego comprobar si
las sumas coinciden. Otra fuente de degradación tiene que ver con el copiado
repetitivo de datos, lo cual se efectúa cada vez que un paquete es encapsulado en
una nueva capa del protocolo. De hecho, antes de que los datos de una aplicación
puedan ser trasmitidos, ellos deben ser procesados a diferentes niveles del
protocolo. En una red con TCP/IP donde se use FTP, por ejemplo, la aplicación de
usuario (capas 6 y 7 OSI) envía un archivo a la capa FTP (capa 5 OSI), la cual
subdivide los datos en tramas y los envía a la capa TCP (capa 4 OSI), la cual a su
vez los reformatea como paquetes TCP. Este proceso se repite en la capa IP (capa 3
OSI) y en la capa MAC (capa 2 OSI), la cual es responsable finalmente de
transmitir los paquetes sobre el medio físico (capa 1 OSI). El mismo proceso se
efectúa en sentido contrario cuando se recibe un paquete. El retardo asociado con
el copiado de paquetes a través de múltiples capas depende de muchos factores,
incluyendo la velocidad del procesador, la capacidad de memoria, el tamaño de los
paquetes y las características de la tarjeta de red en el computador. Los paquetes
que se reciben fuera de orden (lo cual es un problema común en redes grandes con
rutas múltiples) también contribuyen al overhead. En muchas aplicaciones con
TCP/IP, la estación de destino monitorea una gama de paquetes dentro de una
ventana, identificados por su número de secuencia; si los paquetes asociados con
una dada comunicación no llegan a tiempo, la estación no va a aceptar ninguno de
ellos y todos los paquetes dentro de la ventana deben ser retransmitidos.
Todos los comandos entre las máquinas son texto ASCII, típico de los estándares de
Internet; estos comandos ASCII facilitan el monitoreo de la "conversación", así
como el diagnóstico y solución de ciertos problemas que puedan surgir en el
transcurso de la misma, permitiendo que los técnicos supervisores hagan pruebas e
interactúen directamente con el servidor de correos. Es de hacer notar que la
tendencia de los protocolos en la actualidad es a usar formatos binarios mas
complejos, organizados en estructuras como los programas en Pascal o en C; esto no
resulta tan práctico pues su sintaxis requiere de un mayor análisis, sin embargo
también es cierto que se puede manejar un mayor número de comandos para adaptarse
a los nuevos servicios que prestan estos protocolos. Otro aspecto interesante
también típico de los protocolos de Internet, es que las respuestas en la
conversación entre las máquinas se inician con un número y después se complementan
con texto. El número indica que las respuestas posibles a las requisiciones ya
están definidas en el protocolo, y el programa usuario contesta sin ambigüedad. El
texto no tiene efecto en la operación de los programas y normalmente se utiliza
para monitorear la conversación. El protocolo define el grupo de respuestas a un
comando dado. En el formato sencillo del SMTP, el primer dígito del número ya da
información del tipo de respuesta, por ejemplo, el 2 indica un suceso, el 3 indica
que es necesario una acción adicional; 4 es un error temporal como que la unidad
de almacenamiento esta llena y no se puede guardar el mensaje. El 5 indica error
permanente (como cuando no existe el usuario receptor especificado). Los comandos
permiten al programa de correo indicar al servidor de correo, la información
necesaria para la entrega de los mensajes; en este ejemplo, la información se toma
directamente del mensaje, pero en casos mas complejos esto no es lo mas seguro.
Cada sesión comienza con HELO, que da el nombre del sistema que inició la
conexión. Luego se especifican quien transmite y quienes reciben. Finalmente se
manda los datos en sí. El fin de mensaje se indica con una línea la cual se inicia
con un punto (.). Después de que el mensaje es aceptado, se puede mandar otro, o
bien finalizar la sesión como se ve en el ejemplo. En Internet y para facilitar su
uso, las direcciones numéricas IP se convierten en direcciones alfabéticas con un
sistema llamado nombre del dominio (domain name), que consiste de una secuencia de
sub-nombres separados por un punto. La denominación de las personas se indica con
el formato usuario@dominio, donde el usuario indica el código de identificación o
de acceso de la persona en ese computador (login name), y el dominio indica la
máquina y su localización. El nombre del usuario no necesariamente es el de una
persona, pudiendo ser una lista de despacho o una organización. La descripción
completa de la forma de denominación dentro de Internet está en el RFC-819. La
denominación completa es lo que se conoce como FQDN (Fully Qualified Domain Name).
La cola del dominio puede ser una de las siguientes abreviaciones:
En Venezuela existe una red académica mucho más modesta, con cobertura nacional y
acceso a Internet, llamada REACCIUN (Red Académica Cooperativa entre Centros de
Investigación y Universidades Nacionales). Esta red fue creada al principio de la
década de los '80 con el nombre de SAICYT (Sistema Automatizado de Información
Científica y Tecnológica) para atender las necesidades de la comunidad académica y
científica venezolana, en cuanto a obtener información actualizada según sus áreas
de experticia. Como estaba claro que mucha de dicha información se podía obtener
remotamente por medios electrónicos y que la infraestructura de telecomunicaciones
nacional no ofrecía servicios apropiados de comunicación de datos, CONICIT tomo la
iniciativa de desarrollar su propia red de transmisión de datos, como parte del
llamado Proyecto SAICYT. La red fue diseñada en base a los protocolos X.25 de
transmisión de datos por paquetes, ya que era la tecnología reinante para ese
entonces. En el año 1983 se procedió a la adquisición de los equipos necesarios a
la empresa GTE Telenet y a partir de ese momento se comenzó con la instalación del
sistema. Para el año 1987 se culminó la instalación de todos los nodos y
concentradores de la red a nivel nacional, a la vez que se firmó un convenio con
CANTV para la operación de la red. SAICYT se interconectó luego a la red de datos
comercial Telenet (también X.25) a través de un enlace internacional analógico a
9.600 bit/s. Mediante este enlace era posible conectarse con otras redes X.25
mundiales. Los servicios de SAICYT se limitaron esencialmente a conexiones con
algunas bases de datos en el exterior, principalmente con sistemas de información
como Dialog, Compuserve, Delphi y a redes académicas X.25 europeas (Janet, EARN).
Los usuarios se conectaban a SAICYT por medio de teléfono con modem. Para el año
1990 la población de usuarios registrados que hacían uso del sistema era de apenas
unas 50 personas. Para finales del año 1990 se instaló en CONICIT un servidor SUN
con sistema operativo UNIX, con la finalidad de ampliar la gama tan limitada de
servicios que para ese entonces se ofrecía. En marzo de 1991 se comenzó a ofrecer
el servicio de correo electrónico a nivel nacional. A partir de ese momento y
mediante una labor de promoción con universidades y centros de investigación, la
población de usuarios comenzó a experimentar un rápido crecimiento, teniendo
actualmente más de 7.000 usuarios registrados, pertenecientes a la comunidad
académica y científica. Para finales de 1991 se hizo efectiva la conexión a
Internet a través de un enlace internacional vía satélite con el JVNC (John Von
Neumann Center) en la Universidad de Princeton (en New Jersey, USA). Este enlace
operaba hasta hace poco a 19.200 bit/s y recientemente (abril 1995) fue llevado a
128 kbit/s. Actualmente REACCIUN opera en ambiente TCP/IP con routers y servidores
de terminales, brindando conectividad a las universidades y centros de
investigación a nivel nacional. Algunas de las instituciones están conectadas por
líneas dedicadas, como son el CONICIT, IVIC, UCV, USB, ULA, LUZ, UC, UCAB, IESA,
IUT y la Biblioteca Nacional. REACCIUN dispone de 3 nodos primarios (en Caracas,
Barquisimeto y Puerto La Cruz), y nodos secundarios en Valencia, Mérida, San
Antonio del Táchira, Maracaibo y Puerto Ordaz. Cada uno de estos nodos posee 5
módems (excepto Caracas que posee 15 por ahora), para facilitar la conexión a la
red, mediante el uso de líneas CANTV conmutadas (por discado), vía módems que
permiten velocidades desde 300 hasta 14.400 bit/s. El teléfono master en Caracas
es el 5751311. La conexión entre nodos se realiza a través de líneas CANTV
dedicadas, a 4 hilos, y con velocidades entre 14.400 y 64.000 bit/s. Próximamente
la sede de REACCIUN va a ser mudada al nuevo edifico Domus en la Plaza Venezuela,
incrementando el número de líneas de (15 a 30) y las velocidades de acceso. Para
la UCV, se ha previsto una velocidad de 384 kbit/s con un canal vía microondas.
Para lograr todo esto y mucho más, REACCIUN se ha constituido en sociedad civil
sin fines de lucro y adelanta un programa de $2.2 millones con el BID, el cual
tiene como objetivo principal la creación de un ambiente de red homogéneo para la
comunidad científica y tecnológica venezolana a través de la interconexión de las
instituciones universitarias y de investigación. Estos avances plantean nuevos
retos a las instituciones nacionales en cuanto al desarrollo de los servicios de
valor agregado (bases de datos, directorios de investigadores y proyectos, etc.) a
fin de optimizar el uso de las facilidades que ofrece la telemática, las redes e
Internet para lograr un avance significativo de la ciencia y la tecnología en
Venezuela. A REACCIUN pueden suscribirse todas las instituciones nacionales de
ciencia y tecnología, universidades, institutos universitarios, politécnicos,
centros de investigación, programas de postgrado e investigadores individuales.
Las empresas del sector privado y comercial, así como usuarios independientes,
deben cancelar una cuota anual de Bs. 12.000. Mayor información puede obtenerse
llamando al 2390577 o 2390877.
--------------------------------------------------------------------------------
Apéndice 2
Gopher
Macintosh
DOS
Microsoft Windows
Unix (Terminales ascii, emacs y X-Windows)
VMS
NeXTstep
OS/2
VM/CMS
MVS
y servidores para:
UNIX
VMS
Macintosh
VM/CMS
DOS
OS/2
MVS
El software para gopher, se puede recuperar de ftp://boombox.micro.umn.edu y en el
directorio /pub/gopher. Para aprender más sobre gopher, se puede consultar el
directorio /pub/gopher/docs.
--------------------------------------------------------------------------------
Apéndice 3
Sistemas operativos
UNIX
El sistema presenta comandos de usuario (es decir, a nivel de shell) para iniciar
y manipular procesos concurrentes asíncronos. Un usuario puede ejecutar varios
procesos, intercambiarlos e interconectarlos a través de pipes o tuberías,
simbolizados por el carácter ¦ (ASCII 124). En DOS, también existe la idea del
pipe, sin embargo, al no existir concurrencia de procesos, no se trata de una
comunicación en "tiempo real", sino de un paso de información a través de ficheros
temporales.
UNIX es un S.O. de red, algo que muchos confunden con un S.O. distribuido, lo que
se discutirá en los capítulos de internetworking. Por ello, se ha incluido en su
núcleo la arquitectura de protocolos de Internet, TCP/IP.
Unix - Windows NT
A mas bajo nivel, los dos sistemas operativos soportan RPCs ( llamada de
procesamiento remoto), y los estándares de compartición de objetos están
evolucionando rápidamente para ambos sistemas operativos. No obstante, Windows NT
tendrá una ventaja: Microsoft crea los estandares, así que los desarrolladores no
se confundirán a la hora de considerar cuál método de compartición de objetos
implementar. Sin embargo, mientras Microsoft termine su aplicación de red y sus
servicios de objeto, Unix es el mejor servidor de aplicaciones en general.
Unix, es buena opción para servidores de bases de datos, pero NT ha ganado buena
reptación, pos sus fáciles implementaciones, administración y operación a pruebas
de balas. Unix todavía tiene ventaja en la cantidad de aplicaciones disponibles en
base de datos, terreno que está perdiendo rápidamente con respecto a NT. En el
especifico caso de Solaris para Sparc, todo gran fabricante de bases de dato
ofrece un servidor orientado a SPARc.
Estos fabricantes están portando rápidamente hacia NT. Las ventajas de los
rendimientos de Unix de alto nivel ya no existen. Los sistemas NT equipados con
CPUs Alfa o Mips, o hasta con múltiples Pentiums, superan fácilmente los sistemas
Sparc, del mismo rango de precios. NT encuentra y soporta controladores Raid de
disco, fuentes de poder redundantes y unidades intercambiables en caliente. NT
necesita mayor tiempo para probarse a si mismo en este rol, pero tiene el poder y
el respaldo de los fabricantes necesarios para usurpar el liderazgo a Unix en el
área de servicios de base de datos.
Windows NT puede ser una excelente solución para aquellos usuarios que desean una
total integración de sus aplicaciones, -como la administración de inventarios- con
herramientas propias de productividad.
Windows NT puede ser utilizado para integrar recursos de red que compartan una
variedad de plataformas dentro de una organización, incluyendo Windows 3.1,
Windows para grupos de trabajo 3.1, MS-DOS, Macintosh, UNIX, OS/2 y todas las
redes más conocidas, incluyendo Novell NetWare, Microsoft LAN Manager, IBM LAN
Server, DEC Pathworks y Banyan VINES.
- Servidor SQL.
- Servidor SNA.
- Administración Centralizada.
- Puentes de Información (gateways).
Servidor SQL de Microsoft para Windows NT
Administración centralizada
Para brindar las mejores soluciones posibles para plataformas múltiples, Microsoft
ofrece sus propios sistemas, incluyendo el servidor SQL y el servidor SNA, y se
mantiene en contacto con desarrolladores ajenos a ellos para crear soluciones
adicionales.
Byte (a Sunsoft): ¿Por qué cree usted que Solaris Unix es mejor que Windows NT?
Nash: En las pruebas TPC-C, la diferencia es sólo casi 5%. En modos de operación
normales, con tiempos de transacción aceptables, sistemas Unix y NT iguales
ofrecen un rendimiento casi igual. Microsoft SQL tiene una limitación de 4 TB,
pero una base de datos de 4TB puede darte un tiempo de respuesta lento en
cualquier sistema. NT ha estructurado un manejo de excepciones para capturar
condiciones de error y responderlas uniformemente. El sistema de archivos está
diseñado para recuperarse de todos los tipos de errores de disco (y está)
protegido por una arquitectura de seguridad C2 certificada por el gobierno de
EEUU. Cuando el rendimiento, la escalabilidad y la confiabilidad son comparables,
las cosas importantes son el servicio, el soporte y el costo de administración y
de mantenimiento. NT provee enormes ahorros de costo en éstas áreas.
Según estadísticas, estás son las proyecciones del mercado para 1999, en donde se
ve un claro dominio del mercado por parte de Microsoft, pienso que son cifras muy
optimistas para la gente de Microsoft, en mi opinión, considero que más bien el
mercado será mas tecnificado. Si considero el dominio de Windows como sistema
operativo en escritorio, sin importar prácticamente la decisión del gobierno de
EEUU, con respecto a Microsoft y como influya en el lanzamiento de su nuevo
sistema (Windows 98)[34].
--------------------------------------------------------------------------------
Anexos
información técnica
Anexo 1
Buscadores
--------------------------------------------------------------------------------
Anexo 2
Metabuscadores
--------------------------------------------------------------------------------
Anexo 3
Medición de creación del valor a través de la gerencia del conocimiento
Algunas premisas
Inicio / Arranque
En Desarrollo
Procesos Estabilizados
En este sentido, si hacemos una representación genérica del impacto que se crea
por la gerencia del conocimiento dentro del SBI, esta podría reflejarse así:
Una vez que identificamos dentro del SBI los objetivos relacionados con GC,
podemos establecer los indicadores que les corresponden. Ahora bien, mencionamos
que dichos indicadores estarán también relacionados con el “estadio” de evolución
de la implantación de la GC, la cual definirá la naturaleza de los indicadores a
medir. Al respecto cabe considerar tres elementos básicos para esta matriz de
medición:
En nuestro caso, y dado que mostraremos indicadores del tipo Guía de Procesos y de
Resultados en el SBI, solo se considerarán algunos indicadores de proceso, los
indicadores de salida y los indicadores de beneficio de largo plazo. Los
indicadores de largo plazo estarán relacionados directamente con los beneficios
financieros (valor agregado, ingresos adicionales, ahorros, reducción de costos,
optimización de la base de activos) derivados de la implantación de la GC (por su
naturaleza, serán todos indicadores de resultados)
Entre los indicadores de salida estarán, por ejemplo, los de Nivel de Dominio de
Competencias, Base Actitudinal para el Cambio (indicador aplicado en Exploración),
Satisfacción de empleados, entre otros.
El tercer elemento se refiere a que cada indicador está relacionado con unos
objetivos estratégicos, por definición, dentro del SBI.
Mapa de Indicadores de Creación de Valor propuesto para Gerencia del Conocimiento:
Beneficio / costo de GC
--------------------------------------------------------------------------------
Anexo 4
"Web: a new way to deliver technical information"
The IEEE (Institute of Electrical and Electronics Engineers) spends so much effort
producing technical articles that so few of our members read. Technical articles
are traditionally published in Transactions. In the past, societies sent
Transactions to every member. When societies made these Transactions optional and
gave members their choice, the overwhelming majority said "thanks but no" to
receiving them. Is there a way to format these articles so that more members want
to read them? Let's look at what we do now, then how the Information Highway can
lead us to a new way of doing our business of producing tech nical articles.
CURRENT FORMAT. Currently each volume of any IEEE Transactions contains more
articles than any one person is interested in reading. Each article is supposed to
stand alone. Each generally contains an introduction, back ground, theory,
results, discussion, conclusions, references etc. There tends to be a six pack
syndrome. We regard anything less than six pages as not being substantive. Some of
our papers are hard to read. This is due in part to the length and need to be
complete, and the fact that engineers tend to write using the third person and
passive tense. Many Theory sections repeat, inconsistently, what someone else
already wrote. Wow, do we work hard to fill those six pages! Think about those
long, detailed, comprehensive engineering reports we write or read. However, for
the boss, there is an executive summary. Why ? Because the boss is too busy to
read all that stuff-and needs only the key information. What does this tell us?
Perhaps that we need to make our written material user-friendly-just like the
newer software packages that have become popular. We all have time constraints. We
need technical material presented the way users need it. We need the key
information up front, and access to supponing material, as we need it, when we
need it.
FUTURE FORMAT. Using hypenext (and hypermedia to include graphics and even sound),
we can produce articles that are available on a compact disk or over the network
using a web server. We can read anicles on a CD using a personal computer with a
CD-ROM. For the network delivery we need a full Internet access connection and
client software like Mosaic on our computer. There are advantages to each of these
delivery choices. The CD offers a simple way for the IEEE to sell the product
(i.e., recover the cost of production through membership-related charges or sell
at a higher price to nonmembers), but restricts the amount of material connected
through the hypertext links. This method of delivery does not limit distribution
to those with a full Internet access connection. Network delivery requires some
kind of password-controlled access to limit use to those who have paid for the
service. But it has the advantage of a much higher limit to the material linked.
What might a technical article look like if written in hypertext? First of all,
there is never one article but a set of articles that are dynam ically linked and
updated. Each article is about a page in length. We first scan (read quickly) the
entire article to see what is there and whether we are interested. If we are
hooked, we go back to the beginning and read carefully to understand the details.
The introduction is short and states what is to be done, why, and generally how.
It also contains a review of the necessary background that is short because key
words are high lighted. Each highlighted word is a link to another article. There
is no list of references at the end of the article because any reference is
immediately available. Clicking on a high lighted word brings that article to our
screen to read. We can read that background article if we wish, and go further
back if necessary. Returning to our original article, we continue to read.
The theory section may be next. In cases where the article uses previously
developed theory a few short sentences put that theory into perspective, and
clicking on the appropriate highlighted word takes us to the original theory
development. There will be a reference to nomenclature. Again, clicking on the
highlighted word provides the nomenclature list. This is consistent for this set
of articles. Perhaps such an article is only written by a task force of the
relevant technical committee.
The results section is succinct and explains the significance. Clicking on certain
icons provides a graphics window with the relevant drawing (or appropriate media
display). The discussion contains highlighted words. We can click and bring up
relevant results from other articles. The conclusion completes the article.
Additional items such as acknowledgements bibliography, appendices, author
biographies, etc. can be viewed by clicking on highlighted words.
THE WEB. What is the result of this electronic construction? It is a resource that
is set up to help us find the information we need. Higher-level surveys of the
literature organize material by subject area. This leads the reader into specific
technical specialties. The cross linking of web structures (as the name implies)
enables many entries to the same specific area from different starting points.
Once into the set of anicles, we can read quickly and absorb trends and/or
specific results if we are aware of the background and current practice.
Alternatively if we are relatively new to the field, we can easily access the
necessary background and read similar papers without duplication of "boilerplate"
and differing conventions.
Producing this kind of new format for technical articles will not be easy. Is it
worth the effort? Are there better ways to use these developing technologies for
our own benefit? How can we improve our organization and distribution of technical
material? Your input is needed. If IEEE is to serve your needs in this area, we
need to know what you want and how you want it. The editor of THE INSTITUTE is
always looking for responses to this and other columns.
--------------------------------------------------------------------------------
Anexo 5
"The Internet multicast from ITS: How it was done and implications for the future"
Why Do It? This multicast, designed by us and our colleagues at the Federal
University of Rio and NEC's Princeton C&C Laboratory, had several motivations. One
was to further the globalization of the IEEE Communications Society by
illustrating how a national society such as the Brazilian Telecommunications
Society and the Communications Society can jointly sponsor a conference that has a
truly international accessibility. In the future, it could become common for a
IEEE Communications Society member to purchase a remote registration for a distant
conference or workshop, listen to and view sessions of his or her choice, and ask
questions while being seen and heard by people at the meeting location and those
attending remotely. This will be an enhancement of services offered by the IEEE
Communications Society that many of us believe will increase the value of
membership and the impact of our activities. It will give us additional freedom in
locating conferences and could provide more stability in conference finances.
Although this initial experiment was free, and the quality of the service may not
be good enough to charge for in the immediate future, the Society expects that in
a few years it will begin collecting registration fees for remote electronic
participation. This is itself part of a larger, still developing plan to convert
as many as possible of the Society's activities from paper-based to computer and
communications-based.
The time difference between originating and viewing locations will always be an
obstacle and it remains to be seen how much the sociology of meetings will change
to partially accomodate it. Almost all of the viewers of the ITS 94 multicast were
in the United States, within avery few time zones from Rio de Janeiro. Can
conference formats be redefined to reduce the impact of the time difference?
Perhaps question periods will not follow immediately on live presentations bu tbe
delayed by half a day so that members of the audience in other parts of the world
will have had a chance to view delayed multicasts and submit questions. There are
other technical and behavioral questions that also require "just trying it", such
as the importance of better quality visual aids, which could be realized by use of
Postscript files on the MBONE whiteboard. It was so hard getting the basic
audio/video elements in place that the Rio experiment did not have a chance to get
into these questions. But the experiment stimulated thinking about the real human
problems of globalization through electronic processes.
After getting the right software and media hardware components, our main concern
was the data connection from the conference site at the Rio Palace Hotel to an
MBONE router in the Internet backbone. The existing 64-kbit/s Internet connection
from Brazil to the Internet backbone in the U.S. was inadequate for this
experiment. So the IEEE Communications Society and the Brazilian
Telecommunications Society, co-sponsors of ITS 94, solicited the participation of
a number of companies and institutions in setting up a special satellite data
connection. We gratefully acknowledge the contributions of equipment and
facilities made by Anadigicom Corporation, COMSAT World Systems, Embratel, the
Federal University of Rio de Janeiro, INTELSAT, Metropolitan Fiber Systems, NEC
USA Inc., Sun Microsystems, and SURAnet. The USC/Information Sciences Institute
and Rede Rio/FAPERJ contributed additional expertise and support. Workstations
functioned as Internet hosts and as media processers (using the software described
earlier) at the two ends, which were a conference room in the Rio Palace hotel and
the facilities of SURANet, an Internet access provider in College Park, Maryland.
Professional audio/visual assistance was arranged in Rio, including a camera
operator, which helped obtain the best audio/visual quality possible in the MBONE
context. The workstation in College Park also served as an MBONE multicast router.
A microwave link carried the digital compressed audio/video signals from the
workstation at the Rio Palace Hotel to an antenna at the top of Corcovado, where
the famous statue of Christ is located, and from there by terrestrial cable to
Embratel's Tangua C-band earth station. The signal, bursting to several hundred
kbit/s, was imbedded in an E1 (2.048 Mbit/s) transmission frame (a European CEPT
standard) and sent via an Intelsat digital satellite service to the U.S. It was
received by a 4.5-meter antenna at COMSAT's headquarters in Bethesda, MD. Then
came the difficult part, conversion of the E1 frame to a T1 (1.544 Mbit/s) frame
used in transmission systems in the U.S. Despite a decades-long coexistence of
these two standards, the configuration of the conversion equipment can be
confusing, especially if the traffic does not conform to standard 64 kbit/s
telephone channels. Not all 64 kbit/s tributaries in an E1 frame can be
accomodated in a T1 frame, and there are different assignments of tributary
channels to time slots. Several days were consumed in determining that
misconfiguration of this conversion equipment was the source of data transmission
problems and in making the fix. It was necessary to have fully compatible data
test sets at the two ends of the circuit, a requirement we were lucky to be able
to meet. Finally, nearing the end of the first regular day of the conference, the
T1 signal sent by fiber network from the U.S. earth station was received error-
free at the Internet access point. We were on the MBONE network and were very
happy to see, in the next couple of days that about 60 listeners signed on to our
conference. Comments received back were helpful in improving camera work, mainly
by minimizing any change or motion. As in most media productions, careful
attention to production details is critical to the success of MBONE multicasts.
--------------------------------------------------------------------------------
Anexo 6
"A fast and secure track to hypertext"
Just try to download a hypertext document from the World Wide Web over a dial-up
line, and Internet surfing becomes more like floating on a life raft in the
Sargasso Sea. The images, graphics, and audio and video clips embedded in Web
documents can send byte counts soaring well into the six figures, putting even
speedy modems in the doldrums. But Netscape Communications Corp. has come up with
a way to reduce the Web transaction lag by building a better browser, the desktop
program that helps users find and view hypertext documents stored on Web servers.
Netscape Network Navigator comes with a quartet of techniques aimed at reducing
the wait for Web document retrievals over dial-up lines. Netscape's product also
is the first of its kind to incorporate both user authentication and encryption,
two critical features for security-conscious corporate users. The four features
providing quicker access to Web documents include a facility that essentially
depicts images initially at low resolution, gradually building to higher
resolution. A second feature, called simulated multithreading, enables the
Netscape Web browser to process the different components in a hypertext document
simultaneously. Netscape's other two time savers are statistical bandwidth
sharing, which boosts bandwidth utilization during a Web session, and integrated
caching, which enables users to store some hypertext components locally. Netscape
Network Navigator's security features are based on bulk encryption and
authentication technology from RSA Data Security Inc. and a homegrown protocol,
called Secure Sockets Layer. To further appeal to corporate networkers, the
Netscape product runs on more platforms than any other Web browser. The platform
support list includes PCs running Windows 3.1 or Windows NT Macintosh computers,
and Unix workstations. Another corporate carrot is low cost: Netscape has slapped
a $99 price tag on its Web software.
CREATIVE IMAGERY. One of the biggest problems with viewing hypertext documents on
Web servers is the amount of time it takes to download image files. Users can wait
anywhere from several seconds to several minutes before a complete high-resolution
image is downloaded for display. Netscape takes some of the sting out of this
delay by building up images on screen as they are transmitted, rather than waiting
for the entire file to be sent This "successive approximation" approach gives
users an immediate look at a rough image that is then gradually filled in. The
mechanism used by the Netscape Web browser for this successive approximation
depends on the file format in which the image is stored. For instance, an image
stored on a Web server as a GIF file may be stored in interlaced form. This means
the lines comprising the image are not stored sequentially (line 1, line 2, line
3, etc.), but in some other order (for instance, line 1, line 8, line 16, line 24,
etc.). Netscape is the only Web browser that displays interlaced GIF images as
they are transmitted. This gives users a rough idea of what the full image will
look like. As more lines are sent, the image fills in. Other Web browsers display
images only in their entirety. Netscape also takes advantage of a formatting
characteristic of JPEG (Joint Photographic Experts Group), a standard for
photographic image compression. While JPEG images aren't stored in interleaved
format, JPEG files can be stored in two varieties: low resolution and high
resolution. When the Netscape browser finds a JPEG file stored in both formats, it
first downloads and displays the low-resolution version. Then it retrieves the
high-resolution file, overwriting the low-res image when the download is complete.
--------------------------------------------------------------------------------
Anexo 7
On the trail of the Internet Gopher
Anexo 8
"Una biblioteca puede estar dentro de su computadora"
--------------------------------------------------------------------------------
Anexo 9
"Global risk management for Internet users"
Companies eager to reap the benefits of Internet access face a dilemma: They must
carefully weigh the promise of an easy and low-cost way to exchange information
with outside organizations against the threat of compromised security on their own
corporate nets. Infonet Services Corp. thinks the decision to get wired ought to
be a no-brainer: The international VAN (value-added network) operator is offering
full Internet access without the anxieties that go hand in hand with being exposed
to millions of unknown users. Infonet has established a new division, called
Info.net, that plans to roll out the first international secure Internet service
in January 1995. It is likely that the service will be available through all of
its PTT shareholders in Australia, Belgium, France, Germany, Japan, Norway,
Singapore, Spain, Sweden, and Switzerland.
Infonet is expanding global access even further by providing a way onto the
Internet via its X.25 backbone, which extends into 53 countries. Info.net's
service caters both to companies that wish to make information available over the
Internet and customers seeking information. Info.net has set up an Internet host
site at which customers can park any files they wish to without putting their own
systems at risk. Further, Info.net allows only authorized users to access its
host. And each posting customer can limit access to certain files, such as designs
under development. Info.net customers can connect via a dedicated IP network that
runs over Infonet's international frame relay backbone. They also can tap into the
service via Infonet's international X.25 network. This means that entrepreneurs in
locations such as the Czech Republic can set up shop as local Internet service
providers. These customers set up telnet sessions with an Info.net host, which
acts as an agent, collecting data from other Internet hosts. Users can download
the assembled information using Zmodem or Xmodem file transfer protocols.
Authorized users who are not Info.net customers can access the host site over the
Internet or by dialing directly into terminal servers. Infonet plans to deploy
servers for World Wide Web (WWW), Gopher, Wide Area Information Services (WAIS),
FTP, and telnet Internet services, along with tools for finding other information,
such as addresses. The mainframes handling these services also support e-mail,
including multimedia mail complying with the IETF (Internet Engineering Task
Force) MIME (multipurpose Internet mail extensions) standard.
--------------------------------------------------------------------------------
Anexo 10
"Internet Group progress on secure IP"
The Internet is fast becoming a fixture in mainstream American culture and already
links some 10 million users in more than 130 countries. But the rapid growth of
the Internet brings the concomitant rising fear that security breaches on the net
could reach epidemic proportions. Recognizing a critical need for more sturdy
security measures, a specialized working group has been created to address these
critical security issues. The lnternet Protocol Security group, known as the IPSEC
working group and consisting of leading technologists from a number of major U.S.
companies, is tasked with investigating the requirements and standards available
to secure networks.
The critical first step to fortify the Internet was taken when the IPSEC recently
defined the security services of the IP security protocol (IPSP), which will
provide four main areas of security: data confidentiality, data integrity,
authentication, and access control. The protocol consists of two primary
components: a key management protocol and a security encapsulation protocol. The
key management protocol provides three main functions: the generation of paired
encryption keys, the authentication of recipient end systems, and the negotiation
of security services exchanged between two end systems. The security encapsulation
protocol provides the enforcement entity of the IPSP security architecture. Using
the security services previously negotiated, the security encapsulation protocol
protects the data as it traverses the networks. If encryption is indicated as a
required security service, the encryption key generated under the key management
protocol is used.
The primary advantage of the IPSP protocol is that once it is finalized and posted
as a request for comment (RFC), it will be an Internet standard, free of charge to
all implementors. As an Internet standard, any vendor will be able to construct an
IPSP product from the RFC specification. Following the critical establishment of
the IPSP for these security services, the working group's next task is to take the
security mechanisms and place them into a simplified fixed field format. The IPSEC
is currently working to combine the requirements for highly compressed encoding,
which conserves bandwidth, with the requirement for a fixed, easy-to-parse format,
which aids in high-speed processing. This will result in one common format that
meets the need for both low overhead and high-speed communications.
The IPSEC will also develop companion key management technology as an application-
layer protocol that is flexible enough to provide authentication between users
while also capable of generating keying material for security protocols at any
layer. This companion key management technology will be based upon public-key
techniques that will support distributed authentication and key management without
requiring an on-line third-party key distribution center. Key distribution center-
based approaches are planned for a follow-on development.
The IPSEC, which is comprised of participants from Advanced Networks and Systems
(ANS), AT&T, BBN, Digital Equipment Corporation, Hughes Aircraft Company,
Motorola, and Qualegitimación de capitalesomm, brings a diverse technical
background, ranging from secure military and government networks to mobile and
interactive multimedia networks. ANS currently produces KeyRing, a product that
accomplishes both a distributed key management function and a network layer
encapsulation, while Hughes Aircraft has demonstrated NetLOCK security software
for network communications, which is a network security product providing both
distributed key management and the International Standards Organization (ISO)
network layer security protocol (NLSP) for encapsulation. Motorola has the network
encryption system (NES) product line, which implements the security protocol for
network layer three (SP3) from the National Security Agency's Secure Data Network
Systems program. Columbia University has discussed their swIPe protocol, which has
implemented several key requirements for a successful IPSP, while Qualegitimación
de capitalesomm has developed a compact encapsulation protocol that has
incorporated most of the concepts of the IPSP.
--------------------------------------------------------------------------------
Anexo 11
"The Internet: A decentralized network of networks"
For those of you who use the Internet regularly, it becomes as familiar as the
highway one takes to home or work every day. For some, it is still a mystery yet
to be unraveled. Even for some who have access to Mosaic or Gopher clients and
have learned to click or hit return and see the various screens unfold, it is
still a mystery. It is as if we are being driven in a bus and allowed to tell the
driver which way to turn as we gaze in wonderment out the window. Such is the
enabling power of the latest software that can be installed for us. Why is it that
some of us do not seem to be able to access some of these new and powerful
features? Some understanding of the Internet is useful in working out what we can
have access to and what we need to do to get that access. The history of the
Internet is helpful in understanding how it has evolved and how it works.
BIRTH OF THE INTERNET. What we know today as the Internet started in 1969 in the
United States as a network to link four computer sites that were conducting
research for the U.S. Department of Defense. These sites were the Stanford
Research Institute, the University of Utah, and the Universities of California at
Los Angeles and Santa Barbara. These network became known first as ARPAnet, then
DARPAnet, for tbe Defense Advanced Research Projects Agency that issued the
request for a proposal for the network's development. The speed of that network
was limited by the interconnection lines that allowed data transmission of up to
sbout 56 kilobits per second (kb/s). This is equivalent to about three full
screens of text per second or about four times the speed of a 14.4 kb/s modem.
By the early'70s, the number of sites had grown from the initial four to about 50,
and by the early '80s to a couple of hundred. During the '80s this number
increased rapidly. In 1987, when the number of sites was measured in the
thousands, the National Science Foundation (NSF) sponsored a so- called backbone
connection with a capacity of 1.5 Mb/s (a factor of 30 times faster, or 90 full
screens of text per second) and DARPAnet began the transformation into NSFnet.
These connections are known as T1 lines. By 1991, T3 lines were introduced with
capacities of 45 Mb/s (another factor of 30 for a capacity of some 3,000 full
screens of text per second) to connect hundreds of thousands of sites. The 1994
figure is about a couple of million sites with an average of 10 users per site, or
20 million users. Initially the sites were mainframe computers with perhaps a
hundred users per machine. Today, we have a range of computers connected, some
mainframes and many workstations with anywhere from a dozen users to a single
individual.
CONNECTED NETWORKS. While this backbone was developing, so was the plethora of
regional networks with their own relatively lower capacity (or speed), their own
administration and operating policies and their connections to the high-speed
backbone. These connertions to the backbone generally fall into one of two
categories. So-called full Internet connectivity implies that the connection is
transparent to the user. If you have the right hardware, software and permissions,
you can connect your computer on one network to a computer on the other network
and use any of the Internet tools, such as browsing on servers for text or
graphics information, transferring files or using a library catalog program. Some
networks only have a limited connection to the Internet. Other networks, while
they have a full physical connection, choose to offer limited services.
BITNET (called the Because It's There network or Because It's Time, depending on
who you ask) developed as a network of primarily university-based computer inter
connections with a store-and forward mode of passing e-mail messages from one tape
drive to another. This network served some 2,000 nodes in about 50 countries.
Today many parts of the original BITNET have merged into local networks with full
Internet connectivity.
The UUCP network grew as Unix systems operators communicated with each other using
the UUCP (Unix-to-Unix CoPy protocol). This group developed extensive use of
electronic mail and discussion groups-the now familiar Usenet News.
The Canadian (CAnet) and European Advanced Research (EARN) networks were the first
regional networks outside the United States, and they have been followed by many
others. They can perhaps best be described as Internet extension networks with
varying degrees of connectivity. Both within and outside the United States, these
regional networks offer connection to the Internet - usually to other
organizations, which in turn offer log-in services to individuals. Thus, the
customers of these regional networks are the universities colleges, government
departments, corporations and commercial service providers, all of whom have large
computer systems witb many individual users.
The other major group of networks is the set of commercial service providers (CSP)
such as America OnLine, AT&Tmail, CompuServe, Delphi, Genie, MCImail, Prodigy,
etc. Many of these began with a set of customers who wanted primarily to access
information services and secondly to communicate. These CSPs served their own
customers, often with one computer in a central location and the use of rented
public data networks to provide local access. Connection to the Internet often did
not exist or only existed as a limited e-mail transfer mechanism. More recently,
many of these CSPs have started to offer Internet access as a primary service.
The Internet is truly a network of networks. At present the backbone, the NSFnet,
is located in the United States, and there are dedicated links to other parts of
the world. As the use of the Internet grows, we can expect growth of the backbone
in both capacity and geography. The Internet is experiencing unprecedented growth.
For most of its life, which is only 25 years from that initial connection of four
computer centers, it has been the purview of the computer experts. Less than two
years ago, the public (through the popular press) discovered it. What was a growth
phenomenon has become an explosion. Public participation is incredible, as are the
demands of these users. We only have to understand that one small graphics file is
equivalent to dozens of full screens of text to realize that the demands of Web
clients will both stress the existing system and likely drive the next level of
capacity expansion.
--------------------------------------------------------------------------------
Anexo 12
"Traveling the information highway"
As we entered the '90s, e-mail seemed a big step forward in communicating and
accessing information. It was mainly text and point to point. As we head for the
middle of this decade, our information retrieval potential is exploding. The sheer
volume of electronically stored information requires the ability to search
efficiently. Mere simply formatted text is being replaced by a mix of elegantly
presented text, graphics and sound. This material can be combined in virtually
real time using resources available around the globe. New tools are being
developed to handle this explosion of information. The Web and Mosaic are two of
those tools.
SERVERS AND CLIENTS. Let's start with the difference between servers and clients.
A server is a package of organized information on a computer system. The client is
the program you use to connect to the server. There are gopher servers and web
servers; the web server is more complex than the gopher server. The client you
need to connect to a web server has to have more features than one that you use to
connect to a gopher server. We will first discuss the web server as an extension
of a gopher server. Later we will discuss clients that can connect you with gopher
and web servers.
GOPHER LIMITATIONS. Each gopher server contains a so-called root directory, which
is the top-level menu of information. You connect to the gopher at this point. The
root directory contains the names of the next-level directories. This process
continues for any number of levels. Text files and other forms of information and
resources are listed in the various directories. To go from one item of
information to another, you may have to backtrack through this tree structure.
There are several difficulties. One is the problem of naming and organizing the
directories meaningfully. Another is the reality that many items fit equally well
in many directions. Also, as the size and complexity of the gopher increases, the
number of steps to find a particular item increases. We can solve the latter
problem, if we need to repeatedly trace the same path, by using bookmark. You add
a book bookmark besides an item (by hitting the "a" key). The nexttime you use
gopher, you call the bookmark screen (by hitting the "v" key), and select one of
your bookmarks. The bookmark idea is particularly useful if the second item is on
a different server from the first. Most gopher servers interconnect to other
gopher servers for much of the information they list. This avoids duplication of
information and simplifies the process of updating. In computer jargon, one gopher
is hooked to another gopher. The transfer from one server to another is often
transparent to you, but may introduce a time delay.
WEB SERVERS. World Wide Web (or WWW or W cubed or simply the Web) is an extension
of the gopher concept. In text files that you read on a web server, certain words
are highlighted. If you select a highlighted word, you are transferred to another
text file that is likely to be in a different directory and possibly on a
different server (computer). This implies that the difference between text files
and directories is blurred. Most important: duplicate entries are eliminated. A
document that contains text with highlighted words and hidden imbedded commands
that cause the transfer to another document (file) is referred to as a hypertext
document. We use a hypertext editor to produce the document. The next step is
hypermedia. The hypermedia document contains, besides highlighted words, special
symbols used to display graphics files or play soundtracks. The word hypertext is
attributed to Ted Nelson, the founder of the Xanadu Project in the mid '60s. The
Web was started in 1991 at the European Center for Nuclear Physics (CERN) in
Geneva, Switzerland. Web servers can exist on their own or be imbedded in gopher
servers. You connect to a web server by connecting to what is called a home page.
At present, many so-called WWW home pages are in very early stages of development
and some hypertext or hypermedia features are extremely limited or may not work.
Also, there are often long delays while graphics or sound files are transferred.
WHAT YOU NEED. The use of hypermedia features requires more system resources than
those needed for gopher, and incredibly more than for e-mail. However, the
potential is exciting and the availability of such tools will likely drive the
development of higher-capacity networks and more sophisticated software to make
use of these tools. Which brings us to the question: Now that we know what the Web
is, how do you access it? You need full Internet access and the right kind of
hardware and software to explore or browse the World Wide Web. To access these
features in the Web you need, for example, a PC with color monitor and sound card
running Mosaic software under Windows, all connected via a high-speed local area
network to the Internet. NCSA recommends that your PC be a 486/33MHz with 8 Mb
RAM. I know that the "for example" is a bit of a cop-out, but I have learned that
there will always be more variations in software and hardware than one person can
ever keep track of. What I am about to discuss is my own experience. If some of
you have other, very different experiences which you think our readers would find
useful, please send me an e-mail message with the details.
CLIENT SOFTWARE. You need a client to access a server. I am presently using three
clients: Gopher, Hgopher, and Mosaic. The Gopher client is a program that runs on
the host computer where I have my e-mail account. This client is a program that
runs under the Unix operating system on our Silicon Graphics (SGI) workstation Our
system manager obtained the software from anonymous ftp at boom box micro.umn.edu
(that's the University of Minnesota, birthplace of Gopher). I log on in the usual
manner and type gopher at the Unix prompt. The default convention is that I
connect to our on-site gopher. If I type gopher gopher.ieee.org, I connect to the
main IEEE gopher server. In my view, this is your basic gopher access package. You
can access it remotely using a modem and dial up line. It's simple and it works. I
have also installed (this is a euphemism for saying that I asked our system
manager to do this) an Hgopher client on my PC. This software was available from
our computer systems support group at my company (a university). The client
connects directly to the on-site gopher server by default. I had to get permission
to have my PC authorized for off-site access, since the gopher server connects to
the Internet. I cannot dial up from outside to use Hgopher. Hgopher runs in
Windows, so I click on the Hgopher icon and see the root directory of our local
gopher. This display is in color with several visually pleasing enhancements, but
not operationally very different from my basic gopher client.
--------------------------------------------------------------------------------
Referencias
Pie de página
Referencias consultadas
[1] Ramírez M. Bayardo A. “legitimación de capitales, legislación especial
referida al lavado de dinero” ILANUT, 3° seminario regional de medidas efectivas
para combatir delitos de drogas y mejorar la administración de justicia penal, del
16 al 27 de julio de 1990, San José de Costa Rica.
[2] La convención de las Naciones Unidas contra el tráfico ilícito de
estupefacientes y sustancias sicotrópicas, aprobadas en Viena el 19 de diciembre
de 1988, definió por primera vez el delito de blanqueó.
[3] La convención de las Naciones Unidas contra el tráfico ilícito de
estupefacientes y sustancias sicotrópicas, aprobadas en Viena el 19 de diciembre
de 1988, definió por primera vez, el delito de blanqueó. La declaración de
principios de Basilea, firmada el 12 de diciembre de 1988, fijó el marco de la
obligación de vigilancia de los bancos con respecto al dinero sucio. Dichos
principios se reproducen ampliamente en la directiva europea de 10 de junio de
1991.
[4] Ordenanza 105-80, de 25 de Abril de 1990, Departamento Federal del Tesoro.
[5] Servicios de aduanas, servicios tributarios, servicios secretos, FBI,
inspección postal, Dirección de lucha contra las drogas (DEA), Banco Federal, etc.