You are on page 1of 14

TRABAJO DE REDES

1. QUÉ ES MODULACIÓN Y EN QUE CONSISTE?

2. CLASES DE MODULACIÓN

3. MÓDEM (FUNCIÓN, CLASE)

4. QUÉ ES CÓDIGO?

5. CÓDIGOS USADOS EN LA HISTORIA

6. NORMAS DE CODIFICACIÓN

7. TIPOS DE CODIFICACIÓN

8. DECODIFICACIÓN

SOLUCIÓN

1. La modulación: Es la operación consistente en hacer variar

deacuerdo con una determinada ley, alguna de las

características de las ondas electromagnéticas de alta

frecuencia con el fin de hacerlas portadoras de información.

La información transmitida por las ondas moduladas es

reconstituida a distancia, por un aparato receptor mediante la

demodulación o detección, operación inversa a la modulación.

2. Las clases de modulación son:


Modulación de amplitud: Sistema de emisión en el que la señal

de baja frecuencia que debe transmitirse a la corriente

portadora de alta frecuencia.

Modulación de fase: Sistema de modulación en el que la

amplitud y la frecuencia de la señal que debe transmitirse

modifican la fase de la señal de alta frecuencia del emisor.

Modulación de frecuencia: Sistema de modulación en el que

varía la frecuencia de la onda portadora según la cadencia de

las señales moduladoras manteniéndose constante la amplitud

de la onda portadora.

3. La forma para integrar los computadores de los usuarios de

Internet es la utilización de líneas telefónicas como medio de

acceso a los equipos de las empresas prestadoras del servicio.

Es por esto que cada persona debe dotar a su computador con

un aparato el cual se le conecta la línea telefónica.

El MODEM (modulador demodulador) es el que convierte

señales del computador en propias para viajar por la

línea telefónica; técnicamente se conocen como modulación y

demodulación.

El aspecto más importante del MODEM es la velocidad de

trabajo del mismo, la velocidad con la cual entrega y recibe las

señales es de 2.400 bps, o 14.400 bps, o 28.800 bps; entre más

alta la velocidad más rápida es la comunicación.


4. Código: Es un conjunto de reglas que proporcionan una

correspondencia biounivoca que permite representar datos,

programas u otras informaciones con vistas a facilitar su

tratamiento automático o transmisión.

5. Códigos usados en la historia:

<html>: define el inicio del documento HTML, le indica al

navegador que lo que viene a continuación debe ser

interpretado como código HTML.

<head>: define la cabecera del documento HTML, esta

cabecera suele contener información sobre el documento que

no se muestra directamente al usuario. Como por ejemplo el

título de la ventana del navegador. Dentro de la cabecera

<head> podemos encontrar:

<title> define el título de la página. Por lo general, el título

aparece en la barra de título encima de la ventana

<link>: para vincular el sitio a hojas de estilo o iconos Por

ejemplo:<link rel="stylesheet" href="/style.css"

type="text/css">

<style>: para colocar el estilo interno de la página, ya sea usando

CSS, JavaScript u otros lenguajes similares. No es necesario


colocarlo si se va a vincular a un archivo externo usando la

etiqueta <link>

<body>: define el contenido principal o cuerpo del documento.

Esta es la parte del documento html que se muestra en el

navegador; dentro de esta etiqueta pueden definirse

propiedades comunes a toda la página, como color de fondo y

márgenes. Dentro del cuerpo <body> podemos encontrar

numerosas etiquetas. A continuación se indican algunas a modo

de ejemplo:

<table><tr><td>Contenido de una celda</td></tr></table>

<script>Código de un script integrado en la página</script>

6. Normas de codificación

Definen la forma en la que se codifica un carácter dado en un

símbolo en otro sistema de representación. Ejemplos de esto son

el código Morse, la norma ASCII o la UTF-8, entre otros.

7. Tipos de codificación:

ASCII

De sus siglas en inglés American Standard Code for Information

Interchange (Código Estadounidense Estándar para el

Intercambio de Información), pronunciado generalmente [áski],

es un código de caracteres basado en el alfabeto latino tal como


se usa en inglés moderno y en otras lenguas occidentales. Fue

creado en 1963 por el Comité Estadounidense de Estándares

(ASA, conocido desde 1969 como el Instituto Estadounidense de

Estándares Nacionales, o ANSI) como una refundición o

evolución de los conjuntos de códigos utilizados entonces en

telegrafía. Más tarde, en 1967, se incluyeron las minúsculas, y se

redefinieron algunos códigos de control para formar el código

conocido como US-ASCII.

El código ASCII utiliza 7 bits para representar los caracteres,

aunque inicialmente empleaba un bit adicional (bit de paridad) que

se usaba para detectar errores en la transmisión. A menudo se

llama incorrectamente ASCII a otros códigos de caracteres de 8

bits, como el estándar ISO-8859-1 que es una extensión que

utiliza 8 bits para proporcionar caracteres adicionales usados en

idiomas distintos al inglés, como el español.

Casi todos los sistemas informáticos actuales utilizan el código

ASCII o una extensión compatible para representar textos y

para el control de dispositivos que manejan texto.

ASCII, como otros códigos de representación de caracteres,

especifica una correspondencia entre cadenas de bits y símbolos

escritos de la lengua, permitiendo de esta forma la comunicación

entre dispositivos digitales así como su procesado y


almacenamiento. El código de caracteres ASCII[1] — o una

extensión compatible (ver más abajo) — se usa casi en todos los

ordenadores, especialmente ordenadores personales y estaciones

de trabajo. El nombre más apropiado para este código de

caracteres es “US-ASCII”.[2]

! ” # $ % & ‘ ( ) * + , - . / 0 1 2 3 4 5 6 7 8 9 : ; < = > ?

@ABCDEFGHIJKLMNOPQRSTUVWXYZ[\]^

`abcdefghijklmnopqrstuvwxyz{|}~

ASCII es, en sentido estricto, un código de siete bits, lo que

significa que usa cadenas de bits representables con siete

dígitos binarios (que van de 0 a 127 en base decimal) para

representar información de caracteres. En el momento en el que

se introdujo el código ASCII muchos ordenadores trabajaban

con grupos de ocho bits (bytes u octetos), como la unidad mínima

de información; donde el octavo bit se usaba habitualmente como

bit de paridad con funciones de control de errores en líneas de

comunicación u otras funciones específicas del dispositivo. Las

máquinas que no usaban la comprobación de paridad asignaban al

octavo bit el valor cero en la mayoría de los casos, aunque otros

sistemas como las computadoras Prime, que ejecutaban PRIMOS

ponían el octavo bit del código ASCII a uno.


El código ASCII define una relación entre caracteres

específicos y secuencias de bits; además de reservar unos

cuantos códigos de control para el procesador de textos, y no

define ningún mecanismo para describir la estructura o la

apariencia del texto en un documento; estos asuntos están

especificados por otros lenguajes como los lenguajes de

etiquetas.

ASCII Extendido

Se denomina ASCII extendido a cualquier juego de caracteres

de 8 bits en el cual los códigos 32 a 126 (0×20 a 0×7E) coinciden

con los caracteres imprimibles de ASCII, así como los

caracteres comúnmente llamados “de espacio”, estos son los

códigos de control de 8 a 13 (0×08 a 0×0D), ambos inclusive.

Las codificaciones de ASCII extendido utilizan además parte o

la totalidad de los códigos superiores a 128 para codificar

caracteres adicionales a los caracteres imprimibles ASCII.

Codificaciones “ASCII extendido” más comunes:

• Página de códigos 437 (usual en las versiones en inglés del

IBM PC y MS-DOS)

• Página de códigos 850 (usual en las versiones de Europa

occidental del IBM PC y MS-DOS)


• Latin-1 (ISO-8859-1) (típico de Unix y, con modificaciones,

en Microsoft Windows y Macintosh)

Unicode

Unicode es un estándar industrial cuyo objetivo es proporcionar

el medio por el cual un texto en cualquier forma e idioma pueda

ser codificado para el uso informático.

El establecimiento de Unicode ha involucrado un ambicioso

proyecto para reemplazar los esquemas de codificación de

caracteres existentes, muchos de los cuales están muy limitados

en tamaño y son incompatibles con entornos multilingües. Unicode

se ha vuelto el más extenso y completo esquema de codificación

de caracteres, siendo el más dominante en la internacionalización

y adaptación local del software informático. El estándar ha sido

implementado en un número considerable de tecnologías

recientes, que incluyen XML, Java y sistemas operativos

modernos.

Unicode cubre la mayor parte de las escrituras usadas

actualmente, incluyendo: Árabe, Armenio, Bengalí, Birmano,

Braille, Sílabas aborígenes canadienses, Cheroqui, Copto, Cirílico,

Devanāgarī, Esperanto, Ge’ez, Georgiano, Griego, Guyaratí,

Gurmukhi, Hangul (Coreano), Han (Kanji, Hanja y Hanzi), Japonés

(Kanji, Hiragana y Katakana), Hebreo, Jémer (Camboyano),


Kannada (Canarés), Lao, Latino, Malayalam, Mongol, Oriya, Syriac,

Tailandés (Thai), Tamil, Tibetano, Yi, Zhuyin (Bopomofo)

Unicode ha ido añadiendo escrituras y cubrirá aún más,

incluyendo escrituras históricas menos utilizadas, incluso

aquellas extinguidas para propósitos académicos: Cuneiforme,

Griego antiguo, Lineal B, Fenicio, Rúnico, Sumerio, Ugarítico.

Por el momento Unicode solamente ha sido mostrado como una

manera de asignar un código único a cada carácter utilizado en

los lenguajes escritos del mundo. El almacenamiento de esos

números en el procesamiento de textos es otro tema; los

problemas surgen del hecho que mucho del software escrito

puede manejar solamente codificación de caracteres de 8 bits,

con respaldo a Unicode agregado recientemente de forma lenta.

De manera similar en cuanto a la representación de caracteres

de Asia, los caracteres de doble byte no pueden codificar más

que 65.536 caracteres, y en la practica las arquitecturas

elegidas imponen límites muy pequeños. Tales límites no son

suficientes ni siquiera para las necesidades escolares del

lenguaje Chino.

La lógica interna de la mayoría del software de 8 bits permite de

forma típica solamente 8 bits para cada carácter, haciendo

imposible utilizar más de 256 puntos en código sin procesamiento


especial. El software de 16 bits solamente puede guardar poco

más de 6 decenas de miles de caracteres. Unicode, por otro lado

ha definido más de 90.000 caracteres codificados. Los

diseñadores de los sistemas entonces han tenido que sugerir

muchos métodos y mecanismos para implementar Unicode; el

método implementado depende del espacio de almacenamiento

disponible, la compatibilidad de los códigos fuentes y la inter-

operatividad con otros sistemas.

Unicode define dos métodos de “mapeo” o de localización de

caracteres:

• La codificación UTF (Unicode Transformation Format)

Formato de Transformación Unicode.

• La codificación UCS (Universal Character Set) Juego de

Caracteres Universal.

Las codificaciones incluyen:

• UTF-7 — una codificación relativamente poco popular de 7

bits, a menudo considerada obsoleta.

• UTF-8 — una codificacón de 8 bits de longitud variable

• UCS-2 — una codificación de 16 bits de longitud fija que

solamente permite el “mapeo” o la búsqueda en la Plana

Básica Multilengüe.

• UTF-16 — una codificación de 16 bits de longitud variable.


• UCS-4 y UTF-32 — un par de codificaciones de 32 bits de

longitud fija que son funcionalmente idénticas.

• UTF-EBCDIC — una codificación poco difundida creada

para sistemas basados en EBCDIC.

Los números en los nombres de los códigos indican la cantidad de

bits de cada carácter (para las codificaciones UTF) o el número

de bytes por carácter (para las UCS).

A continuación se describen en el mismo orden algunos detalles

sobre cada tipo de codificación:

UTF-8 utiliza de uno hasta 4 bytes por cada punto de código y,

siendo relativamente compacto (para la escritura basada en

caracteres latinos) y compatible con ASCII. Proporciona la

codificación estándar para el intercambio de texto en Unicode.

También es utilizado por las más recientes versiones de Linux

como reemplazo a la herencia de códigos en el manejo de textos

en general.

Las codificaciones UCS-2 y UTF-16 especifican la BOM o la

Marca de Orden de Byte especifica el Unicode para usarlo al

principio de los archivos de texto. Algunos desarrolladores de

software lo han adoptado para otras codificaciones, incluyendo

UTF-8, la cual no necesita una indicación de orden de byte. En

este caso intenta marcar el archivo indicando que contiene texto


Unicode. El punto código de la BOM, U+FEFF tiene la importante

propiedad de la inambigüedad, sin importar la codificación

Unicode utilizada. Las unidades FE y FF nunca aparecen en UTF-

8; U+FFFE (el resultado del intercambio the U+FEFF) no es igual

a un carácter válido, y U+FEFF transporta la longitud-cero o

espacio sin roptura (un carácter sin apariencia y sin otro efecto

más que prevenir la formación de ligaduras). El mismo carácter

convertido a UTF-8 se convierte en la siguiente secuencia de

bytes EF BB BF.

En los códigos UTF-32 y UCS-4, un código de 32 bits funciona

como una representación directa y confiable de cualquier punto

de código de un carácter (aunque la endianness, que varia

dependiendo de la arquitectura del procesador de cada

computadora, afecta como se manifiesta el valor del código en su

secuencia de bits). Aunque en otros casos, cada código puede ser

representado por un código de valores de números variables.

UTF-16, mientras tanto, la cual normalmente asigna 16 bits por

cada punto de código (la misma que UCS-2) aunque a veces asigna

32, es utilizada por muchas APIs (Interfaz de Programación de

Aplicaciones por sus siglas en inglés). Mayormente por razones

históricas que datan desde los días en que Unicode estaba

basado en UCS-2 o era una interfaz con otras APIs que usaban

UTF-16 . UTF-16 es el formato estándar para la API de Windows


(aunque el soporte para sustitutos no está habilitado por

omisión), para la de Java y la de ambientes .NET bytecode.

UCS-4 y UTF-32 no son comúnmente utilizados, ya que no más de

21 de los 32 bits asignados a cada punto de código serán alguna

ves utilizados, lo que si se está volviendo común es la

implementación del código UCS-4 en la programación para el

almacenamiento interno del texto codificado.

GB18030 es otra forma de codificación para el Unicode, pero

proveniente de la Administración para la Estandarización de

China.

Otras codificaciones de caracteres populares

• ISO 646

o ASCII

• EBCDIC

• ISO 8859:

o ISO 8859-1, ISO 8859-2, ISO 8859-3, ISO 8859-4,

ISO 8859-5, ISO 8859-6, ISO 8859-7, ISO 8859-8,

ISO 8859-9, ISO 8859-10, ISO 8859-11, ISO 8859-

13, ISO 8859-14, ISO 8859-15, ISO 8859-16


o CP437, CP737, CP850, CP852, CP855, CP857, CP858,

CP860, CP861, CP863, CP865, CP866, CP869 .

8. Decodificación: Es una operación consistente en representar

una información mediante un código, por ejemplo: Representar

cada carácter alfanumérico mediante un conjunto de BITS de

valor 0 a 1.