miércoles, 23 de marzo de 2011

FDDI

FDDI (Fiber Distributed Data Interface) es un conjunto de estándares ISO y ANSI para la transmisión de datos en redes de computadoras de área extendida o local (LAN) mediante cable de fibra óptica. Se basa en la arquitectura token ring y permite una comunicación tipo Full Duplex. Dado que puede abastecer a miles de usuarios, una LAN FDDI suele ser empleada como backbone para una red de área amplia (WAN).



También existe una implementación de FDDI en cables de hilo de cobre conocida como CDDI. La tecnología de Ethernet a 100 Mbps (100BASE-FX y 100BASE-TX) está basada en FDDI.



Red Ethernet

Ethernet es un estándar de redes de computadoras de área local con acceso al medio por contienda CSMA/CD ("Acceso Múltiple por Detección de Portadora con Detección de Colisiones"), es una técnica usada en redes Ethernet para mejorar sus prestaciones. El nombre viene del concepto físico de ether. Ethernet define las características de cableado y señalización de nivel físico y los formatos de tramas de datos del nivel de enlace de datos del modelo OSI.



La Ethernet se tomó como base para la redacción del estándar internacional IEEE 802.3. Usualmente se toman Ethernet e IEEE 802.3 como sinónimos. Ambas se diferencian en uno de los campos de la trama de datos. Las tramas Ethernet e IEEE 802.3 pueden coexistir en la misma red.

Interconeccion de una red

Cuando se diseña una red de datos se desea sacar el máximo rendimiento de sus capacidades. Para conseguir esto, la red debe estar preparada para efectuar conexiones a través de otras redes, sin importar qué características posean.

El objetivo de la Interconexión de Redes (internetworking) es dar un servicio de comunicación de datos que involucre diversas redes con diferentes tecnologías de forma transparente para el usuario. Este concepto hace que las cuestiones técnicas particulares de cada red puedan ser ignoradas al diseñar las aplicaciones que utilizarán los usuarios de los servicios.

Los dispositivos de interconexión de redes sirven para superar las limitaciones físicas de los elementos básicos de una red, extendiendo las topologías de esta.

Algunas de las ventajas que plantea la interconexión de redes de datos, son:



•Compartición de recursos dispersos.

•Coordinación de tareas de diversos grupos de trabajo.

•Reducción de costos, al utilizar recursos de otras redes.

•Aumento de la cobertura geográfica.

Tipos de Interconexión de redes

Se pueden distinguir dos tipos de interconexión de redes, dependiendo del ámbito de aplicación:



•Interconexión de Área Local (RAL con RAL)

Una interconexión de Área Local conecta redes que están geográficamente cerca, como puede ser la interconexión de redes de un mismo edificio o entre edificios, creando una Red de Área Metropolitana (MAN)



•Interconexión de Área Extensa (RAL con MAN y RAL con WAN)

La interconexión de Área Extensa conecta redes geográficamente dispersas, por ejemplo, redes situadas en diferentes ciudades o países creando una Red de Área Extensa (WAN)



2. Dispositivos de interconexion de redes.



Concentradores (Hubs)

El término concentrador o hub describe la manera en que las conexiones de cableado de cada nodo de una red se centralizan y conectan en un único dispositivo. Se suele aplicar a concentradores Ethernet, Token Ring, y FDDI(Fiber Distributed Data Interface) soportando módulos individuales que concentran múltiples tipos de funciones en un solo dispositivo. Normalmente los concentradores incluyen ranuras para aceptar varios módulos y un panel trasero común para funciones de encaminamiento, filtrado y conexión a diferentes medios de transmisión (por ejemplo Ethernet y TokenRing).

Los primeros hubs o de "primera generación" son cajas de cableado avanzadas que ofrecen un punto central de conexión conectado a varios puntos. Sus principales beneficios son la conversión de medio (por ejemplo de coaxial a fibra óptica), y algunas funciones de gestión bastante primitivas como particionamiento automático cuando se detecta un problema en un segmento determinado.

Los hubs inteligentes de "segunda generación" basan su potencial en las posibilidades de gestión ofrecidas por las topologías radiales (TokenRing y Ethernet). Tiene la capacidad de gestión, supervisión y control remoto, dando a los gestores de la red la oportunidad de ofrecer un período mayor de funcionamiento de la red gracias a la aceleración del diagnóstico y solución de problemas. Sin embargo tienen limitaciones cuando se intentan emplear como herramienta universal de configuración y gestión de arquitecturas complejas y heterogéneas.

Los nuevos hubs de "tercera generación" ofrecen proceso basado en arquitectura RISC (Reduced Instructions Set Computer) junto con múltiples placas de alta velocidad. Estas placas están formadas por varios buses independientes Ethernet, TokenRing, FDDI y de gestión, lo que elimina la saturación de tráfico de los actuales productos de segunda generación.

A un hub Ethernet se le denomina "repetidor multipuerta". El dispositivo repite simultáneamente la señal a múltiples cables conectados en cada uno de los puertos del hub. En el otro extremo de cada cable está un nodo de la red, por ejemplo un ordenador personal. Un hub Ethernet se convierte en un hub inteligente (smart hub) cuando puede soportar inteligencia añadida para realizar monitorización y funciones de control.

Los concentradores inteligentes (smart hub) permiten a los usuarios dividir la red en segmentos de fácil detección de errores a la vez que proporcionan una estructura de crecimiento ordenado de la red. La capacidad de gestión remota de los hubs inteligentes hace posible el diagnóstico remoto de un problema y aísla un punto con problemas del resto de la RAL, con lo que otros usuarios no se ven afectados.

El tipo de hub Ethernet más popular es el hub 10BaseT. En este sistema la señal llega a través de cables de par trenzado a una de las puertas, siendo regenerada eléctricamente y enviada a las demás salidas. Este elemento también se encarga de desconectar las salidas cuando se produce una situación de error.



A un hub TokenRing se le denomina Unidad de Acceso Multiestación (MAU) Multiestation Access Unit). Las MAUs se diferencian de los hubs Ethernet porque las primeras repiten la señal de datos únicamente a la siguiente estación en el anillo y no a todos los nodos conectados a ella como hace un hub Ethernet. Las MAUs pasivas no tienen inteligencia, son simplemente retransmisores. Las MAUs activas no sólo repiten la señal, además la amplifican y regeneran. Las MAUs inteligentes detectan errores y activan procedimientos para recuperarse de ellos.



Repetidores

El repetidor es un elemento que permite la conexión de dos tramos de red, teniendo como función principal regenerar eléctricamente la señal, para permitir alcanzar distancias mayores manteniendo el mismo nivel de la señal a lo largo de la red. De esta forma se puede extender, teóricamente, la longitud de la red hasta el infinito.

Un repetidor interconecta múltiples segmentos de red en el nivel físico del modelo de referencia OSI. Por esto sólo se pueden utilizar para unir dos redes que tengan los mismos protocolos de nivel físico.

Los repetidores no discriminan entre los paquetes generados en un segmento y los que son generados en otro segmento, por lo que los paquetes llegan a todos los nodos de la red. Debido a esto existen más riesgos de colisión y más posibilidades de congestión de la red.

Se pueden clasificar en dos tipos:



•Locales: cuando enlazan redes próximas.

Remotos: cuando las redes están alejadas y se necesita un medio intermedio de comunicación.

En la siguiente figura se muestra un ejemplo de utilización de un repetidor.

Normalmente la utilización de repetidores está limitada por la distancia máxima de la red y el tamaño máximo de cada uno de los segmentos de red conectados. En las redes Ethernet, por problemas de gestión de tráfico en la red, no deben existir más de dos repetidores entre dos equipos terminales de datos, lo que limita la distancia máxima entre los nodos más lejanos de la red a 1.500 m. (enlazando con dos repetidores tres segmentos de máxima longitud, 500 m).

Ventajas:



•Incrementa la distancia cubierta por la RAL.

•Retransmite los datos sin retardos.

•Es transparente a los niveles superiores al físico.

Desventajas:



•Incrementa la carga en los segmentos que interconecta.

Los repetidores son utilizados para interconectar RALs que estén muy próximas, cuando se quiere una extensión física de la red. La tendencia actual es dotar de más inteligencia y flexibilidad a los repetidores, de tal forma que ofrezcan capacidad de gestión y soporte de múltiples medios físicos, como Ethernet sobre par trenzado (10BaseT), ThickEthernet (10Base5), ThinEthernet (10Base2), TokenRing, fibra óptica, etc.



Puentes (Bridges)

Son elementos inteligentes, constituidos como nodos de la red, que conectan entre sí dos subredes, transmitiendo de una a otra el tráfico generado no local. Al distinguir los tráficos locales y no locales, estos elementos disminuyen el mínimo total de paquetes circulando por la red por lo que, en general, habrá menos colisiones y resultará más difícil llegar a la congestión de la red.

Operan en el Nivel de Enlace del modelo de referencia OSI, en el nivel de trama MAC (Medium Access Control, Control de Acceso al Medio) y se utilizan para conectar o extender redes similares, es decir redes que tienen protocolos idénticos en los dos niveles inferiores OSI, (como es TokenRing con TokenRing, Ethernet con Ethernet, etc) y conexiones a redes de área extensa.

Se encargan de filtrar el tráfico que pasa de una a otra red según la dirección de destino y una tabla que relaciona las direcciones y la red en que se encuentran las estaciones asignadas.

Las redes conectadas a través de bridge aparentan ser una única red, ya que realizan su función transparentemente; es decir, las estaciones no necesitan conocer la existencia de estos dispositivos, ni siquiera si una estación pertenece a uno u otro segmento.

Un bridge ejecuta tres tareas básicas:



•Aprendizaje de las direcciones de nodos en cada red.

•Filtrado de las tramas destinadas a la red local.

•Envío de las tramas destinadas a la red remota.

Arquitectura de Red

La arquitectura de una red viene definida por su topología, el método de acceso a la red y los protocolos de comunicación. Antes de que cualquier estación de trabajo pueda utilizar el sistema de cableado, debe definirse con cualquier otro nodo de la red.

Topología.

Se denomina topología a la distribución física de una red o define la forma de interconexión entre computadoras. Hay dos categorías de diseño de topología que depende si es una Red de Área Local (LAN, Local Área Network), o una conexión de redes en áreas metropolitana (MAN, Metropolitan Área Network) o conexión de redes con enrutadores y conexión de Redes de Área Extensa (WAN, Wire Área Network). A continuación se discuten cada una de estas individualmente.



Topología en Bus. En esta tipología, los elementos que constituyen la red se disponen linealmente, es decir, en serie y conectados por medio de un cable; el bus. Las tramas de información emitidas por un nodo (terminal o servidor) se propagan por todo el bus(en ambas direcciones), alcanzado a todos los demás nodos. Cada nodo de la red se debe encargar de reconocer la información que recorre el bus, para así determinar cual es la que le corresponde, la destinada a él.



Es el tipo de instalación más sencillo y un fallo en un nodo no provoca la caída del sistema de la red. Por otra parte, una ruptura del bus es difícil de

localizar(dependiendo de la longitud del cable y el número de terminales conectados a él) y provoca la inutilidad de todo el sistema.



Como ejemplo más conocido de esta tipología, encontramos la red Ethernet de Xerox. El método de acceso utilizado es el CSMA/CD, método que gestiona el acceso al bus por parte de los terminales y que por medio de un algoritmo resuelve los conflictos causados en las colisiones de información. Cuando un nodo desea iniciar una transmisión, debe en primer lugar escuchar el medio para saber si está ocupado, debiendo esperar en caso afirmativo hasta que quede libre. Si se llega a producir una colisión, las estaciones reiniciarán cada una su transmisión, pero transcurrido un tiempo aleatorio distinto para cada estación. Esta es una breve descripción del protocolo de acceso CSMA/CD, pues actualmente se encuentran implementadas cantidad de variantes de dicho método con sus respectivas peculiaridades.

Dhcp

DHCP (sigla en inglés de Dynamic Host Configuration Protocol - Protocolo de configuración dinámica de host) es un protocolo de red que permite a los clientes de una red IP obtener sus parámetros de configuración automáticamente. Se trata de un protocolo de tipo cliente/servidor en el que generalmente un servidor posee una lista de direcciones IP dinámicas y las va asignando a los clientes conforme éstas van estando libres, sabiendo en todo momento quién ha estado en posesión de esa IP, cuánto tiempo la ha tenido y a quién se la ha asignado después.



Este protocolo se publicó en octubre de 1993, estando documentado actualmente en la RFC 2131. Para DHCPv6 se publica el RFC 3315

AppleTalk

Appletalk es un conjunto de protocolos desarrollados por Apple Inc. para la conexión de redes. Fue incluido en un Macintosh en 1984 y actualmente está en desuso en los Macintosh en favor de las redes TCP/IP.



AppleTalk identifica varias entidades de red, cada una como un nodo. Un nodo es simplemente un dispositivo conectado a una red AppleTalk. Los nodos más comunes son computadoras Macintosh e impresoras Láser, pero muchos otros tipos de computadoras son también capaces de comunicarse con AppleTalk, incluyendo IBM PC's, Digital VAX/VMS Systems y una gran variedad de estaciones de trabajo y enrutadores. Una red AppleTalk es simplemente un cable lógico sencillo y una zona AppleTalk es un grupo lógico de una o más redes.



AppleTalk fue diseñada como un cliente/servidor o sistema de red distribuido, en otras palabras, los usuarios comparten recursos de red como archivos e impresoras con otros usuarios. Las interacciones con servidores son transparentes para el usuario, ya que, la computadora por sí misma determina la localización del material requerido, accediendo a él sin que requiera información del usuario.

El diseño de Appletalk se basa en el modelo OSI pero a diferencia de otros de los sistemas LAN no fue construido bajo el sistema Xerox XNS, no tenía Ethernet y tampoco tenía direcciones de 48 bit para el encaminamiento.



[editar] DireccionamientoUna dirección de Appletalk constaba de 4 bytes. Un número de red de dos bytes, un número de nodo de un byte y un número de socket de un byte. De éstos, solamente el número de red requiría configuración y era obtenido de un enrutador. Cada nodo elegía dinámicamente su propio número del nodo, según un protocolo que manejaba la contención entre diversos nodos que elegían accidentalmente el mismo número. Para los números del socket, algunos números conocidos eran reservados para los propósitos especiales específicos de Appletalk.



Debido a esto, los usuarios no podían esperar tener acceso a servicios especificando su dirección. En lugar de direcciones, todos los servicios tenían nombres que intentaban ser significativos a los usuarios, y también eran suficientemente largos para reducir al mínimo los conflictos de conexión.



Un nombre en Appletalk envía directamente a un servicio que era proporcionado por una máquina, que estaba por completo separado del nombre de esa misma máquina. Así, los servicios se podrían mover a diferentes máquinas y, siempre y cuando se guardara el nombre del servicio, los usuarios no tendrían que cambiar nada para continuar teniendo acceso al servicio. Y la misma máquina podría recibir cualquier número de servicios del mismo tipo, sin ningún tipo de conflicto de la conexión de red.



Modelo OSI y Capas del modelo OSI

Siguiendo el esquema de este modelo se crearon numerosos protocolos. El advenimiento de protocolos más flexibles donde las capas no están tan demarcadas y la correspondencia con los niveles no era tan clara puso a este esquema en un segundo plano. Sin embargo es muy usado en la enseñanza como una manera de mostrar cómo puede estructurarse una "pila" de protocolos de comunicaciones.



El modelo especifica el protocolo que debe ser usado en cada capa, y suele hablarse de modelo de referencia ya que es usado como una gran herramienta para la enseñanza de comunicación de redes. Este modelo está dividido en siete capas:

 Capa física
Es la que se encarga de las conexiones físicas de la computadora hacia la red, tanto en lo que se refiere al medio físico como a la forma en la que se transmite la información.


Sus principales funciones se pueden resumir como:

Definir el medio o medios físicos por los que va a viajar la comunicación: cable de pares trenzados (o no, como en RS232/EIA232), coaxial, guías de onda, aire, fibra óptica.

Definir las características materiales (componentes y conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión de los datos por los medios físicos.

Definir las características funcionales de la interfaz (establecimiento, mantenimiento y liberación del enlace físico).

Transmitir el flujo de bits a través del medio.

Manejar las señales eléctricas del medio de transmisión, polos en un enchufe, etc.

Garantizar la conexión (aunque no la fiabilidad de dicha conexión).

Capa de enlace de datos

Esta capa se ocupa del direccionamiento físico, de la topología de la red, del acceso al medio, de la deteccion de errores, de la distribución ordenada de tramas y del control del flujo.



Como objetivo o tarea principal, la capa de enlace de datos se encarga de tomar una transmisión de datos ” cruda ” y transformarla en una abstracción libre de errores de transmisión para la capa de red. Este proceso se lleva a cabo dividiendo los datos de entrada en marcos (también llamados tramas) de datos (de unos cuantos cientos de bytes), transmite los marcos en forma secuencial, y procesa los marcos de estado que envía el nodo destino.


Capa de red

El objetivo de la capa de red es hacer que los datos lleguen desde el origen al destino, aún cuando ambos no estén conectados directamente. Los dispositivos que facilitan tal tarea se denominan encaminadores, aunque es más frecuente encontrar el nombre inglés routers y, en ocasiones enrutadores. Los routers trabajan en esta capa, aunque pueden actuar como switch de nivel 2 en determinados casos, dependiendo de la función que se le asigne. Los firewalls actúan sobre esta capa principalmente, para descartar direcciones de máquinas.



En este nivel se realiza el direccionamiento lógico y la determinación de la ruta de los datos hasta su receptor final.


Capa de transporte

Capa encargada de efectuar el transporte de los datos (que se encuentran dentro del paquete) de la máquina origen a la de destino, independizándolo del tipo de red física que se esté utilizando. La PDU de la capa 4 se llama Segmento o Datagrama, dependiendo de si corresponde a TCP o UDP. Sus protocolos son TCP y UDP; el primero orientado a conexión y el otro sin conexión. Trabajan, por lo tanto, con puertos lógicos y junto con la capa red dan forma a los conocidos como Sockets IP:Puerto (192.168.1.1:80).

 Capa de sesión

Esta capa es la que se encarga de mantener y controlar el enlace establecido entre dos computadores que están transmitiendo datos de cualquier índole. Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones definidas de principio a fin, reanudándolas en caso de interrupción. En muchos casos, los servicios de la capa de sesión son parcial o totalmente prescindibles.



 Capa de presentación

El objetivo es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres los datos lleguen de manera reconocible.



Esta capa es la primera en trabajar más el contenido de la comunicación que el cómo se establece la misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.



Esta capa también permite cifrar los datos y comprimirlos. Por lo tanto, podría decirse que esta capa actúa como un traductor.



Capa de aplicación

Ofrece a las aplicaciones la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico (Post Office Protocol y SMTP), gestores de bases de datos y servidor de ficheros (FTP), por UDP pueden viajar (DNS y Routing Information Protocol). Hay tantos protocolos como aplicaciones distintas y puesto que continuamente se desarrollan nuevas aplicaciones el número de protocolos crece sin parar.



Cabe aclarar que el usuario normalmente no interactúa directamente con el nivel de aplicación. Suele interactuar con programas que a su vez interactúan con el nivel de aplicación pero ocultando la complejidad subyacente.

Protocolo TCP IP

Un protocolo es un conjunto de reglas establecidas entre dos dispositivos para permitir la comunicación entre ambos.

Se han desarrollado diferentes familias de protocolos para comunicación por red de datos para los sistemas UNIX. El más ampliamente utilizado es el Internet Protocol Suite, comúnmente conocido como TCP / IP.

Es un protocolo DARPA que proporciona transmisión fiable de paquetes de datos sobre redes. El nombre TCP / IP Proviene de dos protocolos importantes de la familia, el Transmission Contorl Protocol (TCP) y el Internet Protocol (IP). Todos juntos llegan a ser más de 100 protocolos diferentes definidos en este conjunto.



El TCP / IP es la base del Internet que sirve para enlazar computadoras que utilizan diferentes sistemas operativos, incluyendo PC, minicomputadoras y computadoras centrales sobre redes de área local y área extensa. TCP / IP fue desarrollado y demostrado por primera vez en 1972 por el departamento de defensa de los Estados Unidos, ejecutándolo en el ARPANET una red de área extensa del departamento de defensa.

Reglas de transmision de datos

En el campo de las telecomunicaciones, un protocolo de comunicaciones es el conjunto de reglas normalizadas para la representación, señalización, autenticación y detección de errores necesario para enviar información a través de un canal de comunicación. Un ejemplo de un protocolo de comunicaciones simple adaptado a la comunicación por voz es el caso de un locutor de radio hablando a sus radioyentes.







Los protocolos de comunicación para la comunicación digital por redes de computadoras tienen características destinadas a asegurar un intercambio de datos fiable a través de un canal de comunicación imperfecto. Los protocolos de comunicación siguen ciertas reglas para que el sistema funcione apropiadamente.





Modos de transmision

Una transmisión de datos tiene que ser controlada por medio del tiempo, para que el equipo receptor conozca en que momento se puede esperar que una transferencia tenga lugar. Hay dos principios de transmisión para hacer esto posible:

Transmisión Síncrona.
Transmisión Asíncrona.


TRANSMISIÓN SÍNCRONA
La transmisión síncrona se hace con un ritmo que se genera centralizadamente en la red y es el mismo para el emisor como para el receptor. La información útil es transmitida entre dos grupos, denominados genéricamente delimitadores. La figura 3.4 muestra la transmisión síncrona.
Algunas de las características de la transmisión síncrona son:
Los bloques a ser transmitidos tienen un tamaño que oscila entre 128 y 1,024 bytes.
La señal de sincronismo en el extremo fuente, puede ser generada por el equipo terminal de datos o por el módem.

El rendimiento de la transmisión síncrona, cuando se transmiten bloques de 1,024 bytes y se usan no más de 10 bytes de cabecera y terminación, supera el 99 por 100.


Ventajas y desventajas de la transmisión síncrona:

Posee un alto rendimiento en la transmisión.

Los equipamientos necesarios son de tecnología más completa y de costos más altos.

Son especialmente aptos para ser usados en transmisiones de altas velocidades (iguales o mayores a 1,200 baudios de velocidad de modulación).

El flujo de datos es más regular.

TRANSMISIÓN ASÍNCRONA

En la transmisión asíncrona es el emisor el que decide cuando se envía el mensaje de datos a través de la red. En una red asíncrona el receptor por lo consiguiente no sabe exactamente cuando recibirá un mensaje. Por lo tanto cada mensaje debe contener, aparte del mensaje en sí, una información sobre cuando empieza el mensaje y cuando termina, de manera que el receptor conocerá lo que tiene que decodificar.

En el procedimiento asíncrono, cada carácter a ser transmitido es delimitado por un bit denominado de cabecera o de arranque, y uno o dos bits denominados de terminación o de parada.

El bit de arranque tiene dos funciones de sincronización de los relojes del transmisor y del receptor.

Algunas de las características de la transmisión asíncrona son:

Los equipos terminales que funcionan en modo asíncrono, se denominan también “terminales en modo carácter”.

La transmisión asíncrona también se le denomina arrítmica o de “start-stop”.

La transmisión asíncrona es usada en velocidades de modulación de hasta 1,200 baudios.

El rendimiento de usar un bit de arranque y dos de parada, en una señal que use código de 7 bits más uno de paridad (8 bits sobre 11 transmitidos) es del 72 por 100.

Ventajas y desventajas del modo asíncrono:

En caso de errores se pierde siempre una cantidad pequeña de caracteres, pues éstos se sincronizan y se transmiten de uno en uno.

Bajo rendimiento de transmisión, dada la proporción de bits útiles y de bits de sincronismo, que hay que transmitir por cada carácter.

Es un procedimiento que permite el uso de equipamiento más económico y de tecnología menos sofisticada.

Se adecua más fácilmente en aplicaciones, donde el flujo transmitido es más irregular.

Son especialmente aptos, cuando no se necesitan lograr altas velocidades.



Banda base y Banda Ancha

El término banda base se refiere a la banda de frecuencias producida por un transductor, tal como un micrófono, un manipulador telegráfico u otro dispositivo generador de señales que no es necesario adaptarlo al medio por el que se va a trasmitir.



Banda base es la señal de una sola transmisión en un canal, banda ancha significa que lleva más de una señal y cada una de ellas se transmite en diferentes canales, hasta su número máximo de canal.



En los sistemas de transmisión, la banda base es generalmente utilizada para modular una portadora. Durante el proceso de demodulación se reconstruye la señal banda base original. Por ello, podemos decir que la banda base describe el estado de la señal antes de la modulación y de la multiplexación y después de la demultiplexación y desmodulación.



Las frecuencias de banda base se caracterizan por ser generalmente mucho más bajas que las resultantes cuando éstas se utilizan para modular una portadora o subportadora. Por ejemplo, es señal de banda base la obtenida de la salida de video compuesto de dispositivos como grabadores/reproductores de video y consolas de juego, a diferencia de las señales de televisión que deben ser moduladas para poder transportarlas vía aérea (por señal libre o satélite) o por cable.