Bienvenidos

Welcome

comenten

comenten

martes, 27 de abril de 2010

CONMUTACIÓN DE CIRCUITO

CONMUTACIÓN DE CIRCUITO


Es aquella en la que los equipos de conmutación deben establecer un camino físico entre los medios de comunicación previo a la conexión entre los usuarios. Este camino permanece activo durante la comunicación entre los usuarios, liberándose al terminar la comunicación. Ejemplo: Red Telefónica Conmutada.
Su funcionamiento pasa por las siguientes etapas: solicitud, establecimiento, transferencia de archivos y liberación de conexión.
Ventajas
La transmisión se realiza en tiempo real, siendo adecuado para comunicación de voz y video.
Acaparamiento de recursos. Los nodos que intervienen en la comunicación disponen en exclusiva del circuito establecido mientras dura la sesión.
No hay contención. Una vez que se ha establecido el circuito las partes pueden comunicarse a la máxima velocidad que permita el medio, sin compartir el ancho de banda ni el tiempo de uso.
El circuito es fijo. Dado que se dedica un circuito físico específicamente para esa sesión de comunicación, una vez establecido el circuito no hay pérdidas de tiempo calculando y tomando decisiones de encaminamiento en los nodos intermedios. Cada nodo intermedio tiene una sola ruta para los paquetes entrantes y salientes que pertenecen a una sesión específica.
Simplicidad en la gestión de los nodos intermedios. Una vez que se ha establecido el circuito físico, no hay que tomar más decisiones para encaminar los datos entre el origen y el destino.
Desventajas
Retraso en el inicio de la comunicación. Se necesita un tiempo para realizar la conexión, lo que conlleva un retraso en la transmisión de la información.
Acaparamiento (bloqueo) de recursos. No se aprovecha el circuito en los instantes de tiempo en que no hay transmisión entre las partes. Se desperdicia ancho de banda mientras las partes no están comunicándose.
El circuito es fijo. No se reajusta la ruta de comunicación, adaptándola en cada posible instante al camino de menor costo entre los nodos. Una vez que se ha establecido el circuito, no se aprovechan los posibles caminos alternativos con menor coste que puedan surgir durante la sesión.
Poco tolerante a fallos. Si un nodo intermedio falla, todo el circuito se viene abajo. Hay que volver a establecer conexiones desde el principio.
Conmutación de mensajes
Este método era el usado por los sistemas telegráficos, siendo el más antiguo que existe. Para transmitir un mensaje a un receptor, el emisor debe enviar primero el mensaje completo a un nodo intermedio el cual lo encola en la cola donde almacena los mensajes que le son enviados por otros nodos. Luego, cuando llega su turno, lo reenviará a otro y éste a otro y así las veces que sean necesarias antes de llegar al receptor. El mensaje deberá ser almacenado por completo y de forma temporal en el nodo intermedio antes de poder ser reenviado al siguiente, por lo que los nodos temporales deben tener una gran capacidad de almacenamiento.
Ventajas
Se multiplexan mensajes de varios procesos hacia un mismo destino, y viceversa, sin que los solicitantes deban esperar a que se libere el circuito
El canal se libera mucho antes que en la conmutación de circuitos, lo que reduce el tiempo de espera necesario para que otro remitente envíe mensajes.
No hay circuitos ocupados que estén inactivos. Mejor aprovechamiento del canal.
Si hay error de comunicación se retransmite una menor cantidad de datos.
Desventajas
Se añade información extra de encaminamiento (cabecera del mensaje) a la comunicación. Si esta información representa un porcentaje apreciable del tamaño del mensaje el rendimiento del canal (información útil/información transmitida) disminuye.
Mayor complejidad en los nodos intermedios:
Ahora necesitan inspeccionar la cabecera de cada mensaje para tomar decisiones de encaminamiento.
También deben examinar los datos del mensaje para comprobar que se ha recibido sin errores.
También necesitan disponer de memoria (discos duros) y capacidad de procesamiento para almacenar, verificar y retransmitir el mensaje completo.
Sigue sin ser viable la comunicación interactiva entre los terminales.
Si la capacidad de almacenamiento se llena y llega un nuevo mensaje, no puede ser almacenado y se perderá definitivamente.
Un mensaje puede acaparar una conexión de un nodo a otro mientras transmite un mensaje, lo que lo incapacita para poder ser usado por otros nodos.

Conmutación de paquetes
El emisor divide los mensajes a enviar en un número arbitrario de paquetes del mismo tamaño, donde adjunta una cabecera y la dirección origen y destino así como datos de control que luego serán transmitidos por diferentes medios de conexión entre nodos temporales hasta llegar a su destino. Este método de conmutación es el que más se utiliza en las redes de ordenadores actuales. Surge para optimizar la capacidad de transmisión a través de las líneas existentes.
Al igual que en la conmutación de mensajes, los nodos temporales almacenan los paquetes en colas en sus memorias que no necesitan ser demasiado grandes.
Modos de Conmutación
Circuito virtual:
Cada paquete se encamina por el mismo circuito virtual que los anteriores.
Por tanto se controla y asegura el orden de llegada de los paquetes a destino
Datagrama
Cada paquete se encamina de manera independiente de los demás
Por tanto la red no puede controlar el camino seguido por los paquetes, ni asegurar el orden de llegada a destino.
Ventajas
Si hay error de comunicación se retransmite una cantidad de datos aun menor que en el caso de mensajes
En caso de error en un paquete solo se reenvía ese paquete, sin afectar a los demás que llegaron sin error.
Comunicación interactiva. Al limitar el tamaño máximo del paquete, se asegura que ningún usuario pueda monopolizar una línea de transmisión durante mucho tiempo (microsegundos), por lo que las redes de conmutación de paquetes pueden manejar tráfico interactivo.
Aumenta la flexibilidad y rentabilidad de la red.
Se puede alterar sobre la marcha el camino seguido por una comunicación (p.ej. en caso de avería de uno o más enrutadores).
Se pueden asignar prioridades a los paquetes de una determinada comunicación. Así, un nodo puede seleccionar de su cola de paquetes en espera de ser transmitidos aquellos que tienen mayor prioridad.
Desventajas
Mayor complejidad en los equipos de conmutación intermedios, que necesitan mayor velocidad y capacidad de cálculo para determinar la ruta adecuada en cada paquete.
Duplicidad de paquetes. Si un paquete tarda demasiado en llegar a su destino, el host receptor(destino) no enviara el acuse de recibo al emisor, por el cual el host emisor al no recibir un acuse de recibo por parte del receptor este volverá a retransmitir los últimos paquetes del cual no recibió el acuse, pudiendo haber redundancia de datos.
Si los cálculos de encaminamiento representan un porcentaje apreciable del tiempo de transmisión, el rendimiento del canal (información útil/información transmitida) disminuye.

MULTIPLEXACION EN LOS ENLACES

MULTIPLEXACION EN LOS ENLACES

La multiplexación es la combinación de dos o más canales de información en un solo medio de transmisión usando un dispositivo llamado multiplexor. El proceso inverso se conoce como de multiplexación.
En informática y electrónica, la multiplexación se refiere al mismo concepto si se trata de buses de datos que haya que compartir entre varios dispositivos (discos, memoria, etc.). Otro tipo de multiplexación en informática es el de la CPU, en la que a un proceso le es asignado un quantum de tiempo durante

el cual puede ejecutar sus instrucciones, antes de ceder el sitio a otro proceso que esté esperando en la cola de procesos listos a ser despachado por el planificador de procesos. También en informática, se denomina multiplexar a combinar en un mismo archivo contenedor, varias pistas de dos archivos, por ejemplo de audio y vídeo, para su correcta reproducción.
En las telecomunicaciones se usa la multiplexación para dividir las señales en el medio por el que vayan a viajar dentro del espectro radioeléctrico. El término es equivalente al control de acceso al medio.
De esta manera, para transmitir los canales de televisión por aire, vamos a tener un ancho de frecuencia x, el cual habrá que multiplexar para que entren la mayor cantidad posible de canales de tv. Entonces se dividen los canales en un ancho de banda de 6Mhz (en gran parte de Europa y Latinoamérica, mientras que en otros países o regiones el ancho de banda es de 8 Mhz). En este caso se utiliza una multiplexación por división de frecuencia FDM..
Multiplexación en los protocolos de la capa de transporte en el Modelo OSI
Multiplexar un paquete de datos, significa tomar los datos de la capa de aplicación, etiquetarlos con un número de puerto (TCP o UDP) que identifica a la aplicación emisora, y enviar dicho paquete a la capa de red.



TIPOS DE MULTIPLEXACIÓN
Multiplexacion por división de tiempo
La multiplexacion por división de tiempo (MDT) es un medio de transmitir dos o más canales de información en el mismo circuito de comunicación utilizando la técnica de tiempo compartido. Se adapta bien a las señales binarias que consisten en impulsos que representan un dígito binario 1 o 0. Estos impulsos pueden ser de muy corta duración y sin embargo, son capaces de transportar la información deseada; por tanto, muchos de ellos pueden comprimirse en el tiempo disponible de un canal digital. La señal original puede ser una onda analógica que se convierte en forma binaria para su transmisión, como las señales de voz de una red telefónica, o puede estar ya en forma digital, como los de un equipo de datos o un ordenador.
La multiplexión por división de tiempo es un sistema sincronizado que normalmente implica una MIC.
Las señales analógicas se muestrean y la MAI los transforma en impulsos, y después la MIC codifica los muestreos. Después los muestreos se transmiten en serie en el mismo canal de comunicación, uno cada vez. En el receptor, el proceso de desmodulación se sincroniza de manera que cada muestreo de cada canal se dirige a su canal adecuado. Este proceso de denomina múltiplex o transmisión simultánea, porque se utiliza el mismo sistema de transmisión para más de un canal de información, y se llama MDT porque los canales de información comparten el tiempo disponible.
La parte de preparación de la señal y modulación del sistema se denomina multiplexor (MUX), y la parte de desmodulación se llama desmultiplexor (DE-MUX). En el MUX, como se ve en la Figura, un conmutador sincronizado (interruptor electromecánico) conecta secuencialmente un impulso de sincronización, seguido por cada canal de información, con la salida. La combinación de este grupo de impulsos se denomina cuadro, que vemos en la Figura 1.14B. El impulso de sincronización se utiliza para mantener la transmisor y la receptor sincronizados, es decir, para mantener en fase el sincronizador del receptor con el del transmisor. En el DEMUX, que puede verse en la Figura, un desconmutador dirige impulsos de sincronización hacia el sincronizador del receptor, y el muestreo de información envía los impulsos hasta sus canales correctos para su posterior análisis.
Una ventaja de la MDT es que puede utilizarse cualquier tipo de modulación por impulsos. Muchas compañías telefónicas emplean este método en sus sistemas MIC/MDT.
Multiplexión por división de frecuencia
Al igual que la MDT, la multiplexión por división de frecuencia (MDF) se utiliza para transmitir varios canales de información simultáneamente en el mismo canal de comunicación. Sin embargo, a diferencia de la MDT, la MDF no utiliza modulación por impulsos. En MDF, el espectro de frecuencias representado por el ancho de banda disponible de un canal se divide en porciones de ancho de banda más pequeños, para cada una de las diversas fuentes de señales asignadas a cada porción. Explicado de forma sencilla, la diferencia entre los dos sistemas es ésta: En MDF, cada canal ocupa continuamente una pequeña fracción del espectro de frecuencias transmitido; en MDT, cada canal ocupa todo el espectro de frecuencias durante sólo una fracción de tiempo.
Las frecuencias de cada canal se cambian por medio de moduladores y filtros equilibrados. Entonces las salidas de los filtros se alimentan a un MUX, donde se sitúan una junto a otra en un canal de banda ancha para su transmisión en grupo. En el receptor, un DEMUX cambia los canales a sus frecuencias originales mediante filtrado. A continuación, las señales filtradas pasan a un modulador equilibrado y después a un filtro PB para su posterior recuperación.
Multiplexado estadístico o asíncrono.
Es un caso particular de la multiplexación por división en el tiempo. Consiste en no asignar espacios de tiempo fijos a los canales a transmitir, sino que los tiempos dependen del tráfico existente por los canales en cada momento.
Sus características son:
Tramos de longitud variables.
Muestreo de líneas en función de su actividad.
Intercala caracteres en los espacios vacíos.
Fuerte sincronización.
Control inteligente de la transmisión.
Los multiplexores estáticos asignan tiempos diferentes a cada uno de los canales siempre en función del tráfico que circula por cada uno de estos canales, pudiendo aprovechar al máximo posible el canal de comunicación.
La conmutación
Es una técnica que nos sirve para hacer un uso eficiente de los enlaces físicos en una red de computadoras. Si no existiese una técnica de conmutación en la comunicación entre dos nodos, se tendría que enlazar en forma de malla. Una ventaja adicional de la conmutación de paquetes, (además de la seguridad de transmisión de datos) es que como se parte en paquetes el mensaje, éste se está ensamblando de una manera más rápida en el nodo destino, ya que se están usando varios caminos para transmitir el mensaje, produciéndose un fenómeno conocido como “transmisión en paralelo”. Además, si un mensaje tuviese un error en un bit de información, y estuviésemos usando la conmutación de mensajes, tendríamos que retransmitir todo el mensaje; mientras que con la conmutación de paquetes solo hay que retransmitir el paquete con el bit afectado, lo cual es mucho menos problemático. Lo único negativo, quizás, en el esquema de la conmutación de paquetes es que su encabezado es más grande.
La conmutación de paquetes se trata del procedimiento mediante el cual, cuando un nodo quiere enviar información a otro lo divide en paquetes, los cuales contienen la dirección del nodo destino. En cada nodo intermedio por el que pasa el paquete se detiene el tiempo necesario para procesarlo. Cada nodo intermedio realiza las siguientes funciones:
Almacenamiento y retransmisión (store and forward):hace referencia al proceso de establecer un camino lógico de forma indirecta haciendo “saltar” la información de origen al destino a través de los nodos intermedios
Control de ruta (routing): hace referencia a la selección de un nodo del camino por el que deben retransmitirse los paquetes para hacerlos llegar a su destino.

DETECCIÓN Y CONTROL DE ERRORES


DETECCIÓN Y CONTROL DE ERRORES
Los errores en la transmisión pueden ser debidos a tres causas distintas:
• Características materiales de la línea.
• Equipos de transmisión.
• Causas externas al circuito de datos.
Para cuantificar el efecto de los errores sobre la transmisión se utiliza la tasa de error, o BER (Bit Error Rate), que es el cociente entre el número de bits recibidos erróneamente y el número total de bits transmitidos. Para redes WAN se considera como BER aceptable uno en torno a 106 y para redes LAN

Otra forma de cuantificar los errores es mediante la tasa de error residual, que es el cociente entre el número de bits erróneos no detectados y el número de bits erróneos transmitidos.
Códigos de detección de errores
Para detectar el mayor número de errores se utilizan los códigos de control de errores. Estos códigos se dividen en autocorrectores y detectores.
Códigos autocorrectores
Los códigos autocorrectores son aquellos que detectan y corrigen los errores producidos en una posición concreta. Esta tarea la desempeña el equipo receptor.
Códigos detectores
En los códigos puramente detectores el receptor detecta los errores, pero no es capaz de corregirlos, lo que hace es solicita el reenvío de la información. Las técnicas de solicitud de reenvío se denominan ARQ.
Modalidades de ARQ
Las distintas modalidades de ARQ son las siguientes:
ARQ con envío y espera. Es el método más lento. El emisor envía un paquete, si hay un error el receptor envía una señal de no reconocido, NAK, con lo que el emisor reenvía el paquete. Si no hay error el receptor envía señal de reconocido, ACK, con lo que el emisor pasa a enviar el siguiente paquete.
ARQ de envío continuo no selectivo. Se emplea en conexiones full-duplex. El emisor va enviando bloques de paquetes sin espera entre ellos, a la vez que los almacena en búferes de memoria. Si el receptor advierte un error en un bloque, le envía al emisor una señal NAK, con lo que el emisor reenvía todo el bloque. Cuando los búferes de memoria están saturados hay un tiempo de espera hasta que el receptor comunica que se pueden vaciar y se puede comenzar a enviar el siguiente bloque de paquetes.
ARQ de envío continuo selectivo. Es una mejora del modo anterior, en la que además de línea full-duplex se necesita una identificación de cada paquete del bloque enviado. Cuando se produce un NAK se reenvía sólo el paquete que ha llegado mal, y no todo el bloque. Además, al llegar un NAK se vacían los búferes anteriores a ese paquete, que ya se sabe que no son defectuosos, con lo que se reducen los tiempos de parada. El inconveniente de este método es que la información a enviar es mayor.
2 Códigos de control de errores
Los códigos de control de errores son siempre redundantes. Un código redundante es el que utiliza más bits de los estrictamente necesarios para la transmisión de los datos; gracias a esta característica se pueden detectar y corregir los errores.
Se dividen en sistemáticos y no sistemáticos, según la forma de añadir los bits redundantes.

Códigos no sistemáticos
En los códigos no sistemáticos los bits redundantes se añaden implícitamente en el código. Se les llama códigos M entre N, como por ejemplo el 3 entre 8, que para emitir un carácter de 8 bits añade otros 3 de control.
Los bits de control siempre se ponen a 1 flanqueando el carácter.
Códigos sistemáticos
En los códigos sistemáticos para determinar el valor de los bits redundantes se aplica un algoritmo a la información a transmitir.
Ejemplos de códigos sistemáticos
Código de paridad horizontal Con este código se añade un único bit redundante para hacer que el número total de bits sea par o impar.
Código de paridad vertical Se aplica a más de una palabra de información. Es necesario saber cuántas palabras forman el bloque al que se aplica el algoritmo. A cada palabra se le aplica un código de paridad horizontal y al bloque la paridad vertical, como se ve en el siguiente ejemplo, en el que se ha aplicado paridad par.
01001 0
00110 0
00111 1
01000 1
Con este código si hay un error no sólo se detecta sino que se corrige, ya que se puede saber en qué bit se ha producido el error.
Código de Hamming Con el código de Hamming se añade un número de bits redundantes que depende del número de bits que se usan para representar una palabra de información, de modo que se cumpla la desigualdad

2P  P+N+1,

donde N es el número de bits por palabra y P el número de bits redundantes. Los bits redundantes se añaden intercalándose con los bits que forman la palabra en las posiciones 1, 2, 4, 8, ..., empezando por los bits menos significativos.
Este código es difícil de implementar por circuitería pero sencillo a nivel de software. Sólo es capaz de detectar y corregir un bit erróneo.
Códigos lineales En este caso se considera que los bits de la palabra forman un vector. A partir de este vector y de un polinomio generador establecido se obtiene otro vector final, según la fórmula

c = i×G,

siendo i el vector inicial, G el polinomio generador y c el vector resultante.
Estos códigos facilitan la implementación en hardware, por lo que son más utilizados que los códigos anteriores.
Dentro de los códigos lineales los más utilizados son los CRC, códigos de redundancia cíclica. En éstos los bits del carácter a enviar son los coeficientes de un polinomio. Utilizan la siguiente fórmula:

P(x) = C(x)•C(x)+R(x),
(1)
con R(x) = resto(C(x), G(x)). Lo que se envía por la línea es la información C(x) y el resto R(x), de forma que el destino puede detectar errores mediante la fórmula (1).
Con estos códigos se pueden detectar errores de uno o varios bits en bloques grandes






Paridad simple (paridad horizontal)
Consiste en añadir un bit de más a la cadena que queremos enviar, y que nos indicará si el número de unos (bits puestos a 1) es par o es impar. Si es par incluiremos este bit con el valor = 0, y si no es así, lo incluiremos con valor = 1.
Ejemplo de generación de un bit de paridad simple:

Queremos enviar la cadena “1110100”:
1º Contamos la cantidad de unos que hay: 4 unos
2º El número de unos es par por tanto añadimos un bit con valor = 0
3º La cadena enviada es 11101000
El receptor ahora, repite la operación de contar la cantidad de “unos” que hay (menos el último bit) y si coincide, es que no ha habido error.
Problemas de este método:
Hay una alta probabilidad de que se cuelen casos en los que ha habido error, y que el error no sea detectado, como ocurre si se cambian dos números en la transmisión en vez de uno.
Paridad cruzada (paridad horizontal-vertical)
Para mejorar un poco el método anterior, se realiza una paridad que afecte tanto a los bits de cada cadena o palabra como a un conjunto de todos ellos. Siempre se utilizan cadenas relativamente cortas para evitar que se cuelen muchos errores.
Para ver más claro este método, se suelen agrupar los bits en una matriz de N filas por K columnas, luego se realizan todas las paridades horizontales por el método anterior, y por último, se hace las misma operación de calcular el número de unos, pero ahora de cada columna.
La probabilidad de encontrar un solo error es la misma, pero en cambio, la probabilidad de encontrar un número par errores ya no es cero, como en el caso anterior. Aun así, existen todavía una gran cantidad de errores no detectables
Un ejemplo de paridad cruzada (o de código geométrico)

Tenemos este código para transmitir: 1100101111010110010111010110
Agrupamos el código en cada una de las palabras, formando una matriz de N x K:

1100101
1110101
1001011
1010110
Añadimos los bits de paridad horizontal:

1100101 0
1110101 1
1001011 0
1010110 0

4º Añadimos los bits de paridad vertical:

1100101 0
1110101 1
1001011 0
1010110 0

0001101 1

Una vez creada la matriz, podemos enviar ésta por filas, o por columnas. Enviando las palabras por columnas aumentamos la posibilidad de corregir una palabra que haya sufrido un error de ráfaga (errores que afectan a varios bits consecutivos, debidos a causas generalmente electrónicas, como chispazos, y que harían que se perdiera toda una palabra completa).
Códigos de redundancia cíclica también llamados CRC
Intentando mejorar los códigos que sólo controlan la paridad de bit, aparecen los códigos cíclicos. Estos códigos utilizan la aritmética modular para detectar una mayor cantidad de errores, se usan operaciones en módulo 2 y las sumas y restas se realizan sin acarreo (convirtiéndose en operaciones de tipo O-Exclusivo o XOR). Además, para facilitar los cálculos se trabaja, aunque sólo teóricamente, con polinomios.
La finalidad de este método es crear una parte de redundancia la cual se añade al final del código a transmitir (como en los métodos de paridad) que siendo la más pequeña posible, detecte el mayor número de errores que sea posible.
Pero además de esto, debe ser un método sistemático, es decir, que con un mismo código a transmitir (y un mismo polinomio generador) se genere siempre el mismo código final.
El polinomio generador: es un polinomio elegido previamente y que tiene como propiedad minimizar la redundancia. Suele tener una longitud de 16 bits, para mensajes de 128 bytes, lo que indica que la eficiencia es buena. Ya que sólo incrementa la longitud en un aproximado 1,6%:
(16bits / (128bytes * 8bitsporbyte)) * 100 = 1,5625
Un ejemplo de polinomio generador usado normalmente en las redes WAN es: g(x) = x16 + x12 + x5 + 1
Los cálculos que realiza el equipo transmisor para calcular su CRC son:
1. Añade tantos ceros por la derecha al mensaje original como el grado del polinomio generador
2. Divide el mensaje con los ceros incluidos entre el polinomio generador
3. El resto que se obtiene de la división se suma al mensaje con los ceros incluidos
4. Se envía el resultado obtenido
Estas operaciones generalmente son incorporadas en el hardware para que pueda ser calculado con mayor rapidez, pero en la teoría se utilizan los polinomios para facilitar los cálculos.
Ejemplo de obtención del CRC:

Datos:
Mensaje codificado en binario: 1101001
Polinomio generador: x4 + x + 1

Operaciones:

Obtener el polinomio equivalente al mensaje: x6 + x5 + x3 + 1

Multiplicar el mensaje por x4 (añadir 4 ceros por la derecha): x10 + x9 + x7 + x4

Dividir en binario el mensaje por el polinomio generador y sacar el resto: x2 + 1

Restar el mensaje con el resto (en módulo 2 también): x10 + x9 + x7 + x4 + x2 + 1

Transmitir el mensaje
El equipo receptor debe comprobar el código CRC para detectar si se han producido o no errores.
Ejemplo de los cálculos del receptor:

Mediante el protocolo correspondiente acuerdan el polinomio generador Divide el código recibido entre el polinomio generador
Comprueba el resto de dicha operación

Si el resto es cero, no se han producido errores
Procesar el mensaje

Si el resto es distinto de cero, significa que se han producido errores
Reenviar el mensaje

Intentar corregir los errores mediante los códigos correctores
En resumen, este método requiere de un polinomio generador que, elegido correctamente, puede llegar a detectar gran cantidad de errores:
Errores simples: todos
Errores dobles: todos
Errores en las posiciones impares de los bits: todos
Errores en ráfagas con una longitud menor que el grado del polinomio generador: todos
Otras ráfagas: un porcentaje elevado y cercano al 100%
Suma de comprobación
Es un método sencillo pero eficiente sólo con cadenas de palabras de una longitud pequeña, es por esto que se suele utilizar en cabeceras de tramas importantes u otras cadenas importantes y en combinación con otros métodos.
Funcionalidad: consiste en agrupar el mensaje a transmitir en cadenas de una longitud determinada L no muy grande, de por ejemplo 16 bits. Considerando a cada cadena como un número entero numerado según el sistema de numeración 2L − 1. A continuación se suma el valor de todas las palabras en las que se divide el mensaje, y se añade el resultado al mensaje a transmitir, pero cambiado de signo.
Con esto, el receptor lo único que tiene que hacer es sumar todas las cadenas, y si el resultado es 0 no hay errores.
Ejemplo:

Mensaje 101001110101

Acordar la longitud de cada cadena: Acordar el sistema de numeración: 23 − 1 = 7

Dividir el mensaje: 101 001 110 101

Corresponder a cada cadena con un entero: 5 1 6 5

Sumar todos los valores y añadir el número cambiado de signo: -17

6º Enviar 5 1 6 5 -17 codificado en binario
El receptor:

1º Suma todos los valores si = 0 procesa el mensaje sino se ha producido un error.
Este método al ser más sencillo es óptimo para ser implementado en software ya que se puede alcanzar velocidades de cálculo similares a la implementación en hardware
Distancia de Hamming basada en comprobación



Hipercubo binario de dimensión cuatro.
Si queremos detectar d bit erróneos en una palabra de n bits, podemos añadir a cada palabra de n bits d+1 bits predeterminados al final, de forma que quede una palabra de n+d+1 bits con una distancia mínima de Hamming de d+1. De esta manera, si uno recibe una palabra de n+d+1 bits que no encaja con ninguna palabra del código (con una distancia de Hamming x <= d+1 la palabra no pertenece al código) detecta correctamente si es una palabra errónea. Aún más, d o menos errores nunca se convertirán en una palabra válida debido a que la distancia de Hamming entre cada palabra válida es de al menos d+1, y tales errores conducen solamente a las palabras inválidas que se detectan correctamente. Dado un conjunto de m*n bits, podemos detectar x <= d bits errores correctamente usando el mismo método en todas las palabras de n bits. De hecho, podemos detectar un máximo de m*d errores si todas las palabras de n bits son transmitidas con un máximo de d errores.
Ejemplo
Palabras a enviar:
1. 000001
2. 000001
3. 000010
Codificadas con distancia mínima de Hamming = 2:
000001 0000
000001 0011
000010 1100
Si las palabras recibidas tienen una distancia de Hamming < 2, son palabras incorrectas.

FLUJO DE DATOS

FLUJO DE DATOS

Un diagrama de flujo de datos (DFD por sus siglas en español e inglés) es una representación gráfica del "flujo" de datos a través de un sistema de información. Un diagrama de flujo de datos también se puede utilizar para la visualización de procesamiento de datos (diseño estructurado). Es una práctica común para un diseñador dibujar un contexto a nivel de DFD que primero muestra la interacción entre el sistema y las entidades externas. Este contexto a nivel de DFD se "explotó" para mostrar más detalles del sistema que se está modelando.
Los diagramas de flujo de datos fueron inventados por Larry Constantine, el desarrollador original del diseño estructurado, basado en el modelo de computación de Martin y Estrin: "flujo gráfico de datos" . Los diagramas de flujo de datos (DFD) son una de las tres perspectivas esenciales de Análisis de Sistemas Estructurados y Diseño por Método SSADM. El patrocinador de un proyecto y los usuarios finales tendrán que ser informados y consultados en todas las etapas de una evolución del sistema. Con un diagrama de flujo de datos, los usuarios van a poder visualizar la forma en que el sistema funcione, lo que el sistema va a lograr, y cómo el sistema se pondrá en práctica. El antiguo sistema de diagramas de flujo de datos puede ser elaborado y se comparó con el nuevo sistema de diagramas de flujo para establecer diferencias y mejoras a aplicar para desarrollar un sistema más eficiente. Los diagramas de flujo de datos pueden ser usados para proporcionar al usuario final una idea física de cómo resultarán los datos a última instancia, y cómo tienen un efecto sobre la estructura de todo el sistema. La manera en que cualquier sistema es desarrollado puede determinarse a través de un diagrama de flujo de datos. El desarrollo de un DFD ayuda en la identificación de los datos de la transacción en el modelo de datos.
Los diagramas derivados de los procesos principales se clasifican en niveles, los cuales son:
• Nivel 0: Diagrama de contexto.
• Nivel 1: Diagrama de nivel superior.
• Nivel 2: Diagrama de detalle o expansión
Características de los niveles
Nivel 0: Diagrama de contexto. Nivel 1: Diagrama de nivel superior. Nivel 2: Diagrama de detalle o expansión

Diagrama de Contexto: Nivel 0
En el diagrama de contexto sólo se dibuja el proceso principal y los flujos entre éste y sus entidades. En los diagramas posteriores se va detallando de mejor manera. Representacion grafica de un Sistema de información..
Diagrama de Nivel Superior: Nivel 1
En el diagrama de nivel superior se plasman todos los procesos que describen al proceso principal. En este nivel los procesos no pueden interrelacionarse directamente, sino que entre ellos siempre debe existir algún almacenamiento o entidad externa que los una. sarita Z.R
Diagrama de Detalle o Expansión: Nivel 2
Nota: Diagrama de nivel 2 (o superior) en la fotografía. Es de nivel >= 2, y no de nivel 1 porque en el nivel 1 no se permiten las interconexiones entre procesos, como puede verse entre el proceso 2 y 3.
DIAGRAMA DE FLUJO
Es un grafico lógico del plande trabajo que se ejecutara para la solución de un determinado problema. A través de él, se planifica la solución del problema independiente del lenguaje de computación a usar. De esta manera se separa loas instrucción es un lenguaje determinado con todas las reglas.
Las capacidades humanas necesarias para elaborar un diagrama de flujo correcto son: Lógico, Prácticas, y Atención.
El empleo de la maquina en las funciones del procediendo de datos han hecho necesario un flujo ordenado de la información. La secuencia en que deberán ejecutarse las operaciones tendrá que definirse claramente, y cuando se combine con los datos a los que debe aplicarse, esa secuencia creara el flujo de información.
No puede hacerse mucho hincapié en documentación, ósea el registro de Información .Sin Instrucciones escritas y sin representación grafica del flujo de trabajo seria muy difícil de llevar una tarea de procediendo de datos en forma apropiada. Hay varios métodos mas eficientes organizados y normalizados, es el de los diagramas de Flujo que el Futuro programador comprenda la necesidad de los diagrama de flujo.
OBJETIVOS DE UN DIAGRAMA DE FLUJO
a. Estructura la solución del problema independiente del lenguaje a utilizar.
b. Separar la solución lógica de programación de la parte de reglas y sintaxis de codificación con esta división del trabajo se obtiene mayor eficiencia.
c. Dar una visión completa del problema al programador ya que pierde en un programa ya codificado.
d. Permitir una compresión más rápida del programa a otros programadores.
TIPOS DE DIAGRAMA DE FLUJOS
Diagrama de flujo de sistemas: muestra en que forma se procesan los datos, entre as principales funciones o estaciones de trabajo .En este diagrama completo de computadora se presenta con un solo símbolo de procesamiento.
Ejemplo de Diagrama de Flujo de sistema:

























DIAGRAMA DE FLUJOS DE PROGRAMACIÓN
Son las operaciones y decisiones en la secuencia en que las ejecutará una computadora de procesamiento de datos. Los símbolos representan esas operaciones e indican el orden en que se ejecutaran. Por lo tanto, un diagrama de flujo de programa proporciona una descripción grafica del programa.

lunes, 26 de abril de 2010

CONFIGURACIÓN DEL CLIENTE PPPoE DE WINDOWS

CONFIGURACIÓN DEL CLIENTE PPPoE DE WINDOWS


Este documento es válido para conexiones de banda ancha con ip dinámica y protocolo PPPoE. Está particularizado para Telefónica.

Cuando configuramos un router en monopuesto con ip dinámica, además de que el router esté en modo bridge (esto se ha explicado para algunos routers en su sección correspondiente, necesitamos un cliente de acceso telefónico para establecer la conexión.)

Windows XP trae un cliente PPPoE "de serie". Esto nos beneficia en el sentido de que no necesitamos instalar ningún software adicional (por ejemplo, Telefónica proporciona el WinPoET en sus cd´s de configuración).

Vamos a explicar brevemente cómo se configura el cliente PPPoE de Windows XP
En primer lugar iremos a

Inicio -> Mi PC ->











Mis sitios de red -> Ver conexiones de red.

















En conexiones de red, iremos a la opción Crear una conexión nueva.









e abrirá el asistente para crear conexiones.

















Elegimos el tipo de conexión que queremos crear, en este caso seleccionamos Conectarse a Internet, pulsamos Siguiente.

















En el siguiente paso seleccionamos Establecer mi conexión manualmente, pulsamos Siguiente.
















Seleccionamos Conectarse usando una conexión de banda ancha que necesita un nombre de usuario y una contraseña. Otra vez Siguiente.


















Ahora nos pide que escribamos un nombre para identificar la conexión que estamos creando. Le ponemos el que más nos convenga y pulsamos siguiente.



















Ahora es cuando tenemos que darle los datos de conexión, usuario y contraseña que nos haya dado nuestro ISP. Para el caso de telefónica:
Usario: chppis@telefonicanetpa
Contraseña: davidsonUna vez introducidos, pulsamos en Siguiente






















Aparecerá la pantalla de finalización del asistente. Pulsamos en Finalizar para cerrarla. Si seleccionamos la casilla Agregar en mi escritorio un acceso directo a esta conexión, nos será más sencillo localizarlo cuando queramos conectar.






















Ahora, suponiendo que tenemos el router configurado correctamente, podremos realizar la conexión sin problemas. Doble click en el icono que acaba de aparecer y pulsar el botón Conectar.
























Si todo va bien aparecerá brevemente un diálogo en el que se negocia la conexión, comprobando nombre de usuario y contraseña, y pasados unos segundos quedará establecida.











Una vez verificado que todo va bien, echamos un vistazo a nuestras conexiones de red. Comprobamos que se ha creado una nueva conexión, bajo el epígrafe de Banda ancha.









Hay que decir que estas conexiones funcionan de manera similar a las de acceso telefónico, y por defecto viene activada la opción de desconectarse tras 20 minutos de inactividad o "cuando la conexión no se necesite más". Para cambiar esto, en el navegador, en la pestaña Herramientas, seleccionamos Opciones de Internet, vamos a la pestaña Conexiones y seleccionando la que nos interese pulsamos en Configuración... -> Opciones avanzadas, y comprobamos que estén desmarcadas ambas casillas para nuestra conexión PPPoE.
















Por último, decir que con el router configurado en monopuesto es aconsejable la instalación de un firewall por software, puesto que nuestro pc es ahora totalmente accesible desde internet.

PROTOCOLO PPP PARA INTERNET

PROTOCOLO PPP PARA INTERNET

La mayor parte de la infraestructura de redes de área extensa está construida a partir de líneas alquiladas punto a punto.
En la práctica, la comunicación punto a punto se utiliza de diferentes maneras. Actualmente, una de las formas más habituales de conectarse a Internet para un usuario común es a través de un módem y una línea telefónica. En general, la PC llama al routerde su proveedor de Internet y así actúa como host de la Red. Este método de operación no es distinto a tener una línea arrendada entre la PC y el router, excepto que la conexión desaparece cuando el usuario termina la sesión. Este concepto se ilustra en la siguiente figura:


Tanto para la conexión por línea alquilada de router a router como para la conexión conmutada de host a router se requiere de un protocolo punto a punto de enlace de datos en la línea, para el manejo de marcos de control de errores y las demás funciones de la capa de enlace de datos.


Según nos acercamos al medio físico, la diversidad de los mismos provoca que existan varios protocolos a nivel de enlace de datos para adaptarse a las peculiaridades de cada medio físico.


Dos protocolos de este nivel utilizados ampliamente en Internet son SLIP (Serial Line Internet Protocol) y PPP (Point to Point Protocol).


Si bien el protocolo SLIP está específicamente diseñado para el transporte de tráfico TCP/IP, la tendencia actual es hacia el uso cada vez mayor del protocolo PPP, ya que también es apto para líneas telefónicas conmutadas, siempre que nuestro proveedor de Internet disponga de este protocolo para atender nuestra llamada.


Al utilizar SLIP, es necesario conocer tanto nuestra dirección IP como la de nuestro proveedor, lo que puede causarnos problemas en el caso de que este asigne dinámicamente las direcciones (algo muy común actualmente). Igualmente, existe la posibilidad de tener que configurar algunos parámetros como pueden ser la máxima unidad de transmisión (MTU), máxima unidad de recepción (MRU), el uso de cabeceras de compresión, etc.


El PPP fue desarrollado por el IETF (Internet Engineering Task Force) en 1993 para mejorar estas y algunas otras deficiencias, y crear un estándar internacional, por lo cual en este trabajo desarrollaremos principalmente el protocolo PPP, luego de lo que concluiremos con una breve comparación con su par (SLIP).


DESARROLLO


¿Para qué sirve el protocolo PPP?
El protocolo PPPproporciona un método estándar para transportar datagramas multiprotocolo sobre enlaces simples punto a punto entre dos "pares" (a partir de aquí, y hasta el final de este trabajo, utilizaremos el término "par" para referirnos a cada una de las máquinas en los dos extremos del enlace -en inglés es peer-).
Estos enlaces proveen operación bidireccional full dúplex y se asume que los paquetes serán entregados en orden.
Tiene tres componentes:
1. Un mecanismo de enmarcado para encapsular datagramas multiprotocolo y manejar la detección de errores.
2. Un protocolo de control de enlace (LCP, Link Control Protocol) para establecer, configurar y probar la conexión de datos.
3. Una familia de protocolos de control de red (NCPs, Network Control Protocols) para establecer y configurar los distintos protocolos de nivel de red.


Funcionamiento general
Para dar un panorama inicial del funcionamiento de este protocolo en el caso comentado, en que un usuario de una PC quiera conectarse temporalmente a Internet, describiremos brevemente los pasos a seguir:


En primera instancia, la PC llama al router del ISP (Internet Service Provider, proveedor del servicio de Internet), a través de un módem conectado a la línea telefónica.


Una vez que el módem del router ha contestado el teléfono y se ha establecido una conexión física, la PC manda al router una serie de paquetes LCP en el campo de datos de uno o más marcos PPP (esto será explicado con mayor detalle más adelante). Estos paquetes y sus respuestas seleccionan los parámetros PPP por usar.


Una vez que se han acordado estos parámetros se envían una serie de paquetes NCP para configurar la capa de red.


Típicamente, la PC quiere ejecutar una pila de protocolos TCP/IP, por lo que necesita una dirección IP. No hay suficientes direcciones IP para todos, por lo que normalmente cada ISP tiene un bloque de ellas y asigna dinámicamente una a cada PC que se acaba de conectar para que la use durante su sesión. Se utiliza el NCP para asignar la dirección de IP.


En este momento la PC ya es un hostde Internet y puede enviar y recibir paquetes IP. Cuando el usuario ha terminado se usa NCP para destruir la conexión de la capa de red y liberar la dirección IP.
Luego se usa LCP para cancelar la conexión de la capa de enlace de datos.
Finalmente la computadora indica al módem que cuelgue el teléfono, liberando la conexión de la capa física.
PPP puede utilizarse no solo a través de líneas telefónicas de discado, sino que también pueden emplearse a través de SONET o de líneas HDLC orientadas a bits.


Configuración básica
Los enlaces PPP son fáciles de configurar. El estándar por defecto maneja todas las configuraciones simples. Se pueden especificar mejoras en la configuración por defecto, las cuales son automáticamente comunicadas al "par" sin la intervención del operador. Finalmente, el operador puede configurar explícitamente las opciones para el enlace, lo cual lo habilita para operar en ambientes donde de otra manera sería imposible.
Esta auto-configuración es implementada a través de un mecanismo de negociación de opciones extensible en el cual cada extremo del enlace describe al otro sus capacidades y requerimientos.


Entramado
La encapsulación PPP provee multiplexamiento de diferentes protocolos de la capa de red sobre el mismo enlace. Ha sido diseñada cuidadosamente para mantener compatibilidad con el hardware mayormente usado.
Sólo son necesarios 8 bytes adicionales para formar la encapsulación cuando se usa dentro del entramado por defecto. En ambientes con escaso ancho de banda, la encapsulación y el entramado pueden requerir menos bytes.
El formato de la trama completa es:
Indicador
(1 byte) Dirección
(1 byte) Control
(1 byte) Protocolo
(1 o 2 bytes) Información
(variable) Suma
(2 o 4 bytes) Indicador
(1 byte)
Todas las tramas comienzan con el byte indicador "01111110". Luego viene el campo dirección, al que siempre se asigna el valor "11111111". La dirección va seguida del campo de control, cuyo valor predeterminado es "00000011". Este valor indica un marco sin número ya que PPP no proporciona por omisión transmisión confiable (usando números de secuencia y acuses) pero en ambientes ruidosos se puede usar un modo numerado para transmisión confiable. El anteúltimo campo es el de suma de comprobación, que normalmente es de 2 bytes, pero puede negociarse una suma de 4 bytes. La trama finaliza con otro byte indicador "01111110".
Debido a que los campos indicados anteriormente son utilizados para encapsular la información fundamental del protocolo, desde ahora nos centraremos en el siguiente esquema:
Protocolo
(1 o 2 bytes) Información (y relleno)
(variable)


Campo protocolo
Este campo es de 1 o 2 bytes y su valor identifica el contenido del datagrama en el campo de información del paquete (cuando hablamos de "paquete" nos estamos refiriendo al marco de la capa de enlace, que es en la que opera el PPP; no debe confundirse con los de la capa de red, manejados por IP). El bit menos significativo del byte menos significativo debe ser 1 y el bit menos significativo del byte más significativo debe ser 0. Los marcos recibidos que no cumplan con estas reglas deben ser tratados como irreconocibles.
Los valores en el campo de protocolo dentro del rango de 0hex a 3hex identifican el protocolo de capa de red de los paquetes específicos, y valores en el rango de 8hex a Bhex identifican paquetes pertenecientes al protocolo de control de red asociado (NCPs). Los valores en el campo de protocolo dentro del rango de 4hex a 7hex son usados para protocolos con bajo volumen de tráfico, los cuales no tienen asociados NCP. Valores en el rango de Chex a Fhex identifican paquetes de los protocolos de control de la capa de enlace (como LCP).


Campo información
Puede tener 0 o más bytes. Contiene el datagrama para el protocolo especificado en el campo protocolo. La máxima longitud para este campo, incluyendo el relleno pero no incluyendo el campo de protocolo, es determinada por la unidad máxima de recepción (MRU), la cual es de 1500 bytes por defecto. Mediante negociaciones, PPP puede usar otros valores para la MRU.
A la información se le puede agregar un relleno, con un número arbitrario de bytes, hasta llegar a la MRU.


Operación del PPP
Para establecer comunicaciones sobre un enlace punto a punto cada extremo del mismo debe enviar primero paquetes LCP para configurar y testear el enlace de datos. Después de que éste ha sido establecido, el "par" debe ser autentificado. Entonces, PPP debe enviar paquetes NCP para elegir y configurar uno o más protocolos de red. Una vez que han sido configurados cada uno de los protocolos de la capa de red elegidos, los datagramas de cada protocolo de capa de red pueden ser enviados a través del enlace. El enlace permanecerá configurado para la comunicación hasta que una serie de paquetes NCP o LCP cierren la conexión, o hasta que ocurra un evento externo (por ej., que un timer de inactividad expire o que se produzca una intervención del administrador de la red).


Fases de la operación
En la siguiente figura se muestran las fases por las que pasa una línea cuando es activada, usada y desactivada, a través del protocolo PPP. Esta secuencia se aplica tanto a las conexiones por módem como a las conexiones router a router.
Fase de enlace muerto (capa física no lista)


El enlace comienza y termina necesariamente en esta fase. Cuando un evento externo (como una detección de portadora) indica que la capa física está lista para ser usada, PPP procederá con la fase de establecimiento del enlace.


Típicamente, si se utiliza un módem, el enlace volverá a esta fase automáticamente después de la desconexión del mismo. En el caso de un enlace hard-wired esta fase puede ser extremadamente corta, tan solo hasta detectar la presencia del dispositivo.


Fase de establecimiento del enlace
El protocolo de control de enlace (LCP) es usado para establecer la conexión a través de un intercambio de

paquetes de configuración. Este intercambio está completo y se ingresa en el estado abierto de LCP una vez que un paquete de "reconocimiento de configuración" ha sido enviado y recibido por ambos.
Todas las opciones de configuración son asumidas con sus valores por defecto a menos que sean alteradas por un intercambio de paquetes de configuración.
Es importante notar que solo las opciones de configuración que son independientes de cada protocolo particular de capa de red son manejadas por el LCP. La configuración de los protocolos de capa de red individuales es manejada por separado por los protocolos de control de red (NCPs) durante la fase de red.
Cualquier paquete que no sea LCP recibido durante esta fase debe ser descartado.
Fase de validación
En algunos enlaces puede ser deseable solicitar al "par" que se autentifique a sí mismo antes de permitir el intercambio de paquetes del protocolo de capa de red.
Por defecto, la validación o autenticación no es obligatoria. Si una implementación desea que el "par" se autentifique con algún protocolo de validación específico, entonces ésta debe solicitar el uso del protocolo de autenticación durante la fase de establecimiento del enlace.
La autenticación debe tomar lugar tan pronto como sea posible después del establecimiento del enlace.
El progreso de la fase de autenticación a la fase de red no debe ocurrir hasta que la autenticación haya sido completada. Si ésta falla, el que realiza la autenticación debe proceder a la fase de terminación del enlace.
Durante esta fase, sólo son permitidos paquetes del protocolo de control de enlace, el protocolo de autenticación y el monitoreo de calidad de enlace. Cualquier otro paquete recibido debe ser descartado.
La autenticación debe proporcionar algún método de retransmisión, y se procederá a la fase de terminación del enlace sólo luego de que se ha excedido cierta cantidad de intentos de autenticación.


Fase de red
Una vez que el PPP finalizó las fases anteriores, cada protocolo de capa de red (como por ejemplo IP, IPX o AppleTalk) debe ser configurado separadamente por el protocolo de control de red (NCP) apropiado.
Cada NCP debe ser abierto y cerrado de a uno por vez.


Fase abierta
Una vez que un NCP ha alcanzado el estado abierto, PPP transportará los correspondientes paquetes del protocolo de capa de red. Cualquier paquete recibido mientras su NCP no esté en el estado abierto debe ser descartado.
Durante esta fase el tráfico del enlace consiste en cualquier combinación posible de paquetes LCP, NCP, y de protocolo de capa de red.


Fase de terminación del enlace
PPP puede terminar el enlace en cualquier momento. Esto puede ocurrir por la pérdida de la señal portadora, una falla de autenticación, una falla de la calidad del enlace, la expiración de un timer, o un cierre administrativo del enlace.
LCP es usado para cerrar el enlace a través de un intercambio de paquetes de "terminación". Cuando el enlace ha sido cerrado, PPP informa a los protocolos de capa de red así ellos pueden tomar la acción apropiada.
Después del intercambio de paquetes de "terminación", la implementación debe avisar a la capa física que desconecte la línea para forzar la terminación del enlace, particularmente en el caso de una falla de autenticación. El que envía una "solicitud de terminación" debe desconectarse después de recibir un "reconocimiento de terminación", o después de que expire el timer correspondiente. El receptor de una "solicitud de terminación" debe esperar al "par" para desconectarse, y no lo debe hacer hasta que al menos haya pasado cierto tiempo de reiniciado después de enviar el "reconocimiento de terminación". PPP procederá entonces con la fase de enlace muerto.
Cualquier paquete recibido durante esta fase que no sea LCP debe ser descartado.
La clausura del enlace por LCP es suficiente. No es necesario que cada NCP envíe paquetes de terminación. A la inversa, el hecho de que un NCP sea cerrado no es razón suficiente para causar la terminación del enlace PPP, aún si ese NCP era el único actualmente en el estado abierto.


Negociación automática de opciones
La negociación de opciones es definida por eventos, acciones y transiciones de estados. Los eventos incluyen la recepción de comandosexternos (como apertura y clausura), expiración de timers, y recepción de paquetes de un "par". Las acciones incluyen el arranque de timers y la transmisión de paquetes al "par".
Algunos tipos de paquetes ("no reconocimientos de configuración", "rechazos de configuración", "solicitudes de eco", "respuestas de eco", etc.) no son diferenciados aquí ya que producen siempre las mismas transiciones.
Estados
Algunos posibles estados son: "inicial" (la capa más baja no está disponible y no ha ocurrido una apertura), "starting" (ha sido iniciada una apertura pero la capa más baja aún no está disponible), "closed" (el enlace está disponible pero no ha ocurrido una apertura), etc.
Eventos
Las transiciones y las acciones en la negociación son causadas por eventos.
Algunos son: "up" (este evento ocurre cuando la capa más baja indica que está lista para transportar paquetes; típicamente es usado por los procesos de manejo y llamada de un módem, y también puede ser utilizado por el LCP para indicar a cada NCP que el enlace está entrando en la fase de red). Otro evento muy común es "down" (cuando la capa más baja indica que ya no está lista para transportar paquetes, este evento también es generalmente utilizado por un módem o por un LCP).
Acciones
Son causadas por eventos y habitualmente indican la transmisión de paquetes y/o el comienzo o parada de timers.
Algunas acciones son: "evento ilegal" (esto indica acerca de un evento que no puede ocurrir en una negociación implementada correctamente), "capa hacia arriba" (esta acción indica a las capas superiores que la negociación está entrando en estado "abierto"; típicamente es utilizada por el LCP para indicar el evento "up" a un NCP, por un protocolo de autenticación, o de calidad de enlace).


Prevención de ciclos
El PPP hace intenta evitar ciclos mientras se efectúa la negociación de opciones de configuración. De todas formas, el protocolo no garantiza que no ocurrirán ciclos. Como en cualquier negociación es posible configurar dos implementaciones PPP con políticas conflictivas que nunca converjan finalmente. También es posible configurar políticas que converjan, pero que se tomen un tiempo significativo para hacerlo.


Timers
Existen distintos tipos de timers. Por ejemplo, el "timer de reiniciado" es utilizado para controlar el tiempo de las transmisiones de solicitud de configuración y los paquetes de solicitud de terminación. La expiración de este timer causa un evento de "tiempo cumplido" y la retransmisión de la correspondiente "solicitud de configuración" o el paquete de "solicitud de terminación". Este timer debe ser configurable, pero por defecto durará 3 segundos. Este tiempo está pensado para bajas velocidades, como las líneas telefónicas típicas.
Otro ejemplo de timeres el de "terminación máxima", que es un contador de reiniciado requerido para las solicitudes de terminación. Indica el número de paquetes de "solicitudes de terminación" enviados sin recibir un "reconocimiento de terminación". Debe ser configurable pero por defecto se establece en 2 transmisiones.


Protocolo de Control de Enlace (LCP)
El LCP es usado para acordar automáticamente las opciones del formato de encapsulación, los límites de manipulación de tamaño de paquete, detectar un enlace con ciclos, otros errores comunes por mala configuración, y terminar el enlace. Otras facilidades opcionales provistas son: autenticación de la identidad de los "pares" del enlace, y determinación de cuándo el enlace está funcionando apropiadamente y cuándo está fallando.


Formato de los paquetes LCP
Hay tres clases de paquetes LCP:
1. Paquetes de configuración de enlace: usados para establecer y configurar el enlace ("solicitud de configuración", "reconocimiento de configuración", "no reconocimiento de configuración" y "rechazo de configuración").
2. Paquetes de terminación de enlace: usados para terminar el enlace ("solicitud de terminación" y "reconocimiento de terminación").
3. Paquetes de mantenimiento del enlace: usados para manejar y depurar el enlace ("rechazo de código", "rechazo de protocolo", "solicitud de eco", "respuesta de eco", "solicitud de descarte").
Un paquete LCP es encapsulado en el campo de información PPP, donde el campo de protocolo PPP indica el tipo C021hex.
Básicamente, el formato de un paquete del protocolo de control de enlace es el siguiente:
Código
(1 byte) Identificador
(1 byte) Longitud
(2 bytes) Datos
(variable)


Campo código
Ocupa un byte y sirve para identificar el tipo de paquete LCP. Cuando se recibe un paquete con un campo de código desconocido, se transmite un paquete de "rechazo de código".


Campo identificador
Es de un byte y ayuda en la comparación de las solicitudes y respuestas.



Campo longitud
Es de dos bytes e indica la longitud del paquete LCP, incluyendo los campos código, identificador, longitud y datos. La longitud no debe exceder la MRU del enlace. Los bytes fuera del rango del campo longitud son tratados como relleno e ignorados al ser recibidos.


Campo datos
Pueden ser 0 o más bytes, indicados por el campo longitud. El formato de los datos es determinado por el campo código.
A continuación describiremos brevemente los principales paquetes utilizados por el LCP:


Solicitud de configuración
Debe transmitirse para abrir una conexión. En el campo de datos se incluirán las opciones de configuración que el transmisor desee negociar (0 o más). Todas estas opciones son negociadas simultáneamente.


Reconocimiento de configuración
Si cada opción de configuración recibida en una "solicitud de configuración" es reconocible y sus valores son aceptables, la implementación receptora debe transmitir un paquete de "reconocimiento". Estas opciones reconocidas no deberán ser modificadas luego. Las opciones reconocidas son enviadas en el área de datos del paquete simultáneamente.


No reconocimiento de configuración
Si cada opción de configuración es reconocible pero algunos valores no son aceptables, se debe transmitir un paquete de "no reconocimiento de configuración". El campo de datos es completado sólo con las opciones no aceptadas de la "solicitud de configuración".
Al recibir un paquete de "no reconocimiento", el campo de identificación debe ser comparado con el de la última "solicitud de configuración", y cuando se vuelva a enviar una "solicitud de configuración", las opciones de la mismas deberán ser modificadas.





Rechazo de configuración
Este paquete será transmitido si se recibe una "solicitud de configuración" en la que algunas opciones no son reconocibles o aceptables para ser negociadas. El campo de datos es completado sólo con las opciones de configuración no aceptables.
Al recibir un "rechazo de configuración", el campo identificador debe compararse con el de la última solicitud de configuración.



Solicitud de terminación y reconocimiento de terminación
Son utilizadas para terminar una conexión. Primero se debe transmitir una "solicitud de terminación". Estas solicitudes se seguirán transmitiendo hasta recibir un "reconocimiento de terminación", hasta que la capa inferior indique que se perdió la conexión, o hasta que se haya transmitido un cierto número de solicitudes al "par".
El campo de datos puede contener 0 o más bytes, los cuales no son utilizados.

REDES PARA LA GENTE (ISP)

REDES PARA LA GENTE (ISP)

ISP se refiere a las siglas en Inglés para Internet Services Provider. Su traducción al español nos permite comprender de manera rápida y sencilla de qué se trata un ISP; un Proveedor de Servicios o acceso de Internet. A los ISP también se los llama IAP, que también corresponde a siglas en Inglés, en este caso para Internet Access Providers, que traducido al español, se entiende como Proveedores de Acceso a Internet.

Por lo general, estos servicios guardan relación con otorgar el acceso a Internet a través de una línea telefónica. Para este servicio el proveedor hace entrega a su cliente de un enlace dial up, o bien puede proveer enlaces dedicados que funcionan a altas velocidades. Paralelamente, un Proveedor de Servicios de Internet, ofrece a sus usuarios una amplia gama de servicios asociados al acceso a Internet, tales como el desarrollo y mantenimiento de páginas web , cuentas de correo electrónico, entre otros.
Este tipo de empresa proveedora de servicios web, a través de un pago mensual, ofrece a sus clientes un paquete de software que cuenta con un nombre de usuario, claves y un número telefónico (solo si el servicio es de dial up o de marcado, ya que esto no aplica para las conexiones por cable) para el acceso a la red. Para poder hacer uso de esto es necesario contar con un módem, que por lo general es proveído por el ISP, y así poder disfrutar de los beneficios de contar con acceso a Internet y navegar por la red.

Como vemos, el requerimiento de un ISP no sólo es indispensable en nuestros hogares, sino que también lo es para las grandes empresas, para quienes los ISP son capaces de proporcionar accesos directos a las redes de la empresa usando la Internet.

La velocidad de acceso y navegación de Internet ha ido cobrando cada vez más importancia. Tal es el caso de América Latina, donde en los últimos años, los ISP han tenido que adaptarse a clientes mucho más exigentes con la velocidad del servicio. Lo anterior ha hecho que este mercado se expanda de manera considerable abriendo una amplísima gama de opciones a sus clientes y rompiendo con los monopolios en el área de las telecomunicaciones. Por eso mismo es que cada vez hay menos conexiones telefónicas a la red, y el concepto de "banda ancha", que no es más que la posibilidad de intercambiar grandes cantidades de información de manera rápida, ya sea por cable o por líneas telefónicas digitales dedicadas, se abre paso convirtiéndose en el estándar del servicio ofrecido por los ISP

MODELO OSI

MODELO OSI
En 1977, la Organización Internacional de Estándares (ISO), integrada por industrias representativas del medio, creó un subcomité para desarrollar estándares de comunicación de datos que promovieran la accesibilidad universal y una interoperabilidad entre productos de diferentes fabricantes.

El resultado de estos esfuerzos es el Modelo de Referencia Interconexión de Sistemas Abiertos (OSI).
El Modelo OSI es un lineamiento funcional para tareas de comunicaciones y, por consiguiente, no especifica un estándar de comunicación para dichas tareas. Sin embargo, muchos estándares y protocolos cumplen con los lineamientos del Modelo OSI.
Como se mencionó anteriormente, OSI nace de la necesidad de uniformizar los elementos que participan en la solución del problema de comunicación entre equipos de cómputo de diferentes fabricantes.
Estos equipos presentan diferencias en:
Procesador Central.
Velocidad.
Memoria.
Dispositivos de Almacenamiento.
Interfaces para Comunicaciones.
Códigos de caracteres.
Sistemas Operativos.
Estas diferencias propician que el problema de comunicación entre computadoras no tenga una solución simple.
Dividiendo el problema general de la comunicación, en problemas específicos, facilitamos la obtención de una solución a dicho problema.


Esta estrategia establece dos importantes beneficios:
Mayor comprensión del problema.
La solución de cada problema especifico puede ser optimizada individualmente. Este modelo persigue un objetivo claro y bien definido:
Formalizar los diferentes niveles de interacción para la conexión de computadoras habilitando así la comunicación del sistema de cómputo independientemente del:
Fabricante.
Arquitectura.
Localización.
Sistema Operativo.


Este objetivo tiene las siguientes aplicaciones:
Obtener un modelo de referencia estructurado en varios niveles en los que se contemple desde el concepto BIT hasta el concepto APLIACION.
Desarrollar un modelo en el cual cada nivel define un protocolo que realiza funciones especificas diseñadas para atender el protocolo de la capa superior.
No especificar detalles de cada protocolo.
Especificar la forma de diseñar familias de protocolos, esto es, definir las funciones que debe realizar cada capa.


Estructura del Modelo OSI de ISO
El objetivo perseguido por OSI establece una estructura que presenta las siguientes particularidades:
Estructura multinivel: Se diseñó una estructura multinivel con la idea de que cada nivel se dedique a resolver una parte del problema de comunicación. Esto es, cada nivel ejecuta funciones especificas.
El nivel superior utiliza los servicios de los niveles inferiores: Cada nivel se comunica con su similar en otras computadoras, pero debe hacerlo enviando un mensaje a través de los niveles inferiores en la misma computadora. La comunicación internivel está bien definida. El nivel N utiliza los servicios del nivel N-1 y proporciona servicios al nivel N+1.
Puntos de acceso: Entre los diferentes niveles existen interfaces llamadas "puntos de acceso" a los servicios.
Dependencias de Niveles: Cada nivel es dependiente del nivel inferior y también del superior.
Encabezados: En cada nivel, se incorpora al mensaje un formato de control. Este elemento de control permite que un nivel en la computadora receptora se entere de que su similar en la computadora emisora esta enviándole información. Cualquier nivel dado, puede incorporar un encabezado al mensaje. Por esta razón, se considera que un mensaje esta constituido de dos partes: Encabezado e Información. Entonces, la incorporación de encabezados es necesaria aunque representa un lote extra de información, lo que implica que un mensaje corto pueda ser voluminoso. Sin embargo, como la computadora destino retira los encabezados en orden inverso a como fueron incorporados en la computadora origen, finalmente el usuario sólo recibe el mensaje original.


Unidades de información: En cada nivel, la unidad de información tiene diferente nombre y estructura :
Niveles del Modelo OSI.
Aplicación.
Presentación.
Sesión.
Transporte.
Red.
Enlace de datos.
Físico.
La descripción de los 7 niveles es la siguiente :
Nivel Físico: Define el medio de comunicación utilizado para la transferencia de información, dispone del control de este medio y especifica bits de control, mediante:
Definir conexiones físicas entre computadoras.
Describir el aspecto mecánico de la interface física.
Describir el aspecto eléctrico de la interface física.
Describir el aspecto funcional de la interface física.
Definir la Técnica de Transmisión.
Definir el Tipo de Transmisión.
Definir la Codificación de Línea.
Definir la Velocidad de Transmisión.
Definir el Modo de Operación de la Línea de Datos.


Nivel Enlace de Datos: Este nivel proporciona facilidades para la transmisión de bloques de datos entre dos estaciones de red. Esto es, organiza los 1's y los 0's del Nivel Físico en formatos o grupos lógicos de información. Para:
Detectar errores en el nivel físico.
Establecer esquema de detección de errores para las retransmisiones o reconfiguraciones de la red.
Establecer el método de acceso que la computadora debe seguir para transmitir y recibir mensajes. Realizar la transferencia de datos a través del enlace físico.
Enviar bloques de datos con el control necesario para la sincronía.
En general controla el nivel y es la interfaces con el nivel de red, al comunicarle a este una transmisión libre de errores.


Nivel de Red: Este nivel define el enrutamiento y el envío de paquetes entre redes.
Es responsabilidad de este nivel establecer, mantener y terminar las conexiones.
Este nivel proporciona el enrutamiento de mensajes, determinando si un mensaje en particular deberá enviarse al nivel 4 (Nivel de Transporte) o bien al nivel 2 (Enlace de datos).
Este nivel conmuta, enruta y controla la congestión de los paquetes de información en una sub-red.
Define el estado de los mensajes que se envían a nodos de la red.


Nivel de Transporte: Este nivel actúa como un puente entre los tres niveles inferiores totalmente orientados a las comunicaciones y los tres niveles superiores totalmente orientados a el procesamiento. Además, garantiza una entrega confiable de la información.
Asegura que la llegada de datos del nivel de red encuentra las características de transmisión y calidad de servicio requerido por el nivel 5 (Sesión).
Este nivel define como direccionar la localidad física de los dispositivos de la red.
Asigna una dirección única de transporte a cada usuario.
Define una posible multicanalización. Esto es, puede soportar múltiples conexiones.
Define la manera de habilitar y deshabilitar las conexiones entre los nodos.
Determina el protocolo que garantiza el envío del mensaje.
Establece la transparencia de datos así como la confiabilidad en la transferencia de información entre dos sistemas.


Nivel Sesión: proveer los servicios utilizados para la organización y sincronización del diálogo entre usuarios y el manejo e intercambio de datos.
Establece el inicio y termino de la sesión.
Recuperación de la sesión.
Control del diálogo; establece el orden en que los mensajes deben fluir entre usuarios finales.
Referencia a los dispositivos por nombre y no por dirección.
Permite escribir programas que correrán en cualquier instalación de red.
Nivel Presentación: Traduce el formato y asignan una sintaxis a los datos para su transmisión en la red.
Determina la forma de presentación de los datos sin preocuparse de su significado o semántica.
Establece independencia a los procesos de aplicación considerando las diferencias en la representación de datos.
Proporciona servicios para el nivel de aplicaciones al interpretar el significado de los datos intercambiados.
Opera el intercambio.
Opera la visualización.


Nivel Aplicación: Proporciona servicios al usuario del Modelo OSI.
Proporciona comunicación entre dos procesos de aplicación, tales como: programas de aplicación, aplicaciones de red, etc.
Proporciona aspectos de comunicaciones para aplicaciones especificas entre usuarios de redes: manejo de la red, protocolos de transferencias de archivos (ftp), etc.

SOFTWARE DE REDES

SOFTWARE DE REDES
Multitarea
Un sistema operativo multitarea, como su nombre indica, proporciona el medio que permite a un equipo procesar más de una tarea a la vez. Un sistema operativo multitarea real puede ejecutar tantas tareas como procesadores tenga. Si el número de tareas es superior al número de procesadores, el equipo debe ordenar los procesadores disponibles para dedicar una cierta cantidad de tiempo a cada tarea, alternándolos hasta que se completen las citadas tareas. Con este sistema, el equipo parece que está trabajando sobre varias tareas a la vez.

Existen dos métodos básicos de multitarea:
Con prioridad. En una multitarea con prioridad, el sistema operativo puede tomar el control del procesador sin la cooperación de la propia tarea.
Sin prioridad (cooperativo). En una multitarea sin prioridad, la propia tarea decide cuándo deja el procesador. Los programa escritos para sistemas de multitarea sin prioridad deben incluir algún tipo de previsión que permita ejercer el control del procesador. No se puede ejecutar ningún otro programa hasta que el programa sin prioridad haya abandonado el control del procesador.
El sistema multitarea con prioridad puede proporcionar ciertas ventajas dada la interacción entre el sistema operativo individual y el Sistema Operativo de Red (sistema operativo de red). Por ejemplo, cuando la situación lo requiera, el sistema con prioridad puede conmutar la actividad de la CPU de una tarea local a una tarea de red.

Componentes del software

El software cliente de red debe instalarse sobre el sistema operativo existente, en aquellos sistemas operativos de equipo que no incluyan funciones propias de red. Otros sistemas operativos, como Windows NT/2000, integran el sistema operativo de red y sistema operativo del equipo. A pesar de que estos sistema integrados tienen algunas ventajas, no evitan la utilización de otros Sistema Operativo de Red. Es importante considerar la propiedad de interoperabilidad cuando se configuran entornos de red multiplataforma. Se dice que los elementos o componentes de los sistemas operativos «interoperan» cuando pueden funcionar en diferentes entornos de trabajo. Por ejemplo, un servidor NetWare puede interoperar (es decir, acceder a los recursos) con servidores NetWare y servidores Windows NT/2000.
Un sistema operativo de red:
Conecta todos los equipos y periféricos.
Coordina las funciones de todos los periféricos y equipos.
Proporciona seguridad controlando el acceso a los datos y periféricos.
Las dos componentes principales del software de red son:
El software de red que se instala en los clientes.
El software de red que se instala en los servidores.



Software de cliente
En un sistema autónomo, cuando un usuario escribe un comando que solicita el equipo para realizar una tarea, la petición circula a través del bus local del equipo hasta la CPU del mismo. Por ejemplo, si quiere ver un listado de directorios de uno de los discos duros locales, la CPU interpreta y ejecuta la petición y, a continuación, muestra el resultado del listado de directorios en una ventana.
Sin embargo, en un entorno de red, cuando un usuario inicia una petición para utilizar un recurso que está en un servidor en otra parte de la red, el comportamiento es distinto. La petición se tiene que enviar, o redirigir, desde el bus local a la red y desde allí al servidor que tiene el recurso solicitado. Este envío es realizado por el redirector.


Redirector
Un redirector procesa el envío de peticiones. Dependiendo del software de red, este redirector se conoce como «Shell» o «generador de peticiones». El redirector es una pequeña sección del código de un Sistema Operativo de Red que:
Intercepta peticiones en el equipo.
Determina si la peticiones deben continuar en el bus del equipo local o deben redirigirse a través de la red a otro servidor
La actividad del redirector se inicia en un equipo cliente cuando el usuario genera la petición de un recurso o servicio de red. El equipo del usuario se identifica como cliente, puesto que está realizando una petición a un servidor. El redirector intercepta la petición y la envía a la red.
El servidor procesa la conexión solicitada por los redirectores del cliente y les proporciona acceso a los recursos solicitados. En otras palabras, los servicios del servidor solicitados por el cliente.


Designadores
Normalmente, el sistema operativo proporcionará diferentes opciones para acceder al directorio cuando necesite acceder a un directorio compartido y tenga los correspondientes permisos para realizarlo. Por ejemplo, con Windows NT/2000, podría utilizar el icono Conectar a unidad de red del Explorador de Windows NT/2000 para conectarse a la unidad de red. También, puede asignar una unidad. La asignación de unidades consiste en asignar una letra o nombre a una unidad de disco, de forma que el sistema operativo o el servidor de la red puede identificarla y localizarla. El redirector también realiza un seguimiento de los designadores de unidades asociados a recursos de red.


Periféricos
Los redirectores pueden enviar peticiones a los periféricos, al igual que se envían a los directorios compartidos. La petición se redirige desde el equipo origen y se envía a través de la red al correspondiente destino. En este caso, el destino es el servidor de impresión para la impresora solicitada.
Con el redirector, podemos referenciar como LPT1 o COM1 impresoras de red en lugar de impresoras locales. El redirector intercepta cualquier trabajo de impresión dirigido a LPT1 y lo envía a la impresora de red especificada.
La utilización del redirector permite a los usuarios no preocuparse ni de la ubicación actual de los datos o periféricos ni de la complejidad del proceso de conexión o entrada. Por ejemplo, para acceder a los datos de un ordenador de red, el usuario sólo necesita escribir el designador de la unidad asignado a la localización del recurso y el redirector determina el encaminamiento actual.


Software de servidor
El software de servidor permite a los usuarios en otras máquinas, y a los equipos clientes, poder compartir los datos y periféricos del servidor incluyendo impresoras, trazadores y directorios.
Si un usuario solicita un listado de directorios de un disco duro remoto compartido. El redirector envía la petición por la red, se pasa al servidor de archivos que contiene el directorio compartido. Se concede la petición y se proporciona el listado de directorios.


Compartir recursos
Compartir es el término utilizado para describir los recursos que públicamente están disponibles para cualquier usuario de la red. La mayoría de los sistemas operativos de red no sólo permiten compartir, sino también determinar el grado de compartición. Las opciones para la compartición de recursos incluyen:
Permitir diferentes usuarios con diferentes niveles de acceso a los recursos.
Coordinación en el acceso a los recursos asegurando que dos usuarios no utilizan el mismo recurso en el mismo instante.
Por ejemplo, un administrador de una oficina quiere que una persona de la red se familiarice con un cierto documento (archivo), de forma que permite compartir el documento. Sin embargo, se controla el acceso al documento compartiéndolo de forma que:
Algunos usuarios sólo podrán leerlo.
Algunos usuarios podrán leerlo y realizar modificaciones en él.


Gestión de usuarios
Los sistemas operativos de red permiten al administrador de la red determinar las personas, o grupos de personas, que tendrán la posibilidad de acceder a los recursos de la red. El administrador de una red puede utilizar el Sistema Operativo de Red para:
Crear permisos de usuario, controlados por el sistema operativo de red, que indican quién puede utilizar la red.
Asignar o denegar permisos de usuario en la red.
Eliminar usuarios de la lista de usuarios que controla el sistema operativo de red.
Para simplificar la tarea de la gestión de usuarios en una gran red, el sistema operativo de red permite la creación de grupos de usuarios. Mediante la clasificación de los individuos en grupos, el administrador puede asignar permisos al grupo. Todos los miembros de un grupo tendrán los mismos permisos, asignados al grupo como una unidad. Cuando se une a la red un nuevo usuario, el administrador puede asignar el nuevo usuario al grupo apropiado, con sus correspondientes permisos y derechos.


Gestión de la red
Algunos sistemas operativos de red avanzados incluyen herramientas de gestión que ayudan a los administradores a controlar el comportamiento de la red. Cuando se produce un problema en la red, estas herramientas de gestión permiten detectar síntomas de la presencia del problema y presentar estos síntomas en un gráfico o en otro formato. Con estas herramientas, el administrador de la red puede tomar la decisión correcta antes de que el problema suponga la caída de la red.


Selección de un sistema operativo de red
El sistema operativo de red determina estos recursos, así como la forma de compartirlos y acceder a ellos.
En la planificación de una red, la selección del sistema operativo de red se puede simplificar de forma significativa, si primero se determina la arquitectura de red (cliente/servidor o Trabajo en Grupo) que mejor se ajusta a nuestras necesidades. A menudo, esta decisión se basa en los tipos de seguridad que se consideran más adecuados. La redes basadas en servidor le permiten incluir más posibilidades relativas a la seguridad que las disponibles en una red Trabajo en Grupo. Por otro lado, cuando la seguridad no es una propiedad a considerar, puede resultar más apropiado un entorno de red Trabajo en Grupo.
Después de identificar las necesidades de seguridad de la red, el siguiente paso es determinar los tipos de interoperabilidad necesaria en la red para que se comporte como una unidad. Cada sistema operativo de red considera la interoperabilidad de forma diferente y, por ello, resulta muy importante recordar nuestras propias necesidades de interoperabilidad cuando se evalúe cada Sistema Operativo de Red. Si la opción es Trabajo en Grupo, disminuirán las opciones de seguridad e interoperabilidad debida a las limitaciones propias de esta arquitectura. Si la opción seleccionada se basa en la utilización de un servidor, es necesario realizar estimaciones futuras para determinar si la interoperabilidad va a ser considerada como un servicio en el servidor de la red o como una aplicación cliente en cada equipo conectado a la red. La interoperabilidad basada en servidor es más sencilla de gestionar puesto que, al igual que otros servicios, se localiza de forma centralizada. La interoperabilidad basada en cliente requiere la instalación y configuración en cada equipo. Esto implica que la interoperabilidad sea mucho más difícil de gestionar.
No es raro encontrar ambos métodos (un servicio de red en el servidor y aplicaciones cliente en cada equipo) en una misma red. Por ejemplo, un servidor NetWare, a menudo, se implementa con un servicio para los equipos Apple, mientras que la interoperabilidad de las redes de Microsoft Windows se consigue con una aplicación cliente de red en cada equipo personal.
Cuando se selecciona un sistema operativo de red, primero se determinan los servicios de red que se requieren. Los servicios estándares incluyen seguridad, compartición de archivos, impresión y mensajería; los servicios adicionales incluyen soporte de interoperabilidad para conexiones con otros sistemas operativos. Para cualquier Sistema Operativo de Red, es necesario determinar los servicios de interoperabilidad o clientes de red a implementar para adecuarse mejor a las necesidades.
Los sistemas operativos de red basados en servidor más importantes son Microsoft Windows NT 4, Windows 2000 Server y Novell NetWare 3.x, 4.x y 5.x. Los sistemas operativos de red Trabajo en Grupo más importantes son AppleTalk, Windows 95 y 98 y UNIX (incluyendo Linux y Solaris).


Sistemas operativos de Novell
El sistema operativo de red NetWare está formado por aplicaciones de servidor y cliente. La aplicación cliente se diseña para ejecutarse sobre una variedad importante de los sistemas operativos que residen en los clientes. Los usuarios clientes pueden acceder a la aplicación servidor a partir de ordenadores que ejecuten MS-DOS, Microsoft Windows (versiones 3.x, 95 y 98 y Windows NT), OS/2, Apple Talk o UNIX. A menudo, NetWare es la opción que se utiliza como sistema operativo en entornos de múltiples sistemas operativos mezclados.
La versión 3.2 de NetWare es un Sistema Operativo de Red de 32 bits que admite entornos Windows (versiones 3.x, 95 y 98 y Windows NT), UNIX, Mac OS y MS-DOS. Con la versión NetWare 4.11, también denominada IntranetWare, Novell introdujo su nuevo Sistema Operativo de Red, los Servicios de directorios de Novell (NDS). La versión 5, última versión distribuida, se centra en la integración de LAN, WAN, aplicaciones de red, intranets e Internet en una única red global.
Los Servicios de directorios de Novell (NDS) proporcionan servicios de nombre y seguridad, encaminamiento, mensajería, publicación Web y servicios de impresión y de archivos. Mediante la utilización de la arquitectura de directorios X.500, organiza todos los recursos de red, incluyendo usuarios, grupos, impresoras, servidores y volúmenes. NDS también proporciona una entrada única para el usuario, que permite a éste poder entrar en cualquier servidor de la red y tener acceso a todos sus permisos y derechos habituales.
Otros Sistema Operativo de Red proporcionan software de cliente para la interoperabilidad con servidores NetWare. Por ejemplo, Windows NT proporciona Servicios de enlace para NetWare (Gateway Services GSNW). Con este servicio, un servidor Windows NT puede obtener acceso a servicios de archivo e impresión NetWare.


Servicios NetWare
Con el Cliente NetWare instalado, cualquier estación cliente puede obtener todas las ventajas de los recursos proporcionados por un servidor NetWare. Algunos de los servicios más importantes que proporciona, son:


Servicios de archivos
Los servicios de archivos de NetWare forman parte de la base de datos NDS. NDS proporciona un único punto de entrada para los usuarios y permite a los usuarios y administradores ver de la misma forma los recursos de la red. Dependiendo del software de cliente instalado, podrá ver la red completa en un formato conocido para el sistema operativo de la estación de trabajo. Por ejemplo, un cliente Microsoft Windows puede asignar una unidad lógica a cualquier volumen o directorio de un servidor de archivos de NetWare, de forma que los recursos de NetWare aparecerán como unidades lógicas en sus equipos. Estas unidades lógicas funcionan igual que cualquier otra unidad en sus equipos.


Seguridad
NetWare proporciona seguridad de gran alcance, incluyendo:
Seguridad de entrada. Proporciona verificación de autenticación basada en el nombre de usuario, contraseña y restricciones de cuentas y de tiempo.
Derechos de Trustee. Controla los directorios y archivos a los que puede acceder un usuario y lo que puede realizar el usuario con ellos.
Atributos de archivos y directorios. Identifica los tipos de acciones que se pueden llevar a cabo en un archivo (visualizarlo, escribir en él, copiarlo, buscarlo u ocultarlo o suprimirlo).


Servicios de impresión

Los servicios de impresión son transparentes (invisibles) al usuario de un equipo cliente. Cualquier petición de impresión por parte de un cliente es redirigida al servidor de archivos, donde se envía al servidor de impresión y, finalmente, a la impresora. El mismo equipo puede actuar como servidor de archivos y servidor de impresión. Permite compartir dispositivos de impresión que se conectan al servidor, a la estación de trabajo o, directamente, a la red por medio de las propias tarjetas de red (NIC) de los dispositivos. Los servicios de impresión de NetWare pueden admitir hasta 256 impresoras.


Envió de mensajes a otros
Por medio de algunos comandos sencillos, los usuarios pueden enviar un breve mensaje a otros usuarios de la red. Los mensajes se pueden enviar a grupos o de forma individual. Si todos los receptores pertenecen al mismo grupo, es conveniente enviar el mensaje al grupo en lugar de enviarlo de forma individual. Los usuarios también pueden activar o desactivar este comando para sus estaciones de trabajo. Cuando un usuario desactiva este comando, no recibirá ningún mensaje enviado.
Los mensaje también se pueden controlar a través del Servicio de control de mensajes (Message Handling Service – MHS). MHS se puede instalar en cualquier servidor y configurarse como una infraestructura de mensajes completamente interconectada para una distribución de correo electrónico. MHS admite los programas más habituales de correo electrónico.


Interoperabilidad
No siempre se puede conseguir la interoperabilidad completa de un Sistema Operativo de Red. Es especialmente cierta cuando se conectan dos redes diferentes, como NetWare y Windows NT. Un entorno NetWare, caracterizado por sus servicios de directorio y Windows NT que trabaja sobre la base de un modelo de dominio, son esencialmente incompatibles. Para solucionar este problema, Windows NT desarrolló NWLink y GSNW que le permiten interoperar. Estos servicios permiten a un servidor en una red Windows NT actuar como un enlace a la red NetWare. Cualquier estación en la red Windows NT puede solicitar recursos o servicios disponibles en la red NetWare, pero deben realizar la petición a través del servidor Windows NT. A continuación, el servidor actuará como cliente en la red NetWare, pasando las peticiones entre las dos redes