Renenvio selectivo en los switches

|

Los switches Ethernet reenvían selectivamente tramas individuales desde un puerto receptor hasta el puerto en el que esté conectado el nodo de destino. Este proceso de reenvío selectivo puede pensarse como la posibilidad de establecer una conexión punto a punto momentánea entre los nodos de transmisión y recepción. La conexión se establece sólo durante el tiempo suficiente como para enviar una sola trama. Durante este instante, los dos nodos tienen una conexión de ancho de banda completa entre ellos y representan una conexión lógica punto a punto.

Para ser más precisos en términos técnicos, esta conexión temporaria no se establece entre los dos nodos de manera simultánea. Básicamente, esto hace que la conexión entre los hosts sea una conexión punto a punto. De hecho, cualquier nodo que funcione en modo full-duplex puede transmitir en cualquier momento que tenga una trama, independientemente de la disponibilidad del nodo receptor. Esto sucede porque un switch LAN almacena una trama entrante en la memoria búfer y después la envía al puerto correspondiente cuando dicho puerto está inactivo. Este proceso se denomina almacenar y enviar.

Con la conmutación almacenar y enviar, el switch recibe la trama completa, controla el FSC en busca de errores y reenvía la trama al puerto indicado para el nodo de destino. Debido a que los nodos no deben esperar a que el medio esté inactivo, los nodos pueden enviar y recibir a la velocidad completa del medio sin pérdidas ocasionadas por colisiones o el gasto asociado con la administración de colisiones.

El reenvío se basa en la MAC de destino

El switch mantiene una tabla, denominada tabla MAC que hace coincidir una dirección MAC de destino con el puerto utilizado para conectarse a un nodo. Para cada trama entrante, la dirección MAC de destino en el encabezado de la trama se compara con la lista de direcciones de la tabla MAC. Si se produce una coincidencia, el número de puerto de la tabla que se asoció con la dirección MAC se utiliza como puerto de salida para la trama.

La tabla MAC puede denominarse de diferentes maneras. Generalmente, se la llama tabla de switch. Debido a que la conmutación deriva de una tecnología más antigua denominada bridging transparente, la tabla suele denominarse tabla del puente. Por esta razón, muchos de los procesos que realizan los switches LAN pueden contener las palabras bridge o bridging en su nombre.

Un bridge es un dispositivo que se utilizaba con mayor frecuencia en los inicios de la LAN para conectar dos segmentos de red física. Los switches pueden utilizarse para realizar esta operación, a la vez que permiten la conectividad del dispositivo final con la LAN. Muchas otras tecnologías se desarrollaron en torno a los switches LAN. Muchas de estas tecnologías se presentarán en otro curso. Un entorno en el que prevalecen los bridges son las redes inalámbricas. Utilizamos bridges inalámbricos para interconectar dos segmentos de red inalámbrica. Por lo tanto, encontrará que la industria de redes utiliza ambos términos, conmutación y bridging.

Utilizacion de switches

|

En los últimos años, los switches se convirtieron rápidamente en una parte fundamental de la mayoría de las redes. Los switches permiten la segmentación de la LAN en distintos dominios de colisiones. Cada puerto de un switch representa un dominio de colisiones distinto y brinda un ancho de banda completo al nodo o a los nodos conectados a dicho puerto. Con una menor cantidad de nodos en cada dominio de colisiones, se produce un aumento en el ancho de banda promedio disponible para cada nodo y se reducen las colisiones.

Una LAN puede tener un switch centralizado que conecta a hubs que todavía brindan conectividad a los nodos. O bien, una LAN puede tener todos los nodos conectados directamente a un switch. Estas topologías se ilustran en la figura.

En una LAN en la que se conecta un hub a un puerto de un switch, todavía existe un ancho de banda compartido, lo que puede producir colisiones dentro del entorno compartido del hub. Sin embargo, el switch aislará el segmento y limitará las colisiones para el tráfico entre los puertos del hub.


Ethernet en el Futuro

|

Se adaptó el estándar IEEE 802.3ae para incluir la transmisión en full-duplex de 10 Gbps en cable de fibra óptica. El estándar 802.3ae y los estándares 802.3 para la Ethernet original son muy similares. La Ethernet de 10 Gigabits (10GbE) está evolucionando para poder utilizarse no sólo en LAN sino también en WAN y MAN.

Debido a que el formato de trama y otras especificaciones de Ethernet de Capa 2 son compatibles con estándares anteriores, la 10GbE puede brindar un mayor ancho de banda para redes individuales que sea interoperable con la infraestructura de red existente.

10Gbps se puede comparar con otras variedades de Ethernet de este modo:
El formato de trama es el mismo, permitiendo así la interoperabilidad entre todos los tipos de tecnologías antiguas, fast, gigabit y 10 Gigabit Ethernet, sin la necesidad de retramado o conversiones de protocolo.
El tiempo de bit ahora es de 0,1 nanosegundos. Todas las demás variables de tiempo caen en su correspondiente lugar en la escala.
Ya que sólo se utilizan conexiones de fibra óptica full-duplex, no hay ningún tipo de contención de medios ni se necesita el CSMA/CD.
Se preserva la mayoría de las subcapas de 802.3 de IEEE dentro de las Capas OSI 1 y 2, con algunos pocos agregados para que se adapten a enlaces de fibra de 40 km y la posibilidad de interoperabilidad con otras tecnologías en fibra.

Con 10Gbps Ethernet es posible crear redes de Ethernet flexibles, eficientes, confiables, a un costo punto a punto relativamente bajo.

Futuras velocidades de Ethernet

Si bien la Ethernet de 1 Gigabit es muy fácil de hallar en el mercado y cada vez es más fácil conseguir los productos de 10 Gigabits, el IEEE y la Alianza de Ethernet de 10 Gigabits trabajan actualmente en estándares para 40, 100 e inclusive 160 Gbps. Las tecnologías que se adopten dependerán de un número de factores que incluyen la velocidad de maduración de las tecnologías y de los estándares, la velocidad de adopción por parte del mercado y el costo de los productos emergentes.

Ethernet 1000BASE-SX y 1000BASE-LX por fibra óptica

|

Las versiones de fibra óptica de la Gigabit Ethernet (1000BASE-SX y 1000BASE-LX) ofrecen las siguientes ventajas sobre el UTP: inmunidad al ruido, tamaño físico pequeño y distancias y ancho de banda aumentados y sin repeticiones.

Todas las versiones de 1000BASE-SX y 1000BASE-LX admiten la transmisión binaria full-duplex a 1250 Mbps en dos hebras de fibra óptica. La codificación de la transmisión se basa en el esquema de codificación 8B/10B. Debido al gasto de esta codificación, la velocidad de transferencia de datos sigue siendo 1000 Mbps.

Cada trama de datos se encapsula en la capa física antes de la transmisión y la sincronización de los enlaces se mantiene enviando un stream continuo de grupos de códigos INACTIVOS durante el espacio entre tramas.

Las principales diferencias entre las versiones de fibra de 1000BASE-SX y 1000BASE-LX son los medios de enlace, los conectores y la longitud de onda de la señal óptica.

Ethernet 1000BASE-T

|

La Ethernet 1000BASE-T brinda una transmisión full-duplex utilizando los cuatro pares de cable UTP Categoría 5 o superior. La Gigabit Ethernet por cables de cobre permite un aumento de 100 Mbps por par de cable a 125 Mbps por par de cable o 500 Mbps para los cuatro pares. Cada par de cable origina señales en full-duplex, lo que duplica los 500 Mbps a 1000 Mbps.

La 1000BASE-T utiliza codificación de línea 4D-PAM5 para obtener un throughput de datos de 1 Gbps. Este esquema de codificación permite señales de transmisión en cuatro pares de cables simultáneamente. Traduce un byte de 8 bits de datos en una transmisión simultánea de cuatro símbolos de código que se envían por los medios, uno en cada par, como señales de Modulación de amplitud de pulsos de 5 niveles (PAM5). Esto significa que cada símbolo se corresponde con dos bits de datos. Debido a que la información viaja simultáneamente a través de las cuatro rutas, el sistema de circuitos tiene que dividir las tramas en el transmisor y reensamblarlas en el receptor. La figura muestra una representación del sistema de circuitos que utiliza la Ethernet 1000BASE-T.

La 1000BASE-T permite la transmisión y recepción de datos en ambas direcciones (en el mismo cable y al mismo tiempo). Este flujo de tráfico crea colisiones permanentes en los pares de cables. Estas colisiones generan patrones de voltaje complejos. Los circuitos híbridos que detectan las señales utilizan técnicas sofisticadas tales como la cancelación de eco, la corrección del error de envío de Capa 1 (FEC) y una prudente selección de los niveles de voltaje. Al utilizar dichas técnicas, el sistema alcanza un throughput de 1 Gigabit.

Para contribuir a la sincronización, la capa física encapsula cada trama con delimitadores de inicio y finalización de stream. La temporización de loops se mantiene mediante streams continuos de símbolos INACTIVOS que se envían en cada par de cables durante el espacio entre tramas.

A diferencia de la mayoría de las señales digitales, en las que generalmente se encuentra un par de niveles de voltaje discretos, la 1000BASE-T utiliza muchos niveles de voltaje. En períodos inactivos, se encuentran nueve niveles de voltaje en el cable. Durante los períodos de transmisión de datos, se encuentran hasta 17 niveles de voltaje en el cable. Con este gran número de estados, combinado con los efectos del ruido, la señal en el cable parece más analógica que digital. Como en el caso del analógico, el sistema es más susceptible al ruido debido a los problemas de cable y terminación.

1000 Mbps - Gigabit Ethernet

|

El desarrollo de los estándares de Gigabit Ethernet dio como resultado especificaciones para cobre UTP, fibra monomodo y fibra multimodo. En redes de Gigabit Ethernet, los bits se producen en una fracción del tiempo que requieren en redes de 100 Mbps y redes de 10 Mbps. Gracias a que las señales se producen en menor tiempo, los bits se vuelven más susceptibles al ruido y, por lo tanto, la temporización tiene una importancia decisiva. La cuestión del rendimiento se basa en la velocidad con la que el adaptador o la interfaz de red puedan cambiar los niveles de voltaje y en la manera en que dicho cambio de voltaje pueda detectarse de un modo confiable a 100 metros de distancia en la NIC o la interfaz de recepción.

A estas mayores velocidades, la codificación y decodificación de datos es más compleja. La Gigabit Ethernet utiliza dos distintos pasos de codificación. La transmisión de datos es más eficiente cuando se utilizan códigos para representar el stream binario de bits. La codificación de datos permite la sincronización, el uso eficiente del ancho de banda y características mejoradas de relación entre señal y ruido.

100BASE-FX

|

El estándar 100BASE-FX utiliza el mismo procedimiento de señalización que la 100BASE-TX, pero lo hace en medios de fibra óptica en vez de cobre UTP. Si bien los procedimientos de codificación, decodificación y recuperación de reloj son los mismos para ambos medios, la transmisión de señales es diferente: pulsos eléctricos en cobre y pulsos de luz en fibra óptica. La 100BASE-FX utiliza conectores de interfaz de fibra de bajo costo (generalmente llamados conectores SC duplex).

Las implementaciones de fibra son conexiones punto a punto, es decir, se utilizan para interconectar dos dispositivos. Estas conexiones pueden ser entre dos computadoras, entre una computadora y un switch o entre dos switches.


100BASE-TX

|

100BASE-TX fue diseñada para admitir la transmisión a través de dos hilos de fibra óptica o de dos pares de cable de cobre UTP de Categoría 5. La implementación 100BASE-TX utiliza los mismos dos pares y salidas de pares de UTP que la 10BASE-T. Sin embargo, la 100BASE-TX requiere UTP de Categoría 5 o superior. La codificación 4B/5B se utiliza para la Ethernet 100BASE-T.

Al igual que con la 10BASE-TX, la 100BASE-TX se conecta como estrella física. La figura muestra un ejemplo de una topología en estrella física. Sin embargo, a diferencia de la 10BASET, las redes 100BASE-TX utilizan generalmente un switch en el centro de la estrella en vez de un hub. Aproximadamente al mismo tiempo que las tecnologías 100BASE-TX se convirtieron en la norma, los switches LAN también comenzaron a implementarse con frecuencia. Estos desarrollos simultáneos llevaron a su combinación natural en el diseño de las redes 100BASE-TX.

100 Mbps - Fast Ethernet

|

100 Mbps - Fast Ethernet

Entre mediados y fines de la década de 1990 se establecieron varios estándares 802.3 nuevos para describir los métodos de transmisión de datos en medios Ethernet a 100 Mbps. Estos estándares utilizaban requisitos de codificación diferentes para lograr estas velocidades más altas de transmisión de datos.

La Ethernet de 100 Mbps, también denominada Fast Ethernet, puede implementarse utilizando medios de fibra o de cable de cobre de par trenzado. Las implementaciones más conocidas de la Ethernet de 100 Mbps son:
100BASE-TX con UTP Cat5 o mayor
100BASE-FX con cable de fibra óptica

Ya que las señales de mayor frecuencia que se utilizan en Fast Ethernet son más susceptibles al ruido, Ethernet de 100 Mbps utiliza dos pasos de codificación por separado para mejorar la integridad de la señal.

Descripcion General de la Capa Fisica de Ethernet

|

Las diferencias que existen entre Ethernet estándar, Fast Ethernet, Gigabit Ethernet y 10 Gigabit Ethernet tienen lugar en la capa física, generalmente denominada Ethernet PHY.

La Ethernet se rige por los estándares IEEE 802.3. Actualmente, se definen cuatro velocidades de datos para el funcionamiento con cables de fibra óptica y de par trenzado:
10 Mbps - Ethernet 10Base-T
100 Mbps - Fast Ethernet
1000 Mbps - Gigabit Ethernet
10 Gbps - 10 Gigabit Ethernet

Si bien existe una gran cantidad de implementaciones de Ethernet diferentes para estas diversas velocidades de transmisión de datos, aquí sólo se presentarán las más comunes. La figura muestra algunas de las características de la Ethernet PHY.

En esta sección se analizará la porción de Ethernet que opera en la capa física, comenzando por 10Base-T y continuando con las variedades de 10 Gbps.


Temporización de postergación

|

Una vez producida la colisión y que todos los dispositivos permitan que el cable quede inactivo (cada uno espera que se cumpla el espacio completo entre tramas), los dispositivos cuyas transmisiones sufrieron la colisión deben esperar un período adicional, y cada vez potencialmente mayor, antes de intentar la retransmisión de la trama que sufrió la colisión. El período de espera está intencionalmente diseñado para que sea aleatorio de modo que dos estaciones no demoren la misma cantidad de tiempo antes de efectuar la retransmisión, lo que causaría colisiones adicionales. Esto se logra en parte al aumentar el intervalo a partir del cual se selecciona el tiempo de retransmisión aleatorio cada vez que se efectúa un intento de retransmisión. El período de espera se mide en incrementos del intervalo de tiempo del parámetro.

Si la congestión en los medios provoca que la capa MAC no pueda enviar la trama después de 16 intentos, abandona el intento y genera un error en la capa de Red. Este tipo de sucesos es raro en una red que funciona correctamente y sólo sucedería en el caso de cargas de red extremadamente pesadas o cuando se produce un problema físico en la red.
Los métodos descriptos en esta sección permitían a Ethernet proporcionar un servicio superior en una topología de medios compartidos basándose en el uso de hubs. En la sección de switches que aparece a continuación, veremos cómo, mediante el uso de switches, la necesidad de utilizar el CSMA/CD comienza a disminuir o, en algunos casos, a desaparecer por completo.


Señal de congestión

|

Como recordará, la Ethernet permite que los dispositivos compitan para el tiempo de transmisión. En caso de que dos dispositivos transmitan simultáneamente, el CSMA/CD de la red intenta resolver el problema. Sin embargo, recuerde que cuando se agrega un mayor número de dispositivos a la red, es posible que las colisiones sean cada vez más difíciles de resolver.

Tan pronto como se detecta una colisión, los dispositivos transmisores envían una señal de congestión de 32 bits que la impone. Esto garantiza que todos los dispositivos de la LAN detectarán la colisión.

Es importante que la señal de congestión no se detecte como una trama válida; de lo contrario, no podría identificarse la colisión. El patrón de datos que se observa con mayor frecuencia para una señal de congestión es simplemente un patrón de 1, 0, 1, 0 que se repite, al igual que el Preámbulo.

Los mensajes corrompidos, transmitidos de forma parcial, generalmente se conocen como fragmentos de colisión o runts. Las colisiones normales tienen menos de 64 octetos de longitud y, por lo tanto, reprueban tanto la prueba de longitud mínima como la FCS, lo que facilita su identificación.

Espacio entre tramas

|


Los estándares de Ethernet requieren un espacio mínimo entre dos tramas que no hayan sufrido una colisión. Esto le otorga al medio tiempo para estabilizarse antes de la transmisión de la trama anterior y tiempo a los dispositivos para que procesen la trama. Este tiempo, llamado espacio entre tramas, se mide desde el último bit del campo FCS de una trama hasta el primer bit del Preámbulo de la próxima trama.

Una vez enviada la trama, todos los dispositivos de una red Ethernet de 10 Mbps deben esperar un mínimo de 96 tiempos de bit (9,6 microsegundos) antes de que cualquier dispositivo pueda transmitir la siguiente trama. En versiones de Ethernet más veloces, el espacio sigue siendo el mismo, 96 tiempos de bit, pero el tiempo del espacio entre tramas se vuelve proporcionalmente más corto.

Los retardos de sincronización entre dispositivos pueden ocasionar la pérdida de algunos de los bits del preámbulo de la trama. A su vez, esto puede producir una reducción mínima del espacio entre tramas cuando los hubs y repetidores regeneran los 64 bits completos de la información de temporización (el Preámbulo y el SFD) al comienzo de cada trama que se reenvía. En Ethernet de mayor velocidad, algunos dispositivos sensibles al tiempo podrían eventualmente no reconocer las tramas individuales lo que originaría una falla de comunicación.

Tiempo de bit

|

Para cada velocidad de medios diferente se requiere un período de tiempo determinado para que un bit pueda colocarse y detectarse en el medio. Dicho período de tiempo se denomina tiempo de bit. En Ethernet de 10 Mbps, un bit en la capa MAC requiere de 100 nanosegundos (ns) para ser transmitido. A 100 Mbps, ese mismo bit requiere de 10 ns para ser transmitido. Y a 1000 Mbps, sólo se requiere 1 ns para transmitir un bit. A menudo, se utiliza una estimación aproximada de 20,3 centímetros (8 pulgadas) por nanosegundo para calcular el retardo de propagación en un cable UTP. El resultado es que para 100 metros de cable UTP se requiere un poco menos de 5 tiempos de bit para que una señal 10BASE-T recorra la longitud del cable.

Para que el CSMA/CD de Ethernet funcione, el dispositivo emisor debe detectar la colisión antes de que se haya completado la transmisión de una trama del tamaño mínimo. A 100 Mbps, la temporización del dispositivo apenas es capaz de funcionar con cables de 100 metros. A 1000 Mbps, ajustes especiales son necesarios porque se suele transmitir una trama completa del tamaño mínimo antes de que el primer bit alcance el extremo de los primeros 100 metros de cable UTP. Por este motivo, no se permite el modo half-duplex en la Ethernet de 10 Gigabits.

Estas consideraciones de temporización deben aplicarse al espacio entre las tramas y a los tiempos de postergación (ambos temas se analizan en la próxima sección) para asegurar que cuando un dispositivo transmita su próxima trama, se ha reducido al mínimo el riesgo de que se produzca una colisión.

Intervalo de tiempo

En Ethernet half-duplex, donde los datos sólo pueden viajar en una dirección a la vez, el intervalo de tiempo se convierte en un parámetro importante para determinar cuántos dispositivos pueden compartir una red. Para todas las velocidades de transmisión de Ethernet de o por debajo de 1000 Mbps, el estándar describe cómo una transmisión individual no puede ser menor que el intervalo de tiempo.

La determinación del intervalo de tiempo es una compensación entre la necesidad de reducir el impacto de la recuperación en caso de colisión (tiempos de postergación y retransmisión) y la necesidad de que las distancias de red sean lo suficientemente grandes como para adaptarse a tamaños razonables de red. El compromiso fue elegir un diámetro de red máximo (2500 metros aproximadamente) para después establecer la longitud mínima de una trama que fuera suficiente como para garantizar la detección de todas las peores colisiones.

El intervalo de tiempo para Ethernet de 10 y 100 Mbps es de 512 tiempos de bit o 64 octetos. El intervalo de tiempo para Ethernet de 1000 Mbps es de 4096 tiempos de bit o 512 octetos.

El intervalo de tiempo garantiza que si está por producirse una colisión, se detectará dentro de los primeros 512 bits (4096 para Gigabit Ethernet) de la transmisión de la trama. Esto simplifica el manejo de las retransmisiones de tramas posteriores a una colisión.

El intervalo de tiempo es un parámetro importante por las siguientes razones:
El intervalo de tiempo de 512 bits establece el tamaño mínimo de una trama de Ethernet en 64 bytes. Cualquier trama con menos de 64 bytes de longitud se considera un "fragmento de colisión" o "runt frame" y las estaciones receptoras la descartan automáticamente.
El intervalo de tiempo determina un límite para el tamaño máximo de los segmentos de una red. Si la red crece demasiado, pueden producirse colisiones tardías. La colisiones tardías se consideran una falla en la red, porque un dispositivo detecta la colisión demasiado tarde durante la transmisión de tramas y será manejada automáticamente mediante CSMA/CD.

El intervalo de tiempo se calcula teniendo en cuenta las longitudes máximas de cables en la arquitectura de red legal de mayor tamaño. Todos los tiempos de retardo de propagación del hardware se encuentran al máximo permisible y se utiliza una señal de congestión de 32 bits cuando se detectan colisiones.

El intervalo de tiempo real calculado es apenas mayor que la cantidad de tiempo teórica necesaria para realizar una transmisión entre los puntos de máxima separación de un dominio de colisión, colisionar con otra transmisión en el último instante posible y luego permitir que los fragmentos de la colisión regresen a la estación transmisora y sean detectados. Ver la figura.

Para que el sistema funcione correctamente, el primer dispositivo debe estar al tanto de la colisión antes de que termine de enviar la trama legal de menor tamaño.

Para que una Ethernet de 1000 Mbps pueda operar en modo half-duplex, se agregó a la trama el campo de extensión cuando se envían tramas pequeñas, con el sólo fin de mantener ocupado al transmisor durante el tiempo que sea necesario para que vuelva un fragmento de colisión. Este campo sólo se incluye en los enlaces en half-duplex de 1000 Mbps y permite que las tramas de menor tamaño duren el tiempo suficiente para satisfacer los requisitos del intervalo de tiempo. El dispositivo receptor descarta los bits de extensión.





Temporización y sincronización de Ethernet

|

En modo half-duplex, si no se produce una colisión, el dispositivo emisor transmitirá 64 bits de información de sincronización de temporización, lo que se conoce como el Preámbulo.

El dispositivo emisor transmitirá a continuación la trama completa.

La Ethernet con velocidades de transmisión (throughput) de 10 Mbps y menos es asíncrona. Una comunicación asíncrona en este contexto significa que cada dispositivo receptor utilizará los 8 bytes de información de temporización para sincronizar el circuito receptor con los datos entrantes y a continuación descartará los 8 bytes.

Las implementaciones de Ethernet con velocidades de transmisión (throughput) de 100 Mbps y más son síncronas. La comunicación síncrona en este contexto significa que la información de temporización no es necesaria. Sin embargo, por razones de compatibilidad, los campos Preámbulo y Delimitador de inicio de trama (SFD) todavía están presentes.

Temporizacion de Ethernet

|

Latencia

Tal como se analizó anteriormente, cada dispositivo que desee transmitir debe "escuchar" primero el medio para verificar la presencia de tráfico. Si no hay tráfico, la estación comenzará a transmitir de inmediato. La señal eléctrica que se transmite requiere una cantidad determinada de tiempo (latencia) para propagarse (viajar) a través del cable. Cada hub o repetidor en la ruta de la señal agrega latencia a medida que envía los bits desde un puerto al siguiente.

Este retardo acumulado aumenta la probabilidad de que se produzcan colisiones, porque un nodo de escucha puede transformarse en señales de transmisión mientras el hub o repetidor procesa el mensaje. Debido a que la señal no había alcanzado este nodo mientras estaba escuchando, dicho nodo pensó que el medio estaba disponible. Esta condición produce generalmente colisiones.

9.4.2

|


lo que se obseva en estas dos images es que ha 5 equipos mandando solicitud ala misma vez esto ocaciona una colicion ya que al llegar al hub todas las tramas juntas el hubtrata de mandar las solicitudes por broadcast y todos chocan

Hubs y dominios de colisiones

|

Dado que las colisiones se producirán ocasionalmente en cualquier topología de medios compartidos (incluso cuando se emplea CSMA/CD), debemos prestar atención a las condiciones que pueden originar un aumento de las colisiones. Debido al rápido crecimiento de la Internet:
Se conectan más dispositivos a la red.
Los dispositivos acceden a los medios de la red con una mayor frecuencia.
Aumentan las distancias entre los dispositivos.

Recuerde que los hubs fueron creados como dispositivos de red intermediarios que permiten a una mayor cantidad de nodos conectarse a los medios compartidos. Los hubs, que también se conocen como repetidores multipuerto, retransmiten las señales de datos recibidas a todos los dispositivos conectados, excepto a aquél desde el cual se reciben las señales. Los hubs no desempeñan funciones de red tales como dirigir los datos según las direcciones.

Los hubs y los repetidores son dispositivos intermediarios que extienden la distancia que pueden alcanzar los cables de Ethernet. Debido a que los hubs operan en la capa física, ocupándose únicamente de las señales en los medios, pueden producirse colisiones entre los dispositivos que conectan y dentro de los mismos hubs.

Además, la utilización de hubs para proporcionar acceso a la red a una mayor cantidad de usuarios reduce el rendimiento para cada usuario, ya que debe compartirse la capacidad fija de los medios entre cada vez más dispositivos.

Los dispositivos conectados que tienen acceso a medios comunes a través de un hub o una serie de hubs conectados directamente conforman lo que se denomina dominio de colisiones. Un dominio de colisiones también se denomina segmento de red. Por lo tanto, los hubs y repetidores tienen el efecto de aumentar el tamaño del dominio de colisiones.

Tal como se muestra en la figura, la interconexión de los hubs forma una topología física que se denomina estrella extendida. La estrella extendida puede crear un dominio de colisiones notablemente expandido.

Un mayor número de colisiones reduce la eficiencia y la efectividad de la red hasta que las colisiones se convierten en una molestia para el usuario.

Si bien el CSMA/CD es un sistema de administración de colisiones de tramas, dicho sistema se diseñó para administrar colisiones sólo para una cantidad limitada de dispositivos y en redes con poco uso de red. Por lo tanto, se requiere de otros mecanismos cuando existen grandes cantidades de usuarios que quieren tener acceso y cuando se necesita un acceso a la red más activo.

Comprobaremos que la utilización de switches en lugar de hubs puede ser un comienzo para reducir este problema.



http://standards.ieee.org/getieee802/802.3.html

CSMA/CD

|

Detección de portadora

En el método de acceso CSMA/CD, todos los dispositivos de red que tienen mensajes para enviar deben escuchar antes de transmitir.

Si un dispositivo detecta una señal de otro dispositivo, esperará durante un período especificado antes de intentar transmitir.

Cuando no se detecte tráfico, un dispositivo transmitirá su mensaje. Mientras se lleva a cabo la transmisión, el dispositivo continúa escuchando para detectar tráfico o colisiones en la LAN. Una vez que se envía el mensaje, el dispositivo regresa a su modo de escucha predeterminado.

Multiacceso

Si la distancia existente entre los dispositivos es tal que la latencia de las señales de un dispositivo denota que un segundo dispositivo no detecta las señales, el segundo dispositivo puede comenzar también a transmitir. Los medios tienen entonces dos dispositivos que transmiten sus señales al mismo tiempo. Sus mensajes se propagarán por todos los medios hasta que se encuentren. En ese punto, las señales se mezclan y el mensaje se destruye. Si bien los mensajes se corrompen, la mezcla de señales restantes continúa propagándose a través de los medios.

Detección de colisiones

Cuando un dispositivo está en modo de escucha, puede detectar una colisión en el medio compartido. La detección de una colisión es posible porque todos los dispositivos pueden detectar un aumento de la amplitud de la señal por encima del nivel normal.

Una vez que se produce una colisión, los demás dispositivos que se encuentren en modo de escucha (como así también todos los dispositivos transmisores) detectarán el aumento de la amplitud de la señal. Una vez detectada la colisión, todos los dispositivos transmisores continuarán transmitiendo para garantizar que todos los dispositivos de la red detecten la colisión.

Señal de congestión y postergación aleatoria

Cuando los dispositivos de transmisión detectan la colisión, envían una señal de congestión. Esta señal interferente se utiliza para notificar a los demás dispositivos sobre una colisión, de manera que éstos invocarán un algoritmo de postergación. Este algoritmo de postergación hace que todos los dispositivos dejen de transmitir durante un período aleatorio, lo que permite que las señales de colisión disminuyan.

Una vez que finaliza el retraso asignado a un dispositivo, dicho dispositivo regresa al modo "escuchar antes de transmitir". El período de postergación aleatoria garantiza que los dispositivos involucrados en la colisión no intenten enviar su tráfico nuevamente al mismo tiempo, lo que provocaría que se repita todo el proceso. Sin embargo, esto también significa que un tercer dispositivo puede transmitir antes de que cualquiera de los dos dispositivos involucrados en la colisión original tenga la oportunidad de volver a transmitir.

Control de acceso al medio Ethernet

|


En un entorno de medios compartidos, todos los dispositivos tienen acceso garantizado al medio, pero no tienen ninguna prioridad en dicho medio. Si más de un dispositivo realiza una transmisión simultáneamente, las señales físicas colisionan y la red debe recuperarse para que pueda continuar la comunicación.

Las colisiones representan el precio que debe pagar la Ethernet para obtener el bajo gasto relacionado con cada transmisión.

La Ethernet utiliza el acceso múltiple por detección de portadora y detección de colisiones (CSMA/CD) para detectar y manejar colisiones y para administrar la reanudación de las comunicaciones.

Debido a que todas las computadoras que utilizan Ethernet envían sus mensajes en el mismo medio, se utiliza un esquema de coordinación distribuida (CSMA) para detectar la actividad eléctrica en el cable. Entonces, un dispositivo puede determinar cuándo puede transmitir. Cuando un dispositivo detecta que ninguna otra computadora está enviando una trama o una señal portadora, el dispositivo transmitirá en caso de que tenga algo para enviar.

Multicast

|

Recuerde que las direcciones multicast le permiten a un dispositivo de origen enviar un paquete a un grupo de dispositivos. Una dirección IP de grupo multicast se asigna a los dispositivos que pertenecen a un grupo multicast. El intervalo de direcciones multicast es de 224.0.0.0 a 239.255.255.255. Debido a que las direcciones multicast representan un grupo de direcciones (a veces denominado un grupo de hosts), sólo pueden utilizarse como el destino de un paquete. El origen siempre tendrá una dirección unicast.

Ejemplos de dónde se utilizarían las direcciones multicast serían el juego remoto, en el que varios jugadores se conectan de manera remota pero juegan el mismo juego, y el aprendizaje a distancia a través de videoconferencia, en el que varios estudiantes se conectan a la misma clase.

Al igual que con las direcciones unicast y de broadcast, la dirección IP multicast requiere una dirección MAC multicast correspondiente para poder enviar tramas en una red local. La dirección MAC multicast es un valor especial que comienza con 01-00-5E en hexadecimal. El valor termina con la conversión de los 23 bits inferiores de la dirección IP del grupo multicast en los 6 caracteres hexadecimales restantes de la dirección de Ethernet. El bit restante en la dirección MAC es siempre "0".

Un ejemplo, tal como se muestra en el gráfico, es el hexadecimal 01-00-5E-00-00-0A. Cada caracter hexadecimal es 4 bits binarios.

http://www.iana.org/assignments/ethernet-numbers

http://www.cisco.com/en/US/docs/app_ntwk_services/waas/acns/v51/configuration/central/guide/51ipmul.html

http://www.cisco.com/univercd/cc/td/doc/cisintwk/ito_doc/ipmulti.htm

Broadcast

|

Con broadcast, el paquete contiene una dirección IP de destino con todos unos (1) en la porción de host. Esta numeración en la dirección significa que todos los hosts de esa red local (dominio de broadcast) recibirán y procesarán el paquete. Una gran cantidad de protocolos de red utilizan broadcast, como el Protocolo de configuración dinámica de host (DHCP) y el Protocolo de resolución de direcciones (ARP). Más adelante en este capítulo se analizará cómo el ARP utiliza los broadcasts para asignar direcciones de Capa 2 a direcciones de Capa 3.

Tal como se muestra en la figura, una dirección IP de broadcast para una red necesita un dirección MAC de broadcast correspondiente en la trama de Ethernet. En redes Ethernet, la dirección MAC de broadcast contiene 48 unos que se muestran como el hexadecimal FF-FF-
FF-FF-FF-FF.

Unicast

|


Una dirección MAC unicast es la dirección exclusiva que se utiliza cuando se envía una trama desde un dispositivo de transmisión único hacia un dispositivo de destino único.

En el ejemplo que se muestra en la figura, un host con una dirección IP 192.168.1.5 (origen) solicita una página Web del servidor en la dirección IP 192.168.1.200.Para que se pueda enviar y recibir un paquete unicast, el encabezado del paquete IP debe contener una dirección IP de destino. Además, el encabezado de la trama de Ethernet también debe contener una dirección MAC de destino correspondiente. La dirección IP y la dirección MAC se combinan para enviar datos a un host de destino específico.

Numeración hexadecimal

|

El método hexadecimal ("Hex") es una manera conveniente de representar valores binarios. Así como el sistema de numeración decimal es un sistema de base diez y el binario es un sistema de base dos, el sistema hexadecimal es un sistema de base dieciséis.

El sistema de numeración de base 16 utiliza los números del 0 al 9 y las letras de la A a la F. La figura muestra los valores decimales, binarios y hexadecimales equivalentes para los binarios 0000 hasta 1111. Nos resulta más conveniente expresar un valor como un único dígito hexadecimal que como cuatro bits.

Comprensión de los bytes
Dado que 8 bits (un byte) es una agrupación binaria común, los binarios 00000000 hasta 11111111 pueden representarse en valores hexadecimales como el intervalo 00 a FF. Los ceros iniciales se muestran siempre para completar la representación de 8 bits. Por ejemplo, el valor binario 0000 1010 se muestra en valor hexadecimal como 0A.
Representación de valores hexadecimales

Nota: Es importante distinguir los valores hexadecimales de los valores decimales en cuanto a los caracteres del 0 al 9, tal como lo muestra la figura.

El valor hexadecimal se representa generalmente en texto mediante el valor precedido por 0x (por ejemplo, 0x73) o un 16 en subíndice. Con menor frecuencia, puede estar seguido de una H, como por ejemplo, 73H. Sin embargo, y debido a que el texto en subíndice no es reconocido en entornos de línea de comando o de programación, la representación técnica de un valor hexadecimal es precedida de "0x" (cero X). Por lo tanto, los ejemplos anteriores deberían mostrarse como 0x0A y 0x73, respectivamente.

El valor hexadecimal se utiliza para representar las direcciones MAC de Ethernet y las direcciones IP versión 6. Ya hemos visto que los valores hexadecimales se utilizan en el panel Bytes de paquetes de Wireshark para representar los valores binarios dentro de tramas y paquetes.

Conversiones hexadecimales

Estructura de la dirección MAC

|

El valor de la dirección MAC es el resultado directo de las normas implementadas por el IEEE para proveedores con el objetivo de garantizar direcciones únicas para cada dispositivo Ethernet. Las normas establecidas por el IEEE obligan a los proveedores de dispositivos Ethernet a registrarse en el IEEE. El IEEE le asigna a cada proveedor un código de 3 bytes, denominado Identificador único organizacional (OUI).

El IEEE obliga a los proveedores a respetar dos normas simples:
Todas las direcciones MAC asignadas a una NIC u otro dispositivo Ethernet deben utilizar el OUI que se le asignó a dicho proveedor como los 3 primeros bytes.
Se les debe asignar un valor exclusivo a todas las direcciones MAC con el mismo OUI (Identificador exclusivo de organización) (código del fabricante o número de serie) en los últimos 3 bytes.

La dirección MAC se suele denominar dirección grabada (BIA) porque se encuentra grabada en la ROM (Memoria de sólo lectura) de la NIC. Esto significa que la dirección se codifica en el chip de la ROM de manera permanente (el software no puede cambiarla).

Sin embargo, cuando se inicia el equipo la NIC copia la dirección a la RAM (Memoria de acceso aleatorio). Cuando se examinan tramas se utiliza la dirección que se encuentra en la RAM como dirección de origen para compararla con la dirección de destino. La NIC utiliza la dirección MAC para determinar si un mensaje debe pasarse a las capas superiores para procesarlo.

La Direccion MAC de Ethernet

|

Estructura de la dirección MAC

El valor de la dirección MAC es el resultado directo de las normas implementadas por el IEEE para proveedores con el objetivo de garantizar direcciones únicas para cada dispositivo Ethernet. Las normas establecidas por el IEEE obligan a los proveedores de dispositivos Ethernet a registrarse en el IEEE. El IEEE le asigna a cada proveedor un código de 3 bytes, denominado Identificador único organizacional (OUI).

El IEEE obliga a los proveedores a respetar dos normas simples:
Todas las direcciones MAC asignadas a una NIC u otro dispositivo Ethernet deben utilizar el OUI que se le asignó a dicho proveedor como los 3 primeros bytes.
Se les debe asignar un valor exclusivo a todas las direcciones MAC con el mismo OUI (Identificador exclusivo de organización) (código del fabricante o número de serie) en los últimos 3 bytes.

La dirección MAC se suele denominar dirección grabada (BIA) porque se encuentra grabada en la ROM (Memoria de sólo lectura) de la NIC. Esto significa que la dirección se codifica en el chip de la ROM de manera permanente (el software no puede cambiarla).

Sin embargo, cuando se inicia el equipo la NIC copia la dirección a la RAM (Memoria de acceso aleatorio). Cuando se examinan tramas se utiliza la dirección que se encuentra en la RAM como dirección de origen para compararla con la dirección de destino. La NIC utiliza la dirección MAC para determinar si un mensaje debe pasarse a las capas superiores para procesarlo.

Dispositivos de red

Cuando el dispositivo de origen reenvía el mensaje a una red Ethernet, se adjunta la información del encabezado dentro de la dirección MAC. El dispositivo de origen envía los datos a través de la red. Cada NIC de la red visualiza la información para determinar si la dirección MAC coincide con su dirección física. Si no hay coincidencia, el dispositivo descarta la trama. Cuando la trama llega al destino donde la MAC de la NIC coincide con la MAC de destino de la trama, la NIC pasa la trama hasta las capas OSI (Interconexión de sistema abierto), donde se lleva a cabo el proceso de desencapsulación.

Todos los dispositivos conectados a una LAN Ethernet tienen interfaces con direcciones MAC. Diferentes fabricantes de hardware y software pueden representar las direcciones MAC en distintos formatos hexadecimales. Los formatos de las direcciones pueden ser similares a 00-05-9A-3C-78-00, 00:05:9A:3C:78:00 ó 0005.9A3C.7800. Las direcciones MAC se asignan a estaciones de trabajo, servidores, impresoras, switches y routers (cualquier dispositivo que pueda originar o recibir datos en la red).


la direccion mac y ethernet

|

Inicialmente, la Ethernet se implementaba como parte de una topología de bus. Cada uno de los dispositivos de red se conectaba al mismo medio compartido. En redes con poco tráfico o pequeñas, ésta era una implementación aceptable. El problema más importante que debía resolverse era cómo identificar cada uno de los dispositivos. La señal podía enviarse a todos los dispositivos, pero ¿cómo podía determinar cada uno de los dispositivos si era el receptor del mensaje?

Se creó un identificador único, denominado dirección de Control de acceso al medio (MAC), para ayudar a determinar las direcciones de origen y destino dentro de una red Ethernet. Independientemente de qué variedad de Ethernet se estaba utilizando, la convención de denominación brindó un método para identificar dispositivos en un nivel inferior del modelo OSI.

Como recordará, la dirección MAC se agrega como parte de una PDU de Capa 2. Una dirección MAC de Ethernet es un valor binario de 48 bits expresado como 12 dígitos hexadecimales.


Campo Secuencia de verificación de trama

|

El campo Secuencia de verificación de trama (FCS) (4 bytes) se utiliza para detectar errores en la trama. Utiliza una comprobación cíclica de redundancia (CRC). El dispositivo emisor incluye los resultados de una CRC en el campo FCS de la trama.

El dispositivo receptor recibe la trama y genera una CRC para detectar errores. Si los cálculos coinciden, significa que no se produjo ningún error. Los cálculos que no coinciden indican que los datos cambiaron y, por consiguiente, se descarta la trama. Un cambio en los datos podría ser resultado de una interrupción de las señales eléctricas que representan los bits.

la trama: encapsulacion del paquete

|

Coloque el cursor sobre el nombre de cada campo para ver su descripción.
Campos Preámbulo y Delimitador de inicio de trama

Los campos Preámbulo (7 bytes) y Delimitador de inicio de trama (SFD) (1 byte) se utilizan para la sincronización entre los dispositivos de envío y de recepción. Estos ocho primeros bytes de la trama se utilizan para captar la atención de los nodos receptores. Básicamente, los primeros bytes le indican al receptor que se prepare para recibir una trama nueva.

Campo Dirección MAC de destino

El campo Dirección MAC de destino (6 bytes) es el identificador del receptor deseado. Como recordará, la Capa 2 utiliza esta dirección para ayudar a los dispositivos a determinar si la trama viene dirigida a ellos. La dirección de la trama se compara con la dirección MAC del dispositivo. Si coinciden, el dispositivo acepta la trama.

Campo Dirección MAC de origen

El campo Dirección MAC de origen (6 bytes) identifica la NIC o interfaz que origina la trama. Los switches también utilizan esta dirección para ampliar sus tablas de búsqueda. El rol de los switches se analizará más adelante en este capítulo.

Campo Longitud/Tipo

El campo Longitud/Tipo (2 bytes) define la longitud exacta del campo Datos de la trama. Esto se utiliza posteriormente como parte de la FCS para garantizar que el mensaje se reciba adecuadamente. En este campo debe ingresarse una longitud o un tipo. Sin embargo, sólo uno u otro podrá utilizarse en una determinada implementación. Si el objetivo del campo es designar un tipo, el campo Tipo describe qué protocolo se implementa.

|

Ethernet más allá de la LAN

|

Ethernet más allá de la LAN

Las mayores distancias de cableado habilitadas por el uso de cables de fibra óptica en redes basadas en Ethernet disminuyeron las diferencias entre las LAN y las WAN. La Ethernet se limitaba originalmente a sistemas de cableado LAN dentro de un mismo edificio y después se extendió a sistemas entre edificios. Actualmente, puede aplicarse a través de toda una ciudad mediante lo que se conoce como Red de área metropolitana (MAN).

Ethernet actual

|

Ethernet actual

Un desarrollo importante que mejoró el rendimiento de la LAN fue la introducción de los switches para reemplazar los hubs en redes basadas en Ethernet. Este desarrollo estaba estrechamente relacionado con el desarrollo de Ethernet 100BASE-TX. Los switches pueden controlar el flujo de datos mediante el aislamiento de cada uno de los puertos y el envío de una trama sólo al destino correspondiente (en caso de que se lo conozca) en vez del envío de todas las tramas a todos los dispositivos.

El switch reduce la cantidad de dispositivos que recibe cada trama, lo que a su vez disminuye o minimiza la posibilidad de colisiones. Esto, junto con la posterior introducción de las comunicaciones full-duplex (que tienen una conexión que puede transportar señales transmitidas y recibidas al mismo tiempo), permitió el desarrollo de Ethernet de 1 Gbps y más.

Ethernet antigua

|

Ethernet antigua

En redes 10BASE-T, el punto central del segmento de red era generalmente un hub. Esto creaba un medio compartido. Debido a que el medio era compartido, sólo una estación a la vez podía realizar una transmisión de manera exitosa. Este tipo de conexión se describe como comunicación half-duplex.

A medida que se agregaban más dispositivos a una red Ethernet, la cantidad de colisiones de tramas aumentaba notablemente. Durante los períodos de poca actividad de comunicación, las pocas colisiones que se producían se administraban mediante el CSMA/CD, con muy poco impacto en el rendimiento, en caso de que lo hubiera. Sin embargo, a medida que la cantidad de dispositivos y el consiguiente tráfico de datos aumenta, el incremento de las colisiones puede producir un impacto significativo en la experiencia del usuario.

A modo de analogía, sería similar a cuando salimos a trabajar o vamos a la escuela a la mañana temprano y las calles están relativamente vacías. Más tarde, cuando hay más automóviles en las calles, pueden producirse colisiones y generar demoras en el tráfico.

Primeros medios Ethernet

|

Primeros medios Ethernet

Las primeras versiones de Ethernet utilizaban cable coaxial para conectar computadoras en una topología de bus. Cada computadora se conectaba directamente al backbone. Estas primeras versiones de Ethernet se conocían como Thicknet (10BASE5) y Thinnet (10BASE2).

La 10BASE5, o Thicknet, utilizaba un cable coaxial grueso que permitía lograr distancias de cableado de hasta 500 metros antes de que la señal requiriera un repetidor. La 10BASE2, o Thinnet, utilizaba un cable coaxial fino que tenía un diámetro menor y era más flexible que la Thicknet y permitía alcanzar distancias de cableado de 185 metros.

La capacidad de migrar la implementación original de Ethernet a las implementaciones de Ethernet actuales y futuras se basa en la estructura de la trama de Capa 2, que prácticamente no ha cambiado. Los medios físicos, el acceso al medio y el control del medio han evolucionado y continúan haciéndolo. Pero el encabezado y el tráiler de la trama de Ethernet han permanecido constantes en términos generales.

Las primeras implementaciones de Ethernet se utilizaron en entornos LAN de bajo ancho de banda en los que el acceso a los medios compartidos se administraba mediante CSMA y, posteriormente, mediante CSMA/CD. Además de ser una topología de bus lógica de la capa de Enlace de datos, Ethernet también utilizaba una topología de bus física. Esta topología se volvió más problemática a medida que las LAN crecieron y que los servicios LAN demandaron más infraestructura.

Los medios físicos originales de cable coaxial grueso y fino se reemplazaron por categorías iniciales de cables UTP. En comparación con los cables coaxiales, los cables UTP eran más fáciles de utilizar, más livianos y menos costosos.

La topología física también se cambió por una topología en estrella utilizando hubs. Los hubs concentran las conexiones. En otras palabras, toman un grupo de nodos y permiten que la red los trate como una sola unidad. Cuando una trama llega a un puerto, se lo copia a los demás puertos para que todos los segmentos de la LAN reciban la trama. La utilización del hub en esta topología de bus aumentó la confiabilidad de la red, ya que permite que cualquier cable falle sin provocar una interrupción en toda la red. Sin embargo, la repetición de la trama a los demás puertos no solucionó el problema de las colisiones. Más adelante en este capítulo se verá cómo se manejaron las cuestiones relacionadas con colisiones en Ethernet mediante la introducción de switches en la red.

5.5.2. Examen de una ruta

|





5.5.1.2 analisis de gateway de un dispositivo

|

5.5.1

|

Paso 1: Abrir una ventana terminal en la computadora host del módulo.
¿Cuál es la dirección de gateway por defecto?

192.168.1.254
_____________________________________________________________________________
Paso 2: Utilizar el comando ping para verificar la conectividad con la dirección IP 127.0.0.1.
¿Fue exitoso el ping? __si__


Paso 3: Utilizar el comando ping para hacer ping en diferentes direcciones IP en la red
127.0.0.0 y 127.255.255.255.
¿Las respuestas fueron exitosas? Si no es así, ¿por qué?

no la primera si da respuesta por que es nuestro mismo equipo
y la segunda no da respuesta por que esta ip no existe en la red

5.3.7.4 translado del paquete hacia su destino

|



En esta actividad, se analizan las reglas (algoritmos) que usan los routers para tomar decisiones sobre cómo procesar paquetes, en función del estado de sus tablas de enrutamiento cuando llegan los paquetes.

5.2.2.2 porque separar host en redes

|

5.5.2.2 analisis de una ruta

|






7.6.1 problemas con la capa de enlace de datos

|

Objetivos de aprendizaje:

Planificación de la división en subredes IP
Practicar sus habilidades en división en subredes
Construir la red
Conectar los dispositivos con cables Ethernet y seriales
Configurar la red
Aplicar su esquema de subredes al servidor, a las PC y a las interfaces del router y configurar los servicios y el enrutamiento estático
Probar la red
A través del ping, rastrear el tráfico Web con la herramienta de Insp





Tarea 1: Planificación de una subred IP

Se le dio un bloque de dirección IP 172.16.0.0 /22. Debe proporcionar las redes existentes como así también un crecimiento futuro.

Las tareas de las subredes son:
1ra subred, LAN estudiante existente, hasta 400 hosts; (Fa0/0 en R2-Central)
2da subred, LAN estudiante futuro, hasta 180 hosts; (todavía no se implementó)
3ra subred, LAN ISP existente, hasta 40 hosts; (Fa0/0 en R1-ISP)
4ta subred, LAN ISP futura, hasta 18 hosts; (todavía no se implementó)
5ta subred, WAN existente, enlace punto a punto; (S0/0/0 en R1-ISP y en R2-Central)
6ta subred, WAN futura, enlace punto a punto; (todavía no se implementó)
7ma subred, WAN futura, enlace punto a punto. (todavía no se implementó)
Direcciones IP de la interfaz:
Para el servidor, configure la segunda dirección más utilizable en la subred LAN ISP existente.
Para la interfaz Fa0/0 de R1-ISP, configure la dirección IP más utilizable de la subred LAN ISP existente.
Para la interfaz S0/0/0 de R1-ISP, configure la dirección más utilizable de la subred WAN existente.
Para la interfaz S0/0/0 de R2-Central, utilice la dirección menos utilizable de la subred WAN existente.
Para la interfaz Fa0/0 de R2-Central, utilice la dirección más utilizable de la subred LAN estudiante existente.
Para las PC 1A y 1B, utilice las primeras 2 direcciones IP (las dos direcciones menos utilizables) en la subred LAN estudiante existente.
Planificación adicional:
Para las PC 1A y 1B, además de la configuración IP, configúrelas para que puedan utilizar los servicios DNS.
Para el servidor, habilite los servicios DNS, utilice el nombre del dominio eagle-server.example.com y habilite los servicios HTTP.

7.5.1 investigacion de los encabezados de trama de la capa 2

|

En esta actividad, se pueden explorar algunas de las encapsulaciones más comunes de la Capa 2


Haga ping a las direcciones IP de PC2 desde el Símbolo del sistema de PC1. Utilice el comando ping 192.168.5.2. Si expira el tiempo del ping, repita el comando hasta tener éxito. Puede requerir de varios intentos para que la red pueda converger.


Paso 1. Comience la simulación



Ingrese al Modo simulación. PDU en la PC1 es una solicitud de eco ICMP específicamente para la PC2. Haga clic en el botónCapturar/Reenviar dos veces hasta que PDU llegue al router Cisco1.



pasamos a analizar los pdu que seven el cisco1






seguimos mandando el paquete para atravezar cada router y podemos observar de que no se modifica la direccion ip




7.4.1 seguimiento de datos atraves de una internetwork

|

En esta actividad, se puede examinar en mayor detalle la animación paso a paso de la página anterior.


Mientras se encuentra en modo tiempo real, abra elExplorador Web desde el Escritorio de la PC Cliente. Escriba 192.0.2.7 en URL y presione la tecla Intro. La página Web debería poder verse. Este proceso ayuda a llenar tablas para que usted pueda concentrarse sólo en los paquetes HTTP.




despues de realizar el procesimiento activamos el modo simulacion y se hace lo siguiente
Cambie al Modo simulación. Se desea capturar sólo los eventos de HTTP. En la sección Filtros de la lista de eventos, haga clic en el botón Editar filtros. Sólo seleccione eventos HTTP. Cuando sólo vemos los eventos de HTTP, los procesos de DNS, ARP, TCP y RIP aún se llevan a cabo, pero no se muestran. A veces, si un paquete de HTTP se guarda en el búfer, esto produce un evento de paquete distinto en la lista de eventos que parece un duplicado pero sólo es una pausa antes de transmitir. Esto sucede debido a que los otros eventos del protocolo se están ejecutando, pero no son visibles.


des pues de hacer esto vamos a colocar en el navegador del equipo la direccion
http://eagle-server.example.com despues de enviar los paquetes analizamos lo que sucede en la captura y lo que susede con cada paquete en cada dispositivo

primero envia los paquetes al dns para hacer la traduccion de la direccion ala direccion ip
despues de eso pasa a enviar un paquete tcp con el fin de saber si el hots remoto esta disponible despues de aver resivido confirmacion de que el hots remoto esta disponible el equipo envia un paquete http con el fin de obtener los datoque que quiere que estan en la pagina web o servidor

los campos tipicos del encabezado de una trama

|

  • Campo inicio de trama: indica el comienzo de la trama
  • Campos de dirección de origen y destino: indica los nodos de origen y destino en los medios
  • Prioridad/Calidad del Campo de servicio: indica un tipo particular de servicio de comunicación para el procesamiento
  • Campo tipo: indica el servicio de la capa superior contenida en la trama
  • Campo de control de conexión lógica: utilizada para establecer la conexión lógica entre nodos
  • Campo de control de enlace físico: utilizado para establecer el enlace a los medios
  • Campo de control de flujo: utilizado para iniciar y detener el tráfico a través de los medios
  • Campo de control de congestión: indica la congestión en los medios

SuSE - Novell Linux Desktop

|



SuSE - Novell Linux DesktopSuSE es otra compañía orientada a los escritorios, aunque variedad de otros productos para empresas están disponibles. La distribución ha recibido buenas críticas por su instalador y la herramienta de configuración YaST, desarrollada por los desarrolladores de la propia SuSE. La documentación que viene con las versiones comerciales, ha sido repetidas veces evaluada como la más completa, útil y usable con diferencia a la de sus competidores. SuSE Linux 7.3 recibió el premio "Producto del año 2001" que entrega el Linux Journal. La distribución tiene un gran porcentaje de mercado en Europa yAmérica del norte, pero no se vende en Asia y otras partes del mundo.

El desarrollo de SuSE se realiza completamente a puerta cerrada, y no se lanzan betas públicas para probar. Siguen la política de no permitir descargar el software hasta tiempo después de que salgan a la venta las versiones comerciales. A pesar de todo, SuSE no entrega imagenes ISO de fácil instalación de su distribución, usando el software empaquetado para la gran mayoría de su base de usuarios.

Novell ha comprado a esta compañía, y esta haciendo inversiones importantes en mantener y desarrollar esta distribución, a nivel corporativo, pero sin olvidarse del usuario final (Compra de Ximan, y la reciente liberación del instalador YaST bajo licencia GPL), y ha seguido la misma estrategia que Redhat, dejando SuSE para SOHO (Small Ofice, home, en español, pequeñas oficinas y usuarios domesticos), y crenado una distribución para entornos empresariales (Novel linux desktop para escritorio, basada en gnome, y Novell Open Enterprise Server, para servidores).

Knoppix

|



KnoppixDesarrollada por Klaus Knopper en Alemania, es seguro que esta distribución basada en Debian ha puesto muy alto el listón, especialmente con su detección automática de hardware que deja a la altura del barro la de muchas distribuciones comerciales. Su arranque automático, gran cantidad de software, su sitema de decompresión al vuelo y la posibilidad de instalarlo al disco duro han convertido a knoppix en una herramienta indispensable. Puede ser usada como un disco de rescate, una herramienta para enseñar linux para aquellos que no lo han visto o una herramienta para probar una nueva computadora antes de comprarla. También puede ser usada como una completa distribución linux para el uso diario.

Se realizan actualizaciones con frecuencia, pero una vez ha adquirido estabilidad, estas suelen distanciarse entre si por varios meses. Las actualizaciones incluyen parches de fallos así como el último software de la rama inestable de Debian. Actualmente se ha pasado a soporte DVD para poder incluir todos aquellos paquetes que no cabían en un CD-Rom.

Debian

|




DebianDebian GNU/Linux inició su andadura de la mano de Ian Murdock en 1993. Debian es un proyecto totalmente no-comercial; posiblemente el más puro de los ideales que iniciaron el movimiento del software libre. Cientos de desarrolladores voluntarios de alRededor del mundo contribuyen al proyecto, que es bien dirigido y estricto, asegurando la calidad de una distribución conocida como Debian.En cualquier momento del proceso de desarrollo existen tres ramas en el directorio principal: "estable", "en pruebas" e "inestable" (también conocida como "sid").

Cuando aparece una nueva versión de un paquete, se sitúa en la rama inestable para las primeras pruebas, si las pasa, el paquete se mueve a la rama de pruebas, donde se realiza un riguroso proceso de pruebas que dura muchos meses. Esta rama solo es declarada estable tras una muy intensa fase de pruebas.

Como resultado de esto, la distribución es posiblemente la más estable y confiable, aunque no la más actualizada. Mientras que la rama estable es perfecta para servidores con funciones críticas, muchos usuarios prefieren usar las ramas de pruebas o inestable, más actualizadas, en sus ordenadores personales. Debian es también famosa por su reputación de ser dificil de instalar, a menos que el usuario tenga un profundo conocimiento del hardware de la computadora. Compensando este fallo está "apt-get" un instalador de paquetes Debian. Muchos usuarios de Debian hacen bromas sobre que su instalador es tan malo por que solo lo han de usar una vez, tan pronto como Debian está en funcionamiento, todas las actualizaciones, de cualquier tipo pueden realizarse mediante la herramienta apt-get.

Mandrake linux

|


Mandrake linuxMandrake Linux (antiguo nombre de Mandriva), creada por Gaël Duval, es una distribución que ha experimentado un enorme aumento de popularidad desde su primera versión de julio de 1998. Los desarrolladores partieron de la distribución de Red Hat, cambiaron el entorno de escritorio pRedeterminado por KDE, y añadieron un instalador fácil de usar rompiendo el mito de que linux es dificil de instalar. Las herramientas de detección de hardware de Mandrake y sus programas para el particionamiento de discos son consideradas por muchos como las mejores de la industria, y muchos usuarios se encotraron usando Mandrake allí dode otras distribuciones no habían conseguido entregar la usabilidad necesaria.Desde entonces Mandrake Linux ha madurado y se ha convertido en una distribución popular entre los nuevos usuarios de linux y aquellos hogares que buscan un sistema operativo alternativo.

En el 2005-04-07 mandrake compra conectiva linux, distribución muy extendida por sudamerica, y se cambia el nombre para reflejar el cambio en la distribución a mandriva.

El desarrollo de Madriva es completamente abierto y transparente, con paquetes nuevos que se añaden al direcotrio llamado "cooker" a diario. Cuando una nueva versión entra en fase beta, la primera beta se crea a partir de los paquetes que se encuentran en "cooker" en ese momento. El proceso de pruebas de la beta solía ser corto e intensivo, pero desde la versión 9.0 ha pasado ha ser más largo y exigente. Las listas de correo sobre la versión beta suelen estar saturadas, pero sigue siendo posible recibir una respuesta rápida sobre cualquier fallo o duda que envíes.Como resultado de este tipo de desarrollo se obtiene una distribución puntera y altamente actualizada. Como contrapartida, los usuarios pueden encontrarse con más fallos que en otras distribuciones.

Mandrake linux

|

Mandrake linuxMandrake Linux (antiguo nombre de Mandriva), creada por Gaël Duval, es una distribución que ha experimentado un enorme aumento de popularidad desde su primera versión de julio de 1998. Los desarrolladores partieron de la distribución de Red Hat, cambiaron el entorno de escritorio pRedeterminado por KDE, y añadieron un instalador fácil de usar rompiendo el mito de que linux es dificil de instalar. Las herramientas de detección de hardware de Mandrake y sus programas para el particionamiento de discos son consideradas por muchos como las mejores de la industria, y muchos usuarios se encotraron usando Mandrake allí dode otras distribuciones no habían conseguido entregar la usabilidad necesaria.Desde entonces Mandrake Linux ha madurado y se ha convertido en una distribución popular entre los nuevos usuarios de linux y aquellos hogares que buscan un sistema operativo alternativo.

En el 2005-04-07 mandrake compra conectiva linux, distribución muy extendida por sudamerica, y se cambia el nombre para reflejar el cambio en la distribución a mandriva.

El desarrollo de Madriva es completamente abierto y transparente, con paquetes nuevos que se añaden al direcotrio llamado "cooker" a diario. Cuando una nueva versión entra en fase beta, la primera beta se crea a partir de los paquetes que se encuentran en "cooker" en ese momento. El proceso de pruebas de la beta solía ser corto e intensivo, pero desde la versión 9.0 ha pasado ha ser más largo y exigente. Las listas de correo sobre la versión beta suelen estar saturadas, pero sigue siendo posible recibir una respuesta rápida sobre cualquier fallo o duda que envíes.Como resultado de este tipo de desarrollo se obtiene una distribución puntera y altamente actualizada. Como contrapartida, los usuarios pueden encontrarse con más fallos que en otras distribuciones.

Red Hat - Fedora

|



Red Hat - FedoraPara muchos el nombre de Red Hat equivale a Linux, ya que probablemente se trata de la compañía de linux más popular del mundo. Fundada en 1995 por Bob Young y Marc Ewing, red Hat Inc solo ha mostrado beneficios recientemente gracias a otros servicios en lugar de a la distribución en si. Aun y así, Red Hat es la primera elección para muchos profesionales y parece que seguirá siendo un peso pesado durante mucho tiempo.

Afortunadamente se resistieron a realizar ningún plan de rápida expansión durante el boom de las punto-com durante los años 1998 - 1999, concentrándose en su negocio principal. Este tipo de gestión prudente si sigue así, es propensa a garantizar estabilidad y dependencia..

¿Qué hace a Red Hat Linux tan especial? Su curiosa mezcla de conservadurismo y paquetes punteros mezclados sobre muchas aplicaciones desarrolladas en casa. Los paquetes no son los más actuales, una vez se anuncia una nueva versión beta, las versiones de los paquetes se mantienen, excepto para actualizaciones de seguridad. Como resultado se obtiene una distribución bien probada y estable. El programa de betas y las facilidades para enviar fallos están abiertas al público y hay un gran espíritu en las listas de correo públicas.

Actualmente Red Hat ha dividido el negocio en dos áreas distintas, por una parte promociona el proyecto Fedora para usuarios finales, el cual saca tres versiones al año, manteniendo los paquetes de Red Hat para usuarios corporativos, que se mantienen más tiempo, y garantizan su estabilidad.

Red Hat Linux se ha convertido en la distribución linux dominante en servidores en todo el mundo.. Otra de las razones del éxito de Red Hat es la gran variedad de servicios populares que ofrece la compañía. Los paquetes de software son fácilmente actualizables usando la Red Hat Network, un repositorio oficial de software e información. Una larga lista de servicios de soporte son accesibles en la compañía y, aunque no siempre baratos, tienes virtualmente asegurado un excelente soporte de personal altamente cualificado. La compañía ha desarrollado incluso un programa de certificación para popularizar su distribución, el RHCE (Certificado de Ingeniería de Red Hat), academias y centros examinadores están disponibles en el casi todas partes del mundo.

Volver

DISTRIBUCIONES

|

Linux es un sistema de libre distribución por lo que podeis encontrar todos los ficheros/programas necesarios para su funcionamiento en multitud de servidores conectados a Internet. La tarea de reunir todos los ficheros/programas necesarios, asi como instalarlos en tu sistema, puede ser una tarea bastante complicada y no apta para muchos. Por esto mismo, nacieron las llamadas distribuciones de Linux, empresas que se dedican a hacer el trabajo "sucio" para nuestro beneficio y comodidad.

Una distribución no es otra cosa, que una recopilación de programas y ficheros, organizados y preparados para su instalación. Estas distribuciones se pueden obtener a traves de Internet, o comprando los CDs de las mismas, los cuales contendrán todo lo necesario para instalar un sistema Linux bastante completo y en la mayoría de los casos un programa de instalación que nos ayudara en la tarea de una primera instalación. Casi todos los principales distribuidores de Linux, ofrecen la posibilidad de bajarse sus distribuciones, via FTP (sin cargo alguno).

Existen varias distribuciones creadas por diferentes empresas a unos precios bastantes asequibles (si se compran los CDs, en vez de bajársela via FTP), las cuales deberiais de poder encontrar en tiendas de informática o librerías. En El siguiente enlace teneis una lista con las empresas que distribuyen distribuciones en España y Centro/Sur américa. En el peor de los casos siempre podeis encargarlas directamente por Internet a las empresas que las crean. A veces, las revistas de informática sacan una edición bastante aceptable de alguna distribución.

Si vais a instalar el sistema por primera vez, os recomiendo haceros con una de estas distribuciones y en un futuro cuando querais actualizar el sistema con las últimas versiones y actualizaciones del núcleo y programas que utiliceis, usar Internet.

CARACTERISTICAS DE LINUX

|


Algunas de sus características

Tux Indicando- Multitarea: La palabra multitarea describe la habilidad de ejecutar varios programas al mismo tiempo.

LINUX utiliza la llamada multitarea preeventiva, la cual asegura que todos los programas que se estan utilizando en un momento dado seran ejecutados, siendo el sistema operativo el encargado de ceder tiempo de microprocesador a cada programa.

- Multiusuario: Muchos usuarios usando la misma maquina al mismo tiempo.

- Multiplataforma: Las plataformas en las que en un principio se puede utilizar Linux son 386-, 486-. Pentium, Pentium Pro, Pentium II,Amiga y Atari, tambien existen versiones para su utilizacion en otras plataformas, como Alpha, ARM, MIPS, PowerPC y SPARC.

- Multiprocesador: Soporte para sistemas con mas de un procesador esta disponible para Intel y SPARC.

- Funciona en modo protegido 386.

- Protección de la memoria entre procesos, de manera que uno de ellos no pueda colgar el sistema.

- Carga de ejecutables por demanda: Linux sólo lee del disco aquellas partes de un programa que están siendo usadas actualmente.

-Política de copia en escritura para la compartición de páginas entre ejecutables: esto significa que varios procesos pueden usar la misma zona de memoria para ejecutarse. Cuando alguno intenta escribir en esa memoria, la página (4Kb de memoria) se copia a otro lugar. Esta política de copia en escritura tiene dos beneficios: aumenta la velocidad y reduce el uso de memoria.

-Memoria virtual usando paginación (sin intercambio de procesos completos) a disco: A una partición o un archivo en el sistema de archivos, o ambos, con la posibilidad de añadir más áreas de intercambio sobre la marcha Un total de 16 zonas de intercambio de 128Mb de tamaño máximo pueden ser usadas en un momento dado con un límite teórico de 2Gb para intercambio. Este limite se puede aumentar facilmente con el cambio de unas cuantas lineas en el codigo fuente.

 

©2009 Lo Agarro | Template Blue by TNB