martes, 24 de marzo de 2009

Perifericos

PERIFERICOS DEL ORDENADOR

Tipos de periféricos
Los periféricos pueden clasificarse en 4 categorías principales:

-Periféricos de entrada: captan y envían los datos al dispositivo que los procesará.
-Periféricos de salida: son dispositivos que muestran o proyectan información hacia el exterior del ordenador. La mayoría son para informar, alertar, comunicar, proyectar o dar al usuario cierta información, de la misma forma se encargan de convertir los impulsos eléctricos en información legible para el usuario. Sin embargo, no todos de este tipo de periféricos es información para el usuario.
-Periféricos de entrada/salida (E/S)
Periféricos de almacenamiento: son los dispositivos que almacenan datos e información por bastante tiempo. La memoria RAM no puede ser considerada un periférico de almacenamiento, ya que su memoria es volátil y temporal.
-Periféricos de comunicación: son los periféricos que se encargan de comunicarse con otras máquinas o computadoras, ya sea para trabajar en conjunto, o para enviar y recibir información.

-Periféricos de entrada
Son los que permiten introducir datos externos a la computadora para su posterior tratamiento por parte de la CPU. Estos datos pueden provenir de distintas fuentes, siendo la principal un ser humano. Los periféricos de entrada más habituales son:
Teclado

Ratón o Mouse
Escáner
Escáner de código de barras
Joystick
Micrófono
Cámara web
Conversor Analógico digital
Tableta digitalizadora
Pantalla táctil
También los cables que conectamos a las PC para tener internet, o para encender la impresora, esos también son periféricos de entrada.

-Periféricos de salida
Monitores de computadora, trabajando juntos.
Son los que reciben información que es procesada por la CPU y la reproducen para que sea perceptible para el usuario. Ej.: impresora, monitor, etc.
Monitor

Impresora
Altavoces o Parlantes
Auriculares
Fax
-Periféricos de entrada/salida
Pantalla táctil

Impresora Multi-función o multi-funcional
Auriculares con micrófono integrado

-Periféricos de almacenamiento
Interior de un Disco Duro.
Se encargan de guardar los datos de los que hace uso la CPU para que ésta pueda hacer uso de ellos una vez que han sido eliminados de la memoria principal, ya que ésta se borra cada vez que se apaga la computadora. Pueden ser internos, como un disco duro, o extraíbles, como un CD. Los más comunes son:
Disco duro

Lector y/o Grabadora de CD
Lector y/o Grabadora de DVD
Lector y/o Grabadora de Blu-ray
Lector y/o Grabadora de HD DVD
Memoria Flash
Cintas magnéticas
Tarjetas perforadas
Memoria portátil
Disquete

-Periféricos de comunicación
Su función es permitir o facilitar la interacción entre dos o más computadoras, o entre una computadora y otro periférico externo a la computadora. Entre ellos se encuentran los siguientes:
placa madre
Fax-Módem
Tarjeta de red
Hub
Switch
Router
Tarjeta Wireless
Tarjeta Bluetooth

martes, 17 de marzo de 2009

Scaners

El escáner

Un escáner es un periférico de captura utilizado para escanear documentos; es decir, convertir un documento en papel en una imagen digital.
En general, se puede decir que existen tres tipos de escáner:
Los escáneres planos permiten escanear un documento colocándolo de cara al panel de vidrio. Éste es el tipo de escáner más común.
Los escáneres manuales son de tamaño similar. Éstos deben desplazarse en forma manual (o semi-manual) en el documento, por secciones sucesivas si se pretende escanearlo por completo.
Los escáneres con alimentador de documentos hacen pasar el documento a través de una ranura iluminada para escanearlo, de manera similar a las máquinas de fax. Este tipo de escáner se está incorporando cada vez más en máquinas como las impresoras multifunción. También existen escáneres capaces de escanear elementos específicos, como diapositivas
.


Características de un escáner
En general, un escáner se caracteriza por los siguientes elementos:
Resolución: expresada en puntos por pulgada (denominados dpi), la resolución define la calidad de escaneo. El orden de magnitud de la resolución se encuentra alrededor de los 1200 por 2400 dpi. La resolución horizontal depende mucho de la calidad y del número de capturadores, mientras que la resolución vertical está íntimamente ligada a la exactitud del motor principal de entrenamiento. Sin embargo, es importante distinguir la resolución óptica, la cual representa la resolución real del escáner, de la resolución interpolada. La interpolación es una técnica que implica la definición de píxeles intermedios de entre los píxeles reales mediante el cálculo del promedio de los colores de los píxeles circundantes. Gracias a dicha tecnología se logran obtener buenos resultados, aunque la resolución interpolada definida de esta manera no constituye en absoluto un criterio utilizable a la hora de comparar escáneres.
El formato del documento: según el tamaño, los escáneres pueden procesar documentos de distintos tamaños: por lo general A4 (21 x 29,7 cm), o con menor frecuencia A3 (29,7 x 42 cm).
Velocidad de captura: expresada en páginas por minuto (ppm), la velocidad de captura representa la capacidad del escáner para procesar un gran número de páginas por minuto. Dicha velocidad depende del formato del documento y de la resolución elegida para el escaneo.
Interfaz: se trata del conector del escáner. Las principales interfaces son las siguientes:
FireWire. Es la interfaz preferida, ya que su velocidad es particularmente conveniente para este

tipo de periféricos
USB 2.0. Suministrado en todos los ordenadores actuales. Se trata de una interfaz estándar recomendada cuando el ordenador no posee conexión FireWire
SCSI. Aunque a finales de los 90 constituyó la interfaz preferida, el estándar SCSI se dejó de utilizar debido a la aparición de FireWire y el USB 2.0
Puerto paralelo. Este tipo de conector es lento por naturaleza, y se está utilizando cada vez menos; se debe tratar de evitar si el ordenador dispone de alguno de los conectores mencionados anteriormente
Características físicas: es posible tener en cuenta otros elementos a la hora de seleccionar un escáner:
Tamaño, en términos de las dimensiones físicas del escáner.
Peso.
Consumo de energía eléctrica, expresado en Watts (W).
Temperaturas de funcionamiento y almacenamiento.
Nivel de ruido. Un escáner puede producir bastante ruido, lo cual suele ocasionar considerables perturbaciones.
Accesorios: Aunque generalmente se suministran los drivers y el manual del usuario, se debe verificar que también se incluyan los cables de conexión; de lo contrario deberán adquirirse por separado.

Cómo funciona un escáner
El principio de funcionamiento de un escáner es el siguiente:
El escáner se mueve a lo largo del documento, línea por línea
Cada línea se divide en "puntos básicos", que corresponden a píxeles.
Un capturador analiza el color de cada píxel.
El color de cada píxel se divide en 3 componentes (rojo, verde, azul)
Cada componente de color se mide y se representa mediante un valor. En el caso de una cuantificación de 8 bits, cada componente tendrá un valor de entre 0 y 225 inclusive.
En el resto de este artículo se describirá específicamente el funcionamiento de un escáner plano, aunque el modo de funcionamiento del escáner manual y del escáner con alimentador de documentos es exactamente el mismo. La única diferencia reside en la alimentación del documento.
El escáner plano dispone de una ranura iluminada con motor, la cual escanea el documento línea por línea bajo un panel de vidrio transparente sobre el cual se coloca el documento, con la cara que se escaneará hacia abajo.
La luz de alta intensidad emitida se refleja en el documento y converge hacia una serie de capturadores, mediante un sistema de lentes y espejos. Los capturadores convierten las intensidades de luz recibidas en señales eléctricas, las cuales a su vez son convertidas en información digital, gracias a un conversor analógico-digital.
Existen dos categorías de capturadores:
Los capturadores CMOS (Semiconductor Complementario de Óxido Metálico), o MOS Complementario). Dichos capturadores se conocen como tecnología CIS (de Sensor de Imagen por Contacto). Este tipo de dispositivo se vale de una rampa LED (Diodo Emisor de Luz) para iluminar el documento, y requiere de una distancia muy corta entre los capturadores y el documento. La tecnología CIS, sin embargo, utiliza mucha menos energía.
Los capturadores CCD (Dispositivos de Carga Acoplados). Los escáneres que utilizan la tecnología CCD son por lo general de un espesor mayor, ya que utilizan una luz de neón fría. Sin embargo, la calidad de la imagen escaneada en conjunto resulta mejor, dado que la proporción señal/ruido es menor.

Impresoras

-IMPRESORAS-


Funcionamiento:
En la actualidad, cualquier usuario de PC trabaja habitualmente en formato electrónico. Se redactan documentos mediante herramientas de proceso de texto, se crean presentaciones que se pueden mostrar directamente en la pantalla del PC, se escriben “cartas electrónicas” mediante e-mail, etc. Sin duda, el uso innecesario del papel se ha reducido considerablemente, lo que conlleva muchos beneficios (por ejemplo, el consiguiente impacto positivo en el ambito ecologico por la resducion de papel)

La impresión láser se basa enteramente en la interacción electrostática, el mismo fenómeno que produce que un plástico atraiga trozos de papel tras ser frotado con una prenda de fibra.

Tinta sólida (Solid Ink)
Las impresoras de tinta sólida, también llamadas de cambio de fase, son un tipo de impresora de transferencia termal pero utiliza barras sólidas de tinta a color CMYK (similar en consistencia a la cera de las velas). La tinta se derrite y alimenta una cabeza de impresión operada por un cristal piezoeléctrico (por ejemplo cuarzo). La cabeza distribuye la tinta en un tambor engrasado. El papel entonces pasa sobre el tambor al tiempo que la imagen se transfiere al papel.
Son comúnmente utilizadas como impresoras a color en las oficinas ya que son excelentes imprimiendo transparencias y otros medios no porosos, y pueden conseguir grandes resultados. Los costes de adquisición y utilización son similares a las impresoras láser.
Las desventajas de esta tecnología son el alto consumo energético y los largos periodos de espera (calentamiento) de la maquina. También hay algunos usuarios que se quejan de que la escritura es difícil sobre las impresiones de tinta sólida (la cera tiende a repeler la tinta de los bolígrafos), y son difíciles de alimentar de papel automáticamente, aunque estos rasgos han sido significantemente reducidos en los últimos modelos. Además, este tipo de impresora solo se puede obtener de un único fabricante, Xerox, como parte de su línea de impresoras de oficina Xerox Phaser. Previamente las impresoras de tinta sólida fueron fabricadas por Tektronix, pero vendió su división de impresión a Xerox en el año 2000.

















Impresora láser
Para comprender la impresión electrostática, basta saber que las cargas eléctricas pueden ser positivas o negativas, y que las cargas de signo opuesto se atraen, mientras que las cargas de igual signo se repelen.En primer lugar, se carga negativamente toda la superficie de un tambor fotosensible, del tamaño de una hoja. Acto seguido, se hace avanzar el tambor línea a línea, y un láser recorre horizontalmente cada línea, ayudado por un espejo giratorio (en otras palabras, se produce un proceso de barrido). El láser incide en los puntos donde la tinta se deberá fijar, invirtiendo la carga (que ahora será positiva). El láser se desconecta en los lugares donde no deberá aparecer tinta (quedando con carga negativa). Por tanto, tras recorrer todo el tambor, solo habrá cargas positivas en los puntos donde deberá depositarse tinta, mientras que el resto (lo que constituirá el fondo blanco del papel) queda cargado negativamente. En otras palabras, se ha conseguido crear una imagen electrostática de la hoja a imprimir, mediante cargas positivas sobre un fondo de cargas negativas.





Puntos cargados positivamenteLos puntos cargados positivamente en el tambor atraen partículas de tóner (material electronegativo mezclado con un pigmento que lo dota de color). Por tanto, la imagen final queda "dibujada" sobre el tambor por medio de puntos negros de tóner.El papel a imprimir se carga positivamente en su totalidad. Por tanto, al hacerlo pasar por el tambor, atraerá a las partículas de tóner (que tienen carga negativa), y la imagen quedará finalmente formada sobre papel. Finalmente, el tóner adherido al papel se funde mediante la aplicación de calor, haciendo que quede totalmente fijado al papel. Se consigue así imprimir una página en una sola pasada, al contrario que en las impresoras de inyección de tinta, donde la página se imprime línea a línea. Antes de imprimir una nueva página, se realiza un borrado electrostático del tambor, dejándolo preparado para un nuevo ciclo.
Impresoras con diodos emisores de luzExiste otra variante de las impresoras láser en las que no es necesario un proceso de barrido. En lugar de un láser y un sistema de espejos se dispone de una hilera de diodos emisores de luz (Láser-LED). Por ejemplo, en una impresora de 300 ppp, habrá una hilera de LED cubriendo una línea completa del papel, a razón de 300 LED por pulgada. Sólo se encienden, para cada línea, aquellos diodos que corresponden a puntos donde deberá aplicarse tóner. Este proceso se repite línea a línea hasta procesar el tambor completo. Se produce el mismo efecto que con un barrido láser, pero de forma más rápida.











Toners de colores
Tecnología con diodos de cristal líquidoOtra variante emplea diodos de cristal líquido (LCD) en lugar de LED. Estos conforman un material que es transparente u opaco según el nivel de tensión eléctrica que se le aplica. Se forzarán al estado transparente aquellos cristales correspondientes a los puntos donde deba aplicarse tóner, manteniendo el resto de diodos en estado opaco. Por otra parte, se aplica una lámpara halógena que ilumina todos los cristales, y sólo pasa luz a través de los diodos en estado transparente, invirtiendo la carga en el tambor.
Ventajas e inconvenientes de la impresión láserLas impresoras láser son mucho más rápidas que las impresoras de inyección de tinta. Además, están dotadas de una mayor precisión en la colocación de puntos sobre el papel. También economizan tinta, ya que depositan la cantidad de tóner necesaria, sin exceder ese límite. El tóner no es caro en comparación con los cartuchos de tinta y, además, es mucho más duradero, lo que resulta rentable en el entorno de una oficina, donde se imprimen gran cantidad de documentos diariamente. Como desventaja principal, el precio de estas impresoras es muy elevado en comparación con las impresoras de inyección de tinta.









viernes, 6 de marzo de 2009

Memoria RAM

Memoria RAM
Memoria RAM


La memoria de acceso aleatorio, (en inglés: Random Access Memory cuyo acrónimo es RAM) es la memoria desde donde el procesador recibe las instrucciones y guarda los resultados. Es el área de trabajo para la mayor parte del software de un computador. Existe una memoria intermedia entre el procesador y la RAM, llamada caché, pero ésta sólo es una copia de acceso rápido de la memoria principal almacenada en los módulos de RAM.Los módulos de RAM son la presentación comercial de este tipo de memoria, se compone de integrados soldados sobre un circuito impreso.Se trata de una memoria de estado sólido tipo DRAM en la que se puede tanto leer como escribir información. Se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se dicen "de acceso aleatorio" o "de acceso directo" porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible.Integrado de silicio de 64 Bites sobre un sector de memoria de núcleo(finales de los 60)La frase memoria RAM se utiliza frecuentemente para referirse a los módulos de memoria que se usan en los computadores personales y servidores. En el sentido estricto, estos dispositivos contienen un tipo entre varios de memoria de acceso aleatorio , ya que las ROM, memorias Flash , caché (SRAM) , los registros en procesadores y otras unidades de procesamiento también poseen la cualidad de presentar retardos de acceso iguales para cualquier posición.HISTORIA La denominación “de Acceso aleatorio” surgió para diferenciarlas de las memoria de acceso secuencial, debido a que en los comienzos de la computación, las memorias principales (o primarias) de las computadoras eran siempre de tipo RAM y las memorias secundarias (o masivas) eran de acceso secuencial (cintas o tarjetas perforadas). Es frecuente pues que se hable de memoria RAM para hacer referencia a la memoria principal de una computadora, pero actualmente la denominación no es precisa.Uno de los primeros tipos de memoria RAM fue la memoria de núcleo magnético, desarrollada entre 1949 y 1952 y usada en muchos computadores hasta el desarrollo de circuitos integrados a finales de los años 60 y principios de los 70. Antes que eso, las computadoras usaban reles y líneas de retardo de varios tipos construidas con tubos de vacío para implementar las funciones de memoria principal con o sin acceso aleatorio.En 1969 fueron lanzadas una de las primeras memorias RAM basadas en semiconductores de silicio por parte de Intel con el integrado 3101 de 64 bites de memoria y para el siguiente año se presento una memoria DRAM de 1 Kilobite, referencia 1103 que se constituyo en un hito, ya que fue la primera en ser comercializada con éxito, lo que significo el principio del fin para las memorias de núcleo magnético. En comparación con los integrados de memoria DRAM actuales, la 1103 es primitiva en varios aspectos, pero tenia un desempeño mayor que la memoria de núcleos.En 1973 se presentó una innovación que permitió otra miniaturización y se convirtió en estándar para las memorias DRAM: la multiplexación en tiempo de la direcciones de memoria. MOSTEK lanzó la referencia MK4096 de 4Kb en un empaque de 16 pines,[2] mientras sus competidores las fabricaban en el empaque DIP de 22 pines. El esquema de direccionamiento[3] se convirtió en un estándar de facto debido a al gran popularidad que logró esta referencia de DRAM. Para finales de los 70 los integrados eran usados en la mayoría de computadores nuevos, se soldaban directamente a las placas base o se instalaban en zócalos, de manera que ocupaban un área extensa de circuito impreso. Con el tiempo se hizo obvio que la instalación de RAM sobre el impreso principal, impedía la miniaturización , entonces se idearon los primeros módulos de memoria como el SIPP, aprovechando las ventajas de la construcción modular. El formato SIMM fue una mejora al anterior, eliminando los pines metálicos y dejando unas áreas de cobre en uno de los bordes del impreso, muy similares a los de las tarjetas de expansión, de hecho los módulos SIPP y los primeros SIMM tienen la misma distribución de pines.A finales de los 80 el aumento en la velocidad de los procesadores y el aumento en el ancho de banda requerido, dejaron rezagadas a las memorias DRAM con el esquema original MOSTEK, de manera que se realizaron una serie de mejoras en el direccionamiento como las siguientes:Módulos formato SIMM de 30 y 72 pines, los últimos fueron utilizados con integrados tipo EDO-RAMFPM-RAM (Fast Page Mode RAM)Inspirado en técnicas como el "Burst Mode" usado en procesadores como el Intel 486,[4] se implanto un modo direccionamiento en el que el controlador de memoria envía una sola dirección y recibe a cambio esa y varias consecutivas sin necesidad de generar todas las direcciones. Esto supone un ahorro de tiempos ya que ciertas operaciones son repetitivas cuando se desea acceder a muchas posiciones consecutivas. Funciona como si deseáramos visitar todas las casas en una calle: después de la primer vez no seria necesario decir el numero de la calle, unicamente seguir la misma. Se fabricaban con tiempos de acceso de 70 ó 60 ns y fueron muy populares en sistemas basados en el 486 y los primeros Pentium.EDO-RAM (Extended Data Output RAM)Lanzada en 1995 y con tiempos de accesos de 40 o 30ns suponia una mejora sobre su antecesora la FPM. La EDO, también es capaz de enviar direcciones contiguas pero direcciona la columna que va utilizar mientras que se lee la información de la columna anterior, dando como resultado una eliminación de estados de espera, manteniendo activo el buffer de salida hasta que comienza el próximo ciclo de lectura.BEDO-RAM (Burst Extended Data Output RAM)Fue la evolución de la EDO RAM y competidora de la SDRAM, fue presentada en 1997. Era un tipo de memoria que usaba generadores internos de direcciones y accedía a mas de una posición de memoria en cada ciclo de reloj, de manera que lograba un desempeño un 50% mejor que la EDO. Nunca salio al mercado, dado que Intel y otros fabricantes se decidieron por esquemas de memoria sincrónicos que si bien tenían mucho del direccionamiento MOSTEK, agregan funcionalidades distintas como señales de reloj.


TIPOS DE MEMORIA RAMDRAM
(Dynamic RAM)VRAM (Vídeo RAM)SRAM (Static RAM)FPM (Fast Page Mode)EDO (Extended Data Output)BEDO (Burst EDO)SDRAM (Synchronous DRAM)DDR SDRAM ó SDRAM II (Double Data Rate SDRAM)PB SRAM (Pipeline Burst SRAM)RAMBUSENCAPSULADOSSIMM (Single In line Memory Module)DIMM (Dual In line Memory Module)DIP (Dual In line Package)Memoria Caché ó RAM CachéRAM Disk





FUNCIONAMIENTO MEMORIA RAM

Se denomina memoria a los circuitos que permiten almacenar y recuperar la información. En un sentido más amplio, puede referirse también a sistemas externos de almacenamiento, como las unidades de disco o de cinta. Memoria de acceso aleatorio o RAM (Random Access Memory) es la memoria basada en semiconductores que puede ser leída y escrita por el microprocesador u otros dispositivos de hardware. El acceso a las posiciones de almacenamiento se puede realizar en cualquier orden.Los chips de memoria son pequeños rectángulos negros que suelen ir soldados en grupos a unas plaquitas con "pines" o contactos. La diferencia entre la RAM y otros tipos de memoria de almacenamiento, como los disquetes o los discos duros, es que la RAM es muchísimo más rápida, y que se borra al apagar el ordenador, no como éstos.El interior de cada chip se puede imaginar como una matriz o tabla en la cual cada celda es capaz de almacenar un bit. Por tanto, un bit se puede localizar directamente proporcionando una fila y una columna de la tabla. En realidad, la CPU identifica cada celda mediante un número, denominado dirección de memoria. A partir de una dirección se calcula cuál es la fila y columna correspondiente, con lo que ya se puede acceder a la celda deseada. El acceso se realiza en dos pasos: primero se comunica la fila y después la columna empleando los mismos terminales de conexión. Obviamente, esta técnica –denominada multiplexado– permite emplear menos terminales de conexión para acceder a la RAM, lo que optimiza la relación entre el tamaño del chip y la capacidad de almacenamiento.Realmente, la CPU no suele trabajar con bits independientes, sino más bien con agrupaciones de los mismos, en forma de palabras binarias. Esto hace que la RAM no se presente en un solo chip, sino más bien en agrupaciones de los mismos. Por ejemplo, un grupo de 8 chips, cada uno capaz de almacenas x bits, proporcionará en conjunto x Kb.La memoria no deja de ser un circuito electrónico real, y por tanto está expuesta a efectos que pueden producir errores en su contenido. En otras palabras, tras escribir una palabra en una posición de memoria es perfectamente posible que algún bit cambie de estado durante el tiempo que permanezca almacenada. Si se accede de nuevo a la memoria para leer dicha palabra se recuperará información errónea y esto puede acarrear todo tipo de consecuencias. Para ello se suelen emplear dos soluciones: la paridad y la técnica ECC (Error Correction Code). El elemento que implementa estos métodos se encuentra en el interior del PC y recibe el nombre de controlador de memoria.La paridad consiste en añadir un bit adicional a cada palabra, que hace que el número de unos sea par o impar (según se emplee la paridad par o impar). Si al leer información de la memoria el bit de paridad no está de acuerdo con el número de unos se habrá detectado un error.El sistema ECC añade un conjunto de bits a cada palabra a almacenar. La ventaja es que permite detectar errores en varios bits y además es capaz de corregir dichos errores. Estas técnicas implican añadir bits adicionales y por tanto tendrán impacto en la cantidad de memoria incorporada en cada módulo.

Topologias de redes

TOPOLOGIA DE RED

La topología de red o forma lógica de red se define como la cadena de comunicación que los nodos que conforman una red usan para comunicarse. Un ejemplo claro de esto es la topología de árbol, la cual es llamada así por su apariencia estética, la cual puede comenzar con la inserción del servicio de internet desde el proveedor, pasando por el router, luego por un switch y este deriva a otro switch u otro router o sencillamente a los hosts (estaciones de trabajo, pc o como quieran llamarle), el resultado de esto es una red con apariencia de árbol porque desde el primer router que se tiene se ramifica la distribución de internet dando lugar a la creación de nuevas redes y/o subredes tanto internas como externas. Además de la topología estética, se puede dar una topología lógica a la red y eso dependerá de lo que se necesite en el momento.En algunos casos se puede usar la palabra arquitectura en un sentido relajado para hablar a la vez de la disposición física del cableado y de cómo el protocolo considera dicho cableado. Así, en un anillo con una MAU podemos decir que tenemos una topología en anillo, o de que se trata de un anillo con topología en estrella.La topología de red la determina únicamente la configuración de las conexiones entre nodos. La distancia entre los nodos, las interconexiones físicas, las tasas de transmisión y/o los tipos de señales no pertenecen a la topología de la red, aunque pueden verse afectados por la misma.TIPOS
Según estas características podemos clasificar las redes de computadores de la siguiente manera:- Red Local ( LAN )- Red Metropolitana ( MAN )- Red Global ( WAN )redes de área localUna red de área local LAN (Local Area Network ), esta es una red limitada en un espacio físico que puede ser una oficina, edificio, universidad, etc. con un límite teórico de unos 8.000 puestos o estaciones de trabajo.Normalmente cubre distancias de unos pocos centenares de metros alcanzando, las más proliferas, hasta 1 Km. de distancia entre un computador y otro. Su finalidad principal consiste en compartir los recursos y la información que dispone dicha red en el mínimo tiempo posible y sin duplicar la información en tanto y en cuanto sea posible y deseable.redes de área MetropolitanaRed MAN ( Metropolitan Area Network ), es una red de área metropolitana, es decir, de cubrimiento geográfico por ciudades o por regiones y presta servicios a redes empresariales. Puede abarcar una distancia desde unas pocas decenas hasta 160 kilómetros.redes de área GlobalLas WAN (Wide Area Network) o redes de área mundial, son redes de alcance geográfico muy amplio, pudiendo llegar a cubrir todo el planeta, tal y como es el caso de Internet.La más antigua forma de WAN es la red USNET que conectan estaciones de trabajo UNIX a otras estaciones de trabajo UNIX. Estas redes fueron desarrolladas en la década de los años 60 y 70 cuando los computadores eran máquinas muy raras y apreciadas, de hecho una WAN es en verdad un aglomerado de subredes (redes locales) y computadores de varias plataformas que se conectan y dan origen a lo que hoy conocemos como Internet. Para hacer que este enmarañado de sistemas con una tecnología muy diversa (no siendo un requisito que sean necesariamente compatibles) pueda comunicarse es necesario disponer de un traductor de protocolo, comúnmente llamado "gateway" (pasarela). Los protocolos son conjuntos de normativas que determinan como debe realizarse el intercambio de datos entre los computadores (hardware) y los programas (software
).

Tipos de micros.

HISTORIA
El microprocesador es un producto de la computadora y con tecnología semiconductora. Se eslabona desde la mitad de los años 50's; estas tecnologías se fusionaron a principios de los años 70`'s, produciendo el llamado microprocesador.La computadora digital hace cálculos bajo el control de un programa. La manera general en que los cálculos se han hecho es llamada la arquitectura de la computadora digital. Así mismo la historia de circuitos de estado sólido nos ayuda también, porque el microprocesador es un circuito con transistores o microcircuito LSI (grande escala de integración), para ser más preciso.El mapa de la figura, mostrada al final de esta sección, muestra los sucesos importantes de éstas dos tecnologías que se desarrollaron en las últimas cinco décadas. Las dos tecnologías iniciaron su desarrollo desde la segunda guerra mundial; en este tiempo los científicos desarrollaron computadoras especialmente para uso militar. Después de la guerra, a mediados del año de 1940 la computadora digital fue desarrollada para propósitos científicos y civiles.La tecnología de circuitos electrónicos avanzó y los científicos hicieron grandes progresos en el diseño de dispositivos físicos de Estado Sólido. En 1948 en los laboratorios Bell crearon el Transistor.En los años 50's, aparecen las primeras computadoras digitales de propósito general. Éstas usaban tubos al vacío (bulbos) como componentes electrónicos activos. Tarjetas o módulos de tubos al vacío fueron usados para construir circuitos lógicos básicos tales como compuertas lógicas y flip-flops (Celda donde se almacena un bit). Ensamblando compuertas y flip-flops en módulos, los científicos construyeron la computadora ( la lógica de control, circuitos de memoria, etc.). Los bulbos también formaron parte de la construcción de máquinas para la comunicación con las computadoras. Para el estudio de los circuitos digitales, en la construcción de un circuito sumador simple se requiere de algunas compuertas lógicas.La construcción de una computadora digital requiere de muchos circuitos o dispositivos electrónicos. El principal paso tomado en la computadora fue hacer que el dato fuera almacenado en memoria como una forma de palabra digital. La idea de almacenar programas fue muy importante.La tecnología de los circuitos de estado sólido evolucionó en la década de los años 50's. El uso del material silicio de bajo costo y con métodos de producción masiva, hicieron al transistor ser el más usado para el diseño de circuitos. Por lo tanto el diseño de la computadora digital fue un gran avance del cambio para remplazar al tubo al vacío (bulbo) por el transistor a finales de los años 50's. A principios de los años 60's, el arte de la construcción de computadoras de estado sólido se incrementó y surgieron las tecnologías en circuitos digitales como: RTL (Lógica Transistor Resistor), DTL (Lógica Transistor Diodo), TTL (Lógica Transistor Transistor), ECL (Lógica Complementada Emisor).A mediados de los años 60's se producen las familias de lógica digital, dispositivos en escala SSI y MSI que corresponden a pequeña y mediana escala de integración de componentes en los circuitos de fabricación. A finales de los años 60's y principios de los años 70's surgieron los LSI (gran escala de integración ). La tecnología LSI fue haciendo posible más y más circuitos digitales en un circuito integrado. Pero pocos circuitos LSI fueron producidos, los dispositivos de memoria fueron un buen ejemplo.Las primeras calculadoras electrónicas requerían de 75 a 100 circuitos integrados. Después se dio un paso importante en la reducción de la arquitectura de la computadora a un circuito integrado simple, resultando un circuito que fue llamado el microprocesador. El primer microprocesador fue el Intel 4004, producido en 1971. Se desarrolló originalmente para una calculadora, y resultaba revolucionario para su época. Contenía 2.300 transistores en un microprocesador de 4 bits que sólo podía realizar 60.000 operaciones por segundo. El primer microprocesador de 8 bits fue el Intel 8008, desarrollado en 1979 para su empleo en terminales informáticos. El Intel 8008 contenía 3.300 transistores. El primer microprocesador realmente diseñado para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4.500 transistores y podía ejecutar 200.000 instrucciones por segundo. Los microprocesadores modernos tienen una capacidad y velocidad mucho mayores. Entre ellos figuran el Intel Pentium Pro, con 5,5 millones de transistores; el UltraSparc-II, de Sun Microsystems, que contiene 5,4 millones de transistores; el PowerPC 620, desarrollado conjuntamente por Apple, IBM y Motorola, con 7 millones de transistores, y el Alpha 21164A, de Digital Equipment Corporation, con 9,3 millones de transistores.MICRO 386Por su parte, el 386 dispone de una arquitectura de registros de 32 bits, con un bus de direcciones tambien de 32 bits (direcciona hasta 4 Gigabytes = 4096 Mb) y mas modos posibles de funcionamiento: el modo real (compatible 8086), el modo protegido (relativamente compatible con el del 286), un modo protegido propio que permite -por fin!- romper la barrera de los tradicionales segmentos y el modo «virtual 86», en el que puede emular el funcionamiento simultaneo de varios 8086. Una vez mas, todos los modos son incompatibles entre si y requieren de un sistema operativo especifico: si se puede perdonar al fabricante la perdida de compatibilidad del modo avanzados del 286 frente al 8086, debido a la logica evolucion tecnologica, no se puede decir lo mismo del 386 respecto al 286: no hubiera sido necesario añadir un nuevo modo protegido si hubiera sido mejor construido el del 286 apenas un par de años atros. Normalmente, los 386 suelen operar en modo real (debido al DOS) por lo que no se aprovechan las posibilidades multitarea ni de gestion de memoria. Por otra parte, aunque se pueden emplear los registros de 32 bits en modo real, ello no suele hacerse -para mantener la compatibilidad con procesadores anteriores- con lo que de entrada se esto tirando a la basura un 50% de la capacidad de proceso del chip, aunque por fortuna estos procesadores suelen trabajar a frecuencias de 16/20 MHz (obsoletas) y normalmente de 33 y hasta 40 MHz.El 386sx es una variante del 386 a nivel de hardware, aunque es compatible en software. Basicamente, es un 386 con un bus de datos de solo 16 bits -mas lento, al tener que dar dos pasadas para un dato de 32 bits-. De hecho, podria haber sido disiñado perfectamente para mantener una compatibilidad hardware con el 286, aunque el fabricante lo evito probablemente por razones comerciales.MICRO486 El 486 se diferencia del 386 en la integracion en un solo chip del coprocesador 387. Tambien se ha mejorado la velocidad de operacion: la version de 25 MHz dobla en terminos reales a un 386 a 25 MHz equipado con el mismo tomado de memoria cache. La version 486sx no se diferencia en el tamado del bus, tambien de 32 bits, sino en la ausencia del 387 (que puede ser añadido externamente). Tambien existen versiones de 486 con buses de 16 bits, el primer fabricante de estos chips, denominados 486SLC, ha sido Cyrix. Una tendencia iniciada por el 486 fue la de duplicar la velocidad del reloj interno (pongamos por caso de 33 a 66 MHz) aunque en las comunicaciones con los buses exteriores se respeten los 33 MHz. Ello agiliza la ejecucion de las instrucciones mas largas: bajo DOS, el rendimiento general del sistema se puede considerar practicamente el doble. Son los chips DX2 (tambien hay una variante a 50 MHz: 25 x 2). La culminacion de esta tecnologia viene de la mano de los DX4 a 75/100 MHz (25/33 x 3).PENTIUM IEl 19 de octubre de 1992, Intel anunció que la quinta generación de su línea de procesadores compatibles (cuyo código interno era el P5) llevaría el nombre Pentium en vez de 586 u 80586, como todo el mundo estaba esperando. Esta fue una estrategia de Intel para poder registrar la marca y así poder diferir el nombre de sus procesadores del de sus competidores (AMD y Cyrix principalmente).Este microprocesador se presentó el 22 de marzo de 1993 con velocidades iniciales de 60 y 66 MHz (112 millones de instrucciones por segundo en el último caso), 3.100.000 transistores (fabricado con el proceso BICMOS (Bipolar-CMOS) de 0,8 micrones), caché interno de 8 KB para datos y 8 KB para instrucciones, verificación interna de paridad para asegurar la ejecución correcta de las instrucciones, una unidad de punto flotante mejorada, bus de datos de 64 bit para una comunicación más rápida con la memoria externa y, lo más importante, permite la ejecución de dos instrucciones simultáneamente. El chip se empaqueta en formato PGA (Pin Grid Array) de 273 pines.PENTIUM IIEl procesador Pentium con tecnología MMX™, ahora disponible con 166 MHz y 200 MHz.Con tecnología MMX de Intel, las PCs obtienen un nuevo nivel de funcionamiento en multimedia y otras nuevas capacidades que sobre pasan lo experimentado anteriormente.sonido intensocolores brillantesrendimiento 3D realísticoanimación y video fluidoPara beneficios de funcionamiento completo, se debe combinar un procesador Pentium con una PC basada en tecnología MMX con programas especialmente diseñados para tecnología MMX.PENTIUM IIIEl Pentium III es un microprocesador de arquitectura i686 fabricado por Intel; el cual es una modificación del Pentium Pro. Fue lanzado el 26 de febrero de 1999.Las primeras versiones eran muy similares al Pentium II, siendo la diferencia más importante la introducción de las instrucciones SSE. Al igual que con el Pentium II, existía una versión Celeron de bajo presupuesto y una versión Xeon para quienes necesitaban de gran poder de cómputo. Esta línea ha sido eventualmente reemplazada por el Pentium 4, aunque la línea Pentium M, para equipos portátiles, esta basada en el Pentium III.PENTIUM IVEl Pentium 4 es un microprocesador de séptima generación basado en la arquitectura x86 y fabricado por Intel. Es el primer microprocesador con un diseño completamente nuevo desde el Pentium Pro de 1995. El Pentium 4 original, denominado Willamette, trabajaba a 1,4 y 1,5 GHz; y fue lanzado en noviembre de 2000.Para la sorpresa de la industria informática, el Pentium 4 no mejoró el viejo diseño P6 según las dos tradicionales formas para medir el rendimiento: velocidad en el proceso de enteros u operaciones de coma flotante. La estrategia de Intel fue sacrificar el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE. Al igual que la Pentium II y la Pentium III, el Pentium 4 se comercializa en una versión para equipos de bajo presupuesto (Celeron), y una orientada a servidores de gama alta (Xeon).AMD En 1997 AMD lanzó el microprocesador AMD K6. Éste procesador estaba diseñado para funcionar en placas base Pentium. La principal ventaja del AMD con respecto al Pentium era su precio, bastante más barato con las mismas prestaciones. El K6 tuvo una gran aceptación en el mercado presentándose como un rival fuerte para Intel. Su sucesor fue el microprocesador K6-2.Con el K6, AMD no sólo consiguió hacerle la competencia a Intel en el terreno de los Pentium MMX, sino que además amargó lo que de otra forma hubiese sido un plácido dominio del mercado, ofreciendo un procesador que casi se pone a la altura del mismísimo Pentium II.En cuanto a potencia bruta, si comparamos sus prestaciones en la ejecución de software de 16 bits, vemos que la diferencia es escasa entre todos los procesadores, quedando como único rezagado el Pentium Pro.Si pasamos a los programas de 32 bits, aquí es al revés, y el que se lleva la palma es el Pentium Pro (El Pentium II puede vencerle sólo si lo comparamos con versiones a mayor velocidad), quedando el K6 algo por debajo del Pentium II, pero muy por encima del Pentium MMX e incluso del Cyrix 6x86.En cálculos en coma flotante, el K6 también queda por debajo del Pentium II, pero por encima del Pentium MMX y del Pro, y aquí el que se queda más rezagado como siempre es el Cyrix.El K6 cuenta con una gama que va desde los 166 hasta los 300 Mhz y con el juego de instrucciones MMX, que ya se han convertido en estándar